Chart GPT刚刚发布,一位不知名的作者将它的孪生兄弟“DAN”就在世界上最黑暗的暗网上线了。
这个黑化的GPT刚刚上线的一周后,就已经有组织利用“DAN”犯罪了。
他们利用虚拟电话号码注册各种交友平台的账号,然后再模仿有魅力的男女人设去和平台上的男女聊天。他们通过聊天让男网友转账,让女网友到指定的地方见面。
这些行为也被世界上最大的安全公司麦克菲识别并拦截,麦克菲主动与5000位正在与人工智能聊得火热的网友联系,然而这些网友中很大一部分人都不相信自己正在热聊的“爱人”原来是AI。
最可怕的就是,“DAN”还可以帮助普通人写木马软件,只需要每月花200元人民币就可以在暗网申请一个账号去进行一段木马程序的编写。原本学习黑客技术才能完成的高难度犯罪变成了人人都可以做到的事情。AI 真的已经成为了可以作恶的工具。
可以预见,网络安全行业将迎来新的“地震”。黑客开发和部署恶意软件、勒索软件比以往任何时候都容易。网络安全业界也将产生一系列新的基于人工智能技术的防御。
最近一些世界顶级网络安全分析师对人工智能引发的安全发展给出了一些预测:ChatGPT将降低网络犯罪的准入门槛、制作以假乱真的网络钓鱼电子邮件将变得更加容易、
企业将需要验证生成式AI内容输出、生成式人工智能将扩大现有威胁的规模、企业需要制订人工智能安全规则、人工智能将增强人为因素、企业将需要具备人工智能知识的安全专业人员。
ChatGPT将降低网络犯罪的门槛。
正如前面所说,原本需要高技能人才和大量资金的技术如今任何能够上网的人都可以使用。技能较低的攻击者(脚本小子)现在都有办法批量生成恶意代码。
不法分子可以要求ChatGPT编写代码,生成包含恶意链接的短信和邮件。网络安全组织必须对人工智能技术的利用方式保持警惕。
未来企业需要具备人工智能知识的安全专业人员。
尽管ChatGPT已经风靡全球,但对网络安全领域的影响仍处于起步阶段。它标志着攻防两端采用AI/ML的新时代的开始。
ChatGPT有可能被用来使社会工程民主化,为没有经验的威胁行为者提供新发现的能力,以快速轻松地生成诈骗剧本,大规模部署复杂的网络钓鱼攻击。
网络安全业界更深入的话题其实不是ChatGPT,而是我们今天是否有具备人工智能知识的网络安全专业人员,了解如何开发,使用和解释AI/ML技术。
企业需要制订人工智能安全规则
随着越来越多的企业开始探索ChatGPT的用例,安全性将成为首要考虑因素。2023年企业需要未雨绸缪。
设定如何在企业环境中使用ChatGPT和其他类似解决方案的规则。制定可接受的使用政策;定义员工可以使用的人工智能产品、用例和数据的“白名单”列表;并要求设立检查流程来验证人工智能生成内容的准确性。
建立内部流程,以审查与认知自动化解决方案使用相关的法规影响和演变,特别是对知识产权,个人数据以及包容性和多样性的管理。
实施技术网络控制,特别要注意测试代码的运营弹性和扫描恶意负载。其他控制包括但不限于:多因素身份验证和仅允许授权用户访问、部署数据丢失防护解决方案、确保工具生成的所有代码都经过标准审查并且不能直接复制到生产环境流程、配置Web过滤规则,在员工访问未经批准的人工智能解决方案时报警。