骗子用人工智能生成的文本和虚假产品评论愚弄人们
今年早些时候,微软推出了一种新的人工智能(AI)系统,该系统可以在听完一个人的讲话后短短三秒钟内重新创建他或她的声音。
这标志着人工智能能够以多快且令人信服的速度复制某人身份的关键部分。
据报道,副记者约瑟夫·考克斯后来也使用了类似的人工智能技术,利用人工智能复制自己的声音来登录银行账户。
今年 3 月,澳大利亚卫报记者尼克·埃弗里德 (Nick Evershed) 表示,他使用人工智能让他的 Centrelink 自助服务账户听到自己的声音,这引起了一些安全专家的担忧。 。
虽然诈骗者可以利用语音克隆,但这并不是专家发现诈骗者利用人工智能的唯一方式。
让我们看看如何使用这项技术以及如何最好地保护自己。
人工智能可以复制任何人的声音
《卫报》的一项调查显示,Centrelink 和澳大利亚税务局 (ATO) 使用的“声纹”安全系统(使用“在澳大利亚,我的声音识别我”这一短语)实际上可能被欺骗。
这感觉就像 1992 年电影《运动鞋》中的场景,罗伯特·雷德福 (Robert Redford) 饰演的角色使用录音来通过安检。
Services Australia 在其 2021-22 年度报告中表示,语音生物识别技术每天用于验证超过 56,000 个呼叫,其中 39% 的呼叫用于 Centrelink 主要业务号码。 它还表示声纹“与指纹一样安全”。
澳大利亚税务局表示,“其他人很难模仿你的声纹并获取你的个人信息”。
皇家墨尔本理工大学信息科学教授丽莎·吉文博士表示,人工智能生成的声音还可以欺骗人们,让他们相信自己正在与认识的人交谈。
“当一个系统可以合理地复制我的声音并添加同理心时,你可以想象诈骗者可以从发送短信说‘嘿,妈妈,我丢了我的手机’,到拨打电话或发送语音邮件,实际上是在尝试创造那个人的声音,”她说。
上个月,美国联邦贸易委员会警告消费者,不要使用人工智能生成的声音来冒充家庭成员的紧急电话。 美国联邦调查局还对虚拟绑架诈骗发出了警告。
这些担忧促使专家提出了一些基本策略,人们可以使用这些策略来保护自己免受语音欺骗:
网络安全软件公司 Gen Digital 亚太区董事总经理 Mark Gorrie 表示,人工智能语音生成器在欺骗人和安全系统方面将变得越来越强大。
“多年来,‘机器人诈骗’很容易通过声音来检测,”他说,“但基于声音的人工智能将变得更像那样,显然它使用的文本也将更像那样。”
人工智能系统也越来越多地被用来识别基于人工智能的诈骗。 (Unsplash:Towfiqu Barbhuiya)
诈骗者利用人工智能生成的文本和虚假产品评论来愚弄人们
随着人工智能系统的改进,大规模语言模型,例如 OpenAI 流行的聊天机器人 ChatGPT,能够更好地模仿人类的反应。 这是诈骗者试图在电子邮件、短信和他们自己创建的其他聊天机器人中重现的内容。
“我们人类在与人建立关系时使用的同理心和社交线索的概念正是诈骗者可以使用并构建到他们的系统中的技术,”吉文博士说。
诈骗者在网络钓鱼诈骗中使用人工智能,通常涉及声称来自合法来源的电子邮件或短信,但最终使用社会工程来获取个人信息。 有些消息还可能使用链接将您发送至危险网站。
吉文博士说,聊天机器人和大型语言模型可以通过“改进语言”并使消息显得更加个性化,从而使网络钓鱼活动更具说服力。
“过去,网络钓鱼电子邮件充满了拼写错误和不真实的细节,足以让人们问,‘这是谁写的?这是什么?’ 近年来,这些事情在短信诈骗中确实急剧增加,而且诈骗者正在使用更多的平台,”她说。
网络安全公司 Darktrace 表示网络打字骗局,2023 年前几个月,复杂和新颖的社会工程攻击增加了 135%,这与 ChatGPT 的广泛采用相对应。
“与此同时,包含链接或附件的恶意电子邮件的数量有所下降。 这一趋势表明,ChatGPT 等生成式 AI 正在为威胁行为者提供一种高速、大规模创建复杂且有针对性的消息的方法。 的攻击。”
戈里先生表示,Gen Digital 预测此类骗局将继续增加,因为缺乏技术技能的人很容易制造此类骗局。
“不要认为仅仅通过观察就能辨别一条信息的真假,”他说。 “你必须持怀疑态度,并对你所看到的进行批判性思考。”
Darktrace 首席产品官 Max Heinemeyer 表示,该公司还在使用人工智能来帮助识别基于人工智能的诈骗。
“在一个攻击越来越多地由人工智能驱动的世界里,我们不能再把确定他们收到的通信的真实性的责任归咎于人类。这现在是人工智能的工作,”他说。
高力说,人工智能也被用来在网上发布虚假产品评论,但一些旨在查找人工智能生成内容的工具很难持续识别它。
“这只是表明,随着质量的不断提高,它显然更难被发现。”
人工智能可以生成虚假的产品评论,诈骗者在试图销售伪劣产品时会使用这些评论。 (美联社:珍妮·凯恩)
诈骗者可以利用人工智能创建恶意计算机代码并破解密码
软件工程师和爱好者已经使用人工智能来快速构建应用程序和网站等内容,但该技术也被用来生成可用于侵入其他计算机的代码。
“我们在一些黑客论坛上看到,一个不太熟悉恶意代码编写的非技术人员也可以编写一些基本代码用于恶意目的,”高丽说。 “因此,成为真正的黑客的门槛肯定正在发生变化。”
人工智能程序也被用来尝试破解密码网络打字骗局,专家敦促人们加强密码并尽可能使用双因素身份验证。
一些专家还担心人工智能功能可能很快就会被添加到 Google Docs 和 Microsoft Excel 等生产力应用程序中。 他们担心,如果诈骗者或黑客掌握了大量被盗数据,人工智能工具可以用来快速提取有价值的信息。
人工智能可以生成恶意计算机代码或尝试破解人们的密码。 (Unsplash:克里斯·里德)
澳大利亚监管机构表示人工智能使诈骗“更难识别”
澳大利亚竞争与消费者委员会(ACCC)表示,虽然尚未收到任何专门针对使用人工智能的诈骗报告,但它意识到该技术“使人们更难识别诈骗”。
一位发言人表示:“随着新技术的出现,[ACCC] 反欺诈网站 Scamwatch 不断发现越来越复杂的欺诈方法,并对人工智能带来的风险保持警惕。”
“我们将继续与电信和数字平台行业合作伙伴合作,寻找检测和破坏诈骗的方法。
“每个人都应该继续对任何索取个人信息或金钱的请求保持谨慎,并在点击超链接时保持谨慎。”
随着澳大利亚公司努力防止欺诈,报告显示公众对监管的信任度很低
毕马威咨询公司和澳大利亚信息产业协会三月份发布的一份报告发现,三分之二的澳大利亚人认为没有足够的法律或法规来保护他们免受人工智能的不安全使用。
一些澳大利亚银行和电信公司表示,他们已经在使用人工智能来检测系统中潜在的诈骗和网络威胁。
澳大利亚金融投诉局 (AFCA) 表示,每月收到约 400 起与欺诈相关的投诉,较 2021-22 年的约 340 起有所增加。
AFCA 首席监察员兼首席执行官 David Locke 表示,虽然一些公司正在共同努力发现和防止诈骗,但还需要做更多的工作。
他说:“欺诈行为的广度和复杂性意味着该行业需要愿意投资新技术并有能力快速做出反应。”
吉文博士表示,虽然人工智能可以在许多积极方面发挥作用,但没有人能免受基于人工智能的骗局的攻击。
“我认为人们必须意识到这正在影响每个人,无论你是技术专家还是新手,”她说。
“尝试使用这些技术并了解它们的工作原理并围绕这些技术进行一些阅读并与人们交谈并与您的孩子谈论它实际上是非常健康和积极的。
“人们只需要尽可能挑剔,同时了解人工智能并不都是有风险或有问题的。”