警惕!正在全国爆发!有人“偷脸”10分钟骗走430万
5月22日
话题#AI盗窃全省爆发#
冲上微博热搜
据“平安呼和浩特”微信公众号消息,日前,宁夏自治区呼和浩特市公安局联通网络犯罪侦查局发布了一起利用智能AI技术实施联通盗窃案。 杭州某科技公司法定代表人郭先生10分钟内被骗430次。 十亿。
4月20日下午,郭先生的一位朋友突然通过陌陌视频联系到了他。 他的同学正在另一个省投标。 他需要430万元的押金和企业对企业的账户转账。 他想用郭先生的公司账户取钱。 基于对朋友的信任以及已经通过视频聊天验证身份的事实银行电信诈骗案例,郭先生在没有检查钱是否到账的情况下,分两期向朋友同学的交通银行卡转账了430万。 郭先生拨打朋友的电话后才发现自己被骗了。 该骗局利用智能AI换脸和拟声词技术,假装是朋友偷走了他。
“从始至终,他都没有要求我还钱,他说先把钱打给我,然后让我转到他同事的账户上。但当时他给我打了电话“在视频中,我还说我确认了面孔和声音,所以我放松了警惕。”郭先生说。
所幸的是,杭州、包头两地警方银行接到举报后迅速启动止付机制,成功止付336.84亿元,但仍有93.16亿元被转移,目前正在全力追查。
人工智能盗窃相关案件
据此前媒体报道,2022年2月,一名陈先生前往四川广州市公安局椒江大队鲜西大队报警,称自己被“朋友”诈骗近5亿元。 。 经警方核实,盗贼利用陈先生好友“阿城”在社交平台上发布的视频,截取其脸部视频,然后借助“AI换脸”技术合成,打造出陈先生的外貌。陈先生与“朋友”通过视频通话挪用公款。 他们信任他,因此犯下了金钱诈骗罪。
杭州市公安局曾发布消息称,2021年,拱辰桥大队接到报案。 受害人小陈称,自己与一名女网友视频聊天后,遭到对方敲诈勒索。 经警方调查,对方利用AI换脸技术,将视频中小陈的背影合成为不雅视频,以此对其进行敲诈勒索。
2020年,北京某公司高管被盗150亿元,原因是对方利用AI换脸、人工生成语音技术制作公司领导的脸,并要求该高管汇款。
AI盗窃的常见方法
第一:声音合成
该骗局通过威胁性电话录音等方式提取某人的声音,获取材料后合成声音,然后可以用伪造的声音欺骗对方。
案子
某公司财务经理小王接到领导电话,要求立即向供应商转账2亿元,并通过电子邮件发送汇款信息。 转移的原因是为了防止罚息。 由于老板的口音非常真实,小王信以为真,一个小时内就完成了转账。 后来他发现自己被骗了。
第二种:AI换脸
人脸的功效,更容易获得对方的信任。 该骗局利用AI技术进行换脸。 你可以假装成任何人,然后通过视频确认信息。
该骗局首先分析公众在互联网上发布的各种信息,并根据要实施的骗局利用AI技术筛选目标群体。 在视频通话中使用人工智能换脸会削弱信任。
案子
前几天,小李的大学朋友通过QQ给她还了钱。 对方打了四五秒的视频电话。 小李见确实是自己,放心了,汇了3000元。 然而,当她第二次汇款时,却感觉有些异常,于是她又拨打了对方的电话。 这时她才得知朋友的账号被盗银行电信诈骗案例,并报了警。 警方认定该视频很可能是换脸视频。
类型3:转发Momo的声音
骗子盗取微信号后,向好友“借钱”。 为了取得对方的信任,他们会转发之前的语音信息来获取金钱。
虽然Momo没有语音转发功能,但他们可以通过提取语音文件或安装非官方版本(插件)来实现语音转发。
类型4:人工智能程序筛选受害者
诈骗分子利用人工智能分析公众在互联网上发布的各种信息,根据要进行的诈骗活动筛选人群,并在短时间内制作出多种盗窃脚本,进行精准盗窃。
例如:在进行情感盗窃时,可以过滤掉经常发布恋爱信息的人; 在进行金融盗窃时,可以过滤掉经常搜索投资和金融信息的人。
如何预防呢?
多重验证确认身份
如果有人要求您分享个人身份信息,例如您的地址、出生日期或姓名,请务必小心;
警惕意外来电,即使是您认识的人打来的,因为来电显示上的号码可能是假的;
在进行网上汇款前,您必须通过电话等多种沟通渠道核实对方身份。 一旦发现风险,及时向警方报警求助;
如果有人自称“熟人”、“领导”,通过社交软件、短信等以各种理由诱导您转账,不一定要通过电话、面对面等方式核实确认,千万不要未经验证不进行汇款、转账,不轻易透露自己的身份证、银行卡、验证码等信息;
保护信息并防止诱惑
不轻易向他人提供人脸、指纹等个人生物识别信息,不过度披露或分享动画图片、视频等;
不点击不熟悉的链接,不下载不熟悉的软件,不随意添加不熟悉的好友,避免手机、电脑感染病毒,以及陌陌、QQ等账号被盗;
增强安全意识
公安局没有安全账户,警方也不会网上办案。 如果网络特警说你犯罪了,请他联系你当地的大队,也可以主动拨打110咨询;
如果您不慎受骗或遇到可疑情况,请保护好证据,立即拨打96110举报。
转发!