近期
“AI换脸”新型诈骗频发
和你视频对话的
可能不是本人!
确认过长相声音仍被骗
10分钟被骗走430万元
近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件。
据介绍,4月20日11时40分左右,福州市某科技公司法人代表郭先生的好友突然通过微信视频联系到他。短暂聊天后,好友告诉郭先生,自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,想借用郭先生公司的账户走一下账。
好友向郭先生要了银行卡号,声称已经把钱打到账户上,还把银行转账底单的截图发给郭先生。基于视频聊天的信任,郭先生没有核实钱是否到账,于11时49分先后分两笔把430万元给对方打了过去。
可当郭先生主动给好友微信发消息,称事情已经办妥时,好友竟然不知情。他这才意识到遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。
“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时给我打了视频,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生说。
值得注意的是,骗子并没使用一个仿真的好友微信添加郭先生为好友,而是直接用好友微信发起视频聊天,这也是郭先生被骗的原因之一。骗子极有可能通过技术手段盗用了郭先生好友的微信。
警方接报后,在银行的全力协助下,仅10分钟就将该诈骗账户内的336.84万元被骗资金拦截,但仍有93.16万元资金被转移,目前福建警方与包头警方正在全力追缴中。
骗子手段防不胜防
“AI诈骗”成功率竟近100%
据警方介绍,AI诈骗还有不少花样,通过声音合成、AI换脸、转发语音等手段,成功率竟接近100%。
AI技术如何介入新骗局?
有什么新的诈骗方式?
注意了
第一种是声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
因为人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
第三种是转发微信语音
除了AI换脸、合成语音外,还有一些诈骗手段也可谓防不胜防,就在前不久就有骗子通过转发微信语音的方式行骗。
值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。
遏制人工智能违法应用
还须多方发力多管齐下
要遏制“AI换脸”等人工智能领域的深度合成技术应用乱象,还得多方主体共同发力多管齐下。
4月11日,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,对生成式人工智能产业给出较为详尽的规定,对用户安全保护已经迈出第一步。此外,监管部门要看到这一问题的严峻性,担负起监管责任,挖出相关产业链,给犯罪分子以震慑。平台和个人也应避免信息泄露,不给骗子留下把柄。
技术是一把双刃剑,拥抱新技术带来的发展与变革,也必须规避可能存在的风险和危险。既然有人在用它图谋不轨,就必须为这把剑装上剑鞘,这是为了保护剑,也是为了保护人。
警方提示
针对花样翻新的智能AI诈骗
公众要提高防范意识
1.对网络上任何东西,无论是视频、语音,还是视频聊天,都要持怀疑态度,这是第一条基本原则。
2.如果网上遇到有关钱的问题,一定要再从侧面核实情况,可以通过打电话的方式核实,但不要打对方提供的电话。
3.如果有人要你帮忙过账,无论多大的领导,多熟悉的人,必须核实,而且要等钱到账之后再进行转账。
4.公检法没有安全账户,警察不会网上办案,如果有网络警察说你犯事了,让他联系你当地的派出所,你也可以主动打110咨询。
5.陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号。
来源|海西州公安局
原标题:《长相、声音都对,“好友”视频聊天骗了他430万!警惕AI换脸新骗局》