5月22日话题#AI诈骗正在全国爆发#冲上微博热搜
只需要提供一张带脸的照片,就可以把自己置换成视频、电视剧中的男(女)主角,而且拟真度非常高,毫无违和感。
“AI换脸”新型诈骗频发和你视频对话的可能不是本人!
确认过长相声音仍被骗
10分钟被骗走430万元
近日,包头警方发布一起使用智能AI技术进行电信诈骗的案件。
好友向郭先生要了银行卡号,声称已经把钱打到账户上,还把银行转账底单的截图发给郭先生。基于视频聊天的信任,郭先生没有核实钱是否到账,于11时49分先后分两笔把430万元给对方打了过去。
“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时给我打了视频,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生说。
警方接报后,在银行的全力协助下,仅10分钟就将该诈骗账户内的336.84万元被骗资金拦截,但仍有93.16万元资金被转移,目前福建警方与包头警方正在全力追缴中。
骗子手段防不胜防
“AI诈骗”成功率竟近100%
在这起骗局中,骗子防不胜防的程度,超出正常认知的仿真度,令人不寒而栗。
图据湖北网警巡查执法
据警方介绍,AI诈骗还有不少花样,通过声音合成、AI换脸、转发语音等手段,成功率竟接近100%。
AI技术如何介入新骗局?有什么新的诈骗方式?注意了
第一种是声音合成
第二种是AI换脸
因为人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
第四种是AI筛选受骗人群
值得一提的是,这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。例如,当进行金融诈骗时,经常搜集投资信息的小伙伴就会成为他们潜在的目标。
遏制人工智能违法应用
还须多方发力多管齐下
要遏制“AI换脸”等人工智能领域的深度合成技术应用乱象,还得多方主体共同发力多管齐下。
警方提示
针对花样翻新的智能AI诈骗公众要提高防范意识!!!
4.如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。