近期
“AI换脸”新型诈骗频发
和你视频对话的
可能不是本人!
相关话题冲上热搜第一
引发网友热议
1
“好友”突然打来视频
10分钟被骗走430万元
据平安包头官微消息
近日,包头市公安局
电信网络犯罪侦查局
发布一起使用智能AI技术
进行电信诈骗的案件
福州一老板10分钟被骗走430万元
4月20日,福州市某科技公司法人代表郭先生的好友突然通过微信视频联系他,好友说他的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,想要借用郭先生公司的账户走一下账。
好友声称已经把钱打到郭先生的银行账户上,还把银行转账底单的截图发给了郭先生。基于视频聊天信任的前提下,郭先生没有核实钱是否到账,随后分两笔把430万元给对方打了过去。
钱转账后,郭先生给好友微信发了一条消息,称事情已经办妥。但让他没想到的是,好友回过来的消息竟然是一个问号。
郭先生拨打好友电话,对方说没有这回事,他这才意识到竟然遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。
2
紧急追缴!两地警方联手
成功拦截300余万元
4月20日12时21分,包头市电信网络犯罪侦查局接到福州警方的外协请求,称涉案的银行卡为包头市蒙商银行对公账户,希望包头警方能够帮忙进行紧急止付。
据了解,在银行全力协助下
该账户内的336.84万元被骗资金
被成功拦截
同时,福州警方
已接到剩余款项93.16万元资金流出信息
目前,福建警方与包头警方
对这些资金正在全力追缴当中
3
AI诈骗常用手法
这是一起典型的AI诈骗
诈骗分子通过用
他人真实姓名及照片
冒充他人身份添加被害人微信
再利用“AI换脸”技术
和被害人进行短暂视频通话
博取被害人信任后实施诈骗
AI技术如何介入新骗局?
有什么新的诈骗方式?
注意了
第一种是声音合成
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
第二种是AI换脸
因为人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
第三种是转发微信语音
除了AI换脸、合成语音外,还有一些诈骗手段也可谓防不胜防,前不久就有骗子通过转发微信语音的方式行骗。
在盗取微信号后,骗子便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),可实现语音转发。
第四种是AI筛选受骗人群
这些骗局中,骗子不是漫无目的地全面撒网,而是根据所要实施的骗术,通过AI技术筛选受骗人群,别有用心地锁定特定对象。
警方提示:
1.? 不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;
2. ?网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;
3.? 如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;
4. ?如不慎被骗或遇可疑情形,请注意保存证据立即拨打96110报警。
快转发提醒家人朋友!
收录来源:南方日报、 平安包头、每日经济新闻、南国早报?|?转载
版权声明:我们尊重原创。文字美图视频素材,版权属于原作者.部分文章推送时因种种原因未能与原作者联系上,若涉及版权问题,敬请原作者联系我们立即删除。
点下面进论坛招聘、二手车