slogon
打开

警惕“AI换脸”“AI声音合成”!AI诈骗初现,谨防上当受骗

央视财经
1685065440

随着人工智能的迅猛发展,诈骗团伙的手段也越来越高。近期,他们竟然用上了“AI换脸”或者“AI声音合成”技术来实施诈骗。

近日,广州某公司财务张小姐,就接到一个所谓“领导”打来的电话,要求她转钱给一位供应商。

当事人 张小姐:显示是“领导”的电话,说供应商要求我们转钱过去,很像“领导”的声音,时间上也说得很紧迫,要转两万元过去。

正当张小姐想转钱的时候,被民警成功拦截。民警表示,这是骗子利用AI技术,合成了张小姐领导的声音。

广东广州市公安局荔湾区分局冲口派出所民警 黄家梁:骗子会通过骚扰电话、录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音去骗对方,第二种诈骗是“AI换脸”,人脸效果更易取得对方信任,骗子会使用AI技术进行换脸,可以伪装成任何人,然后再通过视频方式进行信息确认。

此外,常见的诈骗方式还有微信语音转发,犯罪分子盗取微信号后,便向其好友“借钱”,为博取信任,犯罪分子会转发之前的语音,进而骗取钱款。在此提醒广大市民群众,在遇到此类情况时应多渠道进行身份确认,谨防新型诈骗。

编辑

陈莉娜

责编

柳雯

编审

鲍知非

联系我们
说点什么...
评论
点赞
分享

相关推荐

精选评论
最新评论
点击查看更多
已隐藏部分评论
还没评论,等你发言了哟~
0/200
取消
1 明日空中黔课课表已更新明日空中黔课课表已更新
2 明日空中黔课课表已更新明日空中黔课课表已更新