“AI换脸”骗局频发 防范意识不可少
2023-06-08 15:36:59来源:中国消费者报

从ChatGPT火爆全网到“AI换脸”新骗局频发,生成式人工智能再次受到广泛关注。据“平安包头”微信公众号消息,内蒙古自治区包头市公安局电信网络犯罪侦查局近期发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。

近日,郭先生收到好友的微信视频称自己在外地竞标,需要430万元保证金,且需要公对公账户过账,想借用郭先生公司的账户。基于对好友的信任,加上视频聊天核实了身份,郭先生没有核实钱款是否到账,就将钱转到了好友提供的银行卡上。随后,郭先生拨打好友电话得知被骗,不法分子通过“AI换脸”和拟声技术,对其实施了诈骗。

张嘴、摇头,摄像头捕捉到人体动作后,屏幕上原本静态的人像就可以动起来,动作幅度和真人一致,还能眨眼和露齿微笑,仿真度颇高,几分钟内就能生成一段视频,脸还能被任意替换。这就是“AI换脸”技术,成为不法分子的新型诈骗工具。

据了解,“AI换脸”技术采用的是深度合成技术,利用深度学习、虚拟现实等生成合成类算法,制作图像、音频、视频等信息,目前在社交、影视、广告、医疗等诸多领域不断被深化应用,有较大的技术价值和商用潜力,但也存在一定的安全隐患。

对此,全联并购公会信用管理委员会专家安光勇对《中国消费者报》记者表示,目前“AI换脸”技术主要通过深度学习和计算机视觉技术实现,它使用了深度神经网络来分析和识别视频中的人脸,并将一个人的脸部特征映射到另一个人的脸上。在微信视频中,犯罪分子可能会通过发送特制的视频或使用特定的换脸应用程序,将自己的脸替换为别人的脸,以获取信任并实施诈骗。

那么,“AI换脸”成熟度如何,是否达到了以假乱真的程度?安光勇表示,尽管换脸技术在某些情况下可以产生逼真的结果,但仍然存在一些瑕疵,比如细节不完美或者在某些情况下可能显得不自然。

长沙市反电诈中心提醒消费者,涉及资金转账时要提高安全意识,通过多种方式确认对方是否为本人,也可将转账到账时间设定为“24小时到账”,以预留处理时间。针对支付软件以及网银软件,要使用多种登录及转账验证方式。

针对花样翻新的各类诈骗,公众要提高防范意识,应谨慎使用各类“AI换脸”“AI变声”软件,加强个人信息保护意识,避免注册不需要的账号、填写不必要的个人信息,以防个人信息泄露。面对不断更新的网络技术和诈骗方式,要坚持不轻信、不透露、不点击、不转账。


上一页:AI语音克隆技术引发争议 下一页:防范电信诈骗,我们在行动