网易首页 > 网易号 > 正文 申请入驻

AI换脸拟声诈骗泛滥,到底怎么防?| 热点科普

0
分享至

十四届全国人大三次会议开幕前

全国人大代表雷军

提交了五份建议

其中包括一份:

关于加强“AI换脸拟声”

违法侵权重灾区治理的建议

全国人大代表雷军在建议中指出:人工智能(AI)深度合成技术的快速发展,推动了“AI换脸拟声”在影视、广告、社交等领域广泛兴起,成为社会喜闻乐见、传播力强、易成热点的技术应用。

但同时也看到,“AI换脸拟声”不当滥用造成了违法侵权行为的重灾区,易引发侵犯肖像权、侵犯公民个人信息以及诈骗等犯罪行为,甚至造成难以挽回的大规模形象和声誉损害,带来社会治理等风险。

AI深度合成技术所需素材获取便利、技术使用门槛低、侵权主体及其手段隐蔽性强等特点,给治理带来较大挑战。

青少年对前沿技术应用好奇心强,而老年人数字素养欠缺,往往会成为“Al换脸拟声”网络陷阱锁定的主要目标,对其身心健康、财产安全以及社会稳定造成负面影响。

AI换脸会提取人脸图像的面部特征,那么,一张静态的人像照片被诈骗分子窃取后,也能进行换脸吗?

眼见不一定为实

单张照片可实时视频换脸

工业和信息化部反诈专班实验室的技术人员称,经过一段时间的模型训练,一张照片可以在演示者的控制下,像真人一样做出转头、张嘴、眨眼、微笑等表情和动作。

专家表示,除了让照片上的人像活化,AI换脸技术还能实现在即时视频通信状态下的实时换脸。

不过想要达到实时换脸的效果,一张照片是远远不够的,需要采集不同角度的照片近千张。

声音的交流同样不是难事,需预先采集一些目标人群当中的声音,进行模型训练后就能进行声音还原。

因此,建议公众不要在社交平台过度公开或分享自己脸部的图像、动图及视频。

AI换脸拟声诈骗泛滥

到底怎么防?

让对方用手指

或其他遮挡物在脸前晃动

可以要求对方用手指摁鼻子,或用其他遮挡物在脸前晃动,如画面出现类似果冻效应或者扭曲,那对方很可能正在使用AI换脸技术。

询问对方一些私密的问题

可通过询问对方自己的生日、电话、喜好等,来确认对方的身份。

要求对方线下见面

凡是对方提到转账、借钱等涉及经济往来的,为安全起见,可要求对方线下见面。

科科提醒,AI诈骗是隐私信息泄露与诈骗陷阱的结合。要加强对个人隐私的保护:不轻易提供人脸、指纹等个人生物信息;不过度公开或分享动图、视频;涉及“朋友”“领导”等熟人要求转账、汇款的,务必通过多种途径核实确认。

不过公众也不要对AI诈骗过度恐慌,国内的科研团队、科技企业已经在研发专门针对虚假信息的检测技术,不断提升对于语音、面部合成信息的检测成功率。

可以预测的是,这些人工智能反诈技术都将成为对抗“魔法”的“魔法”。

来源:国家应急广播、央视新闻、人民日报、光明网

文章图片用于公益科普,版权归原作者所有,如有侵权,请联系删除

微信公众号/科普熊猫

抖音号/科普熊猫

新浪微博/@成都科协

今日头条/成都科协

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

成都科协 incentive-icons
成都科协
成都市科学技术协会
6625文章数 8827关注度
往期回顾 全部

专题推荐

洞天福地 花海毕节 山水馈赠里的“诗与远方

无障碍浏览 进入关怀版