随着科技的进步,我们的生活也发生了翻天覆地的变化,无论是购物、订餐、家务等各方面都方便了很多,但科技是把双刃剑。近期“AI换脸”的应用越来越广泛,随之而来的是诈骗犯罪。前不久,就有一个公司负责人因AI换脸被“熟人”在10分钟内骗了430万。思语软件提醒大家一定要高度警惕新型诈骗技术,守住钱袋子!
最初活跃在我们视野中的AI换脸技术,就是直播带货中,主播换脸冒充明星带货。在一个展现换脸直播效果的视频中,该主播把名为“成龙”的模型载入相关软件后,摄像头前的人在直播画面中就有了与成龙相似的五官,但脸型和发型还保持原样。
这种技术之所以会有那么高的成功率迷惑大众,是因为这种技术刚刚进入我们的视野,可能有大多数的网友还并不了解这种诈骗技术,所以在遇到AI换脸诈骗时,由于镜头对面的人有着和自己的“熟人”相同的脸,受害人并不会有任何怀疑,面对对方的“借钱”等要求时也不会有任何的警惕心理,导致最终被骗。
那么,这种技术真的就无解吗?难道我们以后都不能再进行语音、视频通话了吗?
小编仔细观察了AI换脸的过程,当使用者歪头或者变换表情时,五官动效切换的自然顺滑,只有手掌从脸前划过时,出现了比较明显的破绽,这也是我们能够有效保护自己的方法之一。除此之外,如果遇到疑似语音、视频的AI变声、换脸诈骗,可以第一时间先拨打电话与该“熟人”进行确认,多方核实确认是本人后,才可以考虑是否要满足对方“借钱”等需求。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.