![]()
![]()
今天,知名演员王劲松发文称,自己的形象被AI盗用生成视频:“太可怕了,视频。声音,口型完全看不出来真假。微信视频号,就这么盗用,把我AI了。”
![]()
王劲松投诉的AI视频
虽然在投诉后,平台已经下架了该视频,但王劲松还是在评论区与网友交流时表示担忧:“我家里人都分不清是不是真是我了,我担心的是以后会不会出现更真、性质更恶劣的AI肖像侵权行为,用于诈骗呢?不敢想……”
遗憾的是,王劲松的担忧已经成真。近年来,确实出现了一些运用人工智能技术来实施电信诈骗的案件。上海市闵行区人民检察院去年办理的一起案件中,犯罪团伙在抖音平台发布AI生成或拼接的美女视频,吸引男性被害人添加指定微信号,实施后续诈骗。短短一年间,15名男性被害人被骗171万余元。
![]()
情感诈骗只是新型AI诈骗中的一种。当前,通过AI实施的语音合成诈骗、图像生成诈骗、智能客服诈骗等新型犯罪层出不穷,让人防不胜防。最高人民法院今天发布的一起典型案例中,犯罪分子就是利用人工智能模拟被害人亲属声音,从而获得对方信任。
2025年4月下旬,吴某涛经人介绍,获悉可前往各地帮助收取诈骗资金以牟取非法利益,遂添加上线联系方式。之后,吴某涛按照上线指令,乘车前往湖北省黄石市,假冒身份上门收取诈骗款。吴某涛来到被害人家后,当场拨通上线语音电话,再由上线利用AI拟声技术模拟被害人亲属声音,冒充亲属取得信任,从三名老人处骗取现金共计6万元,后将上述款项交给他人,从中获利1700元。
在宁夏警方去年披露的一起案件中,银川市某公司部门经理张先生接到“老板”打来的视频电话,对方称因情况紧急,需立刻转账汇款。在视频中确认是“老板”后,张先生放下了戒心,十几分钟内便将20万元转入指定账户。直到下午当面汇报工作时,张先生才发现上当受骗。
“你以为在和朋友亲人视频聊天,其实是骗子使用的‘AI换脸’技术,让别人的嘴能够‘对口型’。”办理该案的民警指出,“AI换脸”技术不仅限于静态照片的活化,还能在即时视频通信中实时换脸。虽然需要采集大量不同角度的照片进行模型训练,但一旦成功,便可以假乱真。
面对熟练使用AI技术造假的诈骗团伙,普通人真的没有办法防范了吗?当然不是。资深反诈民警指出,除了更加注重保护个人隐私,尽量避免泄露之外,遇到对方提出涉及钱款的要求时,要多留个心眼,采取一些特殊方式验证身份。
比如,视频通话时,可以让对方做出眨眼、摸鼻子、用手指或其他遮挡物在脸前晃动等小动作,观察画面是否有出现延迟或者异常扭曲等不自然的微小变化,若有,说明对方很可能正在使用“AI换脸”技术。此外,在与对方的沟通中,可以问一些比如生日、电话号码、喜好等较为隐私的问题,或者结束通话后使用其他联系方式进行再次确认。
原标题:《演员王劲松发文怒斥,他担忧的AI诈骗已真实发生,普通人该如何防范?》
栏目主编:王海燕 题图来源:上观题图
来源:作者:解放日报 王闲乐
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.