![]()
近日,演员温峥嵘在央视新闻节目中表示,自己的形象被不法分子盗用,出现在多个带货直播间中,让广大网友误认为是本人在直播。这件事情一经报道便迅速引发了热议,不少网友留言表示自己经常刷到“假冒直播间”,一直信以为真。人们在震惊之余也不禁开始思考,当屏幕上出现一个形象,我们该如何辨别那是真人,还是“AI人”?数字时代,我们又该如何面对“眼见不再为实”的现状?
AI技术滥用需遏制
“很难证明我是我”——这个看似荒诞的命题,正成为演员温峥嵘的现实困境。据央视报道,那些身穿不同服装、在同一时段现身多个直播间的,并非她本人,而是通过录屏抠像、盗用过往直播素材,再经AI深度合成技术重塑形象与声音后生成的“数字人”。尽管温峥嵘曾公开声明并尝试维权,网络盗播与AI冒充行为仍屡禁不止。
盗用他人形象进行直播的行为可能会面临哪些后果?北京华象律师事务所主任刘校逢律师分析说:
![]()
刘校逢:以演员温峥嵘被AI盗播为例,未经权利人同意进行AI换脸直播的行为触及多重法律关系,可能引发民事、行政乃至刑事三个层面的法律后果。民事法律后果方面显然是侵犯了他人的肖像权,同时还可能侵犯他人的姓名权和名誉权;行政法律后果方面,可能会违反《中华人民共和国个人信息保护法》、《中华人民共和国反不正当竞争法》、《中华人民共和国广告法》等法规;那么如果是利用换脸技术用于诈骗、敲诈勒索,侵犯公民个人信息,还可能要被追究刑事责任。
如果在这样的直播间下了单,消费者能否主张退货来维护自己的权益呢?刘校逢律师表示:
刘校逢: 消费者因为信赖被换脸的明星去购买了这个商品,但是实际销售者与形象代言人毫无关系,这就属于明显的虚假宣传或者是欺诈。这个时候消费者可以根据《中华人民共和国消费者权益保护法》主张“退一赔三”,如果商家拒绝处理,消费者也可以向直播平台进行投诉,或拨打12315投诉,当然也可以通过诉讼解决。
在温峥嵘近期发布的视频评论区,仍不断有网友询问:“这是真人吗?”可见这一事件已引发公众对AI人物合成技术的警惕。街头采访中,不少市民表示,仅凭肉眼已难以分辨视频中出现的究竟是真人还是AI生成的“数字人”。
故事接龙StoryStorm发起人、国内AI影像领域的资深策展人KiSA表示,AI技术迭代较快,已经可以达到“以假乱真”的效果。伪造真人形象仅需1-3张照片,一段1分钟视频成本仅需几元钱。
KiSA:像这样的一个数字人盗播技术经过从2023年到现在两年时间的发展,已经非常的成熟和便捷,只需要你的一段视频。像海外的很多工具还需要你去验证是不是本人,充分证明你对这张脸的权属,但是在很多本地部署的一些工具是可以轻易盗用名人直播或者一部分内容去做成数字人形象,这种内容95%的用户是无法分辨的,而且随着技术越进步,能分辨的人会越少。
目前已能在部分作品中看到“AI生成”标识,这类提示有助于判断内容的真实性。
那么,国家层面对于AI生成内容是否有明确的标识要求?北京市京师(通州)律师事务所主任宋祖宇律师表示,目前主要有两大类,一类是显示标识,一类是隐式标识。
宋祖宇:国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布了《人工智能生成合成内容标识办法》,自2025年9月1日起施行。其依据的是《中华人民共和国网络安全法》、《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》等法律、行政法规和部门规章。其要求利用人工智能技术生成、合成的文本、图片、音频、视频、虚拟场景等信息都需要添加标识。目前我们的标识方式包含两种,第一种是显式标识,比如说现在很流行的AI换脸,必须添加显式标识,也就是以文字、声音、图形等方式呈现并可以被用户明显感知到的标识;第二类是隐式标识,是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。
然而,虚假直播间显然不会主动“自曝身份”。记者随机咨询多家承接AI视频制作的线上店铺,对方都表示,虽然生成时自带“AI生成”水印,但付费后可予以去除,从而实现“以假乱真”。
中关村现代信息消费应用产业技术联盟副理事长包冉指出:给视频或者图片打水印也有两种不同的方法,最简单的方法就是给每一帧的图像加一层水印层,但是专业的视频处理工具完全可以分层化处理,把添加的水印层抹去。新一代的叫像素级水印,但随之而来的新一代擦除水印的技术又出来了,也是通过像素级的处理,使得这样的水印擦除更彻底,更难以检测。
![]()
商家表示可以去除水印/图片来源于网络聊天截图
而让包冉更担心的是信任问题,一旦全社会的信任成本增加,带来的后果不堪设想。
包冉:“诺贝尔经济学奖获得者科斯先生曾提出一个理论,说整个社会,大到一个经济社会,小到一家企业或者更小到一个家庭的财务收支,信任非常关键。如果整个社会经济、网络经济充斥着不信任,最终影响到的是网络化时代社会经济的基本运行。”
我们看到自2017年《新一代人工智能发展规划》以来,国家层面已将法治与伦理纳入人工智能发展的制度保障体系,也有平台启动了“仿冒名人”专项治理行动。但前有“央视主持人形象被盗用卖鱼油”,后有“温峥嵘无法证明我是我”,在包冉看来,AI伪造技术的滥用已经成为了系统性风险,不能指望公众自我防范。解决问题的核心在于压实平台的主体责任,并辅以监管部门的强力执法。
包冉表示,对数据的掌握能力和嗅探能力只有平台能做到,平台完全可以建立起一套监控机制。但是矛盾在于,平台很多时候需要的是流量以及基于流量的交易量,这时候“有形之手”就要出手了。相关的监管部门该罚就罚,我一直认为网络视听领域的监管治理始终还差点意思,事后治理的威慑性可能能在相当程度上弥补在前置的技术监管环节的能力的欠缺。
故事接龙StoryStorm发起人、国内AI影像领域的资深策展人KiSA也表示,AI技术的滥用长期以往将伤害到行业的健康运行,或可以通过隐形标识技术与平台强监管建立防火墙。
“平台应该知道这是AI内容,它里面是有隐式水印的。当它传到平台上,平台识别到它是AI生成视频且有真人形象引用时,那么你就要证明你对这个真人形象有权限。如果这个AI内容他的目标是让你以为他是真的,他有不良意图,那就应该果断删除,并将发布账号予以取缔。如果一个身份证号多次有不良意图的发布AI作品,有可能就会上某种黑名单,可以有效从根源上遏制一定内容的滥用。总的来说,举证责任和鉴别责任交给公众是不应该的,应该由发布平台和审批单位来承担这个责任。”
北京市京师(通州)律师事务所主任宋祖宇律师还指出,现状针对AI技术滥用的司法实践确实存在痛点,有待进一步完善。“第一是侵权的成本普遍很低,第二是取证特别难,第三是平台责任比较模糊,以及现有的法律规范不足。我建议从立法上要进行完善,从执法上要进行强化,从司法上要进行细化,从行业自律上来进行强化。”
北京华象律师事务所主任刘校逢律师则强调,目前我国规制AI换脸技术应用的法律法规分散于多部法律中,导致现有法律治理框架难以对复杂的技术应用进行全面、系统的约束,应尽快通过专项立法划定清晰红线。
刘校逢:“一是可以针对AI换脸技术进行专项立法;二是可以通过发布一些典型案例或者司法解释来及时回应关键性的问题;三是我们可以尝试引入举证责任倒置,由技术提供方或者使用者来证明其行为的合法性与获得授权,否则它将承担不利的法律后果。只有这样,才能让创新在法治的轨道上安全奔跑,才能真正保护好每一位公民的合法权益。”
来源:北京交通广播
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.