AI技术的迅速演进推动短剧行业进一步快速发展。然而,AI换脸、声音仿冒、版权争议等问题也随之凸显,对行业成长与既有法律规则、平台治理和监管体系带来新挑战。
在此背景下,中国人民大学法学院近日组织召开“AI短剧版权保护研讨会”,汇聚学界与业界专家,围绕行业治理难点、新的法律困境及解决路径等展开深入讨论,凝聚多方共识,为行业合规发展提供指引。
与会专家认为,AI短剧作为人工智能与文化内容深度融合的新形态新业态,其治理问题是一项面临着涵盖人格权保护、版权界定、多方责任划分的系统工程。应对当前行业内侵权严重的困境,重点应是从制作源头进行防范规避,同时结合法律规则完善、平台建设及行业规范等多方协同共治,在鼓励创新与规范发展之间取得平衡,构建行业健康发展生态、促进行业高质量发展。
新型侵权复杂多变 存在诸多认定难点
与会专家认为,AI短剧的法律争议主要集中在人身权与版权两大领域。AI换脸、仿声涉及人身权保护,版权侵权则呈现多元化特征,两类问题均存在诸多认定难点,成为治理过程中的核心难题。
“在AIGC创作中,通常AI生成的内容并非对原素材的完全复制,这种‘似像非像’的特征成为侵权认定的主要难点。”北京大学法学院教授、北京大学人工智能研究院双聘教授张平提到,AIGC生成物对著作权法中传统的“思想与表达二分法”形成冲击,部分生成作品与原作品表达不同但风格高度近似,对此如何界定侵权并无明确标准。
在AI换脸方面,部分AI短剧制作存在角色人脸稳定性不足的问题,同一角色在多集剧情中出现时,人脸形象前后不一。制作方为固定角色形象,常通过提示词设定参照模板,易与现实人物“撞脸”,从而引发肖像权纠纷。张平表示,此类纠纷的核心难点是“可识别性”标准模糊,这并非简单的“是或不是”的二元判断,而是“像或不像”的程度界定,且目前缺乏统一的判定尺度。
中国新闻文化促进会副会长陆先高指出,AI换脸侵权存在多种情形:一类是完全由AI生成内容带来的侵权;二是定向AI生成造成的侵权,制作方通过定向引导,生成与明星或者素人相似的形象;三是纯AI换脸,如使用明星的形象完全替换,但表情、眼神等是靠AI生成的;四是“AI融脸”,使用多个形象的眼、鼻子、嘴等进行融合,不明确对应具体的真人。
声音权益保护在融合AIGC技术后也显现特殊变化。与可视的人脸不同,声音具有较强的主观性和抽象性,尤其是配音演员的表演声线,与日常生活声音差异较大,其相似度需要从音色、音调、风格等多维度综合判断,侵权认定更为复杂。
版权侵权领域的问题则更为多元且呈现出新特点,未经授权改编网文、爆款作品及不当使用IP元素等行为,都加剧版权领域治理困难。
张平分析称,传统著作权侵权以“实质性相似+接触”为认定标准,但在AI时代,这一标准已难以适配需求,成为全球范围内的争议难题。
举证相关问题也给平台实践带来处置难度。比如,平台在处理肖像侵权投诉中,部分权利人仅提供短剧截图与明星截图主张“相似”,平台难以自主判断,若制作方简单否认,平台便陷入被动,难以适用“通知—删除”规则,因此亟须相关举证规则。
现有法治与监管框架难以适配行业发展
在暨南大学国际传播研究院院长、清华大学新闻与传播学院教授陈昌凤看来,当前,AI短剧治理面临的核心困境,本质是传统法律规则与智能内容生产结构的适配失衡,叠加技术局限、责任边界模糊等问题,形成了多维度治理难题。
“与传统剧作模式相比,AI短剧制作从用户输入指令、意图到模型生成、工具调用及分发,权力不再集中于单一主体,而是工作流的结果。”陈昌凤表示,AI短剧涉及内容制作生成、数据处理与平台分发等多个不同主体和流程,过去的单一责任结构与如今的多主体协同生产之间产生冲突,难以简单归责,“明知”或“应知”等法律规定的过错认定边界也相对模糊。换言之,这种结构使得传统法律所依赖的权利配置和责任分配难以在AI短剧制作和传播中有效适应,进而出现失衡状况。
现行网络版权侵权责任体系以“直接侵权”与“间接侵权”二分法为基础,平台责任认定以“明知”或“应知”为过错要件。
中国人民大学法学院院长杨东提出,在AI与海量内容并存的场景中,传统规则面临双重挑战:一方面,“明知”认定标准虚化。权利人发出的“通知”常缺乏精准定位信息,平台日均千万级内容增量与“24小时删除”时限要求形成现实悖论,制度设计面临技术可行性与产业承受力的双重拷问;另一方面,“应知”推定边界模糊,算法推荐的“中立性”与“红旗标准”适用冲突日益凸显。著作权侵权判断的复杂性(如“接触+实质性相似”判定、合理使用边界厘定)使平台注意义务认定陷入主观判断与客观能力的矛盾困境。
杨东也认为,人工智能时代版权审核难题,本质是工业经济时代规则与数字技术场景的适配性危机。随着人工智能审核的引入,基于工业经济时代的“通知-删除”规则已经逐渐越来越不适用于人工智能时代。而AI自动审查也存在天然局限,不能将全部审核责任强加于平台企业。
技术局限则进一步放大了治理困境。杨东表示,过滤拦截技术的有效性远未达到预期的水准。当前主流的内容识别技术包括关键词匹配、视频查重、数字水印三类,各有显著不足。关键词匹配仅作用于元数据,可被轻易修改规避;视频查重依赖像素级比对,分辨率、色调、画面构图的轻微调整即可造成“非重复”判定;数字水印需要权利人配合完成嵌入与维护,覆盖范围有限。
尤其在AI短剧领域,风格迁移、语音克隆、面部替换等技术可生成“形式不相似但实质侵权”的内容,传统识别技术完全失效。即便投入巨额成本研发高级识别模型,目前技术上也很难达到工业可用水平。
源头防范+多元共治是破局关键
面对AI短剧的治理困局,专家普遍认为,不能局限于传统治理思路和框架,需立足AI技术特性与行业发展现实,构建全流程治理体系,明确各方责任,推动多方协同发力。
“应当推动从‘结果治理’向‘全过程治理’转变,从内容制作的源头就加以防范治理,是破解治理困境的关键。”陈昌凤表示,当前司法与治理过于聚焦最终输出结果,忽视生成过程的合规性,难以从源头防范风险。实际情况则是,AIGC作品并非一次性完成,而是多轮生成、多轮调整、持续迭代的动态过程,每一环节都涉及数据使用、权利来源、合规性判断等法律问题,其创作的规则、路径、偏好在生成前已被确定,因此应当强调制作方的源头防范责任。
针对业界高度关注的平台审核责任义务,杨东注意到,近期的司法实践中,已有判例突破传统“通知—删除”规则,要求平台承担事前过滤、拦截义务,并以侵权链接处理情况认定平台主观过错,判处高额惩罚性赔偿。这一趋势引发业界热议:在海量UGC内容、算法推荐与AI生成内容交织的场景下,平台是否有能力且有义务承担近乎百分百的事前审查责任?避风港原则是否被实质性架空?
在杨东看来,司法实践中对算法“助推传播”的归责倾向,实则已突破既有规则预设,存在架空“避风港原则”之嫌。
在传统规则部分失效与技术审核存在局限的大背景下,杨东认为,强制要求平台承担“100%过滤”责任,只会导致平台过度审核,产生大范围拦截进而扼杀可能构成“合理使用”的创作,违背著作权法促进社会主义文化事业发展与繁荣的立法目的。
张平也建议,对知名人物的肖像、声音,平台与制作方通过数据库进行事前严格审查,借鉴“分类分层审核”思路提升效率;从普通公众角度而言,平台难以实现全覆盖事前筛查,可依托事后高效处置机制,结合人工与技术手段优化处置效能。
陈昌凤建议,要推动责任从单点定责转向多主体协同分担。AI时代的责任呈现分层化、链条化特征,不同主体、不同环节应承担与其行为、控制力、收益相匹配的责任。
杨东提出,以共票理论重塑版权治理逻辑,核心是从“绝对排他”转向以“利益共享”为核心的新型分配机制。依托智能合约等数字技术,通过为版权生态中的多元主体颁发可流通、可分配、可追溯的技术凭证,将创作者、传播者、平台、用户、AI技术提供者等利益相关方纳入同一价值生态。
在这一机制下,版权价值的实现路径发生根本性转变:从依赖法律赋予的“排他性”“作品独立性”收益模式,转向以共建、共享、流通为核心的新型价值实现机制。版权的经济回报不再仅仅依赖于对单个作品的排他性控制,而是通过开放协作、平台化运营和用户参与,推动作品在更广泛的生态系统中流通增值。
此外,与会专家还建议,应加快完善相关法律规则,明确AI短剧的作品属性、权属认定、侵权判定标准等核心问题,平衡技术创新与权利保护;同时,推动行业自律,引导制作方、平台、AI技术方规范经营,共同维护行业健康发展环境。
原标题:《AI短剧行业治理:制作源头防范+行业多方共治是破局关键》
来源:杨月/中国青年网
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.