![]()
图/汉服妆造博主白菜被短剧盗脸。左为短剧《桃花簪》中“刘大”的形象,右为白菜此前发布的汉服写真。
疑似AI侵权事件一桩接着一桩。“AI换脸”“声音克隆”“短剧盗脸”“AI艺人库”等词条屡上热搜,被侵权者有明星,也有普通人。
AI当然不能随意使用真人的脸和声音。关于肖像权、声音权益,以及在AI生成不实内容场景下的名誉权等,《民法典》和《个人信息保护法》都有明确约束;如果将他人文字、画作等作品“投喂”给模型并用于商业输出,还可能触犯《著作权法》。
如果说AI短剧不经授权就使用真人的脸和声音,是显而易见的侵权。那么,离职员工被做成数字分身,则有着更隐蔽的危害。
有网友吃惊地发现,山东一家游戏公司把离职员工训练成了AI数字人,长着这名员工的脸,用他的声音和表达习惯与他人交流,加上投喂训练的材料是这名员工平常的工作积累,等于是使用着他的思维方式。这种全方位的复制,算不算是某种程度上对他人人格的占用?
尽管该公司回应,训练是经过离职员工同意的,但网友们仍唏嘘不已。从社会学和传播学角度看,一个人被他人识别,靠的是综合信息,包括面部特征、声音特征、语言习惯、行为模式、过往经历等,这些共同构成了一个人区别于他人的特点,在法律上,就是“可识别性”。
在AI时代,脸可以替换,声音可以合成,工作经验和思考方式可以被抽取,最后拼接成一个看上去与“你”别无二致的数字人,这个人具有 “你”的一切特征,那么,这个人是不是“你”?
这样一想,不由得细思极恐:员工在签同意书的时候,真的理解数字分身意味着什么吗?如果有偿,那么,这个数字分身哪天说了不当内容,责任算谁的?如果无偿,那么个人有没有权利撤回并销毁掉“数字分身”?
因此,用AI复制真人,就不能只停留在有没有授权上。在使用场景、使用期限、是否可以转授权,是否允许再训练,是否可以被用于商业变现,什么情况下可撤销,责任如何分配等方面,都需要说清楚。如果数字分身对外表达失当,甚至造成他人损害,那么,谁提供了数据,谁训练了模型,谁在使用这个分身对外发声,谁从中获益,都应当在相应环节承担相应责任。
不可否认,有些问题不是今天才出现的。未经授权使用他人身份、不加区分传播虚假内容、对行为后果推诿责任等,在不同的技术背景下,一直都有清晰的是非判断与基本规范,只是AI改变了门槛和规模,有些事情从少数人能做到,变成了几乎人人都可以完成,侵权更容易发生,而判断变得更加复杂,责任也更容易被稀释。
是时候为AI时代重塑伦理边界了。比如,所有可识别的个人特征,都不得在未经明确授权的情况下被使用或再生产。
事实上,当前已经有AI工具修改了规则,当以真人的形象生成视频时,必须有明确授权。任何生成内容,只要可能被当作真实信息传播,就必须承担相应的标识与约束义务,哪怕技术链条再复杂,只要每一个环节承担的责任都能清晰界定,就不会再有灰色地带。平台不能只做通道,技术提供方也不能只提供工具,内容生产者更不能把一切推给算法。
规则不是为了限制技术,而是为了让技术不管走得多远,始终不偏离最初的方向。技术向善,应成为所有参与者必须守住的底线。
原文首发于《时代邮刊》第507期
2026年5月·新中年
原标题:当AI长着你的脸,AI的伦理边界在哪里
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.