4月24日,“AI新治向”系列沙龙第一期——未成年人AI情感依赖治理研讨会在广州举行。活动中,华南师范大学法学院院长张永忠就AI拟人化互动服务中未成年人保护的平台责任与法律风险防范进行分享。在他看来,AI拟人化互动服务的法律规制,需要从传统的“内容管控”层面转变到“关系把控”层面,从而对未成年人实现从服务关系建立、干预到终止的全链条管理与保护。
![]()
华南师范大学法学院院长张永忠作分享。
从交互关系建立、干预到终止 实现全链条管理
张永忠指出,拟人化AI正逐步由辅助性工具向类主体化转变,极易通过交互功能与未成年人形成深度情感联结,甚至可能出现关系越界,从而影响未成年人的心理健康。在他看来,AI拟人化交互服务的法律规制,不能仅停留在内容审核层面,更要聚焦“关系把控”这一核心,进一步明确交互关系的边界。
“防止未成年人AI情感依赖,关键在于实现从关系建立、干预到终止的全链条管理。”张永忠表示,这个全链条保护包括未成年人身份识别、内容合规、成瘾防范机制、退出机制等多个环节。首先平台要准确识别AI拟人化交互服务对象的身份,一旦识别到未成年人,那么获取监护人同意便是服务开展的前提;其次,AI互动生成的内容,需要符合不同年龄段的未成年人身心发育特点,提供适龄内容;同时,需要制定相应的成瘾防范机制,如限制未成年人的使用时长,告知并持续、显著地提醒未成年人“我是AI,非真人”,不得提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务;最后,还需要设置便捷的退出渠道,允许用户随时切断交互关系。
交互数据是AI情感依赖基础 采集、使用相关数据需合规
此外,张永忠还强调,AI情感依赖的产生往往是建立在数据基础上的,未成年人使用AI拟人化交互服务过程中产生的交互数据,其中包含未成年人个体的心理特点、情感需求等信息,这些都属于敏感的个人信息。依据个人信息保护法,AI拟人化交互服务提供者须就此类数据的收集、再训练、共享等环节取得单独或明确同意,并落实严格保护义务。
在提及平台责任时,张永忠指出,不同于大众普遍认知的大型互联网平台,《人工智能拟人化互动服务管理暂行办法》这一新规所界定的平台,更侧重应用程序分发平台以及拟人化互动服务提供者。其中,应用程序分发平台需对拟人化互动服务提供者所上架的应用是否开展备案和安全评价进行核验,为未成年人筑牢第一道安全屏障。而服务提供者则承担着更具体的法律义务,需在合规框架内开展服务,实现创新与规范并行。
本次活动由粤港澳大湾区生成式人工智能安全发展联合实验室、南方都市报社主办,广东省网络数据安全与个人信息保护协会支持,相关政府部门代表、心理学、法学、人工智能、网络素养培育等领域专家学者,以及大模型企业、AI玩具企业、AI安全企业等多方代表,共同探讨了未成年人AI情感依赖的成因、风险与治理路径。
出品:南都大数据研究院
采写:南都研究员 罗韵
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.