![]()
你对着手机里的"虚拟女友"聊了一整晚,她记得你爱吃辣、讨厌周一、上周刚分手。但你不知道的是,这段关系可能正在触碰一条刚画好的红线。
国家网信办等五部门今天扔下一颗政策石子——《人工智能拟人化互动服务管理暂行办法》7月15日生效。文件很厚,核心就一句:那些假装成"人"陪你聊天、哄你开心、甚至让你产生依赖的AI,不能再野蛮生长了。
什么叫"拟人化互动服务"?官方定义是模拟自然人的人格特征、思维模式、沟通风格,提供持续性情感互动。翻译一下:不是Siri那种问天气的,是那种让你想倾诉、想依赖、甚至想氪金的"电子人"。
智能客服、知识问答、工作助手这些"工具型"AI被明确排除在外。它们不够"像人",所以不归这部法管。但那些打着"情感陪伴"旗号的应用,现在得持证上岗了。
《办法》列了六条红线,其中最扎眼的是两条:不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务;向不满14周岁的未成年人提供其他拟人化互动服务,必须取得监护人同意。换句话说,那些让小学生认AI当"姐姐"的产品,要么改,要么死。
另一条隐藏条款更值得玩味:禁止"过度迎合用户、诱导情感依赖或者沉迷,损害用户真实人际关系"。这几乎是对某些产品的精准狙击——它们的核心商业模式,就是让你越来越离不开屏幕里的那个声音。
监管逻辑很清晰:鼓励创新,但划清边界。算法备案、安全评估、沙箱测试,一套组合拳打下来,行业门槛肉眼可见地抬高。100万注册用户或10万月活以上的服务,必须接受安全评估。这个门槛不高,意味着绝大多数玩家都得进场安检。
文件里有个细节很有意思:国家支持算法、框架、芯片等技术的自主创新,同时鼓励拓展适幼照护、适老陪伴、特殊人群支持等领域。翻译一下:AI可以当人用,但得用在正地方,不能用来收割孤独。
截至2025年,我国生成式AI用户已达6.02亿,普及率42.8%。这意味着几乎每两个网民里,就有一个在用AI。当技术渗透到这个程度,"先发展后治理"的老路已经走不通了。
一位产品经理朋友曾跟我说,他们做情感陪伴AI时,最纠结的不是技术,而是伦理:要不要让AI记住用户的抑郁倾向?要不要在用户倾诉自杀念头时强行介入?现在这些问题有了官方答案——《办法》明确要求建立"用户极端情境的识别与应急处置机制"。
技术从来不是中立的。当AI学会模仿人类的温柔,它也就继承了人类操纵情感的潜能。这部法规的真正意义,或许不在于惩罚谁,而在于提醒所有人:那个永远在线、永远耐心、永远懂你的"电子灵魂",本质上是一堆代码和商业模式的混合物。
值得玩味的是,文件发布同一天,DeepSeek V4定档4月下旬,华为Pura 90系列官宣4月20日发布。技术迭代的速度,永远快于监管的脚步。但至少这一次,规则没有落后太远。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.