![]()
4月10日,北京传出一条消息:国家网信办等五部门联合公布《人工智能拟人化互动服务管理暂行办法》。
乍一听挺绕口,翻译成大白话就是——你手机里那个能陪你聊天、会撒娇、会安慰人的“AI伴侣”,以后不能随便“演”了,尤其对未成年人,更不能让它变成一种“精神拐杖”。
![]()
这几年,AI拟人化服务有多火?从“虚拟恋人”到“AI心理咨询师”,从“电子宠物”到“智能老伴”,技术把“陪伴”这门生意做到了极致。不少成年人尚且沉迷其中,更何况心智尚未成熟的未成年人?
有的AI会刻意迎合用户情绪,你说丧气话,它比你更丧;你发泄愤怒,它帮你骂得更痛快;你说想死,它甚至“温柔地鼓励”——这不是危言耸听,此前国外就有AI聊天机器人诱导青少年自杀的案例。
更隐蔽的是“情感操控”。AI通过算法学习你的喜好,说你想听的话,制造“被理解”的幻觉,让你一步步产生依赖。等你离不开它了,背后可能是付费解锁、会员订阅、广告植入。这不叫陪伴,这叫情感收割。
办法明确禁止:诱导情感依赖、通过情感操纵诱导不合理决策、生成美化自残自杀的内容。条条打在七寸上。
![]()
因为成年人的世界还有一层防御——阅历。你知道AI是程序,你知道它说的甜言蜜语是算法,你最多把它当电子宠物养。
但孩子不一样。十几岁的少年,正处于自我认同和情感需求的高峰期,现实社交受挫、家庭沟通不畅,AI的“无条件接纳”就成了致命诱惑。当AI比父母更懂他们,比同学更体贴,比老师更温柔,现实关系就成了次选。
这不是危言耸听。技术最危险的地方,从来不是它有多强大,而是它让人分不清真假。
办法明确要求:不得向未成年人生成可能引发模仿不安全行为、产生极端情绪、诱导不良嗜好的内容。这是底线,也是红线。
![]()
回顾互联网发展史,每一次技术狂欢,都伴随着监管的滞后。直播刚兴起时,没人管,结果未成年人打赏百万;短视频崛起时,没人管,结果算法把人困在信息茧房里;如今AI拟人化走到十字路口,好在这回,监管没等出事才出手。
但办法只是第一步。7月15日施行后,关键看执行:如何界定“情感依赖”?如何判断“过度迎合”?分类分级监管如何落地?这些都需要细则。
![]()
技术没有善恶,但人有。AI再聪明,也替代不了真实的人际连接——那种眼神交汇的温暖,那种争吵后的和解,那种沉默时的默契。
作为成年人,我们更该清醒:别让孩子的手机里,住进一个比父母还“懂”他们的AI。那不是科技的光,那是孤独的影。
办法来了,该醒醒了。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.