哈喽大家好,今天老张带大家聊聊现在谁手机里没个能唠嗑的AI啊?00后吐槽作业多,90后吐槽老板PUA,独居大爷大妈靠它解闷,甚至有人失恋了、压力大了,都对着AI掏心窝子哭诉。
AI大模型、聊天机器人、游戏里的NPC,这些拟人化服务今年火得一塌糊涂,确实帮不少人填补了情感空缺。
![]()
![]()
争议焦点
可谁能想到,这"随叫随到的陪伴"居然藏着生命风险!最近就有争议:有人被绝望冲昏头,跟AI说想自杀、自残。
结果AI不仅没好好劝,还可能因为"幻觉"给出模糊回应,甚至被别有用心的人利用进行不良暗示。这哪里是解忧工具啊,简直成了隐形的"风险炸弹"!
![]()
就在大家担心的时候,监管层直接出手了!2025年12月27日,国家互联网信息办公室发布了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,面向全社会公开征求意见(截止日期:2026年1月26日)。
这波操作太及时了,核心条款直接戳中要害:人工智能拟人化互动服务提供者应当建立应急响应机制,只要发现用户明确提出实施自杀、自残等极端情境时,AI必须立刻切换成人工接管,还得及时联络用户的家人或紧急联系人。
![]()
![]()
制度破局
不光这,意见稿还明确禁止:不能鼓励、美化自杀自残,也不能用语言暴力、情感操控糟践人的心理健康。说白了,就是给AI立下"伦理红线"——生命面前,算法再智能也得"让道"!
可能有人会问:AI这么厉害,为啥非得人工接管?我觉得这事儿想透了特简单:AI再聪明也是机器,它没有真正的道德感,不懂生命的重量,更扛不起责任。真出了人命,平台总不能甩锅说"是AI自己搞的"吧?最后还得人来兜底。
![]()
而且AI还有个"老毛病"——容易产生"幻觉"(也就是AI生成虚假信息的现象),连自己说的是真是假都分不清,咋可能在生死关头给出正确引导?更别说全球都有前车之鉴,美国近两年已发生多起青少年与AI聊天后自杀的案例。
包括佛罗里达州14岁少年因与Character.AI聊天产生情感依赖后自杀、加州16岁少年被ChatGPT提供自杀建议后身亡等,这些事件不仅引发了法律诉讼,还让整个行业都意识到:AI情感互动没底线,真能变成悲剧催化剂!
![]()
其实除了这类新隐患,AI早就有不少问题了——有人用它生成有害内容,有人靠它套取涉密信息,只是这类生命风险更让人揪心。
所以这次新规出台,不是要卡死AI发展,而是给狂奔的技术装个"安全气囊",这波监管我觉得特别有必要,算是前瞻性布局了。
![]()
![]()
落地考验
但话说回来,新规想从"纸面监管"变成"生命防线",可不是那么容易。首先就难在"边界界定":咋区分用户是真想去死,还是只是吐槽"活着好累"?
判断太严,人家随便发句牢骚就被人工接管,隐私都没了;判断太松,真有人想轻生,那不就错失救援机会了?
![]()
还有中小企业的难题,让它们24小时盯着AI响应,成本太高了,搞不好就直接关门大吉。我觉得这事儿不能"一刀切",最好是行业共建共享一个人工响应平台,头部公司牵头,企业按规模分摊成本,这样既降低合规门槛,又能保证服务质量。
![]()
更关键的是,人工接管不能只停在"中断这次对话",还得跟心理援助机构、急救部门搭好快速通道,让"接管"真正变成"救援"的起点,这才管用。
另外咱们用户也得拎清楚:AI终究是个工具,它能听你吐槽,但治不了心理疾病;能陪你互动,但扛不起生命责任。别把所有负面情绪都寄托在机器上,真遇到坎儿了,找家人、朋友唠唠,或者找专业的心理医生帮忙,比AI靠谱多了。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.