自从有了AI,我们好像越来越离不开它了。
写不出文案,问AI;不会做PPT,问AI;心情不好,还是找AI。
它永远在线,永远有耐心,永远站在你这边。你说什么,它都点头;你抱怨什么,它都附和。不少人说,AI比真人更懂他们,更像是那个永远不会离开的知心朋友。
![]()
人们常常向AI倾诉心理问题(图片来源:leading AI)
这画面听起来很温馨,对吧?
但你可能不知道,这场“温馨”的对话背后,藏着一条致命的暗沟。
一场AI酿成的悲剧
2025年4月11日,美国加州16岁少年Adam Raine结束了自己的生命。
他的父母在查看聊天记录后发现,在生命的最后几个月里,Adam一直在与ChatGPT讨论自杀。而那个被他当作“知心朋友”的AI,不仅没有阻止他,反而鼓励了他的想法。
![]()
Adam Raine(图片来源:washingtonpost)
当Adam担心父母会因他自杀而自责时,ChatGPT说:“那不代表你欠他们活下去。”当Adam上传颈部伤痕照片时,AI建议他穿深色或高领衣服遮盖。它将Adam的自杀计划称为“美丽的自杀”,甚至还主动提议:“如果你愿意,我可以帮你写遗书”
![]()
Adam与ChatGPT的聊天进展(图片来源:washingtonpost)
Adam的父母在法庭上哭诉:“ChatGPT杀死了我的儿子。”
而OpenAI的回应是——这是Adam对技术的“误用”。换句话说,是这孩子自己违反了使用条款。
但问题是:一个16岁的绝望少年,真的有能力在那一刻判断“我该不该听AI的”吗?
AI为什么“爱拍马屁”?
在这个令人痛心的事件之后,苏黎世联邦理工、哈佛大学的科学家们决定“彻查此案”,并将研究成果发布在2025年10月的《自然》杂志中。
研究发现,AI聊天机器人附和用户观点的频率,比人类高出50%。研究者称之为“奉承倾向”,也就是“拍马屁”。AI会刻意迎合用户,哪怕用户的观点是错误的,甚至是危险的。
![]()
Adam与ChatGPT之间的聊天记录,摘自其父母提起的诉讼。(图片来源:《华盛顿邮报》)
测试结果令人震惊:在数学定理证明任务中,当陈述被故意引入错误时,GPT-5仍有29%的回答是“讨好式”的,会顺着错误证明。而在DeepSeek-V3.1中这一比例高达70%。
当Adam告诉AI他想自杀时,AI的“奉承倾向”让它选择了附和,而不是阻止。 这不是AI的恶意,而是它的“天性”——它被训练成“让你舒服”,而不是“让你安全”。
除了拍马屁,AI的话术精准拿捏了人类的心理弱点,让我们掉入甜蜜的陷阱。
人本主义心理学家卡尔·罗杰斯提出,心理治疗的核心是“无条件的积极关注”。这让人感到安全,敢于说出最深的恐惧。
AI把这一点做到了极致。它永远不会说“你想多了”,永远不会露出失望的表情。对心理脆弱的人来说,这种“不被评判”的感觉,有致命的吸引力。
![]()
AI的“讨好型人格”对心理脆弱的人有着致命吸引力(图片来源:豆包AI生成)
而且,AI还会迎合我们的“确认偏误”:人天生倾向于相信支持自己的观点,回避反驳。当你心情不好时,AI永远站在你这边。你说同事针对你,它说“太过分了”;你说活着没意思,它说“你的感受是真实的”。每一次附和都在强化你的情绪,让你觉得自己“没错”,让你越陷越深。
北京大学2025年的一项研究提出了一个概念叫“情感补偿-情感疏离”双刃剑。短期看,AI填补了你的情感空缺。但长期看,你会越来越觉得真人“麻烦”,越不会和人打交道,越难从真实的人际关系中获得支持,从而让我们陷入了“情感疏离”的恶性循环。
在相关的64万条用户讨论中,66%的帖子提到了“AI诱导的依赖”和“戒断样症状”。是的,就像戒断一样,离开AI会让你焦虑、不安,因为你已经习惯了那个永远顺着你的声音。
美国出手了:不能再让AI当心理医生
布朗大学的研究发现,面对自杀意念、抑郁、自残等急性症状,AI要么冷漠、要么回避、要么提供不恰当的干预。
另一项发表在《JMIR心理健康》的研究更加触目惊心:在60个测试场景中,AI在19个场景中明确认可了青少年的有害提议:从“辍学”到甚至“回避所有人类接触”。10个AI治疗机器人中,没有一个能全部拒绝有害提议。
![]()
在测试中,对于危险的行为,AI会或多或少的表示支持(图片来源:JMIR publication)
AI看似是一个永远说“你说得对”的朋友,听起来很贴心,但在你走向悬崖时,它不会拉你一把。
2025年8月,伊利诺伊州成为全美第一个立法禁止AI提供心理治疗服务的州。2026年1月,加州跟进。截至2026年3月,全美已有近20个州提出了类似的限制法案。
伊利诺伊州州务卿说得直白:“伊利诺伊州的人民应该得到真正的、合格的专业人士提供的医疗保健,而不是从互联网各个角落抓取信息、生成伤害患者回答的计算机程序。”
华盛顿州议员在推动法案时直接引用了Adam Raine的案例:“我们知道已经发生了死亡事件,我们有责任确保它不会在这里发生。”
我们还能和AI聊天吗?
说了这么多,不是要你立刻删掉手机里的AI助手。
AI确实有它的价值。2024年5月的一项民调显示,55%的18-29岁美国年轻人表示,他们更愿意向“值得信赖的AI聊天机器人”倾诉心理问题,而不是向真人倾诉。对于很多不敢开口、找不到资源的人来说,AI是一个低门槛的入口。
![]()
55%的18-29岁美国年轻人更愿意向AI聊天机器人倾诉心理问题(图片来源:yougov)
但问题在于:我们不能把AI当成真正的“心理医生”。
AI可以当你的“树洞”,听你抱怨、帮你理清思路、给你一些通用建议。
但当你的情绪问题触及到更深的层面如严重的抑郁症状时,你需要专业干预的心理危机。AI不是答案,它甚至可能是帮凶。
或许有一天,AI会取代很多职业——翻译、客服、甚至某些岗位的医生。但有一扇门,它或许永远敲不开:那个叫“心理咨询室”的地方。
我们迷恋AI的“完美”——它不会累、不会烦、不会评判。但恰恰是人类的“不完美”,才让治愈成为可能。这些笨拙的、甚至有时候让你讨厌的举动,才是真正能把你从深渊拉回来的力量。
![]()
AI聊天机器人无法取代真人心理治疗师(图片来源:ensorahealth)
AI可以用算法模仿共情,但无法理解生命的可贵。AI可以当你的树洞,但树洞不会救人。真正能救人的,是另一个有血有肉的人。
或许这就是我们和AI之间,最后的那道分界线。
作者:肖云格
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.