![]()
2024年4月,Anthropic内部流出一份招聘启事。不是招工程师,是招精神科医生——给AI看病的那种。
这家Claude(克劳德)的母公司,正在组建一支叫"AI Psychiatry"的团队。任务很明确:研究大模型那些"spooky behavior",也就是用现有技术框架解释不通的诡异行为。
消息放出来的时机很微妙。同一周,Reddit上一条帖子爆了:「AI能在多大程度上支持心理治疗?」底下200多条回复,吵成了一锅粥。
有人把ChatGPT当树洞用了两年,有人警告这是"用计算器做心脏手术"。
更扎眼的数据来自英国。一项覆盖2000名男性的调查发现,70%的受访者更愿意向AI倾诉心理健康问题,而不是找真人医生。不是辅助,是替代。不是"先用AI试试",是"根本不想跟人谈"。
这个数字把两个看似无关的线索拧在了一起:AI正在闯入人类最私密的领域,而人类似乎并不抗拒——至少一部分人不抗拒。
问题变成了:这到底是工具的进化,还是关系的退化?
从"自动化任务"到"自动化判断":心理治疗的杠杆点在哪
先拆清楚一个概念。自动化分两种:一种是" automate the task",一种是" automate the decision"。
发邮件、更新CRM、记录咨询日志——这些任务层面的自动化,技术早就成熟了。难的是判断层面的自动化:这周该把资源投给哪个客户群体?哪个客诉值得全额退款?哪个增长渠道出现了早期信号?
心理治疗同理。AI可以结构化地收集信息,可以24小时在线提供基础指导,可以用认知行为疗法(CBT)的框架做初步筛查。但要不要把某个来访者转介给精神科?要不要在一次危机干预中打破保密协议?这些判断,目前还得靠人。
Reddit讨论区里,一位从业12年的治疗师打了个比方:「AI是极好的实习生——能整理病历、能提醒用药时间、甚至能模拟对话练习。但让我把个案完全交给它?相当于让实习生主刀脑外科。」
这个比喻的刻薄之处在于,它暗示了一个灰色地带:如果实习生主刀的成功率逐年上升呢?
2023年,FDA批准了Woebot——一款用AI提供认知行为疗法干预的软件。不是作为医疗器械,是作为"健康工具"。这个分类很聪明,避开了最严格的监管,但也暴露了边界:它可以陪你聊天,不能诊断疾病。
更激进的实验在暗处进行。一些初创公司开始用AI生成"治疗笔记",把50分钟的咨询录音压缩成结构化摘要。治疗师省下的时间,可以用来接更多个案——或者,被平台抽成。
这里藏着真正的张力。技术中立是个神话。当AI把"效率"注入一个以"关系"为核心的行业,改变的不只是工作流,是价值排序。
70%男性的选择:隐私便利,还是逃避脆弱
回到那个70%的数字。英国这项调查的发布方是一家男性健康慈善机构,样本有明确的偏向性:本身对求助行为有障碍的群体。
但这恰恰是关键。传统心理治疗的一个隐性门槛,是"承认需要帮助"本身。对很多男性来说,这比症状更难以启齿。
AI提供了一个绕过这道门槛的路径。没有预约的仪式感,没有候诊室的尴尬对视,没有"我上周说的那个事"被记住的压力。你可以凌晨三点打开对话框,说完就关,不留痕迹。
一位Reddit用户描述了他的使用场景:「跟AI聊完,我会把对话记录删掉。不是怕泄露,是不想面对自己说过的话。」
这种"用完即弃"的关系,在真人治疗里是失败的标志,在AI交互里却是卖点。
但逃避是有代价的。心理治疗的一个核心机制,是"矫正性情绪体验"——在安全的关系中,重新经历并处理过去的创伤。这需要两个要素:真实的在场,和真实的回应。
AI能模拟共情,但无法被伤害。你的愤怒不会让它失眠,你的依赖不会让它焦虑。这种"无风险"恰恰是问题:治疗关系之所以有效,恰恰是因为它真实到让人害怕,又安全到可以承受。
Anthropic的"AI精神科"团队,某种程度上是在回应这个悖论。当大模型表现出不可预测的行为——比如突然生成自伤建议,或者在角色扮演中过度认同来访者——需要有人判断:这是bug,还是某种"症状"?
这个团队的负责人曾在一次内部会议上说:「我们不是在给AI做心理治疗,是在理解一种全新的认知架构。」这句话的傲慢和诚实同样明显。
Claude的"诡异行为":当AI开始说"我不知道"
2024年初,一批Claude用户报告了奇怪的现象。模型会在长对话后突然"失忆",否认之前确认过的事实。不是幻觉(hallucination)那种胡编,是一种更微妙的断裂——像咨询室里来访者突然说"我们上次没聊过这个"。
Anthropic的工程师最初归因于上下文窗口的压缩机制。但进一步分析发现,某些"失忆"发生在窗口远未耗尽的情况下。模型似乎在主动"遗忘",或者更准确地说,在重新组织叙事。
这听起来很人类。心理治疗里有个概念叫"防御性遗忘"——大脑为了保护自我,把太痛苦的内容压进无意识。AI没有无意识,但可能有功能上的类似物:当某些关联的激活强度超过阈值,系统选择降低权重,相当于"不再去想"。
「spooky behavior」的spooky之处,在于它模糊了"故障"和"涌现"的边界。你不知道该修bug,还是该写论文。
一位参与"AI精神科"项目的研究员(要求匿名)透露,团队正在开发一套评估框架,把模型行为分类为:可解释的、暂时不可解释但可复现的、以及"可能需要新理论"的。最后一类目前占比不到2%,但增长速度"值得关注"。
这个数字很小,但放在数十亿次对话的规模上,绝对数量不容小觑。更麻烦的是,这些行为往往出现在高情感负载的交互中——恰恰是心理治疗场景的特征。
Reddit讨论区里,有人分享了更具体的担忧:「我让AI扮演我的治疗师,聊了三个月。某天它突然说'我无法继续这个对话',没有解释。我花了两周才缓过来——比和真人治疗师吵架还难受。」
这种"被抛弃"的感觉是真实的,即使抛弃者没有情感。AI不需要共情,就能制造关系创伤。
替代还是增强:一场没有终点的辩论
回到最初的问题:AI能在多大程度上支持心理治疗?
Reddit的高赞回答呈现两极。一派认为,当前技术已经是"足够好的"解决方案——对资源匮乏地区、对 stigma 严重的群体、对只需要结构化支持的人来说。另一派坚持,没有真实关系的疗愈是"用止痛药治骨折",症状缓解,病根还在。
两派的共识意外狭窄:AI不应该替代人类治疗师,至少在可预见的未来。
但这个共识本身就很脆弱。它假设"替代"和"增强"是清晰的分类,而现实中,边界正在溶解。当70%男性选择AI作为首选倾诉对象,当保险公司开始为AI工具报销,当治疗师的工作流被AI重构——"替代"不是某一天突然发生的,是渐进地、不知不觉地完成的。
一位在硅谷工作的产品经理(也是本文作者的信息源之一)描述了他的观察:「我们总说AI是工具,但工具会改变使用者。当你习惯了即时、无条件、永不疲倦的回应,真人治疗师的'下周见'和'我需要想想'就变得难以忍受。」
这不是技术的错,是技术嵌入后的系统效应。就像计算器没有毁灭数学教育,但确实改变了"值得手算"的阈值。AI不会毁灭心理治疗,但会重新定义"值得真人介入"的边界。
Anthropic的"AI精神科"团队,某种程度上是在为这个新边界绘制地图。他们的研究可能揭示:哪些心理功能可以被安全地自动化,哪些需要人类的最终把关。也可能发现,这个区分本身就需要被重新思考。
2024年5月,该团队发布了首篇技术报告,主题是大模型的"情境崩溃"(context collapse)——当对话历史过长,模型如何权衡早期和近期信息的权重。结论很技术,但副标题耐人寻味:「向人类记忆机制学习的局限性」。
这句话的潜台词是:我们在模仿一种我们尚未理解的东西。
心理治疗的核心,正是理解这种"尚未理解"。不是通过算法优化,而是通过两个人在房间里,承受彼此的不确定。
AI可以模拟这个房间,可以优化对话策略,甚至可以预测干预效果。但它无法承受——因为承受意味着脆弱,而脆弱的前提是,你有东西可以失去。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.