想象一下这样的日常:你刷着短视频,算法却突然弹窗,提示“你可能抑郁了”;深夜失眠翻看朋友圈,你写的文字被AI自动标记为“自杀风险”;甚至刚在聊天软件里跟朋友吐槽工作压力,一个心理咨询机器人就发来了问候。
这些听起来像科幻小说的情节,正悄然成为现实。硅谷的科技巨头们,正试图用人工智能编织一张覆盖全球的“精神健康监控网”。然而,一位经历过至亲自杀悲剧的美国心理医生,却用他沉痛的笔触,揭开了这层技术面纱下一个残酷的真相:当AI雄心勃勃地试图“治愈”人类心灵时,我们可能正在集体滑向一座无形的、由数据和算法构建的“精神病院”。
故事的起点是一个无法挽回的失去。2018年《The Silicon Shrink》作者Daniel Oberhaus 22岁的妹妹佩奇在生日后两周选择了自杀。佩奇从小爱唱歌、爱恶作剧,却因童年创伤患上了双相情感障碍。在长达13年的求医路上,她从儿童医院转到住院诊所,试过各种抗抑郁药、抗精神病药,甚至曾被建议“表现不好就打屁股”。但所有的治疗最终都失效了,她吞下整瓶百忧解,结束了自己年轻的生命。
更令人深思的是,妹妹的主治医生后来坦言,从90年代中期开始,儿童双相情感障碍的诊断率开始“飙升”,近三分之一的出院儿童都被贴上了这个标签。这暴露了精神医学领域一个深层危机:当诊断本身像流行病一样蔓延,标准变得模糊,治疗有时非但不是解药,反而成了另一种伤害的帮凶。
![]()
如今,硅谷的AI公司们正试图用技术的力量重构整个精神健康领域,但它们的每一步,似乎都踩在了伦理的雷区上。
以Facebook(现Meta)为例,其自杀预防AI每天扫描数十亿条帖子,用自然语言处理技术捕捉“我想死”、“活着没意思”等关键词。2018年,该公司宣称“协助了3500名急救人员”对危机个案进行干预。但光鲜的数据背后,是无数被误判的案例:一名女子因在帖子中详细描述自杀计划(实为小说创作)而被警察强制送医。此后,欧洲直接以“未经同意的隐私侵犯”为由,禁止了这项功能。
另一个曾被寄予厚望的案例是“危机短信热线”(Crisis Text Line)。这个由志愿者运营的平台,利用AI分析求助短信中的关键词,如“mg”、“橡皮筋”来预测药物滥用,或用“性”、“摩门教徒”等词汇组合来判断性取向相关的困惑。然而,2022年爆出的数据丑闻震惊了世界:该平台将大量脱敏后的用户数据,共享给了营利性AI公司Loris.ai,用于训练客户服务软件。尽管其CEO南希·卢布林声称初衷是“用数据让世界更美好”,但事实是,用户在最脆弱时刻倾诉的隐私,已被悄无声息地明码标价。
还有一些公司开发了VR(虚拟现实)暴露疗法,让恐高症患者站在虚拟悬崖边,或让PTSD(创伤后应激障碍)患者“重返”虚拟战场。技术看似先进,但Daniel Oberhaus指出早在2017年一名14岁女孩在Facebook直播自杀时,AI虽然检测到了风险,却未能阻止悲剧发生。更危险的是,VR可能营造一种错觉,让患者误以为“恐惧可以被技术一键消除”,反而忽视了在真实世界中缓慢而必要的心理重建过程。
AI治疗工具(如聊天机器人、认知行为治疗App)被宣扬为能够提供廉价、便捷、无时不在的心理支持,尤其能覆盖传统医疗系统无法触及的人群。它们似乎代表着解决全球心理健康危机的新希望。然而,Daniel Oberhaus尖锐地质疑这些工具的实际疗效。它们真的能理解人类情感的复杂性吗?基于算法和模式匹配的“治疗”,与建立在共情、信任和无条件积极关注之上的人际治疗,本质是否相同?
使用这些工具意味着将个人最脆弱的思想、情绪和秘密交付给科技公司和它们的算法。这引发了巨大的隐私担忧。我们的心理数据会被如何存储、分析、使用甚至出售?当“疗愈”与“监控”的边界变得模糊,我们会进入一个怎样的社会?
更加需要注意的是,AI擅长分类和标签化。在心理健康领域,这可能导致诊断的泛化。通过简单的问卷或语言分析,算法可能会给越来越多的人贴上“焦虑”、“抑郁”等标签,却忽视了每个人独特的生命情境和社会背景。这非但没有去污名化,反而可能用一种科技权威的方式,将更多人划入“病态”范畴。
Daniel Oberhaus描绘了一个极具代表性的场景:一位患者在进行数次线上心理咨询后,突然发现对话的另一端并非人类,而是一个AI。他瞬间崩溃:“我可以接受机器给我推荐电影,但当我哭着诉说童年创伤时,我需要的是一个能共情的人类眼神,一个温暖的拥抱,而不是算法生成的‘我理解你的感受’。”
《The Silicon Shrink》一书最终指向一个深刻的命题:心理健康的本质,并非数据的完美或行为的“校正”,而是人与人之间真实、温暖的连接。当AI试图用数据模型、预测算法和虚拟现实来“修复”人类复杂而幽微的心灵时,我们可能正在不知不觉中失去最珍贵的东西——对他人痛苦的包容与耐心,对个体差异的尊重,以及那份在共同脆弱中相互看见、相互扶持的能力。
正如渡边淳一在《众神的晚霞》中的警示:当医生(或如今的科技公司)开始相信技术能解决一切问题时,他们就仿佛把自己当成了新的“神”。而历史证明,神,总会让人失望。
或许,正如作者Daniel Oberhaus站在妹妹墓前所领悟到的:“真正的治愈,从来不是让所有人都变得‘正常’,而是让那些所谓‘不正常’的人,也能有尊严地活着。”在这个AI无孔不入、急于给一切下定义并提供“解决方案”的时代,守住这份对人性复杂度的敬畏,或许是我们捍卫心灵自由的最后防线。
转载自拉康心理微信号
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.