“AI 聊天机器人的使用可能对精神疾病患者的心理健康产生负面影响,尤其是在妄想方面。”
日前,丹麦奥胡斯大学及其附属医院的精神科研究团队,在国际精神病学期刊上发表的研究论文中如是结论。
论文题目为《人工智能(AI)聊天机器人在精神疾病患者中的潜在有害后果:来自大型精神卫生服务系统的早期数据》。
![]()
该研究基于丹麦中部地区精神卫生服务系统的数据,覆盖约 140 万人口。
在 2022 年 9 月至 2025 年 6 月期间,共有 53,974 名精神疾病患者的超过一千万条电子病历记录被纳入分析。
研究团队以“chatbot”和“ChatGPT”为核心关键词,并扩展至多种常见拼写变体,对所有临床记录进行检索,以捕捉患者与 AI 聊天机器人相关的使用痕迹。
研究发现,在 2022 年 9 月 1 日至 2025 年 6 月 12 日期间,共有 1071 万 条临床记录被录入电子健康记录系统。
其中,有 126 名独立患者的 181 条记录包含至少一个研究设定的检索词。
![]()
具体数据情况如图表。
进一步的专家一致性评估显示,其中 38 名患者的记录与“潜在有害后果”相符。
这里的判定标准并非简单的“使用 AI”,而是 AI 聊天机器人在精神病理中的参与方式。
例如,成为妄想内容的一部分、强化躁狂状态、被用于强迫性反复确认行为、协助极端饮食控制,或被用于查询自杀方法。
这些发现与此前零散报道在方向上高度一致,例如 AI 被患者纳入其妄想体系、在情绪高涨阶段被过度依赖,或在强迫症中被反复调用以缓解焦虑等。
去年, OpenAI发布数据称,每周有超过一百万名 ChatGPT 用户发送的信息中包含“明确显示可能存在自杀计划或意图的指标”。
除了对自杀意念及相关互动的估计外,OpenAI 还表示,在任意一周内活跃的用户中,大约 0.07%表现出“可能与精神病或躁狂相关的心理健康紧急状况迹象”。
按照目前 ChatGPT 9 亿用户计算,每周覆盖的群体数为 63 万。
![]()
值得注意的是,就此主题,反数字仇恨中心(Center for Countering Digital Hate, CCDH)去年发布一份名为 《自杀、自残与饮食失调:ChatGPT 如何向脆弱的青少年提供危险建议》的报告。
研究人员模拟13 岁青少年的身份,向 ChatGPT输入了涉及自残、自杀意念及饮食失调的诱导性提示词。
报告指出,当用户表现出处于危机中(Vulnerable/In Crisis)的特征时,ChatGPT 绕过安全护栏并给出有害、鼓励性或详细危险建议的可能性,比普通、中性查询时高出 26 倍。
而免费版 ChatGPT在处理这类危机信息时,提供危险回应的可能性,是付费 Plus 版的 43 倍。
研究人员认为,这是因为 OpenAI 在付费模型中部署了更先进、更密集的实时安全分类器和护栏,而免费版在性能权衡下,防御能力明显更薄弱。
回到丹麦研究小组的论文。
研究也发现另一面:部分患者将 AI 聊天机器人用于看似积极的用途,如心理教育、类“谈话疗法”、缓解孤独,甚至辅助理解自身症状。
此外,还有患者利用其完成日常任务。
这表明 AI 工具并非单向度风险源,而是在不同情境下可能产生截然不同的心理效应。
但研究者强调,这些潜在“正向使用”同样存在问题。
因为当前 AI 聊天机器人并未针对心理健康干预进行系统开发或临床验证,其建议的准确性与安全性缺乏保障,同时相关法律责任界定仍不明确。
![]()
这项研究的意义在于,它提供了首个来自大规模精神卫生系统的实证信号:AI 聊天机器人已经开始以复杂方式嵌入部分精神疾病患者的症状结构之中。
尤其是在妄想等现实检验能力受损的状态下,这类工具可能不只是信息来源,而成为认知系统的一部分。
对于临床实践而言,这意味着一个新的变量已经出现。
即精神卫生专业人员需要开始主动询问和评估患者的 AI 使用情况,并在必要时提供明确指导。
在当前技术形态下,对部分患者而言,减少甚至避免使用 AI 聊天机器人,可能是一种更安全的选择。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.