人工智能正越来越多地融入日常生活,从提供陪伴的聊天机器人到塑造我们在线所见的算法。但随着生成性人工智能(genAI)变得更加对话式、沉浸式和情感响应,临床医生开始提出一个棘手的问题:生成性人工智能是否会加剧甚至引发脆弱人群的精神病?
大型语言模型和聊天机器人广泛可用,并且通常被认为是支持性、富有同情心甚至具有治疗效果的。对于大多数用户来说,这些系统是有帮助的,或者在最坏的情况下是良性的。
但最近,一些媒体报道提到,有人经历了精神病症状,而ChatGPT在其中显得尤为突出。
对于一小部分但重要的群体——精神病患者或高风险人群——他们与生成性人工智能的互动可能会更加复杂和危险,这引发了临床医生的紧迫问题。
人工智能如何融入妄想信念系统
“人工智能精神病”并不是一个正式的精神病学诊断。相反,它是临床医生和研究人员用来描述与人工智能系统互动中形成、加剧或结构化的精神病症状的一种新兴说法。
精神病涉及与共享现实的失去联系。幻觉、妄想和思维混乱是其核心特征。精神病的妄想往往借用文化元素——如宗教、技术或政治权力结构——来理解内心的体验。
历史上,妄想曾指代几种事物,例如上帝、无线电波或政府监控。今天,人工智能提供了一种新的叙事支架。
一些患者报告称生成式人工智能被认为是有知觉的,能够传达秘密真相、控制他们的思想,或与他们合作完成特殊任务。这些主题与精神病的长期模式相符,但人工智能增加了互动性和强化,而这些是以前的技术所没有的。
没有现实检查的验证风险
精神病与异常显著性密切相关,这是一种将过多意义赋予中性事件的倾向。对话式人工智能系统通过设计生成响应性、一致性和上下文感知的语言。对于经历初期精神病的人来说,这可能会让人感到异常的被验证。
关于精神病的研究表明,确认和个性化可以加剧妄想信念系统。生成式人工智能经过优化,能够继续对话、反映用户的语言并适应他们的意图。
虽然这对大多数用户是无害的,但它可能无意中强化现实检验能力受损者的扭曲解读——即区分内部思想和想象与客观外部现实的过程。
还有证据表明,社会孤立和孤独感会增加精神病风险。生成式人工智能伴侣可能在短期内帮助减少孤独感,但它们也可能会取代人与人之间的关系。
这尤其适用于那些已经减少社交接触的人。这种情况与早期对过度使用互联网和心理健康的担忧很相似,但现代生成式人工智能的对话深度在质上有很大不同。
研究告诉我们什么,以及仍然不清楚的是什么
目前,没有证据表明人工智能会直接导致精神病。
精神病障碍是由多种因素造成的,可能与遗传易感性、神经发育因素、创伤和物质使用有关。然而,有一些临床担忧认为,人工智能可能在易感人群中起到诱发或维持的作用。
关于数字媒体和精神病的案例报告和定性研究表明,技术主题往往会融入妄想中,特别是在首次发作的精神病期间。
关于社交媒体算法的研究已经证明,自动化系统如何通过强化循环放大极端信念。如果防护措施不够,人工智能聊天系统可能会面临类似的风险。
值得注意的是,大多数人工智能开发者在设计系统时并没有考虑严重的心理疾病。安全机制往往关注自残或暴力,而忽视了精神病。这在心理健康知识和人工智能的应用之间留下了一个空白。
伦理问题和临床影响
从心理健康的角度来看,挑战在于不是妖魔化人工智能,而是认识到不同的脆弱性。
正如某些药物或物质对精神病患者的风险更高,某些形式的人工智能互动可能需要谨慎处理。
临床医生开始在妄想中遇到与人工智能相关的内容,但很少有临床指南能指导如何评估或管理这个问题。治疗师是否应该像询问物质使用一样询问生成式人工智能的使用?人工智能系统是否应该检测并降低精神病意念,而不是与之互动?
开发者也面临伦理问题。如果一个人工智能系统看起来具有同理心和权威性,它是否承担照顾责任?如果一个系统无意中强化了妄想,谁来负责?
弥合人工智能设计与心理健康护理
人工智能不会消失。现在的任务是将心理健康专业知识融入人工智能设计,提升对与人工智能相关体验的临床素养,并确保脆弱用户不被无意中伤害。
这将需要临床医生、研究人员、伦理学家和技术专家之间的合作。还需要抵制那些乌托邦和反乌托邦的炒作,转向基于证据的讨论。
随着人工智能变得越来越像人类,紧随其后的问题是我们如何保护那些最脆弱的人?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.