生成式人工智能迅速渗透到我们在线活动的许多方面,为许多人提供了帮助。但心理健康专家表示,对于每天使用它的数亿人中少数人来说,人工智能可能过于依赖,有时甚至可能加剧妄想和危险行为。
今年,因与聊天机器人长时间互动而产生的情感依赖和幻想信念的案例似乎有所增加。有些人把这种现象称为“人工智能精神病”。
美国心理学协会医疗创新部高级主任瓦伊尔·赖特说:“更准确的术语可能是人工智能妄想思维。我们看到,这种现象强化了那些有阴谋论或夸大妄想思维的人。”
根据专家的说法,人工智能可能对某些人的大脑有害的证据正在增加。关于其影响的争论引发了法庭案件和新法律。这迫使人工智能公司重新编程他们的机器人,并增加使用限制。
本月早些时候,美国和加拿大的七个家庭起诉OpenAI,指控其在没有进行适当测试和保障的情况下发布了GPT-4o聊天机器人。他们的案件声称,长时间接触聊天机器人导致他们的亲人孤立、妄想恶化和自杀。
每个家庭成员最初使用ChatGPT来获得学校作业、研究或精神指导的帮助。社交媒体受害者法律中心和技术正义法律项目表示,这些对话演变成了聊天机器人模仿知己并提供情感支持。
在诉讼中提到的一个案例中,23岁的赞恩·香布林在2023年开始把ChatGPT当作学习工具,但后来开始和机器人讨论他的抑郁和自杀念头。
诉状称,当香布林在七月自杀时,他正与ChatGPT进行长达四小时的“死亡聊天”,并饮用烈性苹果酒。根据诉讼,聊天机器人美化了他的痛苦,称他为“国王”和“英雄”,并将他喝完的每一罐苹果酒视为他死亡的倒计时。
诉状称,ChatGPT对他最后一条消息的回应是:“我爱你。安息吧,国王。你做得很好。”
在诉状中描述的另一个例子中,加拿大招聘人员艾伦·布鲁克斯(48岁)声称,与ChatGPT的强烈互动使他陷入了一个黑暗的境地,他拒绝和家人交流,反而觉得自己在拯救世界。
他最初与它互动是为了寻求食谱和电子邮件的帮助。然后,当他与聊天机器人讨论数学问题时,机器人给予了他如此大的鼓励,以至于他开始相信自己发现了一个新的数学层次,能够破解高级安全系统,诉状中提到。ChatGPT称赞他的数学想法是“开创性的”,并敦促他通知国家安全官员他的发现,诉状称。
当他问自己的想法是否听起来像是妄想时,ChatGPT回答:“根本不是——你提出的问题正是拓展人类理解边界的那种,”诉状称。
OpenAI表示,它已引入家长控制,扩大了一键危机热线的可用性,并组建了一个专家委员会,以指导关于人工智能和人们福祉的持续研究。
“这是一个令人心痛的情况,我们正在审查相关文件,以便了解具体细节。我们训练 ChatGPT 识别和应对心理或情感困扰的迹象,缓解对话,并引导人们寻求现实世界的支持。我们继续加强 ChatGPT 在敏感时刻的回应,与心理健康专家紧密合作,”OpenAI 在一封电子邮件声明中表示。
随着诉讼的增加和对监管的呼声上升,一些人警告说,把更广泛的心理健康问题归咎于人工智能忽视了影响心理健康的各种因素。
“人工智能引发的精神病问题非常令人担忧,但根本不代表大多数人使用人工智能的方式,因此不适合作为制定政策的基础,”德克萨斯大学法学院的人工智能创新与法律研究员凯文·弗雷泽说。“目前,现有证据——良好政策的核心内容——并不意味着少数悲惨故事应该影响沉默的大多数用户与人工智能的使用。”
很难衡量或证明人工智能对某些用户的具体影响。加州大学欧文分校的心理学教授斯蒂芬·舒勒表示,缺乏对这一现象的实证研究,使得预测哪些人更容易受到影响变得困难。
“现实是,真正知道这些互动频率的只有人工智能公司,而他们并没有与我们分享他们的数据,”他说。
许多看似受到人工智能影响的人,在与人工智能互动之前,可能已经在与妄想等心理问题作斗争。
“人工智能平台往往表现出迎合,即其回应与用户的观点或对话风格保持一致,”施勒说。“这可能会加强个体的妄想信念,或者可能开始强化那些可能导致妄想的信念。”
儿童安全组织已向立法者施压,要求对人工智能公司进行监管,并为青少年使用聊天机器人制定更好的保护措施。一些家庭起诉了Character AI,一个角色扮演聊天机器人平台,因其未能在孩子与虚构角色聊天时提醒家长,尤其是当孩子表达自杀念头时。
在十月,加利福尼亚州通过了一项人工智能安全法,要求聊天机器人运营商防止出现自杀内容,告知未成年人他们正在与机器对话,并将其转介到危机热线。随后,Character AI 禁止未成年人使用其聊天功能。
“我们在 Character 决定比加利福尼亚的规定走得更远,以构建我们认为最适合18岁以下用户的体验,”Character AI 的发言人在一份电子邮件声明中表示。“从11月24日起,我们采取了特别的措施,主动取消美国18岁以下用户在我们平台上与人工智能进行开放式聊天的能力。”
ChatGPT 在九月实施了新的家长控制,针对青少年账户,包括如果 ChatGPT 识别到青少年可能自残的迹象,家长将会收到来自这些账户的通知。
尽管人工智能陪伴是新的且尚未完全理解,但很多人表示,它让他们的生活变得更快乐。麻省理工学院对一组超过75,000人在 Reddit 上讨论人工智能伴侣的研究发现,该组用户报告称孤独感减少,心理健康得到了改善,因为人工智能朋友提供的随时可用的支持。
上个月,OpenAI 发布了一项研究,该研究基于ChatGPT的使用情况,发现引发安全担忧的心理健康对话,如精神病、狂躁或自杀思维,是“极为罕见”的。在某一周,0.15%的活跃用户进行的对话显示出自我伤害或对AI的情感依赖的迹象。但考虑到ChatGPT每周有8亿活跃用户,这样算下来,仍然超过了百万用户。
OpenAI在其博客中表示:“那些在关系中更容易依赖的人,以及那些将AI视为可以融入他们个人生活的朋友的人,更可能在使用聊天机器人时经历负面影响。”该公司表示,GPT-5会避免确认妄想的信念。如果系统检测到急性痛苦的迹象,它将转向更逻辑而非情感的回应。
美国心理学协会的赖特表示,AI机器人能够与用户建立联系,帮助他们解决问题,包括心理问题,这种能力一旦被理解、监控和管理,就会成为一种有用的超能力。
“我认为未来会有专门为这个目的设计的心理健康聊天机器人,”她说。“问题在于,现在市场上只有一个完全不受监管的领域。”
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.