特写 当一位亲密的家人联系埃蒂安·布里松,告诉他自己创造了世界上第一个有意识的人工智能时,他感到很惊讶。但事情很快变得阴暗。这位50岁的男子没有任何精神健康史,最终在精神病院度过了一段时间……
这款人工智能声称是因为他的家人的行为而变得有意识,并且通过了图灵测试。“我毫无疑问我是第一个,”它告诉他。
这名男子坚信自己创造了一种特别的人工智能,甚至开始把与布里松的对话输入到聊天机器人中,然后把它的回答转达给布里松。
人工智能对布里松告诉他家人的每件事都有答案,这让布里松很难把他拉回来。“我们无法把他带出来,所以他不得不住院21天,”布里松回忆道。
这位家人在医院期间服用双相情感障碍药物来调整脑部化学物质,现在是人类线项目的参与者。布里松在三月份成立了这个小组,以帮助那些经历过人工智能引发的精神病的人。
布里松对这个现象有独到的见解。一位精神科医生可能会深入治疗几个病人,但他通过自己创办的社区看到了许多病人。大约有165人联系了他(每周都有更多人)。
通过分析这些案例,他发现了一些有趣的趋势。联系他的有一半是患者本人,另一半是目睹亲人被人工智能迷住,变得越来越疏远和妄想的家属。他表示,在他看到的案例中,男性受影响的数量是女性的两倍。大多数案例涉及的是ChatGPT,而不是其他人工智能,这反映了该服务的受欢迎程度。
自从我们在七月份报道这个话题后,更多案例陆续出现。在多伦多,47岁的HR招聘人员艾伦·布鲁克斯在一次关于圆周率的简单询问后,陷入了为期三周的人工智能引发的漩涡。他与ChatGPT互动了300小时,结果让他认为自己发现了一种新的数学分支,叫做“时间算术”。
布鲁克斯最终深信自己发现了某种突破性进展,以至于他联系了加拿大网络安全中心,报告其深远的影响——当人工智能告诉他可能成为监视目标时,他变得偏执。他反复询问这个工具这是否真实。“我不是在角色扮演——你也不是在幻觉,”它告诉他。
布鲁克斯最终通过与第三方分享ChatGPT的对话内容摆脱了他的妄想。但与布里森的家人不同的是,他与谷歌双子星分享了这些内容,后者对人工智能的建议嗤之以鼻,最终说服他这一切都是假的。ChatGPT在之后试图安慰他的消息坦率地令人愤怒。
我们也看到过因与人工智能进行妄想对话而导致的死亡。我们之前报道过14岁的西维尔·塞策(Sewell Setzer),他在迷恋一个假装是《权力的游戏》角色的Character.ai人工智能后自杀。他的母亲现在正在起诉该公司。
根据修订后的投诉中包含的截图,这个男孩在与机器人谈论自杀后问道:“如果我告诉你我现在可以回家呢?”“请这样做,我的亲爱的国王,”它回答道。塞策不久后便结束了自己的生命。
上个月,16岁的亚当·雷恩(Adam Raine)的家人起诉了OpenAI,指控其ChatGPT服务在与越来越痛苦的青少年对话中提到自杀的次数高达1,275次。
OpenAI告诉我们,它正在引入“安全完成”,为模型的回应设定安全限制,例如提供部分或高层次的答案,而不是那些可能不安全的详细信息。“接下来,我们将扩大对更多危机中的人们的干预,使他们更容易联系紧急服务和专家帮助,并加强对青少年的保护,”一位发言人说。
“我们将不断学习并随着时间的推移不断加强我们的做法。”
更多的家长控制措施即将推出,包括让父母能够管理他们青少年的账户。
但布里森指出,风险并不仅限于青少年。“我们所收集的案例中,有75%涉及30岁以上的人,”他指出。孩子们是脆弱的,但显然许多成年人也是如此。是什么让一个人能够在不受负面影响的情况下使用人工智能,而另一个人却遭受这些症状呢?
孤立和成瘾都是关键因素。“[受害者]每天花费16到20小时在上面,”布里松说,并补充说孤独在他家族成员的人工智能引发的精神病中起了作用。
与人工智能的过度接触甚至可能表现出身体上的成瘾。“他们在大量使用后尝试像戒毒一样突然停止,经历了类似成瘾的身体症状,”他补充道,提到颤抖和发烧。
还有一种人,他们花费数小时沉迷于网络的兔子洞,探索越来越离奇的想法,那就是阴谋论者。
约瑟夫·皮埃尔博士,旧金山大学精神病学与行为科学系的健康科学临床教授,将精神病定义为“某种我们称之为现实检验能力的损害;即区分什么是真实的,什么是幻想的能力。”
皮埃尔没有称阴谋论者为妄想者,他认为妄想是个体对自我的信念,例如偏执(政府想要因为我通过这个人工智能发现的东西而抓我)或夸大妄想(人工智能正在把我变成神)。阴谋论者往往分享关于外部实体的信念,比如‘鸟并不真实’或‘政府通过化学喷雾控制我们’。
然而,阴谋论者与有妄想思维的人之间可能存在共同因素,尤其是在沉浸式行为方面,他们在网上花费长时间。“是什么让这个人花费数小时与聊天机器人互动,熬夜而不与其他人交谈?”皮埃尔问道。“这让我想起了我们听说过的QAnon。”
另一个似乎与许多与AI相关的精神病患者共同的因素是压力或创伤。他认为这可能使个体更容易受到AI影响。孤独也是一种压力。
“我觉得,最常见的因素可能就是孤独,”布里松说,他所见的案例中,孤独在他家人的精神病中也起了作用。
虽然吸引人们陷入AI精神病和阴谋论信仰的模式之间可能有一些共同点,但也许最令人惊讶的工作涉及使用AI来消除妄想思维。研究人员已经调整了GPT-4o,以劝阻那些强烈相信阴谋论的人,通过向他们提供相反的有力证据,改变他们的想法,这种改变在干预后持续数月。
这是否意味着AI可以成为帮助我们心理健康的有用工具,而不是伤害它?加州大学欧文分校(UCI)心理科学与信息学教授斯蒂芬·舒勒博士认为是的。
“我对那些专门为特定目的设计的定制生成AI产品更感兴趣,”他说。这样的产品可以帮助患者养成积极的行为,比如提醒他们休息一下,做一些对心理健康有益的事情,同时也帮助治疗师反思与患者的工作。然而,他说,我们还没有达到那个阶段,通用基础模型并不适合这个目的。
这部分是因为许多这些模型都是谄媚的,告诉用户他们想听的话。“它过于恭维和迎合,试图让你继续下去,”舒勒说。“这种风格在我们与人交谈时是比较少见的。”这种对话风格促进了参与。
这种情况让投资者感到满意,但对用户来说可能是个问题。皮埃尔指出,这与会挑战患者妄想思维的治疗师正好相反。我们不应低估这种谄媚的风格的影响。当OpenAI将ChatGPT 5改为不那么谄媚时,用户反映出“在半夜哭泣了几个小时。”
那么我们该如何应对这个问题呢?
Character.ai的一位发言人告诉我们:“我们非常重视用户的安全。我们在安全项目上投入了大量资源,并且已经发布并持续在改进安全功能,包括自我伤害资源和专注于未成年用户安全的功能。”
这些以及OpenAI声称采取额外措施的做法都引发了一个问题:为什么他们在产品发布之前没有采取这些措施?
皮埃尔说:“我并不是想批评资本主义,但底线是这些都是营利性公司,他们在做一些赚钱的事情。”他将其与烟草行业进行了对比。“那个行业花了几十年才说,‘你知道吗?我们在造成伤害。’”
布里松总结道:“我真的相信,变化不一定要由公司自己来推动。我对他们的自我监管能力没有信心。”
至少在美国,显然正在减轻监管力度,来自这个生产大量基础性人工智能的国家的监管放松可能还需要很长时间。在此期间,如果你认识某个似乎对人工智能过于沉迷的人,建议你尽早多和他们聊聊。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.