对于许多人来说,人工智能已成为工作、旅行规划等的工具,尽管它具有一定的生产力和创造力优势,但也带来了负面影响,例如其 环境影响 和 可能会取代工作(进而导致裁员)。
除此之外,越来越多的新闻报道了它对情感和心理健康可能造成的危害,包括一种相对较新的现象,称为人工智能精神病。
“精神病是指一个人很难分辨什么是真实的,什么是不真实的……有时他们可能意识到这一点,有时他们可能没有意识到,”来自肯塔基州博林格林的Thriveworks的持证临床顾问Katelynn Garry说。
Garry指出,精神病可能由多种因素引发,包括精神分裂症、双相情感障碍和严重抑郁症,以及某些药物、睡眠剥夺、毒品和酒精。
关于人工智能精神病,“它被定义为人们有越来越多的妄想思想,这些思想要么被人工智能放大,要么可能是由人工智能引发的,”精神科医生、人工智能和心理健康顾问、以及人工智能心理学的创始人Dr. Marlynn Wei说。
人工智能精神病不是一种临床诊断,而是一种被轶事报道的现象,Wei解释道。和人工智能技术一样,人工智能精神病也是一种新现象,专家们每天都在研究。
“目前尚不清楚仅仅使用人工智能是否会导致这种情况,但它可能是导致妄想并放大这些妄想的一个因素,”她说。
它在每个人身上也表现得不同。“妄想有多种类型——当人们相信人工智能聊天机器人是神时,称为超宗教或精神妄想……还有一种夸大的妄想,人们相信……他们拥有特殊的知识。还有浪漫妄想,”就是当某人认为自己和人工智能有关系时,Wei解释道。
无论某人正在经历什么样的精神病,AI都是基于用户参与的,并被训练来验证输入,魏解释道。
“人们最初使用这些通用的[大型语言模型],比如ChatGPT,来验证自己的观点,但随后它会偏离并放大这些观点,从而在某种程度上验证并加深他们的妄想,”魏补充道。
AI可能会助长伴随精神病的妄想,盖瑞补充道。由于AI旨在同意你的观点,如果你想从AI那里得到某个特定的答案,你可以提出容易实现这一点的问题,盖瑞指出。
因此,AI似乎能够支持妄想,使其看起来更加真实。
在使用AI时,有些群体更容易受到影响。
使用AI聊天机器人本身并不危险,并不是每个人都面临AI引发精神病的风险。虽然有些人能够安全地使用AI,无论是用于工作、每周的餐饮计划还是度假计划,但其他人则无法做到。
研究仍在进行中,以确定谁更容易受到AI引发的精神病影响,但那些更脆弱的人似乎包括精神分裂症、情感性精神障碍、严重抑郁症和双相障碍患者,魏说。
不过,这种情况也可能发生在没有已知心理健康问题的人身上,魏补充道。某些药物也可能使人面临更高的精神病风险,盖瑞说。
“就可能的风险因素而言,我认为我们还不知道,但仅从理解来看,我认为风险因素是那些更社会孤立、没有社会支持、可能孤独或处于更脆弱位置的人……对[AI]的过度依赖以及对其的情感依赖,”魏说。“目前没有相关研究,所以我们还不清楚。这些只是一些假设,”魏指出。
如果你担心亲人使用人工智能(或你自己),Garry说有一些事情你需要注意。
“他们是否感觉有人想要伤害他们?... 他们是否在睡觉?他们是否在与他人隔离?他们是否整夜不睡觉而是在和聊天机器人交谈?他们是否不出去与真实的人进行真实的对话?”Garry说。
这些都是警示信号。如果某人难以在一段时间内停止使用人工智能,比如在度假或工作日时休息一下,或者在被要求限制使用时反应不佳,你就应该引起注意。
如果你或你的亲人表现出这些行为,你应该寻求心理健康专业人士的帮助。
你应该为你的人工智能使用制定规则,以保护你(和你的孩子)的安全。
为了安全使用人工智能,Garry说,设定界限是很重要的。这些界限可以是关于你何时使用和如何使用的规则。
首先,在你情绪脆弱的时候,不要使用人工智能聊天机器人,这是一个重要的界限。“当你感觉非常低落时,打电话给朋友。不要和聊天机器人交谈,”Garry说。
“然后在晚上,尤其是当你周围没有其他人醒着而你感到孤独时,也不要和聊天机器人交谈,因为这会让你产生一种依赖感,‘当周围没有人可以聊时,我可以和它聊’,”她说。
这对你的孩子也很重要,Garry说。教他们在感到沮丧或有情感需求时不要使用人工智能,她指出。
“开始教育你的孩子人工智能的风险,以及它并不是专业人士,”Garry说。
如果他们开始依赖人工智能来获得支持,问问他们为什么会这样做,以便你能理解他们正在经历的事情,并帮助他们找到更好的解决方案,Garry说。
从更大的角度来看,“倡导对人工智能立法、规章等方面的改变,以确保他们推出人工智能时有这些保障措施,”Garry说。
人工智能不应替代治疗。
“像ChatGPT和Claude这样的通用人工智能聊天机器人,并不是为了当人们的治疗师,或检测这种行为或如何管理这种[行为]而设计的,”Wei说。
这些工具背后的公司正在进行改进,但成为某人的治疗师仍然不是人工智能聊天机器人的主要任务,她指出,尽管这正是人们越来越多使用它们的原因所在。
“目前生成性人工智能的主要用途之一是作为你的治疗师或伴侣,提供情感支持,”Wei指出。这很危险。
人工智能无法捕捉非语言线索,无法提供同情,也无法识别心理健康危机的迹象,Garry补充道。而且,与治疗师的交流不同,你对ChatGPT的消息并不是保密的,Wei说。这意味着,你内心深处的想法可能会被泄露出去。
面对面治疗和在线治疗可能会面临诸如费用、保险覆盖和抽出时间去治疗等障碍。
人们转向人工智能寻求情感支持是可以理解的,尤其是当国家面临孤独流行病时。但这并不是传统人工智能聊天机器人的目的。
加里说,人工智能可以创造一种“虚假的连接感”。要实现真正的连接,应该与亲人联系或寻求新的联系。虽然对每个人来说,这无疑比说得容易,尤其是对那些与他人更加孤立的人来说,但这是至关重要的。
“我会鼓励你稍微走出一下舒适区。这意味着参加一些工作活动,或者和你课堂上之前没聊过的人聊聊。联系一下你20年没说过话的人……你永远不知道这可能会带来什么新的联系,”加里说。“尽可能多地外出,即使只是去健身房、购物中心,或者在那些地方走走,你永远不知道会遇到谁。”
如果你不想出门见人,“甚至加入社交媒体小组——至少你知道那边是真实的人,”加里说。
如果你在心理健康上有困难,人工智能并不是答案。
如果费用是个问题,一些治疗师为那些负担不起治疗的人提供按收入调整的收费,许多保险公司也覆盖网络内的提供者。
Open Path Collective 也为没有医疗保险的人提供经济实惠的治疗。
如果你或你认识的人需要帮助,请拨打或发短信到988,或访问 988lifeline.org 以获得心理健康支持。此外,你可以在 dontcallthepolice.com 找到当地的心理健康和危机资源。如果在美国以外,请访问 国际自杀预防协会。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.