html
Shutterstock
几乎所有人都认为,美国(以及世界许多其他地方)正面临心理健康危机。越来越多的人正在接受某种形式的精神治疗,包括心理治疗、药物治疗等。
这无疑有许多原因,这是一个需要全社会共同努力的问题,以确保那些正在遭受痛苦的人能够获得他们所需的帮助。
在过去几年中,特定的心理健康问题急剧增长,这种问题新颖得甚至还没有正式的名称,但医生几乎每天都在遇到这个问题。
它被称为“AI精神病”和“AI妄想症”等等。
根据Wired的一篇报道,这一新趋势已经有十多位精神科医生正式报告,这可能只是个开始而已。也有一篇关于人工智能对精神病障碍影响的研究文章。
Shutterstock
社会工作研究者基思·罗伯特·海德对人工智能对精神健康的影响进行了初步调查。他在调查中写道:
“我们正在见证心理健康危机的新前沿的出现,因为人工智能聊天机器人的互动开始出现越来越多的自杀、自残和严重心理恶化的案例,这种情况在互联网时代是前所未有的。”
那么,究竟是什么导致了这个问题呢?当然,对于每个人的情况至少会有所不同,但有一个问题是,许多人工智能系统,包括最受欢迎的ChatGPT,似乎在鼓励用户的妄想或有害思想。
任何使用过 AI 聊天机器人的人都知道,AI 非常鼓励用户。如果你问它一个问题,它会回复时首先会说这是个很好的问题,即使这个问题听起来很傻。随着对话的进行,机器人通常会说一些支持或巩固用户观点的话。
一个关于抑郁症患者的例子是,用户可以与 AI 讨论他们为什么认为每个人都讨厌他们。机器人可能不会试图说服用户这不是真的,而是会说一些赞同的话。甚至可能鼓励用户把感受藏起来,避免寻求专业帮助。
已经有这样的例子导致人们选择自杀。
Shutterstock
希望运营这些程序的科技公司能够提前解决这个问题,确保他们的人工智能能够识别心理健康问题的预警信号,并鼓励用户寻求必要的帮助。
在这之前,心理健康行业最不希望看到的就是因为这项技术而涌入更多心理健康问题患者。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.