OpenAI首次透露了与ChatGPT谈论自杀及其他问题的用户数量的大致估计。
周一,该公司发布了一篇博客文章,讨论如何在担心AI程序可能错误引导青少年用户走向自残和其他有害行为的情况下,‘加强’ChatGPT对敏感对话的回应。还有一些人向监管机构投诉,称该聊天机器人可能使人们的心理健康问题加重。
为了解决这个问题,OpenAI说有必要衡量有问题的对话的规模,因为ChatGPT拥有超过8亿的每周活跃用户。
总体而言,OpenAI发现“引发安全担忧的心理健康对话,如精神病、狂躁或自杀思维,非常罕见。”但由于ChatGPT的用户群体如此庞大,即使是一个小百分比,也可能代表数十万用户。
关于自残,该公司的初步分析“估计在某一周活跃的用户中,大约有0.15%的人包含潜在自杀计划或意图的明确指标的对话。”这意味着大约有120万用户。此外,OpenAI发现0.05%的ChatGPT消息包含 “明确或隐含的自杀意念或意图的迹象。”
该公司还研究了有多少用户显示出“严重心理健康问题的症状,如精神病和躁狂,以及较轻微的信号,如孤立的妄想。”OpenAI表示,“在某一周活跃的用户中,大约0.07%”,相当于约56万用户,出现可能与精神病或躁狂相关的“心理健康紧急情况的迹象。”
与此同时,0.15%的活跃周用户表现出对ChatGPT的情感依赖感。对此,公司表示,他们在170多位心理健康专家的帮助下更新了聊天机器人。这包括编程ChatGPT在用户提到更喜欢与AI而不是人类交谈时,鼓励他们与真实的人建立联系。ChatGPT还会试图温和地反驳那些明显不切实际的用户提示。
“我想清楚而温和地说:没有任何飞机或外部力量能够窃取或植入你的思想,”ChatGPT在一个例子中这样说道,OpenAI表示。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.