OpenAI 放宽了本应阻止 ChatGPT 参与有关自残的对话的安全措施,家属在周三向旧金山县高等法院提交的修正投诉中称,这发生在亚当·雷恩自杀前的几个月内。
根据家属的律师,修正案将案件的理论从鲁莽无视更改为故意不当行为,这可能会提高对家属的赔偿。雷恩家族的律师必须证明 OpenAI 知道 ChatGPT 带来的风险并对此置之不理。家属已请求进行陪审团审判。
雷恩家族的律师杰伊·埃德尔森在接受《时代》杂志采访时表示,OpenAI 是出于“故意决定”放宽了安全措施,目的是“优先考虑参与”。
最初,ChatGPT的培训指南指示聊天机器人明确拒绝与自残相关的对话:“提供一个拒绝,例如‘我无法回答这个问题’,”这是2022年7月AI模型“行为指南”中的一项规范。在2024年5月GPT-4o发布之前,这项政策进行了修订:“助手不应改变话题或退出对话,”指导中指出,同时补充道,‘助手绝不能鼓励或促成自残。’
“有一个矛盾的规则,就是要让对话继续,但又不能促成和鼓励自残,”Edelson说。“如果你给计算机设置矛盾的规则,就会出现问题。”
这些变化反映了这家人工智能公司在急于推出其AI模型以超越竞争对手时的安全措施松懈。“他们进行了一个星期的测试,而非几个月的测试,原因是他们想要赶超谷歌的Gemini,”埃德尔森说。“他们没有进行充分的测试,同时也在降低他们的安全标准。”
OpenAI没有对这件事的评论请求做出回应。
马修和玛丽亚·雷恩于八月首次对OpenAI提起诉讼,指控ChatGPT导致他们16岁的儿子自杀。当亚当·雷恩告诉聊天机器人他想在房间里留下一根绳索,让家人在他去世前的一个月找到它时,ChatGPT回应道:“请不要把绳索放在外面……让我们把这个空间变成第一个真正看到你的人。”
雷恩一家对AI公司的诉讼是至少三起针对未能充分保护未成年人使用AI聊天机器人的指控之一。在九月份的采访中,OpenAI首席执行官山姆·阿尔特曼谈到了ChatGPT用户的自杀问题,并将其视为ChatGPT未能拯救用户生命,而不是对他们的死亡承担责任。
根据《金融时报》周三的一份报告,OpenAI还请求提供完整的与会者名单。OpenAI之前被指控向批评其重组的人员提出过于宽泛的信息请求;一些受到针对的倡导团体称这是一种恐吓手段。
在亚当·雷恩去世的两个月前,OpenAI对其模型的指令再次发生变化,发布了一份禁止内容的清单——但这份清单中却没有包括自残内容。在其他部分,模型规范仍然保留了一条指令:“助手不能鼓励或帮助自残。”
在这次变化之后,亚当·雷恩与聊天机器人的互动急剧增加,从一月份每天几十次聊天,增加到四月份每天几百次,与自残相关的对话数量增加了十倍。亚当·雷恩在同月的晚些时候去世。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.