据 OpenAI 的一则博客文章所述,OpenAI 正在将其安全与保障委员会转变为一个独立的“董事会监督委员会”,该委员会有权因安全问题推迟模型发布。该委员会在近期对 OpenAI 的“安全和保障相关流程及保障措施”进行为期 90 天的审查后,提出了成立独立董事会的建议。
OpenAI 称,该委员会由齐科·科尔特(Zico Kolter)担任主席,成员包括亚当·丹杰洛(Adam D’Angelo)、保罗·中曾根(Paul Nakasone)和妮可·塞利格曼(Nicole Seligman),“公司领导将就主要模型发布的安全评估向该委员会进行汇报,并且该委员会将与整个董事会一同对模型发布予以监督,包括有权在安全问题解决之前推迟发布。”OpenAI 的整个董事会也将收到关于“安全和保障事项”的“定期简报”。
OpenAI 安全委员会的成员也是该公司更广泛的董事会成员,所以不清楚该委员会实际上究竟有多独立,或者这种独立性是怎样构建而成的。我们已向 OpenAI 征求意见。
通过设立一个独立的安全委员会,看起来 OpenAI 正在采取一种与 Meta 的监督委员会有点相似的方法,该委员会审查 Meta 的一些内容政策决策,并可以做出 Meta 必须遵循的裁决。监督委员会的成员没有一个在Meta 的董事会里。
OpenAI 安全与保障委员会的审查还促成了“为行业合作和信息共享创造更多机会,以推动人工智能行业的安全发展。” 该公司还称,其将寻求“更多分享和阐释我们安全工作的途径”以及“更多对我们系统进行独立测试的契机”。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.