来源:环球网
【环球网科技综合报道】2月25日消息,据《时代》杂志最新报道,曾以“安全优先”为核心理念的美国人工智能(AI)创业公司Anthropic,正悄然调整其标志性的风险缓解政策,引发业界对AI安全治理的广泛关注。这家由OpenAI前核心成员创立的公司,此前因坚持“不确保安全绝不训练AI系统”的承诺而备受赞誉,如今却选择放弃这一原则,引发对其责任立场的质疑。
![]()
Anthropic自2023年起推行“负责任规模化政策”(RSP),其中核心条款为:在无法充分证明风险缓解措施到位前,绝不训练或发布任何AI模型。这一立场被视为对行业“速度至上”风气的反击,公司高层曾多次公开强调,AI技术若缺乏严格安全管控,可能对人类社会构成灾难性风险。
然而,据《时代》获取信息显示,Anthropic近期对RSP政策进行“彻底改革”,取消了上述关键承诺。随着OpenAI、谷歌等巨头加速推进AI大模型研发,Anthropic面临被边缘化的风险。该公司首席科学官贾里德·卡普兰(Jared Kaplan)在采访中直言:“停止训练AI模型对任何人都没有好处。在技术快速迭代的背景下,若竞争对手领先,我们单方面遵守承诺并不明智。”(青山)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.