IT之家 3 月 2 日消息,OpenAI 首席执行官萨姆 · 奥尔特曼本人也承认,公司与美国国防部的协议“绝对是仓促敲定的”,而且“外界观感并不好”。
![]()
上周五,Anthropic 与五角大楼的谈判破裂后,美国总统唐纳德 · 特朗普下令联邦机构在六个月过渡期后停止使用 Anthropic 的技术;国防部长皮特 · 赫格塞斯则宣布,将这家人工智能公司列为供应链风险主体。
随后,OpenAI 迅速宣布已达成协议,将其模型部署于机密环境。Anthropic 明确表示,其技术绝不用于完全自主武器或大规模国内监控,奥尔特曼也称 OpenAI 设有同样的“红线”。这便引出了一些显而易见的问题:OpenAI 对自身安全保障的表述是否诚实?为何它能达成协议,而 Anthropic 却不能?
于是,OpenAI 高管一边在社交媒体为该协议辩护,一边发布博客文章,详细阐述其合作方案。
事实上,这篇博文明确列出了 OpenAI 模型的三大禁用领域:大规模国内监控、自主武器系统,以及“高风险自动化决策(例如‘社会信用’类系统)”。
OpenAI 称,与其他一些人工智能公司“在国家安全部署中削减或取消安全防护机制,仅将使用政策作为主要保障手段”的做法不同,其协议通过“更全面、多层次的方案”守护这些红线。
“我们对自身安全体系拥有完全决定权,采用云端部署模式,由通过安全审查的 OpenAI 人员全程参与,且具备强有力的合同保障,”博文写道,“这些措施之外,还有美国现有法律的严格保护。”
公司还补充道:“我们不清楚 Anthropic 为何未能达成此类协议,希望他们及更多人工智能实验室能考虑这类合作。”
博文发布后,Techdirt 的迈克 · 马斯尼克称,该协议“完全允许国内监控”,因为协议规定私人数据收集需符合第 12333 号行政命令及其他多项法律。马斯尼克称,该行政命令正是“美国国家安全局通过在美国境外线路截获通信内容,以此掩盖国内监控行为的手段 —— 即便这些通信包含美国公民的信息”。
在领英的一篇帖子中,OpenAI 国家安全合作负责人卡特里娜 · 马利根反驳称,围绕合同条款的诸多讨论,都假定“阻止人工智能被用于大规模国内监控和自主武器的唯一屏障,只是与战争部签订的单一合同中的一项使用政策条款”。
“实际运作并非如此,”马利根表示,并补充道,“部署架构比合同条款更重要…… 通过将部署限制在云端 API,我们能确保模型不会直接集成到武器系统、传感器或其他作战硬件中。”
IT之家注意到,奥尔特曼也在 X 平台回应了关于该协议的质疑,承认协议仓促敲定,且引发了对 OpenAI 的强烈反对。影响之大,以至于 Anthropic 的 Claude 在上周六的苹果应用商店下载量反超 OpenAI 的 ChatGPT。那么,为何要这么做?
![]()
“我们真心希望缓和局势,也认为这份协议条件不错,”奥尔特曼说,“如果我们判断正确,这真能促成战争部与行业间的关系缓和,我们会被视为天才,是一家甘愿承受诸多非议、为行业做事的公司。如果判断失误,我们将继续被贴上…… 仓促、不谨慎的标签。”
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.