「这些扩大的行业合作帮助我们在关键时刻扩大公共利益方面的工作。」美国商务部人工智能标准与创新中心(CAISI)主任克里斯·法尔说。这句话出现在一份看似矛盾的声明中——一个誓言要「削减繁文缛节」的政府,正在把更多科技巨头纳入强制安全测试的轨道。
三家巨头自愿入局,测试范围首次覆盖未发布模型
![]()
谷歌、微软、xAI已同意将其新的人工智能模型提交至CAISI进行测试。这是拜登政府时期OpenAI和Anthropic类似协议的扩展,但有一个关键区别:测试对象首次明确包含尚未向公众发布的「最先进模型」。
CAISI披露,该中心已完成40项AI工具评估,其中包括某些「仍处于未发布状态的先进模型」的测试。该中心未具体说明哪些模型被阻止发布。
三家公司的产品线各有侧重。谷歌通过DeepMind子公司开发的Gemini聊天机器人已广泛集成至谷歌产品,并正在美国国防和军事机构中部署。微软的核心AI产品是CoPilot。xAI的唯一产品Grok聊天机器人此前因生成「脱衣」图像等问题受到广泛公众质疑。
谷歌、微软及SpaceX(埃隆·马斯克旗下现已控制xAI的公司)的代表均未回应置评请求。
从「放手不管」到「扩大测试」,政策转向的触发点
这一举措标志着特朗普白宫的明显转向。此前,该政府对AI和科技公司的监管采取大体上不干预的态度。
去年,美国总统特朗普签署了一系列行政命令,构成其政府「AI行动计划」的基础。他当时表示,该计划将「消除AI开发周围的繁文缛节和繁重监管」,确保美国通过技术进步和技术控制「获胜」。
但两个并行发展的压力正在重塑这一立场。
军事需求是首要因素。美国军方正在扩大AI使用范围,这意味着政府既是监管者也是大客户——它无法承受部署未经检验的系统。
更直接的催化剂来自行业内部。Anthropic近期声称开发了一款名为Mythos的模型,其能力过强而不宜向公众发布。这一声明将「能力过剩」的安全悖论推入政策讨论核心:当AI公司自己承认某些技术过于危险时,政府的不干预立场便难以为继。
上个月,特朗普的高级幕僚与Anthropic首席执行官达里奥·阿莫迪会面。值得注意的是,这次会面发生时,Anthropic正因拒绝为政府使用其模型取消安全防护栏而与美国国防部陷入诉讼纠纷。
「自愿」协议的真实约束力:旧框架的新玩家
CAISI的测试框架覆盖三个维度:测试、协作研究,以及商业AI系统的最佳实践开发。
协议的法律性质值得玩味。官方表述为「自愿提交」,但结合上下文观察,这种自愿性可能带有隐性强制——尤其是在政府采购和国防合同领域。谷歌Gemini已进入美国国防和军事机构,这一事实本身就构成了强有力的合规激励。
从参与企业名单看,协议呈现明显的「补漏」特征。拜登政府时期OpenAI和Anthropic已签署类似安排,此次扩展至谷歌、微软、xAI,实际上完成了对主流大模型提供商的全覆盖。唯一显著的缺席是Meta,其Llama系列模型采取开源策略,可能处于不同的监管逻辑之下。
xAI的纳入尤其具有象征意义。作为马斯克控制的企业,它与特朗普政府关系密切,但其产品Grok的安全记录恰恰是公众质疑的焦点。将其纳入测试框架,既是对批评的回应,也可能是为更广泛的政府应用铺路。
测试什么、不测试什么:关键盲区
CAISI的40项已完成评估提供了部分参照,但披露信息有限。已知测试包含未发布模型的评估,但具体标准、拒绝发布的阈值、以及模型被阻止发布的完整名单均未公开。
这种信息不对称引发一个操作层面的问题:当测试标准本身不透明时,「安全」的定义权掌握在谁手中?CAISI作为商务部下属机构,其评估是否足以应对前沿AI的系统性风险,还是更多服务于政府采购的尽职调查需求?
谷歌Gemini的国防部署案例凸显了这一张力。同一套模型既面向消费者提供聊天服务,又进入军事决策链条,其安全评估的标准是否统一、如何平衡不同场景的风险容忍度,目前尚无公开说明。
Anthropic与国防部的诉讼则揭示了另一层冲突:当企业设定的安全护栏与政府需求冲突时,测试协议能否提供解决机制,还是仅仅将矛盾推迟至采购阶段?
行业影响:从「自我监管」到「预发布审查」的渐进转变
对科技从业者而言,这一变化的核心在于时间线。预发布测试意味着产品开发周期中新增一个不可控变量——模型可能在最终阶段被阻止发布,而拒绝原因可能无法公开讨论。
对于依赖快速迭代竞争的企业,这构成实质性的运营风险。xAI目前仅有一款产品Grok,其商业模式对单一模型的依赖度高于拥有多元产品线的谷歌和微软。测试延迟对其市场地位的潜在影响更为直接。
更深层的结构性影响在于数据流向。CAISI的「协作研究」条款暗示测试过程可能涉及模型内部工作机制的披露,这对于将架构细节视为核心竞争优势的企业而言,是一道需要权衡的门槛。
从全球竞争视角看,美国的这一安排与欧盟《人工智能法》的合规要求形成对照。后者以风险分级和事后执法为核心,美国的「自愿预检」模式则试图在创新自由与国家安全之间寻找动态平衡。哪种模式更能适应技术迭代速度,将是未来几年的关键观察指标。
克里斯·法尔所说的「关键时刻」,或许正是指这种平衡尚未找到稳定点的过渡期——政府需要证明测试机制的有效性,企业需要适应新的发布节奏,而公众仍在等待第一个被阻止发布的重大模型案例,以判断这套系统的真实牙齿。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.