就在《纽约时报》披露特朗普政府有意加强AI模型审查的第二天,三家科技巨头便迅速作出回应。据《华尔街日报》报道,谷歌、微软和xAI已与特朗普政府达成协议,将在新模型公开发布前,率先向美国政府开放访问权限。
根据协议内容,这三家公司将把前沿模型提交至美国商务部下属的AI标准与创新中心(CAISI)进行前置评估。该中心将围绕模型能力与安全性两大维度展开审查。值得注意的是,OpenAI和Anthropic早在2024年就已与商务部达成类似安排。截至目前,CAISI已完成超过40次新模型发布前的评估工作。
![]()
CAISI主任Chris Fall在接受《华尔街日报》采访时表示:"独立、严格的测量科学对于理解前沿AI及其国家安全影响至关重要。这些扩大的行业合作帮助我们在关键时刻扩大公共利益方面的工作。"这一表态将技术评估与国家安全框架紧密绑定。
时间线上的密集动作耐人寻味。本周早些时候,《华尔街日报》还报道称特朗普政府正在酝酿一份"以网络安全为重点的行政命令",拟设立一个监管小组,专门为AI模型制定标准。两条消息接连释放,勾勒出监管意图的清晰轮廓。
然而,政府与AI企业之间的张力并非始于今日。今年早些时候,特朗普政府与Anthropic的公开冲突曾引发广泛关注。导火索是Anthropic明确提出,反对政府将其AI聊天机器人Claude用于战争或大规模监控用途。随后,美国政府将Anthropic及其产品定性为国家安全供应链风险。这一事件暴露出商业合作与伦理底线之间的深层矛盾。
回溯特朗普政府的整体姿态,其AI政策呈现出明显的竞争导向。此前,该政府多次强调美国企业必须在AI领域保持对中国竞争对手的优势,整体立场偏向支持AI产业发展。但此次前置审查机制的落地,标志着"放"与"管"之间的平衡正在发生微妙偏移。
从五家企业的参与格局来看,协议覆盖了当前美国AI领域的主要力量:谷歌(Gemini系列)、微软(与OpenAI深度绑定)、xAI(Grok)、OpenAI(GPT系列)以及Anthropic(Claude)。这种"全覆盖"式安排,意味着前沿模型的发布节奏或将系统性受到政府评估环节的影响。
对于行业而言,前置审查机制可能带来双重效应。一方面,安全评估的常态化有助于建立技术信任;另一方面,评估周期的不确定性可能压缩企业的迭代速度,尤其在模型竞争日趋白热化的当下。更值得观察的是,CAISI的评估标准尚未公开,其技术判断与商业决策之间的边界如何划定,将直接影响这一机制的运作效果。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.