本周,特朗普政府态度急转,与Google DeepMind、微软和xAI签署协议,要求这些企业在发布前沿AI模型前后接受政府安全检查。
此前,特朗普曾固执地抛弃拜登时期的政策,将自愿性安全检查视为阻碍创新的过度监管。上任后不久,他将美国AI安全研究所更名为"AI标准与创新中心"(CAISI),刻意去掉"安全"二字,公开嘲讽拜登。
![]()
但Anthropic宣布暂缓发布其最新Claude Mythos模型——担心恶意行为者利用其高级网络安全能力——后,特朗普突然开始关心AI安全了。据《财富》杂志报道,白宫国家经济委员会主任Kevin Hassett透露,特朗普可能很快签署行政令,强制要求政府在高级AI系统发布前进行测试。
![]()
CAISI在新闻稿中承认,谷歌、微软和xAI签署的自愿协议"建立在"拜登政策基础之上。中心主任Chris Fall庆祝新合作时未提及Mythos,但承诺"扩大的行业合作"将帮助CAISI在"关键时刻"以公共利益为导向扩大工作规模。
"独立、严谨的测量科学对于理解前沿AI及其国家安全影响至关重要,"Fall表示。
![]()
CAISI称目前已完成约40项评估,包括尚未发布的前沿模型。测试时,CAISI经常获得"减少或移除安全限制"的模型访问权限,称这使其能更"彻底评估国家安全相关能力与风险"。政府还将通过评估更好理解模型能力。为确保评估人员及时掌握政府各部门出现的顶级国家安全关切,一个"跨机构专家组"已成立专门工作组,聚焦AI国家安全问题。
部分签约企业对CAISI测试计划表示信心。Google DeepMind前沿AI全球事务副总裁Tom Lue在LinkedIn上称对CAISI测试计划感到"满意"。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.