当你的同事公开拒绝了一笔生意,你会跟进抢单,还是保持沉默?谷歌选了前者。
美国国防部想要无限制使用人工智能,Anthropic(人类学公司)拒绝了。现在谷歌接下了这单生意,950名员工正在内部抗议。
![]()
「供应风险」标签与一场官司
事情要从Anthropic的硬刚说起。
五角大楼向这家AI公司提出条件:开放全部权限,用于机密网络。Anthropic的回应是设置护栏——禁止用于国内大规模监控,禁止用于自主武器。
国防部没接受。他们将Anthropic标记为「供应风险」,这个标签通常留给外国对手。双方现在对簿公堂,上个月法官批准了一项临时禁令,在案件审理期间暂停该认定。
这是硅谷与华盛顿之间罕见的公开决裂。
谷歌、OpenAI、xAI的跟进逻辑
Anthropic的「损失」成了竞争对手的机会。
OpenAI迅速签约。xAI紧随其后。现在谷歌成为第三家。
据《华尔街日报》报道,谷歌的协议中包含一些措辞,称「不打算」将AI用于国内大规模监控或自主武器——与OpenAI的合同语言类似。但这些条款是否具有法律约束力或执行力,目前尚不清楚。
三家公司选择了相似的路径:保留书面姿态,同时开放实际权限。
950人联名信的内部张力
谷歌员工并非沉默。
一封内部公开信已获得950人签名,要求公司效仿Anthropic,不向国防部出售缺乏护栏的AI。谷歌未回应置评请求。
这个数字值得注意。它不构成多数,但足以在内部形成可见的压力。在科技行业,员工 activism 曾推动过政策改变——2018年谷歌退出Maven项目(军事无人机图像识别)就是先例。
但这一次,管理层选择了不同的方向。
合同措辞的模糊地带
「不打算」与「禁止」之间,差距有多大?
法律约束力存疑,这是《华尔街日报》报道中明确指出的。合同语言可以是一种姿态,也可以是一种漏洞。在机密网络环境中,外部监督本就困难,执行机制更成问题。
Anthropic的坚持在于前置约束:先画红线,再谈合作。谷歌、OpenAI、xAI的模式是:先签约,再声明「不打算」越线。
两种策略,两种风险计算。
行业格局的隐性转向
这件事的真正影响在于示范效应。
当一家AI公司因拒绝军方条件而被标记为「供应风险」,其他厂商会重新评估自己的谈判筹码。Anthropic选择了原则优先,代价是诉讼和标签;竞争对手选择了市场准入,代价是内部异议和声誉风险。
更深层的问题是:AI公司的「护栏」承诺,在国防合同中到底有多重?当商业利益与伦理声明冲突时,哪一方会妥协?
谷歌的950名员工正在等待答案。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.