一家科技公司的AI模型要不要进入五角大楼的机密系统?这个问题在谷歌内部撕裂成两派。600多名员工联名上书CEO桑达尔·皮查伊,要求彻底拒绝任何涉密军事用途——而他们的对手,是已经签下同类合同的微软和OpenAI。
员工的底线:拒绝任何"黑箱操作"
![]()
《华盛顿邮报》披露了这封联名信的核心诉求:谷歌必须拒绝五角大楼的所有机密工作负载。信中的理由很直接——"保证谷歌不与此类伤害相关联的唯一方式,就是拒绝任何机密任务。否则这些用途可能在我们不知情、也无法阻止的情况下发生。"
签名者据称超过600人,其中不少来自谷歌旗下的DeepMind人工智能实验室,还包括20多名首席科学家、总监和副总裁级别的高管。这不是基层员工的零星抗议,而是核心研发力量的集体表态。
他们的担忧指向一个具体场景:The Information此前报道称,谷歌正与五角大楼洽谈,计划将其双子座(Gemini)人工智能模型部署到机密环境中。这意味着什么?模型将被用于员工无法知晓、无法审计、无法干预的任务。
信件的措辞透露出深层焦虑。员工们并非反对所有军事合作,而是反对"黑箱"——一旦进入机密领域,AI的实际用途、训练数据的后续流向、模型输出的决策后果,都将脱离开发者的视线。
行业现实:竞争对手早已进场
谷歌员工的抗议信特意提到了一个参照系:Anthropic。
这家由前OpenAI研究员创立的人工智能公司,正因拒绝放宽对美国军方的使用限制,与五角大楼陷入法律纠纷。五角大楼将Anthropic列为"供应链风险",而Anthropic获得了整个科技行业的声援——包括谷歌员工的支持。
但另一边,竞争对手的步伐没有停下。
微软已经与五角大楼达成在机密环境中提供人工智能服务的协议。OpenAI则在2月宣布与五角大楼重新谈判合作协议。谷歌如果拒绝,意味着在一场价值数十亿美元的军备竞赛中主动退出。
这对皮查伊的决策构成双重压力:对外,失去一个高价值客户;对内,与已经"变现"的同行形成对比。更微妙的是,谷歌本身并非军事AI的新手——2018年的"Maven项目"风波中,数千名员工抗议公司向美国国防部提供图像识别技术,最终迫使谷歌承诺不开发用于武器的AI。
那次的承诺是"不追求设计或部署用于造成人身伤害的技术"。但"机密工作负载"的模糊性在于:它可能是后勤优化、情报分析,也可能是目标识别、作战辅助。边界在哪里?
辩论的核心:透明 vs. 安全
这场争论的本质,是两种安全观的冲突。
正方(员工立场):透明即安全
联名信的核心逻辑是知情权与控制权。开发者必须知道AI被用于什么场景,才能承担相应的伦理责任。一旦进入机密系统,这条链条断裂,"不造成伤害"的承诺沦为空话。
这种立场将人工智能公司视为有道德主体性的机构,而非纯粹的技术供应商。就像制药公司不能声称"不知道医生怎么开处方"来规避副作用责任,AI开发者也不能以"机密"为由放弃对下游应用的追踪。
DeepMind员工的参与尤其关键。这个以"解决智能,然后用它解决一切"为使命的实验室,历史上多次强调AI安全研究的重要性。他们的签名意味着:在最前沿的AI研究者看来,当前的安全评估框架不足以应对机密军事部署的风险。
反方(商业现实):拒绝即出局
另一派观点——虽然未在原文中直接表述,但从行业动态可推断——认为拒绝机密合作是自我边缘化。
五角大楼的AI预算正在膨胀。根据公开信息,美国国防部2024财年的人工智能相关支出超过18亿美元,且持续向大语言模型、多模态系统倾斜。微软和OpenAI已经建立先发优势,谷歌的缺席意味着训练数据、应用场景、技术迭代的全面落后。
更现实的考量是:即使谷歌拒绝,需求不会消失。五角大楼会转向其他供应商,甚至加速自主开发。届时谷歌失去的不仅是订单,还有塑造行业标准的话语权。"在谈判桌上"比"在谈判桌外"更能影响实际的安全边界——这是典型的技术现实主义论点。
Anthropic 变量:规则能否被重写?
这场辩论中,Anthropic的遭遇提供了一个关键测试案例。
该公司因坚持安全护栏而被五角大楼"拉黑",但获得了跨公司的员工声援。这说明科技行业的内部存在某种"职业共同体"意识:当一家公司因伦理立场遭受报复时,同行愿意承担连带风险表达支持。
但这种团结能持续多久?如果Anthropic最终在法律或商业压力下妥协,或者因 exclusion 而丧失竞争力,谷歌员工的抗议将失去外部支点。反之,如果Anthropic能证明"硬拒绝"不会导致商业死亡,它将为整个行业树立先例。
谷歌的决策因此具有信号意义。作为拥有最深技术储备和最强政府关系的公司之一,它的选择会影响其他玩家的风险评估。
皮查伊的困境:承诺的遗产与现实的账本
2018年Maven项目抗议后,谷歌发布了一套AI原则,明确排除"造成人身伤害"和"违反国际法"的应用。但原则的解释空间巨大:情报分析算"伤害"吗?为作战决策提供信息支持算"违反国际法"吗?
联名信要求的是更硬性的规则:无论用途如何,机密环境本身即不可接受。这相当于将透明度置于用途审查之上——不是"先评估再决定",而是"无法评估就不参与"。
对皮查伊而言,接受这一要求意味着放弃与微软、OpenAI正面竞争的一块关键阵地;拒绝则意味着与核心研发团队公开对立,并可能触发又一轮人才流失。
更深层的张力在于公司治理结构。谷歌员工历史上多次成功推动政策改变——从Maven到性骚扰仲裁条款的废除——但从未在涉及如此大规模商业利益的议题上获胜。这次测试的是:当伦理诉求与战略级收入冲突时,员工 voice 的边界在哪里。
判断:这不是关于战争,是关于谁控制"关闭开关"
回到事件本身,一个被低估的细节是:员工信中没有要求谷歌彻底退出国防领域,而是 specifically 针对"机密工作负载"。
这个精确性很重要。它暗示抗议者承认非机密军事合作的合法性——比如公开合同的云计算服务、非涉密数据分析——但将"机密"视为不可妥协的红线。红线背后的,是对失控的恐惧:当AI进入无法审计的空间,开发者的责任机制随之失效。
这场争论因此超越传统的"科技公司与军方关系"框架。它指向一个更根本的问题:在大规模AI系统的部署中,谁应当保有最终的干预权?是购买方(政府),是开发方(公司),还是构建系统的具体工程师?
谷歌员工的答案是明确的:没有透明度的合作,等于放弃责任。而责任,在当前的技术发展阶段,比市场份额更不可牺牲。
至于皮查伊会怎么选——考虑到他同时收到来自白宫的邀请和来自DeepMind的联名信,也许最安全的做法是假装邮箱坏了。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.