「我们曾相信内部机制能守住边界,现在发现唯一的出路是集体谈判。」一位DeepMind研究员在投票后这样说。
2018年,4000名谷歌员工用一封请愿书逼停了五角大楼的Maven项目。八年后,同样的公司签下了更大规模的军方AI合同,而当年相信「员工能塑造企业道德边界」的研究者们,终于走上了工会化这条路。这不是一个关于背叛的简单故事,而是一场关于技术治理结构如何失效的完整复盘。
![]()
2018:Maven事件与AI伦理体系的建立
Project Maven的核心任务是用AI分析无人机监控画面——自动识别车辆、人物和建筑物。对谷歌来说,这笔合同金额不算大,但性质敏感:这是军方将机器学习直接用于战场决策的早期尝试。
4000人签名、十余名员工辞职、内部会议上的激烈对峙。谷歌最终选择不续约,并在2018年6月发布了一套AI原则。关键承诺包括:不开发武器、不开发违反国际规范的监控技术、将AI伦理审查嵌入产品开发流程。公司还组建了专门的AI伦理团队,由外部学者和内部专家共同构成。
这套机制被当时视为行业标杆。其他科技公司纷纷效仿,AI伦理成为2018-2020年科技公关的标准配置。但Maven事件的真正遗产,是确立了一种信念:技术人员的集体行动可以划定商业行为的道德红线。
这个信念在2026年被彻底击碎。
2026:机密合同与原则的全面回撤
谷歌与五角大楼的新合同签署于2026年初,具体内容处于机密状态。已知的是合同范围——「任何合法的政府目的」(any lawful governmental purpose),以及一个关键事实:公司同时退出了另一项军方项目。
这个「同时」构成了研究者眼中的核心矛盾。谷歌在签署五角大楼AI合同的同时,因内部伦理审查退出了价值1亿美元的无人机蜂群竞赛。同样的审查机制,对一笔合同亮绿灯,对另一笔亮红灯。研究人员在内部通信中将这种矛盾描述为「incoherent」(不连贯的)。
更实质性的回撤发生在原则层面。谷歌从其公开发布的AI原则中删除了「不开发武器」的承诺。这个删除不是技术性的文字调整——它意味着2018年Maven事件后建立的核心边界被正式取消。公司不再承诺拒绝武器类AI开发,只保留了对「违反国际规范」的监控技术的限制。
伦理团队的命运同步发生。2018年组建的团队领导层被解雇,内部审查流程的实际权力被削弱。曾经被视为治理创新的外部伦理委员会,在几次争议性决策后逐渐边缘化。
DeepMind工会:98%赞成票背后的治理诉求
2026年4月,谷歌DeepMind英国办公室的投票结果出炉:98%的投票者支持加入英国通信工人工会(Communication Workers Union)和联合工会(Unite the Union)。本周,员工向管理层递交正式信函,要求承认工会作为官方代表。若获承认,这将成为全球首个实现工会化的前沿AI实验室。
投票动机与常规劳资纠纷截然不同。工会提出的四项核心诉求全部指向公司治理结构:
第一,终止谷歌AI被以色列军方和美国军方使用;第二,恢复公司已被废除的不开发AI武器或监控工具的承诺;第三,建立独立的伦理监督机构;第四,赋予研究人员基于道德理由拒绝参与项目的个人权利。
这些诉求的措辞方式揭示了一个关键判断:员工不再相信自上而下的治理机制。2018年的AI原则、伦理委员会、内部审查——这些「本应存在的上层治理结构」在收入压力面前被拆解或绕过。工会化是「自下而上强加治理要求」的替代路径。
投票前的内部动员已经显示了问题的紧迫性。超过580名谷歌员工签署致CEO桑达尔·皮查伊的公开信,要求拒绝五角大楼的机密军事AI合同。签名者包括20名总监和副总裁级别的高管,以及资深DeepMind研究人员。另有超过100名DeepMind员工单独签署内部信件,明确要求禁止任何DeepMind研究或模型被用于武器开发或自主目标识别。
公司签署了合同。
技术治理的结构性困境
DeepMind工会事件暴露了一个被长期回避的问题:前沿AI实验室的决策权力究竟如何分配?
2018年的Maven事件曾给出一个乐观答案——技术人员的集体发声可以影响战略决策。但2026年的现实显示,这种影响是情境性的、可逆的。当军事AI合同的商业价值足够大,当竞争压力(来自其他科技公司的同类合同)足够强,当政治环境发生变化,2018年建立的机制可以被系统性拆解。
更深层的问题在于「伦理」与「治理」的分离。谷歌保留了AI伦理的修辞,但抽空了其实质约束。删除武器承诺、解雇伦理团队领导、以「任何合法目的」的模糊措辞扩大合同范围——这些动作不是忽视伦理,而是重新定义伦理的适用边界。
研究人员的反应表明,他们识别出了这种重新定义。工会诉求中的「独立伦理监督机构」和「个人拒绝权」,本质上是在要求将伦理判断的权力从管理层部分转移给技术人员自身。这不是要取代商业决策,而是要建立不可单方面撤销的参与门槛。
行业信号:从个体抗议到制度性谈判
DeepMind工会的独特性在于其「前沿AI实验室」身份。这与传统科技行业的工会化(如游戏行业的质量测试人员组织、亚马逊仓库工人组织)有本质区别:它涉及的是可能直接影响国家安全、国际冲突和长期技术轨迹的研发人员。
这一区别使得工会诉求超越了传统劳资关系。研究人员要求的不是更高的薪酬或更安全的工作环境,而是对技术应用的否决权参与。这种诉求在现有法律框架下如何落地,尚无先例。
但投票结果本身已经传递信号。98%的赞成率意味着这不是少数积极分子的推动,而是研究人员的普遍判断。当超过100名DeepMind员工明确要求禁止模型用于武器开发时,他们是在用职业声誉押注——这些签名者中的许多人是领域内公认的顶尖专家,他们的公开立场会影响未来的学术合作和职业选择。
谷歌的回应方式将成为行业参照。如果公司拒绝承认工会,可能触发英国法律框架下的强制仲裁程序;如果承认,则需要就军事AI使用等议题进行实质性谈判。无论结果如何,其他前沿AI实验室(OpenAI、Anthropic、Meta AI等)的研究人员都在观察。
实用指向:技术人员的治理工具箱
DeepMind工会化不是终点,而是一个测试案例。对于关注技术治理的从业者,这件事提供了三个可操作的观察维度:
第一,内部机制的失效阈值。2018-2026年的轨迹显示,企业AI伦理框架的稳定性取决于外部压力(媒体、监管、竞争对手行为)与内部承诺之间的平衡。当外部压力减弱或商业机会增大时,书面原则可以被快速修订。技术人员需要识别自己所在组织的「原则弹性」——哪些承诺有结构性保障(如写入公司章程、与融资条款挂钩),哪些只是政策声明。
第二,集体行动的组织形式。从4000人请愿到工会投票,谷歌员工的策略演变反映了制度环境的变化。请愿书依赖管理层的道德敏感性,工会则创造了法律约束下的谈判义务。对于没有工会传统的地区(如美国科技行业),DeepMind的英国路径可能不完全可复制,但其核心逻辑——将个人道德判断转化为集体谈判筹码——具有普遍参考价值。
第三,技术应用的「拒绝权」设计。工会诉求中的「个人拒绝权」指向一个具体的技术治理问题:如何在大型研发项目中嵌入分布式伦理判断。这不是要求每个工程师都有否决权,而是需要设计层级化的申诉和升级机制,使得道德关切不能被单一管理层级压制。现有实践(如某些开源项目的「伦理使用条款」、学术机构的研究伦理委员会)可以作为起点,但企业环境的权力结构需要不同的制度设计。
谷歌与五角大楼的合同内容仍属机密,DeepMind工会的谈判结果尚未可知。但2026年4月的这场投票已经改变了一个基本假设:前沿AI研究人员不再默认自己是公司治理的被动接受者。当技术能力与伦理判断集中于同一群体时,组织形式的创新可能比原则声明更能决定技术的实际边界。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.