伦敦国王十字车站附近的Google DeepMind总部,一场静默的投票刚刚结束。98%的工会成员按下赞成键——他们要用集体谈判权,阻止自己的算法流向以色列国防军和美国五角大楼。
这不是硅谷常见的福利诉求。员工在公开信中写道:「即使我们的工作只用于行政目的,它仍在让种族灭绝变得更便宜、更快、更高效。」
![]()
从实验室到战场:AI员工的道德困境
DeepMind的困境折射出一个被刻意模糊的事实:顶尖AI研究机构与军事机器的距离,比公众想象的更近。
员工提出的诉求清单异常具体。他们要求Google承诺不开发武器、不承接伤害或监控人类的合同;要求就「实质性影响岗位、工作量或就业安全」的AI使用进行谈判;要求拥有因个人道德标准而拒绝项目的权利。
这些条款直指AI行业的核心矛盾。当一家公司的商业合同与员工的伦理底线冲突时,个体抗议往往被NDA(保密协议)和绩效评估消解。工会化是将分散的道德焦虑转化为结构性谈判筹码的尝试。
至少1000名伦敦总部员工将被纳入代表范围。管理层有10个工作日自愿承认,否则将进入强制法律程序。
全球DeepMind员工还在酝酿更激进的行动:实体抗议,以及对Gemini(双子座)AI助手的「研究罢工」——拒绝为其性能改进贡献代码。
一周内的两次施压:从公开信到工会
时间线显示事态在加速。
工会投票前一周,数百名Google员工已向CEO桑达尔·皮查伊发出公开信,要求拒绝与五角大楼签订机密AI合同。信中指出,Google Cloud正在竞标美国国防部的联合全域指挥控制(JADC2)项目,该项目旨在用AI整合美军各军种的数据流。
公开信与工会行动形成递进关系:前者是道德呼吁,后者是权力建构。当管理层对信件保持沉默,员工选择了更具约束力的组织形式。
这种策略转变本身值得关注。科技行业的员工行动主义历来以松散联盟为主——2018年Google员工曾成功迫使公司放弃Project Maven(军用无人机图像识别项目),但那次胜利依赖的是舆论压力和关键工程师的个体抵制,而非制度化的集体谈判权。
DeepMind员工显然在研究历史。他们试图将偶发的道德胜利转化为可持续的制衡机制。
「行政用途」的修辞陷阱
Google管理层对员工的反复安抚——「你们的工作只用于行政目的」——在工会声明中被精准拆解。
这种辩护的脆弱性在于:现代军事系统的「行政」与「作战」边界早已模糊。后勤优化算法可以缩短部队部署时间,情报分类模型可以加速目标筛选,基础设施自动化可以降低军事行动成本。每一环「行政」改进都在提升整体杀伤效率。
员工援引的具体案例是以色列国防军的「薰衣草」(Lavender)AI系统。据以色列媒体报道,该系统用于生成潜在打击目标清单,在人类审查环节被严重压缩的情况下,导致大量平民伤亡。Google Cloud与以色列政府的合同细节虽未完全公开,但员工声称其技术已被用于支持相关系统。
「帮助让种族灭绝变得更便宜、更快、更高效」——这句指控的尖锐之处在于,它不接受「技术中立」的免责条款。在AI行业,「我们只是提供工具」的辩解正面临越来越强的内部反弹。
工会化的结构性意义
将DeepMind事件置于更广阔的劳工运动脉络中观察,会发现几个值得注意的特征。
首先是地点选择。伦敦而非山景城成为行动中心,反映了Google全球研发布局的战略价值,也利用了英国相对友好的工会法律环境。CWU(通讯工人工会)与Unite the Union的联合代表模式,则是跨行业劳工组织向科技精英渗透的尝试。
其次是诉求的「去物质化」。传统工会聚焦工资、工时、工作条件,DeepMind员工的核心关切却是技术应用的伦理后果。这种「道德工会主义」是否能在法律框架内获得认可,将考验英国劳工法的解释弹性。
更深层的问题关乎AI行业的权力结构。DeepMind作为Google的子公司,其员工对母公司军事合同的发言权边界在哪里?如果Google Cloud独立签署国防合同,DeepMind研究人员的工会能否干预?这些法律灰色地带将成为未来博弈的焦点。
行业涟漪:从DeepMind到更广泛的AI劳工
DeepMind并非孤例。OpenAI、Anthropic、Meta的AI实验室都面临类似的内部张力,只是表现形式不同。
OpenAI在2023年解散其「超级对齐」团队时,核心成员公开指责公司优先商业利益而非安全研究;Anthropic的「负责任扩展政策」虽获好评,但其员工对军事应用的监督机制仍不透明;Meta的AI研究更因缺乏有效内部制衡而屡遭批评。
DeepMind工会化的独特之处在于,它试图将个体研究员的道德不安转化为可执行的集体权利。如果成功,将为全球AI行业树立先例:顶尖技术人才的雇佣合同可能需要包含「伦理退出条款」,军事相关项目的资源调配可能需要经过工会协商。
这对AI公司的商业模式构成潜在冲击。军事和情报合同往往是云计算和AI服务的高利润来源。Google Cloud 2023年约15%的收入来自政府合同,其中国防和情报部门占比持续上升。如果技术人才获得系统性否决权,这一增长引擎可能受限。
管理层的两难:效率与控制
Google管理层面临的决策困境具有代表性。
承认工会意味着接受一个永久性的内部制衡力量,可能延缓产品迭代、限制合同灵活性、增加合规成本。拒绝承认则可能激化对抗,触发法律程序、媒体关注和人才流失——在AI人才市场极度紧张的当下,后者代价高昂。
更微妙的考量在于品牌风险。Google在2018年Project Maven风波后曾承诺不开发「造成整体伤害」的AI武器,但此后通过云计算合同、咨询服务、技术许可等迂回方式持续深化与国防部门的联系。这种「承诺-规避」模式一旦被工会制度化监督,操作空间将大幅压缩。
10个工作日的倒计时已经开始。无论结果如何,DeepMind员工的行动已经证明:在AI军备竞赛的狂热中,技术生产者的道德主体性正在觉醒,并且开始寻找组织化的表达形式。
给从业者的实用观察
如果你正在AI行业工作,DeepMind事件提供了几个可操作的参照点。
第一,技术应用的伦理审查不能依赖公司自上而下的自我监管。当商业利益与道德承诺冲突时,内部合规流程往往被架空。集体谈判权是一种将个体判断制度化的途径,尽管其构建成本高昂。
第二,「行政用途」的技术辩护正在失效。在高度集成的现代军事系统中,任何效率提升都可能产生连锁杀伤效应。评估项目伦理风险时,需要追问的是:我的代码最终服务于什么系统的整体优化?
第三,地理位置影响行动空间。英国、欧盟的劳工法和数据保护法规为技术员工提供了相对有利的博弈环境,而美国的「任意雇佣」原则则大幅限制了个体抵制能力。跨国公司的内部政治因此呈现显著的地域差异。
DeepMind的工会化尝试能否成功、能否被复制,将取决于未来数周的法律博弈和更长期的组织建设。但事件本身已经标志着一个转折点:AI行业的核心矛盾,正从「技术能否实现」转向「技术应当如何被使用」——而后者的问题,正在由技术生产者自己提出。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.