「我们为此感到自豪。」——谷歌高管这样回应员工对军方合同的质疑。
这句话出现在一份内部备忘录中,对象是数百名抗议将人工智能(AI)用于军事项目的员工。十年前,谷歌曾因类似争议退出Maven项目,承诺不将技术用于武器开发。如今,同样的剧本重演,结局却截然不同。
![]()
合同升级:从"特定用途"到"任何合法目的"
谷歌近期与美国国防部(DoD)的合同扩展包含两个关键动作。
第一,将Gemini(谷歌的大语言模型)的可用范围扩大到机密项目,授权条款明确写明用于"任何合法目的"。
第二,退出了一项价值1亿美元的五角大楼挑战赛——该项目旨在开发语音控制的自主无人机蜂群系统。
表面看,退出无人机项目像是伦理底线的坚守。但彭博社的报道揭示了另一层:内部伦理审查确实发挥了作用,阻止了特定项目的推进。然而,Gemini的通用授权条款,实际上为更广泛的军事应用打开了大门。
这种"拒绝具体项目、开放底层能力"的策略,让谷歌得以声称仍在审查伦理风险,同时将核心AI技术嵌入国防体系。
员工反弹:从公开抗议到内部备忘录压制
2018年Maven项目争议时,超过3000名谷歌员工签署公开信,最终迫使公司宣布不再续约。当时谷歌明确承诺:不追求"设计或部署"用于武器的技术。
2025年的情况变了。数百名员工再次联名致信首席执行官桑达尔·皮查伊,要求拒绝军事AI用途。公司的回应不是谈判,而是一份立场强硬的内部声明。
这份备忘录的核心信息有三层:国防是国家优先事项;谷歌的技术将"以符合我们价值观的方式"使用;员工应当为支持国家安全感到自豪。
没有撤回合同,没有公开承诺限制,只有对质疑者的安抚与立场重申。
伦理条款的悄然改写
谷歌AI原则的变化值得逐字比对。
旧版原则(2018年前后):不会部署"可能造成重大伤害"的AI,不会设计用于"监视或武器"的技术。
现行原则:删除了"重大"这一限定词,将"伤害"标准模糊化;武器相关条款被重新表述为"不会追求"而非"不会设计或部署"。
措辞的微调创造了巨大的解释空间。"可能造成伤害"与"可能造成重大伤害"之间,隔着无数种军事应用场景。无人机目标识别算"伤害"吗?情报分析算"监视"吗?Gemini用于机密项目的"任何合法目的",这些边界由谁来划定?
答案是:由合同条款和军方需求共同划定,而非谷歌公开的伦理承诺。
商业逻辑:政府市场的诱惑与压力
五角大楼的AI支出正在加速。2024财年,美国国防部人工智能相关预算超过18亿美元,生成式AI(能够创造文本、图像、代码的AI系统)是重点投入方向。
谷歌并非唯一参与者。微软、亚马逊、甲骨文均已获得不同层级的机密云服务和AI合同。但谷歌的特殊性在于:它曾是最高调宣称技术伦理边界的公司,"不作恶"(Don't Be Evil)一度是其品牌核心。
2015年,谷歌重组为Alphabet控股公司时,"不作恶"从公司行为准则的顶部移至底部,最终被"做正确的事"(Do the Right Thing)取代。当时外界普遍视为修辞调整,如今看来像是预言。
对谷歌云业务而言,政府合同是缩小与亚马逊AWS、微软Azure差距的关键路径。2024年,谷歌云营收突破330亿美元,但市场份额仍落后前两名。五角大楼的机密项目不仅带来直接收入,更是技术可信度的背书——能够处理机密数据的AI,意味着安全架构通过了最严格的审查。
行业镜像:当所有大厂都在"合规"框架下进军国防
将谷歌单独拎出来批判并不公平,这正是问题所在。
OpenAI在2024年初删除服务条款中"禁止用于军事和战争"的明确限制,改为"不得用于开发或使用武器"。微软与OpenAI的技术已通过军方承包商间接进入战场情报系统。亚马逊的JEDI合同(后被取消并重组)争议持续了数年。
整个行业的伦理防线正在"合规化"中瓦解。不是直接开发武器,而是通过"双重用途"技术——民用AI的军用适配——实现渗透。Gemini用于"后勤分析"与用于"目标筛选",在代码层面可能是同一套系统。
谷歌的"任何合法目的"条款,不过是将这种行业潜规则书面化。当法律框架(美国法律授权的军事行动)取代企业自我约束,伦理审查就退化为风险评估——不是"应不应该",而是"会不会出事"。
技术人员的困境:抗议的边际效用递减
2018年Maven抗议的成功,建立在两个条件上:员工集体行动的罕见性,以及谷歌对公众形象的敏感。
2025年,这两个条件都已弱化。大型科技公司的员工流动率上升,远程办公削弱了组织动员能力。更关键的是,AI军备竞赛的叙事已经重构——"不让我们做,中国会做"成为管理层回应质疑的标准话术。
谷歌内部备忘录的措辞变化耐人寻味。2018年,高管强调"倾听员工声音";2025年,强调"为国家安全自豪"。员工从需要安抚的利益相关方,变成了需要统一思想的内部公众。
这种转变的底层逻辑是:当技术成为国家战略资产,企业伦理必须让位于国家意志。谷歌只是率先完成了这一认知调整。
遗留问题:当"不作恶"成为历史注脚
谷歌联合创始人拉里·佩奇和谢尔盖·布林在2004年招股书中写下"不作恶",作为对华尔街的警告:谷歌不会为短期利益牺牲用户信任。二十年后,这句话出现在关于公司伦理崩塌的新闻标题中,成为一种讽刺。
但更值得追问的是:这个口号从一开始就是可行的吗?
搜索引擎的商业模式建立在注意力经济之上,广告定向投放与"不作恶"的兼容性从未被真正检验。AI技术的军民两用特性,只是将这一张力推向极端。当技术能力本身成为善恶的放大器,企业的自我约束在竞争压力和政府合同面前显得脆弱。
谷歌的选择或许不是伦理的溃败,而是伦理幻想的终结。当Gemini被授权用于"任何合法目的",真正的问题不是谷歌变了,而是"不作恶"这个口号所依赖的前提——企业可以且应当独立于国家权力定义技术边界——从来就不成立。
接下来需要观察的是:其他AI公司是否会跟进类似的合同条款,以及"合法用途"这一表述是否会成为行业标配。如果答案是肯定的,那么2018年至2025年的这段历史,将被记录为AI伦理从"自我约束"向"合规外包"的转型期——而谷歌是第一家公开完成这一转型的巨头。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.