20岁青年向奥特曼住宅投掷燃烧瓶前,在社交平台写下对"AI导致人类灭绝"的恐惧。同一周内,印第安纳州议员因支持数据中心项目,家门遭13枪射击,现场留下"不要数据中心"字条。
这不是科幻剧情。2025年4月,针对AI产业的人身攻击事件密集爆发,将长期存在的"AI抵抗运动"推向暴力边缘。
![]()
事件时间线:两周内的三次攻击
4月初,旧金山。一名20岁男子涉嫌向OpenAI首席执行官山姆·奥特曼的住宅投掷燃烧瓶(Molotov cocktail,一种简易燃烧装置)。据《旧金山纪事报》调查,嫌疑人在袭击前公开发表了对AI竞赛导致人类灭绝的担忧。
两天后,同一地点。奥特曼住宅疑似遭遇第二次袭击。当地媒体《旧金山标准报》报道了这起尚未披露细节的第二波攻击。
几乎同一时间,印第安纳波利斯。该市议员因支持一项数据中心开发商的重新分区申请,住宅遭13次枪击。门口留下的纸条明确写着:"不要数据中心"(No Data Centers)。
普林斯顿大学"弥合分歧倡议"(Bridging Divides Initiative)维护的数据库显示,针对地方官员的AI相关威胁和骚扰事件正在累积。2024年,密歇根州伊普西兰蒂一名社区公用事业管理局董事会成员报告,蒙面抗议者曾上门反对"高性能计算设施"项目,其中一人 allegedly 在其草坪上砸毁了一台打印机。
暴力升级前的漫长前奏
这些袭击并非凭空出现。AI技术的反对声浪已持续数年,且始终保持着非暴力的主基调。
抗议者的核心关切高度集中:就业岗位被算法取代、数据中心吞噬巨量电力、安全护栏缺失下的无约束开发。就连AI行业内部员工也多次拉响警报——2023年OpenAI的"宫斗"事件,正是董事会成员对安全治理的忧虑公开化。
战术层面,抵抗运动呈现出鲜明的"本地化"特征。抗议者直接围堵AI公司总部,有人采取绝食抗议;社区层面则聚焦于阻击高能耗数据中心的土地审批。这些行动的法律边界清晰,属于公民表达权的常规行使。
袭击发生后,明确倡导放缓AI发展的组织迅速与暴力切割,发表声明谴责攻击行为。这种"割席"本身说明:运动主流与极端边缘之间存在清晰的自我认知分界线。
奥特曼的回应与媒体争议
首次袭击后,奥特曼在公开场合将矛头部分指向了媒体。
他在一次活动中暗示,批评性的报道 coverage 可能为暴力提供了土壤。这一表态引发舆论反弹——批评者认为,将针对个人的暴力行为与公共监督挂钩,是在转移对产业自身安全责任的关注。
《The Verge》原文在此处中断,但事件逻辑已经清晰:当AI从实验室技术转变为重塑物理世界的基础设施时,其争议性必然从代码层面外溢至街头政治。
数据中心的地理政治学
印第安纳州枪击案揭示了一个被低估的冲突维度:AI基础设施的"邻避效应"(NIMBY,Not In My Backyard)。
数据中心是AI系统的物理载体。训练大模型需要数万张GPU集群持续运转,推理服务则需要贴近用户的边缘节点。这些设施的共同点是——耗电、耗水、占地、噪音。
当地方政府为吸引科技投资而加速审批时,社区居民的反对往往被贴上"阻碍进步"标签。但枪击案表明,被压抑的抵抗可能以极端形式反弹。纸条上的"不要数据中心"五个字,将技术批判锚定在了具体的土地和生计之上。
普林斯顿大学数据库的统计模式值得关注:威胁对象从企业高管向地方官员转移。这意味着冲突的场域正在变化——AI争议不再是硅谷内部的精英辩论,而是下沉为社区层面的资源分配战争。
安全研究的"内部人困境"
袭击者的动机描述值得玩味:对"AI灭绝人类"的恐惧。
这一表述与AI安全研究界的"存在性风险"(existential risk)话语高度重合。区别在于,学术界将风险框定为技术治理问题,而袭击者似乎得出了"先发制人摧毁系统"的行动结论。
这种话语的"激进化"迁移并非孤例。2023年,一封呼吁暂停巨型AI实验的公开信获得数万名签名,包括图灵奖得主和顶级实验室负责人。公开信警告的正是"与人类竞争的智能系统可能对社会和人类构成深刻风险"。
当主流安全话语与边缘暴力行动共享同一套末日叙事,产业面临的挑战变得复杂:如何区分负责任的批评与危险的极端主义?如何在回应合理担忧的同时,不赋予暴力行为额外的意识形态正当性?
产业应对的有限选项
OpenAI及同类公司目前的选择空间狭窄。
强化物理安保是即时反应,但无法解决根本矛盾——当技术系统的社会成本外溢至特定社区时,企业的"中立技术提供者"身份叙事正在失效。印第安纳州议员因支持数据中心而遭枪击,说明政治代表已被视为技术利益的延伸。
更深层的问题在于透明度。AI公司长期以"竞争安全"为由,对模型训练细节、安全测试结果、风险评估流程保持黑箱。这种信息不对称为阴谋论和恐慌提供了发酵空间。袭击者在行动前公开表达的灭绝恐惧,某种程度上是对信息真空的填充。
但全面透明同样危险。模型权重、训练方法的完全公开,可能降低恶意使用的技术门槛。如何在"足够开放以建立信任"与"足够封闭以防止滥用"之间取得平衡,没有现成答案。
监管框架的滞后性
暴力事件暴露的,是治理机制的系统性落后。
美国联邦层面尚无针对AI安全的专门立法。各州的数据中心审批主要依据传统的土地使用和环境法规,未能将AI特有的风险维度——如模型能力的不可预测跃升、自动化决策的歧视性后果——纳入评估框架。
地方官员因此处于双重压力之下:既要响应社区对就业和税收的期待,又缺乏工具来评估技术承诺背后的实际成本。当审批决策与具体社区的物理环境冲突时,官员个人成为愤怒的接收端。
欧盟的《人工智能法》提供了对比参照。该法案按风险等级对AI应用分类监管,要求高风险系统接受合规评估。但其主要约束对象是部署者而非开发者,且对"通用人工智能模型"的治理条款在最后一刻才仓促加入,显示立法者追赶技术速度的艰难。
抗议运动的自我边界
值得强调的是,暴力事件在AI抵抗运动中属于绝对边缘。
主流环保组织、劳工团体、数字权利机构采用的战术包括:信息公开请求、听证会作证、股东提案、消费者抵制、艺术抗议(如用AI生成的讽刺内容反讽技术滥用)。这些行动在民主社会的常规政治参与光谱之内。
袭击发生后,明确倡导放缓AI发展的组织迅速谴责暴力。这种"割席"的紧迫性,反映出运动领导者对合法性边界的敏感——一旦与暴力关联,公众同情将向技术公司倾斜,政策诉求的可信度将受损。
但边缘与主流的界限是流动的。如果常规参与渠道持续堵塞——听证会流于形式、环境评估被快速通道绕过、社区诉求被"创新优先"叙事压制——激进化压力将累积。密歇根州的打印机砸毁事件、印第安纳州的枪击、旧金山的燃烧瓶,构成了一条逐步升级的曲线。
技术批评的"安全化"陷阱
奥特曼将暴力部分归因于媒体批评,这一策略存在风险。
"安全化"(securitization)是国际关系中的概念:当议题被框定为生存威胁时,常规政治程序可被绕过,紧急措施获得正当性。将批评性报道与暴力袭击建立因果关联,可能为限制公共讨论打开方便之门。
但历史经验表明,压制批评往往加剧而非缓解极端化。当合法异议渠道收窄,边缘行动者更容易垄断"抵抗"的话语定义权。AI产业若希望将暴力隔离于主流运动之外,需要做的恰恰是强化而非削弱常规政治参与的空间。
这包括:支持强制性的环境影响评估、公开安全研究的关键发现(即使牺牲部分竞争优势)、在模型部署前建立真正的社区协商机制。这些措施的成本高昂,但相比人身攻击成为产业常态的代价,可能仍是更优选择。
全球视角下的冲突扩散
美国的事件并非孤例。全球范围内,AI基础设施的物理扩张正在触发本地化抵抗。
荷兰的微软数据中心项目遭遇农民和环保组织的联合反对,理由是地下水消耗影响农业。新加坡作为数据中心枢纽,正在重新评估其能源承诺与AI雄心之间的兼容性。印度的数据中心集群建设,同样面临土地征用和社区搬迁的争议。
这些冲突的共同点在于:AI的"虚拟"形象——云端、无形、智能——与其物理基础的"实在"属性——土地、水、电、热——之间的认知落差。当技术叙事强调"去物质化"的进步时,具体社区承受的是高度物质化的成本。
旧金山燃烧瓶袭击者的"灭绝恐惧",与印第安纳州枪击者的"数据中心拒绝",表面诉求迥异,实则共享同一结构:技术系统的抽象承诺,与个体生活的具体威胁之间,缺乏可信的调解机制。
产业叙事的两难
OpenAI及同类公司长期依赖两套叙事:对投资者强调变革性潜力,对公众强调安全审慎。袭击事件暴露了这两套叙事的张力。
如果AI真的是"人类历史上最重要的技术",其社会扰动效应必然剧烈,要求相应的治理创新。但如果强调"安全是我们的首要考虑",则必须解释为何在能力快速扩张的同时,安全研究投入和外部监督机制未能同步跟上。
奥特曼个人成为攻击目标,某种程度上是这种叙事张力的具象化。作为行业最知名的面孔,他同时承载着"技术乌托邦"的希望符号和"不受约束的发展"的批评靶标。无论其个人责任如何分配,这种符号化的风险是结构性的。
下一步的可能走向
短期来看,AI公司的物理安保将显著升级。但这只是将冲突推入新的阶段——更严密的安保强化"技术精英与普通大众隔离"的视觉印象,可能进一步激化对立叙事。
中期来看,数据中心的选址政治将更趋复杂。社区抵制可能从"邻避"发展为"迎臂"(BANANA, Build Absolutely Nothing Anywhere Near Anyone)——任何地方都不要。这将迫使AI基础设施向监管更宽松、社区组织能力更弱的地区转移,形成"污染天堂"效应。
长期来看,暴力事件是否成为常态,取决于两个变量:一是AI安全治理能否建立可信的外部监督,将抽象的风险担忧转化为可验证的缓解措施;二是技术收益的分配能否突破"赢家通吃"模式,让承担物理成本的社区获得实质性回报。
两个变量目前都指向悲观方向。2024年美国大选中,AI监管并非核心议题;科技巨头的利润增长与地方社区的税收贡献之间的鸿沟仍在扩大。
开放提问
当燃烧瓶与子弹进入AI争议的武器库,我们可能需要重新校准讨论的前提。
技术批评与暴力行动的边界在哪里?当"存在性风险"从学术概念变为行动者的自我证词,AI安全话语本身是否需要反思其传播策略?更重要的是,如果社区层面的协商机制持续失效,下一个燃烧瓶会投向何处——是另一家科技高管的住宅,还是已经运转中的数据中心机房?
这些问题没有标准答案。但回避它们,意味着接受暴力作为技术政治的新常态。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.