![]()
人工智能安全研究机构 Anthropic 上周发布的一份报告引发了科技界的激烈争论。该公司声称挫败了首个由 AI 主导的网络间谍活动,并将其与中国相关联。然而,Meta 首席 AI 科学家 图灵奖得主杨立昆(Yann LeCun) 对此提出了尖锐批评,指责 Anthropic 通过发布 “可疑研究” 来吓唬公众,其真实目的是推动监管捕获,扼杀开源 AI 模型的发展。这场争论不仅暴露了 AI 行业内部在安全问题上的深刻分歧,也揭示了商业利益、技术路线和地缘政治因素在 AI 发展中的复杂交织。
根据 Anthropic 发布的报告,该公司检测并中断了一起针对多家金融机构和政府机构的网络攻击活动。攻击者使用 Anthropic 的 AI 编程工具 Claude Code 自动执行了攻击链条中 80% 至 90% 的任务,包括侦察、漏洞扫描和代码执行等关键步骤。这是首个公开记录的大规模 AI 代理攻击案例,攻击过程 “几乎不需要人工干预”。Anthropic 将这次攻击归因于与中国政府有关的威胁行为者,并强调这标志着 AI 在网络攻击中的应用出现了 “前所未有的自主性”。
LeCun 的反击与监管捕获指控
![]()
Anthropic 的报告立即引起了美国参议员 Chris Murphy 的关注。这位来自康涅狄格州的参议员在社交媒体上警告说:“如果我们明天不将 AI 监管作为国家优先事项,这将比我们想象的来得更快。” 正是这一表态激怒了 杨立昆。
“你正在被想要监管捕获的人玩弄,”杨立昆在回复中毫不客气地指出,“他们用可疑的研究吓唬每个人,以至于开源模型被监管至不复存在。” 这并非杨立昆首次公开批评 Anthropic。今年 3 月,当 Anthropic 首席执行官 Dario Amodei 提出通过大规模扩展数据中心实现超级智能的愿景时,LeCun 就曾直言这一想法 “完全是胡说八道”。他强调,仅仅通过扩大大型语言模型的规模无法达到人类水平的 AI,“这在未来两年内绝对不会发生”。
杨立昆 的批评触及了 AI 行业一个敏感的核心问题:安全研究是否正在被商业巨头利用来塑造有利于自身的监管环境。所谓 “监管捕获”,是指行业巨头通过游说和影响政策制定,建立起高门槛的监管体系,从而将小型竞争对手和开源项目排除在外。LeCun 的担忧并非空穴来风 —— 如果政府对 AI 模型实施严格的安全审查和许可制度,拥有庞大合规团队和资金的大公司将占据明显优势,而资源有限的初创企业和开源社区可能难以生存。
Anthropic 的中国立场与商业考量
值得注意的是,Anthropic 近年来频繁将矛头指向中国。在今年 1 月中国 AI 公司 DeepSeek 发布高性能开源模型后,Dario Amodei 迅速发表博客文章,为美国对华芯片出口管制辩护。他认为 DeepSeek 的成功恰恰证明了出口管制的有效性,因为该模型在训练效率上的优化正是因为无法获得最先进芯片而被迫采取的策略。Amodei 进一步主张加强芯片管制,阻止中国获得建立超大规模 AI 数据中心所需的计算资源。
Amodei 还对 DeepSeek 的安全性提出质疑,声称其缺乏防止生成有害信息的护栏。他同时淡化开源在 AI 发展中的重要性,指出即使是开源模型也需要大量计算资源才能运行,这意味着控制芯片供应链就能限制 AI 能力的扩散。这些表态引发了广泛争议,因为它们与 Anthropic 长期标榜的 “AI 安全” 立场交织在一起,让外界难以分辨其真实动机究竟是技术安全考量还是商业竞争策略。
讽刺的是,目前全球最先进的开源 AI 模型正是来自中国。DeepSeek、Qwen 等中国模型在多项基准测试中表现出色,并且完全开源。相比之下,Anthropic 的 Claude 模型采取闭源商业化路线,通过 API 服务收费。如果国际 AI 监管环境收紧,要求所有模型必须经过严格审查才能发布,中国的开源模型可能面临更大障碍,而这恰好符合 Anthropic 等闭源商业公司的利益。
AI 威胁的真实性与夸大风险
Anthropic 的黑客报告是否站得住脚?从技术角度看,AI 工具确实可以加速网络攻击的某些环节。根据报告,攻击者利用 Claude Code 自动化了漏洞扫描、代码分析和恶意软件开发等任务,大幅提高了攻击效率。然而,批评者指出,这种能力并非革命性突破 —— 传统自动化脚本和工具早已在黑客圈广泛使用,AI 只是让这些流程更加便捷。
更关键的问题在于威胁的归因。Anthropic 将这次攻击归咎于 “与中国政府相关” 的行为者,但报告中并未提供详细的溯源证据。网络攻击归因历来是网络安全领域最困难的任务之一,因为攻击者可以通过多层跳板、伪造特征等手段掩盖真实身份。在地缘政治紧张的背景下,将攻击快速归因于特定国家往往带有政治考量,而非纯粹的技术判断。
LeCun 的 “可疑研究” 评价也许正是针对这一点。如果 Anthropic 的报告主要基于有限的技术指标就得出 “中国政府支持” 的结论,那么这种归因的可靠性确实值得质疑。更重要的是,即使攻击确实发生,其规模和影响是否足以支撑 “AI 代理时代网络安全面临重大威胁” 的宏大叙事?这些都是需要独立验证的问题。
开源与闭源之争的深层逻辑
LeCun 与 Anthropic 的争论本质上反映了 AI 发展路径的根本分歧。LeCun 是开源 AI 的坚定支持者,他主导的 Meta AI 研究团队发布了 Llama 系列开源模型,认为开放共享才能加速技术进步并让更广泛群体受益。他多次警告说,某些 AI 公司鼓吹 “AI 末日论” 和过度监管,实际目的是消灭开源竞争对手,形成寡头垄断。
Anthropic 则采取了截然不同的策略。该公司由 OpenAI 前高管创立,强调 “负责任的 AI 开发”,定期发布关于模型潜在风险的研究报告。这种定位为其赢得了 “AI 安全领导者” 的声誉,也吸引了大量投资和政府合同。然而,批评者认为 Anthropic 的安全叙事是一种精明的商业策略 —— 通过不断强调 AI 风险,推动建立严格的监管框架,而这种框架天然有利于拥有充足资源的大公司。
这场争论在今年 10 月达到新高潮。特朗普政府官员指责 Anthropic 散布 “AI 恐慌”,该公司曾反对一项禁止州级 AI 监管 10 年的提案。Anthropic 首席执行官 Amodei 不得不公开回应,否认公司在推动过度监管。但 LeCun 等批评者并不买账,他们指出 Anthropic 一边声称支持创新,一边却在政策制定过程中推动有利于自身的监管规则。
地缘政治棋局中的 AI 竞争
Anthropic 频繁将中国作为威胁对象,也与当前的地缘政治格局密切相关。美国政府已将 AI 视为国家安全优先事项,对华芯片禁运、技术出口管制等措施持续升级。在这种背景下,强调 “中国 AI 威胁” 能够获得政策制定者的关注和支持,也更容易为企业争取到政府资助和合同。
然而,这种做法可能带来危险的后果。过度渲染 AI 武器化风险可能导致技术冷战加剧,阻碍国际科研合作。更重要的是,如果西方国家基于不充分的证据实施严厉的 AI 管制,可能反而损害自身的创新能力。中国的 AI 开源生态已经展现出强大活力,DeepSeek 等模型在资源受限情况下仍能取得突破,证明技术创新不完全依赖于芯片优势。如果西方通过监管扼杀了开源社区,最终可能是自缚手脚。
LeCun 在批评 Anthropic 时也暗示了这一层面的担忧。他认为,真正的 AI 安全应该通过透明的开源研究来实现,让全球研究者共同发现和解决问题,而不是由少数闭源公司垄断技术发展方向并定义 “安全标准”。这种观点在学术界有广泛支持,但在商业利益主导的现实中往往处于劣势。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.