![]()
Anthropic轻轻振翅,掀起华尔街AI风暴;起落之间、浪潮翻涌,一场关于模型“非法蒸馏”的指控骤然砸向国内“三小只”。
北京时间2月23日,美国AI独角兽公司Anthropic在其官网发布公告称,DeepSeek(深度求索)、Moonshot AI(月之暗面)和MiniMax(稀宇科技)对其模型进行了工业规模的蒸馏攻击。
“这些实验室创建了超过24000个虚假账户,与Claude进行了超过1600万次交互,提取其能力来训练和改进他们自己的模型。”Anthropic认为,蒸馏行为违反了他的服务条款和区域访问限制。具体来看:
1.DeepSeek被追踪到超15万次可疑调用记录,主要针对Claude的基础逻辑、安全对齐能力进行学习,甚至尝试获取绕过内容审查的应答方式。
2.Moonshot AI的调用量为340万次,学习范围覆盖智能体推理、工具使用、代码编写、数据分析及计算机视觉等领域。
3.MiniMax被追踪到1300万次的调用,重点学习Claude的代码代理、工具使用与流程编排能力。
更加值得关注的是Anthropic的另一则指控,其认为非法提炼模型缺乏必要的保障措施,带来了重大的国家安全风险。
Anthropic称外国实验室提取美国模型后,可以将这些未受保护的能力输入军事、情报和监控系统——使政府能够部署边缘人工智能实行进攻性网络行动、虚假信息传播和大规模监控。
如果蒸馏模型开源,随着这些能力自由拓展,超出单一政府的控制,安全风险将会倍增。
由此,一场看似普通的行业事件,裹挟着技术争议、商业竞争以及国家安全因素,迅速成为全球AI圈关注的焦点。只是这一次,“舆论”似乎没有站在Anthropic这边。![]()
(图源:Anthropic官网公告)
蒸馏不奇怪,争议在于“非法”
蒸馏——此番舆情的起点。
简单来说,模型蒸馏就是把大型复杂的“教师模型”的知识和能力,迁移到小型高效的“学生模型”中,核心价值在于降低模型部署成本、提升运行效率,让AI模型能适配手机、边缘设备等资源受限的场景,这是全球AI企业普遍采用的技术路径。
Anthropic在公告中也表示,蒸馏技术本身是合理的,不少实验室都会通过这一技术为客户打造更小、更便宜的模型版本。
事实上,OpenAI、谷歌、Meta等科技巨头,均在自家产品体系中广泛应用蒸馏技术。OpenAI通过蒸馏将GPT系列模型压缩为轻量版,适配移动端;谷歌则借此优化Gemini模型的推理速度,降低云服务成本。
这些行为从未被贴上“攻击”“窃取”的标签,反而被视作技术优化的典范。由此可见,单论模型蒸馏,国内三家企业的技术选择本身无可厚非。
Anthropic此次指控中,唯一看似站得住脚的,是“非法蒸馏”——即通过虚假账号规避API限制获取数据的行为。
模型蒸馏技术由杰弗里·辛顿等人在2015年提出,核心是通过“教师模型”指导“学生模型”,实现50%-90%的参数压缩与能力迁移,解决大模型部署成本高、延迟高的行业痛点,如今已广泛应用于多个领域。
从技术分类来看,蒸馏分为白盒和黑盒两类。白盒可直接访问模型参数,黑盒则只能通过API获取输入输出数据,反推模型逻辑却无法触及核心参数,很难复刻原模型。
而Claude作为闭源模型,意味着国内三家企业即便对其进行蒸馏,也只能采用黑盒模式,远达不到“窃取核心技术”的程度。Anthropic的论证逻辑似乎混淆了“技术本身”与“使用方式”——基于公开API的合理黑盒蒸馏是行业常规,开发者只要付费合规调用数据、优化自身模型,便无过错。
截至目前,针对Anthropic关于虚假账号和非法蒸馏的指控,三家国内企业尚未作出回应。若后续查证,企业确有通过虚假账号规避规则的行为,那么DeepSeek、Moonshot AI和MiniMax或涉嫌不正当竞争。
Anthropic的双标,AI圈看笑了
看似占据舆论主导权的Anthropic,却得不到认可的一个核心原因就是:其本身也是靠蒸馏起家的。Anthropic在指控被人的同时,也捎了自己一把。正中看客下怀,Anthropic失去了唯一的先发优势。
在创立初期,受技术和算力资源的双重限制,蒸馏成为Anthropic控制成本的关键手段。其模型矩阵始终遵循“大模型→小模型”的蒸馏逻辑,这一策略延续至今,甚至成为公司核心的产品方法论。
Anthropic多款核心模型均依赖蒸馏技术。Claude 1.0轻量化版本由旗舰模型蒸馏研发,从Opus到Sonnet、再到Haiku的模型迭代,也多次通过蒸馏技术实现性能与成本的平衡。
更值得玩味的是,Anthropic的创始团队,也像是从OpenAI“蒸馏”而来。
其核心创始团队几乎均来自OpenAI核心层,还带走了OpenAI早期的安全对齐技术基因。
2020年,作为OpenAI研究副总裁的Dario Amodei(达里奥·阿莫迪)因“AI安全优先”的理念,与坚持“商业化优先”的OpenAI创始人奥尔特曼产生激烈冲突并离职,2021年创立了Anthropic。
一同出走的,还有OpenAI前安全政策副总裁Daniela Amodei、GPT-3核心开发者Tom Brown等十余名顶级研究员。
而Anthropic此后的发展,也继承了OpenAI早期“模型训练-对齐-安全”的核心技术积累,成为GPT系列技术基因的延续。
国家安全是幌子,应对竞争是核心
外国实验室的蒸馏行为会带来重大国家安全风险,Anthropic在其公告中强调。黑盒蒸馏的技术特性,决定了其无法触及Claude的安全对齐机制,既不能破解模型的安全防护,也不可能将相关能力应用于军事、情报等高危领域。
而从实际发展来看,蒸馏技术只是中国AI企业发展的手段之一,并非缩小与国际头部企业差距的关键。近期国内各大AI大模型正迎来密集的迭代与爆发。
2月23日媒体报道,Kimi旗下K2.5大模型发布不到一个月,近20天累计收入已超2025年全年,增长源于全球付费用户与API调用量的双重大涨,其中海外付费用户数快速增加,OpenRouter数据显示,Kimi K2.5的调用量持续位居前列。
2月24日,MiniMax在春节前夕开源的新一代模型M2.5,发布12小时内登顶OpenRouter热度榜,一周内拿下调用量榜首,周调用量暴涨至3.07T tokens,还带动了100K至1M长文本区间的增量调用。
这意味着,无论Anthropic是否发起控诉,其都已身处更激烈的国际竞争环境中。一边是OpenAI的正面直面竞争,另一边是中国AI企业的快速追赶。
而在华尔街AI泡沫持续的市场背景下,始终处于“高消耗、未盈利”状态的Anthropic,此次高调控诉,是有恃无恐的维权,还是高强度竞争下的泄压,看客自有判断。
AI时代,知识产权保护的边界在哪?
Anthropic此次指控,也让一个核心问题再次浮出水面:AI时代,知识产权的保护边界该如何界定?蒸馏、数据借鉴等行为,合法与侵权的界限在哪里?
据了解,Anthropic自身也曾深陷知识产权侵权争议。2025年9月,该公司因从LibGen、PiLiMi等盗版网站非法下载超700万本受版权保护的图书用于Claude模型训练,被迫向全球作家集体支付15亿美元和解金。
马斯克也曾直言,Anthropic“大规模窃取训练数据,并为此支付了数十亿美元赔偿金,这是不争的事实”。自身存在严重的知识产权侵权行为,却反过来指责中国企业“非法蒸馏”,这样的做法,荒诞且缺乏说服力。
事实上,Anthropic此次的指控,并无实质证据证明中国企业侵犯其知识产权,其实际指控的,只是非法调用API的行为。
综上所述,Anthropic的此番指控,本质是一场披着维权外衣的利益博弈。其混淆技术与使用方式的概念,践行明显的双重标准,并将技术问题与国家安全强行绑定,不免有打压国内AI企业,维护自身在全球AI领域生态位之嫌。
蒸馏技术本身并无对错,关键在于应用过程是否合规。合法的蒸馏技术应用,应得到行业支持与鼓励;而通过虚假账号、规避规则的非法调用行为,则需要被规范和约束,这是AI行业发展的底线。
但是,当技术议题被强行拉入国家安全和意识形态的阵营,这场闹剧也让一个事实愈发清晰:全球AI行业的安全与伦理法规,亟待落地。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.