![]()
作为OpenAI最强劲的对手,Anthropic一直以“安全可靠、技术严谨”的形象立足AI圈,旗下编程助手Claude Code更是全球开发者追捧的爆款工具。但一场突如其来的源码泄露,彻底撕开了这家明星公司的体面:51.2万行核心代码、1900多个TypeScript文件、完整工具架构与未公开功能,全被摊在阳光下。更讽刺的是,这不是意外,而是三年内第三次犯同样低级错误——从源映射文件疏忽到打包配置漏洞,Anthropic用一连串失误,向业界证明:比起技术实力,它的流程管控、安全意识和商业底线,才是真的“拉胯”。
![]()
![]()
PART 01三次“裸奔”:same错误,犯三次
Claude Code的源码泄露,不是突发意外,而是一场持续13个月的“连续剧”。三次泄露,原因一模一样,错得如出一辙,把Anthropic的敷衍与懈怠摆得明明白白。
第一次泄露发生在2025年2月,Claude Code刚上线不久。Anthropic在npm发布的安装包里,夹带了一个23MB的cli.mjs文件,文件末尾藏着1800万字符的base64编码源映射文件。懂行的开发者一眼看穿:这份map文件能直接还原整套原始代码,相当于把产品设计图纸直接塞给所有人。事发后Anthropic火速更新版本删除文件,但源码早已在社区流传。
第二次是2026年3月7日,间隔仅一个多月。开发者在@anthropic-ai/claude-agent-sdk安装包中,发现完整的Claude Code CLI可执行文件——13800行压缩JS代码,连还原步骤都省了,直接能看到核心逻辑。这次Anthropic没公开回应,悄悄下架了问题版本,以为能蒙混过关。
第三次就是3月31日的“大爆发”。Claude Code 2.1.88版本npm包中,一个59.8MB的独立source map文件被公开,不仅藏着完整源码,还直接指向Cloudflare R2存储桶的zip压缩包。外界下载解压后,得到1906个核心文件、51.2万行代码,涵盖工具体系、查询引擎、多智能体编排、持久化记忆等所有核心模块,连未发布的Kairos常驻助手、隐身模式都一览无余。
短短13个月,三次源码泄露,全是“源映射文件未过滤、打包配置失误”的低级问题。连普通创业公司都能规避的发布流程漏洞,Anthropic反复踩坑——不是技术不行,是根本没上心。就像开发者吐槽的:
连npmignore都配不好,还好意思吹自己是安全AI先驱?
PART 02泄露的不只是代码:藏在源码里的“小心机”
51万行代码曝光,最让业界哗然的不是技术架构,而是Anthropic藏在深处的“商业小动作”——表面做普惠工具,背地里给竞品下绊子,把“防抄袭、防蒸馏”的小心思写进每一行代码。
最典型的是“假工具注入”机制。源码显示,Claude Code会在特定条件下,向模型注入虚假工具,误导试图蒸馏、模仿的竞品,让其功能失效。这套机制藏得很深:必须同时满足编译开启ANTIDISTILLATIONCC、走CLI入口、用官方API、GrowthBook返回特定参数才会触发。看似高明,实则漏洞百出——只要架个代理删掉对应字段,或用第三方API、SDK入口,整套机制直接作废。
还有“摘要替换”功能,针对内部用户开放,外部用户无法使用,本质是通过篡改输出内容,干扰逆向分析。更离谱的是,源码里还留着环境变量开关,只要设置CLAUDECODEDISABLEEXPERIMENTALBETAS为真,所有防蒸馏手段全部关闭。
一边高价售卖、严禁竞品模仿,一边用低劣手段给同行设陷阱;一边标榜“开放共赢”,一边把“防抄袭”当核心功能——这种两面派做法,让开发者直呼“吃相难看”。有业内人士直言:
有功夫搞这些歪门邪道,不如把打包流程弄好,少泄露几次源码。
PART 03每天浪费25万次API调用,修bug全靠“摆烂”
泄露的源码里,除了“小心机”,还有一堆触目惊心的低级bug,把Claude Code的“粗制滥造”暴露无遗。最典型的,是autoCompact(上下文压缩)功能的致命缺陷。
源码注释直白记录:2026年3月10日,1279个会话出现50次以上连续压缩失败,单个会话最高失败3272次,全球每天浪费约25万次API调用。上下文压缩本是为了节省token、避免会话过长,结果失败后不断重试,反而疯狂消耗资源,徒增用户成本。
而Anthropic的修复方式,简单到“摆烂”:直接设置MAXCONSECUTIVEAUTOCOMPACT_FAILURES = 3——连续失败3次就彻底关闭该功能,不再尝试。不解决失败根源,直接砍掉功能,这种“一刀切”的敷衍做法,完全不像头部AI公司的水准。
此外,厕所系统般的漏洞随处可见:通信链路切换频繁闪断、工具权限校验不严谨、本地记忆存储存在泄露风险、多智能体调度逻辑混乱……连基础的代码健壮性都没做好,却忙着搞防竞品的“黑科技”,Anthropic的重心完全跑偏。
PART 04AI自己写的代码,公司有脸维权?
源码泄露后,Anthropic的操作更显双标:一边紧急发版权删除请求,要求GitHub下架所有镜像;一边又对外宣称“Claude Code大部分代码由AI生成”。这直接陷入死循环:AI生成的代码,到底受不受版权保护?
按照美国现行版权法,作品必须有“实质性人类创作”才能获得保护,纯AI生成内容不具备版权资格。技术律师直言:
最讽刺的是,这款顶尖AI编码工具,可能靠自己把知识产权‘写没了’。竞品研究泄露代码,大概率不侵权。
更滑稽的是,开发者早有应对:GitHub用户Sigrid Jin上传的源码镜像拿下10.5万star,超过官方仓库,被投诉后直接用AI把TypeScript转成Python、再转Rust,换种语言“复刻”,Anthropic连维权依据都没有。
一边用AI生成代码降低成本,一边想享受人类作品的版权保护;一边泄露源码毫无悔意,一边又想靠法律压制传播——这种既想占便宜又不想担责的心态,彻底暴露了Anthropic的“人品问题”。
PART 05三次泄露背后:一家“伪严谨”公司的真实面目
三次源码泄露,看似是发布失误,实则是Anthropic整个公司治理、安全意识、商业伦理的全面崩塌。
首先是流程管控形同虚设。源映射文件泄露是前端行业最基础的安全常识,普通小公司都会在CI/CD流程中加校验,Anthropic筹备IPO、估值数百亿美元,却连.npmignore都配置错误,连续三年不修复,内部管理混乱到极致。
其次是安全态度极度敷衍。第一次泄露后,Anthropic没有完善流程、增加校验,只是简单删除文件;第二次泄露依旧悄无声息,直到第三次爆发才被迫回应,还轻描淡写说是“人为错误、非安全漏洞”。完全没意识到,50万行核心代码泄露,对用户、对行业是多大的风险。
最后是商业底线缺失。不靠产品实力竞争,反而搞假工具、摘要替换等阴招;不重视用户体验,放任浪费25万次API调用的bug存在;不承担泄露责任,反而试图用法律甩锅——种种行为,和其标榜的“安全、可信、负责”的人设,完全背道而驰。
PART 06技术可以容错,人品不能打折
Claude Code的三次源码泄露,是AI行业的一记警钟:再强大的技术、再光鲜的估值,也遮不住流程漏洞与道德瑕疵。
对Anthropic而言,51万行代码泄露或许只是商业损失,但失去的信任难以挽回。当一家公司连基础的发布安全都做不好,连坦诚面对错误的担当都没有,再吹“安全AI”“行业标杆”,都只是笑话。
对行业而言,这场闹剧也撕开了大厂的“滤镜”:AI竞争拼的不只是模型能力,更是责任、底线与敬畏心。靠投机取巧、敷衍了事走不远,唯有踏实做好产品、守住商业底线,才能真正走得长远。
毕竟,技术可以迭代,bug可以修复,但一家公司的“人品”坏了,就再也救不回来了。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.