![]()
51.2万行源代码被意外打包进安装包,Anthropic的Claude Code在2.1.88版本更新后"裸奔"了数小时。这不是黑客入侵,是一个人类工程师的打包失误——但泄露的内容足以让竞品工程师熬夜研读。
泄露了什么:从电子宠物到永不下线的Agent
用户在X平台率先发现异常:安装包内竟包含完整的TypeScript源码映射文件。Reddit用户随后扒出更多细节——一个名为"Tamagotchi-style pet"的功能模块,会在输入框旁养一只虚拟宠物,"对你的代码做出反应"。
更重磅的是"KAIROS"功能。代码显示这可能是一个常驻后台的Agent(智能体),无需用户主动触发即可持续执行任务。Anthropic今年2月才发布Claude Code,3月刚加入Agentic能力,KAIROS的出现暗示其野心不止于"你问我答"的交互模式。
泄露的代码还暴露了Anthropic工程师的真实吐槽。一处注释写道:"这里的记忆化(memoization)大幅增加了复杂度,我不确定是否真的提升了性能。"这种内部人的自我怀疑,比任何公关话术都真实。
Anthropic的回应与GitHub上的5万次分叉
![]()
Anthropic发言人Christopher Nulty向The Verge声明:"没有敏感客户数据或凭证泄露,这是人为失误导致的打包问题,并非安全漏洞。"修复来得很快,但为时已晚——代码已被上传至GitHub,截至目前收获超过5万次分叉。
这个数字意味着什么?每个分叉都是一份独立拷贝,理论上永远无法彻底删除。竞品公司、独立开发者、安全研究者,现在人手一份Anthropic的内部架构。
Gartner分析师Arun Chandrasekaran认为风险可控:"主要风险是给恶意行为者提供绕过防护栏的线索,但长期影响有限——更像是催促Anthropic在运营成熟度上加大投入的警钟。"
代码泄露的悖论:透明化是诅咒还是祝福
讽刺的是,Claude Code本身就是一款帮开发者读代码的AI工具。它的设计哲学是"让AI理解你的代码库",结果自己的代码库先被人类读了个透。
泄露的指令集(prompt engineering)尤其珍贵。这些文件揭示了Anthropic如何"调教"Claude:什么该说、什么该拒绝、如何平衡 helpfulness 与安全性。对AI研究者而言,这比任何学术论文都直接。
![]()
但记忆架构(memory architecture)的曝光可能带来更深远的影响。Claude Code如何处理跨会话的长期记忆、如何权衡存储成本与用户体验,这些商业敏感信息如今暴露在竞争对手眼前。
从Leak看行业:AI公司的运营成熟度缺口
这不是AI巨头第一次栽在基础流程上。2023年三星员工误将机密代码输入ChatGPT,导致核心数据流入OpenAI训练池;2024年谷歌Gemini的提示词泄露事件同样源于配置失误。
Anthropic以"AI安全"著称,创始人Dario Amodei多次公开呼吁谨慎开发。但安全文化似乎没完全渗透到发布流程——一个source map文件就能让51万行代码外泄,说明内部检查清单存在盲区。
Chandrasekaran的"运营成熟度"评价很克制。翻译一下:当AI公司把90%精力投入模型训练,剩下的10%留给工程基础设施时,这种事故会反复发生。代码可以迭代,但信任一旦流失,召回成本指数级上升。
GitHub上那5万个分叉不会消失。它们像散落的拼图,等待有人拼出Anthropic的技术路线图。而那个会对你代码"做出反应"的电子宠物,或许正在某个开发者的本地环境里提前出生——比官方发布早了不知道多少个月。
当AI工具开始帮你写代码,谁来检查AI工具自己的代码?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.