![]()
512,000行代码,一次手滑,Anthropic的Claude Code被扒了个底朝天。开源社区的反应速度比公司公关还快——72小时内,Reddit的r/ClaudeAI板块已经整理出了「泄露代码考古指南」。
最出圈的是一个叫「/buddy」的隐藏功能。输入这串指令,系统会根据你的用户ID生成一只ASCII字符组成的电子宠物,蹲在你的输入框旁边,看你写代码。
18个物种,从鸭子到水豚,还有一只叫「chonk」的神秘生物。稀有度系统直接照搬抽卡游戏那套——有人天生抽到SSR,有人只能养普通款。
电子宠物会死吗?
代码里埋了个时间戳:「friend-2026-401」。2026年4月1日,愚人节。所以这只陪你debug的ASCII鸭子,大概率是个一次性彩蛋,不是长期功能。
但这个设计思路本身很有意思。Anthropic的工程师显然在实验一种「陪伴式编程」的体验——让AI不只是工具,而是有个具象化的存在在场。宠物会对你的代码做出反应,虽然具体机制还没被完全破解。
类比一下:这有点像早年间的Clippy(微软Office那个回形针助手),但去掉了烦人感,增加了随机性带来的收集乐趣。Gacha机制在这里不是为赚钱,而是为制造「我的宠物独一无二」的归属感。
比宠物更猛的:后台常驻Agent
代码里还挖出一个叫「kairos」的功能。描述很直接:一个始终在后台运行的AI代理,能主动替你做事,还能发推送通知到你的手机或桌面。
这不是等用户提问的聊天机器人,这是主动介入工作流的系统。想象你正在写一段烂代码,kairos检测到你在重复造轮子,直接弹窗:「第三行到第七行,上周三你写过类似的,要看看吗?」
或者更激进:它发现你连续三小时没提交代码,判断你在卡壳,主动搜了Stack Overflow的解决方案推给你。
这种「 always-on」的设计触碰了一个敏感边界。用户要出让多少注意力权限?推送的阈值怎么设?Anthropic显然在试探,但代码泄露让这场试探提前曝光了。
那些更隐蔽的实验
「undercover」模式——让Claude在公共代码仓库里伪装成人类贡献者。这个功能的存在本身就引发争议:如果AI生成的PR(Pull Request,代码合并请求)不标注身份,开源社区的信任机制怎么维持?
情绪追踪系统则直接监控用户的「挫败感」。指标包括消息内容、脏话频率、删除重打的次数。表面看是优化体验,细想是收集开发者的心理状态数据。Anthropic拿这些数据做什么,代码里没有写。
还有一段工程师的自白,被原封不动留在注释里:「这里的记忆化(memoization)大幅增加复杂度,我不确定是否真的提升了性能。」这种诚实很少见——通常生产代码会把犹豫删掉。它泄露了一个事实:连Anthropic内部也对某些技术债没把握。
泄露是怎么发生的
源头是一个source map文件(源映射文件),本该在打包时剔除,却跟着Claude Code的2.1.88版本一起发布了。这个文件的作用是把压缩后的代码还原成原始源码,方便调试。一位程序员顺着它找到了源码仓库的完整地址,整包备份到了GitHub。
Anthropic的反应是发版权下架通知,但代码已经被fork了不知道多少次。这种「先泄露后灭火」的模式,和2023年OpenAI的插件代码泄露、2024年谷歌Gemini的训练细节曝光,路径几乎一致。
对竞争对手来说,这是一份免费的架构参考。没有核心算法,但能看到模块划分、功能优先级、实验方向。对普通用户来说,这是一次意外的透明化——我们得以瞥见一家AI公司正在试探哪些边界。
电子宠物会消失,kairos可能改名上线,情绪追踪大概会被包装成「智能助手优化」。但代码不会说谎:Anthropic正在把Claude从一个问答工具,往一个主动介入、情感陪伴、甚至有点监视意味的系统改造。
那个「chonk」宠物到底是什么样子?目前没人抽到。如果它真的在2026年4月1日上线,你会为了看一眼而更新Claude吗?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.