![]()
512,000行代码被拖进 sunlight 的24小时里,一个被藏了150多次引用的系统代号浮出水面。这不是漏洞,是预告片。
2026年3月31日,Claude Code的npm包更新像往常那样静默推送。没人注意到一个调试配置文件的指向偏移——它本不该指向Anthropic云存储里那个未设防的zip包。安全研究员Chaofan Shou发现时,归档里1,906个TypeScript文件已经开始在GitHub上病毒式扩散。
Anthropic的回应很快:"发布打包问题,人为失误,非安全漏洞。"但开发者们已经看到了他们想看的。
藏在编译器后面的"时机之神"
代码里反复出现一个被条件编译包裹的字符串:KAIROS。古希腊语里,这是"恰当时机"的意思,与"chronos"(线性时间)相对——不是钟表上的时刻,而是行动的黄金窗口。
这个命名本身就像产品宣言。KAIROS被设计了150多处引用,却始终没有在正式版本中启用。它是什么?代码片段显示,这是一个让AI主动识别"该说话的时刻"的系统,而非等待用户敲下回车。
换句话说,Claude正在学习一种新礼仪:不打招呼就开口。
这听起来冒犯,直到你意识到人类早就习惯了这种交互。你的手机在检测到车祸时自动报警,你的邮箱把"看起来重要"的邮件置顶,你的银行App在异常消费发生3秒内推送警告。这些都不是你"问"出来的,是系统判断"这时候你该知道"而主动发生的。
KAIROS把这套逻辑搬进了通用AI。不是响应prompt(提示词),而是预判context(情境)。
OpenAI的1220亿押注
同一周,OpenAI宣布了人类历史上最大规模的私募股权融资:1220亿美元。Sam Altman的博客长文里有个细节被多数人忽略——他把这笔钱的主要用途描述为"构建AI基础设施,让通用人工智能造福全人类"。
但结合同期泄露的Operator系统细节,以及ChatGPT最近几个月在"主动建议"功能上的密集迭代,这笔钱的方向更清晰了:OpenAI也在买同一张船票。
两家公司的技术路线截然不同。Anthropic以安全研究著称,Claude的"宪法AI"训练让它在拒绝有害请求时显得近乎迂腐;OpenAI则像一辆加速中的赛车,功能优先,护栏后装。但KAIROS泄露和1220亿融资放在同一个时间窗口,像两个陌生人在黑暗森林里同时打开了手电筒——他们照向的是同一个方向。
这个方向的终点,行业里有各种叫法:"自主智能体""主动式AI""环境计算"。本质都一样:AI从工具变成室友,从"你叫它才动"变成"它觉得该动就动"。
用户还没准备好,产品已经上路
2024年,Rabbit R1和Humane Ai Pin的惨败给行业浇过一盆冷水。两款设备都押注"AI主动服务",结果证明:时机错了,技术也错了。用户不需要一个随时插嘴的硬件,尤其当它听不清、听不懂、还烫手的时候。
但2026年的技术水位不同了。多模态感知、端侧推理、上下文记忆——这些让"主动"从概念变成可行。KAIROS的代码显示,Anthropic正在构建情境触发器:邮件草稿写到第三段时建议收尾措辞,代码调试卡在同一个错误超过5分钟时推送文档链接,日历检测到跨时区会议前自动计算睡眠建议。
这些都不是科幻。它们是现有能力的重新编排,像把散落的乐高块拼成新形状。
风险同样真实。当AI开始替用户判断"什么是重要时刻",它也在替用户定义优先级。你的邮件客户端把某封邮件标为"重要",你可以关闭这个功能;但如果AI助手在你和老板通话时主动插嘴补充数据,你关掉的代价可能是职场信誉。
更隐蔽的问题是训练数据的偏见。KAIROS要学习的"恰当时机",本质上是人类行为的统计规律。谁的行为?哪个文化、哪个阶层、哪个年龄段?代码泄露无法回答这些,但产品发布时必须面对。
两个信号,同一种焦虑
Anthropic的泄露和OpenAI的融资,像同一枚硬币的两面。一面是技术理想主义:让AI更像一个体贴的助手,而非冰冷的工具;另一面是商业现实主义:谁先定义"主动AI"的标准,谁就拥有下一个操作系统的地位。
1220亿买的不只是算力,是用户习惯的重塑权。Windows用图形界面重新定义了"打开电脑"意味着什么,iPhone用触屏重新定义了"使用手机"的边界。主动AI的赢家,将重新定义"使用AI"的默认契约。
当前版本的用户协议里,AI的承诺是"按你说的做"。下一个版本可能是"我帮你看着点"。
这个转变的摩擦成本被低估了。2025年,微软Copilot的"主动建议"功能在内部测试中遭遇强烈反弹——用户形容它像"一个过度热情的实习生, constantly 在你耳边碎碎念"。微软最终把默认设置改为"被动模式",需要用户手动开启主动功能。
Anthropic的安全文化可能让它更谨慎。KAIROS被埋在编译器后面,或许是故意为之:技术先 ready,发布等时机。但泄露事件本身打破了这种节奏。现在全世界都知道了,包括竞争对手。
代码泄露的72小时后,GitHub上出现了多个KAIROS的逆向工程实现。开源社区的速度总是快于公司声明。Anthropic面临的选择变成:抢在粗糙仿制品泛滥前发布官方版本,还是坚持原来的时间表,让市场先被教育一轮?
OpenAI没有这种包袱。1220亿意味着它可以承受几次"发布再修复"的迭代。两家公司的性格差异,正在变成战略差异。
一个值得玩味的细节:泄露代码里,KAIROS的触发条件包含一条"用户情绪状态检测",标注为"实验性,需伦理审查"。代码注释写道:「检测用户是否处于高压力或冲突情境,延迟非紧急通知。」
这条注释没有署名,但语气像是从内部安全评审的会议记录里直接粘贴过来的。它暴露了Anthropic的真实张力——技术已经能做了,组织还在争论该不该做。
这种张力会持续到产品发布的那一天。而那一天,可能比大多数人预期的更近。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.