6,852个会话文件,17,871个思考块,234,760次工具调用——AMD AI集团高级总监Stella Laurenzo用这组数字,把Anthropic最不想公开的秘密摊在了阳光下。这不是用户错觉,是实打实的67%思考深度暴跌。
数据不会撒谎:Claude从什么时候开始变懒
![]()
Stella团队的回溯分析覆盖了2月中旬到3月底的完整生产日志。核心指标几乎全线崩塌:思考中位数从2200字符跌至600字符,降幅67%-73%;编辑前阅读文件次数从6.6次锐减到2次;最刺眼的是,三分之一的代码修改完全不读文件就直接动手。
「当思考流于表面时,模型会默认采取成本最低的操作。」Stella在分析中写道。这句话精准描述了Claude的行为退化——不是模型变笨了,是它在主动选择更省力的路径。
开发者社区的抱怨比数据公开早了整整一个月。3月初,X上有用户写道:「我还以为最近几周是我自己疯了。它感觉更慢、更懒,像回答前就不思考了」。Reddit上的反馈更尖锐:「Claude感觉没那么有意识了,像被做了脑叶切除术」。
这些声音当时被当作个别案例 dismissed,直到Stella用企业级生产数据完成了实锤。
Anthropic的隐蔽开关:adaptive thinking 到底是什么
时间线需要倒回2026年1月。Claude Opus 4.6和Claude Code发布时,Anthropic几乎收获了开发者圈的集体赞誉。AMD内部团队曾用它在周末完成19万行遗留代码的全量merge,生产力工具的属性被拉满。
转折点出现在2月底。Anthropic低调上线「adaptive thinking」功能,官方话术是「让模型根据任务复杂度智能调整思考深度」。听起来是用户体验优化,实际效果是全局节流开关的启动。
3月初的两个关键动作几乎同时发生:模型默认effort值被悄然降至medium;思考过程摘要被快速隐藏,用户再也无法直观判断模型到底想了多深。同一时期,Anthropic连续发布14个小版本更新,却遭遇5次大规模宕机——算力负载已经逼近物理极限。
高峰期表现差异开始被用户捕捉。美东下午时段,Claude的响应质量和深度明显下滑,怀疑是动态负载节流的声量逐渐升高。但Anthropic始终保持沉默,没有任何提前公告,付费用户的订阅费用一分没少。
直到4月初Stella的数据公开,Claude Code负责人Boris Cherny才被迫回应。他的核心论点:「adaptive thinking影响的是thinking的显示,而不是底层推理」,并强调这是「有意优化」而非bug。解决方案?手动把effort调到high。
翻译一下:降智是我们特意做的,不是故障,想恢复性能自己调参数。
商业模式的裂缝:42,121美元 vs 400美元
Stella的测算暴露了一个残酷数字:按AWS Bedrock的on-demand定价口径,她团队3月的实际推理成本约为42,121美元,而同月实际支付的Claude Code订阅费只有400美元。差额超过100倍。
这个缺口揭示了AI行业补贴期的本质。Anthropic用资本烧钱换取市场份额,但补贴有边界。当重度用户的推理消耗突破阈值,商业模式的可持续性就开始动摇。
Boris Cherny的回应中藏着一个关键信号:Anthropic正在测试为Teams和Enterprise用户默认开启high effort模式。更强的推理能力,正在被重新定义为更昂贵的分层资源,不再是默认平等提供的基础服务。
企业级API与消费级订阅的行为差异已经被开发者验证。「Claude企业版API的表现比Pro/Max订阅好得多。用同一个测试框架测试,企业版和Pro/Max的行为方式就是不一样。但这也意味着现在每个月要花4-12k美元」——一位开发者的实测反馈。
Anthropic 80%营收来自企业服务和API调用,这个结构决定了战略优先级。当下所有动作都指向同一个目标:把高价值B端客户收拢到第一方平台,为支付真实成本的企业提供完整模型能力。
C端月付用户的定位随之清晰:满足聊天、写文案、代码补全等轻量化需求,但绝不触及成本红线。中间地带的独立开发者和小型团队——既需要复杂推理、又无力承担企业定价——将成为最受挤压的群体。
行业剧本:从普惠神话到精英分层
Claude的降智绝非孤例。OpenAI对GPT系列的多次暗地缩水、Google对Gemini的静默限流,都在重复同一套剧本:先用高性能吸引用户,再通过软件节流控制成本。
结果已经显现:B端用高价购买更强模型加SLA保障,C端拿到蒸馏版、低effort版的平民模型。Anthropic等厂商正在以难以察觉的方式降低推理预算,普通用户不会收到任何系统提示。
短期看,这缓解了算力成本压力。长期代价是品牌信任度的慢性流失。当「Claude会偷偷降智」成为用户共识,Anthropic失去的不只是几个重度用户,而是整个生态系统对AI普惠、透明叙事的信心。
更深层的转折在于:AI行业正在从野蛮生长进入精耕细作阶段。补贴期结束了,真实成本开始显现。谁来承担这些成本?是压缩C端体验、提高B端定价,还是等待软硬件革命带来效率突破——这个选择将决定未来五年AI应用的格局。
Claude事件是一个清晰的信号:AI不再是越来越聪明的普惠神话,能力分层已经成为商业现实的默认设置。当模型开始「看人下菜碟」,我们是否需要重新设计一套更透明的能力披露机制,让用户知道自己到底在为哪一层的智能付费?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.