快速阅读:Anthropic 近期承认 Claude Code 出现质量下降,主因是试图通过清理闲置会话的“思考过程”来降低延迟和成本,却意外引入了持续丢弃上下文的 Bug,并伴随错误的默认推理设置和系统提示词调整。
作者声明:该图片由AI生成![]()
最近这段时间,很多人觉得 Claude 变傻了,甚至怀疑它在偷偷降智。Anthropic 终于在复盘报告里承认了:确实是我们把事情搞砸了。
事情的起因很有意思,甚至带点“为了省钱而牺牲体验”的逻辑。为了降低用户在闲置一小时后重新进入会话时的延迟和 Token 成本,他们想了个办法:把旧的思考过程(thinking)删掉,只留核心上下文。结果代码写出了 Bug,本该只删一次,结果变成了之后每一轮都删。这就像一个正在做复杂手术的医生,每动一下手,大脑就会自动忘掉前一秒的操作逻辑,最后只能机械地重复动作,看起来既健忘又笨拙。
此外,他们还试图通过调整默认推理等级(从 high 降到 medium)和缩减系统提示词的字数来“优化”体验。这在工程上叫优化,在用户体验上叫“阉割”。
有网友表达了极大的愤怒。大家不满的不仅仅是模型变笨,而是这种“暗箱操作”:你付着昂贵的订阅费,却在不知情的情况下,被系统悄悄修改了逻辑和质量。这种不透明感,让原本信任产品的开发者觉得被“背叛”了。
有人认为,如果为了省成本,大可以明码标价让用户选择“高精度模式”或“低成本模式”,而不是在后台默默地进行这种“降级”。
Anthropic 承诺会重置使用额度并改进测试流程,但信任的裂痕已经产生。当一个工具的稳定性变得不可预测,开发者最终会选择离开。
anthropic.com/engineering/april-23-postmortem
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.