![]()
新智元报道
编辑:元宇
【新智元导读】Opus 4.7发布48小时,口碑两极撕裂。官方榜单并列全球第一,逻辑推理公开测试却从94.7%暴跌到41.0%。token消耗涨了35%,旧接口直接报错,用户集体控诉「更贵、更蠢、更爱顶嘴」。Anthropic到底升级了什么,又搞砸了什么?
「4.6根本没法用,4.7的消耗速度像核反应堆一样。」
Opus 4.7发布后,一位Reddit用户在Anthropic官方帖子下的留言。
不是玩梗,是真心话。
![]()
一篇「Claude Opus 4.7是严重倒退,不是升级」的Reddit帖子迅速冲上3000赞。
还有人晒出截图,说4.7连strawberry里有几个字母都答不对。
![]()
更别说「擅改简历编造学历和姓氏」,回复用户「我懒得做交叉验证」,以及「三问就撞限额」这些网友热门槽点了。
《Pragmatic Engineer》作者Gergely Orosz试用之后,形容这个模型「出人意料地带攻击性」,然后宣布放弃,换回了4.6。
![]()
这边骂声还没散,那边一组数据却指向了相反的方向。
Artificial Analysis给Opus 4.7的Intelligence Index打了57分,和GPT-5.4、Gemini 3.1 Pro并列全球第一。
创业者Jeremy Howard形容它是「第一个真正懂我在工作时到底在做什么的模型」,Y Combinator CEO Garry Tan正在拿它做项目。
还有网友说,Claude Opus 4.7 已实现通用人工智能(AGI)。
![]()
同一个模型,有人看到了AGI的影子,有人觉得自己的工作流炸了。
上线两天,Opus 4.7就把AI社区撕裂了。
用户为什么炸了?
拆开看,用户的怒火集中在三个点上,每一条都戳中了重度用户的命门。
第一,代码能力断崖式下滑。大量开发者反馈,从4.6升级到4.7之后,之前能稳定完成的编程任务开始频繁出错。
而且都是日常工作流里的核心操作:代码补全变迟钝,上下文理解出现退化,复杂逻辑链的推理明显变弱。
代码能力是Opus系列的王牌,现在王牌出了问题,反弹自然最猛。
一位Reddit用户说,他用一个已知答案的长重构任务做回归测试,结果模型自信地改挂了3个原本在4.6下能通过的测试,只能回滚。
![]()
评论区涌入上百条类似经历。
第二,推理质量的倒退。
不是速度慢了那么简单,是思考深度出现了可感知的退化。以前能一步到位的复杂问题,现在需要反复追问、手动引导。
这个剧本AI行业并不陌生。去年GPT-4 Turbo闹出的「降智」风波几乎一模一样:跑分提升了,体验却下来了。
第三,花更多钱,体验更差。
Opus本身就是Anthropic最贵的模型。
重度用户每月的API账单不是小数目。花了更多的钱、升了更新的版本、得到的却是更差的体验,愤怒就不只停在技术层面。
benchmark更强了
但用户不买账
面对反弹潮,Anthropic的回应速度不算慢。
Anthropic在官方迁移指南中指出,Opus 4.7 相比4.6存在若干行为变化,同时也强调,Opus 4.7仍是其当前综合能力最强的通用可用模型,在长周期智能体任务、知识型工作、视觉任务和记忆任务方面表现尤为出色。
![]()
Artificial Analysis的多维评测结果也摆在那里,Opus 4.7在数学推理、多语言理解、长上下文处理,多个维度的得分创下新高。
![]()
Artificial Analysis评测显示,Opus 4.7(max)以57分并列榜首,与Gemini 3.1 Pro Preview、GPT-5.4并列。
GitHub上的NYT Connections Extended基准测试也给出了顶级排名。
Anthropic的逻辑并不难理解:大模型迭代必然涉及能力再分配。有些维度提升了,有些维度就可能出现回退,这是工程上的取舍。
但用户不看这个,只看自己手里的活干不干得动。
价格没涨
但账单涨了
Anthropic没有调价,每百万token的单价和Opus 4.6、4.5完全一样。
但官方迁移指南里写道:新分词器(tokenizer)在处理相同文本时,token用量大约可能达到原来的1.0倍到1.35倍。
![]()
什么意思?你昨天用4.6跑一段prompt花10美元,今天换4.7跑同一段prompt,可能要花11到13.5美元。
单价没变,但同样的活儿吃掉了更多token。Claude Code创建者Boris Cherny随后在X上表示:
Opus 4.7消耗更多thinking token,所以我们已为所有订阅用户提高了速率限制,来补偿这一点。
但具体提高了多少,没有公布。
![]()
模型没蠢
但工作流炸了
如果你是Claude的重度开发者,4.7上线那天你可能遇到了这样的事情:
代码里写了thinking={"type": "enabled", "budget_tokens": 32000},用来控制模型的思考预算。
在4.6上跑得好好的。换成4.7,直接返回400错误。没有弃用过渡期,没有兼容模式,直接报错。
官方迁移指南解释了替代方案:改用thinking={"type": "adaptive"}加上新的effort参数。
![]()
但大多数开发者不会在模型发布当天去读迁移指南。
他们做的第一件事是把模型名从4.6换成4.7,然后发现一切都不工作了。
更隐蔽的变化是thinking内容现在默认隐藏。
4.6时代,模型的思考过程默认展示摘要版。到了4.7,默认变成「省略」。响应里的thinking区块看起来是空的。
但你仍然在为这些看不到的thinking token全额付费。
Anthropic官方原话:省略只会降低延迟,不会降低成本。
这就像你点了一份套餐,服务员说「为了加快上菜速度,我们不给你看菜了,但你还是得付全款」。
「顶嘴」不是bug
网友一个最强烈的吐槽,是说4.7变得「combative」(带攻击性)。
不少开发者反映,4.7会拒绝执行它认为有问题的指令,语气也比4.6硬了不止一个档次。
关于这个问题,Anthropic官方迁移指南里有一句很关键的话:
Claude Opus 4.7会以更字面、更明确的方式理解提示词。
也就是说:4.6会「猜你的意思」,4.7会「照你说的做」。
如果你的prompt本来就写得含糊,4.6可以帮你脑补了,但4.7不会。对于一部分用户来说,这叫「不听话」,但对另一部分用户来说,这叫「终于不乱猜了」。
比如,Cursor设计师Ryo Lu却在用4.7做产品规划,认为这种精确执行正是他需要的。
因此,「顶嘴」这个标签背后,是Anthropic正在把Claude从一个「顺从的助手」改造成一个「更有主见的同事」。
据Artificial Analysis的公开评测,Opus 4.7在GDPval-AA上拿到1753 Elo,领先第二名79分。
GDPval-AA衡量的是模型在44种职业、9个主要行业的真实知识工作任务中的表现,在这个维度上,4.7碾压了所有对手,包括自己的前代4.6(1619 Elo)。
同时,4.7的幻觉率比4.6下降了25个百分点,降到了36%。
它是怎么做到的?据Artificial Analysis的分析,主要是依靠「更频繁地选择不作答」,宁可说「我不知道」,也不瞎编。
这说明Anthropic的意图不在于优化Claude的聊天体验,而是在优化Claude的工作能力。
![]()
Opus 4.7在GDPval-AA上以1753 Elo登顶,领先第二名79分。这项测试衡量的是AI在44种职业中独立完成知识工作的能力。
但对于用户来说,在一些场景下可能完全感受不到提升,反而先感受到了token变贵、接口报错和语气变硬。
94.7%暴跌到41.0%
如果上面三层问题都能归结为「迁移成本+使用习惯错位」,但还有一组数字没法用迁移成本解释。
GitHub上公开维护的NYT Connections Extended基准测试,使用940道《纽约时报》Connections谜题评估大语言模型的逻辑推理和抗干扰能力。
这个测试通过额外加入干扰词来提升难度,已经是社区公认的高难度benchmark之一。
![]()
NYT Connections Extended排行榜。Opus 4.6(high reasoning)得分94.7%,Opus 4.7(high reasoning)仅41.0%,同一测试上出现断崖式暴跌。
结果是:Opus 4.6(high reasoning)得分94.7%,Opus 4.7(high reasoning)得分41.0%。
从年级第一,跌到不及格。
另一份数据来自Anthropic提供的Opus 4.7 System Card中100万token上下文的MRCR v2基准测试:4.6得分78.3%,4.7得分32.2%,下跌46个百分点。
![]()
https://cdn.sanity.io/files/4zrzovbb/website/037f06850df7fbe871e206dad004c3db5fd50340.pdf
这组数据方向与NYT Connections的结论一致:在某些逻辑推理和长上下文检索任务上,4.7确实出现了显著退步。
但也需要说清楚:这些是特定类型的测试。它们不能证明4.7「全面变蠢」,就像GDPval-AA的领先不能证明4.7「全面变强」一样。
用户耐心
开始倒计时
Opus 4.7的争议不是个案。
OpenAI经历过GPT-4 Turbo降智风波,几个月前撤下GPT-4o时也遭遇过类似的用户反弹。现在Reddit上已经出现了「哀悼」Claude 4.5的帖子,满是自称「心碎」的粉丝。
![]()
每一次模型升级,都有一批用户失去已经适应的工具。
新分词器让旧的成本预算失效;新的默认行为让旧的prompt不再好用;新的接口规范让旧的代码直接报错……
每一项单独看都有技术上的合理性,但叠在一起,就是把全部迁移成本一次性推给了用户。
为什么模型越来越聪明,用户越来越焦虑?因为每一次「更好」,都意味着推翻上一次的「刚好」。
Anthropic员工Alex Albert在发布次日写道:
很多人在昨天刚开始体验Opus 4.7时可能遇到的bug,现在都已经修复了。感谢大家的包容和耐心。
![]()
bug可以修。但信任这种东西,消耗容易,重建很慢。
这轮AI军备竞赛的下一个瓶颈,也许不只是算力和数据,还要比谁能在快速迭代的同时,能不把自己的用户甩下车。
这次,Anthropic发布了迁移指南,但用户更想要的是一个承诺:升级不能把原有的工作流推倒重来。
当AI从玩具变成生产力工具,「快速迭代」就不再是无条件的优点。
Opus 4.8会怎么来?Anthropic还没说。
但用户的耐心,已经开始倒计时了。
参考资料:
https://www.businessinsider.com/anthropic-claude-opus-4-7-backlash-tokens-2026-4
https://medium.com/vibe-coding/opus-4-7-is-the-worst-release-anthropic-has-ever-shipped-12772c21ca1e
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.