4月16日,Anthropic发布Opus 4.7的同一天,Claude Code的缔造者Boris Cherny在Threads上丢出一组配置建议。没有营销话术,更像一个老工程师在冲刺前给团队做briefing。这些建议被他团队验证过数千小时——不是社区偏方,是创造者级别的意图。
为什么Opus 4.7需要新玩法?
![]()
三个底层变化让旧习惯失效。
第一,自适应思考替代固定预算。Opus 4.6给每个任务硬塞固定推理token,4.7按实际复杂度动态分配。第二,更字面化。4.6会脑补你没写的隐含上下文,4.7执行你写的字面意思。第三,默认启用xhigh effort级别——比high更深,但没有max的token失控风险。
结果是:带结构来,它放大结构;带模糊来,它返还模糊。准备度决定产出质量。
秘密一:开启自动模式,把AI从"同事"变成"员工"
以前的Claude Code每遇到权限外命令就暂停。npm run build、git commit、数据库查询——全要等你点头。安全是对的,但监督成本太高。
自动模式用模型分类替代硬规则。低风险操作(读文件、跑测试、查git状态)直接执行;真正危险的操作(删文件、推远程、改系统配置)才暂停。安全在关键处兜底,无摩擦在别处放行。
开启方式:CLI按Shift+Tab,或Claude Desktop/VS Code下拉菜单。
生产力差异很直观。现在可以丢一个完整需求——"实现用户认证流程,包含测试"——然后离开。回来时PR已就绪。
秘密二:用todo命令做"思维锚点"
Boris团队内部高频使用/todo。不是任务清单,是给Claude的认知脚手架。
具体用法:启动会话时先跑/todo,列出当前任务的子步骤。Claude会把它当作执行蓝图,自动跟踪进度、标记完成项、在偏离时自我纠正。
这和普通提示词的区别在于状态持久性。普通对话里,Claude会随token窗口膨胀而丢失早期上下文。/todo把计划外化为可检查的状态,相当于给AI一个不会遗忘的记事本。
更进阶的玩法:让Claude自己生成todo。输入"先分析代码库,然后给我个执行计划",它会返回结构化步骤,你再确认或调整。人机协作的决策点前置,执行期减少来回。
秘密三:强制Claude先读再写
Opus 4.7的字面化特性有个副作用:它不再主动"做功课"。如果让它直接改文件,它可能基于过时或片段的理解动手。
Boris的解法:在提示词里嵌入读取指令。明确说"先读src/auth.js和tests/auth.test.js,再提出修改方案"。
这个模式可以标准化。团队内部把常用文件路径做成快捷指令,比如@auth代表那组关键文件。Claude Code支持用@符号引用代码库中的符号、文件或目录,相当于给AI一个快速检索的索引。
关键认知:4.7的"懒"是设计选择,不是缺陷。它把信息获取的主动权交还给你,换取执行的可预测性。适应这个变化的人,获得的是确定性;抗拒的人,得到的是惊喜(通常是坏的)。
秘密四:用max effort处理真正的难题
Opus 4.7有四个effort级别:low、medium、high、xhigh(默认)、max。
前四个的边界比较模糊,但max是质变。它会激活更深入的自我批评、多路径探索、更谨慎的验证循环。代价是token消耗可能翻倍,响应时间明显延长。
Boris的建议:把max当作"咨询专家"而非"日常工具"。架构决策、复杂重构、关键bug修复——这些场景值得启用。常规CRUD操作用默认xhigh足够。
一个实用技巧:在提示词里动态切换。先让Claude用默认级别分析,如果它返回"这个问题需要更深入推理",再追加"用max effort重新处理"。这比全程max更经济。
秘密五:让Claude管理自己的上下文
长会话的上下文污染是隐形杀手。Claude会逐渐被早期错误假设绑架,或在多次修正后累积矛盾指令。
Boris团队的解法:定期让Claude自我总结。输入"总结我们目前的进展和待解决问题",它会输出当前状态的快照。用这个快照开启新会话,相当于人工checkpoint。
更激进的版本:让Claude主动提议重置。配置里可以启用"上下文健康检查",当模型检测到自身状态可能混乱时,建议用户开启新会话并携带摘要。
这和人类团队的管理逻辑一致——马拉松会议效率崩塌,站会和清晰交接更可持续。
秘密六:把测试当作契约,不是验证
传统TDD:写测试→看失败→写代码→看通过。Claude Code可以反转这个流程。
Boris的做法:先让Claude读现有代码,然后"为这段代码生成测试,假设它是正确实现的"。Claude会输出测试用例,这些用例反过来成为代码行为的显式契约。
好处在于发现隐性假设。人类写测试时,往往复制代码里的隐含逻辑。Claude作为"天真的阅读者",会提出"如果输入是负数该怎么处理"这类被忽视的问题。
进阶玩法:让Claude对比代码和测试的覆盖缺口。"这些测试是否验证了所有分支?哪些边界条件缺失?"把它当作一个不会疲倦的代码审查员。
秘密七:建立个人命令库
Claude Code支持自定义斜杠命令。Boris团队把重复模式固化成可复用工具。
典型例子:
/refactor 安全重构模式:先读→分析依赖→生成测试→应用变更→验证
/explore 新代码库速览:目录结构→关键文件摘要→依赖图→热点识别
/debug 系统诊断:错误日志→相关代码→假设生成→验证实验
这些命令的本质是工作流的编码。把隐性经验变成显式步骤,降低团队成员的认知负荷,也确保Claude的输出质量稳定。
创建方式:在配置目录添加.claude/commands/目录,每个命令是一个描述文件+可选的模板提示词。
一图拆解:7个秘密的层级关系
这7条不是平行技巧,是分层架构。
底层是模式一(自动模式)和模式五(上下文管理),解决"让AI持续运转而不崩溃"的基础问题。中层是模式二(todo)、模式三(先读再写)、模式四(effort分级),解决"给定任务如何高质量完成"的执行问题。顶层是模式六(测试契约)和模式七(命令库),解决"经验如何沉淀复用"的组织问题。
单人开发者可以只取底层和中层,已经能大幅提升效率。团队场景则需要顶层,把个人最佳实践变成集体资产。
一个被忽视的隐含信息
Boris的帖子有个细节:他提到这些配置"his own team uses daily"。
注意主语——不是Anthropic的ML研究团队,是Claude Code产品团队。这意味着什么?构建AI工具的人,自己也在用这些工具开发。他们面临的约束和外部开发者一样:上下文窗口、token成本、响应延迟、质量波动。
这解释了为什么这些建议如此"接地气"。没有论文引用,没有架构蓝图,是实战中的摩擦点被逐个打磨后的产物。自动模式的权限分类、todo的状态持久化、effort级别的成本权衡——都是产品团队自己踩过坑后的补丁。
另一个观察:7条建议里没有一条涉及提示词工程(prompt engineering)的修辞技巧。没有"扮演资深工程师"的角色设定,没有"一步步思考"的咒语。Boris的假设是:结构比措辞重要,准备比灵感重要,系统比单次交互重要。
这和Opus 4.7的设计哲学一致。自适应思考、字面化执行、分级effort——模型本身就在奖励结构化输入,惩罚模糊期待。
对开发者的实际影响
短期:配置调整成本。评估现有工作流,识别哪些环节可以交给自动模式,哪些需要保留人工检查点。预计1-2周的适应期,之后效率曲线陡峭上升。
中期:技能迁移。从"和AI对话"转向"设计AI工作流"。重点不再是单次提示词的质量,是会话结构、状态管理、错误恢复的设计能力。这和从写脚本到写系统的跃迁类似。
长期:团队契约。自定义命令库成为新型代码资产,需要版本控制、文档、评审流程。AI辅助开发的成熟度,可能从个人技巧差异转向组织能力建设。
一个具体预测:未来6-12个月,"AI工作流工程师"或类似角色会在中大型技术团队出现。职责不是写模型,是设计人机协作的接口和协议。Boris的7条建议,可以看作这个角色的早期岗位描述。
最后的问题
Boris的帖子发布于Opus 4.7上线当天。这是巧合,还是刻意的产品节奏?
如果是后者,意味着Anthropic开始把"开发者最佳实践"当作产品发布的一部分。不是扔一个模型出来让社区自己摸索,而是配套提供经过验证的使用模式。这和早期大模型"黑箱+提示词黑客"的发布方式很不同。
更深一层:当AI工具的创造者开始系统性地输出"如何用好这个工具",是否暗示工具本身的易用性天花板已经显现?或者说,模型能力的提升速度,开始超过用户学习曲线的适应速度,需要官方介入来弥合差距?
你现在的Claude Code配置是什么状态——还在默认设置里摸索,还是已经有一套自己的自动化流水线?如果Boris明天再发7条,你最希望听到哪类场景的建议?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.