当全网都在晒Claude Code的"隐藏技巧"时,真正值钱的东西反而没人注意——创始人Boris Cherny亲自下场发了一份配置清单。我按他的方法重设了一遍,发现之前80%的卡顿和无效等待都是自己造成的。
01 | 自动批准:把"安全模式"改成"信任模式"
![]()
Claude Code默认会在每个动作前暂停等你确认。文件编辑、终端命令、依赖安装、网络搜索——全部要手动点一遍。
这个设计很贴心,但Cherny的第一条建议就是:关掉它。
在设置里找到"Auto-approve",勾选所有你信任的类别。日常开发中,反复确认同一类操作纯粹是时间黑洞。Cherny的原话是,这"seriously slow you down"——严重拖慢节奏。
我的实测:一个中型项目的初始化配置,从47次手动确认降到3次关键决策点。省下的不是点击时间,是注意力碎片。
02 | 模型选择:别被"最强"两个字绑架
Anthropic刚推了Opus 4.7,全网都在测它的代码能力。但Cherny的配置里有个反直觉的细节:他不默认用Opus。
他的逻辑很简单——不同任务吃不同资源。简单重构、格式调整、注释补全,用轻量模型足够;只有架构设计、复杂调试、跨文件推理才值得调用Opus。
大多数人犯的错误是"能力焦虑":怕小模型搞不定,全程顶配运行。结果响应慢、成本高,体验反而更差。
Cherny的做法是显式切换。在对话开头告诉Claude"用轻量模式",需要深度时再喊"切Opus"。这种主动调度比自动判断更可控。
03 | 上下文窗口:把"无限记忆"当谎言听
Opus 4.7的上下文窗口确实变大了,但Cherny的第三条建议是给这个能力划边界。
他的具体操作:在复杂项目里,主动用/compact命令压缩对话历史。不是等系统提示窗口满了再处理,而是每隔10-15轮主动整理一次。
为什么?因为模型对早期信息的召回准确率会衰减。你以为它"记得"三小时前的架构决策,实际推理时可能已经权重降低。主动压缩是把关键结论固化成摘要,而非依赖模型的隐性记忆。
另一个细节:Cherny会在压缩前手动标注"保留这段"——用特定格式把核心约束条件框出来。这比指望模型自己判断什么是重点更可靠。
04 | 工具调用:关掉你用不上的那80%
Claude Code集成了大量工具:文件系统、终端、浏览器、代码搜索、LSP支持……默认全开。
Cherny的配置是大幅精简。他的原则是:当前任务需要什么,就只开什么。
纯前端调试?关掉后端相关的工具链。写Python脚本?暂时禁用Node生态的调用。这种"最小权限"不是为了安全,是为了减少模型的决策噪音。
我测试了一个具体场景:让Claude修复一个React组件的样式bug。全工具模式下,它调用了5次文件搜索、2次依赖检查、1次网络查询——全是多余的。精简配置后,直接定位问题文件,3轮对话解决。
模型不会替你判断"这个工具现在没必要"。你得帮它做减法。
05 | 终端集成:把Claude变成真正的Shell搭档
最后一条是Cherny最近才强调的:别只把Claude Code当聊天窗口用。
他的典型工作流是——在终端里用claude命令直接启动,让AI的当前工作目录和Shell环境完全同步。需要查日志?tail -f开着,Claude能实时读到。要跑测试?它知道你刚用的什么参数。
很多人习惯在IDE插件里用Claude,但Cherny认为终端集成才是"原生体验"。上下文共享、环境变量、历史命令——这些隐式信息对代码理解至关重要。
更进一步:他会在复杂操作前用claude --verbose启动,让每一步工具调用都可见。不是为了调试,是为了建立对模型行为的直觉。看多了,你就知道"它接下来可能要干嘛",提前干预或放行。
核心差异:从"用工具"到"调配置"
这五条建议的共同点是什么?都不是"怎么问问题更好"的提示工程技巧,而是对工具本身的底层设置。
普通用户拿到Claude Code,直接开干。Cherny作为创造者,第一件事是调参数、关确认、划边界、做减法。这种"配置优先"的思维,本质是承认一个事实:AI编码工具的效率天花板,不在模型能力,在人和工具的协作协议。
我重设后的直接感受:不是Claude变聪明了,是它变"听话"了——响应更快、动作更准、废话更少。这种体验提升,比等下一个模型版本实在得多。
现在打开你的Claude Code,花10分钟过一遍设置面板。把自动批准打开,把不用的工具关掉,把终端集成跑通。创始人已经告诉你怎么用了,剩下的只是执行。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.