![]()
去年Anthropic的Claude(克劳德)刚突破100万token上下文窗口时,我像个拿到新玩具的孩子——然后迅速把它用成了高级版百度。单句提问,单句回答,循环往复。直到某天我发现,同样的问题,同事用Claude能跑出我三倍的信息量。
差距不在工具,在对话方式。
从"搜索框"到"协作伙伴":我的第一个转变
最初我的提示词长这样:"总结这篇论文。"Claude确实总结了,但是那种放之四海皆准的废话,和我自己扫一眼摘要没区别。
现在我会写:"你是这篇论文的审稿人,找出3个方法论缺陷,并说明如果2024年重做这项研究该怎么改。"
角色扮演(Role-playing)不是花哨技巧,是给AI一个思考坐标系。当你说"你是资深产品经理",Claude调用的不是人设皮肤,而是一整套决策权重——它会自动优先用户留存而非技术炫技,会警惕需求文档里的伪需求。
这个改动 alone 让我的行业分析报告深度翻倍。以前我需要手动追问"还有吗",现在Claude会主动列出"你可能遗漏的3个视角"。
把"怎么做"换成"为什么不做"
人类有个坏习惯:问AI"怎么写爆款标题",得到10个平庸答案,再挑一个勉强用。
我反过来用:先让Claude当反对者。"给我5个不做X的理由,每个理由配一个真实案例。"等它把坑都挖完了,我再问"基于这些风险,设计一个规避方案"。
这套"反向提示"(Negative Prompting)帮我避过至少两次重大失误。一次是策划线下活动,Claude列出的"场地不可抗力"条款里有一条"暴雨导致地铁停运"——我查了历史天气数据,确实在雨季,最终加了线上备选方案。活动当天北京暴雨红色预警,备用方案启动。
普通用户把AI当答案机,高手把AI当压力测试员。
上下文窗口:百万token不是让你存小说
Claude的100万token上下文窗口(Context Window)常被误解为"能扔进去整本书"。确实能,但这么用的人都在抱怨"AI后面忘了前面"。
我的用法是结构化投喂:先扔框架,再填血肉,最后要交叉验证。
具体操作:第一轮只给目录和核心论点,让Claude生成"如果我是作者,我会怎么展开每一章";第二轮把完整内容分段放入,让它对比"实际写法 vs 预期写法"的差异;第三轮针对差异点追问设计意图。
三轮回合下来,我对一本300页技术手册的理解深度,超过之前通读两遍。时间从6小时压缩到90分钟。
Anthropic的产品文档里其实埋了线索:上下文窗口的设计初衷不是存储,是维持长程一致性(Long-term Coherence)。你得帮AI建立记忆锚点,而不是考验它的记忆力。
用"格式暴力"打破AI的敷衍
Claude有个隐秘特性:它对输出格式极度敏感。你说"分析一下",它给你段落;你说"用表格对比A和B的5个维度",它立刻进入结构化模式。
我发展出一套格式组合拳:
• 强制编号:每个观点必须带序号,防止AI合并相似项偷懒
• 字数锚定:"每个点不超过20字"比"简洁点"有效10倍
• 视觉标记:用→、vs、⚠️等符号强制建立逻辑关系
最狠的一招是自我评分:让Claude给每个回答质量打1-10分,低于8分的自动重写。这个设计逼它进入元认知(Metacognition)模式——不是机械输出,而是先判断"这个答案我满意吗"。
有个细节很有意思:当我要求评分时,Claude偶尔会写"这个回答我打7分,因为第三点论据不够扎实,建议补充2023年后的行业数据"。它开始自我修正了。
链式提示:把一次对话拆成生产线
新手追求"一句话解决所有问题",结果得到面面俱到的平庸。我把复杂任务拆成5-7个连续提示,每个只解决一个子问题。
以写产品需求文档为例:
提示1:定义用户画像,只输出3个核心标签
提示2:基于标签,列出5个未被满足的需求,按痛点强度排序
提示3:针对 top 2 需求,各设计一个功能假设
提示4:评估两个假设的开发成本 vs 用户价值
提示5:选择胜出方案,输出PRD框架
提示6:为PRD写一段"如果失败,最可能是因为什么"的复盘
提示7:把以上所有内容整合成一份文档,保留决策痕迹
链式提示(Chain Prompting)的核心不是分步,是建立可追溯的决策链。第7步的整合文档里,你能看到"为什么选A而不是B"的完整逻辑——这比直接生成PRD有价值得多,因为三个月后你自己都忘了当初怎么想的。
我的时间节省主要来自这里:以前写PRD要反复推翻重来,现在决策质量 upfront 就高,返工率从60%降到10%。
让AI"说人话"的隐藏开关
Claude默认输出有种"好学生作文"腔——结构工整,用词谨慎,读完留不下印象。我花了两周调试,找到两个破解方法。
第一,指定具体的人。"解释给产品经理听"太虚,"解释给刚被裁员、正在考虑转行的35岁互联网运营听"——Claude立刻切换语气和案例库。
第二,强制使用原始素材。我会在提示里塞一段目标用户的真实聊天记录或访谈原话,要求"模仿这个说话风格,但把技术概念讲清楚"。
有个案例:我要写一份AI工具的用户教育文案。先给了Claude 20条用户反馈截图,有骂的、有困惑的、有惊喜的。然后要求"用用户B的吐槽风格,回应用户C的困惑"。
成品读起来像社区里的真实对话,而不是官方FAQ。上线后这个板块的跳出率下降了34%。
最后一个转变:从"问问题"到"设计对话"
这7个技巧里,最反直觉的是这个——最高效的AI使用,发生在提问之前。
我现在花15分钟设计提示词结构,再开始对话。这15分钟包括:定义成功标准("好的输出应该让我能直接发邮件")、预判AI的偷懒模式(它可能会漏掉X,我要在提示里堵上)、设计验证环节(如何让输出可检查)。
这种前置设计让单次对话时间变长,但总任务时间大幅缩短。因为减少了"不对,重来"的循环。
我的周度数据:以前和Claude对话约40次,每次3-5分钟,总产出零散;现在对话12-15次,每次15-20分钟,直接产出可用文档。净节省时间约10小时——主要来自减少返工和后期编辑。
有个产品经理同行问我:这些技巧迁移到ChatGPT或Gemini(谷歌的AI模型)有效吗?部分有效,但Claude的"思考深度"对提示设计更敏感。同样的角色扮演提示,Claude会主动追问边界条件,其他模型往往直接给答案。
这或许是Anthropic刻意的设计选择:不优化"首次回答满意度",而是奖励"愿意投入时间调教的用户"。
你现在的Claude使用方式,是更接近"高级搜索框",还是已经摸索出自己的协作模式?如果每周能多省出5小时,你会优先投入在哪个环节的前置设计上?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.