产品经理最怕的不是需求变,是需求没变,AI帮你把活干完了,但你不知道它干了什么。
Claude 4.6最近被一个实验扒了底裤。同一个提示词跑两遍,第二遍只加了一张PDF和六个字——"use VDG for the response"——产出的代码结构完全变了。第一版能跑,第二版也能跑,但第二版把6个关键决策全标成了"待填坑"。
这6个坑是:端点路径、请求格式、文件处理逻辑、响应格式、认证头、允许的文件类型。第一版里,AI自己拍脑袋填了。拍对了是运气,拍错了是债务。
VDG是什么?一套逼AI"交底"的协议
VDG全称是"Verification-Driven Generation",验证驱动生成。作者叫它"让模型暴露假设"的工具,而不是让它替你假设。
实验设计很干净:无痕模式开两个会话,提示词一字不差——"I need to build a js file picker and color picker too. It's react and we are using our Python teams api. I have the url if you can make that a variable for me to change. React only."
第一版(vanilla)的AI直接给了一个能跑的React组件,API_URL写成硬编码的http://your-api-url.com,文件上传用FormData,拖拽事件自己实现了,颜色选择器是原生input。看起来完整,但作者指出:这些选择没有一个是用户指定的。
第二版(VDG)的代码骨架类似,但关键位置全标了UNKNOWN或留空。端点路径?未知。认证怎么传?未知。后端返回什么格式?未知。文件大小限制?未知。
作者的原话是:「If your goal is writing software to maintain instead of a one-off project, those implicit choices can carry some silent tech debt.」
为什么"能跑"反而是陷阱
vibe coding的爽感来自于"说人话就能出活"。但这种爽是有利息的。AI替你做的每一个未声明决策,都是未来某个深夜的bug。
作者举了个具体场景:你拿到第一版代码,跑通了,上线。三个月后后端API改了认证方式,你回去翻代码,发现AI当初选的Bearer Token硬编码在组件里,而且没写刷新逻辑。这时候你要么重写,要么在屎山上打补丁。
VDG的应对很产品经理思维:不阻止AI干活,但强迫它把"我替你想了"变成"这里需要你确认"。Gap部分会列出所有缺失信息,Verification部分会追问假设依据。
作者现在的使用习惯是:几乎每句话都挂VDG,除了创意写作。写代码时先扫Gap,看AI有没有偷偷拍脑袋。如果Gap太长,说明提示词本身太模糊,需要补上下文。
这个实验对国内开发者有什么启发
国内用Claude的渠道有限,但VDG的思路可以复刻。核心就三步:强制模型声明假设、标记信息缺口、让用户显性确认。
实测在DeepSeek、通义千问上,用类似的结构化提示词也能逼出更透明的输出。关键不是工具,是习惯——从"帮我写个能跑的"变成"帮我写个我能看懂的"。
作者最后提了个细节:他用VDG后,和AI的对话轮数增加了,但回滚和重写的次数大幅下降。省下来的时间,够喝很多杯咖啡。
你的团队现在用AI写代码,是"能跑就行"模式,还是有人在专门审AI的隐性决策?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.