「代码生成快了10倍,但代码审查还是原来的速度。」一位技术负责人的吐槽,道出了氛围编程(vibe coding)从尝鲜走向量产后的核心矛盾。
前两部分谈的是"Day 1"——怎么开始用、怎么让团队上手。这篇聊"Day 2":当AI写代码成为常态,什么东西会崩。
![]()
审查队列爆炸:AI写得越快,人卡得越死
一个工程师用AI一天能产出数千行代码。但代码审查这道关卡,多数公司不会撤。
结果很直观:更多提交、更多PR、更多代码涌进审查队列。审查本来就是很多工程师的痛点,AI把这个痛点放大了。
一位大企业的技术负责人告诉我,他的团队开始对AI产生不信任——不是因为AI写不出合格代码,而是工程师直接把AI输出丢上来,自己一眼没看。PR成了第一次有人认真审视这些代码的地方。
资深工程师现在面临一个实操难题:还要像过去那样逐行抠吗?5000行的AI生成代码,逐行审太耗时间;但草草扫过又觉得不负责。
解法指向CI/CD自动化。CodeRabbit、Greptile、Cursor的Bugbot、Anthropic的Claude Code review这类AI代码审查工具,能抓风格问题、明显bug、缺测试等表层问题。它们替代不了人审,但能缩小资深工程师必须手动覆盖的范围。
不过这些工具也有噪音。和我聊过的工程师反馈,确实能发现真问题,但假阳性也不少。需要指导初级工程师学会分辨。
账单刺客:token费用从"零头"变"惊喜"
个人用AI写代码,token成本几乎无感。团队规模化后,账单结构变了。
没人盯着的话,月度费用可能突然跳到一个需要解释的数值。更麻烦的是,这个成本和使用方式强相关——哪个团队在用、用得多激进、有没有人在循环调用,差异很大。
建议的起点:按团队或项目拆分可见性。不是为了让谁背锅,而是让用的人知道自己花了多少。很多人根本没概念。
代码所有权模糊:三个月后看不懂自己"写"的代码
工程师反馈很常见:AI生成的代码,过段时间回来,自己也不认识。不是风格问题,是逻辑路径——当时为什么这样设计、有没有考虑过替代方案,这些信息没留下来。
这直接影响维护成本。传统代码里,注释和提交历史至少能追思路。AI批量生成的代码往往缺乏这些上下文。
一个可操作的起点:强制要求工程师在提交前用自己的话写一段设计说明。不是给管理层看,是给三个月后的自己看。这也能倒逼工程师在让AI写之前,先想清楚要做什么。
资深工程师被困在审查席
AI让初级工程师产出代码的速度接近资深者,但代码质量的差距没有缩小。结果是:资深工程师越来越多时间花在审查别人(和AI)的代码上,自己写代码的时间被挤占。
这对团队是双输。资深者的价值本应在架构决策、技术债务治理、 mentoring,但现在被锁在审查流水线里。
解法需要组织层面的调整:明确审查时间的预算,保护资深工程师的构建时间;同时把AI审查工具的假阳性率降下来,减少无效消耗。
"质量"的定义分裂了
不同角色对"这段代码质量如何"的判断标准在 diverge。
工程师可能觉得"能跑、测试过"就够了;安全团队关心注入风险;运维关心可观测性;产品经理关心是否覆盖了需求边缘 case。AI生成的代码往往在"能跑"这层表现不错,但在其他维度参差不齐。
问题在规模化后暴露:没有统一的质量定义,审查就失去准绳。有人揪着风格不放,有人对明显架构风险视而不见。
可操作的起点:把质量维度显式化。不是搞繁琐流程,而是让团队对"什么算 done"有最小共识。AI写代码的速度,倒逼人类把标准说得更清楚。
氛围编程的Day 2问题,本质是"人跟不上机器"的各种变体。代码生成是单点突破,但软件工程是系统工程。审查、成本、维护、人力配置、质量标准——这些环节没有同比例加速,就会一个接一个成为瓶颈。
好消息是,这些问题都可观察、可度量。坏消息是,没有银弹,需要逐个环节调。
你的团队卡在哪个环节?是审查队列排成长龙,还是月底账单让人心跳加速,抑或是三个月后回头看代码像考古?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.