六个月前,Omri Keret的团队卡在一个经典困境里:需求堆成山,代码写不完。他们的AI交易代理项目milo,功能请求的增长速度永远快过交付速度。
然后AI编程工具成熟了。一周的工作量压缩到一天,Pull Request满天飞,Keret形容那两个月"像开了作弊码"。
瓶颈搬家了
部署管道开始崩溃。代码产出暴增十倍,但审查、测试、部署、监控、故障响应——这些环节还是人力驱动,速度停留在1倍速。
Keret的观察很直接:AI没有消除软件交付的瓶颈,只是把它挪了个地方。约束条件从"写代码"转移到了"代码写完之后的一切"。
这种现象在AI编程工具普及后迅速蔓延。GitHub Copilot、Cursor、Windsurf这类工具把编码效率推到极致,但下游环节的自动化程度没有同步跟上。代码仓库膨胀,评审队列堵塞,测试环境排队,生产故障的响应窗口被压缩得更紧。
团队还在庆祝,管道已经过载
Keret描述了一个典型场景:开发者兴高采烈地展示"今天写了500行",但部署到 staging 环境需要等4小时,测试用例跑完发现3个隐性冲突,回滚又要走一遍人工审批。
净结果?端到端的交付周期并没有缩短多少,只是压力转移到了运维和QA团队身上。
更隐蔽的成本在监控环节。AI生成的代码行为模式更难预测,边界情况覆盖不足,生产环境的异常检测规则往往滞后于代码变更速度。Keret提到他们的自治交易代理对延迟极度敏感,一次部署后的性能回退可能在几分钟内造成实际损失——而根因定位的时间窗口被压缩到了原来的十分之一。
新瓶颈的解法不在工具箱里
部分团队开始反向调整。有人把AI辅助延伸到代码审查,用静态分析和生成式测试补位;有人重构部署流水线,把人工审批节点改成自动化策略;更激进的团队在探索"AI运维助手",让模型直接参与故障诊断和回滚决策。
但这些改动的组织成本很高。它要求运维、开发、产品三方的协作模式重新设计,而多数公司的部门墙还没准备好。
Keret的结论是务实的:10倍编码速度是真实收益,但只优化局部会制造系统性拥堵。软件交付的终极约束从来不是单一环节,而是最慢的那块板——现在这块板换位置了。
你的团队是卡在写代码,还是卡在代码写完之后?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.