如果同一个项目做两遍,一遍手写代码,一遍交给AI,结果会差多少?
一位开发者在完成自己的气象站系统后,决定做个实验。他保留了所有原始需求,假装那个手写版本不存在,全程用"氛围编程"的方式——只提需求,不碰代码,看看AI到底能走多远。
![]()
工具选择上,他试遍了免费方案:Gemini、OpenRouter、本地Ollama,要么额度耗尽,要么跑不动。最后同事推荐了OpenCode,搭配默认模型Big Pickle,才算稳定下来。
数据表面很惊人。手写版本花了约28小时,AI版本只花了7小时,提速四倍。但细究起来,这个数字充满陷阱。
手写阶段他得现学Python和Pimoroni硬件库,代码结构反复推倒重来,版本控制里提交了几十次。AI版本提交次数更少,不是因为他更高效,而是作为"氛围编程者",他根本不看代码,自然也没什么可提交的。
更隐蔽的是决策路径的差异。Web应用部分,手写版本用了16小时完成功能,剩下的12小时全花在迭代——试不同的气象统计维度,调整数据呈现方式。AI版本直接套用了他最终选定的方案,跳过了整个探索过程。
代码质量方面,他用SonarQube做了扫描。非AI版本的传感器读取模块有45条可维护性警告,全是命名规范问题——他习惯Java和PHP的驼峰命名,Python的snake_case看不顺眼,手动标成了误报。天气显示屏的代码直接复制了Pimoroni官方示例,也一并排除在统计之外。
这个实验的诚实之处在于:它暴露了"开发速度"这个指标的脆弱性。当AI替你跳过学习曲线、跳过设计决策、跳过代码审查,省下的时间究竟是效率提升,还是债务转移?
开发者自己的总结很克制——数字或许没那么漂亮,但工具本身确实可用。这种保留态度,比任何四倍速的标题都更值得注意。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.