![]()
你的AI编程账单里,藏着一笔从未被计入的隐性支出。Wasp团队今天放出一组对照实验——让Claude Code用相同提示词开发两个一模一样的应用,一个用Next.js,一个用Wasp。代码量几乎持平,但Next.js那版的AI调用成本直接飙高80%。
这笔钱不是花在写代码上,是花在"读代码"上。
每次LLM调用都要重新加载代码库上下文。框架越臃肿,每次对话的启动成本就越高。Next.js的缓存创建费用比Wasp贵113%,不是因为AI更卖力,而是它得先啃完更多样板文件才能开工。
Context Efficiency:被忽视的第四维度
我们评估框架向来只看三条:开发者体验(DX)、运行时性能、生态成熟度。现在得加上第四条——上下文效率。你的业务逻辑占多少token?框架胶水代码又占多少?
![]()
Wasp用声明式配置把认证、路由、定时任务压缩到10行左右。Next.js的等效实现要分散在middleware、route handlers、session文件和API目录里。功能完全一致,token消耗差出4倍。
这还只是单个功能。真实应用的功能会累积,每条新路由、每个新模型、每个新API处理器都会变成每次LLM调用时要重新读取的上下文。更麻烦的是,AI性能在上下文窗口填满之前就开始衰减——你不仅付更多钱,还拿到更差的输出。
算笔账:你的代码库有多"胖"
现在就可以测。跑这条命令:
find . -name "*.ts" -o -name "*.tsx" | xargs wc -c
![]()
这大致就是你的AI成本基线。接下来审计胶水代码比例——多少是业务逻辑,多少是框架粘合剂?胶水占比越高,AI经济学越差。
高约束框架正在获得一种两年前不存在的优势。Wasp、Rails、Laravel这类" opinionated "框架,样板代码少意味着AI调用便宜,迭代速度更快。那些被认为"魔法"的抽象层,现在成了真金白银的成本优势。
作者提到他正在做的ToolDock——一个浏览器端开发工具平台。每个工具页面几乎都是纯业务逻辑,框架样板极少,因为全部静态运行。AI token效率明显优于他之前用重栈做的客户项目。
当"人类友好"撞上"AI昂贵"
这里有个反直觉的转折。让代码库对人类友好的那套特质——显式、冗长、自文档化——恰恰是AI最贵的部分。我们花了十年追求"代码即文档",现在发现LLM按token计费。
Wasp团队把两个应用和测量脚本都开源了,这是发布基准测试的正确姿势。方法论细节值得去原文细读。
你的代码库现在多少token?测完回来聊聊——特别是如果你也在用Next.js的话。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.