![]()
2024年Q3,某SaaS公司CTO在复盘时发现:团队每月给OpenAI、Anthropic、Gemini三家打钱,但没人说得清哪个功能最烧钱。AI Gateway的Custom Reporting(自定义报表)功能,本质上就是给这种"糊涂账"做B超——把原本混在一起的成本流,按模型、供应商、用户、标签、凭证类型六个维度切片。
从"黑箱"到"透视":AI成本终于能按人头算账了
Vercel在3月25日开放测试的这项功能,面向Pro和企业用户。核心逻辑很直白:既然所有推理请求已经过AI Gateway,那成本、token、请求数这些数据本来就在,只是以前查不了。现在通过Reporting API(报表接口)可以直接拉取,不用登录各家供应商后台,也不用自建代理做统计。
关键突破在标签系统。开发者可以在请求里嵌入`user`和`tags`字段,把成本和具体客户、功能、团队、环境挂钩。代码示例显示,调用`generateText`时,通过`providerOptions.gateway`传入客户ID和标签数组,后续就能按这些维度聚合账单。
支持的范围包括AI SDK、Chat Completions API、Responses API、OpenResponses API、Anthropic Messages API。换句话说,主流调用方式全覆盖。
标签的颗粒度直接决定成本优化的空间。粗粒度只能分"测试/生产",细粒度可以追踪到"某企业客户的代码审查功能在3月第2周的token消耗"。
API设计:一个端点,六种切法
查询端点固定为`https://ai-gateway.vercel.sh/v1/report`,通过URL参数控制时间范围和分组方式。`start_date`和`end_date`限定窗口,`group_by`支持time、tag、user、model、provider等维度。
返回的JSON结构暴露了Vercel对AI成本的理解深度。每个分组包含:实际成本(total_cost)、市场价(market_cost)、输入/输出token数、缓存命中token、缓存创建token、推理token、请求次数。其中market_cost字段暗示Vercel可能在替用户议价——实际支付低于官方定价。
示例数据里,"enterprise"标签3月消耗8400美元,对应市场价9600美元,差额12.5%;"code-review"标签5100美元对5900美元,差额13.6%。这种"隐性折扣"可能是AI Gateway的批量采购优势。
![]()
定价层面,写入成本为每千个唯一标签或用户ID值0.075美元,查询成本为每千次5美元。假设一个请求带3个标签、1个用户ID,单次写入成本约0.0003美元;每月查100次报表,成本0.5美元。对月消耗数千美元的企业,监测成本占比低于0.1%。
谁需要这个功能?三种典型场景
第一类是多租户SaaS。把`user`设为客户ID,就能生成每个客户的AI消耗账单,为后续定价和成本转嫁提供数据基础。第二类是功能矩阵复杂的产品。用标签区分"代码补全""代码审查""文档生成",可以识别哪些功能在吞噬利润。第三类是混合环境部署。"production""staging""dev"标签能隔离环境成本,避免测试流量污染生产预算。
一个细节值得玩味:Vercel把缓存相关token拆成`cached_input_tokens`和`cache_creation_input_tokens`两列。前者是命中缓存节省的成本,后者是写入缓存的额外开销。这种拆分逼着开发者算一笔账——缓存策略到底省没省钱。
缓存不是免费午餐。写入缓存消耗token,只有重复查询足够多才能摊平成本。Custom Reporting把这笔账摆到桌面上。
技术实现上,标签系统依赖AI SDK的`providerOptions`扩展机制。这个设计让Vercel在不破坏标准接口的前提下,注入自己的元数据层。对已经用AI SDK的团队,接入成本几乎为零;对直接调OpenAI API的团队,需要迁移到Vercel的兼容层。
隐性博弈:Vercel想成为AI基础设施的"财务中台"
这个功能发布的时间点很微妙。2024年下半年,多家云厂商推出AI成本管理工具:AWS有Cost Anomaly Detection for Bedrock,GCP有Vertex AI的细粒度账单。Vercel的差异化在于"中立性"——不绑定自有模型,支持Anthropic、OpenAI、Gemini等多供应商,甚至包括BYOK(自带密钥)场景。
BYOK的支持是关键。企业用自己申请的API密钥走AI Gateway,Vercel不赚模型差价,只收网关和报表费用。这种"轻资产"模式降低了客户信任门槛,也为后续交叉销售留下接口——先用报表功能建立数据依赖,再推AI Gateway的缓存、速率限制、容错切换等高级功能。
一个潜在风险是数据主权。所有成本数据流经Vercel服务器,虽然声称只用于聚合报表,但金融敏感型企业可能需要私有化部署选项。目前文档未提及本地版或VPC版。
![]()
另一个观察点是market_cost字段的透明度。Vercel没有解释这个数值如何计算,是官方定价、企业协议价,还是Vercel批量采购后的分摊成本。如果客户想用这个字段向终端用户证明"我们拿到了好价格",缺乏审计依据。
从工具到基础设施:AI成本管理的演进
2023年,AI成本管理还是"事后诸葛亮"——月底看账单,发现某实验项目烧了五千美元。2024年,实时成本追踪成为标配,但大多绑定单一供应商。Vercel的尝试是把成本管理做成跨供应商的通用层,类似Kubernetes对计算资源的抽象。
这种抽象的价值随AI供应商数量增加而放大。当团队同时用GPT-4o做客服、Claude 3.5 Sonnet做代码、Gemini 1.5 Pro做多模态,统一成本视图比分别登录三个控制台高效得多。更深层的需求是"成本归因"——把AI支出映射到产品功能、客户合同、团队OKR,这是财务规划和定价策略的基础。
Custom Reporting的查询接口设计也暴露了Vercel的野心。返回数据包含原始token数和请求次数,意味着客户可以自建分析层,把Vercel当作数据管道而非终点。这种"被集成"的姿态,比提供封闭仪表盘更符合开发者工具的定位。
定价策略同样值得细品。写入按标签/用户ID的唯一值计费,而非请求次数——鼓励高复用率的标签设计。查询按次数计费,但单价5美元/千次足够低,不会抑制正常使用。整体定价结构在"覆盖成本"和"培养习惯"之间找平衡。
一个尚未回答的问题是:当客户积累足够历史数据后,Vercel是否会推出成本预测、异常检测、自动优化建议等增值功能?目前的API只提供回溯查询,没有实时告警或预算管控。这些功能可能是企业版的下一个钩子。
回到那个SaaS公司CTO的场景。Custom Reporting上线后,他可以在季度复盘时精确回答:代码审查功能占AI成本的31%,但只贡献12%的付费转化;某企业客户月均消耗2400美元,但合同价只覆盖1800美元。这些数据驱动的决策,是"AI原生"公司从粗放增长转向精细化运营的必经之路。
当AI支出从"创新预算"变成"主营业务成本",谁掌握成本分解的颗粒度,谁就掌握定价权和优化空间。Vercel赌的是:这个环节值得单独做一个产品,而不是附赠给云厂商的打包方案。
你的团队现在怎么追踪AI成本?是各自看供应商后台,还是已经上了统一工具?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.