![]()
比价大模型(LLM)的成本,比比较机票价格痛苦10倍。一家按token收费,一家按字符,还有一家按请求次数。缓存输入折扣?你得翻遍帮助文档。上下文窗口定价?埋在三级页面里。等你好不容易把所有数据塞进表格,某个厂商悄悄改了价格,整份表格变成废纸。
ATOM干的就是这个脏活。它追踪47家厂商的2,583个SKU(库存单位),全部归一化到统一计价单位,再通过MCP(模型上下文协议)服务器暴露出来,让你的AI代理直接查询实时数据。
2,583个SKU背后的比价战争
模型上下文协议(Model Context Protocol,MCP)让AI代理通过标准化接口连接外部数据源。Claude、Cursor、Windsurf等工具原生支持。
以前你得把定价表贴进提示词,祈祷它还没过期。现在你给代理一个实时连接,它自己查询、推理、基于真实数字行动。
![]()
ATOM的服务器发布在npm、Smithery和官方MCP注册表。Claude Desktop用户把这段配置写进claude_desktop_config.json,重启即可:
{
"mcpServers": {
"atom-pricing": {
"command": "npx",
"args": ["-y", "atom-mcp-server"]
}
}
}
Cursor或Windsurf用户在MCP设置里填这个端点:https://atom-mcp-server-production.up.railway.app/mcp。其他MCP客户端支持HTTP SSE和stdio两种传输方式,本地用npx跑或者直接连Railway端点都行。
免费层包含4个工具,无需登录就能获取宏观市场情报。MCP PRO(49美元/月)解锁另外4个,提供模型级和厂商级细节。
30倍价差:功能相同,价格天差地别
![]()
免费层的get_kpis工具返回本周市场数据,每周一重新计算所有追踪SKU的中位数。PRO层的search_models可以按条件筛选,比如找上下文窗口10万以上、支持工具调用的最便宜模型:
context_window_min: 100000
tool_calling: true
sort_by: input_price_asc
返回结果包含归一化后的每token定价,跨厂商可比。功能相似的模型,最便宜和最贵的价差通常超过30倍。这个差距在任何真实使用量下都会快速复利。
PRO层的compare_prices支持指定模型家族比价,比如model_family: "Llama 3.3 70B",返回所有提供该模型的厂商及其归一化定价,无需自己做单位换算。
如果你在做任何需要大量调用LLM的东西,基于成本和能力做模型路由是个真实决策——不管你有没有意识到。
ATOM的创始人没提他们怎么说服47家厂商持续提供数据,也没说当厂商拒绝更新时怎么办。但2,583个SKU的实时追踪,至少让"比价"这件事从手工考古变成了可编程接口。你会把定价决策交给AI代理,还是坚持人工核对?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.