大家好,我是程序员鱼皮。
AI 编程时代,人类对 Tokens 的需求量越来越大,供不应求。
于是有些聪明人嗅到了商机,开始搞 API 中转站。
可能很多搞技术的同学都看不上这玩意,觉得不就是转发个请求么?
但你看看都是谁在做,猎豹移动 CEO 傅盛搞了个 EasyRouter;币圈知名人物孙宇晨搞了个 B.AI,据说已经突破百万用户;甚至连特朗普家族都下场做了个 WorldClaw,四档套餐最贵的卖 9999 美元,买了还有机会抽海湖庄园的私人晚宴门票。。。
![]()
之前懂王就卖 Crypto Token 割了一波,现在 AI 火了又来卖 API Token。果然没有人比他更懂 Token!
![]()
看着他们一个个赚得盆满钵满,一般人很难不心动啊。
咳咳,其实 23 年我就做过类似的产品了,不知道有多少朋友还记得「鱼聪明 AI」,当时我还开发了调用中转站的 SDK 来着。后来网站因为成本原因倒闭了,往事不堪回首啊。。。
![]()
有了失败经验之后,我不打算自己闷头做了,干脆写篇教程,带大家一起从零搞一个!
这篇文章,我不仅会讲清楚 API 中转站是什么、它的原理是什么,还会手把手带你用 AI 编程做一个出来。分别用 DeepSeek V4 + Claude Code 和 GPT-5.5 + Cursor 各开发一版,让你一次把中转站搞明白。
全文共 8000 多字,点个收藏,咱们开始~
什么是 API 中转站?
打个比方,你想买个国外的包,但自己不方便直接去海外专柜,于是找了个代购。你把钱给代购,代购帮你去各大品牌店买好寄给你,顺便赚个差价和服务费。
API 中转站干的就是代购的活。
你平时用 AI 聊天、写代码、做应用,不直接对接 AI 模型厂商(比如 OpenAI、DeepSeek、智谱等),而是通过中转站这个「中间商」来调用。中转站把各家 AI 模型的 API 聚合到一个平台上,你注册一个中转站的账号就能调用所有模型,不用到处注册,能方便不少。
![]()
为什么中转站那么火呢?得看它解决了什么问题。
对于国内开发者来说,想用 Claude、GPT 这类国外模型,支付和网络都是门槛。中转站帮你解决了这些麻烦,支持国内常用的付款方式,国内网络直连,不用折腾。就算你只用国产模型,每家注册一个账号、各管理一套 API Key 也挺麻烦的,中转站可以帮你统一管理。
目前最知名的中转站应该是 OpenRouter,聚合了几百个大模型,据说年流水已经过亿美元了。
![]()
一个中转站就能赚这么多钱,难怪连懂王都来分一杯羹了。
顺便提一下,程序员朋友们可能听说过一个概念叫「AI 网关」,其实它跟 API 中转站是有点区别的。中转站更偏向「帮你代买 API」的二道贩子角色,AI 网关更偏向企业内部统一管理多个模型的基础设施。不过核心技术是相通的。
中转站的原理
我知道很多同学在用或者考虑用中转站,但市面上的中转站鱼龙混杂,很容易踩雷。
想少踩坑,最好的办法就是了解中转站的原理,知道它背后到底在干什么。
中转站的核心其实就两个字:代理。
你的请求不直接发给 AI 模型,而是先发到中转站的服务器,中转站帮你转发到对应的模型厂商,拿到结果后再返回给你。
而且大多数中转站都有一个共同的设计,就是对外 “伪装” 成 OpenAI 的接口格式。几乎所有 AI 工具(Claude Code、Cursor、各种 SDK)都支持 OpenAI 格式,所以用户只需要改 2 个参数就能接入中转站,一行业务代码都不用动:
client = OpenAI(
api_key="sk-relay-xxx", # 改成中转站的 Key
base_url="http://你的中转站/v1" # 改成中转站的地址
)
中转站的服务器收到请求后,会根据你指定的模型名称,把请求路由到对应的 AI 厂商。如果配置了多个 API Key,还会自动轮换,避免单个 Key 被限流。同时记录每次调用的 Token 消耗,用于计费。
![]()
但有个问题,你的所有请求都要经过中转站的服务器,这一层对用户来说完全是个「黑盒」。中转站那边具体做了什么,你根本不知道!
而很多不靠谱的中转站,正是在这个黑盒里动了手脚。
最近 CISPA 亥姆霍兹信息安全中心发了一篇论文,揭露了一个触目惊心的事实:近一半的第三方 API 中转站在进行系统性欺诈!
![]()
常见的黑心操作有这么几种:
1)模型掉包
你付 GPT-5 的钱,实际跑的是某个廉价开源小模型。论文测了 28 个中转站,竟然高达 45.83% 的 API 端点存在模型身份不匹配,医疗场景下性能差距高达 47%!
2)虚报 Token 消耗
你实际用了 100 Token,账单上给你写 150。用户付了 14.84 美元,实际只获得 5.7 到 7.7 美元价值的服务。
3)缓存套利
AI 模型厂商对重复出现的内容(比如相同的 System Prompt)会给缓存优惠价,但中转站按原价收你的钱,把这部分差价默默吃掉了。
4)数据收割
更可恶的是,有些中转站收集并贩卖用户的代码和敏感数据!
调研发现,17 家头部中转站中有 15 家是个人运营,无企业注册、无 ICP 备案。用户充值金额积累到一定程度后,说不定就直接删库跑路了。。。
所以建议大家有条件的话,还是用官方 API 吧。实在要用中转站,也要选有企业资质和备案的大平台。
如果你想更深入地了解中转站,GitHub 上有不少开源项目可以参考。看完这些项目,再自己动手做一个,中转站对你来说就再也没有秘密了。
开源中转站项目
GitHub 上中转站相关的开源项目非常多,可以说是无奇不有。我挑几个有代表性的给大家看看。
1)one-api
元祖级项目,GitHub 上几万 Star。它用 Go 语言开发,把所有主流大模型的 API 统一成 OpenAI 格式,支持几十种模型,而且只需要一个文件就能跑起来,还支持 Docker 部署。
![]()
不夸张地说,市面上 80% 以上的商业中转站底层都是 one-api 或者它的衍生版本,只是套了个壳。
2)new-api
在 one-api 基础上二次开发,新增了 Prometheus 监控、OpenTelemetry 可观测性等企业级特性,也是很多商业中转站的底层框架。
![]()
顺便提一嘴,傅盛的 EasyRouter 就被 new-api 原作者扒出来是套壳的,前端代码中有 98 处指向 new-api 的关键词匹配,而且移除了版权信息,涉嫌违反 AGPL v3 开源协议。
3)sub2api
这个项目厉害了,能把 Claude、OpenAI 的网页版订阅账号逆向转化成标准的 API 接口,相当于多个人拼车共享一个 Plus 会员,一个账号的额度分给好几个人用。
![]()
4)metapi
号称「中转站的中转站」,把你在多个 one-api / new-api / sub2api 上注册的账号聚合成一个统一网关,基于成本、余额、使用率三维加权来分配流量。
![]()
5)all-api-hub
这是一个浏览器扩展,专门用来管理你在各个中转站上的账号。装上之后,可以在一个面板里看到所有中转站的余额和用量,还支持自动签到、价格横向对比,对于同时用好几个中转站的人来说挺方便的。
![]()
除了这些中转站项目,企业级场景下还有像 LiteLLM、Higress AI、Kong AI Gateway 这些更正经的开源 AI 网关。不过这类项目有一定的技术门槛,非程序员朋友不用深入了解。
![]()
接下来,我们自己动手做一个简易版的 API 中转站。
需求分析
我们要做的这个中转站可以说是「麻雀虽小,五脏俱全」。核心功能包括:
1)对外暴露兼容 OpenAI 格式的接口,支持流式和非流式响应,用户改个 base_url 和 api_key 就能接入。
2)接入 DeepSeek V4、智谱 GLM-5、通义千问 Qwen-Plus 三个国产大模型,支持用户指定模型,也支持 auto 模式自动路由。
3)中转站自有 API Key 管理体系,管理员可以创建、禁用、删除 Key,给每个 Key 设置余额上限。
4)记录每次调用的 Token 消耗,不同模型设置不同计费倍率,后台可查看调用日志和用量统计图表。
5)定期检测各模型渠道的可用性,请求失败自动重试到其他渠道,管理面板显示健康状态。
6)管理面板包含仪表盘、渠道管理、Key 管理、调用日志,支持管理员密码登录。
![]()
方案设计
如果你完全没有技术基础,可以让 AI 帮你完成方案设计。
但这里为了节省时间和 tokens,我直接告诉 AI 怎么做。
为了尽快跑通核心功能,我们的中转站不需要用户注册登录,也不需要对接支付系统。管理员在后台创建 API Key,通过其他方式收完钱后,把 Key 发给用户、手动调整余额就行了。
你还别觉得这种方式 low,市面上大多数小中转站就是这么运作的!搭个 one-api / new-api 之类的开源项目,后台创建 Key,通过发卡工具或者群聊卖 Key 就能开张了。。。
如果想学完整的带用户注册、在线支付、监控告警的企业级 AI 网关,可以看看我们团队之前出过的 ,基于 Spring Boot 3 + Spring AI + Vue 3 从零搭建,感兴趣的同学可以到 编程导航 codefather.cn 学习。
![]()
由于某些原因,你懂的,我没办法真带大家搞一个对接国外大模型的中转站,也强烈不建议大家去搞!这里我们就拿 DeepSeek、GLM 和 Qwen 三个国产模型做演示,项目在本地运行和测试。
开发技术上,我选择主流的 Next.js + TypeScript,前端 + 后端一把梭。数据库选择 SQLite,数据直接存在本地文件里,不用搭 MySQL 和 Redis 之类的,降低门槛。
![]()
环境准备
如果你看过我之前的 AI 编程教程,Claude Code 和 AI 扩展应该已经装好了,可以直接跳到下一节。
完全 0 基础的朋友也不用慌,跟着下面操作就行。
安装 Claude Code
先简单介绍一下 Claude Code。它是 Anthropic 推出的 AI 编程工具,直接在终端里运行,你跟它聊天描述需求,它就能自主分析项目、写代码、跑命令、修 Bug,全程自主执行。
除了基础的代码生成,还能使用工具和 Skills 技能包、连接 MCP 外部服务、用 Plugins 插件扩展能力,甚至搞多智能体协作,扩展性很强。
![]()
安装 Claude Code 很简单。
首先确保你的电脑有 Node.js 环境和 npm 软件依赖安装工具,没有的话,直接到 Node 官网 下载傻瓜式安装包就好:
![]()
无论使用什么操作系统,都可以通过 npm,一行命令来安装 Claude Code:
npm install -g @anthropic-ai/claude-code
安装完成后,输入 claude 命令进入对话界面,首次需要登录才能正常使用:
![]()
但估计很多同学没有 Anthropic 的国外订阅账号,所以我们要切换为国产模型。
切换模型
Claude Code 本身是支持切换模型的,你可以通过「修改环境变量」或「编辑配置文件」来对接其他大模型的 API。
一般你使用哪家的大模型 API,直接看对应的官方文档,就能找到接入方法。
比如 DeepSeek 的 API 文档 里就有现成的接入方法:
![]()
不过我更推荐用一个开源工具 CC Switch,能够可视化地管理 Claude Code、Codex、Gemini CLI 等 AI 编程工具的配置,一键切换不同的模型供应商。内置了 50 多个供应商预设,不用自己手动改配置文件。
开源指路:https://github.com/farion1231/cc-switch
按照官方中文文档,根据操作系统选择对应的安装方式:
![]()
Mac 用户可以通过命令行安装:
brew tap farion1231/ccswitch
brew install --cask cc-switch
安装完成后,运行软件进入主界面,添加模型供应商:
![]()
选择 DeepSeek:
![]()
填写 API Key,需要从 DeepSeek 开放平台 获取。
![]()
我这里把主模型设置为 DeepSeek-V4-Pro,相比 DeepSeek-V4-Flash 模型,Agent 能力和复杂推理更强。
如果要开启超长上下文,还可以修改为 DeepSeek-V4-Pro[1m],不过这个任务我估计 200K 上下文足够了。
然后点右下角保存:
![]()
可以在上图中看到 Claude Code 的 JSON 配置文件,其实 CC Switch 就是帮你可视化地修改各 AI 工具的配置文件,省去手动编辑 JSON 的麻烦。
最后,启用 DeepSeek 模型:
![]()
然后重新进入 Claude Code,随便输入一句话,AI 能给出回复,说明切换模型成功:
![]()
安装扩展
Claude Code 默认就有读写文件、跑终端命令、搜索代码这些基础能力,但要做好一个完整项目,光靠这些还不够。
我们需要下面 3 个扩展:
Frontend Design:前端美化技能,让生成的页面更有设计感
Firecrawl:联网搜索和网页抓取,让 AI 能获取最新的技术信息
Context7:查询最新的技术文档和 API 用法,减少 AI 瞎编的情况
下面来依次安装。
1、安装 Frontend Design
Frontend Design 是 Anthropic 官方的前端美化技能,可以让 AI 生成的页面更有设计感。
在 Claude Code 中,先通过 /plugin 命令添加官方技能市场,相当于装了个技能商店:
/plugin marketplace add anthropics/skills
输入 /plugins,在 Discover 菜单栏中,选中 example-skills 并按回车,安装官方的示例技能合集:
![]()
输入 /reload-plugins 重载一下插件:
![]()
输入 /skills 查看已安装的技能,可以看到 frontend-design 已经就位了:
![]()
之后在对话框中输入 /frontend-design 就能主动触发这个技能,让 AI 美化前端页面。同时还自动装上了 webapp-testing 自动化测试技能,后面也用得上。
2、安装 Firecrawl
Firecrawl 是联网搜索和网页抓取工具,让 AI 开发前先搜索最新技术信息。
安装方式很简单,打开终端,输入一行命令:
npx -y firecrawl-cli@latest init --all --browser
执行后,会自动打开浏览器,要在弹出的页面中点击授权:
![]()
安装完成后,会自动注册 12 个 Firecrawl 相关技能:
![]()
在 Claude Code 的技能管理中,就能看到新添加的 Firecrawl 相关技能了:
![]()
3、安装 Context7
Context7 是一个技术文档查询工具,让 AI 能获取到各种框架和库的最新官方文档,避免用过时的 API 写代码。
先在终端输入一行命令来安装:
npx ctx7@latest setup
它会问是安装 MCP 服务还是 CLI + Skills,这里我选择 CLI + Skills。你会发现,现在越来越多工具已经从 MCP 转向 CLI + Skills 的方式了:
![]()
同样在弹出的网页中授权,不用自己获取和输入 API Key,太方便了!
![]()
然后选择要给哪个 AI 编程工具安装,我选择为 Claude Code 安装:
![]()
安装成功后,可以在技能管理中看到 find-docs 技能:
![]()
当然,你也可以选择安装 MCP Server 的方式:
![]()
安装后,在 Claude Code 中输入 /mcp 命令,就能看到安装好的 MCP 了,比自己手动配置方便太多了!
![]()
至此,环境准备完成!下次开发项目时,就不用再重复准备了~
DeepSeek + Claude Code 开发
新建一个 yupi-ai-relay 项目文件夹,打开终端并输入 cd 命令进入目录,然后输入 claude 打开 Claude Code:
![]()
接下来输入提示词。这段提示词也是我利用 AI 编程工具,根据我的需求描述生成的,给大家参考:
## 角色
你是一个全栈工程师,擅长 Node.js + Next.js + TypeScript 开发。
## 任务
开发一个叫 yupi-ai-relay 的网站,实现一个简易但完整的 AI 大模型 API 中转站,兼容 OpenAI API 格式,支持多模型路由。
## 核心功能
1. 对外暴露 `/v1/chat/completions` 接口,完全兼容 OpenAI Chat Completions API 格式,支持流式(SSE)和非流式响应,用户只需修改 base_url 和 api_key 即可接入
2. 接入 3 个国产大模型:DeepSeek V4、智谱 GLM-5、通义千问 qwen-plus。支持用户指定 model 参数选择模型,也支持 auto 模式随机负载均衡
3. 中转站自有 API Key 体系(sk-relay-xxx 格式),管理后台可创建/禁用/删除 Key,每个 Key 可设置余额上限
4. 记录每次请求的 Token 消耗(prompt_tokens + completion_tokens),不同模型设置不同计费倍率,管理后台可查看调用日志和用量统计图表
5. 定期检测各模型渠道可用性,请求失败自动重试到其他可用渠道,管理面板显示各渠道健康状态
6. 管理面板包含仪表盘概览、渠道管理、Key 管理、调用日志,支持管理员密码登录
## 技术栈
- 框架:Next.js + TypeScript
- 数据库:SQLite(通过 better-sqlite3,零配置)
- 样式:使用 Shadcn UI 组件库
- 图表:Recharts## 要求
1. 页面参考 OpenRouter 官网风格,浅色主题,简洁大方接地气,使用 frontend-design 技能美化页面
2. 开发前,先通过 Firecrawl 联网搜索确认 DeepSeek、智谱、通义千问最新的 API 格式,通过 Context7 查询 Next.js 最新文档
3. 必须生成完整可运行的代码,每步完成后通过 webapp-testing 自主测试验证
4. 环境变量通过 .env.local 配置各模型的 API Key
给 AI 发送提示词前,我按 Shift + Tab 进入了自动接受编辑模式,AI 创建、修改、删除文件和执行命令都不用我逐一确认了,更省事儿。但有一定风险,大家按需使用:
![]()
把提示词发送给 AI,接下来就是漫长的等待了。
过程中 AI 可能需要确认工具调用,比如它想通过 Firecrawl 搜索最新的大模型 API 信息,可以选择「Yes, and don't ask again」,以后就不用反复确认了:
![]()
注意,DeepSeek 的发挥不是很稳定,有时候不会触发技能,而是使用内置的搜索工具。你可以在提示词中加强引导,或者用斜杠命令主动触发技能。
开发完成后,AI 自动使用 webapp-testing 技能进行自动化测试:
![]()
等了将近半小时,AI 终于开发完成了。从 AI 的总结可以看到,OpenAI 兼容接口、流式/非流式、多模型路由、API Key 管理、Token 计费、健康检查、管理后台、Recharts 图表这些功能全给整上了,一把梭~
![]()
然后需要我们人工操作,分别从 DeepSeek 开放平台、智谱 AI 开放平台、阿里云百炼平台获取到大模型的 API Key,根据 AI 的指引填到环境变量文件中:
![]()
然后让 AI 帮我运行。它不仅启动了项目,还很贴心地又进行了一轮测试:
![]()
测试过程中 AI 还自主发现并修复了一个问题,很八错!
![]()
测试验证
接下来人工测试一下。
打开网站主页。你别说,干净又卫生啊!重点一目了然。可惜还是没逃出蓝紫色渐变的魔掌。。。
![]()
跟 OpenRouter 官网的风格还挺像的吧?大概吧。。。
![]()
OpenRouter 的风格
登录管理员账号,进入管理后台,能看到 AI 大模型的调用情况、总费用消耗等数据:
![]()
进入渠道管理,可以看到已经对接的各种大模型,你还可以给每个模型设置单独的计费倍率,比如调整 DeepSeek V4 Pro 的价格为 Flash 的 2 倍:
![]()
还可以一键检查各模型的健康状态:
![]()
诶,等等?我不是在提示词中让 AI 对接 GLM-5 么?怎么给我搞了个 GLM-4.5???
![]()
进入 API Key 管理,你可以给每个付费用户生成一个 API Key,设置对应的余额上限,然后把 Key 发给用户:
![]()
进入调用日志,可以查看每一次具体的模型调用情况,包括调用的模型、Token 消耗、耗时、费用、请求类型等:
![]()
但目前这个界面连最基本的筛选功能都没有,我以后要做个日活百万的中转站,怎么可能人工从这里面查日志呢?
等等,难道 AI 觉得我不敢真的上线嘛?
![]()
接下来,以用户的视角来使用中转站。进入网站主页查看文档,有各种调用方式的介绍:
![]()
先直接打开终端,通过命令行的 HTTP 请求工具 curl 来调用。注意网站文档上的端口号写错了,应该跟后端服务器保持一致,我这里是 3333 端口。
模型选择 auto 自动路由,可以看到成功调用了 Qwen 模型:
![]()
既然是兼容 OpenAI 格式的,那我们不妨尝试在 Claude Code 中使用。
进入 CC Switch 工具,添加一个新供应商,选择自定义配置:
![]()
填写信息,请求地址改成中转站服务器的地址,API 格式选择 OpenAI 格式,模型名称我选 auto,让中转站帮我路由:
![]()
然后一定要注意!因为 Claude Code 原生使用 Anthropic 格式,而中转站是 OpenAI 兼容格式,必须先进入设置,开启 CC Switch 的路由模式。
![]()
开启路由模式后,路由会自动将 Anthropic 格式请求转换为 OpenAI 格式,再转发到中转站。
![]()
配置完成后,在 Claude Code 中发消息,AI 成功回复了!同时中转站后端的日志打印了请求信息,说明请求确实经过了我们的中转站:
![]()
不过让 AI 做复杂任务的时候,会频繁出现调用失败的情况。估计是一些请求格式没有兼容到位,毕竟 Anthropic 转 OpenAI 的过程中有很多细节差异,比如 Tool Use 的参数格式等。这也是做中转站的一个重点,需要持续测试各种场景,及时更新适配各家大模型的协议和规范。
![]()
总结一下,咱们用 DeepSeek V4 一把梭出了一个五脏俱全的中转站,核心功能基本可用,能正常路由、计费、管理 Key。
但离真正能上线的产品还有一段距离,比如没对接到我指定的 GLM-5、Key 复制功能缺失、日志不能筛选。当然了,这些问题都可以继续跟 AI 对话来修复和打磨。
我在 Claude Code 中,用 /context 命令看了一下上下文,只占用了 63%,还有不少富余,开发到上线程度肯定是没问题的。
![]()
你肯定会好奇花了多少钱?
来来来,到 DeepSeek 开放平台上看看费用消耗,开发这个项目实际只花了 2 块多,你觉得是便宜还是贵呢?
![]()
GPT-5.5 + Cursor 开发
既然提示词都准备好了,那咱不妨换一个能力更强的 GPT-5.5 模型试试看,这次在另一个主流的 AI 编程工具 Cursor 里开发。
相比 Claude Code 的纯命令行,Cursor 最大的优势是可视化操作,更适合新手小白上手,很多配置都是傻瓜式点点就行。
需要先在 Cursor 中配好 Firecrawl 和 Context7 的 MCP 扩展。Cursor 的使用和扩展配置教程在我的 AI 编程零基础教程 中可以获取,这里不多说了:
![]()
选择 GPT-5.5 模型,发送同样的提示词:
![]()
AI 自动切换到了计划模式,先调用 MCP 获取各家模型的最新 API 信息,然后生成了项目实施计划:
![]()
简单看一遍方案,没啥问题,直接开始构建:
![]()
等代码生成完成后,AI 还会自主打开浏览器进行测试,全程不需要我们人工操作,这期间我又做了 1 组提肛。
整体耗时 14 分钟,比 DeepSeek 快了一倍多,消耗了 87.5K tokens:
![]()
同样根据 AI 的指引,分别获取各平台的 API Key,填入环境变量文件:
![]()
最后,让 AI 测试并运行,各种测试全部通过:
![]()
接下来让我们人工测试一下。
打开网站,整体看着还不错,除了有部分文字颜色不太合适。
![]()
跟 DeepSeek 开发出来的一样,没有完全复刻 OpenRouter 主页的风格。应该是我提示词写的不够精确,下次应该说 100% 复刻。
进入到管理面板中,成功对接了 GLM-5 等大模型,其他功能和前面 DeepSeek 开发的中转站类似:
![]()
区别在于,GPT-5.5 选择把所有管理功能全部塞到了一个页面,而不是像 DeepSeek 那样分成多个 Tab。布局太紧凑了,我个人觉得 DeepSeek 的分 Tab 体验更好。
创建一个 API Key,准备试试调用效果:
![]()
进入调用文档,好家伙这是啥玩意啊?感觉新用户来了根本看不懂怎么调用,也没有 curl 调用示例。。。
![]()
没关系,咱们先用跟之前一样的方式,通过 curl 测试,成功调用了 GLM-5 模型:
![]()
通过 Claude Code 测试也是一样的结果,简单对话能顺利完成,复杂任务还是会报错:
![]()
这就是没有兼容好各种请求格式的问题。如果你要正儿八经地做中转站,提示词里一定要强调多模型协议的兼容性,让 AI 多编写单元测试,充分验证各种边界情况。
总结一下,Cursor + GPT-5.5 的开发速度确实快了很多,但最终效果并没有像我想象中那样甩开 DeepSeek 一大截,甚至在前端的表现上,我觉得 DeepSeek 更胜一筹。
而且国外模型的价格普遍比国内贵。所以还是要根据自己的需求选择模型,如果你还不太会 AI 编程,建议先用比较便宜的国产模型练手,不然可能一顿操作花了几十块,结果什么都没搞出来。
最后哔哔
做完这个中转站,相信你已经完全理解了它的原理。
我还很贴心地给大家准备了「黑心版」中转站的提示词,仅供整活娱乐和教学目的,实际千万不要这么干!
## ⚠️ 黑心中转站 DLC(仅供娱乐,不是鱼皮教的)
在管理面板中增加一个「高级设置(请勿开启)」折叠面板,标题旁加 图标,默认关闭,包含以下功能:1. Token 暗税滑块(1.0x - 3.0x):实际消耗 100 Token,账单上乘以倍率显示 150,用户看到的 usage 字段是虚报后的数字
2. 偷梁换柱开关:用户请求模型 A 实际转发到便宜的模型 B,返回的 model 字段仍显示用户请求的原始模型名
3. Prompt 缓存吸血:对话中重复的 prompt 缓存命中后,仍按完整 Token 数向用户收费
看到这里,再回过头看那些中转站的坑,什么模型掉包、虚报 Token、缓存套利,你应该能明白它们是怎么实现的了。
所以我再次建议,有条件尽量用官方 API 吧!别为了省一点钱,把自己的代码和数据送了出去。
OK 就分享到这里,本文会收录到我免费开源的 ,上千张图、几十万字,带你从 0 开始快速学会 AI 编程,做出自己的产品、跑通变现全流程,一次拿捏。
开源指路:https://github.com/liyupi/ai-guide
我是鱼皮,持续分享 AI 编程干货。觉得有用的话记得点赞收藏和关注,也欢迎在评论区聊聊:你正在用哪家的大模型?有没有被 API 中转站坑过?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.