Claude Code Router(CCR)不仅支持魔搭社区,还可以对接英伟达 NVIDIA NIM(NVIDIA Inference Microservices)平台,接入上百款前沿大模型。NVIDIA NIM 提供了丰富的开源模型和商业模型接口,包括 Llama、Mistral、Phi 等系列,部分模型提供免费额度,国内访问稳定。
本文将详细介绍如何配置 CCR 以使用英伟达 NIM 平台的模型,并补充说明如何同时使用国内 SOTA 模型(Kimi-k2.5、GLM-4.7、Minimax-2.1、Deepseek-v3.2 等)。
![]()
准备工作1. 安装 Claude Code Router
如果你尚未安装 CCR,请先执行以下命令:
# 安装 Claude Code 官方客户端npm install -g @anthropic-ai/claude-code# 安装 Claude Code Routernpm install -g @musistudio/claude-code-router2. 申请英伟达 NIM API 密钥访问 NVIDIA NIM 平台:https://build.nvidia.com/models
- 注册/登录 NVIDIA 账号
- 选择需要使用的模型
- 获取 API Key(部分模型提供免费调用额度)
提示:首次使用建议选择有免费额度的模型进行测试,如 llama-3.1-405b-instruct、mistral-7b-instruct-v0.3 等。
![]()
⚙️ 配置步骤方式一:使用 UI 界面配置(推荐)
# 启动 Web UI 管理界面ccr ui执行后会自动打开浏览器进入可视化配置界面(地址默认为 http://127.0.0.1:3456/ui/),然后按照以下步骤操作:
1. 添加英伟达 NIM Provider
在 UI 中点击「添加 Provider」,填写以下信息:
字段
示例
名称
Provider 标识符
nvidia-nim
API Base URL
NIM API 端点
https://integrate.api.nvidia.com/v1/chat/completions
API Key
你的英伟达 API Key
nvapi-xxxxx
模型
支持的模型列表
见下方模型列表
2. 配置路由规则
在 Router 设置中配置各项策略:
策略
使用场景
default
默认模型
普通对话和代码生成
think
复杂推理模型
需要深度思考的问题
longContext
长上下文模型
处理长文档或大量代码
方式二:手动编辑配置文件
创建或编辑配置文件 ~/.claude-code-router/config.json:
{"Providers": ["name": "nvidia","api_base_url": "https://integrate.api.nvidia.com/v1/chat/completions","api_key": "你的英伟达API-Key","models": ["minimaxai/minimax-m2.1","z-ai/glm4.7","moonshotai/kimi-k2.5"],"transformer": {"use": ["openrouter"]],"Router": {"default": "nvidia,minimaxai/minimax-m2.1","think": "nvidia,z-ai/glm4.7","longContext": "nvidia,moonshotai/kimi-k2.5"},"HOST": "127.0.0.1","LOG": true}推荐理由:该配置精选了英伟达 NIM 平台上架的国内 SOTA 模型: minimax-m2.1:MiniMax 2.1,多模态能力强 z-ai/glm4.7:智谱 GLM-4.7,中文理解优秀 moonshotai/kimi-k2.5:月之暗面 Kimi K2.5,长上下文支持推荐模型组合
![]()
国内 SOTA 模型(推荐 ✨)
英伟达 NIM 平台现已上架多款国内顶级模型,通过 CCR 可以直接使用:
模型
特点
推荐场景
minimaxai/minimax-m2.1
MiniMax 2.1,多模态能力出众
通用对话与代码
z-ai/glm4.7
智谱 GLM-4.7,中文理解优秀
中文编程任务
moonshotai/kimi-k2.5
月之暗面 Kimi K2.5,长上下文
长代码理解
英伟达 NIM 热门模型
模型
特点
推荐场景
meta/llama-3.1-405b-instruct
超大杯模型,推理能力强
复杂代码理解与生成
meta/llama-3.1-70b-instruct
性价比高,性能均衡
日常编程任务
nvidia/llama-3.1-nemotron-70b-instruct
英伟达优化版
通用对话与代码
mistralai/mistral-7b-instruct-v0.3
轻量快速
简单任务响应
启动与使用启动 CCR
# 命令行模式(日常使用)ccr code# 如果修改了配置,需要重启ccr restart启动成功后,Claude Code 会自动连接到本地路由服务,你可以通过自然语言让 AI 帮助你完成编程任务。
查看可用模型
配置完成后,你可以在 UI 界面中查看所有已配置的模型及其状态。
常见问题1. API 调用失败怎么办?
- 检查 API Key 是否正确
- 确认模型名称是否与 NVIDIA NIM 提供的完全一致
- 查看 CCR 日志排查问题(LOG: true 已启用)
- 日常编程:使用 minimax-m2.1,性价比高
- 复杂推理:使用 glm4.7,中文理解优秀
- 长代码理解:使用 kimi-k2.5,长上下文支持
通过配置多个 Provider 实现组合使用。参考上方「方式二:手动编辑配置文件」部分,添加更多 Provider(如 modelscope、siliconflow 等)即可。
参考资源
- NVIDIA NIM 官方文档:https://build.nvidia.com/docs
- Claude Code Router GitHub:https://github.com/musistudio/claude-code-router
通过 Claude Code Router 接入英伟达 NIM 平台,你可以:
- 直接使用国内 SOTA 模型- Kimi-k2.5、GLM-4.7、Minimax-2.1 等
- 国际模型可选- Llama、Mistral 等开源模型
- 灵活路由配置- 根据任务类型选择最优模型
- 稳定国内访问- 通过英伟达 NIM 平台实现稳定访问
现在就按照本指南配置你的 CCR,开始使用英伟达 NIM 的强大模型吧!
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.