Claude Code的代码能力确实出色,但token消耗是个头疼事——项目越复杂,账单越吓人。更麻烦的是,有些代码涉及商业机密,或者你恰好在飞机上没网。这时候本地模型就成了刚需。
Docker Model Runner正好解决这个问题。它让你把大语言模型直接跑在本地机器上,再通过简单配置对接Claude Code。整个过程不需要碰Anthropic的云端API。
![]()
配置前先做一件事:打开Docker Desktop,进入Settings > AI,启用Model Runner的TCP访问。或者用终端一键搞定:
docker desktop enable model-runner --tcp 12434
接下来选模型。DockerHub AI目录里有大量选择,建议挑代码能力强的。这里用ai/phi4:14B-Q4_K_M做演示,你可以根据机器配置自行调整。拉取命令如下,耗时取决于模型体积:
docker model pull ai/phi4:14B-Q4_K_M
拉完后用docker model status和docker model ls检查状态,操作逻辑跟普通Docker镜像几乎一样。正式接入Claude Code前,先验证API是否通畅。往localhost:12434/v1/messages发一条测试请求:
curl http://localhost:12434/v1/messages -H "Content-Type: application/json" -d '{"model": "ai/phi4:14B-Q4_K_M", "max_tokens": 100, "messages": [{"role": "user", "content": "Hello!"}]}'
收到正常响应后,最后一步:把ANTHROPIC_BASE_URL指向本地端口,同时用--model指定模型名称。执行这行命令,Claude Code就会完全走本地通道:
ANTHROPIC_BASE_URL=http://localhost:12434 claude --model ai/devstral-small-2
至此配置完成。token费用归零,代码留在本地,离线也能用——三个痛点一次解决。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.