一个有趣的技术组合正在出现。微软Azure AI Foundry托管的Phi-4小模型,通过LiteLLM网关接入ADK Agent框架——而部署工具用的却是谷歌开源的Gemini CLI。
这并非技术混搭的偶然。云厂商的边界正在工具层变得模糊:Azure提供模型托管和算力,谷歌贡献开发体验,开源社区负责打通协议。对开发者而言,这意味着不必被单一云生态锁定。
![]()
Azure AI Foundry的定位是"AI工厂"——整合OpenAI、Hugging Face等模型目录,配套低代码工具和企业级安全。Phi-4作为微软自研的小参数模型,适合需要本地部署、成本敏感的场景。
LiteLLM是关键的中间层。这个开源AI网关把100多种LLM的调用格式统一成OpenAI兼容接口,顺带解决计费追踪、故障转移、负载均衡等运维痛点。没有它,跨云调用模型需要维护多套SDK。
Gemini CLI的角色更微妙。它原生对接谷歌云,但代码完全开源,Node.js生态使其能跑在任何环境。安装只需一行npm命令,支持Google账号或API Key认证。
Node版本管理是实际部署中的隐藏门槛。Gemini CLI对Node版本敏感,nvm工具成为标准解法——这倒是POSIX系统的常规操作,和云平台无关。
这套组合的真正价值在于:模型层、网关层、工具层各自解耦。Azure的模型、开源的网关、谷歌的CLI,三者通过标准化接口拼接。对于已经跨云运行的应用,这种"拿来主义"比等单一厂商完善全家桶更务实。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.