(来源:至顶AI实验室)
上周Google DeepMind发布了 Gemma 4模型。这一次不是小幅迭代,而是在架构、能力和授权三个维度同时跃进的里程碑版本。
Gemma 4 基于首次以 Apache 2.0 许可证开源发布,彻底扫除了企业商业部署的法律障碍。
四款型号,全谱覆盖
Gemma 4 家族共推出四个尺寸,分别针对从移动端到专业工作站的不同硬件场景:
Gemma 4 E2B(端侧 · 移动优先) 约 2.3B 有效参数,专为智能手机、树莓派、NVIDIA Jetson Orin Nano 设计。支持文本、图像、视频与音频输入,128K 上下文。离线零延迟推理。显存需求:7.2GB(4-bit 量化)。
Gemma 4 E4B(端侧 · 笔记本友好) 约 4.5B 有效参数,面向现代笔记本电脑与消费级 GPU。同样支持完整多模态能力,推理质量显著高于 E2B,128K 上下文。显存需求:9.6GB(4-bit)/ 16GB(BF16)。
Gemma 4 26B A4B(MoE · 效率旗舰) 混合专家架构(MoE),总参数 26B,推理时仅激活 3.8B。以接近 4B 模型的速度与显存,提供接近 13B 模型的质量。256K 上下文。显存需求:18GB(4-bit)/ 52GB(BF16)。
Gemma 4 31B Dense(Dense · 质量旗舰) 密集架构,31B 参数,最强推理能力。适合精调(Fine-tuning)与高质量推理场景。一张 80GB H100 可运行未量化版本。256K 上下文。显存需求:20GB(4-bit)/ 62GB(BF16)。
架构创新
Gemma 4 采用混合注意力机制,交替使用局部滑动窗口注意力与全局注意力,最后一层始终为全局注意力。这一设计在保留轻量模型速度与低内存占用的同时,确保了处理长上下文任务所需的深度感知能力。全局层使用统一的 Keys/Values,并应用比例位置编码(p-RoPE)优化长上下文性能。
E2B 与 E4B 中的"E"代表"Effective(有效参数)",这两款端侧模型引入了逐层嵌入(Per-Layer Embeddings,PLE)技术,为每个 token 在每一解码层生成专属的低维向量,使 E2B 在受支持的移动设备上内存占用低至 1.5GB。
核心能力
这一代Gemma的更新主要体现在:推理与 Thinking 模式、原生函数调用、多模态:文本/图像/视频、音频(E2B/E4B)、256K 超长上下文、140+ 语言 、结构化 JSON 输出,以及Apache 2.0 商用免费。
Gemma 4 首次在 Gemma 家族中引入原生 system role 支持,配置推理(Thinking)模式只需在系统提示开头加入 <|think|> 标记,无需任何额外工程。
基准测试成绩
Gemma 4 相比上一代 Gemma 3 27B 的提升不是渐进式的,而是跨级别的。
基准测试
Gemma 3 27B
Gemma 4 31B
Gemma 4 26B MoE
MMLU Pro
(多学科问答)
85.2%
82.6%
AIME 2026
(数学竞赛)
20.8%
89.2%
88.3%
LiveCodeBench v6
(代码竞赛)
29.1%
80.0%
77.1%
GPQA Diamond
(研究生科学)
42.4%
84.3%
82.3%
τ²-bench
(智能体工具调用)
6.6%
86.4%
85.5%
在 Arena AI 全球开放模型排行榜上,Gemma 4 31B(ELO ≈ 1452)位列第 3,26B MoE(ELO ≈ 1441)位列第 6。τ²-bench 的跃升:从 6.6% 到 86.4%,或许是最能说明实际价值的数字。这意味着 Gemma 4 终于具备了可靠的多步工具调用与智能体工作流能力。
硬件需求
ollama(4bit)
huggingface(16bit)
E2B
7.2GB
10.3GB
E4B
9.6GB
16GB
26B MoE
18GB
51.6 GB
31B Dense
20GB
62.6GB
Gemma 4的三种使用方式
Gemma 4 首日即获得主流推理框架的完整支持,包括 Ollama、vLLM、llama.cpp、MLX、Hugging Face Transformers、NVIDIA NIM、SGLang、LM Studio 等。以下重点介绍最常用的两种本地部署方式。
方式一:Ollama(推荐入门)
Ollama 在 Gemma 4 发布后 24 小时内即推出 v0.20.0 支持版本,是目前社区最广泛推荐的本地推理工具。它自动处理模型权重下载、量化格式选择和运行时配置,用户无需了解底层细节。
步骤:
从 ollama.com 下载对应系统的安装包,完成安装后确认 CLI 可用
拉取模型(以 E4B 为例,适合 8GB+ VRAM 的笔记本/台式机)
启动对话,也可通过 REST API 集成到应用中
# 版本确认,需要是v0.20.0ollama version# 拉取模型ollama pull gemma4:e4b# 直接对话ollama run gemma4:e4b# 其他尺寸:# ollama pull gemma4:e2b # 手机/树莓派# ollama pull gemma4:27b # 26B MoE(需要 18GB+)# ollama pull gemma4:31b # 最强版本(需要 20GB+)
Ollama 默认上下文窗口仅为 4096,如果想发挥 Gemma 4 的长上下文优势,建议手动扩大:# 进入模型后,在提示符中执行:/set parameter num_ctx 32768/save gemma4:e4b-32k/bye# 此后以新名称启动即可使用 32K 上下文ollama run gemma4:e4b-32k
Ollama同时暴露本地REST API(默认端口 11434),兼容OpenAI接口格式,便于对接Open WebUI、Claude Code CLI等上层工具:# REST API 调用示例curl http://localhost:11434/api/generate \-d '{"model": "gemma4:e4b","prompt": "用 Python 实现快速排序","stream": false}'# 或使用 OpenAI 兼容接口curl http://localhost:11434/v1/chat/completions \-H "Content-Type: application/json" \-d '{"model": "gemma4:e4b","messages": [{"role": "user", "content": "解释 MoE 架构"}]}'
方式二:vLLM(生产级高吞吐)
vLLM 适合需要高并发、批量推理的服务端部署。Gemma 4 首日即获支持。不过,vLLM 目前存在一个已知 bug,在部分 RTX 4090 等硬件上会将 Gemma 4 的推理速度限制在约 9 tokens/s(正常应为 40–60 tokens/s),遇到这种情况建议切换 Ollama。
# 安装 vLLM(需要 Python 3.10+)pip install vllm# 以 OpenAI 兼容服务方式启动 31B 模型vllm serve google/gemma-4-31b-it \--dtype bfloat16 \--max-model-len 32768 \--tensor-parallel-size 1# 调用(与 OpenAI SDK 完全兼容)python -c "from openai import OpenAIclient = OpenAI(base_url='http://localhost:8000/v1', api_key='na')resp = client.chat.completions.create(model='google/gemma-4-31b-it',messages=[{'role': 'user', 'content': '分析以下代码的时间复杂度'}])print(resp.choices[0].message.content)"
方式三:Hugging Face Transformers(精调/研究)
# 安装依赖pip install transformers torch accelerate# Python 调用(开启 Thinking 模式)python -c "from transformers import pipelinepipe = pipeline('text-generation',model='google/gemma-4-e4b-it',device_map='auto')# 系统提示开头加 <|think|> 即启用推理模式messages = [{'role': 'system', 'content': '<|think|> 你是一个数学助手。'},{'role': 'user', 'content': '证明:无穷多个质数存在'}]result = pipe(messages, max_new_tokens=512)print(result[0]['generated_text'][-1]['content'])"
可执行测试案例
如果你想测试新版Gemma 4的新能力,可以从下面两个测试入手:分别验证 Gemma 4 的推理能力与代码生成能力。建议使用 Ollama + gemma4:e4b 或更大型号运行。
测试 1:Thinking 模式下的逻辑推理
这个测试旨在验证模型在开启逐步推理(Chain-of-Thought)时对复杂逻辑问题的处理能力。将以下内容作为 system prompt 使用,并观察 <|channel>thought 块内的思考过程。
# Ollama REST API 测试脚本(保存为 test_thinking.sh)curl http://localhost:11434/api/chat -d '{"model": "gemma4:e4b","messages": [{"role": "system","content": "<|think|> 你是一个严谨的逻辑推理助手,请逐步思考后给出答案。"},{"role": "user","content": "一个房间里有 3 盏灯,房间外有 3 个开关,每个开关对应一盏灯。你在房间外,看不到里面的灯。你只能进入房间一次。请描述如何通过操作开关,在进入房间一次后确定每个开关对应哪盏灯。"}],"stream": false}' | python3 -m json.tool
预期结果:模型应在 thought 块中逐步推理出"先打开开关 A 等待数分钟,再关掉,打开 B,进入房间后:亮着的是 B,热但不亮是 A,冷且不亮是 C"的经典解法。
测试 2:代码生成与函数调用
这个测试目的是验证 Gemma 4 的原生 Function Calling 能力,这是 Gemma 3 时代的薄弱环节,也是 Gemma 4 重点强化的方向。
# Python 函数调用测试(test_tool_use.py)import json, requeststools = [{"type": "function","function": {"name": "get_weather","description": "获取指定城市的天气信息","parameters": {"type": "object","properties": {"city": {"type": "string", "description": "城市名称"},"unit": {"type": "string", "enum": ["celsius", "fahrenheit"]}},"required": ["city"]}}}]payload = {"model": "gemma4:e4b","messages": [{"role": "user", "content": "北京今天的天气怎么样?用摄氏度表示。"}],"tools": tools,"stream": False}resp = requests.post("http://localhost:11434/v1/chat/completions",json=payload).json()# 检查模型是否正确生成了 tool_callmsg = resp["choices"][0]["message"]if msg.get("tool_calls"):tc = msg["tool_calls"][0]print(f"✓ 工具名: {tc['function']['name']}")print(f"✓ 参数: {tc['function']['arguments']}")else:print("✗ 未生成 tool_call,检查模型版本或提示词")
预期结果:该测试应返回格式类似 {"city": "北京", "unit": "celsius"} 的结构化 JSON 参数,而非自由文本回答。若模型输出正确,即表明 Gemma 4 的函数调用能力可用于实际 Agent 开发。
综合评价
社区和专家反应都不错:
"这不是对 Gemma 3 的渐进式改进,而是完全不同量级的模型。AIME 分数从 20.8% 跳到 89.2%,我最初不相信这个数字,直到自己拉下来测试了 40 分钟。" —— Medium 技术博主(Data Science Collective,2026年4月)
"Gemma 4 的成功与否将完全取决于易用性,而不是 benchmark 分数的 5-10% 差距。它已经足够强、足够小、有正确的许可证,来自美国,很多公司会直接把它放进去。" —— interconnects.ai 分析文章,2026年4月
"以前 Gemma 的自定义许可证让法务团队头疼,很多企业直接跳过选了 Mistral 或 Qwen。Apache 2.0 是行业标准的'真正免费使用'信号,这次终于补上了。" —— MindStudio 技术博客,2026年4月
在 Reddit r/LocalLLaMA 社区,26B A4B MoE 版本获得了 16GB 显存用户的高度评价,被认为是该显存区间内性价比最优的选择。用户分享了针对推理和代码任务的最优参数组合:
--temp 0.3 --top-p 0.9 --min-p 0.1 --top-k 20客观评估
Arena AI 排名(31B Dense):#3,全球开放模型榜,ELO ≈ 1452
Arena AI 排名(26B MoE):#6,仅 3.8B 激活参数达成
GPQA Diamond 独立测试:85.7%,40B 以下开放模型第 2 名
Codeforces ELO:2150(Gemma 3 仅为 110)
优势与局限
Gemma 4 最突出的价值在于三点叠加:Apache 2.0 商业免费、端侧到工作站的全硬件覆盖、以及在同参数量级别内的顶级 benchmark 成绩。26B MoE 型号尤为特殊——它以约 4B 的推理成本,提供了接近 13B 模型的输出质量,是显存受限场景下的"隐藏王牌"。
但 Gemma 4 并非没有局限。它的定位是端侧小模型,所以在最顶级的推理能力维度,它落后于 Qwen 3.5 397B、GLM-5 Reasoning 等中国超大型开放模型,以及 DeepSeek V3.2 在 IMO/IOI/ICPC 2026 竞赛中展示的极致数学能力。对于必须使用最强开源推理模型、且不计算资源成本的场景,这些竞争对手仍是更优选择。
此外,vLLM 目前存在已知的速度 bug(在部分 GPU 上被节流至 9 tok/s),社区建议在官方修复前优先使用 Ollama 作为替代。Gemma 历代版本在精调易用性上也曾受到批评,Gemma 4 能否在这一环节改善,仍有待社区精调实践的检验。
至顶AI实验室洞见
Gemma 4 是 Google 在开放模型赛道上交出的最有说服力的答卷。Apache 2.0 授权扫清了商业部署的法律障碍,端侧型号将真正可用的多模态 AI 带入了手机和树莓派,31B Dense 在单张 H100 上达到了与闭源 API 媲美的推理水准。对于希望在自有硬件上部署可靠、高性能开源模型的开发者和企业,Gemma 4 是目前最值得认真考虑的选项之一。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.