![]()
4亿次下载、10万个社区魔改版——这是Google开源模型Gemma交出的成绩单。现在第四代来了,而且这次连许可证都换了。
Google DeepMind CEO Demis Hassabis说得很直接:「这是各自尺寸下全世界最好的开源模型。」
从手机到工作站:一条产品线全吃掉
Gemma 4这次发了四个型号,跨度大得有点离谱。最小的E2B(Effective 2B)能在树莓派和Jetson Nano上跑,最大的31B Dense模型目前在Arena AI开源模型排行榜上排第三。
中间夹着E4B(Effective 4B)和26B MoE(混合专家模型)。E2B和E4B是端侧专用,跟Pixel团队、高通、联发科一起调的;26B和31B瞄准开发者的本地工作站和 consumer GPU。
Google claim 两个大模型在Arena AI的 benchmark 上能打比自己大20倍的对手。31B的未量化权重刚好塞进单张80GB的Nvidia H100,量化版 consumer 硬件就能跑。
四个全是多模态,原生支持视频和图片,训练数据覆盖140多种语言。E2B和E4B额外加了原生音频输入,能做语音识别。上下文窗口:端侧模型128K token,两个大的256K。
能力上,Google强调了几点:多步推理改进、原生函数调用、结构化JSON输出(给agent工作流用)、离线代码生成。
Android开发者博客的数据:E2B比E4B快3倍,整个端侧家族比上一代Gemma快4倍,电池消耗最高省60%。
许可证换了:Apache 2.0意味着什么
这次最大的变化可能不是模型本身,是许可证。Gemma 4改用Apache 2.0,比前几代宽松得多。
Hugging Face联合创始人Clément Delangue的原话:「a huge milestone。」
开源模型圈的许可证战争打了很多年。Apache 2.0允许商用、允许修改、允许闭源衍生,只要求保留版权声明和免责声明。Gemma前几代用的自定义许可证有不少限制条款,开发者用起来总得先找法务过一遍。
现在不用了。这解释了为什么Hugging Face的人这么兴奋——他们的平台上现在可以直接 fork、改、商用, friction 低了一个数量级。
Google这一步踩得很有意思。Meta的Llama系列用自定义许可证,限制商用规模;Mistral也是自定义条款。Apache 2.0在合规成本上是个降维打击,尤其对企业用户。
跟Android绑定的野心
E2B和E4B不只是独立模型,它们是Gemini Nano 4的基座——Google下一代Android端侧模型,今年晚些时候上consumer设备。
这个链条很清晰:Gemma 4开源出来攒开发者口碑和社区生态,Gemini Nano 4闭源集成进Android系统服务。开源打声量,闭源赚用户。
Google跟高通、联发科的深度合作也在这里。端侧AI的瓶颈从来不是模型大小,是NPU调度、内存带宽、功耗墙。Pixel团队参与调E2B/E4B,说明这模型从一开始就是为Android设备的硬件特性优化的。
一个细节:E2B比E4B快3倍,但两者都是"端侧"定位。这个差距暗示Google在模型架构上做了差异化取舍——E2B可能更适合实时性要求高的场景(比如语音助手唤醒),E4B留给能容忍延迟的复杂任务。
排行榜第三,但开源模型的战场变了
31B Dense排Arena AI第三,26B MoE排第六。这个成绩不错,但排行榜本身的意义在贬值。
去年开始,开源模型的竞争维度从" benchmark 分数"转向"落地成本"。同样跑70B级别的能力,用20B MoE还是31B Dense,推理成本差几倍。Google claim 能打20倍体量的对手,说的就是性价比。
另一个变化是多模态变成标配。Gemma 4四个型号全带视觉能力,128K/256K的上下文窗口也比上一代翻倍。这意味着端侧模型现在能处理整本PDF、长视频片段,而不只是问答对话。
函数调用和结构化输出是agent基础设施。Google明显在押注2025年的AI应用形态:不是聊天机器人,是能调用工具、执行多步骤任务的agent。Gemma 4的原生支持让开发者不用自己 hack 提示词工程。
4亿下载之后的下一步
Gemma从2024年初发布到现在,4000多万下载、10万社区变体。这个数字在开源模型里仅次于Llama,但Llama有Meta的全站流量加持。
Gemma 4的渠道布局很全:Hugging Face、Kaggle、Ollama首发,31B和26B上Google AI Studio,端侧模型进AI Edge Gallery。基本上开发者在哪活跃,Google就把模型放哪。
一个值得观察的点:Gemma 4和Gemini 3共享技术栈,但Gemini 3本身还没完全铺开。Google似乎在用自己的闭源旗舰给开源产品线"技术背书",同时用开源产品的反馈迭代闭源版本。
这种双向流动的效率,是单纯做开源或单纯做闭源的公司很难复制的。
端侧AI的2025年会非常热闹。Apple Intelligence还没出中文,Gemini Nano 4就要来了。Google把E2B/E4B的基座开源出来,等于提前给开发者发了一张"Android端侧AI"的体验票。
当你的手机能在本地跑一个2B参数、128K上下文、支持语音图像的多模态模型时,你最先想用它做什么?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.