Google本周把Gemma 4系列全端上来了,从4B到27B四个尺寸,主打"单卡跑大模型"的卖点。官方博客写得像年终总结,连"我们保证这不是玩笑"这种话都搬出来了——毕竟上周刚被Gemini 2.5 Pro的翻车整得有点PTSD。
但真正的戏在评论区。一位Google员工在Hacker News上回了句:「Gemma 4的训练数据里混进了Gemini生成的内容,比例还不低。」这相当于茅台员工说自家酒里兑了二锅头,围观群众当场精神了。
数据合成在业界不算秘密,OpenAI、Anthropic都在干。但Gemma的定位是"开源可商用",企业用户最怕的就是版权地雷和输出不可控。Google去年刚因为Gemini的图像生成翻车道过歉,这次又在自己埋雷。
技术文档里藏着更微妙的细节:27B版本在单张H100上能跑,但上下文窗口只有128K,而同级别的Llama 3.1已经干到128K还开源了权重。换句话说,Google这次更像是把中端芯片的利用率优化到了极致,而不是真的在模型架构上有什么突破。
一位在评论区蹲了3小时的ML工程师留言:"我下载了4B版本测试,数学推理比Qwen 2.5差一截,但胜在许可证宽松。"这大概是Gemma 4最真实的注脚——它不是用来刷榜的,是用来让中小企业在合规文件上少签几个字的。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.