快速阅读:GLM-5横空出世,DeepSeek还在水面挣扎,而Gemma早已沉入湖底变成骷髅。这张梗图精准捕捉了2025年开源大模型社区的权力更迭,以及藏在热闹背后几个值得认真思考的问题。
该图片可能由AI生成![]()
这张图内容很简单:泳池边,GLM-5和开源大模型社区玩得不亦乐乎;DeepSeek还在水面上苦苦求生;水下那具悠闲坐在椅子上的骷髅,标着Gemma。
![]()
有网友说,这个meme七个月前版本里,沉底的是扎克伯格。再早一点,沉底的是Llama。有人补刀:“Llama现在已经在水底变石油了。”
开源模型的更迭速度快到令人眩晕。
DeepSeek的位置很微妙。它不算被遗忘,但确实正在被追赶。有观点认为,DeepSeek真正的价值从来都不是模型本身,而是附带的研究论文。它从不参与军备竞赛式的参数堆砌,只在有值得分享的研究成果时才发布。这是一种罕见的克制,也是真正意义上的研究院气质。V4的迟迟未到,究竟是在深度憋大招,还是确实落后了,现在没人说得清。
Gemma的处境更值得分析。它不是变差了,是被遗忘了。
有用户指出,Gemma 3 27B在多语言翻译上仍然领先,越南语、罗马尼亚语等小语种的流畅度远超更大的模型。有人把它作为专门负责“和用户说人话”的输出层,让其他模型干脏活,Gemma负责把结果整理成让人读得下去的回复。还有人把它嵌进视频生成模型LTX-2里做文本编码器。
问题出在谷歌身上。有分析认为,谷歌不发Gemma 4,是因为一个精明但凉薄的商业逻辑:如果Gemma 4足够好,用户就不会去付费用Gemini Flash。开源是策略,不是善意。Gemma从来就不是谷歌的核心产品,只是它们在Llama崛起时的防御性动作。威胁消失了,动作自然也停了。
这个社区还有一场更底层的撕裂:GLM-5究竟算不算“本地模型”?
有网友说,运行GLM-5需要多张高端GPU,普通人根本跑不了,叫它“本地”是一种话语欺骗。反驳的声音认为,“本地”的定义应该是“权重开放、自己部署”,而不是“能跑在消费级显卡上”。两边说的都有道理,但说的根本不是同一件事。
真正的矛盾在于,这个社区里至少存在三种完全不同的用户:用8B模型做垂直任务微调的开发者、攒了一屋子显卡跑千亿参数模型的发烧友、以及只想在笔记本上私密运行一个够用模型的普通人。他们对“好模型”的定义,几乎没有交集。
有个细节很说明问题。有用户提到自己用840GB内存跑大模型,速度2.5 token每秒。有人嘲讽这没有实用价值,有人替他辩护说“质量比速度重要”。这个争论本身就暴露了问题所在:当一个社区开始无法就“什么叫可用”达成基本共识时,讨论就会越来越像在不同宇宙之间喊话。
那些真正需要私有化部署、不碰任何云端API的企业用户,其实一直都在,只是不太出现在Reddit上。
简评:
开源大模型这场游戏,最吊诡的地方在于:赢家不是技术最强的,而是最会定义“什么叫赢”的。
DeepSeek说,我不发产品,我发论文,所以我永远领先在思想层面。谷歌说,Gemma够用就行,我真正卖的是Gemini。发烧友说,能跑千亿参数才叫本地模型。普通人说,我笔记本跑得动才叫模型。
所有人都在“开源”这个词下面开会,但其实各讲各话。
这像极了互联网早期的浏览器大战、搜索引擎之争。最后胜出的,往往不是技术最领先的那个,而是最早想清楚“我到底服务谁”的那个。
骷髅沉底,不是因为游不动,是因为忘了自己为什么要下水。
www.reddit.com/r/LocalLLaMA/comments/1r9uuc6/deepseek_and_gemma
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.