本地跑大模型这件事,以前跟MacBook Air用户没关系。16G起步,风扇狂转,电池尿崩——这是常态。Google这次把Gemma 4放出来,8G内存就能开机,相当于宣布:入门款Mac终于能上桌吃饭了。
技术细节很朴素。27B参数,4-bit量化,Ollama一条命令直接拉取。开发者实测在M2 Air上跑起来,token速度能到每秒20个,写邮件够用,改代码勉强,聊胜于无。但关键是「能跑」本身——以前这是奢侈品,现在变成默认配置。
Google自己说得很克制:「This is a single command」。没有发布会,没有Hugging Face置顶,没有Keras教程刷屏。对比Llama 3发布时的锣鼓喧天,这像是一家便利店凌晨补货,货架满了,但没人放鞭炮。
沉默自有原因。Gemma系列一直活在Llama的阴影里,下载量、社区热度、微调模型数量,全线落后。这次押注端侧,是换道超车——既然云端打不过,就赌你笔记本的硬盘和隐私焦虑。苹果WWDC刚吹完本地AI,Google立刻递上免费弹药,时机掐得准。
一个细节:Gemma 4的许可协议比Llama宽松,商用无需申请,没有月活限制。小公司做客服机器人、律所做文档初筛,终于不用给Meta写邮件等审批。有开发者在Reddit吐槽,「Llama的律师条款比模型还难懂」,Gemma显然听进去了。
当然,27B在本地还是笨。让它写Python脚本,变量命名风格像2010年的Stack Overflow;问它2024年的新闻,幻觉浓度超标。但凌晨两点断网赶稿,或是飞机上改合同,这种场景不需要聪明,只需要「能用」和「不泄密」。Gemma 4填的就是这个缝。
Ollama的安装命令昨晚被复制了4000多次。有人晒截图:2017年的Intel MacBook Pro,8G内存,跑起来了。底下最高赞评论是,「我的电子垃圾又活了」。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.