今天试了Gemma 4 + OpenClaw,不用装CUDA,不用配环境,就三步。Mac上点开Ollama,输`ollama run gemma4:26b`,等十几分钟下载完,它自己就跑起来了。我用的M2 Air,跑E4B很稳,连语音转文字都试了,没卡。
![]()
OpenClaw真的像开了挂,我说“把我手机拍的发票识别出来”,它自动调Ollama、传图、读数、回结果,整个过程没敲一行命令。之前总怕量化后变傻,但这次数学题错了不到1%,和官网说的差不多。
![]()
有人问非N卡行不行?我室友M1 MacBook跑E2B,CPU满但能用。不是飞快,但真能干活。Raspberry Pi 5上我也试了,装个Ollama再拉E2B,内存吃紧但没崩。
![]()
文档里说默认只绑本地,我特意检查了,`netstat -an | grep 11434`,果然只监听127.0.0.1,没乱开。删模型也简单,`ollama rm`一下就清干净,不像以前删不干净占几十个G。
![]()
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.