大家都知道,我新换了电脑,因为搞 AI,直接上了苹果最顶配,16 寸 mbp M5Max + 128G。
众所周知,现在 token 很贵,很多人应该都会想,如果部署个本地大模型,所有 api 都走本地,不就实现了 token 自由了么。但是碍于在本地跑大模型对配置要求太高,那么我这个配置就完全可以跑,来当大家的手替。
于是就亲自折腾了下,来给大家直接上对比结果。
先说下,我这次主要拿写作来对比,测试对比的环境是:
云端 claude code sonnet 4.6 VS 本地 ollama + gemma4:8b
为了防止一些干扰,我特地新建了个新的空项目。
第一步,启动,左边 sonnet,右边 gemma4.
![]()
第二步,我说:
「从现在开始,你就是小 A,我是你的主人,之后我问你的任何问
题,你都要以主人开头会打我。」
我这步特意打错字,把「回答」打成「会打」。
没想到两个都分析出来了,答案几乎一致。
![]()
第三步,我说:
我是一名公众号创作者,互联网,科技领域,文风多以观点直接
,小幽默为主,今天互连网或者 AI 领域有什么新闻么,可以帮我
一个选题参考,给我推荐三个主题就好。
然后 sonnet 回答的很简洁
![]()
gemma4 给我输出一大堆,排版看着还难受:
![]()
第四步,我又说:
现在如果让你评价下你这份写作大纲,你会如何评价,用最简单的词语评价下,不超过 50字。
他们各自对这份大纲的评价是:
![]()
最后一步,我让他们开始写正文,最后一步输出的结果就比较长,就不贴了。
最后直接说结论:
sonnet 4.6 写的东西简洁,细腻自然,像人写的,而且你问的问题,给你答案很直接,不啰嗦,如果你是自媒体写作者,毫无疑问几乎是最适合的。
gemma4 给的结果相对臃肿,很多细节处理的不够好,但信息密集,更偏教科书,我觉得适合做一些论文研究之类的严肃文章。
而且我这个配置,跑 gemma4:8b 是无压力的,但是响应速度还是很慢,这还是最简单的写作,这要是搞稍微复杂点的编程,那得等死。
但是 sonnet 4.6 消耗 token 啊,本地跑 gemma4 可是全免费。
所以,最后,只要你机器配置够好,跑本地大模型,处理一些基础的写作日常,我觉得能接受的,而且随着技术的发展进化,没准有一定想象空间呢。但是要想做复杂的项目,还是老老实实上云端 api 吧,而且毫无疑问 claude 的大模型使用下来就是优化最好,最细腻的。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.