网易首页 > 网易号 > 正文 申请入驻

我在M1 Mac上测试本地AI的残酷体验

0
分享至


作为一名报道人工智能超过十年的记者,我一直深知运行人工智能会带来各种计算机工程挑战。大语言模型不断变得更大,需要越来越多的DRAM内存来运行其模型"参数"或"神经权重"。

我了解这些情况,但想要亲身体验一下。我想在家用电脑上运行一个大语言模型。

下载和运行AI模型可能需要大量工作来设置"环境"。受同事Jack Wallen对开源工具Ollama的报道启发,我下载了Ollama的MacOS版本作为进入本地AI的入口。

Ollama相对容易使用,它与LangChain、Codex等工具的集成做得很好,这意味着它正在成为整合AI各个方面的工具,这令人兴奋。

在本地运行大语言模型的优势

在本地运行大语言模型,而不是仅仅在线使用ChatGPT或Perplexity,对程序员和任何信息工作者都很有吸引力。

首先,作为信息工作者,如果你能下载和运行模型,而不是像每个ChatGPT免费用户一样只会在线输入,你在就业市场上会更有价值。这涉及基本的职业发展。

其次,有了本地大语言模型实例,你可以防止敏感数据离开你的机器。这对任何信息工作者来说都应该是显而易见的重要性,不仅仅是程序员。在我的情况下,我的项目目标是使用本地模型来挖掘我多年来的文章库,作为我所写内容的报告,包括我可能已经忘记的内容。我喜欢保持所有文件本地化,而不是上传到云服务。

第三,你可以避免OpenAI、Google、Anthropic等公司收取的费用。正如我最近所写,在线使用大语言模型的价格将要上涨,所以现在是考虑在自己机器上离线完成大部分工作的好时机,那里不会持续计费。

第四,你有更多控制权。例如,如果你想做编程,你可以调整大语言模型,称为微调,以获得更专注的结果。你还可以使用各种本地安装的工具,如LangChain、Anthropic的Claude Code工具、OpenAI的Codex编码工具等。

即使你只想做信息工作者任务,如生成报告,使用本地文档缓存或本地数据库进行此类操作也能获得比上传内容到机器人更大的控制权。

测试设备配置

我用一台最低配置的机器进行这个实验,就运行大语言模型而言。我想了解如果有人不经常购买新机器,而是在家里用日常任务使用的同一台电脑尝试这样做会发生什么。

我的MacBook Pro已经三年了,有16GB RAM和一个四分之三满的1TB硬盘,运行的不是最新的MacOS,而是MacOS Sonoma。这是2021年的型号MK193LL/A,虽然我2023年1月在Best Buy清仓销售时购买时它是顶级配置,但当时它已经在成为昨天的最佳型号了。

我知道,这超出了机器的典型有用寿命和任何人的折旧计划。尽管如此,这台MacBook当时是一个很棒的升级,并且在日常典型的信息工作者任务中继续表现出色:日历、大量电子邮件、大量网站、视频后期制作、播客音频录制等。我从未有任何抱怨。

实际测试体验

Ollama的启动界面看起来像Chatgpt,有一个友好的输入提示,一个上传文档的"加号",以及一个可以本地安装的模型下拉菜单,包括Qwen等流行模型。

如果你只是在提示处开始输入,Ollama会自动尝试下载下拉菜单中显示的任何模型。所以,除非你想要模型轮盘赌,否则不要做任何输入。

我查看了下拉列表中的模型,意识到其中一些模型不是本地的——它们在云端。如果你想要Ollama的基础设施而不是自己的,Ollama会运行云服务。

坚持本地运行选项,我决定查看Ollama维护的模型目录中更广泛的模型列表。

我随机选择了中国AI初创公司Z.ai的glm-4.7-flash。拥有300亿"参数"或神经权重,GLM-4.7-flash按今天的标准来说是一个"小型"大语言模型,但不是很小,因为有少于10亿参数的开源模型。

目录为你提供终端命令,通过在Mac终端复制粘贴来下载选定的模型,如:ollama run glm-4.7-flash

要注意磁盘空间。Glm-4.7-flash占用19GB磁盘空间,记住,这还是小的!

下载模型似乎相当快,虽然不是闪电般快速。在纽约市Spectrum提供给我家庭办公室的千兆速度电缆调制解调器上,该模型一度以每秒45MB的速度下载,虽然后来降到了较慢的吞吐率。

性能测试结果

我的第一个提示相当简单:"你是什么类型的大语言模型?"

我坐着观察了一会儿,看到前几个字符出现在回应中:"[灯泡图标] 思考中——让我分析是什么让我成为一个"就这样了。

十分钟后,它没有进展多少。

一小时16分钟后——模型"思考"了5197.3秒——我终于得到了关于glm-4.7-flash是什么类型语言模型的答案。经过这么长时间,答案并不是那么有趣。

我想我已经对glm感到厌倦了。不幸的是,Ollama没有提供关于如何删除本地安装模型的说明。模型保存在MacOS当前用户目录中的隐藏文件夹".ollama"内的"models"文件夹中。

Jack还推荐了OpenAI最近的开源模型gpt-oss,20亿参数版本"20b",他说在本地运行比他尝试的其他模型明显更快。所以,我接下来在目录中找到了那个。

这次,大约六分钟后,gpt-oss:20b以不算蜗牛般但也不快的速度产生了回应,说它是"ChatGPT,由OpenAI的GPT-4系列驱动"等等。

结论和反思

ChatGPT告诉我,运行gpt-oss:20b的计算机最低配置实际上是32GB DRAM。MacBook的M1 Pro芯片有集成GPU,ChatGPT赞许地指出Ollama为gpt-oss:20b版本提供了对Mac GPU的支持,这是一个称为"llama.cpp后端"的库。

所以,一切都应该没问题,但我确实需要超过16GB的DRAM。我需要从现在五年老的M1升级到M4或M5。对我来说相当有趣的是,写了三十年计算机文章,对于信息工作者,我们谈论32GB作为最低合理配置。

正如我最近提到的,DRAM价格飞涨,因为所有那些云数据中心都在消耗越来越多的DRAM来运行大语言模型。所以,可以说是我对抗云供应商,我可能需要刷信用卡升级到新电脑。

虽然我初出茅庐的本地Ollama努力没有取得成功,但它让我对AI的内存密集程度有了新的认识。从多年报道AI我一直知道这点,但现在我深有体会,当对提示的响应需要永远滚动屏幕时的那种感觉。

Q&A

Q1:为什么要在本地运行大语言模型而不是使用在线服务?

A:本地运行大语言模型有几个优势:首先可以保护敏感数据不离开本地机器,其次可以避免OpenAI、Google等公司的费用,第三能获得更多控制权进行模型微调,最后对信息工作者来说这是基本的职业发展技能。

Q2:运行本地大语言模型需要什么样的硬件配置?

A:根据测试经验,16GB RAM的配置明显不够用。ChatGPT建议运行gpt-oss:20b这样的模型最低需要32GB DRAM。而且最好使用较新的处理器如M4或M5,而不是五年前的M1芯片,因为AI模型对内存和计算能力要求很高。

Q3:Ollama工具使用起来怎么样?

A:Ollama相对容易使用,界面类似ChatGPT,有友好的输入提示和模型选择菜单。它与LangChain、Codex等工具集成良好。但需要注意的是,一些模型实际上是云端运行的,而且删除本地模型的操作比较复杂,需要手动删除隐藏文件夹中的内容。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
35岁蓝盈莹穿抹胸跳手势舞,直角肩气场全开,状态嫩过25岁

35岁蓝盈莹穿抹胸跳手势舞,直角肩气场全开,状态嫩过25岁

悦君兮君不知
2026-01-31 23:17:56
这个中国人的惊天叛逃,99.99%概率是死,但他却成了那0.01%

这个中国人的惊天叛逃,99.99%概率是死,但他却成了那0.01%

深度报
2026-01-31 16:59:47
盟友反目!帕希尼扬怒撕俄罗斯:数亿武器款付了,安全承诺成空文

盟友反目!帕希尼扬怒撕俄罗斯:数亿武器款付了,安全承诺成空文

老马拉车莫少装
2026-01-29 00:12:41
马伊琍新男友,-太平年-里演技不错

马伊琍新男友,-太平年-里演技不错

梦醉为红颜一笑
2026-01-31 09:44:40
江苏婚车被拦后续:原因疑似曝光,特意请假,朋友在小卖部等号令

江苏婚车被拦后续:原因疑似曝光,特意请假,朋友在小卖部等号令

离离言几许
2026-02-01 20:13:46
四国演练击沉中国军舰,中方轻飘飘回了句英文,伤害不大侮辱性强

四国演练击沉中国军舰,中方轻飘飘回了句英文,伤害不大侮辱性强

墨兰史书
2026-01-30 17:25:04
不敢置信!女子十二乐坊成员直播养不活自己,一晚上打赏不到3000

不敢置信!女子十二乐坊成员直播养不活自己,一晚上打赏不到3000

云中浮生
2026-01-24 21:37:46
婴儿出生6天被月嫂摔至颅内出血,月子中心老板:我申请破产了,你找律师去;街道工作人员:会全程跟进

婴儿出生6天被月嫂摔至颅内出血,月子中心老板:我申请破产了,你找律师去;街道工作人员:会全程跟进

南国今报
2026-01-29 21:04:53
国家再发“预警”,春节期间别去日本,如果爆发战争,会一起挨炸

国家再发“预警”,春节期间别去日本,如果爆发战争,会一起挨炸

我心纵横天地间
2026-01-29 14:45:20
A股下周重磅|沃什被提名为美联储主席,黄金白银配置价值是否改变?

A股下周重磅|沃什被提名为美联储主席,黄金白银配置价值是否改变?

每日经济新闻
2026-02-01 19:46:39
阿富汗塔利班恢复奴隶制。

阿富汗塔利班恢复奴隶制。

荆楚寰宇文枢
2026-01-29 23:23:47
11打10!100分钟点球绝杀 13.5亿豪门2-1险胜倒数第五 豪取6连胜

11打10!100分钟点球绝杀 13.5亿豪门2-1险胜倒数第五 豪取6连胜

狍子歪解体坛
2026-02-01 23:12:38
贪财又好色,德不配位的几位老艺术家,晚节不保一点都不冤

贪财又好色,德不配位的几位老艺术家,晚节不保一点都不冤

素衣读史
2026-01-19 12:01:39
四川一男子为控制血糖,每天坚持走路8000步,半年后他的身体咋样

四川一男子为控制血糖,每天坚持走路8000步,半年后他的身体咋样

蜉蝣说
2026-01-30 10:54:58
笑岔气了!果然断句是中国人一生的宿敌,只能说中国文化博大精深

笑岔气了!果然断句是中国人一生的宿敌,只能说中国文化博大精深

夜深爱杂谈
2025-12-19 16:39:58
张本美和成功夺冠!3:0击败世界冠军,成为日本锦标赛单届4冠王

张本美和成功夺冠!3:0击败世界冠军,成为日本锦标赛单届4冠王

国乒二三事
2026-02-01 14:41:15
醪糟被关注!医生:常吃醪糟的人,不用多久,肠道或迎来3个变化

醪糟被关注!医生:常吃醪糟的人,不用多久,肠道或迎来3个变化

阿兵科普
2025-11-30 20:53:55
36年前陈宝国主演的盗墓恐怖片!尺度大到少儿不宜

36年前陈宝国主演的盗墓恐怖片!尺度大到少儿不宜

释凡电影
2025-08-14 09:33:19
艾滋病新增130万!很多人中招很冤枉!在外“5不碰”一定要记死

艾滋病新增130万!很多人中招很冤枉!在外“5不碰”一定要记死

今朝牛马
2025-12-31 19:31:04
是时候戳破具俊晔的虚假墓地秀了,韩国综艺跟拍揭虚伪一幕!

是时候戳破具俊晔的虚假墓地秀了,韩国综艺跟拍揭虚伪一幕!

杨仔述
2026-01-31 22:30:51
2026-02-02 00:40:49
至顶AI实验室 incentive-icons
至顶AI实验室
一个专注于探索生成式AI前沿技术及其应用的实验室。
1542文章数 158关注度
往期回顾 全部

科技要闻

10亿元宝红包突袭 复刻微信支付还是微视?

头条要闻

爱泼斯坦追逐女孩、安德鲁跪爬女子身上画面全公布

头条要闻

爱泼斯坦追逐女孩、安德鲁跪爬女子身上画面全公布

体育要闻

德约大度祝贺阿卡 幽默互动逗笑纳达尔

娱乐要闻

春晚第三次联排阵容曝光:全是实力派

财经要闻

黄仁勋台北"夜宴":汇聚近40位台企高管

汽车要闻

岚图汽车1月交付10515辆 同比增长31%

态度原创

教育
健康
房产
时尚
游戏

教育要闻

鼓楼、玄武、建邺、秦淮多区教育局发布提醒!

耳石症分类型,症状大不同

房产要闻

藏不住的小城大事,海澄新城执掌自贸港风口,进阶兑现美好生活新篇

“多巴胺风”又又又火了!这样穿时髦又减龄

末期癌症玩家圆梦《毁灭战士》!id公开致敬

无障碍浏览 进入关怀版