![]()
机器之心发布
机器之心编辑部
11 月 3 日,全球知名游戏博主 PewDiePie 发布视频,展示其自建本地 AI 系统的全过程。该视频目前浏览量已经超过 300 万,视频标题则赫然写着双关梗 “STOP: Using AI Right now”。
到底 PewDiePie 要停止使用怎样的 AI?又要开始使用怎样的 AI?
![]()
他投入 2 万美元,组装了包含 10 块英伟达 GPU(含 8 块改装版 RTX 4090 和 2 块 RTX 4000 Ada)的本地系统,支持 700 亿至 2450 亿参数的大模型运行,全程无需依赖云计算。 通过 vLLM 框架,他试验了 Qwen-235B 等模型,构建了具备搜索、记忆、RAG(检索增强生成)和音频输出功能的定制化 AI 界面。
要知道 PewDiePie 是海外游戏博主顶流中的顶流,Youtube 粉丝超 1.1 亿,Ins 粉丝 2 千万。他下场部署本地 AI 引起全网巨大轰动。
一夜之间,本地部署 AI 大模型成为讨论热度极高的话题。
![]()
![]()
![]()
为什么本地 AI 的热情一点即燃?
这要先从本地 AI 的特性说起。
在传统 AI 订阅模式中,大模型 + 云服务 = 账号 + API Key + 账单。
你只是在租用大公司的算力 + 模型 + 前端,这个环节里没有任何东西是属于你的。
- 你喜欢的模型随时可能被修改和替换
- 你的人生经验和记忆变成云上的共享资产
- 你辛苦 “养成” 的 Agents 其实也在为千万用户提供一样的服务
而在本地 AI 系统里,你的设备 = 你完全掌控的 AI 土壤。
- 隐私无忧。关于 AI 大厂如何管理及使用用户数据医疗记录、公司文档再也不用上传第三方。
- 性能全掌控。本地推理意味着大大减少复杂外在环境的不可控性。再也不用忍受 Chatbot 想半天以后告诉你 “网络错误,请重试”。
- 模型自由选用。在 gpt-5 被大家诟病但一众广受好评的就模型被一刀切拿掉的同时,开源模型越来越卷。几乎每周都有新的模型推出,小而美到巨无霸,选择非常多,统统供你差遣。
本地 AI 的黄金价值:隐私 + 性能 + 可组合性
然而,打造自己的 AI 实验室听起来似乎是一件门槛很高的事情。
为了跑最新的大模型就去购买几张 A100、几张 4090 并不是普通用户会去考虑的选择。
其实你有没有想过 —— 一台 M3 Ultra Mac Studio、一台游戏本、再加上隔壁工位的 Windows 主机,就能组成一个媲美企业级 AI 推理集群的「本地超算网络」?
本地 AI 新贵:Parallax
大家可能已经熟知 LMStudio、Ollama、Exo 等本地 AI 项目。而近期,一个叫 Parallax 的开源 AI 项目又频频出现在开源 AI 行业朋友圈中。阿里千问、Kimi、智谱 Z.ai、MiniMax、SGLang/LMSys 通通转发打 call 。
![]()
![]()
![]()
![]()
除了活跃的朋友圈,Parallax 更在 Product Hunt 冲上日榜第一, AI 产品周榜第四。
![]()
我们非常乐意看到更多团队为大家带来强力本地 AI 工具,让越来越多人拥有和创造 AI,而不只是从大公司租用闭源服务。
什么是 Parallax?
Parallax 不只是一个工具 —— 它是自主本地 AI 时代的全自主化操作系统。
就像当年 Linux 挑战 Windows,今天,Parallax 正在挑战 “AI 必须上云” 的霸权逻辑。
它是全球首个「全自主 AI 操作系统」,由 Gradient 团队打造并开源,Parallax 的目标只有一个:
让每个人都能掌控自己的 AI ,不再依赖云端大厂。
该系统支持在 Mac、Windows 等异构设备上跨平台、跨地域部署大模型,让用户完全掌控模型、数据与 AI 记忆。Parallax 内置网络感知分片与动态任务路由机制,可根据推理负载实现智能调度,在单机、本地多设备、广域集群三种模式间无缝切换。目前,Parallax 已兼容 Qwen3、Kimi K2、DeepSeek R1、gpt-oss 等 40 余种开源大模型。开发者可以进行本地部署,以完全自主的方式构建并运行编程助手、个人智能体,多模态生成等多种 AI 应用,将所有敏感数据与控制权限均保留在本地。
![]()
![]()
Parallax 最独特的优势?
支持异构设备组网
不像大部分框架只支持单机 Host,Parallax 支持任意设备的组合。无论是单 Mac Studio、PC + Mac Book Pro,还是本地 Mac Mini 集群,Parallax 都能无缝支持。Parallax 为不同模型与场景准备好了三种模式,实现本地 AI 无缝扩容:
- 单机模式 (LocalHost):在个人设备上部署模型
- LAN 集群 (Co-Host):与朋友或同事组建本地集群,部署较大的模型
- WAN 集群 (Global Host):通过广域网,与遍布全球的机器一起部署和运行超大模型
为本地设备提供服务器级别性能优化
通过动态 KV 管理与连续批处理,Parallax 的目标是媲美商业服务器的高并发,可以为你的个人设备带来更高吞吐量。隐私与性能,无需做选择。
![]()
实测:在 M3 Ultra + RTX 4080 组合下,Parallax 推理 Llama-3.8B 在单 GPU 本地部署场景中,相对 llama.cpp 推理速度提升了 40% 以上;在 LAN 集群场景中,相对 Exo 则减少了一半的 time-to-first-token;如果组成 GPU 池进行任务调度,相对 HexGen 总 Throughput 提升 3.2 倍!
![]()
目前,Parallax 支持在 GPU 和 Apple Silicon 上无缝运行 40 + 模型,兼容 Windows、MacOS、Linux 三大操作系统,让分布各地、不同配置的设备能够协同工作。
如何上手?
Parallax 的 Github Repo 还是比较清晰的,无论是什么类型的电脑都可以按照引导开始上手。
小编用自己 + 同事的 2 台 Macbook Pro (M4 Pro 芯片) 上成功跑上了 Qwen 235B,现在已经不怎么用 ChatGPT 来处理日常需求了,黑科技打卡成功✅。
推荐感兴趣的 AI 爱好者,或者重度硬件爱好者可以前往尝试,看看怎么组合自己的设备运行喜欢的模型:
https://github.com/GradientHQ/parallax
如果你是科研党,想要了解更多 Parallax 的背景和测试环境,他们的论文也值得一读。
http://arxiv.org/abs/2509.26182v1
宣布开源后,Parallax 团队也在持续更新,支持了包括 Kimi K2 Thinking 等最近一些广受欢迎的大模型。希望早日看到他们对多模态模型的支持,这将进一步提升本地 AI 的想象空间。
文末彩蛋
本来这篇文章就在这里告一段落了。但是发文前,突然发现 Parallax 最近发布了一个活动,类似小型黑客松。参与门槛很低,奖品却很给力, 大家有兴趣的话不妨参与。
你只需要以图片、视频等方式记录下自己使用 Parallax 搭建与运行本地 AI 的成果,并在社交媒体发帖,就可以参与到评选当中。大奖是一台 DGX Spark 与若干台 Mac Mini。
在小红书搜索 “我的 AI 实验室”,就可以了解更多详情了。活动到月底结束,要参与的朋友们赶快尝试起来吧。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.