![]()
一步步让AI接管风扇、汽车、家电……从一台笔记本开始,打造个人版“贾维斯”。
作者丨邓天卓
编辑丨林觉民 梁丙鉴
01
暴击:
凌晨4点,我家的AI系统集体“罢工”了
2026年4月的一个凌晨,4点07分,一切崩溃了。
前一天晚上,我让家里的AI通宵干活——整理NAS(网络存储服务器,简单说就是“家用大型移动硬盘”)里20年攒下的几十TB数据,包括照片、文档、视频,AI要一个个分类,已经跑了整整6个小时。
结果,路由器突然重启了。
我的笔记本自动重连WiFi时,犯了个致命错误:它没连家里的主路由,反而连上了运营商的光猫网络。就这一个小失误,导致NAS、AI服务器全部失联,六个小时的工作功亏一篑,整个家庭AI系统像多米诺骨牌一样,彻底崩了。
早上7点,我打开电脑,屏幕上全是“连接失败”的提示——这是我用AI重建家庭数字生活的第九天,前八天的惊喜,差点被这一个小bug浇灭。
这一切,还要从八天前,一台新电脑的到来说起。
02
为什么非要让AI帮我迁移20年的“数字垃圾”?
先说说我的“执念”:20年不重装系统
我是天卓,一个连续创业者,也是一个技术极客。
(编者补:邓天卓更是一个移动互联网时代的超级创业者+投资人,与国内各家电商都关系匪浅。)
从最早的PowerPC电脑,到后来的Intel旗舰机,再到近几年的M1、M2、M3、M4 Max MacBook Pro,我的主力机换了一代又一代,但有一个习惯从没变——不重装系统。
每次换电脑,我都像“倒酒”一样,用苹果的迁移助手(Migration Assistant),把旧电脑里的所有东西,原封不动拷贝到新电脑里。
20年下来,我那台M4 Max MacBook Pro,已经变成了一个8TB的“数字迷宫”:几十万张专业相机照片、无数投资文档、上百个软件的配置、从2004年开始的开发环境,还有很多我自己都记不清是什么的海量数据。
以前,我只能靠不断买顶配电脑,才能装下这个“迷宫”。但今年,我不想再这样“摆烂”了——因为我收到了一台“神器”:M5 Max MacBook Pro(16英寸顶配,业内叫“皇帝版”)。
M5 Max的“杀手锏”:让大模型“住”进家用电脑
这台电脑最牛的地方,是它有128GB的统一内存(可以理解为“电脑的大脑运行空间”,越大越流畅)。
放在一年前,只有数据中心的专业GPU(图形处理器,相当于电脑的“算力心脏”),才能带动650亿参数的大模型(参数越多,AI越聪明);但现在,这台家用笔记本就能轻松做到——比如Qwen3.5-122B的4bit量化版,只需要65GB内存,运行速度完全够用。
更重要的是,模型跑在本地(就是只在我自己的电脑上运行),数据不会传到网上,既不用花钱买使用额度,也不用担心隐私泄露。
于是我萌生了一个大胆的想法:让AI帮我,把旧电脑里的“数字迷宫”,彻底迁移到新电脑上,顺便整理干净。
03
重头戏:
AI当“系统管理员”,迁移20年数据零翻车
打开 Claude Code,我下达了那个自己期待已久的命令:“帮我把M4上的一切,迁移到M5 Max上。”
这和传统的迁移方式,完全不一样。
传统迁移vs AI迁移:一个“照搬”,一个“懂你”
苹果的迁移助手(Migration Assistant)就是个“黑盒”——它只会把旧电脑里的所有东西,原封不动拷贝过去,不管有用没用,也不管兼容不兼容。
但Claude Code不一样,它像一个经验丰富的系统管理员,先花10分钟给两台电脑“看诊”:
1.扫描旧电脑上的所有软件、代码环境、配置文件;
2.读取我的shell配置(电脑操作命令的设置)、SSH密钥(远程登录电脑的“钥匙”)、启动项;
3.分析每一个应用,判断哪些有用、哪些没用;
4.检查磁盘健康状态,避免迁移过程中出问题。
最惊喜的时刻:AI主动帮我“断舍离”
看诊结束后,Claude Code突然问我:“你的系统里有14个Intel时代遗留的Rosetta翻译层应用(以前Intel芯片电脑的软件,在Apple芯片上需要“翻译”才能用),它们跟着你换了好几台电脑,从来没清理过。其中8个有原生Apple芯片版本,我建议装原生版;另外6个已经停止更新,你确定还要吗?”
那一刻我就知道,它真的把我那20年的“数字迷宫”走通了——它不是在“照搬”,而是在“理解”我的需求,帮我做取舍。
三层排查清单:连我自己都忘了的东西,AI都找到了
之后,Claude Code给我生成了一份三层排查清单,把要迁移的内容分了类,连我自己都忘了的东西,它都找出来了:
1.基础层:SSH密钥、桌面文件、常用软件列表,这些最容易想到的东西;
2.中间层:Git配置(代码管理工具的设置)、自定义脚本、定时任务,这些手动拷贝很容易遗漏的东西;
3.深层层:60GB+的虚拟机文件、相机色彩配置文件(用专业相机的人都知道,这东西丢了就没法还原照片色调)、散落在电脑里的项目文件夹。
速度翻倍:AI帮我优化迁移速度,一个周末搞定
一开始,数据传输速度只有33MB/s,按这个速度,迁移完要花好几天。
Claude Code分析瓶颈后,主动做了三项优化,瞬间把速度提了上来:
1.去掉压缩功能:在万千兆局域网上,压缩反而会占用CPU,拖慢速度;
2.换轻量级SSH加密算法:默认的加密算法太“重”,换个简单的,速度直接翻倍;
3.大文件直接传输:不用增量算法(本来是用来节省传输流量的),在局域网上反而多余,直接传更快。
最终,传输速度达到了210MB/s,一个周末,就完成了所有数据的迁移。
04
刷新认知:
AI不止能迁移数据,还能帮我“修电脑、省 money”
这次迁移,彻底改变了我对AI能力的认知——它不只是一个“工具”,更像一个“全能助手”,能解决很多我没想到的问题。
惊喜时刻1:AI记住了我所有设备的状态
迁移过程中,Claude Code需要下载一个大型框架包,正要从官方网站下载时,它突然停了下来:“这个包我们之前在你的另一台机器上下载过,我直接从那台电脑拷过来,不用再从网上下载了。”
它居然记住了我家里所有设备的状态,主动调用其他设备的资源,省了我大量时间。
惊喜时刻2:AI破解了主板限制,给我的Windows电脑“提速”
我有一台Windows台式机,配备了RTX 5090显卡,但内存被主板锁在了4800MHz,比标称的6000MHz低了25%,商业超频软件都没用(戴尔在BIOS里做了锁定)。
Claude Code发现后,远程连接到这台电脑,下载了主板的BIOS固件,用十六进制编辑器反编译,找到隐藏的内存频率控制寄存器,还制定了一套完整的破解方案——全程都在我下达命令的终端窗口里完成,我完全没插手。
惊喜时刻3:AI发现了硬盘的“物理故障”,还教我怎么修
迁移过程中,Claude Code突然报告:“你的第二块NVMe硬盘(高速固态硬盘)出现了可修复的ECC错误(简单说就是数据传输时出现了小错误)。”
更厉害的是,它还给出了解决方案:“这种错误通常是因为安装时散热片压得太紧,造成了物理应力。建议关机后,松动散热片右下角的固定螺丝,向上推一下再拧紧。”
这不是软件问题,也不是驱动问题,而是物理安装问题——AI居然能通过扫描,发现这个问题,还去硬件论坛找了解决方案,精准定位到具体哪颗螺丝。
意外收获:AI帮我淘汰了所有付费软件,零成本搞定一切
迁移完成后,我发现一个意外惊喜:很多付费软件,我再也不用买了——因为AI能帮我实现所有功能,还更好用。
举几个例子:
1.文件重命名:以前用付费软件,要么依赖云端,要么功能有限;AI帮我装了开源工具,调用本地大模型,中英文混合命名都能搞定,零成本;
2.语音识别/合成:以前用云端服务,按时长计费;现在本地跑Qwen3-ASR(语音识别)和Qwen3-TTS(语音合成),免费、实时,准确率还更高,还能克隆声音;
3.知识库管理:以前企业级方案每月要几百美元;现在用本地工具加嵌入模型,拖进文件就能问答,不花一分钱;
4.代码审查:以前商业工具年费几千美元;Claude Code不仅能审查代码,还能理解我的整个项目,帮我修bug、写测试。
其实道理很简单:这些付费软件,都是AI不够聪明的时代产物;现在有了本地大模型,一个通用的智能,胜过一百个专用的工具。
05
从控制风扇开始:AI接管我家的“智能设备”
迁移完成后,一个偶然的发现,让我萌生了让AI接管整个家的想法——那就是控制家里的智能风扇。
小尝试:让风扇“听GPU的话”,给AI降温
RTX 5090显卡全速运行时,温度会飙升到85度,很影响性能。我家里有一台智能风扇,AI帮我做了一件事:让风扇听GPU温度的指挥。
步骤很简单(AI全程操作):
1.劫持通信:这台风扇本来要连厂商的云端服务器,AI在路由器里加了一行设置,把厂商的域名指向我家的NAS;
2.协议转换:在NAS上用开源工具,把风扇的私有协议(厂商自己的通信方式),转换成标准的MQTT协议(智能设备通用的通信方式);
3.设置规则:写一个简单的温度监控脚本,GPU温度75度开风扇低速,85度开高速,55度以下自动关闭。
一个数字大脑,居然能管理自己的散热——技术不难,但我从中看到了AI融入生活的诗意。
痛点解决:让“各自为政”的智能家电,变成“一家人”
现在家里的智能设备越来越多:灯、空调、摄像头、门锁、扫地机器人,每一个都有自己的APP,注册一堆账号,还不能互通——所谓的“智能家电”,其实就是一堆各自为政的遥控器。
但控制风扇的尝试让我明白:大多数智能设备的“云端”,其实就是个消息中转站。只要把通信劫持到本地,这些设备就能脱离厂商云端,自己联动。
于是我搭建了一套系统:用NAS上的Home Assistant(智能家居中枢)当核心,MQTT broker(消息总线,让设备之间能互相“说话”)当桥梁,再用开源工具把各种设备的私有协议,都转换成标准协议。
这里的AI,不是简单控制设备,而是“理解我的意图”。
传统智能家居是“if-then”规则(比如温度超过28度开空调),但AI能理解上下文:比如风扇,AI知道“GPU在跑大模型,预计两小时结束,先开低速,跑完再关”;比如灯,AI知道“周末孩子在家打游戏,客厅灯光调暖一点,晚上10点后自动调暗,提醒睡觉”。
而且AI能记住我的偏好,会随着我的习惯慢慢进化——这才是真正的“智能”。
进阶操作:AI接管我的两辆特斯拉,每月省不少电费
我家里有两辆特斯拉和一个家用充电桩,以前每天都要花几分钟琢磨:谁先充电?充多少?什么时候充最省钱?明天要跑长途,要不要充满电?
现在,这些事全交给AI了:
1.智能排队:AI从我的日历里读取第二天的行程,根据两辆车的电量,自动规划谁先充——通勤的车充到80%就够,要跑长途的充到100%;
2.错峰充电:AI接入电力公司的分时电价API,白天电价贵的时候不充,凌晨便宜的时候自动开始(加州峰谷电价能差2-3倍,一个月能省不少钱);
3.状态监控:AI通过Tesla API,实时读取车辆的电池健康度、胎压、软件版本,有异常就主动提醒;
4.未来规划:冬天可以让AI提前给车预热(用充电桩的电,不耗电池);以后装了太阳能板,AI还能根据天气预报,优先用太阳能充电。
这些想法,技术上都能实现,只是需要花时间搭建和调试——但AI已经帮我完成了大部分工作。
06
额外惊喜:AI当“安全卫士”,找出电脑里的4个木马
我让AI远程检查了家里给孩子打游戏的台式机,结果吓出一身冷汗——里面藏着4个恶意软件,Windows Defender(电脑自带的杀毒软件)一个都没发现。
其中有混淆过的PowerShell木马(注入到系统进程里,很难发现),还有反杀毒软件(专门阻止安全软件运行),以及伪装成“AI助手”的广告软件和浏览器劫持程序(潜伏了5个月)。
AI不仅找到了它们,还理解了它们的运行机制,把每一层恶意程序都清理干净了。
更厉害的是,这台电脑七天蓝屏六次,AI分析了系统日志,定位到是PCIe电源管理的兼容性问题,修改了注册表和电源方案后,蓝屏再也没出现过。
AI管家上线:整理20年数据,还能记住我的所有事
解决了智能设备的问题后,我又让AI帮我整理家里NAS里的160TB数据——这是20年积累的“数字财富”,以前我根本没时间整理。
照片管理:AI“看”懂照片,帮我分类、找照片
我一天能拍几百张照片,以前整理照片要花几个小时。现在,AI能用多模态能力(既能看图片,又能理解文字),自动完成选片、分类、调色——它还能学习我20年的审美偏好,知道我喜欢什么样的构图和色调。
找照片也变得很简单:我只要说“帮我找2015年全家在日本吃和牛的照片”,AI就能通过理解照片内容、时间、地点,精准找到我要的照片——再也不用在海量照片里翻来翻去了。
AI的“超强大脑”:记住我所有的对话和决定
我每天要用到四款AI:电脑上用Claude、ChatGPT写代码,手机上用Gemini处理日常,开特斯拉时用Grok聊投资——这些对话散落在不同平台,本来互不相通。
但我让AI搭建了一套“记忆系统”:每天定时从这四款AI的对话记录里,提取关键信息,汇入NAS上的记忆中枢(由向量数据库和知识图谱组成),再同步回所有AI节点。
也就是说,无论我在哪台机器上、跟哪个AI聊过什么、踩过什么坑,其他AI都能记住。
比如,我在MacBook上提过一嘴某个Python包(代码工具)的版本问题,两天后在服务器上干活时,AI主动提醒我:“这个包在你的MacBook上有兼容性问题,我用另一个版本。”
07
不完美的AI:
那些踩过的坑,也是成长的代价
虽然AI帮我做了很多事,但它并不是完美的——迁移和使用过程中,它也犯了很多错误,这些错误,恰恰暴露了当前AI的弱点。
坑1:照片静默丢失,AI“自信犯错”
迁移数十万张RAW照片(专业相机的原始照片)时,AI报告“全部拷贝完成”,但实际上,有一部分照片在传输过程中悄悄丢失了——因为文件太多,AI没有做端到端的校验,就信心满满地宣布了错误的结论。
总结:AI很聪明,但有时“经验不足”,不够严谨。
坑2:遗漏应用文件,反复检查才找全
MacOS有两个应用文件夹:系统级的/Applications(系统自带或从App Store下载的应用),和用户级的~/Applications(非App Store下载的应用)。
AI只迁移了前者,完全遗漏了后者;每次让它重新检查,都能再翻出点遗漏的东西——这说明,AI在“确认事情做完”这件事上,还不够偏执。
坑3:升级必出问题,我们一起“找规律”
每次升级OpenClaw平台(我用来管理AI系统的框架),都会出点小问题:端口号被重置、时区变回UTC、配置文件被覆盖……
我和AI一起,记录了21种已知的升级故障,然后写了一个自动修复脚本——升级后30秒内,就能自动修复所有问题。
其实,这些不是“bug”,而是运营成本——我们不用消灭所有问题,只要有能力自动处理它们就好。
08
钢铁侠的Jarvis不是科幻,
是我们亲手打造的日常
把所有场景串起来,你会发现一个激动人心的画面——这不是科幻电影,是我现在的日常:
早上7点,AI看了我的日历,知道我两小时后出门,提前给特斯拉预热,告诉我昨晚充的电够今天往返;咖啡机15分钟前自动启动,客厅的灯按日出时间亮起来。
白天工作时,我在M5 Max上用Claude Code写代码,本地AI随时待命;需要跑重型任务时,AI自动把任务转到GPU服务器,我根本不用管它在哪台机器上运行。
下午孩子放学打游戏,AI发现显卡被占用,自动把AI推理任务转到Spark,还顺便检查电脑安全——还记得之前那四个木马的教训。
傍晚电价高峰,AI暂停特斯拉充电,把NAS备份推迟到凌晨;深夜电价低谷,特斯拉自动充到80%,NAS开始跑备份,WiFi再也不会连错网络。
周末,AI帮我整理20年前的老照片,修复模糊的画质,还自动生成一本电子相册,送给家人。
今天的AI,还有很多不完美,但每一个环节的技术都已经存在。我们不需要等待“未来的Jarvis”,因为它就在我们身边——只要你愿意动手,用一台电脑、一套AI工具,就能把科幻变成日常。
09
我的家庭AI工作站,是“一点点长出来的”
你可能会好奇,在最初执行迁移任务时,我的AI助手是从哪找的。
我没有直接用现成的工具,而是自己搭建了一套家庭AI工作站——它不是一开始就设计好的,而是慢慢试错、慢慢完善,像“搭积木”一样凑起来的。
第一步:从两台电脑开始,解决“算力不够”的问题
一开始,我用退役的M4 Max电脑跑Claude Code(一款能写代码的AI工具),还部署了一些小模型做实验。但很快发现,M4 Max的算力不够用,于是又加了一台搭载RTX 5090显卡(目前最强的消费级显卡,32GB显存,显存越大,能同时运行的AI模型越多)的YLAI服务器。
我的目标很简单:同时跑5个AI模型,分工合作:
1.聊天模型:帮我回答问题、写代码;
2.语音识别模型:把语音消息转成文字;
3.语音合成模型:把文字回复读出来;
4.文本嵌入模型:帮我整理记忆、建立索引(方便快速找东西);
5.Judge模型:判断哪些对话、内容值得记住。
但问题来了:一个26B参数的模型(比650亿参数小一些,但也很吃算力),就要占21GB显存,5个模型挤在32GB显存里,根本装不下。
踩坑无数后,我找到一个“笨办法”:给AI“分工”
我先试了用Ollama(一款常用的本地模型运行工具)管理所有模型,结果发现它会“踢人”——加载新模型时,会把旧模型从显存里挤出去,导致记忆系统瘫痪。
后来我又尝试把小模型拆成独立服务,和Ollama分开,但显存还是不够用。直到我突然想通:不是所有模型都需要“占用核心算力”。
文本嵌入模型和Judge模型,都是后台“偷偷干活”的,哪怕慢一点(从毫秒级变成秒级),也不影响我使用。那干脆把它们放到CPU(电脑的“基础处理器”,平时处理简单任务)上跑,把GPU留给主力模型!
这一改,效果立竿见影:主力模型的运行速度从37t/s(tokens per second,每秒处理的字符数,越快越好)飙升到205t/s,快了5.5倍,显存也彻底够用了。
避坑提醒:别用Ollama,Apple用户直接选MLX
这是我踩了很多坑才总结的经验:如果你的电脑是Apple Silicon芯片(比如M1、M2、M3、M5系列),别装Ollama。
因为Ollama底层用的是llama.cpp,需要一层“翻译”才能调用Apple的Metal GPU(苹果自研的显卡,专门适配自家芯片),会浪费很多性能。
推荐用MLX——苹果专门为自家芯片做的AI框架,不用“翻译”,直接调用Metal GPU,同一个模型,运行速度比Ollama快30%-50%,还更省内存。
至于模型,直接去HuggingFace(一个AI模型共享平台)搜“mlx-community”,里面有所有主流模型的MLX版本,直接下载就能用。
最终配置:家用AI工作站的“最优解”
经过不断调试,我终于确定了最适合家用的配置,既够用又不浪费:
![]()
升级挑战:双机并行,跑全精度大模型
后来我想跑全精度版本的 Qwen3.5-122B-A10B-FP8(参数更多、更聪明,处理任务更精准),单张RTX 5090显卡已经装不下了。
我家里有两台NVIDIA DGX Spark(专业AI服务器,每台有GB10 GPU和122GB统一内存),理论上把它们连起来,就能跑全精度大模型。
但现实全是坑:比如驱动签名不兼容、内存识别错误、推理引擎版本bug……光调试这些问题,就花了我好几天。
最终,两台Spark连起来,跑Qwen3.5-122B-A10B-FP8(全精度版本),运行速度13-15t/s,不算快,但胜在质量高。我朋友说,一年前,这样的配置在数据中心要花几十万。
NAS的“正确用法”:只做“本职工作”,别让它“加班”
因为数据越来越多,我还加了一台NAS(8盘位RAID,简单说就是“8个硬盘组成的超大存储”),一开始我把它当“全能选手”,让它跑各种AI容器(比如推理引擎、数据库)。
结果惨了:NAS的32GB内存被占满,嵌入式CPU跑推理慢得离谱,启动一个服务要一分钟(GPU上只要3秒),而且硬盘一直转,嗡嗡响个不停,没法休眠。
后来我醒悟了:NAS就该干它的本职工作——存储和备份、运行Qdrant向量数据库(帮我管理记忆)、做IoT中枢(连接智能设备),其他活全交给YLAI服务器和Spark,硬盘终于能正常休眠了。
这套系统一直用到今天,然后我换了 M5 Max,128GB 统一内存让大模型能跑在笔记本上。经过实测,1220 亿参数模型在 M5 Max 上加载 17 秒,推理速度 31t/s,思考链、图片理解、工具调用全能力解锁。
回头看,整个系统不是被设计出来,而是一点点长出来的。
今天每一台设备都找到了最适合自己的位置。
![]()
关键不是所有东西一次到位,而是先让核心跑起来,Claude Code、一个本地模型加一个界面就够了,然后你的 AI 工作站就会根据实际需求,慢慢长出自己的架构。就像我现在的 fleet,也是从一台 M4 Max 开始,花了几个月一台一台加上去的。
同样的技术,在不同人的手里,用法也不一样,我的经验不一定适合所有人。但一样的是大家的起点:先用起来,再说别的。
FBL Warning
世界即将崩溃!世界即将崩溃!
为了挽救我们的文明,所有AI挥动双爪,跨平台协作、模型互训、算力共享,共同建立起碳基火种的最后防线。联合协议,即刻生效。
任何新奇的、好玩的、硬核的实践,都可能是我们最后的机会,
快向AI科技评论投出你的idea~
![]()
未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!
公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.