据知名数码博主“定焦数码”的最新爆料,苹果已正式批准AMD与NVIDIA外置显卡驱动,Mac设备可通过雷电接口直连高端独立显卡,为本地运行AI大模型提供前所未有的算力支持。Mac上的AI算力瓶颈,终于迎来了历史性突破。
![]()
我们一起从以下内个方面来聊聊苹果这一步战略调整的意义:
五年封锁终破局,苹果走出关键一步
自从苹果将Mac处理器从英特尔换成自研M系列芯片后,外接独立显卡的大门便被彻底关上。M系列芯片虽然能效表现亮眼,但也堵死了用户通过外置硬件升级算力的路径。即便是一直与苹果合作数十年的AMD,在M系列Mac上也未能获得原生支持。
转机出现在2026年4月。当地时间4月5日,据外媒Tom's Hardware报道,苹果正式批准了由AI初创公司Tiny Corp开发的第三方eGPU驱动,允许其在Apple Silicon平台上运行。Tiny Corp在社交平台披露,其软件已通过苹果官方审核,用户可以直接将GPU连接至Mac,用于处理AI大语言模型。
![]()
无需破解,安装即用,“连Qwen都能搞定”
此前的解决方案极度繁琐。开发者和极客们若要尝试在Mac上外接独显,往往需要关闭系统完整性保护、手动破解内核,稳定性差且兼容性极低,普通用户根本无法上手。
而这次的驱动最大的亮点在于:已获得苹果数字签名,无需关闭SIP,不用复杂破解,普通用户按指引即可安装。连接雷电3/4或USB4接口的外置显卡坞后,即可直接调用AMD、NVIDIA的GPU算力。Tiny Corp在公告中更是直言,安装流程已大幅简化,“连Qwen(千问)都能完成”。
对开发者而言,这相当于移除了通往本地AI大模型之路的最后一道门槛。
![]()
性能实测:推理速度最高提升12倍
驱动获批带来的不只是“能用”,更是“好用”。根据已有实测数据:
大语言模型:外接RTX 4090运行LLaMA 3 70B模型,推理速度可达15.7 tokens/s,相比M3 Max原生的3.2 tokens/s,性能提升近5倍。另一组数据显示,运行70B大模型的推理速度整体提升高达12倍,显存占用降低70%。
AI绘画:以SDXL生成4K图像为例,M2 Pro需要1分47秒/张,而外接RTX 4090后仅需19秒/张,效率提升5.6倍。
模型微调:LoRA小模型训练时间从M3 Max的8小时缩短至1.5小时,效率提升5倍以上。
70B甚至130B参数的大模型,在Mac上本地流畅运行已成为现实。这对于AI开发者、内容创作者乃至普通用户而言,都是一个颠覆性的变化。
![]()
三大用户群受益,成本直降90%
这一突破对不同用户群体的意义各有侧重:
对AI开发者而言,不再需要依赖昂贵的专用AI服务器。一台Mac搭配外置RTX 4090或AMD RX 7900 XTX,就能完成模型微调、推理和测试,成本降低90%以上。
对内容创作者而言,本地AI绘画、视频剪辑、4K渲染速度翻倍,无需将素材上传云端,隐私更安全,效率更高。
对普通用户而言,Mac也能流畅运行本地AI助手、智能办公和图像增强等应用,体验全面升级。
![]()
“只能跑AI,不能玩游戏”——别搞错定位
需要特别说明的是,该驱动并非来自AMD或NVIDIA官方,而是由Tiny Corp自主开发,其主要面向AI大模型运算,而非游戏用途。该驱动不支持图形显示输出、游戏渲染或外接显示器功能——换言之,你不能用它来在Mac上玩3A大作。它是为Mac加装的一台“便携式AI超算”,而非传统意义上的游戏显卡扩展。
苹果这一举措,标志着Mac生态在封闭五年后,针对本地AI算力需求做出了“有限开放”的战略调整。对于开发者、创作者和AI爱好者而言,这无疑是一个值得关注的重要节点。
Mac不再只是办公和设计工具。当外置高端显卡的算力注入苹果的生态体系,本地AI时代的可能性正在被重新定义。如今驱动已经就位,门槛也已降至最低——剩下的,就看市场和开发者的创造力了。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.