「用户将能够通过设置应用,把兼容的第三方AI设为首选。」——Mark Gurman的爆料,让苹果生态的AI战略突然清晰起来。
这不是简单的功能更新。当iOS 27、iPadOS 27和macOS 27在今年秋季推送时,苹果可能完成一次身份转换:从AI模型的封闭开发者,变成AI能力的平台分发者。
![]()
从ChatGPT独占到"Extension"生态
目前Apple Intelligence只接入了ChatGPT一家第三方模型。但Gurman透露,苹果正在内部测试Google和Anthropic的AI集成。
新机制叫"Extensions"——第三方AI模型通过App Store应用申请接入,用户安装后即可在系统设置中切换首选模型。
这意味着Writing Tools、Image Playground等原生AI功能,未来可能由非苹果的模型驱动。
更细颗粒度的设计是:不同模型可以绑定不同Siri语音。用苹果自研模型时是一种声音,切到ChatGPT版Siri时变成另一种。
为什么苹果要"放权"
表面看是用户体验的灵活性,底层是苹果对AI竞争格局的重新判断。
自研模型进度不及预期,是公开的秘密。Gurman此前多次报道Siri重构延期,而Google模型已成为新版Siri的技术底座。
与其在单点能力上硬磕OpenAI、Google、Anthropic,不如把系统级入口变成可插拔的架构。
这个逻辑和当年开放App Store类似:苹果不自己做所有应用,但控制分发管道和体验标准。
区别在于,AI Extensions的切换成本比换App更低——用户在设置里点几下,整个系统的AI"大脑"就换了。
对开发者和用户的双重影响
对AI公司而言,这是触达iOS十几亿用户的捷径。不需要说服用户下载新App,只需要被装进系统设置的首选列表。
但"opt in"机制意味着苹果保留审核权。哪些模型能进、排序如何呈现,仍是苹果说了算。
对普通用户,选择悖论可能重现。当三个、五个、十个AI模型都能驱动Siri,"该用哪个"变成新负担。
语音区分的设计是聪明的解法——用听觉线索降低认知负荷,让用户对"谁在回答"有直观感知。
行业层面的信号
苹果这一手,把移动端AI竞争从"模型能力单挑"推向"系统集成比拼"。
Google有Android和Gemini的深度整合,OpenAI有ChatGPT的独立生态,Anthropic靠Claude的口碑突围。现在苹果说:你们都可以来我这,但得按我的规则。
这未必削弱头部模型的优势,但确实改变了游戏规则。最强模型不再自动赢得最多用户,体验一致性、响应速度、与系统功能的耦合深度,权重会上升。
另一个被低估的点是数据流。当用户频繁切换模型,苹果能获得不同AI在真实场景下的表现对比——这比任何实验室评测都值钱。
实用判断
iOS 27的AI Extensions如果如期落地,标志着苹果正式接受"AI能力外包"策略。这不是认输,而是把战场从模型训练转移到平台运营——一个它更熟悉的领域。
对科技从业者,值得跟踪三个指标:首批接入的第三方模型名单、苹果自研模型在默认选项中的占比变化、以及Siri语音与模型绑定的具体实现方式。这些细节会暴露苹果的真实底气。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.