据知情人士透露,苹果计划在下一代操作系统中允许用户为“Apple Intelligence”选择自己偏好的第三方人工智能模型,包括但不限于 ChatGPT。 彭博社记者 Mark Gurman 报道称,苹果正在为今年秋季推出的 iOS 27、iPadOS 27 和 macOS 27 开发系统级接口,让外部聊天机器人接入并驱动苹果的多项 AI 功能。
![]()
在现有计划中,这些第三方模型将在系统内部被称为“扩展(Extensions)”,不仅可以用于接管 Siri 的对话能力,还将能够为 Writing Tools(写作工具)、Image Playground(图像创作)等 Apple Intelligence 功能提供底层模型支持。 这意味着用户在调用系统写作辅助、图像生成等功能时,有望在苹果自家模型与不同厂商模型之间自由切换,形成更加开放的 AI 能力组合。
报道同时指出,苹果还在测试让用户为不同 AI 模型分别指定不同的 Siri 声音。 例如,当 Siri 由苹果自研模型提供支持时可以使用一套语音,而当 Siri 基于 ChatGPT 或其他第三方模型运行时,则切换为另一种声音,以便用户在日常使用中直观区分当前背后运行的是哪一套 AI。
根据曝光信息,未来用户可以从“选择接入的 AI 模型服务商”开始,前提是相关服务商通过其 App Store 应用主动适配并“选择加入”这套扩展机制。 一旦安装了兼容的 AI 应用,用户即可在系统“设置”中将其设为首选 AI 模型,使之在 Apple Intelligence 的各处调用中成为默认选择。
Mark Gurman 称,苹果内部已经在测试与Google及 Anthropic 等公司的模型集成方案。 其中,Google的模型也被视作苹果即将推出的 Siri 大改版的关键底层技术之一,而这次扩展计划则进一步把这种合作延伸到系统更广泛的 AI 使用场景中。 目前,苹果已经在 Apple Intelligence 中集成了来自 OpenAI 的 ChatGPT,但它一直是唯一正式接入的第三方模型,未来这种“单一供应商”状态显然不再是苹果的最终方向。
如果上述计划如期推进,iOS 27 及同系列系统将从“只内置 ChatGPT 接入”转变为“多家模型并行、用户可自选”的开放架构。 这不仅为用户提供了更大的自由度,也将进一步强化苹果在终端侧 AI 生态中的平台角色,在不直接提供自家大一统云端服务的前提下,借由系统级入口为各家 AI 模型厂商提供统一的接入通道。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.