就在刚刚,苹果正式确认和 Google 达成多年期 AI 合作
每年 10 亿美元,拿到一个 1.2 万亿参数的定制版 Gemini,共 Siri 使用
这个模型比苹果现有的云端模型大 8 倍
苹果向 CNBC 提供的声明里说:
经过仔细评估,我们确定 Google 的技术为 Apple Foundation Models 提供了最强大的基础
翻译一下:我们试了,自己搞不定
![]()
https://www.cnbc.com/2026/01/12/apple-google-ai-siri-gemini.html Anthropic 要价太狠
Bloomberg 的 Mark Gurman 爆料,苹果在做决定前评估了三家:Google、OpenAI、Anthropic
Anthropic 的 Claude 在测试中表现最好,但要价超过 15 亿美元/年
苹果觉得太贵,pass 了
Google 能拿下这单,一方面是价格更合适,另一方面是老交情
Google 每年给苹果付大概 200 亿美元,让 Google 搜索当 Safari 的默认引擎
现在苹果反过来每年给 Google 付 10 亿,买 AI 能力
这关系....挺微妙的
Gemini 怎么用:用户看不到任何 Google 标识
和之前的 ChatGPT 集成完全不同
Gemini 是 Siri 的隐形引擎
用户在使用过程中看不到任何 Google 品牌,所有功能都以 Apple Intelligence 和 Siri 的名义呈现
技术架构上,新版 Siri 有三个核心组件:
查询规划器
由 Gemini 驱动,负责理解复杂请求,决定怎么执行
知识搜索系统
本地和云端结合,处理信息检索
摘要生成器
也是 Gemini 驱动,生成最终回复
Gemini 跑在苹果自己的 Private Cloud Compute 服务器上,Google 碰不到用户数据
苹果用的是基于 Gemini 3 Pro 的定制版本,MoE 架构,1.2 万亿参数
苹果自研的云端模型只有 150B 参数左右,差了一个数量级
和 ChatGPT 什么区别
苹果现在同时和 OpenAI、Google 合作,但方式不一样
ChatGPT
Gemini
品牌
用户明确知道在用 ChatGPT
完全隐藏,以 Siri 名义呈现
角色
可选的外挂式扩展
Siri 核心架构的底层引擎
授权
每次用都要用户确认
后台自动运行
数据
跑在 OpenAI 服务器
跑在苹果服务器
简单来说:ChatGPT 需要用户主动调用,Gemini 是 Siri 的背后
苹果软件副总裁 Craig Federighi 在内部备忘录里说:
在这场 AI 马拉松中,我们不必自己发明每一项技术,但必须确保为用户提供最佳体验时间线
时间
事件
2024 年 3 月
Bloomberg 首次报道苹果和 Google 洽谈
2024 年 6 月
WWDC 发布 Apple Intelligence 和 ChatGPT 集成
2025 年 3 月
苹果宣布推迟「更智能的 Siri」至 2026 年
2025 年 11 月
Bloomberg 披露 10 亿美元交易细节
2026 年 1 月 12 日
苹果正式官宣
预计 2026 年春
新版 Siri 随 iOS 26.4 发布
从首次传闻到正式落地,差不多两年
苹果的算盘
多位分析师的判断是:10 亿美元买来的喘息机会
苹果内部测试显示,自研模型在复杂对话、上下文理解、创意任务上明显落后
人才流失也很严重,AI 团队首席架构师已经跳槽 Meta,拿了 2 亿美元薪酬
但苹果没把 Gemini 当长期方案
公司正在加速开发自己的万亿参数云端模型,目标是条件成熟后替换 Gemini
最早可能 2026 年底准备好
所以这笔交易的本质:用 10 亿美元买 2 到 3 年时间,等自己的模型追上来
对 Google 来说,进入苹果生态的长期位置比 10 亿美元技术使用费更有价值
如果 Gemini 能同时覆盖安卓和 iOS 两大生态的数十亿用户,和 ChatGPT 的差距会迅速缩小
两边都有自己的算盘
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.