苹果的 AI 路线,最近被彭博记者 Mark Gurman 揭了个底朝天。
一句话概括:短期靠谷歌续命,长期要自造“巨兽级”模型。
更刺激的是——苹果给谷歌 Gemini 的定制模型起了个假名,叫 AFM v10,从内部到外部都尽量不让人知道 Siri 背后用了“对家”的技术。
这背后的盘算,很苹果,也很现实。
![]()
苹果现在的 Apple Intelligence 云端模型,大概 1500 亿参数,放在业内不算小,但离顶级差一大截。
谷歌给它定制的 Gemini 版本参数大概 1.2 万亿,体型直接膨胀八倍,而且苹果每年要为这种“外援式增强”付出 10 亿美元,折合人民币约 71 亿。
这不算便宜,但对苹果来说,是“花钱换时间”。
因为 Siri 的体验已经拖太久。
iOS 18 吊足了用户胃口,可实际落地时,很多能力都要“看云端模型心情”。
为了不让新版 Siri 继续掉链子,苹果选择暂时用 Gemini 当背后大脑,让 Siri 能先动起来,再考虑怎么把大脑换成自家货。
![]()
问题来了:苹果明明这么强调隐私、强调自研,为何在这么核心的地方用谷歌?
原因也很简单:工程压力太大。
训练千亿级模型不只是堆机器这么,要数据、要人才、要长期调优、要算力集群。
苹果过去十年押注的重点是芯片和端侧 AI,真正的大规模云端模型积累并不深厚。哪怕现在重金投入,也不可能在几个月内突然超过谷歌、OpenAI 这种“模型工厂”。
更有意思的是,苹果内部现在还在经历人才流失。一些关键 AI 研究人员在过去几个月陆续离开,这让苹果自研模型的进度更紧张。
但苹果的长期目标没有变:摆脱外部依赖。
![]()
Gurman 的原话是:苹果计划最早明年推出一个 1.0 万亿参数 的自研 Apple Intelligence 模型。
这规模就很硬核了——至少说明苹果不准备长期给谷歌交“保护费”。
但现实依旧残酷。即便苹果明年真的做出 1 万亿参数模型,它也赶不上明年春季新版 Siri 的上线进度。等于说:短期 Siri 的提升依然要靠谷歌;长期才能真正换心脏。
这让苹果陷入一个很微妙的位置:
它既要维护自己的隐私叙事,又要保证体验赶得上同行,还要暗中压住“我们用了谷歌模型”的消息,以免品牌受冲击。
![]()
毕竟,消费者会问一句:那我买这么贵的苹果设备,是不是买了个谷歌大脑?
对行业来说,这事比“苹果用谷歌模型”更值得关注的是另一点:苹果愿意为了体验,放下身段、付出巨额成本,并且走上多轨并行的路线。
这很罕见,也意味着它终于把 AI 放进真正的战略核心。
短期看,普通用户最直接的收益就是:Siri 的理解力、响应力、生成质量,有机会在 iOS 18 后续版本中明显进步。
中期看,如果苹果自研模型能落地,生态开发者可能获得更强的 API 能力,比如更深度的个性化、更低延迟、更高隐私级别的本地推理。
长期看,这是苹果能不能在下一代计算平台中站稳脚跟的关键战役。
但风险也同样清晰:
人才流失会导致时间表继续后推;
巨额投入会让 AI 成成本黑洞;
![]()
对谷歌的依赖如果长期存在,会削弱苹果在隐私上的品牌故事;
AI 安全与透明度问题也可能引发监管关注。
对于用户来说,现在最实际的问题其实很简单:
别急着对 Siri 失望,也别急着对大模型期待过高。苹果现在处在“必输一档体验、赢一档未来”的过渡期。
等到明年春天,Siri 应该能先借力提档;再往后,如果苹果的自研模型真的能顶上,那才是 Apple Intelligence 的真正版本号。
整个故事的走向,已经不再是“苹果有没有 AI”,而是“苹果能不能把自己的骄傲与现实接轨”。
这场转型,才刚开头。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.