Siri 说了这么多年“马上就强”,这一次会不会终于不是画饼,而是苹果真的准备交作业了?
如果你这两年一直觉得 Siri 越来越像个“语音遥控器”,那并不是你的错觉,而是苹果在 AI 这条路上确实走得异常艰难。
最新的信号来自彭博社记者马克·古尔曼,他给出的判断很直接,全新 Siri 最快会在下个月,随 iOS 26.4 测试版一起亮相。
![]()
这句话的分量不在于“下个月”,而在于“全新”两个字,因为这意味着苹果终于动了底层。
更关键的一点是,这次 Siri 背后站着的,不再只是苹果自己的模型,而是谷歌 Gemini。
苹果和谷歌的这次合作,说白了就是一次现实妥协,苹果不再死磕自研模型,而是选择直接借力最成熟的 AI 基座。
从行业角度看,这一步并不丢人,反而是效率优先的表现,毕竟 AI 时代拼的是速度,而不是面子。
按照古尔曼的说法,iOS 26.4 中的 Siri,将首次具备更强的屏幕内容理解能力,能看懂你正在干什么。
![]()
不只是听你说话,而是理解你当前界面里的信息,这一步对语音助手来说,意义非常大。
更进一步的是,Siri 还可以直接在应用里帮你执行操作,而不是每次都把你丢回 App 自己解决。
这么说吧,这已经不是“查天气、设闹钟”的级别,而是真正开始往个人助理方向靠拢。
支撑这些能力的,是苹果内部命名为“基础模型 v10”的大模型,参数规模达到了 1.2 万亿。
这个数字放在今天的 AI 赛道里,已经算是重量级选手,至少不再是陪跑姿态。
当然,苹果也很清醒,这只是第一步,真正的大招,被他们留在了 iOS 27。
按照目前曝光的信息,iOS 27 和 macOS 27 会全面引入聊天机器人式交互,模型版本也会升级到 v11。
![]()
古尔曼的评价很狠,这一代模型的能力,将明显超过 iOS 26.4 的 Siri,而且目标直接对标 Gemini 3。
但问题也随之而来,模型越强,对算力的依赖就越高,苹果是否继续坚持私有云,还是更多借助谷歌基础设施,目前还在谈。
回头看这条路线,你会发现苹果其实走了一条很现实的路径,先用成熟模型补短板,再慢慢消化成自己的能力。
这也解释了一个现象,为什么 Apple Intelligence 迟迟没有全面铺开,因为苹果不想在半成品阶段就大规模推向用户。
![]()
说得直白一点,这次 Siri 的升级,更像是苹果 AI 战略的“止血点”,而不是终点。
对普通用户来说,你不需要关心模型参数有多大,只需要关心 Siri 会不会终于少一点废话,多一点真本事。
如果 iOS 26.4 的 Siri,真的能理解屏幕、串联应用、减少无效交互,那这次更新就已经值回期待。
最后留个问题给你,你更在意 Siri 背后用的是谁的模型,还是只在乎它终于能不能把事办成?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.