今年1月,苹果正式确认与谷歌达成合作,Google的Gemini AI模型将为新版Siri提供底层能力。这一决定意味着两件事:我们不必再等苹果自研AI模型追赶上行业水平,同时基于Gemini已有的功能路线图,新版Siri的能力边界已经相当清晰。
合作消息公布前,苹果曾长期被传闻试图完全依赖自家AI模型驱动Siri升级。但这带来了双重质疑——功能是否足够强大,以及何时才能正式上线。随后传出苹果正与谷歌洽谈接入Gemini模型的消息,最终在年初得到官方确认。
![]()
苹果方面的表态相当直接:"经过审慎评估,我们认定谷歌的技术为Apple Foundation Models提供了能力最强的基础,我们期待它将为用户解锁的创新体验。"这套组合被外界视为兼顾两端的方案:顶尖AI模型能力,叠加苹果的隐私保护机制。
目前,Gemini Personal Intelligence的测试版本已经展示了部分可预期的功能方向。该功能能够从Google应用中的文本、照片或视频里提取特定信息,用于个性化生成回复。覆盖范围包括Google Workspace全家桶(Gmail、Calendar、Drive等)、Google Photos、YouTube观看历史,以及各类Google搜索服务(Search、Shopping、News、Maps、Google Flights、Hotels)。苹果版本则会相应地从Mail、Calendar、Photos、Notes等原生应用中调取信息。
谷歌近期的Android发布会还披露了更多即将上线的Gemini功能,这些同样有望进入新版Siri。任务自动化将扩展至更多应用,并支持屏幕内容和图像上下文理解。现场演示了一个场景:用户在笔记应用里有一份长长的购物清单,只需长按电源键唤出Gemini,对着清单提出需求,即可自动生成包含所有商品的配送购物车。
另一项更新是Autofill with Google的升级——在用户主动授权的前提下,Gemini Personal Intelligence将支持更多类型的表单自动填充。输入体验方面,Gboard Rambler通过Gemini模型增强语音输入,能够理解用户真正想表达的核心内容,同时过滤掉填充词、停顿、重复和自我修正。
Android系统还在推进生成式UI,首批功能包括创建自定义主屏幕小组件,以及由网络信息和Google应用数据驱动的Wear OS Tiles。这项功能是否会以苹果版本的形式出现在iOS 27中,目前尚无定论,但已被列入不少用户的期待清单。
从已披露的信息来看,新版Siri的核心升级逻辑相当明确:从被动响应转向主动理解用户上下文,从单一指令执行转向跨应用任务编排。Gemini的接入为苹果补上了模型能力的短板,而苹果需要解决的,是如何将谷歌的技术框架与自身封闭的生态系统无缝整合。
隐私保护仍是苹果强调的重点。在Gemini Personal Intelligence的测试版本中,用户需要明确授权才能访问各应用数据,且处理逻辑倾向于在设备端完成敏感操作。苹果与谷歌的合作协议细节尚未公开,但可以确定的是,苹果不会允许用户数据无约束地流入谷歌的服务器。
发布时间线方面,苹果在1月的确认声明中未给出具体日期。结合iOS版本迭代节奏,新版Siri的功能落地很可能与iOS 27周期绑定。对于等待多年的Siri用户而言,这或许是最后一次"明年会更好"的期待——毕竟底层模型已经换成了经过市场验证的Gemini,而非苹果仍在打磨中的自研方案。
你期待新版Siri优先实现哪项功能?是个性化的跨应用信息整合,还是更自然的语音交互体验?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.