提起 Siri,大家的第一反应是什么?
定个闹钟?问个天气?还是那个经典的“对不起,我没听懂”?
这么多年了,Siri 就像个只会做填空题的小学生,稍微复杂点的指令就直接摆烂。
被网友戏称为“人工”,苹果真的一点都不冤。
智障
但好消息是,那个高傲的苹果,终于要动真格了。
![]()
根据外媒 MacRumors 的最新爆料,苹果即将在 4 月份发布的 iOS 26.4 版本中,对 Siri 进行一次史诗级的重构。
这次不是修修补补,而是直接换脑子。
首先,Siri 的底层逻辑变了。
以前它是靠“抓关键词”来猜你想干嘛。
现在的 iOS 26.4,将基于 LLM(大语言模型)重构。
它不再是做填空题,而是开始做“阅读理解”了。
最让我期待的,是它终于长了眼睛,具备了屏幕感知能力。
举个最实用的场景。
![]()
微信里朋友给你发了个餐厅地址,你以前得长按复制,切到地图,粘贴搜索,再收藏。
但在新版 Siri 里,你只需要对着屏幕说一句:“把这个存到他的联系人里。”
Siri 就能直接看懂屏幕上的“这个”指的是地址,然后自动跨应用完成操作。
这就叫所见即所得。
其次,它开始有了记忆,能理解你的个人情境。
比如你突然想不起上周朋友给你发的滑冰攻略在哪了。
你直接问 Siri:“找一下 Eric 上周发给我的滑冰建议。”
它会自动去翻你的邮件、短信、备忘录,把信息提取出来给你。
这时候的 Siri,才真正像是一个懂你的数字管家,而不是一个冷冰冰的语音助手。
当然,为了实现这些能力,苹果这次也做了巨大的妥协。
为了赶进度,苹果不再死磕纯自研,而是拉来了老对手——谷歌。
![]()
iOS 26.4 的后端模型,将由苹果自研模型和谷歌的 Gemini 联合打造。
这是一套很聪明的混动方案。
简单的、涉及隐私的操作,苹果用自家的私有云计算搞定。
复杂的、需要通用大模型知识的,直接扔给谷歌 Gemini 处理。
既保证了隐私安全,又补齐了智商短板。
不过,大家也别高兴得太早,这里得泼盆冷水。
新版 Siri 虽然变强了,但它依然不是 ChatGPT 那种陪聊机器人。
它的定位是一个执行者,帮你操作手机、处理任务。
它暂时还不支持无限制的长对话,也不适合用来写论文或者聊人生。
![]()
按照苹果的节奏,iOS 26.4 的测试工作预计 2 月底就会启动,正式版 4 月推送。
虽然不是一步到位的完全体,但这绝对是 Siri 诞生以来最大的一次换脑手术。
它被视为通往 iOS 27 完全体 AI 的关键跳板。
对于手里拿着 iPhone 的朋友来说,这可能是这几年来最值得期待的一次系统更新。
最后问一句:
如果 Siri 真的能看懂屏幕、帮你干活了。
你会重新启用它吗?
还是说,你已经习惯了把 Siri 的开关永远关掉?
欢迎在评论区聊聊你的看法。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.