彭博社刚放出消息:iOS 27的相机应用要塞进一个「Siri模式」。快门按钮上会出现苹果智能(Apple Intelligence)的图标,视觉智能(Visual Intelligence)从侧边按钮的隐藏手势,变成和拍照、视频、人像并列的一级入口。这看起来像是功能整合,但背后藏着一个关键分歧——苹果到底该让AI无处不在,还是保持克制?
正方:入口前置是正确选择
![]()
视觉智能现在的激活方式太隐蔽了。长按相机控制按钮,这个手势在iPhone 16系列上才存在,大量用户根本不知道。
把它挪到相机应用里,和拍照模式并列,至少解决了两个问题:发现成本降低,使用路径缩短。你打开相机的瞬间就知道AI功能可用,不用再记一个手势。
新功能也有实用价值。扫描食品营养标签直接记录饮食信息,拍名片自动存联系人——这些场景确实高频。MacRumors四月中旬从苹果代码里挖出了这些功能线索,说明开发已经推进到一定阶段。
更深层的变化是交互统一。以后通过相机控制按钮启动视觉智能,也会跳转到相机应用内的Siri界面,而不是现在独立的浮层。这对苹果来说意味着更少的技术债务,对用户来说意味着更一致的认知。
反方:品牌混淆和功能过载
但「Siri模式」这个命名本身就有问题。Siri作为语音助手的品牌认知已经固化,现在把它贴到一个以视觉识别为核心的功能上,用户需要重新理解「Siri=看+说」。
相机应用正在变得臃肿。原本四个清晰模式——照片、视频、人像、全景——现在加入第五个,而且是最复杂的AI模式。对于只想快速拍照的用户,每次滑动都要多经过一个选项。
苹果智能的logo出现在快门按钮上,也是一种视觉干扰。拍照是一个即时动作,用户不需要在按下快门前思考「现在有没有AI加持」。这种设计暗示苹果更在乎推广自家技术,而非优化核心体验。
还有一个未被回答的问题:视觉智能依赖的识别准确率、隐私处理方式、云端协同逻辑,在变成一级入口后,容错空间会更小。现在的隐藏手势至少给了苹果一个缓冲——不好用可以不发现,但放在相机首页就是另一回事。
我的判断:这是苹果AI战略的被迫转向
苹果在AI上的节奏明显慢于竞争对手。ChatGPT、Gemini已经建立起「打开应用就能用」的心智,而苹果智能分散在备忘录、邮件、相册各处,缺乏一个统一的调用入口。
相机应用成为这个入口,不是因为它是最佳场景,而是因为它是最高频场景。每个人每天都要打开相机,这是苹果能抓住的最大流量池。把视觉智能塞进去,本质是用产品位置的便利性,弥补技术整合度的不足。
但这套逻辑有个漏洞:用户打开相机是为了记录,不是为了查询。营养标签扫描、联系人识别这些功能,和「拍照」的核心意图并不一致。强行合并,可能导致两个场景互相干扰——想拍照的人被AI选项分心,想用AI的人被相机界面限制。
更关键的是,苹果似乎在重复Siri的老路。2011年Siri作为语音助手发布时,也是捆绑在Home键上、无处不在的设计。后来的故事大家都熟悉:功能泛化导致定位模糊,体验断层导致用户流失。现在把视觉智能贴上Siri标签,是品牌复用还是历史重演?
iOS 27将在2026年6月8日的全球开发者大会上亮相,距离现在还有一年多。这段时间足够苹果调整功能细节,但战略方向已经明确:AI必须可见、可触、可感知,哪怕牺牲一点简洁性。
问题是,当相机变成AI的入口之一,用户下次举起手机时,想拍的到底是眼前的画面,还是算法认为重要的信息?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.