凌晨三点,你对着外卖盒上的营养成分表发呆——这玩意儿到底健不健康?明年可能不用猜了。开发者在苹果后台代码里扒出了四组新功能,全部指向同一个方向:让摄像头替你"看懂"世界。
视觉智能的两次进化
![]()
苹果正在把视觉智能(Visual Intelligence)往实用场景猛推。代码显示,iOS 27 将支持扫描食品营养标签,数据可能直接汇入健康应用。另一项功能更接地气:拍到印刷的电话号码或地址,系统会主动问你要不要存进通讯录。
这其实是现有能力的自然延伸。视觉智能已经能识别日历日期并创建日程,联系人信息的自动提取只是补齐拼图。但背后的信号更明显——苹果在为可穿戴设备铺路。
智能眼镜、带摄像头的 AirPods、AI 胸针或吊坠,这些传闻中的硬件都需要"看懂"环境。手机端的视觉智能,本质是替这些设备跑通算法、训练用户习惯。
钱包和浏览器的"偷懒"功能
钱包应用(Wallet)的更新指向一个痛点:实体卡片的数字化。代码暗示,扫描演唱会门票、健身房会员卡等物品后,系统能自动生成数字通行证。谷歌钱包(Google Wallet)在安卓端已实现类似功能,苹果这次是补齐短板。
Safari 的改动则更"懒"——根据标签页内容自动命名标签组。对同时开二十个标签的调研型用户,这能省掉手动整理的烦躁。但核心逻辑没变:AI 不做决策,只帮你减少重复劳动。
为什么现在泄露?
这些功能藏在代码字符串里,开发者 Nicolás Alvarez 挖出来,MacRumors 做了交叉确认。但字符串名称不等于最终产品,发布节奏也可能调整。
时间点却耐人寻味。iOS 27 将在六月全球开发者大会(WWDC)亮相,九月随新 iPhone 推送。而苹果同期在推进的"更智能版 Siri",需要更深度的跨应用整合——视觉智能、钱包、浏览器,全是 Siri 能调用的数据源。
代码泄露的时机,恰好卡在"技术储备"与"产品叙事"的交汇点。
扫描仪哲学的边界
四项功能有个共同特征:不创造新需求,只接管旧麻烦。营养标签解读、名片信息录入、实体票证收纳、标签页整理——全是用户已经在做、但做得烦躁的事。
这和某些 AI 产品的"想象需求"路线相反。苹果的选择更保守,也更像一家硬件公司:先用摄像头解决具体问题,再把这些能力迁移到眼镜、耳机等下一代设备。
风险在于,"扫描即服务"的护城河够深吗?谷歌钱包的先发优势、第三方营养识别应用的垂直深耕,都是现成的竞品。苹果的优势只在生态整合——健康应用的数据闭环、通讯录与日历的联动、Siri 的跨应用调用。
WWDC 倒计时两个月,这些代码能否变成发布会上的演示环节,取决于工程进度。但方向已经清晰:苹果不急着让 AI 替你思考,它先让 AI 替你"看清楚"。
对 25-40 岁的科技从业者,这组泄露的价值或许是观察窗口——看一家万亿公司如何把"视觉输入"拆解成可交付的功能模块,又如何为硬件矩阵预留接口。毕竟,手机上的营养标签扫描,可能只是智能眼镜的预演。
数据锚点:苹果通常于 6 月 WWDC 发布新系统,9 月随 iPhone 推送正式版。iOS 26 尚未发布,iOS 27 的代码已入仓——这意味着上述功能的开发周期至少跨越 18 个月。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.