![]()
Meta上周更新了一组数字:美国18岁以上用户,很快可以用Ray-Ban或Oakley眼镜"看"一眼食物,AI自动算出营养成分。这不是概念视频,是即将推送的软件更新。
但真正的戏在后头。Meta明说,未来要让眼镜"自动记录你吃了什么"——不用你开口,不用你拍照,摄像头自己盯。这相当于给每个人配了个24小时待命的饮食监控员,只是它住在你的鼻梁上。
从"手动记账"到"自动监视",中间只隔了一次软件更新
目前的版本还算克制。用户需要主动语音唤醒,或者抬手拍一张,AI才会识别食物并提取营养数据,同步到Meta AI应用的饮食日志里。你可以问"吃什么能提神",它会结合你的记录和目标给出建议。
这个模式像极了十年前的记账App——薄荷健康、MyFitnessPal都是这么起家的。区别在于,那些工具需要用户手动输入"中午吃了牛肉面",而Meta把输入成本压到了"看一眼"甚至"不用看"。
Meta的路线图写得很直白:"通过持续软件更新,Meta AI将从每次需要提问的工具,变成全天候、即时响应的助手。"翻译成人话:现在要你配合,以后不用了。
自动识别:便利还是越界?
Gizmodo的质疑很直接:自动识别食物的隐私边界在哪?Meta给18岁以上设限,侧面承认了这套系统的敏感性。但年龄门槛解决不了核心问题——当你坐在餐厅里,对面的人也在你眼镜的视域范围内,他们的盘子算不算"被记录"?
Meta没回答这个。官方话术停留在"更丰富的个性化营养洞察",对数据采集范围避而不谈。
这里有个产品设计的经典张力。手动拍照时,用户至少知道自己"提交"了什么信息;自动模式下,触发条件、识别精度、存储时长全是黑箱。Meta说"ongoing software updates"(持续软件更新),等于把规则制定权握在自己手里,用户只能被动接受版本迭代。
技术实现上,食物识别不算新鲜事。Google Lens、三星Bixby Vision都能干,但都是手机端、主动触发。Meta把场景搬到了第一人称视角的可穿戴设备,且目标是"无感采集"——这改变了性质。
眼镜比手机更私密,也更侵入
手机拍食物,动作明显,周围人看得见。眼镜摄像头在鼻梁高度,视角与人眼几乎重合,拍摄行为本身被消解了。Meta去年就因"眼镜录像指示灯太暗"被投诉过,这次的功能升级,让指示灯的存在意义更尴尬:如果识别是"自动"的,灯亮不亮?亮多久?
产品文档里没提。目前仅知Ray-Ban Meta和Oakley Meta音频眼镜会先上,带显示屏的Ray-Ban Display版本要等到今年夏天。这个时间差暗示了两条产品线的定位分化:音频眼镜主打"无感",显示眼镜还要处理视觉交互的复杂度。
营养追踪的数据流向也值得细究。Meta说饮食日志会"驱动越来越个性化的洞察",但没提是否接入广告系统。考虑到Meta的商业模式,"你上周吃了三顿火锅"和"推荐附近轻食店"之间的链路,技术上是通的。
竞品在干嘛?苹果和谷歌的沉默
智能穿戴的健康赛道,苹果手表走了另一条路。它靠传感器测血糖趋势、算卡路里消耗,但绝不碰"你吃了什么"的视觉识别。不是技术做不到,是苹果选择了数据类型的隔离——身体信号可以采,环境图像尽量不沾。
谷歌更谨慎。Google Glass的教训太深,2015年停产后,AR眼镜项目反复重启又收缩,至今没有面向消费者的量产版本。Meta则相反,Ray-Ban联名款卖了两年,迭代节奏明显加快。
这个差异源于公司基因。Meta的元宇宙叙事需要硬件入口,眼镜是目前最现实的载体;苹果把健康当服务卖,数据可信度比功能丰富度更重要;谷歌在等一个"不会引发抵制"的时机,可能永远不会来。
Meta的赌注是:用户会为便利让渡隐私,只要让渡的过程足够平滑。"先手动、后自动"的路线图,是典型的成瘾性产品设计——降低初始门槛,逐步培养依赖,最后把"选择退出"的按钮藏深。
18岁门槛背后的监管预判
年龄限制是个有趣的信号。Meta完全可以在用户协议里埋条款,但它选择了显性的门槛设置。这更像是给监管机构的预防性表态:我们知道这敏感,所以先圈定成年人。
但"成年人"的标准在数字时代越来越模糊。一个22岁的大学生和一个45岁的中年人,对"自动记录饮食"的理解可能完全不同。Meta没提供分级选项,要么全开,要么别用。
功能上线后,真正的测试场景会是社交场合。聚餐时有人戴着能自动识别食物的眼镜,同桌的人是否该被告知?Meta的隐私政策没覆盖这种微观情境,而法律总是滞后于技术部署。
回到产品本身,营养追踪的准确性也是个问号。食物图像识别的误差率,在实验室和真实餐厅光照条件下差距很大。一碗红烧肉的"营养成分",取决于肥瘦比例、酱汁浓度、配菜分量——AI能识别出"红烧肉",但算准热量需要更多假设。
Meta的应对方式是"个性化洞察"这个模糊承诺。不保证准确,只保证"越来越懂你"。这是数据驱动产品的标准话术:把系统缺陷包装成学习过程,让用户承担训练成本。
一个产品经理的观察
从功能设计看,Meta在试探可穿戴设备的边界。音频眼镜先上,是因为交互简单、用户预期低;显示版本延后,是要解决"AI建议怎么呈现"的界面问题。如果自动识别跑通,下一步很可能是"自动建议"——眼镜看到你拿起奶茶,耳机里飘过一句"这杯含糖量相当于8块方糖"。
这种干预的边界在哪?Meta没画线。它的叙事永远是"帮助你做出更健康、更明智的选择",但"更健康"的定义权在谁手里?
对比智能手机时代,App请求权限时至少弹个对话框。Meta眼镜的自动模式,可能连对话框都省了。权限管理从"一次性授权"变成"持续默许",这是交互范式的根本转变。
行业层面,这个功能可能引发连锁反应。如果Meta证明"自动饮食识别"有市场,苹果、三星迟早要跟。它们的跟进方式会不同——苹果可能强调本地处理、不上传云端;三星可能绑定自家健康生态——但核心逻辑一致:用可穿戴设备的贴身性,换取比手机更细颗粒度的数据。
用户得到的便利是真实的。手动记录饮食的放弃率极高,自动识别确实能解决痛点。但便利的代价常被低估:当AI比你更清楚你的饮食习惯,"个性化建议"和"行为操控"之间的界限,谁来监督?
Meta的更新说明里有个细节:饮食日志会"power increasingly personalized insights"(驱动越来越个性化的洞察)。Power这个词选得微妙——不是"支持",是"驱动"。数据是燃料,Insight是产出,用户则是被驱动的对象。
功能预计"soon"在美国上线,其他地区时间未定。考虑到Meta近年的产品发布节奏,"soon"可能意味着几周内。对于已经戴着Ray-Ban Meta的人来说,这是一次免费的软件升级;对于还没买的人,这可能是说服入局的又一个功能点。
但那个最终形态——"自动记录你吃了什么"——还没有时间表。Meta只说"未来会通过持续软件更新实现",这是典型的产品经理话术:把承诺抛向远方,先把当下的版本推出去。
如果明年这时候,你的眼镜能在你咬下第一口汉堡时自动弹出热量警告,你会觉得贴心,还是窒息?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.