Meta卖了两年智能眼镜,苹果终于下场。但看完爆料我有个疑问:这玩意儿算眼镜还是算相机?
据MacRumors拿到的细节,苹果首款智能眼镜的配置清单,删得比留的多——没屏幕、没激光雷达(LiDAR)、没3D相机、没增强现实功能。就剩两颗摄像头,外加一个手势识别模组。
![]()
两颗摄像头,分工很细
第一颗是高分辨率镜头,拍照拍视频,功能和Meta雷朋眼镜差不多。第二颗是低分辨率广角镜头,专门读手势,同时给Siri当眼睛。
用过Vision Pro的人会对这个操作逻辑很熟悉:抬手、捏合、滑动,不用摸镜腿,不用喊唤醒词。苹果在Vision Pro上的手势识别被业内认为是VR头显里最好的,这次直接下放。
但代价是显性的。为了把眼镜做轻做薄,苹果砍掉了所有耗电大户。激光雷达、AR显示、3D感知——这些 Vision Pro 上花大力气吹的功能,一个都没留。
目标人群也变了。不是极客,是内容创作者和想解放双手记录生活的人。
材料选醋酸纤维,Siri要升级
苹果正在测试多种镜框样式,材质定了醋酸纤维(acetate)——一种植物基材料,比常规塑料轻、韧、贴脸舒服。眼镜党应该熟悉,日系手工镜框常用这料子。
软件层面,眼镜会跑一个"更聪明的Siri",和iOS 27同版本。能拍照、录像、打电话,还能问Siri"我眼前是什么"。
时间线上,今年晚些时候可能有预览,2027年正式发布。
为什么苹果要做得这么"笨"
这个取舍很有意思。Meta雷朋眼镜已经证明:不带屏幕的智能眼镜,核心卖点是"无感"——戴着像普通眼镜,需要的时候抬手就拍。
苹果的选择是把这个逻辑推到极端:连镜腿触控都省掉,全靠手势。好处是交互更自然,坏处是用户得重新学一套肌肉记忆。
更值得玩味的是安全牌。爆料人提到没买Meta眼镜的原因是"过去几个月暴露的隐私风险"——大概率指2024年底爆出的雷朋眼镜AI功能可被诱导拍摄敏感内容、照片上传漏洞等事件。
苹果的策略明显是:功能做减法,信任做加法。一颗低分辨率镜头专门服务AI,而不是让高分辨率镜头兼顾识别和拍摄,这本身就是物理隔离的设计语言。
行业影响:智能眼镜的分岔口
这件事的重要性在于,它确认了智能眼镜的两条路线之争。
一条是Meta-雷朋路线:眼镜即相机,AI是附加值,先让用户戴起来。另一条是苹果路线:眼镜即Siri终端,相机是入口,手势是交互层,为未来的AR生态养习惯。
没有屏幕意味着苹果暂时放弃"信息层"的竞争——不抢手机的通知、导航、翻译场景。但保留了"感知层"的入口:Siri看你所看,手势替代触控。
这步棋的风险是,2027年发布时,如果竞争对手已经做出能显示简单信息的轻量AR眼镜,纯音频+相机的形态会不会显得过时?
好处也明显:续航撑得住全天佩戴,价格可能压到Vision Pro的十分之一,最重要的是——不会重蹈Google Glass的覆辙。那玩意儿死在太像科幻设备,苹果这次做得太像普通眼镜了。
爆料人的最后一句话是:"一副能拍照、有智能助手、还安全的普通眼镜?我现在就想下单。"
这大概是苹果最想听到的用户反馈——不是"哇塞黑科技",而是"终于有个能用的了"。
毕竟,让科技消失在日常里,比让科技炫目难多了。苹果这次选的,是那条更难的路。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.