你有多久没打开过Google Home的摄像头界面了?我猜很久。谷歌自己也知道这个问题。
最近他们推了一波更新,核心就一件事:让那个被晾在一边的智能家居中枢,重新变得能用。不是炫技,是还债。
![]()
界面终于像2026年了
先说最直观的。Google Home的摄像头界面重新设计了,导航更快,视频拖拽更顺。以前那种"找到录像→等加载→拖进度条→卡死→重来"的循环,理论上会减少。
具体改了什么:
事件筛选现在支持"看到人""看到包裹""听到玻璃破碎"这类标签。缩略图变成动态的了,而且会主动聚焦画面主体。你上下滑动时,播放器窗口会固定在屏幕上,不会消失。
这些改动听起来基础,但对天天看监控的人来说,省的是每次操作的几秒钟。累积下来,体验差很多。
一个细节:高级订阅用户(Google Home Premium)能在时间轴视图里看到事件文字描述。而且这次谷歌难得没砍老用户——老一代Nest摄像头也能用上动态缩略图和文字描述。
人脸识别终于允许你教它了
谷歌的人脸识别一直有个毛病:认错了你也只能看着。现在改了。
familiar face(熟人识别)预览界面加了 thumbs up/down 按钮。认对了点,认错了点,系统会学。同时算法会自动过滤掉模糊、太小、质量差的人脸截图,清理你的面部库。
这个反馈闭环本该三年前就有。苹果HomeKit早就允许用户标记误识别,谷歌拖到现在,说明什么?说明智能家居的优先级在内部一直不高,直到被竞争对手逼到墙角。
播放器交互抄了短视频的作业
新的播放控制明显借鉴了手机视频的习惯:
• 10秒快进/快退按钮,点一下跳一段
• 左右滑切换时间轴和事件列表
• 下拉控制条缩小播放器
• 向下滑关闭摄像头视图
全是手势操作,没有学习成本。谷歌终于意识到:看监控录像和刷抖音,用户用的是同一套肌肉记忆。
Gemini 3.1:语音助手能一次干多件事了
摄像头之外,谷歌同步更新了Gemini for Home的预览版。底层模型升级到Gemini 3.1,已经向早期体验计划用户推送。
实际能力提升:
多步骤指令。以前你说"往购物清单加牛奶,再把昨天的鸡蛋改成一打",助手会愣住。现在能一次处理。
防重复创建。如果你已经有"超市清单"和"购物清单",系统能识别相似名称,不会每次都新建一个。
闹钟和日历的bug修复。包括正确处理跨天事件,以及——谷歌原话——"解决设置闹钟时混淆上午/下午的问题"。
最后这个修复值得单独拎出来。AM/PM搞错是语音助手最基础的可靠性测试,谷歌到现在才"fully squared away"(彻底解决)。这不是技术难度问题,是资源投入问题。
为什么现在才做这些?
谷歌智能家居的战略摇摆是有名的。Nest被收购后经历了多次重组,产品线和品牌名改来改去。Alexa和Siri在音箱市场打得火热那几年,Google Home的定位一直模糊——是音箱?是中枢?还是摄像头配套App?
现在答案清晰了一些:摄像头是核心场景,Gemini是统一技术栈。所有功能都往AI能力上靠,界面交互往手机习惯上靠。
但竞争窗口期已经过去了。Ring在门铃摄像头市场根深蒂固,Apple HomeKit靠隐私牌守住高端用户,国内小米、萤石把性价比做到极致。谷歌这一轮更新,更像是守住基本盘,而非开拓新地盘。
对25-40岁的科技从业者来说,这件事的启示在于:大公司的产品迭代节奏,往往不取决于技术成熟度,而取决于组织注意力的分配。Gemini的能力早就有了,但直到语音助手市场份额被蚕食、直到多模态AI成为行业叙事,智能家居团队才拿到足够的资源把功能落地。
技术债务的偿还,从来不是线性的。它总是在某个外部压力阈值被突破后,集中爆发。
至于那些终于能正确识别上午下午的闹钟——恭喜谷歌,赶上了2016年的用户体验基准线。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.