你有没有算过,一天要对智能音箱喊多少次"嘿谷歌"?
谷歌把Google Assistant换成Gemini(双子星)之后,这个次数可能翻了几倍。现在他们终于宣布:连续对话功能回来了——不用订阅,不限语言,全球可用。问题是,为什么这个功能消失过?
![]()
连续对话到底是什么
简单说,就是说完一句话后,你不用重新喊唤醒词,可以继续聊。
设备会保持监听状态,LED灯亮着提醒你它还在听,而且记得你们刚才聊了什么。谷歌官方说法是,它能分辨"命令"和"闲聊"——比如你突然对狗喊"下去",它理论上不会误以为是对它下指令。
这个功能现在向已开通Gemini for Home早期体验的用户推送。检查方式:Google Home App → 右上角头像 → 家庭设置 → Gemini for Home语音助手 → 连续对话。
但有个前提:你得已经被纳入Gemini for Home的测试范围。这个功能本身目前仍是有限开放的。
迁移过程中的三个槽点
谷歌把底层从Assistant切到Gemini,不是简单的 rebranding。用户遇到的实际问题包括:
第一,响应延迟变长。部分用户反馈Gemini在智能家居控制上的反应速度不如前任,尤其是在全球 rollout 期间出现过性能波动。
第二,功能缩水。连续对话是用户明确反馈"真的想念"的功能之一。这说明谷歌在重构产品时,优先保了核心对话能力,牺牲了体验连续性。
第三,覆盖不完整。Gemini for Home至今仍是有限开放,不是所有人都能用上。这意味着谷歌的"全面替换"承诺,实际执行是渐进式的。
为什么这个功能值得单拎出来说
连续对话看起来是个小功能,但它直接影响使用频次。
每次重新喊唤醒词,都是一次"交互中断"。在厨房手忙脚乱时,你想问"这菜要炖多久",接着问"需要翻面吗",再追问"火调多大"——如果每句都要重新唤醒,很多人会选择直接用手机查。
谷歌把它做成无需订阅、全语言、全区域,说明这被定位为"基础体验"而非增值功能。这个决策本身值得玩味:在AI助手竞争白热化的当下,基础体验的完整性比付费墙更能留住用户。
另一个细节是"区分命令和闲聊"的能力。这涉及端侧AI的意图识别精度。谷歌敢公开承诺这个场景,说明Gemini的本地推理能力比Assistant时代有实质性提升——否则用户会频繁遇到误触发或漏触发。
智能家居的AI切换还在阵痛期
谷歌不是唯一一家面临这个问题的。亚马逊Alexa的生成式AI重构同样进度反复,苹果HomeKit的Siri升级也多次跳票。
核心矛盾在于:传统语音助手是"命令-执行"的确定性系统,而大模型是"对话-生成"的概率系统。前者响应快、可控性强;后者更聪明,但延迟高、行为不可预测。
谷歌选择把Gemini塞进Home生态,意味着接受后者的不确定性,同时试图用工程手段弥补。连续对话的回归,就是这种"弥补"的一部分——它让概率系统用起来更像确定性系统,减少用户的认知摩擦。
但代价是复杂度。现在Google Home里同时存在:旧版Assistant逻辑、Gemini新逻辑、以及两者之间的兼容层。用户报告的性能问题,很大程度上来自这个架构的临时性。
下一步要看什么
连续对话恢复只是开始。真正的考验是:Gemini for Home什么时候全面开放?现有功能什么时候达到Assistant的响应速度?以及,谷歌会不会为高级功能设置订阅墙?
目前谷歌Workspace里的Gemini已经开始显示所有工作聊天记录,Home场景的隐私边界如何划定,也是用户会关心的问题。
如果你已经在用Gemini for Home,现在可以去打开连续对话试试。如果你还在等推送,这个功能的回归至少说明:谷歌听到了反馈,而且愿意把"基础体验"的优先级重新调高。
在AI助手从"能用的工具"变成"自然的对话"之前,这种反复还会持续。但至少,你不用再每句话都喊"嘿谷歌"了。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.