![]()
你的智能手表可能正在浪费80%的硬件潜力。康奈尔大学与韩国科学技术院(KAIST)的研究团队最近干了一件事:他们写了几行代码,让市面上任何普通智能手表突然拥有了精确追踪手掌和手指位置的能力。不需要买新手表,不需要贴传感器,甚至不需要联网。
这个项目叫 WatchHand,核心逻辑简单到有点荒唐——它把你手表上那个用来接电话的麦克风和用来提醒事项的扬声器,改造成了一个微型声纳系统。
具体怎么玩?扬声器发出人耳听不见的超声波,声波碰到你的手反弹回来,被麦克风捕获。手表里的AI算法实时分析这些回声的时间差和强度变化,就能在三维空间里重建你手掌的姿态。整个过程完全本地运行,数据不出设备。
蝙蝠靠这个原理在漆黑山洞里飞行,现在你的手腕上也能跑一套。
手势控制PC:从科幻片走进工位
研究团队演示了几个场景。双指轻敲,音乐跳过下一首;手腕悬空微动,光标在屏幕上跟着走,全程不用碰鼠标或触控板。对于需要双手操作的场景——比如一边吃外卖一边翻PPT——这个功能的实用性立刻显现。
更远的想象空间在输入领域。WatchHand理论上可以识别你在空中"虚拟打字"的手指轨迹,未来或许能替代实体键盘的一部分场景。VR/AR控制器是另一个 obvious 的方向:你不再需要握着一个笨重的手柄,抬起手就是交互界面。
无障碍辅助功能可能是被低估的一块。传统输入设备对运动能力受限的人群存在门槛,而手势交互天然更包容。研究团队明确提到了这个应用场景。
为什么现在才有人想到?
智能手表的麦克风和扬声器存在了十几年,声纳原理更是二战时期的技术。真正的突破在于边缘AI的算力提升——现在一块手表的芯片足以实时运行复杂的神经网络,而不需要把数据传到云端。
康奈尔大学计算机科学教授程瑞(Cheng Zhang)主导的这项研究,选择了一条极其克制的技术路线:零硬件增量,纯软件方案。这意味着如果厂商愿意,现有设备通过系统更新就能获得这项能力。
全球智能手表出货量在2023年已突破2亿块。WatchHand的论文明确指出,软件更新 alone 就能覆盖这个存量市场。
当然,限制条件也摆在那里。目前只支持Android手表,苹果生态暂未打通;行走状态下的追踪精度会下降,因为手臂摆动引入了额外噪声。但作为"第一代纯软件手势追踪系统",这些妥协在工程上完全合理。
手表正在逃离"手机配件"的命运
WatchHand的出现不是孤立事件。同一批研究者还在开发另一款腕戴设备,能检测人体内的微塑料含量。智能手表的传感器阵列——加速度计、陀螺仪、心率、血氧、温度——正在被重新组合,指向比"看通知"更激进的用途。
一个有趣的对比:苹果花了十年把Apple Watch打造成健康监测中心,却对手势交互保持谨慎。Vision Pro的眼动+手势追踪需要头戴设备配合,而WatchHand证明,手腕单点就能实现相当精度的空间定位。
这可能会改变人机交互的优先级排序。头显负责沉浸式体验,手表负责日常轻量控制,手机反而变成那个"偶尔需要掏出来"的设备。
康奈尔团队把论文和开源代码都放了出来。Android开发者现在就能下载测试,看看自己的手表能识别多少种手势。
如果这项技术真的通过OTA推送到达千万用户手中,第一个问题可能是:你会愿意在地铁上对着空气比划来控制手机吗?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.