你有没有想过,瘫痪患者未来可能像《黑客帝国》里那样,只用"想"就能在虚拟世界里自由走动?上周《科学进展》发表的一项研究,让三只恒河猴先我们一步做到了——而且全程没动一根手指。
这张图到底展示了什么?
![]()
研究团队放出的核心示意图,本质上是一套"脑信号→AI解码→虚拟行动"的闭环系统。三只恒河猴的大脑被植入了电极阵列,同时覆盖三个关键脑区:初级运动皮层(M1)、背侧运动前区(PMd)、腹侧运动前区(PMv)。
这些电极实时采集神经信号,经人工智能模型解析后,直接输出为连续的速度指令——不是简单的"上下左右",而是能在三维空间里平滑移动的控制信号。
猴子们面对的不是平面屏幕,而是具备立体视觉的VR环境。实验设计了两个场景:一个是屏幕上移动物体(第三人称),另一个是森林场景中的第一人称漫游。关键是,复杂度会动态升级,障碍物、目标切换、不可预测的地形变化都被塞了进来。
最狠的是训练机制:AI解码模型只在最初有个"被动注视"的简短训练期,之后直接上线,不再重新训练。这意味着系统必须具备跨任务、跨环境的泛化能力——而这恰恰是过去脑机接口的致命短板。
为什么这次能"通用"?秘密在脑区组合
过往研究大多只盯着初级运动皮层(M1),这个区域确实和直接的运动执行强相关。但研究团队发现,真正让导航控制变得高效的,反而是运动前区——腹侧(PMv)和背侧(PMd)的贡献比M1更突出。
这背后的逻辑很直观:M1管的是"手怎么动",而PMd和PMv管的是"我要往哪去、怎么规划路线"。现实场景中的移动从来不是简单的肌肉收缩,而是持续的目标修正、障碍规避、路径重规划。研究团队「通过将初级运动皮层、背侧及腹侧运动前区的信号解码为连续速度指令,我们的系统可实现大范围任务的实时控制」。
实验结果验证了这一点。猴子们展现出清晰的学习曲线,表现持续提升;同一套系统在不同任务间无缝切换,无需重新校准。对比以往只能在二维轨道上滑光标、或者必须配合明显肢体动作的演示,这次的三维自主移动+零肢体反馈,完全是另一个物种的产品。
从实验室到轮椅:还有多远?
研究团队毫不掩饰野心。他们在论文里明确列出这套系统的"商用清单":快速精准控制、连续移动、动态目标切换、避障能力、快速响应意图变化——每一条都对应轮椅操控、家居移动等真实需求。
但别急着乐观。恒河猴和人类的大脑结构虽有相似,皮层面积、信号复杂度、长期植入的生物相容性都是未知数。研究团队也承认「后续仍有工作要开展,包括最终的人体试验」。从猴子森林漫游到瘫痪患者出门买菜,中间隔着至少几年的临床验证和工程迭代。
不过方向已经清晰。过去二十年,脑机接口被困在"实验室炫技"的怪圈里:演示很惊艳,落地很骨感。核心矛盾在于,真实世界的移动是开放的、动态的、不可预测的,而绝大多数研究都在用封闭的、静态的、可预测的任务来验证技术。
这项研究的聪明之处,是用VR构建了"足够真实"的复杂场景,同时又保持了实验的可控性。这让人想起自动驾驶的仿真测试逻辑——先在虚拟世界里跑完百万公里,再上路。
一个被忽略的产品信号
更值得玩味的是技术路线的选择。研究团队没有追求更高密度的电极、更激进的手术植入,而是把重点放在了信号源的多样性(三个脑区协同)和AI解码的泛化能力上。这暗示了一种更务实的工程哲学:与其赌未来材料学的突破,不如先把现有硬件的潜力榨干。
对于关注脑机接口赛道的从业者,这是一个关键信号。Neuralink的高密度柔性电极、Synchron的血管介入方案、以及这项研究的"多脑区+强AI"路线,本质上是在用不同方式回答同一个问题:怎么让大脑和机器的对话,从"实验室方言"变成"世界语"。
答案可能不止一种。但至少现在,三只猴子已经在虚拟森林里证明了:意念驱动自由移动,不再是科幻片的专属。
如果你在做人机交互、辅助技术或者AI边缘应用,建议把这篇论文的Supplementary Materials翻一遍——里面藏着从"能演示"到"能商用"的完整工程细节。技术突破的窗口期往往很短,但识别窗口的能力,可以训练。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.