Neuralink 又整活了。这次不是让猴子打游戏,而是让一位说不了话的病人,用意念"开口"。
今年 1 月接受芯片植入的肯尼思 · 肖克,患有肌萎缩侧索硬化症——这种病会慢慢偷走患者的行动和语言能力。现在,他脑门里那块叫 N1 的芯片,正在读取他想说的话,转成文字,再用他原本的声音念出来。
整个过程有点像教婴儿认字:先让肖克大声朗读句子,建立"脑信号-词语"的对应关系;再让他只做口型不出声;最后连嘴都不用动,纯靠"想",系统就能解码。
视频里,肖克"说"了句挺科幻的话:"我在用意念和你说话。"
技术原理倒不神秘。大脑里原本指挥嘴、舌头、喉咙的区域会产生特定信号,芯片只是截胡了这些信号,把它们和"音素"——语言的最小发音单位——对上号,再拼成句子。工程师格拉纳蒂尔打了个比方:他们的目标是让"想动嘴"这个意图本身,足够让系统猜出你要说什么。
当然,现在的体验还称不上丝滑。解码需要时间,延迟肉眼可见。Neuralink 自己也说,这项"VOICE 临床试验"离普及还有几年路要走。但方向很明确:更多传感器、更高质量、最终做到实时脑转语音。
肖克在视频结尾用合成声音说了句感谢。听起来像他自己,又不太像——这种微妙的错位感,大概是所有新技术刚落地时的共同特征。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.