![]()
26,400个电极同时监听一群大鼠脑细胞的电信号,这不是科幻片里的脑控实验,而是3月12日发表在《美国科学院院刊》上的真实研究。日本东北大学与公立函馆未来大学团队证明:离体培养的大鼠皮层神经元,能在闭环系统中自主学习生成复杂波形——没有外部输入,只靠细胞自己"琢磨"。
从"集体暴走"到"精准输出":微流控薄膜是关键
培养皿里的神经元有个毛病:自由生长时会形成高度同步的密集网络,所有细胞像被按了统一开关,齐刷刷放电。这种"集体暴走"模式处理不了任何复杂任务,研究团队早就知道这点。
他们的解法很工程化——用PDMS(聚二甲基硅氧烷)微流控薄膜给神经元"划地盘"。细胞体被限制在128个方形区域内,轴突和树突只能从预设通道延伸。这种物理约束打破了同步性,让网络产生了丰富的动态特性。
约束不是限制,是结构设计的起点。这个思路和产品经理做功能取舍时一模一样:给开发者自由,用户得到的是混乱;给适当边界,反而涌现复杂行为。
实验用的电极阵列密度极高,17.5微米间距(约头发丝直径的1/5)铺满26,400个记录点。神经元放电的"尖峰序列"被实时捕获、滤波成连续信号,再经线性读出层解码为输出。这个输出又被反馈为电刺激,333毫秒完成一次循环。
FORCE算法:让活体网络"自我纠正"
闭环的核心是FORCE学习(First-Order Reduced and Controlled Error)。名字拗口,机制直白:持续比较网络输出与目标波形,实时调整读出权重,把误差压到最低。
传统机器学习训练神经网络,权重更新靠反向传播,需要冻结状态、批量计算。FORCE不一样——它是在线学习,系统跑着跑着就把参数调了。对活体神经元这种"硬件"来说,这是唯一可行的方案:你不能让细胞暂停放电,等梯度算完再恢复。
研究团队给系统设了两种目标:周期性波形和混沌波形。前者像正弦波,规律可预测;后者看似随机,实则由确定性方程生成(洛伦兹吸引子那种)。
结果?约束过的神经元网络学会了。输出波形与目标的相关系数达到0.8以上,对混沌信号也能保持追踪。作为对照,无约束的同步网络完全失败,输出和目标毫无关联。
活体计算的价值不在算得快,而在算得"省"。26,400个电极监听的是约10万个神经元,功耗不到传统硅基芯片的千分之一。这个数字来自同类研究的估算,原文未给出具体对比,但脑组织的能效优势是领域共识。
储层计算:为什么选这个架构
整个系统属于"储层计算"(Reservoir Computing)的一种变体。这个架构把神经网络分成两部分:固定不变的"储层"(这里是活体神经元),和可训练的读出层。
储层不需要训练,它的作用是把输入信号投射到高维空间,让原本线性不可分的问题变得可分。读出层只做线性变换,学习成本极低。
对生物神经元来说,这个分工是救命的设计。活体细胞的连接强度、兴奋性会随时间漂移,如果整个网络都要精确训练,系统几天就会失效。储层计算把"不稳定"封装在底层,只优化顶层的线性权重,鲁棒性大幅提升。
研究团队还测试了系统的适应性。改变目标波形的频率或振幅,FORCE算法能在数十个循环内重新收敛。这种在线适应能力,正是传统数字芯片做活体接口时的短板——硅基系统需要重新编译、烧录,生物系统边跑边调。
从培养皿到脑机接口:还有多远
论文通讯作者、东北大学副教授小池康博(Yasuhiro Koke)在声明中表示:「这项研究为开发新型脑机接口和神经假肢奠定了基础。」
这句话的潜台词需要拆解。当前脑机接口的主流路线是"记录-解码-刺激":从大脑读信号,算法处理,再写回指令。这个研究的闭环是内部的——刺激来自系统自己的输出,不是外部指令。换句话说,它在训练生物网络产生特定动力学,而非直接控制外部设备。
两种路径各有场景。内部闭环适合神经修复:比如让受损脑区重新学会产生正常节律。外部闭环适合功能替代:比如用意念控制机械臂。这项研究证明了前者可行,后者还需要跨出关键一步——把输出映射到真实世界的动作。
技术障碍也很实在。培养神经元的寿命有限,目前最长稳定记录约12个月。电极阵列长期植入会激发胶质细胞包裹,信号质量衰减。PDMS微流控的封装工艺能否规模化,还是实验室手艺活。
更深层的问题是:这种系统算"智能"吗?它学会了生成波形,但没有目标导向的行为,没有记忆形成,更没有意识。研究团队谨慎地称之为"复杂时空信号的计算生成",避开了"学习"的强定义。
但换个角度,硅基AI在70年前也不被认为有智能。1956年达特茅斯会议时,"人工智能"是个野心勃勃的提案,不是既成事实。活体计算现在所处的阶段,大概类似感知机刚问世的年代——证明可行,距离实用还有工程鸿沟。
这项研究的真正价值,可能是把"生物计算"从概念验证推向了可控工程。此前Cortical Labs用人类神经元玩《毁灭战士》,FinalSpark用果蝇神经元做逻辑门,都是演示性质。日本团队的贡献在于:给出了可复现的训练协议,证明了约束条件与计算能力的因果关系,量化了学习性能。
下一步会是什么?论文提到两个方向:一是整合更多神经元,扩大网络规模;二是引入多模态输入,让系统处理真实传感数据。还有一个未明说但显而易见的应用——药物筛选。如果能在芯片上培养患者来源的神经元,测试它们对刺激的反应,个性化神经疾病治疗就有了新工具。
小池康博的团队已经公开了部分实验数据。他们下一步打算用同样架构训练人类诱导多能干细胞分化的神经元——伦理审查已经启动。如果成功,"你的脑细胞在培养皿里学数学"将从标题党变成技术现实。
当26,400个电极同时亮起,我们看到的不是意识的火花,而是一套新计算范式的雏形。它不完美、难伺候、寿命有限,但功耗低到可以忽略。如果脑机接口的终极形态是"人机共生",这项研究至少证明了:共生不一定需要植入芯片,培养皿里的神经元也能成为算力节点。
最后一个问题留给读者:如果未来你的神经假肢里,有一部分计算发生在体外培养的细胞上——这些细胞来自你自己的皮肤采样——你会把它视为身体的延伸,还是独立的生物个体?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.