![]()
神经科学实验有个老大难问题:找人、扫描、分析,一套流程下来动辄数月,数据还常被心跳和头动搅成"糊片"。Meta FAIR团队昨天甩出的TRIBE v2,相当于给这个领域装了个"跳过键"——不用真把人塞进MRI,AI直接告诉你大脑会怎么反应。
![]()
它的工作原理像一套"感官翻译局"。视频丢给Video-JEPA-2,音频走Wav2Vec-Bert-2.0,文本进Llama 3.2,三方情报汇总到Transformer手里,最终拼出一张7万体素的大脑活动热力图。有意思的是,这AI生成的图比单人真实扫描还干净,因为它预测的是"去噪后的平均反应",相当于自动修掉了那些生理抖动。
![]()
更细的细节是:单给声音,听觉皮层亮;声画文齐上阵,颞叶、顶叶、枕叶交界处的预测准确率能跳涨50%。这说明大脑处理多模态信息时,确实存在某种"1+1>2"的协同效应——TRIBE v2不仅复现了结论,还复现得比传统线性模型准得多。
当然,它也有盲区。依赖血流信号意味着数秒级的延迟,毫秒级的神经电火花捕捉不到;触觉和嗅觉目前也是盲区。Meta已经开源全部代码和权重,下一步的想象空间在脑实验设计、类脑AI架构,以及脑部疾病的辅助诊断上。
有个细节值得玩味:模型输出的"清晰图"反而成了优势——真实fMRI的噪音被当作干扰项剔除,但那些"干扰"里,是否也藏着大脑的真实波动?这是工具便利性和数据完整性之间的经典张力。一位神经科学家在相关讨论区留言:"我现在更担心自己的实验数据还不如AI预测的好看,审稿人会不会让我补个对照组。"
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.