人类视觉系统如何将眼中的光影转化为对世界的理解?自20世纪80年代起,科学家将大脑视觉通路划分为两条“专线”:腹侧流负责识别物体(如“这是一只猫”),背侧流则处理空间信息(如“猫在左边3米处”)。这一分工理论主导了神经科学领域数十年。
然而,麻省理工学院(MIT)的一项新研究提出挑战——腹侧流可能并非“专精”物体识别,而是具备处理空间任务的灵活能力。这一发现不仅动摇了传统理论,也为理解大脑视觉处理的复杂性打开了新窗口。
01
视觉通路的跨界之谜
过去十年,科学家利用卷积神经网络(CNN)模拟腹侧流功能,发现当CNN模型被训练用于物体识别时,其内部激活模式与腹侧流的神经活动高度相似。这进一步巩固了“腹侧流=物体识别”的假说。然而,MIT研究团队注意到,腹侧流神经元实际上也编码物体的位置、方向等空间特征。例如,2016年的一项实验发现,腹侧流能区分物体旋转角度或视野中的位置。
为验证腹侧流是否“跨界”处理空间任务,研究团队设计了一项创新实验:训练CNN模型执行空间任务(如判断物体方向或距离),而非传统的物体分类,并观察其是否仍能模拟腹侧流的神经活动。
02
用“空间任务”训练AI模型
研究团队由MIT研究生谢雨迪领衔,他们首先构建了一个合成图像数据集,包含茶壶、计算器等物体,并标注其空间属性。随后,他们用这些数据训练CNN模型完成单一空间任务。 为评估模型与大脑的相似性,团队采用神经对齐技术:将模型预测的神经活动与实际记录的腹侧流活动对比。若模型预测越准确,则说明其与腹侧流的神经表征越一致。此外,团队还使用中心核对齐(CKA)分析不同模型间的表征相似性,以揭示其学习机制的异同。
实验结果显示:仅接受空间任务训练的CNN模型,其神经对齐程度与物体识别模型相当。例如,一个训练用于判断物体方向的模型,预测腹侧流神经活动的准确率与物体分类模型不相上下。进一步分析发现,无论是物体识别还是空间任务模型,其早期至中层的神经表征几乎难以区分。这表明,模型在处理视觉信息时,可能同时学习多种特征。例如,一个训练识别物体的模型,也会无意识地捕捉物体的位置或方向信息。
研究团队推测,这种“多任务兼容性”源于视觉数据的天然复杂性——物体在现实场景中总伴随空间属性变化,迫使模型“被动”学习这些特征。 “这就像学生为了通过考试专攻数学,却意外掌握了物理公式,”谢雨迪比喻道,“模型虽被限定任务,但数据的多样性让它们‘偷学’了其他技能。”
03
从“分工明确”到“功能融合”
这项研究颠覆了腹侧流的传统定位,揭示其功能远不止物体识别:腹侧流可能是“多面手”,既能识别物体,又能处理空间信息。其功能优化目标不再单一,而是适应复杂视觉需求的动态平衡。同时研究结果表明现有AI模型(如CNN)的神经对齐评估方法可能存在局限。未来需开发更精细的比较工具,以区分模型与大脑的细微差异。“尽管我们目前测量这些模型与大脑相似度的方法表明它们处于非常相似的水平,但这些模型之间可能仍然存在细微的差异。这表明,我们或许还需要做一些工作来改进模型与大脑的比较方法,以便更好地理解腹侧流究竟是为了什么而优化的。”谢说道。
MIT的这项研究提醒我们,大脑的运作远比教科书描述得更复杂。腹侧流的“跨界”能力,既是对传统理论的挑战,也是对人类视觉系统高效适应性的礼赞。
新闻来源:MIT NEWS
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.