![]()
猕猴视觉皮层里有一个神经元,它只对一件事情有反应:一个特定大小的小圆点出现在视野中特定的位置。不是线条,不是轮廓,就是那个点。
几十年来,神经科学家能够精确描述这种奇异的选择性,却始终无法真正解释它。原因很简单:用来预测神经元行为的计算模型,本身就像大脑一样复杂难懂,一个黑箱嵌套着另一个黑箱,理解一个神经元的代价,是陷入另一个迷宫。
这项发表于《自然》期刊的研究,来自卡内基梅隆大学和普林斯顿大学的联合团队,他们换了一个方向:把模型压缩到人能看懂的程度。
从6000万个参数,压缩到1万个
研究团队的起点,是一个包含6000万个参数的深度神经网络。这类模型在预测视觉皮层神经元对图像的反应方面相当精确,被现代神经科学广泛使用,但其内部逻辑几乎和它试图解释的大脑一样不透明。
研究团队采用了机器学习领域的两种成熟技术:知识蒸馏和模型剪枝。前者让一个小模型向大模型"学徒",继承核心预测能力;后者则像园丁剪树枝一样,反复去除冗余的计算单元,直到模型精简到极限。
最终,每个神经元的对应模型被压缩到大约1万个参数,整整小了5000倍。
令人意外的是,这些袖珍模型预测神经元反应的准确率,仍然超过了所有测试过的标准深度学习架构。这个结果本身就已经颠覆了一个默认假设:神经元的行为需要极度复杂的模型才能捕捉。
卡内基梅隆大学生物医学工程教授马修·史密斯说:"这项研究表明,我们不需要庞大而复杂的神经网络就能理解单个神经元在做什么。通过让模型变得更小、更易解释,我们实际上可以对视觉系统的工作方式建立直觉,并提出可以在实验室中检验的假设。"
第三层到第四层之间,神经元的"个性"突然出现
压缩之后,研究人员第一次能够逐层检查每个模型的内部结构,结果揭示出一个清晰的规律。
在所有压缩模型的早期层,结构几乎完全相同:一套共享的计算词汇,专门处理边缘、曲线和色彩对比。这些是视觉信息最基础的"砖块",不同神经元通用。
但在第三层和第四层之间,发生了研究团队称为"巩固步骤"的急剧转变。在这个节点之后,每个模型的后续层开始彼此分化,变得高度个性化。一个通用的视觉处理器,在这一刻分裂成了点检测器、曲线检测器或纹理专家。
研究人员对那个"点检测神经元"做了最精细的解剖。他们发现,让这个神经元只对特定大小的圆点做出反应的机制,仅仅由六个组件构成:四个负责检测圆点边缘的角状曲率,两个负责压制对大面积连续边缘的反应。
一个小圆点,会同时触发全部四个兴奋性组件,同时几乎不激活抑制性组件,神经元就会强烈放电。一个大圆点则会把兴奋性信号分散得太开,触发抑制机制,整个反应随即崩溃。
六个组件,就把一个困惑了神经科学几十年的问题讲清楚了。
这种规律在整个视觉层级中都成立,而且呈现出令人信服的梯度:视觉皮层最底层的V1神经元,最简单,五个共享滤波器足够;V4神经元需要约十个;位于视觉系统顶端、负责识别物体的下颞叶皮层神经元,则需要约六十个,恰好与其处理内容的复杂程度相符。
研究的验证结果同样引人注目。研究团队根据这些压缩模型的预测,专门设计出应该最大限度激活特定神经元的图像,然后真的把这些图像呈现给猕猴,结果被测神经元的反应强度超过了98%的随机图像引发的反应。模型的预测,和真实大脑的行为高度吻合。
当然,这套方法目前仍有清晰的边界。压缩策略在单个神经元和小规模神经元群体上效果显著,但能否扩展到皮层中数以百万计的神经元的完整多样性,目前仍是一个开放问题。研究团队也明确指出了这一局限。
但这项研究最根本的意义,或许在于重新设定了整个领域的预期:大脑的视觉系统,也许并非注定要用另一个黑箱才能描述。一个神经元可以被画成电路图,如果足够多的神经元都能做到这一点,用简单、可验证的回路来理解视觉的经典科学传统,就还远远没有走到尽头。
信息来源:https://scienceblog.com/neuroedge/2026/02/25/shrunken-ai-models-reveal-how-the-brains-visual-neurons-actually-work/
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.