Local dendritic balance enables learning of efficient representations in networks of spiking neurons
局部树突平衡使尖峰神经元网络能够学习高效表示。
https://www.pnas.org/doi/full/10.1073/pnas.2021925118
摘要
神经网络如何通过局部可塑性机制学习高效表示复杂且高维的输入? 经典的表征学习模型假设前馈权重是通过成对的类赫布(Hebbian-like)可塑性机制学习的。
在这里,我们展示了成对的类赫布可塑性机制只有在对神经动力学和输入统计特性提出不切实际的要求时才能发挥作用。 为了克服这些限制,我们从第一性原理推导出一种基于电压依赖性突触可塑性规则的学习方案。 在此方案中,递归连接学会在单个树突隔室中局部平衡前馈输入,从而可以调节突触可塑性以学习高效的表征。 我们在模拟中证明了,即使对于复杂的高维输入以及抑制性传递延迟的情况,这种学习方案也能稳健地工作,而类赫布可塑性机制在这种情况下会失效。 我们的研究结果直接将树突的兴奋-抑制平衡与体内观察到的电压依赖性突触可塑性联系起来,并表明这两者对于表征学习都至关重要。
高效编码 | 突触可塑性 | 平衡状态 | 神经采样 | 树突计算
许多神经系统需要在其活动中编码高维且复杂的输入信号。长期以来,人们一直假设这些编码是高度高效的;也就是说,神经活动能够忠实反映输入信号,同时还要满足能量和信息的限制条件(1–3)。对于脉冲神经元群体来说,这种高效编码需要具备两个核心特征:第一,群体中的神经活动必须协调一致,以确保没有多余的脉冲被激发(4);第二,单个神经元的活动应能表示输入信号中反复出现的模式,这些模式反映了感官刺激的统计特性(2, 3)。那么,如何通过局部可塑性规则实现这种协调以及高效的表征呢?
为了协调神经脉冲,选择编码神经元之间正确的递归连接至关重要。特别是,递归连接必须确保神经元不会冗余地发放脉冲来编码相同的输入。早期的研究结果表明,在无结构网络中,当兴奋性和抑制性电流在网络中平均相互抵消时,神经脉冲的冗余性会降至最低(5–7),这被称为松散的全局兴奋-抑制(E-I)平衡(8)。为了达到这种状态,可以随机选择递归连接,并使其具有适当的平均强度,从而导致异步且不规则的神经活动(5),正如在体内观察到的情况(4, 9)。最近的研究进一步表明,当兴奋性和抑制性电流不仅在平均意义上,而且在快速时间尺度上和单个神经元内都能精确抵消时,递归连接可以确保更高效的编码(4),这被称为紧密的详细E-I平衡(8)。在这种情况下,递归连接需要经过精细调节,以确保网络对输入的响应能够精确分布在群体中。为了实现这种复杂的递归连接性,已经提出了不同的局部可塑性规则,它们能够稳健地收敛到紧密平衡状态,从而确保网络能够高效地对输入信号做出脉冲响应(10, 11)。
为了高效编码高维输入信号,神经表征还需要适应输入的统计特性。通常,高维信号以反复出现的时空模式的形式包含冗余信息,而编码神经元可以通过在活动中表示这些模式来减少活动。例如,在自然图像的高效编码中,神经元的活动应能表示边缘的存在,因为这些边缘在图像中无处不在(3)。早期关于递归网络的研究表明,通过类赫布学习调整前馈权重可以找到这种高效的表征(12, 13)。在赫布学习中,输入中模式的反复出现与突触后活动相关联,使神经元成为这些模式的检测器。递归连接通过迫使神经元对输入中的不同模式发放脉冲,间接指导了这一学习过程。最近的研究严格形式化了这一思想,应用于平衡网络中的脉冲神经元模型(11)以及从生成模型中采样的脉冲神经元模型(14–17)。这些方法的巨大优势在于,学习规则可以从第一性原理推导出来,并且结果与实验测量到的依赖于脉冲时间的可塑性(STDP)曲线相似。
然而,为了实现高效表征的学习,这些模型对网络动力学提出了严格的要求。最关键的是,递归抑制必须确保神经反应足够去相关。在神经采样方法中,学习因此依赖于强烈的“赢家通吃”动力学(14–17)。在平衡网络框架中,抑制作用的传递必须近乎瞬时,以确保强去相关(18)。这些要求在现实情况下可能无法满足,因为在现实中,神经活动通常表现出正相关性(19–22)。
在此,我们推导出一种克服这些限制的学习方案。首先,我们表明,当神经活动相关时,前馈连接的学习必须结合关于其他神经元活动的非局部信息。其次,我们表明,递归连接可以通过学习在树突上局部平衡特定的前馈输入,从而提供这种非局部信息。在脉冲神经网络的模拟中,我们展示了基于树突平衡的学习相较于类赫布学习在高效编码高维信号方面的优势。因此,我们扩展了“紧密平衡抑制作用会在局部提供群体编码信息”的思想,并证明它不仅可以用于将神经反应分布在整个群体中,还可以用于改进前馈权重的学习。
结果
本文的目标是通过神经脉冲高效编码连续的高维输入信号。在下文中,我们将解释神经元如何通过局部可塑性机制学习这些输入的高效表征。我们首先展示紧密的胞体平衡如何引导神经脉冲,将编码分布到整个群体中。然后,我们展示树突水平上的紧密平衡如何指导前馈权重中高效表征的学习。
背景:具有紧密兴奋-抑制(E-I)平衡的脉冲神经元实现高效编码
我们的模型与先前关于平衡脉冲网络的研究中的模型类似(11, 23)。
目标是找到最高效的脉冲编码,使得在单个神经元的平均发放率保持固定的情况下,能够实现对输入的最佳重建(详见补充信息附录B部分)。为了测试输入的重建效果,我们考虑从神经响应中得到的最佳线性读出 ,并量化平均解码损失。
其中 Nx 是输入的数量。需要注意的是,读出模块并不是网络的一部分,而只是用于定义一个计算目标的指导。因此,学习高效编码的过程等价于在给定最佳解码器 D 和固定发放率的情况下,通过局部可塑性规则调整,以最小化损失函数 L 。
脉冲神经元模型。脉冲神经元被建模为随机泄漏积分-发放(LIF)神经元。更具体地说,这里使用的模型是带有逃逸噪声的脉冲响应模型的一个特例,这是一种将生物物理通道噪声和随机输入对神经脉冲的影响综合起来的现象学噪声模型(24)。这种脉冲的随机性是必要的,因为在具有传输延迟的平衡网络中,确定性神经元会导致网络行为不稳定(18),并且它还能够直接与神经采样以及通过期望最大化(EM)实现的无监督学习建立联系(补充信息附录B部分)。神经元 j 发放脉冲的概率取决于其膜电位,具体形式如下:
需要注意的是,为简化起见,在该模型中编码神经元通过抑制性连接直接耦合,但类似的动态行为和学习特性也可以在包含抑制性中间神经元的网络中实现(11)。
通过递归可塑性学习高效的脉冲编码脉冲神经元可以通过在胞体处紧密平衡前馈输入和递归输入,将神经反应高效地分布到整个群体中以响应输入信号(4, 11)(图 1B)。事实上,输入的紧密平衡是通过梯度下降最小化解码损失来学习高效编码的直接结果(推导过程详见补充信息附录 B 部分)。为了学习这种紧密平衡,递归权重根据以下规则进行调整:
因此,当神经元 k 活跃且神经元 j 的胞体电位处于不平衡状态(即 时,权重 会发生变化以平衡 。需要注意的是,所有神经元都有一个自突触(autapse),它通过学习来平衡自身的膜电位,这也可以被解释为在脉冲发放后对膜电位的一种近似重置。
这种紧密平衡使得高效编码成为可能,因为一旦输入信号被某个编码神经元的脉冲所编码,该脉冲将大致抵消对所有其他神经元的兴奋性前馈输入,从而抑制进一步的脉冲发放。从技术角度来看,通过递归可塑性学习平衡会导致递归权重“解码”群体活动到每个神经元的膜电位上,即 (其中 是最优解码器)。因此,膜电位反映了编码误差,即全局编码目标,并且仅当全局编码未能很好地捕捉信号时,才会驱动脉冲发放。
通过前馈可塑性学习高效的表征为了实现对高维信号的高效编码,前馈权重 F 应根据输入信号的统计特性进行调整。为此,可以推导出一个针对权重 的可塑性规则,该规则通过梯度下降最小化解码损失 L(补充信息附录 B 部分),其结果为:
直观上,这一规则促使神经元 j 将其输出 相关联,除非群体已经对该输入进行了编码。为了提取后一种信息,可塑性规则需要一个解码值 ,其中包含了群体中其他神经元对输入i 的编码信息。
因此,我们得出结论:高效的编码依赖于两种方式的关于其他神经元的信息:1)神经元需要知道哪些内容已经被编码,以避免脉冲发放的冗余(动力学);2)前馈连接的可塑性需要知道神经元对特定输入的编码内容,以避免表征中的冗余(学习)。虽然用于高效脉冲动力学的递归权重 可以通过局部学习实现(公式 4),但正确学习前馈突触 对于点神经元来说无法局部实现,因为它们缺乏关于单个输入 的群体编码知识。
接下来,我们将介绍本文的主要结果:类似于通过胞体处所有前馈和递归输入的紧密平衡实现高效脉冲发放,高效表征的局部学习可以通过在树突隔室中将特定前馈输入与递归输入紧密平衡来实现。从生理学角度来看,我们认为这对应于不同树突隔室中空间分离的输入,其中递归连接平衡了局部膜电位。我们将这种对解码损失梯度的局部实现与仅具有胞体平衡的点神经元所需的常见局部梯度近似进行对比。
仅胞体平衡需要局部学习的近似方法由于点神经元的突触无法获取单个输入的群体编码信息,以往的方法使用了一种局部近似 ,其中仅考虑了前突触和后突触电流(图 2E):
我们将由公式 4 和公式 6 组成的这种学习方案称为胞体平衡(SB)。一个几乎完全相同的设置已在参考文献 [11] 中提出。我们将其视为一类更大范围的类赫布(Hebbian-like)学习规则的典型例子,这些规则已被用于建模表征学习(有关文献中相关模型和学习规则的更详细讨论,请参见补充信息附录 C 部分)。
这类类赫布学习规则在神经元不同时编码时遵循正确的梯度,因此在学习过程中不存在非局部依赖性。这种情况发生在每次只有一个突触后电位 非零时,例如在具有极强抑制作用的“赢家通吃”电路中([15]),或者当突触后电位时间极短时([14])。当编码中的神经突触后电位 z(t) 不相关时,这种学习规则也近似正确([11, 12])。然而,这对网络的动力学提出了很高的要求,这最终限制了其编码的多样性,并且在现实条件下很可能无法满足。
树突平衡允许高效表征的局部学习当群体中的神经突触后电位 z(t) 存在相关性时,学习高效表征需要突触能够获取关于群体编码的信息。为此,我们在突触 处引入局部树突电位 ,并通过树突递归连接 将神经元 k 耦合到这些膜电位上(图 2B)。随后,胞体膜电位被实现为局部树突电位的线性叠加:
我们将这种学习方案称为树突平衡(DB)。可以看出,前馈权重和递归权重的学习规则都依赖于局部树突电位,同时它们也对局部树突电位产生影响。这使得递归输入能够局部调节前馈可塑性。然而,这也要求前馈和递归权重在学习过程中协同工作。我们提出了三种不同的实现方式,通过以比前馈权重更快或相同的时间尺度学习递归权重来确保这种协同作用(补充信息附录 B.3)。我们展示了这三种方法产生的结果相似,并且在性能上等同于解析解(公式 5)(补充信息附录,图 S2 和 S3)。
可以将依赖于膜电位的学习规则在时间上进行积分,从而得到依赖于多个神经元相对脉冲时间的学习规则。如果仅考虑一个输入神经元和一个编码神经元,使用树突平衡和胞体平衡进行学习会得到相同的依赖于脉冲时间的可塑性规则。该规则完全对称,并在两个神经元几乎同时发放脉冲时增强连接(图 2E)。然而,如果兴奋性输入神经元的脉冲伴随着编码群体中的抑制性脉冲,则依赖于脉冲时间的规则会打破对称性(图 2H)。这表明,使用树突平衡进行学习可以考虑超过成对交互的作用,从而使神经元能够在群体编码中找到自己的位置。
模拟实验为了说明使用 SB 和 DB 的网络在学习过程中产生的差异,我们设置了一系列复杂性逐渐增加的编码任务。最重要的是,我们将展示真实神经动力学的两个方面使得学习变得特别困难:1)由编码神经元表示的模式的相关性出现,以及 2)递归抑制的传递延迟。这两个方面都会导致编码神经元活动 z 中的相关性,正如我们所展示的,这些相关性对类赫布学习学到的表征有不利影响。
通过递归和前馈突触可塑性学习高效编码在第一个测试中,我们在手写数字数据集 MNIST 上进行了比较(图 3C)。我们将数据集限制为数字 0、1 和 2,这些数字由九个编码神经元进行编码。网络的初始状态为随机前馈权重和零递归权重。为了展示递归和前馈可塑性的影响,我们将学习分为两个阶段:首先,递归可塑性学习如何平衡神经元的前馈输入,这导致了神经元对输入信号的响应去相关化(图 3B),并减少了解码损失(图 3A)。随后,前馈可塑性被激活,它将前馈权重与输入中的反复出现的模式对齐(图 3D)。这进一步减少了解码损失,并带来了更好的重建效果(图 3C)。由于图像很少由超过一到两个神经元编码(图 3B),群体中的交互作用较小,因此两种设置找到了类似的解决方案。
树突平衡可以解开复杂的相关性。 我们的理论结果表明,当学习到的表征之间存在刺激相关性时,DB 网络应该比 SB 网络找到更好的编码方式。为了验证这一点,我们设计了一个 Földiak 条形任务(12)的变体,这是一个经典的独立成分分离任务。在原始任务中,神经元对独立出现但重叠的垂直和水平条形图像进行编码。由于神经元的数量等于图像中可能的条形数量,每个神经元应学会表示一个单独的条形以实现良好的编码。我们保留了这一基本设置,但额外引入了某些条形对之间的相关性(图 4A)。然后,我们可以调整条形对内的相关强度 p ,使它们更容易或更难以分离。
模拟结果确实显示,当学习到的表征相关时,SB 的性能下降,而 DB 模型则不会(图 4B)。对于 SB,解码损失随着 p的增加而增长,并在 p = 0.8 左右达到最大值。这是因为类赫布学习(如 SB 中使用的)将神经元的活动与输入信号中模式的出现相关联,而不管群体活动如何。因此,两个条形之间的相关性可能会导致最初仅编码其中一个条形的神经元将其感受野扩展到包含第二个条形(图 4B)。因此,随着相关性 p 的增加,神经元开始表示两个条形,而这并不反映输入的真实统计特性,因为单个条形仍然可能出现。对于 p > 0.8 ,解码损失下降,因为在这一点上,相关条形对的出现变得如此频繁,以至于表征再次反映了图像的统计特性。相比之下,DB 使神经元能够交流它们编码的输入信号部分,因此它们始终学会为单个条形编码。因此,对于任何条形相关强度,DB 的解码损失都小于 SB(图 4B)。
我们预计,当需要编码复杂刺激时,SB 和 DB 网络之间也会出现类似的差异。因此,在第三个实验中,我们测试了网络对自然场景图像的编码性能(图 4C)。为了进一步测试压缩量(输入数量与编码神经元数量的比例)是否会对 SB 和 DB 网络产生不同的影响,我们在保持群体发放率固定为 1,000 Hz 的情况下,改变了编码神经元的数量。通过这种方式,只有压缩量,而不是总脉冲数量,会影响网络的性能。
模拟结果显示,对于自然图像,DB 网络比 SB 网络学习到更高效的表征。随着网络对输入信号的压缩程度增加,性能差异变得更大(图 4D)。这种效应似乎与我们在条形任务中的观察有关:具有少量编码神经元的网络必须学习相关表征(补充信息附录,图 S10),这使得 SB 不再适用。我们发现,SB 网络始终需要大约两倍数量的神经元才能达到与 DB 网络相似的编码性能(图 4D)。
树突平衡可以应对抑制性传递延迟编码神经元之间的相关性也可能由抑制性传递延迟引入(18)。因此,我们预计 DB 网络比 SB 网络对长传递延迟更具鲁棒性。为了研究这一点,我们模拟了一个包含 200 个神经元的网络,并设置了一系列时间步长,将其解释为传递延迟。我们将延迟从,并观察延迟如何影响自然图像的编码性能。事实上,当传递延迟超过 0.3 毫秒时,SB 网络的性能急剧下降到基线水平(图 5A)。所有神经元都学习到了相同的前馈权重(图 5B)。相比之下,即使在更长的延迟下,DB 网络仍然表现良好。虽然较长的延迟也会导致 DB 的编码性能下降,但 DB 防止了群体编码的突然崩溃。
为了说明导致 SB 性能崩溃的机制,我们还运行了模拟,研究网络在更长传递延迟下学习对 MNIST 图像进行编码的情况(图 5C)。在使用类赫布可塑性学习后,神经元表现出高度同步的活动(图 5D),并且学习到非常相似的前馈权重(图 5E)。当传递延迟变长时,抑制往往无法防止多个具有相似前馈权重的神经元同时发放以编码相同的输入。类赫布可塑性可能会加剧这种效应,因为它会将同时发放的神经元的前馈权重调整到同一方向。相比之下,使用 DB 学习的神经元利用了抑制提供的信息,即使这些信息到达得太晚而无法防止同时发放。因此,即使在长传递延迟的情况下,DB 也能学会不同的表征。
最后,这两种学习方案之间的差异在快速且复杂的时序动态输入信号中仍然存在。为了证明这一点,我们重复了参考文献 [11] 中的一个实验,其中自然语音声音由 100 个神经元的群体进行编码(图 5F–H)。在这种情况下,SB 只能在瞬时传递(即无延迟)时学习到适当的编码,这是通过在每个时间仓内去除最不可能的脉冲来禁止同时发放实现的。然而,即使在极短的传递延迟()下,类赫布可塑性仍会导致病态的网络行为(图 5H)。相比之下,DB 在两种条件下都能学习到同样高效的编码(图 5G)。
过去,神经表征的形成通常被建模为成对的类赫布学习规则(11, 12, 14–17, 25–27)。然而,直接从神经编码模型推导出的学习规则通常不仅需要前突触和后突触活动的信息,还需要整个群体的编码误差。通常认为这些信息在突触处并非局部可用,因此被排除在方程之外,从而产生了成对的类赫布学习规则。在这里,我们发现,当神经活动相关时,忽略关于群体编码的信息会对学习产生不利影响,而这种相关性在现实条件下是普遍存在的。在这种情况下,类赫布学习会导致一种高度低效的编码,甚至比随机连接的编码效率还低(图 4 和图 5)。为了解决这个问题,我们展示了如何通过具有树突平衡和电压依赖性可塑性规则的神经元在局部实现基于误差的学习。这表明树突平衡可能在高效表征形成的突触可塑性中起着关键作用。
为什么类赫布学习在神经活动相关时会失败?基于误差的学习又是如何防止这一点的?
当神经元的活动相关时,类赫布学习会将这些神经元的前馈权重调整到相似的方向。这进一步加强了神经元之间的相关性——一个恶性循环,最终可能导致高度冗余的表征和极端相关的脉冲发放。编码神经元之间的强相关性通常意味着某些输入在群体中被过度表示,而另一些则被表示不足,分别表现为负或正的编码误差。与类赫布学习相反,基于误差的学习选择性地削弱对过度表示输入的连接,从而有助于减少编码神经元之间的相关性。在我们的模型中,编码神经元之间的相关性可能源于输入信号中学习到的表征的相关性或递归抑制的传递延迟。由于输入相关性导致的相关发放原则上可以通过增加编码神经元的数量来解决,因为这会增加学习到的表征的独立性(图 4D 和补充信息附录,图 S10)。另一方面,由于递归抑制的传递延迟导致的相关性是平衡网络中出现的一个基本问题(18, 23, 28)。在这里,类赫布学习的确切崩溃点取决于输入类型和网络规模,并且在简单场景中可能发生在更长的传递延迟下。然而,即使是中等规模的网络在接收复杂输入信号时,这种效应也非常严重——即使是在亚毫秒级的延迟下,类赫布学习也可能导致神经表征的崩溃以及整个群体几乎完全同步的脉冲发放(图 5)。相比之下,基于误差的学习始终避免了这种崩溃,因此我们认为,当存在传递延迟时,基于误差的学习变得不可或缺。
为了使单个突触能够局部获取编码误差,我们引入了与这些误差成比例的平衡树突电位。这可以通过在树突上通过递归可塑性学习平衡来实现,因为这样网络会自动找到对神经活动的最佳解码以匹配前馈输入。然而,通过输入平衡呈现误差是一个相当通用的原则,理论上也可以在其他地方呈现编码误差。例如,基于速率的预测编码和稀疏编码模型表明,编码误差会呈现在其他神经群体的活动中(29–32)。然而,这一想法不能轻易转移到脉冲神经元中,因为编码误差会被神经脉冲机制校正;因此,无法在同一单元中同时呈现正误差和负误差。然而,在这些理论中,神经学习依赖于这一点,实际上,目前仍没有确凿的实验证据证明这种误差单元的存在(33, 34)。另一种理论认为,预测误差由双房室神经元中胞体和树突之间的电压差呈现(35–37)。相比之下,我们的研究表明,一种从每个树突隔室中兴奋和抑制不匹配计算出的编码误差可以作为单个突触非常精确的学习线索。支持这一观点的是,实验确实观察到了由可塑性维持的局部树突输入平衡(8, 38–40)。此外,这种单个神经元上的平衡还可以解释皮层动力学的核心特征(4),例如高度不规则的脉冲发放(41, 42),但调谐相似的神经元膜电位却相关(43, 44)。
实施树突平衡的一个明显缺点是递归抑制性连接数量的大幅增加。即使在中等规模的网络中,将每个神经元连接到其他神经元树突上的每一个前馈突触也会极其昂贵。然而,我们发现模型中只有少量抑制性连接对学习是必要的,即那些在发放活动相关联的神经元之间的强连接。我们在条形任务的例子中证明了这一点,其中90%的树突连接可以在不影响学习结果的情况下被修剪(补充信息附录,图 S9)。此外,在我们的模型中,抑制是通过编码神经元之间的直接递归连接实现的,但如果抑制通过中间神经元介导,则需要更少的连接。通过引入具有广泛特征选择性的抑制性中间神经元,可以合并提供大致相同信息的抑制性连接(11)。因此,我们预计所提出的学习方案的主要优势也可以通过相对较少的连接实现。
生物学合理性我们的模型是对现有点神经元模型(11)的最简单扩展,这使我们能够形式化地推导并分离出树突平衡对表征学习的影响。虽然更复杂的树突结构和非线性动力学模型可以阐明它们在神经计算中的作用(45),但非线性动力学也会改变计算能力(45),从而妨碍与先前学习模型的直接比较。尽管如此,基于树突平衡所提出的学习是否能由生物神经元实现仍然是一个开放问题。以下我们将讨论所提出学习方案的主要要求。
树突平衡模型的一个核心要素是突触可塑性对局部膜电位的依赖性。事实上,已有研究表明局部膜电位是决定突触可塑性的关键因素(46–49)。这种电压依赖性可塑性被认为主要由局部钙浓度介导,而局部钙浓度紧密跟随局部膜电位的变化(50, 51),并局部调节神经可塑性(52)。正如我们的模型所要求的那样,这种电压依赖性意味着抑制作用可以对局部兴奋性突触可塑性产生重大影响(53, 54),这一点也已在实验中得到证实(8, 55)。然而,这些电压依赖性可塑性机制的具体功能角色仍然是一个重要的开放问题(8, 45)。我们的工作提出,电压依赖性突触可塑性的一个核心特征是,单个突触的可塑性不仅取决于前突触和后突触活动,还取决于群体中其他神经元的活动。
所提出的规则如何与实验观察到的电压依赖性可塑性相关?许多实验表明,兴奋性可塑性需要膜电位的强烈去极化,例如在后突触发放脉冲期间发生的情况(46)。我们的前馈可塑性规则可以与受这些实验启发的可塑性规则相协调(56, 57)(详见图 6B)。抑制性(递归)可塑性的电压依赖性直到最近才开始受到研究(8)。最近的实验证据表明,这种抑制性可塑性与兴奋性可塑性类似,也是钙依赖性的,并且需要后突触发放脉冲(58, 59)。我们的递归可塑性规则类似于先前的电压依赖性抑制性可塑性模型(11, 60),这些模型为后突触膜电位设定了目标值。与我们的规则类似,这些规则也没有明确考虑后突触发放脉冲对可塑性诱导的要求。我们推测,这种要求使网络能够优先选择活动相关的神经元之间的连接,这些连接对学习尤为重要(补充信息附录,B.3 节)。需要进一步的实验和理论研究来理解这种抑制性可塑性的具体机制和目的。
该学习方案的另一个要求是树突树上不同隔室之间必须很好地隔离,以便递归输入可以调节特定突触的可塑性(图 6A)。在生物神经元中,树突是电子分布元件,树突树上可能存在强烈的电压梯度(61, 62)。这些电压差异是由输入电流的强烈衰减造成的,这意味着单个突触可以产生非常局部化的效果(63)。因此,如果隔室之间足够分离,特别是在不同树突分支上的隔室(38),则生物神经元中存在所需的隔室隔离。这种空间上分离的隔室之间的隔离也减少了它们之间的非线性相互作用。因此,来自不同隔室的任何净兴奋在胞体处的整合近似是线性的(63),正如我们的模型所要求的那样。然而,与兴奋不同的是,远端树突上的抑制作用主要通过门控兴奋局部起作用,因此树突抑制对胞体膜电位的影响可能非常微弱(64)。不过,树突抑制向胞体传播对于网络功能来说并非必要,因为任何剩余的净兴奋也可以通过靠近胞体的可塑性抑制性突触来平衡。因此,模型对学习和网络功能的关键要求也可以在生物神经元中满足。
然而,生物神经元中突触如何组织在这些树突隔室上似乎与我们的模型相矛盾:首先,在我们的模型中,单独的前馈输入(主要是兴奋性输入)具有孤立的树突电位,但众所周知,相关的兴奋性突触通常会在树突上聚集成簇(65–67);其次,在我们的模型中,我们通常发现抑制性突触比兴奋性突触更多,但在树突分支上,兴奋性突触的数量远多于抑制性突触,例如在培养的大鼠海马神经元树突上比例为 4:1(38)。我们认为,这两个差异可以通过将提供给模型的单独连续输入视为成簇、相关突触产生的总电流来解决。这种聚簇如何通过突触可塑性组织是一个正在进行的研究课题(68),未来的工作需要将这些可塑性机制与表征学习相结合。
实验预测最终,我们可以从模型中生成两个可以直接测量的实验预测: 第一,如果输入电流在神经元树突上局部不平衡,递归可塑性将学会建立局部的兴奋-抑制(E-I)平衡。 第二,我们的模型预测局部抑制的强度决定了突触可塑性的符号:在兴奋性前馈突触的可塑性诱导期间,激活靶向相同树突位置的抑制性神经元将导致兴奋性突触的长时程抑制(LTD)。我们预计即使抑制信号在前突触和后突触发放之后短暂到达,这种效应仍然会持续。这些预测主要适用于感觉编码神经元群体,但类似于胞体平衡模型的模型也被提出用于解决其他任务(69, 70),这表明树突平衡可能对学习具有更普遍的相关性。事实上,抑制调节可塑性的迹象不仅可以在视觉皮层中发现(55),还可以在海马体(38)以及可能的其他区域中观察到(8, 71)。
总结在此,我们提出了一种学习方案,可以促进神经群体对复杂刺激的高度协作群体编码。我们的结果对成对赫布学习作为表征学习范式的有效性提出了质疑,并表明树突平衡与突触可塑性之间存在直接联系。
材料与方法神经活动在离散的时间步长 中进行模拟。图像以连续输入的形式呈现,每张图像持续 100 毫秒,即在前 70 毫秒内保持恒定输入,然后在接下来的 30 毫秒内通过线性插值过渡到下一张图像,以避免输入信号的不连续性。在语音任务中,音频信号被编码为 25 个频率通道,采样率为 200 Hz,并在线性插值数据点之间呈现。对于每个实验,创建了一个训练集和一个测试集。网络在训练集上进行在线学习;在固定间隔内关闭学习规则,并在测试集上评估性能。性能通过瞬时解码损失(公式 1)进行衡量,同时学习解码器 D 和网络。解码器的更新规则如下:
对于DB网络,我们提出了三种学习方案,涉及快速或慢速的递归可塑性(详细内容见补充材料附录B.3节)。为了减少大规模网络的计算时间,我们使用最优递归权重的解析解 作为所提学习方案的近似。在图3和图5的C-E部分,展示了具有快速递归可塑性和权重衰减技巧(补充材料中的DB衰减)的树突平衡学习方案。对于图4以及图5的F-H部分,我们使用了解析解。在参考模拟中将所提学习方案与解析解进行比较(补充材料附录中的图S2和S3),结果一致发现网络参数非常相似,并且达到了相同的性能。
在早期模拟中,我们观察到编码性能在很大程度上受到群体发放率的影响,即有多少个脉冲可用于编码输入信号。为了避免在比较两种学习方案时出现这种影响,我们额外引入了一种快速补偿机制来固定发放率,通过改变阈值 来实现。我们再次强调,这种适应性在原则上并不是确保网络稳定功能所必需的。实际上,错误校正的平衡状态抑制已经足以使网络发展为低发放率模式(参考文献11)。通过根据以下公式适应阈值 来强制固定发放率:
原文链接:https://www.pnas.org/doi/full/10.1073/pnas.2021925118
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.