A Path to Universal Neural Cellular Automata
通向通用神经细胞自动机的道路
https://arxiv.org/pdf/2505.13058
摘要
细胞自动机因其能够通过简单且局部的规则生成复杂的动态行为而广受赞誉,像康威“生命游戏”这样的经典离散模型已被证明具有通用计算能力。近年来的研究进展将细胞自动机扩展到了连续域,这引发了一个重要问题:这些系统是否仍然具备实现通用计算的能力?与此同时,神经细胞自动机作为一种新兴范式逐渐兴起,在该范式中,规则是通过梯度下降进行学习的,而非人工设计。
本研究探讨了神经细胞自动机在连续空间中发展出一种通用细胞自动机的可能性,并通过梯度下降训练来实现这一目标。我们提出了一种细胞自动机模型、目标函数以及训练策略,以引导神经细胞自动机向实现通用计算的方向演化。实验结果表明,该系统成功训练出了若干基础计算原语——例如矩阵乘法与转置运算,并最终实现了在细胞自动机状态中直接模拟一个用于解决MNIST手写数字分类任务的神经网络。
这些成果标志着朝向构建模拟形式的通用计算机迈出的基础性一步,对于理解连续动力学中的通用计算原理,以及通过机器学习自动化发现复杂细胞自动机行为具有重要意义。
关键词 神经细胞自动机(Neural Cellular Automata)、自组织(Self-organization)、涌现(Emergence)、新型计算(Exotic Computing)
1 引言
细胞自动机(Cellular Automata, CA)是一类引人入胜的计算模型,因其能够通过简单的规则生成复杂行为而吸引了多个学科研究者的关注 [10]。其核心结构通常由一个网格组成,每个单元格处于有限数量的状态之一,并在离散的时间步中根据固定的确定性规则进行演化。这一规则被统一应用于所有单元格,决定了每个单元格的状态转换,仅依赖于其当前状态及其邻居的状态。尽管结构简单,细胞自动机已成为研究涌现现象和复杂系统的重要基石 [31]。数学证明已经表明,一些著名的细胞自动机模型,如康威“生命游戏”、初等细胞自动机和Wireworld,具备通用计算能力,突显了它们惊人的表达力与强大功能 [8, 24]。除了这些形式化证明之外,研究人员还在这些细胞自动机中构建了完整的图灵机,尽管这一过程通常需要大量细致的人工设计和时间投入。
近年来,连续型细胞自动机的发展弥合了传统模型(如康威“生命游戏”)的离散特性与现实世界模拟之间的差距。例如Lenia [6] 和SmoothLife [21] 扩展了经典细胞自动机,以连续动态模拟类似生命的图案。然而,一个关键的开放性问题仍然存在:这些模型是否具备通用计算能力?虽然基于它们的表达潜力,答案可能是肯定的,但目前尚无法明确证明。由于缺乏离散状态和明确的转换边界,连续模型难以可靠地编码符号信息——微小扰动可能导致随时间推移的显著偏差,从而破坏计算所需的稳定性。此外,与传统细胞自动机清晰的边界和相互作用不同,连续模型往往表现出平滑、模糊的动力学特性,使得设计具有可预测行为的模块化组件(如导线、逻辑门或存储元件)变得更加困难。原本在离散细胞自动机中就已经非常繁琐的任务,在连续域中变得更加困难,甚至几乎不可能实现,这凸显了构建高效模拟计算机的一个根本性挑战。
与此同时,神经细胞自动机(Neural Cellular Automata, NCA)作为一种新的范式逐渐兴起,它将经典细胞自动机的局部、分布式动力学与神经网络的表示能力和可训练性相结合 [18]。不同于传统细胞自动机中手动设计更新规则的方式,NCA 利用可微分架构,其中规则由神经网络参数化,并通过梯度下降进行端到端优化。这种方法使得从数据中学习复杂的行为和动态成为可能,避免了手动设计规则的需求。最近的研究已证明,NCA 可以被训练执行多种任务:从自组织形成复杂的形态 [18],到解决算法推理任务(如一维ARC挑战)[9],再到表现出集体行为的涌现 [22],以及人工神经网络的增长 [19]。这些结果展示了 NCA 在计算建模和模式生成方面的多功能性。鉴于经典细胞自动机的图灵完备性,NCA 提供了一个令人兴奋的新视角来探索规则空间——不是通过手工工程,而是通过优化方法寻找规则。本质上,NCA 将规则发现转化为一个机器学习问题。这种转变意义重大:过去需要人工精心设计规则集以产生期望行为的传统方式,现在被交给了学习算法本身。通过时间反向传播结合 NCA 的可微分性质,可以灵活地自动化调整高度非平凡的动力学系统。
在本研究中,我们探讨了神经细胞自动机范式在开发连续通用细胞自动机 [29] 方面的潜力,目标是通过梯度下降训练,促使一个通用图灵机 [27] 在连续细胞自动机中自然涌现。通用神经细胞自动机的发展不仅出于学术兴趣或创建有趣的模拟,它还触及了一些基本问题:连续动态系统是否具备实现通用计算的潜力?是否有可能创造出一种通用的模拟计算机?本文为实现这一宏伟愿景奠定了基础框架,并展示了有希望的初步进展。首先,我们提出了一个新的框架,区分了 NCA 中“硬件”与“状态”的概念。在这个抽象模型中,CA 规则作为“物理法则”,主导着时间和空间中的状态转换,类似于支配计算的基本定律;CA 状态则作为动态的物理基质——类似于计算机中的电荷或大脑中的神经化学模式;而“硬件”则代表一种不可变的支撑结构,在整个模拟过程中保持空间配置不变。该硬件可被“物理法则”(即 CA 规则)用于引导计算,但在运行期间不可更改,为涌现行为提供稳定的支撑结构。其次,我们引入了初步的目标函数和训练设置,旨在引导 NCA 在连续域中实现通用计算。第三,我们进行了实验,展示了如何在 NCA 框架下训练出基本的计算构件——如矩阵乘法、点积和转置运算。最后,我们通过直接在可变的 CA 状态中模拟一个神经网络,成功解决了 MNIST 手写数字分类任务,从而展示了这些基本构件的实际应用价值。这些成果标志着关键的第一步,说明了 NCA 如何利用梯度下降将连续细胞自动机塑造成强大的通用计算系统。
2 相关工作
离散型细胞自动机(Discrete CA)长期以来一直是研究通用计算的基石,因为它们能够通过简单而局部的规则生成复杂行为。许多离散型细胞自动机模型已被证明具有图灵完备性,例如康威“生命游戏”[12, 24]、初等细胞自动机中的 Rule 110 [8, 32]、Langton 蚂蚁 [11] 和 Wireworld [2]。这些研究依赖于离散状态,并通常需要大量人工设计的工作来构建特定结构。为了减轻这种负担,研究人员使用了进化算法来自动生成具有特定性质的规则或模式 [17, 25],虽然减少了人工干预,但这些方法仍然聚焦于离散系统和预定义目标,而非通用计算。
向连续型细胞自动机(continuous CA)的转变旨在将离散模型与现实世界的模拟系统联系起来,从而引发对其计算潜力的探讨。像 Lenia [6] 和 SmoothLife [21] 这样的模型引入了平滑的状态转换,产生了类似生命的涌现图案,但它们是否具备通用计算能力仍未得到证实。最近的一些研究尝试使用进化搜索方法在 Lenia 中自动发现和优化图案 [1, 23],尽管这些探索强调特定行为的生成,而非面向通用计算。同样地,也有研究利用梯度下降对 Lenia 的图案和规则进行优化 [14],但同样没有以通用计算为目标。
神经细胞自动机(NCA)标志着一种范式转变:它用通过梯度下降训练的神经网络替代了手工设计的规则。NCA 已被成功应用于多种任务,如形态发生 [18]、分类 [22] 和解决如一维 ARC 挑战等难题 [9]。与我们研究最相关的是 HyperNCA [19],该模型使用 NCA 来“生长”人工神经网络,表明其具有更广泛的计算适应性。这些进展突出了 NCA 在自动化规则发现方面的优势,将手动设计的负担转移到了机器学习之上。然而,以往的 NCA 研究主要集中在模式生成或特定任务上。值得一提的是,Peter Whidden [30] 首次在 NCA 中实现了矩阵复制和乘法任务,我们的方法正是在此基础上发展而来,进一步验证了 NCA 在连续计算环境中的潜力。非常近期的研究 [20] 也展示了 NCA 规则可以通过(可微分的)逻辑门实现,这证实了可以在标准数字硬件上运行自组织系统。此外,与我们的工作并行发展的另一项研究 [13] 采用了类似思路:他们为单元格增加了“私有内存带”,结果显示系统具备稳定的多任务处理能力。
我们的研究与模拟计算领域,特别是连接生物学与硅基系统的神经形态计算密切相关。模拟计算利用连续的物理系统,借助波传播、扩散和材料特性等物理现象来持续地表示和变换信息,避免了数字系统中量化的开销 [28]。NCA 受生物神经网络启发,后者主要采用局部计算以提高能效 [4, 5, 16]。局部性原则在这两类系统中都至关重要,并且表明即使不依赖全局连接,复杂的计算也可以从简单的局部规则中涌现。大脑中计算与记忆的共存结构提供了一种解决方案,用于缓解随着模型复杂度增加而日益严重的冯·诺依曼瓶颈 [3]。神经形态系统通过带有本地存储器的分布式处理单元实现这一生物原理,通常使用混合信号电路来近似神经动力学,同时保持高能效 [7, 15, 26]。
尽管深度学习得益于针对并行矩阵运算优化的软硬件协同设计而迅速发展,但这种专业化同时也限制了算法创新只能围绕当前硬件支持的操作展开。通过探索像 NCA 这样具有局部交互特性的系统如何实现通用计算,我们可以开发出更加灵活的计算架构:在保留生物系统局部性约束的同时,充分利用硅基器件的速度优势。这种方法可能催生出一种新的计算系统,在计算能力与生物智能所具有的高效性和适应性之间实现更好的平衡。
3 方法
我们利用 CAX [9] 库实现高性能的神经细胞自动机(Neural Cellular Automata, NCA),并在单块 L40 GPU 上运行所有实验。
3.1 通用设置
本框架的目标是展示神经细胞自动机作为通用计算基质的能力。为此,我们在 NCA 的状态空间中直接执行多种任务(见第 3.4 节)。在本研究中,我们提出了一种新的架构设计,以增强其计算能力。我们的方法将 NCA 的状态空间划分为两个不同的组成部分:
可变状态(Mutable State) :这是主要的工作空间(任务输入在此被转换为输出)。在一次实验/任务执行过程中,只有这一部分的状态随时间变化。它构成了计算的物理基质,意味着任务(如矩阵运算)直接嵌入在这个空间中,输入的变换必须在此状态下完成。可变状态的更新动态由第 3.2 节中描述的 NCA 规则控制。
不可变状态(Immutable State) :这作为专门的“硬件”配置,具有空间异质性。该“硬件”可以是整体式的(与整个网格同形),也可以是模块化的(针对每个特定任务实例使用不同专用组件构成)。这一部分在训练过程中被学习,但在任何一次实验/任务实例中保持固定不变。具体细节将在第 3.3 节中说明。
总体而言,该框架支持一种双层优化策略:
在全局层面,我们训练一个通用的 NCA 规则(感知函数和更新函数),以支持多样化的计算操作;
在任务特定层面,我们优化个体的“硬件”配置。
系统通过利用局部可用的“硬件”来调整其动态行为,从而实现特定任务的计算(类似于在主板上放置正确的组件)。从效率角度来看,这种架构也带来了显著的实际优势:一旦通用的 NCA 规则被训练完成,适应新任务只需优化“硬件”配置,这一过程比从头开始训练完整的 NCA 规则要节省大量计算资源。完整的训练细节将在第 3.5 节中详细描述。
3.2 神经细胞自动机
我们开发了能够在其可变状态 中直接解决任务的计算模型,其动态行为由局部单元格之间的相互作用所决定。这些相互作用由一个神经网络进行参数化,该神经网络作为细胞自动机的规则。这个神经网络的两个核心组成部分是其感知函数(Perceive Function)和 更新函数(Update Function) :
感知函数(Perceive Function)
感知函数通过在可变状态 的局部邻域上应用可学习的卷积滤波器,来收集每个单元格周围的信息。该模块将输入的状态通道转换为一个更高维度的感知向量,用以捕捉相关的局部空间模式。卷积核大小、填充方式和激活函数都是可配置的超参数。
更新函数(Update Function)
更新函数利用感知向量和局部“硬件”向量来更新每个单元格的状态。我们的架构采用了一个基于注意力机制的更新模块,它通过对感知信息 P 在外部输入向量 I(编码任务相关信息或全局上下文,在本实现中代表局部单元格的“硬件”)上的条件化,计算出状态更新量 ΔS。具体步骤如下:
每个单元格接收一个感知向量 P (表示局部空间模式)和一个硬件向量 I (即其不可变状态)。
硬件向量 I 通过一个注意力机制激活不同的“计算模式”:
这种设计使得 NCA 能够根据局部“硬件”动态调整其行为——位于输入区域的单元格可能激活与输出区域或计算区域不同的计算路径。结果是一个灵活的计算基质:相同的底层规则可以根据“硬件”上下文执行多种不同的操作。
3.3 硬件(不可变状态)
如第 3.1 节简要所述,我们方法中的一个核心创新在于将计算状态划分为可变部分 与不可变部分 。这种区分使得更新模型的角色(需要最大通用性和表达能力)与任务特定的“硬件”配置(可以多样化且可精细调整)得以分离。我们探索了两种不同的方式来设计这些专用“硬件”配置。
3.3.1 整体式硬件(Monolithic Hardware)
我们的第一种实现方式是对具有与计算状态相同空间维度、以及固定数量隐藏通道的任务特定参数进行优化。这种方法成功地在多个任务上训练了 NCA,并为每个任务使用专门的“硬件”。经过优化的“硬件”配置在视觉上是可解释的,能够帮助我们理解特定任务所需的计算流程(见图3)。
然而,这种方法缺乏泛化能力。例如,为从左下到右上的矩阵平移任务优化的“硬件”,若需执行反向操作则必须重新训练。此外,它也削弱了 NCA 本身固有的尺度无关性(scale-free nature) :一个用于小规模矩阵乘法的 NCA 若不重新调整“硬件”,就无法推广到更大尺寸的矩阵。这些限制促使我们进一步开发了一种模块化“硬件”方法。
3.3.2 模块化硬件(Modular Hardware)
为了克服整体式“硬件”的局限性,我们提出了一种模块化且可组合的设计方法。类似于主板上通过不同功能组件模拟所需行为的方式,我们训练了三种面向特定用途的“硬件”组件:
- 输入嵌入向量(Input Embedding Vector)
:指定在计算任务中接收输入信号的单元格。那些在可变状态中接收输入的单元格会将其对应的输入嵌入向量包含在其不可变状态中。
- 输出嵌入向量(Output Embedding Vector)
:标记在特定任务中作为输出的单元格。
- 任务嵌入向量(Task Embedding Vector)
:使 NCA 能够识别所需输入-输出转换类型。这个学习得到的向量会被添加到每个单元格的“硬件”状态中。
这三个核心组件随后根据具体任务实例被手动组装 ,以构建特定的任务示例。最终形成的不可变状态在整个实验过程中始终对更新规则可见。
这种模块化的方法在保留 NCA 尺度无关性的同时,满足了执行多样化计算任务所需的局部异质性基质。我们还展示了该方法具备零样本泛化能力(zero-shot generalization) ,即 NCA 可以完成未见过的任务配置,甚至实现复合任务链式执行(composite task chaining) (详见第 4.3 节)。
3.4 任务
为了训练出具备执行通用计算能力的鲁棒且多用途的神经细胞自动机(Neural Cellular Automata, NCA)模型,我们实现了一个基于矩阵操作的灵活任务框架。这些任务涵盖了不同的计算能力,用以测试 NCA 在整个网格中处理、转换和路由信息的能力。
通过这一综合框架,神经细胞自动机(NCA)发展出了通用的计算能力,能够稳健地应对任务类型、输入分布、矩阵大小和空间排列等变化。
3.5 训练
为了使我们的神经细胞自动机(Neural Cellular Automaton, NCA)具备执行多种计算任务的能力,我们采用了一种联合训练框架。该框架在同一组不同的任务实例上同时优化一个共享的 NCA 规则。
每个任务由一个特定的目标(即对输入执行的操作)定义,通常一个任务实例包括:初始网格状态 S0、期望的目标最终状态 ,以及通常一个掩码 M,用于指示网格中与评估相关的区域。
在训练过程中,我们会从各种任务中采样组成一个批次。对于每一个任务实例,NCA 模型会在给定数量的离散时间步 内演化初始状态 S0,以生成最终状态。为了增强 NCA 的稳定性,在计算损失时所使用的最终状态会随机选取于之间的时间点。
损失函数(通常是带掩码的误差度量,例如均方误差 MSE)用于衡量在掩码 M 所定义的相关区域内,实际达到的最终状态与目标状态之间的差异。随后使用基于梯度的优化方法来最小化这一损失。
与共享 NCA 规则以及任何共享的输入输出“硬件”组件(在模块化“硬件”设置中)相关的参数,会根据批次中所有任务的梯度进行更新,从而促进通用计算原语的学习。而属于任务专用模块的参数(在整体式“硬件”中,或在模块化设置中的任务组件),则仅使用其对应任务实例所产生的梯度进行更新,以实现行为的专业化。
这种联合优化过程促使一个多功能的 NCA 系统逐渐浮现:它能够通过学习到的局部动力学执行多种计算功能,并根据当前呈现的任务“硬件”动态调整自身行为。
4 实验与结果 4.1 任务训练 4.1.1 联合训练(Joint Training)
在多任务训练设置中,我们的神经细胞自动机(Neural Cellular Automata, NCA)通过共享的更新规则架构结合任务专用的“硬件”组件,成功地同时掌握了多种矩阵操作。
我们的研究结果表明,单个 NCA 可以发展出适用于不同矩阵任务的通用计算原理,同时保留每个具体操作所需的专门化参数。这种多任务学习能力揭示了 NCA 的基本计算多样性。
通过在统一框架下同时学习执行诸如矩阵乘法、平移、转置和旋转等多种操作,模型展示了对完整矩阵运算体系的掌握——这是更复杂计算的基本构建模块。这一多任务基础直接支持了更复杂的组合应用,例如我们在第 4.2 节中展示的 MNIST 分类器模拟。
将复杂操作分解为更小的矩阵任务,并通过相同的底层细胞机制进行处理的能力,展示了实现日益复杂计算的可行路径。通过证明 NCA 能够可靠地执行这些基本操作,我们为未来在更复杂组合任务上的研究奠定了基础,包括完整的神经网络模拟、算法推理,甚至可能实现在细胞基质内完全运行的更高级计算模型。
4.1.2 下游任务微调(Downstream Task Fine-tuning)
一旦 NCA 完成预训练,我们架构的一个关键优势便显现出来:适应新任务只需对“硬件”配置进行微调,而保持核心 CA 更新规则不变。这种方法显著降低了适应新任务所需的计算资源。
在我们的实验中,仅微调“硬件”的训练速度比重新训练整个模型提高了两倍。然而,仍需进行更全面的对比分析,以评估联合训练与微调之间的优劣差异。
4.2 MNIST 分类器模拟
我们通过使用神经细胞自动机(Neural Cellular Automata, NCA)在其计算工作空间中直接模拟一个完整的神经网络,展示了一个实际的下游应用场景。具体来说,我们模拟了一个用于解决 MNIST 手写数字分类任务的单层多层感知机(Multi-Layer Perceptron, MLP)。
首先,我们预训练了一个简单的线性前馈网络,以足够高的准确率对 MNIST 数字进行分类。该分类器仅使用一个权重矩阵而没有偏置项,其推理过程只需要将展平后的输入图像与权重矩阵进行矩阵乘法运算,然后通过 argmax 操作确定预测的数字类别。
我们的 NCA 模型也已在较小的 8×8 矩阵乘法任务上进行了预训练。虽然我们可以期望模型在更大的矩阵上具备泛化能力,但像 MNIST 分类所需规模(784×10)的操作已经超出了该模型的处理能力。为了解决这一限制,我们采用了分块矩阵分解(block-matrix decomposition)方法 ,将 MNIST 图像的分类任务拆分为多个符合 NCA 状态约束的小型 8×8 矩阵操作。
这些分解后的操作可以直接在 NCA 的计算状态中执行,而无需针对特定任务进行微调,从而展示了我们方法对新型矩阵分布的鲁棒性。
NCA 可以并行处理每个分块的矩阵乘法操作,之后我们对结果进行汇总,重建出完整的分类 logits(输出得分)。在评估性能时,我们将基于 NCA 的模拟结果与原始分类器的预测和准确率进行对比。尽管由于多个子操作之间的误差传播导致了一定程度的准确率下降,但模型仍表现出可观的性能(模拟分类准确率为约 60%,而原始分类器为 84%,两者预测一致的比例约为 69%)。
我们认为,这为通过 NCA 实现神经网络模拟的可行性 提供了实证依据。
这项研究对模拟计算和物理计算具有重要意义。如果我们的 NCA 更新规则能够通过物理状态转换来实现,那么它将为不依赖二进制运算的物理神经网络模拟 提供一条可行路径。利用专门为这种计算范式设计的硬件,在矩阵运算层面直接运行,相较于传统的数字方法,有望在效率和性能方面带来显著提升。
4.3 未来方向:任务组合与神经编译器
我们所开发的模块化“硬件”配置使得通过组件组合直接创建分布外任务(out-of-distribution tasks)成为可能。这种灵活性使我们能够设计出 NCA 并未显式训练过的新型计算场景,同时仍能成功执行。
例如,我们可以利用矩阵平移任务嵌入和多个目标区域(target tiles),将一个中心矩阵复制到多个角落位置(如图6所示)。这个简单的例子展示了我们的架构如何在无需额外训练的情况下,支持超出训练数据分布的操作。
这一框架为通过基本操作的顺序链式组合 来构建复杂复合任务打开了通路。考虑以下多步骤流程(见图7底图):
从一个输入矩阵开始,使用目标区域将其复制到两个角落位置;
更换当前“硬件”配置,用新参数将这些目标重新定义为输入,然后朝向第三个角落执行矩阵乘法;
再次更新“硬件”,对结果矩阵进行旋转,并将其返回原始位置。
虽然这样的复合序列本身可能并不具备实际用途,但它展示了一项关键能力:NCA 可以通过对“硬件”参数的顺序重配置 来执行复杂的算法流程。这项能力为更高级别的计算推理和抽象奠定了基础。
这种复合任务链还突出了稳定性 在实现可组合计算中的核心作用。当 NCA 的计算状态中产生的输出作为后续操作的输入时,建立稳定的状态表示变得至关重要。
正如生物系统中稳态(homeostasis)在外部变化下维持内部平衡一样,NCA 也需要一种计算稳态(computational homeostasis) ,以在不同操作之间保持可靠的状态表示。类似地,模拟计算机也可能需要稳态机制,才能在不丢失信息的前提下成功执行扩展的任务链和计算链。
我们认为,这种顺序操作模型暗示了一种引人注目的双时间尺度(dual-timestep)神经编译方法 :
在 神经元时间尺度 上,NCA 的可变状态根据其更新规则演化,形成计算的基本动力学;
在 编译器时间尺度 上,“硬件”参数被重新配置,以提供任务抽象和高层程序步骤。
这种职责分离机制——快速的神经元动态负责计算,较慢的“硬件”变化控制程序流程——在连续、可微分的基质中模仿了经典计算机架构的设计理念。
随着这一方法的发展成熟,它有望实现将算法直接编译为神经细胞自动机 ,从而将神经网络的灵活性与程序化执行相结合。这或许可以通过我们在下一节中详细介绍的更优任务抽象与“硬件”生成机制来进一步推动实现。
4.3.1 基于图的“硬件”超网络(Graph-based Hardware Hypernetwork)
最后,在前几种“硬件”方法局限性的基础上,我们目前正在开发一种更具系统性和原则性的基于图的“硬件”生成框架 ,该框架在灵活性和尺度不变性方面均有显著提升。
这一正在进行中的(WIP)方法依赖于一种任务表示抽象:将计算操作建模为一个图结构,其中节点代表输入和输出区域,边则编码这些区域之间需要执行的具体变换。
该框架的核心是一个“硬件元网络(Hardware Meta-Network) ”,由两个主要组件构成:
- 图神经网络(GNN)编码器
- 基于坐标的超网络(hypernetwork)
GNN 处理一个任务图结构,其中:
节点包含有关输入和输出区域的归一化空间信息;
边表示区域之间需要执行的具体操作(例如矩阵乘法、旋转等)。
通过多层消息传递机制,GNN 将该图结构压缩成一个固定维度的潜在任务向量(latent task vector) ,用以捕捉单个任务实例的核心计算需求。
超网络生成“硬件”
随后,这个潜在表示被用于条件化一个基于坐标的 MLP 超网络 ,该超网络以尺度无关的方式 为网格中每一个空间位置生成对应的“硬件”向量。该超网络利用**位置编码(positional encodings)**来创建空间变化的“硬件”模式,从而引导 NCA 在整个网格上的计算动态行为。
关键特性 :这种方法保持了精确的空间不变性——任务描述是相对于网格尺寸进行归一化的,这意味着生成的“硬件”可以自动适应不同的网格大小和区域位置,而无需重新训练。
人机接口与任务抽象
这种基于图的表示为人与连续型 NCA 基质之间的交互提供了一个直观的接口。用户可以通过自然的图结构(输入、输出、操作)来定义任务,而元网络会将这些描述自动翻译为合适的“硬件”配置。
这种方法实质上改进了“编译器”的概念——即在人类意图与 NCA 的计算能力之间建立桥梁,使得任务链式组合与“硬件”随时间演化的过程得以更清晰地定义。
此外,图结构也为我们在初始实现基础上进行丰富扩展提供了可能:
通过边属性对任务进行排序,支持 顺序执行规划 ;
通过随时间修改任务图,实现 动态“硬件”重配置 ,从而构建一个补充细胞自动机快速神经动态的第二层动态机制。
这种层次化的时间结构——快速神经动态实现局部计算,慢速“硬件”动态引导算法流程 ——与传统计算架构中时钟周期操作与高层程序执行之间的二分法非常相似。
在统一的可微分框架中实现这一结构,最终可能催生出更加高效且具有适应性的连续计算范式。
5 结论
在历史上,关于通用计算 (universal computation)在细胞自动机中的探索主要局限于离散系统 ,如康威“生命游戏”和初等细胞自动机已被证明能够模拟通用图灵机,展现出惊人的计算能力。然而,将这种能力扩展到连续型细胞自动机 (continuous cellular automata)面临重大挑战,主要源于缺乏离散状态以及平滑、模拟动态所固有的不稳定性。
在本研究中,我们采取了一种务实的初步方法,利用神经细胞自动机 (Neural Cellular Automata, NCA)作为基质,在连续域中发展通用计算能力,从而迈出了克服这些障碍的第一步。通过使用梯度下降 来训练 NCA 规则,我们展示了一种无需手动设计规则即可塑造复杂计算行为的新路径,将发现规则的负担从人类智慧转移到了机器学习之上。
我们的实验结果表明,NCA 能够成功编码诸如矩阵乘法与转置 等基础计算原语,甚至可以直接在其状态空间中模拟一个用于解决 MNIST 手写数字分类任务的神经网络。这些发现表明,NCA 可以成为传统计算架构与自组织系统之间的桥梁,提供一种与模拟系统高度契合的新型计算范式。
这一联系对于设计高效的人工智能模型计算框架尤其具有前景,特别是在对能效和鲁棒性要求极高的场景中。我们的方法暗示了一种可能性:不必为每个任务重新训练全新的规则,而是可以发现最优的“硬件”配置,利用固定物理规律来实现低开销、有意义的计算。
展望未来,我们认为这项工作为计算科学的变革性进展 奠定了基础。通过在多样化的物理实现中自动化地发现通用计算机,NCA 有可能彻底改变我们如何利用新材料和新系统进行计算,最终催生出超高能效的模拟硬件系统 或随资源需求线性扩展的计算范式 。
尽管仍存在诸多挑战——例如稳定连续动态以实现可靠的符号编码、以及将这些系统扩展到更复杂的任务——但 NCA 在连续细胞自动机中实现通用计算的潜力,为我们开辟了全新的探索方向。
归根结底,这项研究不仅深化了我们对连续动态中计算本质 的理解,也为下一代自适应、高能效计算技术 的发展铺平了道路。
原文链接:https://arxiv.org/pdf/2505.13058
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.