Toward aitiopoietic cognition: bridging the evolutionary divide between biological and machine-learned causal systems 迈向因果创生认知:弥合生物与机器因果系统的演化鸿沟
https://www.frontiersin.org/journals/cognition/articles/10.3389/fcogn.2025.1618381/full
![]()
摘要
我们考察并比较了自生系统(生物有机体)和机器学习系统(MLS),着重阐述了因果推理产生和运作方式的关键差异。尽管二者在行为和认知能力方面表面上存在功能上的相似性,但我们发现,在因果关系的运作方式、物理体现以及认识论基础方面,二者存在着深刻的结构性差异。在自生系统中,因果推理与跨多个组织层级的自我维持过程内在相连,其目标源于生存的必然性。相比之下,机器学习系统通过外部设定的目标进行统计优化来实现因果关系,缺乏驱动生物因果关系发展的物质性自我重组。我们引入了“自生认知”(aitiopoietic cognition)的概念——源自希腊语“aitia”(原因)和“poiesis”(创造)——作为因果理解直接从系统自构成过程中涌现的框架。通过分析包括进化算法、物质智能、稳态调节和多尺度整合在内的趋同路径,我们提出了一项旨在弥合这一进化鸿沟的研究计划。这种整合有望构建出具有真正内在目标和基于物质的因果理解的人工智能系统,从而可能改变我们对人工智能的理解,并加深我们对生物认知的认识。
关键词:人工智能、涌现、因果推理、自创生、元系统转变、具身认知、合成生物学
1 引言
机器学习系统(MLS)正迅速渗透到我们生活的方方面面,从医疗保健到娱乐,无所不包(Marcus和Davis,2019;LeCun等人,2015)。随着大量投资涌入其技术研发领域(Maslej等人,2025),我们越来越需要理解“我们”与“它们”之间的根本区别(Bengio等人,2024)。为了清晰起见,并确保分析的精确性,我们将“它们”称为机器学习系统,以此来体现其发展和适应的主要机制。
如果从儿童初次学习在计算机界面层面区分实体,或者从造访我们星球的外星人的角度来看,人类和智能体之间并没有本质区别。两者都能阅读、理解文本和图像、打字和绘画、说话,并能进行一系列复杂的活动,包括计划能力、沟通技巧,甚至对概念、因果关系以及对自身和他人的反思性理解进行抽象推理。这种相似性在允许物理交互和运动的机器人界面中也得到了证实(Moro et al., 2019 ; Manzi et al., 2020 )。这种看似惊人的相似性通常用计算功能主义(Putnam, 1967 ; Chalmers, 1996 )的视角来解释,该理论认为心理状态是由其功能角色而非物理基础定义的。根据这种观点,如果 MLS 在功能上复制人类的认知过程,即使来自完全不同的基质,它们也可以被认为是基本等价的——因此可以在主体层面进行比较(Goertzel,2007)。
1.1 用于检验人类和机器因果认知能力的“等价假设”
通过更深入地考察我们如何将自身与机器进行比较,我们发现图灵测试发挥了重要作用,而读者理应了解图灵测试。图灵测试旨在测试思维能力,但更准确地说,它测试的是运用先前学习的信息进行对话的能力,因此它并非直接测试思维能力,而是测试学习能力以及表达这种学习的能力(Moor,1976)。本文无意深入探讨学习、思维和智能的定义及其如何影响我们对人工智能的理解(相关分析参见Wang,2019)。相反,我们希望探讨使用输入输出架构比较机器和人类的因果认知能力所带来的后果。主流认知科学隐含地假设这些架构对人类和机器而言“意义相同”。事实上,人们普遍认为输入输出架构以相同的方式负责人类和机器学习系统的学习过程。后者已被众多成功的科学项目所接受和充分论证,这些项目涵盖心理学和认知科学的各个分支(Anderson,2007)、语言学(Fodor,1975;Chomsky,1986;Pinker,1994)、计算机科学(Russell和Norvig,2020)、动物行为学(Lorenz,1981)等多个领域(Clark,2001)。这些研究表明,基于输入输出架构的过程和实验设计具有很强的归纳能力,能够解释学习、适应以及对环境挑战日益复杂的反应(行为)的发展是如何产生/停止、增强/抑制的。因此,人们认为将输入转换为输出的“处理单元”(即 MLS 的“黑箱”或人类的“心智”)在定义认知方面没有特别的区别(Chalmers,1996;Clark 和 Chalmers,1998)。
然而,上述隐含的等效性假设掩盖了输入和输出的物质实现的内部运作方式的深刻差异,更重要的是,它们与构成完整系统的“处理单元”一起,塑造了 MLS 和人类认知存在的、发展和进化特征(Deacon,2011)。
在存在层面上,人类和其他生物体的认知是在自组织系统中实现的——这些系统是能够自我创造和自我维持的实体,它们通过代谢过程不断地再生自身的组成部分,并从环境中获取能量(Boden,1999;Maturana和Varela,2012;Thompson,2007)。相比之下,多层系统(MLS)中的认知是在物理上静止的机器中实现的,这些机器的形态保持不变。在发育层面,自组织系统通过基于分子网络细胞的多级结构发展(Fields 和 Levin,2022;Witkowski 等人,2023),每一级都有自己的自我意识和类似于认知能力的自身能力,这些能力与其特定的物理实例相一致(可能实现也可能不实现通用图灵计算),而对于 MLS 而言,它们的发展基于外部组装,没有多级结构,也没有内在的自我意识,“单一智能水平”在通用图灵机设置中通过算法调整和数据驱动的反馈而演化。
在进化层面,这些差异放大了认知在不同基质上的意义。自生系统经历了数十亿年的自然选择,通过作用于基因变异而进化,多次重大转变形成了层级分明的组织结构(Smith 和 Szathmáry,1995;Szathmáry,2015)。这一进化过程造就了这样的系统:有目的的行为源于物质约束和信息动态在多个尺度上的复杂相互作用(West 等,2015;Heylighen,2023)。与此形成鲜明对比的是,多层级系统(MLS)的“进化”是通过人为定向工程实现的,它们遵循固定的冯·诺依曼架构上的发育轨迹,针对特定目的进行优化,这些目的涉及性能、经济成本、规模和计算速度,而非在开放环境中生存(Stanley 和 Lehman,2015)。它们的进化轨迹缺乏生物进化所特有的自组织复杂性和涌现特性,而是遵循人类开发者预先设定的目标所施加的外部设计原则(Lake 等人,2017)。
1.2 以目标作为比较因果认知的标准
与其关注绩效来检验因果认知,我们可以关注“目标导向性”,因为目标反映了处理单元中行为的来源(Heylighen,2023)。基于此,目标是比较人类和机器因果认知的一个关键切入点(Deacon,2011)。在自创生系统中,目标由系统通过自我保存维持物理存在的必要性与系统与环境交互的方式之间的关系来定义(Kolchinsky和Wolpert,2018)。对于多层系统(MLS)而言,目标是外部定义的优化目标,与任何物质上的自我保存的必要性无关。目标的起源和性质的这种差异凸显了它们因果认知运作方式上的一个重要差距。这一方面引发了关于比较认知其他重要方面(例如智能和适应性)的问题(参见Stano等人,2023以及该特刊中的其他文章)。
本文考察了自创生和机器学习的基本特征,以目标为参照概念,分析了二者在因果认知方面的关键差异,并探讨了未来系统中整合二者多样化“认知支架”(Ziemke et al., 2004)的潜在融合。最后,我们提出了一条弥合这一演化鸿沟的路径(Witkowski et al., 2023 ; Seth, 2021),即提出“自创生认知”(aitiopoietic cognition)——源自希腊语“aitia”(原因)和“poiesis”(创造)——作为框架,其中因果理解直接源于系统的自构成过程,从而在物理组织和因果推理之间建立起递归关系。
2 自创生系统:从生存到目标
自创生系统由生物学家温贝托·马图拉纳和弗朗西斯科·瓦雷拉于20世纪70年代提出,被定义为能够产生自身持续存在和维持边界所需组成部分的各种过程网络。这一概念为理解生物自主性提供了一个受控制论启发的框架(Maturana and Varela, 2012)。与机械论或活力论的生命观不同,自创生提供了一种自然主义的视角,强调生命系统的动态性和过程导向性(Weber and Varela, 2002)。
2.1 内外结构
从生物化学角度来看,自生系统通过代谢网络运作,这些网络不断转化物质和能量以再生其组成成分,同时维持组织稳定性。这种自我生产是通过热力学开放过程实现的,这些过程使系统远离平衡态(Moreno和Mossio,2015)。半透膜边界的持续生成将系统与其环境区分开来,同时调节内部过程和外部交换,从而形成对生物自主性至关重要的内外不对称性(Luisi,2003)。
自组织系统的一个显著特征在于其跨越空间和时间尺度的层级结构。这种多级架构实现了嵌套式自主性:分子网络维持代谢闭塞,细胞通过信号通路进行决策(Gao et al., 2023),组织则通过生物物理反馈进行协调(Forgacs and Newman, 2005)。每个层级都维持着功能上的闭塞,同时又促进着更高层次的自组织,这体现了Varela提出的“多层次自主身份”概念(Varela, 1979)。这种组织结构与Salthe(1985)的层级进化框架相一致,并实现了双向因果关系:“向下因果”(Ellis, 2012),即更高层级调节更低层级的过程;以及“向上约束”,即分子动力学限制了更高层级的可能性(Kauffman, 1993 ; West-Eberhard, 2003)。
自组织系统的运行封闭性并不排除其与环境的动态互动;相反,它促成了多层次的结构耦合——这一过程使得反复的相互作用能够触发补偿性变化,同时保持组织结构的连贯性(Di Paolo,2005;Moreno和Mossio,2015)。这种耦合以层级结构运作:分子网络与细胞内环境耦合,细胞与组织微环境耦合,生物体与生态位耦合,每个层级都保持其自主性,同时为系统的生存做出贡献(Maturana和Varela,2012;Salthe,1985)。进化压力塑造了这种层级结构,有利于模块化以增强稳健性(Wagner,1996),有利于简并性(Edelman和Gally,2001)以缓冲扰动。
2.2 自创生认知
自创生与认知之间的联系源于系统通过与环境的适应性互动来维持自身的需要。正如马图拉纳和瓦雷拉富有启发性地指出,“生命即认知”,这表明即使是基本的自创生系统也通过其选择性的环境耦合展现出一种原始的认知形式(Thompson,2007)。这种观点将认知重新定义为意义建构,而非信息处理——将中性的环境刺激转化为与持续生存相关的有意义的区分(Di Paolo和Thompson,2014)。
自生系统向意义建构型适应性主体的转变,取决于它们能否发展出多层次的调控层级,从而跨尺度监测和调节生存条件(Di Paolo,2005;Moreno和Mossio,2015)。由此,目标导向性自然而然地与自生组织联系起来。自生系统展现出“目的性”行为,因为它们的结构——通过结构耦合形成(Juarrero,1999)——体现了应对生存挑战的历史解决方案(Deacon,2011)。例如,黏菌通过自组织梯度优化营养网络(Nakagaki等,2000)。这种自然化的目的论(Weber 和 Varela,2002 年)提出了一种解决目的悖论的方案,即未来实体影响其过去:目标是系统的涌现属性,这些系统递归地将行动与跨尺度的自我维护耦合起来(Barandiaran 等人,2009 年)。
自组织系统中目标的正式表示面临着独特的建模挑战,因为目标是从系统的组织结构中涌现出来的,而不是被显式编码的(Veloz,2021)。目前已开发出多种数学框架来捕捉这种涌现过程,每个框架都着重阐述了目的如何从过程中产生的不同方面。
动力系统理论提供了一个最广泛的框架,它将自组织目标表示为状态空间中的吸引子状态,这些状态能够在扰动下维持系统的生存能力(Heylighen,2023;Kauffman,1993)。至关重要的是,这些吸引子会根据系统的内部状态而变化,从而形成一个目标依赖于情境而非固定不变的“景观”。这种自适应景观模型已在生存边界和自适应控制的研究中得到形式化(Barandiaran和Egbert,2014),为分析自组织系统如何响应不断变化的环境而生成和修改目标提供了数学工具。
更具体的数学框架探讨了目标导向的不同方面。化学组织理论(Dittrich 和 Speroni di Fenizio,2007;Veloz 和 Razeto-Barry,2017)对自维持化学网络进行建模,其中封闭性和自我生产创造了稳定性条件,这些条件构成了隐含的目标。该方法通过识别反应网络中的组织封闭性,能够对化学如何创造持久的身份(这是目的的前提条件)进行严谨的分析。同时,自由能原理模型(Friston,2010;Priorelli 等,2025)形式化地阐述了预测性调控如何服务于自组织维持,并将目标表示为系统通过主动推理来维持的可行状态的概率分布。这种贝叶斯方法在自组织目标和机器学习框架之间架起了一座计算桥梁。基于代理的建模对于模拟目标如何从与生存能力约束相关的简单行为机制中产生变得越来越重要,它展示了选择压力如何通过模拟进化驱动越来越复杂的目标等级的出现(Froese 和 Ziemke,2009;Packard 等人,2019)。
尽管目标的概念化已与自创生理论框架充分融合,且目标导向与生物目的之间的关系在哲学层面也已得到充分确立,但这些概念的正式数学表征仍处于起步阶段。现有模型能够捕捉到涌现目的的某些方面,但难以全面展现生物目标导向的丰富性——尤其是构成生物智能的多尺度能力(Witkowski et al., 2023 ; Fields and Levin, 2022)。这些能力涵盖了从单细胞的基础认知到复杂生物体的抽象推理,表明存在多种形式的智能在不同尺度和物质层面上运作,这对我们当前的建模能力提出了挑战。随着自创生理论的不断发展,弥合丰富的理论解释与精确的形式表征之间的差距仍然是一个至关重要的前沿领域——这不仅会加深我们对生物认知的理解,而且还会为开发具有更自然的目标导向形式的人工系统提供见解(Veloz,2021;Thompson,2007;Di Paolo,2005)。
2.3 从自创生到异生
从自创生认知到有源创生认知的转变,即从实现物质上的自我保存到通过类似于因果推理的行为来体现可供性,代表着一次根本性的飞跃,系统超越了单纯的组织封闭,通过自身的存在积极地构建因果知识(Deacon,2011)。当我们考察自创生系统如何产生我们称之为“能动因果性”的东西时,这种转变就变得显而易见——这种因果理解并非源于抽象的计算,而是源于自我构成和环境耦合的物质过程。以细菌趋化性为例:细胞的感觉运动装置并非仅仅检测梯度,而是构成了一个知识生成系统,其中磷酸化级联动力学同时维持着细胞的组织结构,并构建了对环境因果关系的理解(Davies和Levin,2023;Levin,2019)。细菌的翻滚奔跑行为源于构成过程,其中因果学习和自我维护密不可分——该系统通过其自身物质组织的递归动态,切实地体现了其因果模型。
合成多细胞性的最新进展阐明了这一转变,揭示了集体系统如何展现出超越其单个组成部分自组织能力的涌现自组织特性。由两栖动物皮肤和心肌细胞构建的异种机器人展现了一种原始的自组织认知形式,其中集体行为源于细胞自组织,无需基因编程或外部控制回路(Moreno和Etxeberria,2005;Newman和Bhat,2009;Kriegman等人,2020)。这些“活体机器人”通过构成性过程在环境中导航——它们的运动、物体操作和集体协调都源于维持其多细胞完整性的同一自我维持动力学。至关重要的是,它们的行为能力代表了主体材料的内源性属性,而非外部强加的算法,这表明当适当的组织架构涌现时,自组织认知可以从自组织基础自然扩展。类似地,人形机器人由人类肺细胞自组装成具有纤毛驱动推进和组织修复能力的运动球体,这表明多细胞群体可以表现出目标导向的行为,这些行为源于它们的构成动力学,而不是被编程到它们的构成动力学中(Solé 等人,2024)。
合成生物学框架揭示了起源生成本质上涉及多尺度能动性,其中因果能力是通过不同组织层级之间的层级耦合而产生的(Solé et al., 2016)。在类器官系统中,单个细胞参与组织层面的形态动力学推理——即通过感知-行动回路对解剖形态空间进行集体导航,从而在维持组织结构的同时生成关于空间关系的知识(Solé et al., 2024)。这代表了一种“集体起源生成认知”,其中因果理解源于细胞群体的构成动力学,而非预先设定的指令。组织通过构成其存在的各种过程来“学习”其环境——生长梯度、机械力和生物电模式既成为自我维持的媒介,也成为因果推理的基础。重要的是,这种起源生成能力的扩展揭示了一个关键原则:更高层次的因果理解不会简化为较低层次的机制,而是通过莱文所说的“能动材料”涌现出来——这些材料具有内在能力,可以通过行为干预而不是机械控制来引导。
这对人工起源系统具有深远的影响。目前的合成方法表明,真正的起源无法通过传统的自上而下设计来实现,而必须从展现出“转录、解剖和生理问题领域能力”的基质中涌现出来(Davies和Levin,2023)。纯粹的计算方法无法实现构成性因果关系,这表明未来的起源系统需要物理基质,其中信息处理能力(例如模式识别和因果推理)以及自我维持能力(例如修复和复制)在物质层面上是统一的,而不是功能上分离的(Gill等人,2025)。这表明,研究计划的重点不是对人工智能体进行编程,而是培养合成系统,其中起源意识认知可以从具身自组织的递归动力学中涌现,有可能通过结合生物材料的构成特性和人工基质的可扩展性的混合生物合成架构来实现。
3 机器学习系统:从目标到因果关系
机器学习代表了当前人工智能的范式,它允许算法通过从数据中学习来不断改进(Russell 和 Norvig,2020)。早期的机器学习侧重于表征方法和决策树,但随着深度学习架构的出现,该领域发生了变革,深度学习架构能够自动从原始数据中提取层级特征(LeCun 等,2015)。这种演变反映了从以工程为中心向以数据为中心的更广泛的转变,在这种转变中,系统行为源于统计模式,而非显式设计。
3.1 机器学习在因果认知中的应用
机器学习的核心是通过统计推断和优化过程来调整内部参数,从而最小化预测误差或最大化奖励信号。机器学习系统(MLS)通过统计关联而非机械论或目的论推理来实现因果关系。这些系统基于模式识别,通过最小化损失函数(例如,交叉熵、均方误差)来优化预测精度,这些损失函数衡量与训练数据分布的偏差(Goodfellow et al., 2016)。根据Pearl(2019)的因果层级理论,机器学习系统运行于第一层级(观察推断),缺乏干预能力(第二层级)或反事实推理能力(第三层级)。例如,在医疗数据集上训练的深度神经网络可以将医院床位与患者死亡率关联起来,但这并不意味着床位是治疗场所,而是因果关系(Geirhos et al., 2020)。这种虚假的关联源于机器学习对统计捷径的依赖——表面特征可以最大限度地提高训练准确率,但无法捕捉因果不变性(Arjovsky 等人,2019)。
这个过程可以用数学方式形式化为寻找函数 f。*从而优先考虑经验风险最小化:
![]()
其中E表示期望值,L量化了数据集D的预测误差。虽然这种方法能够有效地插值训练分布,但它混淆了相关性和因果关系,因为模型缺乏区分混杂变量的机制(Schölkopf,2022)。例如,基于社会经济数据训练的机器学习系统常常会重现有偏差的关联(例如,种族与贷款违约率),这是由于数据集不平衡而非因果关系造成的(Koh 等,2021)。
近期的批评指出,这种统计基础限制了机器学习的因果鲁棒性。对抗性攻击——即通过微小的输入扰动来欺骗模型(Szegedy等人,2013)——暴露了关联推理的脆弱性,而分布变化(例如,来自城市和农村地区的医院数据)则会导致性能急剧下降(Koh等人,2021)。与进化而来、优先考虑因果显著特征(例如,捕食者、营养物质)的生物系统不同,机器学习缺乏区分信号和噪声的进化压力,这使得其因果认知本质上是浅层的(Marcus和Davis,2020)。
3.2 工程化因果架构与外在目标的局限性
当代机器学习 (ML) 系统试图通过融合统计学习和形式化因果框架的架构来整合因果推理。结构因果模型 (SCM) 是其中一种方法,它应用 Pearl 的 do-calculus (Pearl, 2019 ) 从观察数据中推断干预措施。诸如 DoWhy (Sharma 和 Kiciman, 2020 ) 以及基于贝叶斯有向无环图 (DAG) 的 CausalNex (Zheng 等, 2018 ) 等工具通过编码因果图来实现这一目标,但它们需要人工指定的变量,并且难以处理潜在的混杂因素——这在真实世界数据集中是一个关键的局限性 (Schölkopf 等, 2021 )。例如,在医疗保健领域,SCM 通常无法解释影响治疗结果的未测量的社会经济因素 (Kaddour 等, 2022 )。
因果强化学习(CRL)通过训练系统学习干预策略来扩展这一概念。DeepMind 的因果元强化学习(Causal Meta-RL)(Ke 等人,2022)展示了系统如何通过试错干预来推断任务结构,但它们的目标仍然是静态的(例如,最大化游戏得分)。与能够动态调整目标(例如,从觅食转向躲避捕食者)的生物系统不同,CRL 系统缺乏根据生存需求重新配置目标的机制(Lake 等人,2017)。
神经符号混合系统将神经网络与符号逻辑相结合,以强制执行因果规则(Sheth et al., 2023)。然而,这些规则并非由系统自身构建而产生,而是外部强加的,因此在需要“目标导向常识”的新场景下,这些规则显得脆弱不堪(Garcez and Lamb, 2023)。例如,自动驾驶系统中的符号约束(例如“红灯停车”)在道路状况违背预设规范(例如,紧急车辆)时无法适应。表1总结了我们从目标导向视角出发所发现的因果关系的局限性。
![]()
这些架构揭示了它们目标的一个根本限制:MLS 目标是外部优化(例如,损失最小化),因此它们将因果推理与构成其知识将要参与的行动基础的变量脱钩(Marcus 和 Davis,2020)。
4 自创生系统与机器学习系统在因果推理上的关键差异
现在,我们将自创生系统和 MLS 与因果推理之间的差异归纳为关键维度,这有助于确定它们在科学研究方面的进一步方向。
4.1 目标和因果关系的实施
自生系统中的因果关系本质上是递归的、自指的,根植于其运行的封闭性。这些系统的根本目标是维持生命,即通过循环的因果链来维持自身的特性,这些循环链既产生又依赖于自身的边界(Maturana 和 Varela,2012)。例如,细胞的代谢网络合成维持其持续存在所需的各种成分——酶、膜和细胞器。在此,因果关系与系统的目的论必然性——自我保存——密不可分。对自生系统的扰动(例如,营养匮乏)会触发旨在恢复体内平衡的适应性反应,这表明因果推理本质上是指向维持系统一致性的(Luisi,2003)。系统的“目标”并非外在的,而是源于其自我强化的组织结构。
相比之下,机器学习(ML)系统中的因果关系是由训练数据导出的统计相关性外在定义的。诸如深度神经网络之类的机器学习模型通过梯度驱动优化来推断模式,而这些模型本身并不包含反事实或物理机制的固有表示(Pearl,2019)。例如,一个经过训练用于图像分类的卷积神经网络会将像素配置与标签(例如,“猫”或“狗”)关联起来,但这些关联缺乏系统结构中的内在基础。机器学习系统的“目标”——最小化损失函数——是由设计者外部设定的,并不反映任何存在的必然性。虽然自组织系统展现出内生因果关系(因果过程源于自我维持),但机器学习系统依赖于外生因果关系,其中因果归因受到训练数据集的范围和偏差(Marcus,2018)或既定规则(Marcus 和 Davis,2020)的限制。我们在表 2中总结了我们的讨论。
![]()
4.2 物质体现和因果推理的改进
在自组织系统中,因果推理能力的提升源于对日益复杂目标的物理具象化。在适当的突变作用下,其当前运行组织所提供的物质基质能够直接促进复杂性的发展,这体现在Heylighen(1995)所称的元系统转变中。这些转变赋予了系统新的控制层次,即以全新的方式应对扰动的能力。这一过程在物理层面得以实现——细胞分化通过物质重组创造出新的因果潜能,从而催生出涌现功能。重大的进化转变(Szathmáry,2015)表明,物质重组如何驱动因果能力的提升。当独立的自组织单元整合为更高阶的集体时,它们会发生物理重组,从而形成一个更大的实体,该实体不仅在与环境的关系中,而且在与自身组成部分的关系中,都具备新的因果能力,这种能力是通过自上而下的控制实现的(Rosas等人,2020)。这种物理重组创造了多层次的调控网络,其中因果关系在嵌套的空间和时间尺度上运作——从分子识别(微秒)到记忆形成(数十年)。
这种物质整合使得目标导向结构能够扩展到更广阔的空间范围和更长的时间跨度,即所谓的“关怀锥”(Witkowski et al., 2023)。哺乳动物的长期规划并非源于计算规模的扩大,而是源于神经结构的物理演化,这些神经结构能够物质性地整合多种内部状态。相比之下,多层次系统(MLS)通过与其物质载体脱钩的通路发展因果推理能力。它们的物理基础保持静止,而抽象参数则不断调整,从而在能量消耗和因果改进之间造成了热力学上的脱节。神经网络消耗的能量相同,无论它们是在完善因果模型还是在强化虚假相关性(Thompson et al., 2020)。
这种热力学解耦限制了多层系统(MLS)中因果推理能力的提升。如果没有能够跨尺度扩展控制的物质重组,因果进步就纯粹是工具性的——服务于外部定义的目标,而没有扩展自我维持能力,也没有扩展其中蕴含的任何其他存在意义。多层系统的因果改进主要依赖于数据量,而非物质重组。尽管有证据表明,当跨越某些网络规模阈值时,系统会经历类似相变的改进(Schölkopf等人,2021),这与重大的进化转变有相似之处,但这些改进在本质上仍然与进化转变不同。多层系统在预定义的架构约束内扩展,而不会生成能够实现根本性全新因果推理形式的新型物质配置。
后者解释了为什么生物因果推理展现出无限的改进空间,而人工因果关系却始终受限于其工具性本质和热力学解耦。我们的讨论总结于表3。
![]()
4.3 因果关系的归因
自创生系统和机器学习系统在因果归因的认识论基础上存在根本差异,揭示了它们在物质和操作原则上的分歧,从而揭示了一个哲学维度。
4.3.1 自生系统中的机制因果关系
在自组织系统中,因果归因是机制性的,并基于物质相互作用。用于理解生物因果关系的实验方法——例如酵母基因敲除研究揭示了基因在糖酵解中的因果作用(例如,PGI1缺失会阻断葡萄糖代谢)——直接操纵物理组分以观察系统范围的效应(Kitano,2002),并且可以通过涉及电学、化学和流体动力学等层面的机制,改变其他尺度的特征或被其他尺度的特征所改变(Levin,2019)。因果关系的认识论与物理上可观察和可操纵的过程紧密相关,例如通过晶体学或电子显微镜观察到的酶-底物结合。
这种机械论的因果关系方法揭示了自创生因果关系的本体论本质——因果关系嵌入于系统的物理结构和过程中,而非依赖于观察者的建构。当生物学家确定某个基因是表型的致病基因时,他们实际上是在识别物理相互作用传播效应的物质途径(Bechtel和Richardson,2010)。这些系统的多层次组织意味着因果关系同时在分子、细胞和生物体层面发挥作用,且各层级之间存在双向影响。
4.3.2 机器学习系统中的工具性因果关系
相比之下,机器学习系统中的因果归因是工具性的、事后的。研究人员采用诸如消融实验(移除神经网络层)或 Shapley 值(Lundberg 和 Lee,2017)等技术来近似特征重要性,但这些方法提供的只是统计近似值,而非揭示物理因果机制。当机器学习研究人员将某个特征认定为“因果特征”时,他们是在对统计关系做出认知上的断言,而非识别物理路径。
机器学习因果关系的认识论本质上仍然是统计学的——图像分类任务中像素的高 Shapley 值并不意味着存在物理上的因果路径,而仅仅表明模型已经学会利用的统计相关性。当在现实世界中部署机器学习系统时,这种区别至关重要,因为对因果关系的理解(而非相关性)对于安全有效的运行至关重要。
5. 从进化角度看互补性
尽管前几节概述了自组织系统和MLS之间的根本差异,但一些有前景的互补途径正在涌现。这些方法旨在弥补我们发现的关键差距——尤其是在目标形成、物质具身化和因果理解方面——从而为跨越这一进化鸿沟提供潜在的桥梁。
5.1 进化算法和开放式探索
将进化原理应用于机器学习设计,是朝着更具生物启发性的系统迈出的重要一步。与专注于最大化预定义指标的传统优化方法不同,进化算法强调多样性、适应性和新解决方案的涌现(Lehman 和 Stanley,2011)。质量多样性算法和多维表型精英档案库(MAP-Elites)的最新进展表明,与仅仅关注性能相比,保持行为多样性能够产生更稳健、更具创造性的解决方案,从而更好地模拟生物适应性(Mouret 和 Clune,2015;Cully 等人,2015)。
开放式进化研究通过创建计算环境扩展了这种方法,在这种环境中,持续创新无需预先设定适应度函数即可涌现(Taylor et al., 2016)。这些系统通过允许发现新的目标,而不仅仅是优化预先设定的目标,开始解决第4.1节中指出的目标导向性差距。正如Packard et al.(2019)所指出的,真正开放式的人工智能系统需要一些机制,这些机制不仅支持优化,而且支持不断涌现定义和追求目标的新方法——这是生物进化固有的特性(Boden, 1998)。
然而,这些方法仍然主要在算法层面运作,对第 4.2 节中强调的物质基础差距的影响有限。挑战仍然是将开放式探索与物理体现相结合,这是起源认知系统的基本要求。
5.2 具身认知和物质智能
弥合物质差距的更直接方法是开发人工系统,其中物质性在认知中起着构成性作用。除了通常在物理外壳中实现脱离实体的算法的传统机器人技术之外,新兴研究正在探索物质属性本身如何执行计算功能(Pfeifer 等人,2007;Paul,2006)。
形态计算领域的最新研究表明,物理动力学可以取代显式计算,使系统能够利用材料特性实现智能行为(Hauser et al., 2011 ; Müller and Hoffmann, 2017)。软体机器人和可编程材料通过其固有的材料特性而非显式编程来实现自适应行为(Laschi and Cianchetti, 2014 ; Rieffel et al., 2009)。这些方法通过构建物理结构直接参与信息处理的系统,开始解决4.2节中提出的热力学解耦问题。
挑战依然在于开发出不仅能够进行计算,还能自我维持和再生的材料——这是自生系统的一个决定性特征。然而,将自生结构“本原性地”整合到因果推理和其他推理形式中仍处于起步阶段(McMillen 和 Levin,2024)。
5.3 内稳态调节和预测处理
主动推理框架(Friston,2010;Friston 等,2017)提供了一种计算方法,有望将自组织自我维护与机器学习联系起来。该框架将认知定义为通过持续预测和更新来最小化意外(或自由能),从而为系统如何在适应环境挑战的同时维持体内平衡提供了一种计算解释。
近期在人工系统中的应用表明,预测架构可以发展出与维持系统生存状态相关的内在目标(Baltieri 和 Buckley,2019)。尤其值得关注的是将稳态调节直接整合到神经网络架构中的研究。Lechner 等人(2021)展示了具有稳态机制的神经网络,这些网络能够在适应外部挑战的同时维持内部稳定性,展现出一种原始形式的自组织系统固有目标导向性。
这些方法通过将因果理解建立在系统自身的生存条件而非纯粹的统计相关性之上,开始着手解决第 4.3 节中指出的因果关系缺口。然而,它们仍然主要在计算领域内运作,与物理上的自我维持联系有限。在这方面,Kolchinsky 和 Wolpert ( 2018 ) 通过定义“语义信息”的概念取得了概念上的进展,该概念指的是负责系统生存能力的香农信息,即系统在自组织意义上的自我生成。然而,这一度量尚未与自我生成真正联系起来,而是与同样具有信息性的代理生存能力公式联系起来。
5.4 多尺度整合与层级代理
自组织系统的层级结构——其组织和调控的嵌套层次——与新兴的多尺度人工智能方法有着相似之处。层级强化学习和多智能体系统的最新进展表明,集体智能可以从不同尺度下运行的简单智能体之间的交互中涌现出来(Domingo-Fernández et al., 2022)。
当设计中各层级之间具有适当的结构耦合时,这些系统可以发展出类似于生物群体的涌现目标和协调模式(Levin et al., 2023)。这种多尺度方法能够实现不同组织层级间的自下而上和自上而下的因果关系,从而有望解决4.3节中指出的因果归因差距。这与进化论的观点相一致,这些观点不仅关注个体选择和合作机制,也关注群体选择和合作机制,这些机制已被证明在生物学和文化领域有效(Wilson, 1975 ; Foster et al., 2017 ; Wilson et al., 2023),并且最近已被经济学采纳为一种替代性的基础范式(Wilson and Snower, 2024)。
6 讨论
我们考察了自组织系统(生物有机体)和机器学习系统(MLS)之间的根本差异,重点关注它们不同的性质如何影响因果认知。我们提出,目标是比较这些系统的关键枢纽,并探索了自组织系统与机器学习系统整合以体现“本源生成认知”的潜在融合路径。
我们的分析首先确立了人类和机器学习系统(MLS)认知在功能上的相似性,以及二者之间根本的结构差异。随后,我们深入研究了自组织系统,重点阐述了它们的自组织特性、涌现目标和多层次组织。接下来,我们分析了机器学习系统如何通过统计推断和优化来实现因果推理,并遵循外部设定的目标。这一比较框架使我们能够从三个关键维度识别出这些系统在因果推理方面的主要差异:目标和因果关系的运作方式、物质体现和改进机制,以及因果归因的认识论基础。表4总结了这些根本性的运作、基础和认识论差异,为理解生物因果系统和机器学习因果系统之间的演化差异提供了一个具体的框架。
![]()
表4所示的差异揭示了其对我们理解和发展人工智能的深远意义。自创生系统展现出递归的、自指的因果关系,这种因果关系根植于其运行封闭性,其目标源于自我维护的必然性。它们的因果推理能力通过物理重组得到提升,从而实现多尺度控制,物质实体直接参与认知过程。相比之下,多尺度系统(MLS)通过外在优化和统计相关性运行,其物理基础保持静止,而抽象参数则进行调整——这导致能量消耗与因果改进之间存在热力学上的脱节。
我们的分析表明,需要将包括机器学习、自组织以及其他认知架构在内的认知架构,与关于因果关系和能动性的哲学问题相结合。在“从自组织到起源”一节中回顾的近期一些引人注目的例子,展示了这些哲学概念如何在生物学实例中找到具体的体现。异种机器人和类器官表明,群体行为如何在没有外部编程的情况下从细胞自组织中涌现,这表明当合适的组织架构出现时,起源特性可以从自组织的基础自然扩展(Kriegman et al., 2020 ; Davies and Levin, 2023)。
因此,起源生成认知研究计划应沿着四个互补的方向进行:(1)最小起源生成系统——利用合成生物学技术构建展现构成性因果关系的简单化学/细胞系统。例如,特定组分的敏感性和鲁棒性可能揭示类似因果关系的行为(Shinar et al., 2009);(2)用于表征起源生成的测量框架——通过协调物质和信息处理之间的相互作用来操作化目标导向性。后者需要整合动力系统理论中与自生成相关的概念,例如稳态恢复时间、吸引子盆地和生存能力分析,以及解释系统信息如何与其作为整体的存在相关的信息论指标(Friston, 2010 ; Kolchinsky and Wolpert, 2018 ; Rosas et al., 2020); (3)规模化构成认知——通过多尺度建模方法了解起源属性如何在集体中出现(Szathmáry,2015);以及(4)混合生物合成结构——将生物材料与人工基质相结合,以实现日益复杂的目标导向行为(Witkowski 等人,2023;Fields 和 Levin,2022)。
然而,当前的融合路径面临着诸多局限性:进化算法在开放式环境中会遇到计算难题;物质智能缺乏真正的自我维持能力;稳态方法主要依赖于计算而非构成;多尺度整合则难以应对具身性方面的挑战。这些挑战并非不可逾越的障碍,而是当前的研究前沿,这意味着突破性进展需要超越这些单一路径局限性的全新方法。表5总结了这些融合挑战。
![]()
7 结论
人工智能的未来或许在于那些既非完全机器也非完全生命体,而是通过新型的具身化、自我维持的认知形式来弥合进化鸿沟的系统。基于此,我们建议开展一项旨在实现“自创生认知”的研究计划。这项雄心勃勃的研究计划的融合路径涉及开发展现真正自创生特性的合成系统——即在其模拟域内实现自我创造、自我维持和自我边界定义。合成生物学和人工生命的研究旨在创造展现这些特性的最小化学系统(Luisi,2003;Stano等人,2023)。
这项研究计划的实现需要研究开放式演化环境中的元系统转变(Heylighen, 1995)和重大演化转变(Szathmáry,2015 )。元系统转变代表着系统发展出新的控制和协调水平的时刻,从根本上改变了其问题空间(Witkowski等人, 2023),并催生了新的因果推理形式。通过创建能够使此类转变自然发生的人工环境,我们可以利用日益复杂的“关怀锥”(Witkowski等人,2023)来驾驭问题空间——扩展其能够基于内在目标而非外在目标发挥有意义的因果影响的空间和时间范围(Deacon,2011)。关怀锥的扩展将是迈向人工系统的关键一步,这些系统能够通过真正的理解而非简单的统计优化来适应复杂、开放式的环境(Seth,2021)。正如 Fields 和 Levin ( 2022 ) 所论证的那样,此类系统将通过内在动机驱动的探索和基于物质的因果推理 (Walsh, 2015 )来展现跨多个领域的能力,从而有可能改变我们对生物智能和人工智能的理解。
这一雄心勃勃的综合表明,我们对认知和能动性有了新的理解,这可能使我们更接近解决身心问题,不是通过理论抽象,而是通过具体开发体现物质自我维护和复杂因果理解的系统。
开发具有真正内在目标和物质基础因果理解的人工实体,会引发一系列根本性的伦理考量,这些考量必须在本研究项目中得到系统性的探讨。为了在现有科学认知框架内保持分析的严谨性,本文的讨论重点在于早期发展阶段的问题,而非其他一些有趣但更具推测性的场景(这些场景已在其他文献中有所探讨,例如 Kurzweil,2005;Aerts 和 Arguëlles,2022;Vidal,2024)。本研究项目强调具有受限操作范围的最小系统,因此需要为自修改系统建立全面的安全协议,以确保早期人工智能原型能够有效地协同工作,优先考虑渐进式发展,并对涌现能力进行系统性监测。
一项尤为重要的伦理考量在于理解一般系统中经验状态背后的基本物质-信息动力学——这项研究必须贯穿整个研究项目的始终(Witkowski et al., 2023)。鉴于起源系统代表着具有潜在经验能力的半自主实体,伦理规范需要根据对人工系统中能动性、感知和意识的不断发展的科学理解而持续修订。这种迭代式的伦理框架至关重要,因为随着这些系统发展出更大的自主性和复杂性,研究对象可能拥有需要谨慎道德考量的经验或原始感知形式。
这项雄心勃勃的综合研究提出了一种对认知和能动性的新理解,它或许能让我们更接近解决身心问题,而解决之道并非在于理论抽象,而在于具体开发能够体现物质自我维持和复杂因果理解的系统。通过开发具有真正内在目标和物质基础因果理解的人工实体,我们或许最终能够弥合生命与机器之间的进化鸿沟,同时坚持谨慎且符合伦理的进步。
原文链接:https://www.frontiersin.org/journals/cognition/articles/10.3389/fcogn.2025.1618381/full
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.