导语
对称性支配着我们所在的世界,而大脑会建立关于外部世界的模型,对称性是否也是大脑信息处理的基本原理?从空间感知到时间流逝,数学结构如何帮助我们更准确地表征意识体验?本周六上午我们邀请到德克萨斯大学计算神经科学实验室负责人、助理教授张文昊老师介绍“代数群作为大脑神经回路的设计原理”,以及集智俱乐部长期作者十三维介绍“意识科学的数学结构性转向”。作为「 x x 」读书会的一次联动分享,我们希望通过探讨数学,尤其是群论在神经科学与意识科学中的前沿进展,更深入地思考群论、大脑与智能的关系,为未来的神经科学、意识科学和人工智能研究带来启发。欢迎感兴趣的朋友一起参与讨论交流!
内容简介
第一部分:代数群作为大脑神经回路的设计原理
神经科学家在理解大脑功能时,迫切需要一种新的理论来帮助揭示大脑神经回路是如何设计的,或者说大脑的神经网络是如何组织、运作的。在最近的研究中,我们假设李群对称性可以作为认知计算和神经回路架构的设计原理。为什么?大脑储存了一个由物理法则支配的物理世界的内在模型。而李群是一个统一的理论,涵盖了广泛的物理法则,就像是物理学的物理学一样。有了这个动机,我们开始将李群理论与生物学上合理的递归回路动态相连接的探索。通过使用一维平移/旋转群作为具体例子,我们推导出一个递归回路模型,最终可以与苍蝇(果蝇)导航系统中的神经回路进行比较。在计算上,我们发现连续吸引子网络(Continuous Attractor Neural Networks,CAN),一个经典的神经回路模型,自洽地生成群等变表示,我们严格推导了群算符在回路动态中的表示。我们还将目标导向的导航回路表述为李群算符搜索问题。我们的模型首次展示了李群可以作为神经回路的设计原理。
第二部分:意识科学的数学结构性转向
传统意识科学研究分为第一人称(主观报告)和第三人称(客观测量)方法,二者各有局限,难以全面描述意识体验的复杂性。长期以来,由于实验方法和工具的改进,意识科学长期以来被功能主义占据,却无法解释感受质等主观现象体验。直到整合信息理论(IIT)的出现,开始重新基于第一人称主观体验进行研究,但也与功能主义方法产生冲突和论争。Johannes Kleiner 在2024年提出意识科学正经历一场“结构性转向”,即通过数学研究感受质的现象结构,整合第一和第三人称视角来揭示意识的本质。这种转向不依赖于特定形而上学立场,强调数学群论语言尤其是自同构在意识研究中的重要性,能够揭示表面上差异显著的主观体验,在数学结构上也可能具有相同的关系。对此 Johannes Kleiner 提出了主观体验现象空间的数学结构定义,拓展了意识研究的方法论。结构性转向使意识科学能够引入更多高阶数学工具,精确描述意识体验的多维度特性,为解决意识难题开辟了新途径。
核心概念
群论(Group Theory)
递归神经回路(Recurrent neural circuits)
连续吸引子网络(Continuous Attractor Neural Networks,CAN)
意识的“困难问题”(Hard Problem of Consciousness)
神经现象学(Neurophenomenology)
同构(Isomorphism)
非平凡自同构(Non-trivial Automorphism)
整合信息论(Integrated Information Theory, IIT)
主讲人
张文昊,德克萨斯大学西南医学中心计算神经科学实验室负责人,助理教授。 实验室结合规范性理论和生物学上合理的神经回路模型,研究神经信息处理的原理,旨在解答感知、认知和行为是如何从神经回路中涌现出来的。他的主要研究成就包括研究非线性神经回路动态,探讨神经回路动态如何实现认知贝叶斯计算,以及如何在神经回路中实现群不变/等变表示。
十三维,厦门轻刻健康科技有限公司CTO、数智健康研究院院长,AI和元宇宙研究者,科学作家。主要关注研究意识与认知科学、复杂系统与生成艺术、基于可穿戴的智能硬件的数字健康医疗、基于区块链的数字物质理论与人工生命、基于大语言模型的Agent产品落地等,在IEEE等学术期刊,集智俱乐部、返朴、追问、文艺报、长江文艺等多家科普媒体发表论文和文章。
参考文献
Zhang, Wenhao, Ying Nian Wu, and Si Wu. Translation-equivariant representation in recurrent networks with a continuous manifold of attractors. Advances in Neural Information Processing Systems 35 (2022): 15770-15783.
Wu, Si, et al. Continuous attractor neural networks: candidate of a canonical model for neural information representation. F1000Research 5 (2016): F1000-Faculty.
Kleiner, Johannes. Towards a structural turn in consciousness science. Consciousness and cognition 119 (2024): 103653.
Da Costa, Lancelot, et al. A Mathematical Perspective on Neurophenomenology. arXiv preprint arXiv:2409.20318 (2024). https://arxiv.org/abs/2409.20318(相关文章:《》)
Tononi, Giulio, et al. "Consciousness or pseudo-consciousness? A clash of two paradigms." Nature Neuroscience (2025): 1-9.
直播信息:
时间:2025年4月12日(本周六)上午10:00-12:00
报名参与读书会:
斑图链接:https://pattern.swarma.org/study_group_issue/888?from=wechat
扫码参与,加入群聊,获取系列读书会回看权限,加入「意识的量化与建模」社区,与社区的一线科研工作者沟通交流,共同推动这一前沿领域的发展。
报名成为主讲人
读书会成员均可以在读书会期间申请成为主讲人。主讲人作为读书会成员,均遵循内容共创共享机制,可以获得报名费退款,并共享本读书会产生的所有内容资源。详情请见:
整合信息论读书会
为什么我们在清醒时有意识,而在无梦的睡眠中意识水平大大降低?为什么我们的意识由大脑的某些部分产生,而非其他部分?为什么大脑的特定部分与视觉和听觉等意识体验密切相关?这些具体的问题本质上涉及到,理解决定一个系统产生意识体验的条件,以及理解决定一个系统具有何种意识的条件。整合信息论(IIT)试图用几何学一般的公理体系来解释意识是什么,意识如何测量。根据该理论,意识对应于一个系统整合信息的能力。
为了深入探索意识奥秘,系统梳理整合信息论的理论体系,北京师范大学系统科学学院教授、集智俱乐部创始人张江领衔发起,组织对本话题感兴趣的朋友,深入研读相关文献,激发科研灵感。读书会分为以下几个部分:整合信息论综述,基础理论框架,近似计算方法,在神经科学中的应用,在复杂系统中的拓展应用,Φ与系统临界态,以及机器意识。2024年9月28日开始,每周六上午9:00-11:00进行,持续时间预计 10 周,欢迎感兴趣的朋友报名参与!
详情请见:
自由能原理与强化学习读书会
自由能原理被认为是“自达尔文自然选择理论后最包罗万象的思想”,它试图从物理、生物和心智的角度提供智能体感知和行动的统一性规律,从第一性原理出发解释智能体更新认知、探索和改变世界的机制,从而对人工智能,特别是强化学习世界模型、通用人工智能研究具有重要启发意义。
集智俱乐部联合北京师范大学系统科学学院博士生牟牧云,南京航空航天大学副教授何真,以及骥智智能科技算法工程师、公众号 CreateAMind 主编张德祥,共同发起「」,希望探讨自由能原理、强化学习世界模型,以及脑与意识问题中的预测加工理论等前沿交叉问题,探索这些不同领域背后蕴含的感知和行动的统一原理。读书会已完结,现在报名可加入社群并解锁回放视频权限。
详情请见:
计算神经科学读书会
人类大脑是一个由数以百亿计的神经元相互连接所构成的复杂系统,被认为是「已知宇宙中最复杂的物体」。本着促进来自神经科学、系统科学、信息科学、物理学、数学以及计算机科学等不同领域,对脑科学、类脑智能与计算、人工智能感兴趣的学术工作者的交流与合作,集智俱乐部联合国内外多所知名高校的专家学者发起神经、认知、智能系列读书会第三季——,涵盖复杂神经动力学、神经元建模与计算、跨尺度神经动力学、计算神经科学与AI的融合四大模块,并希望探讨计算神经科学对类脑智能和人工智能的启发。读书会已完结,现在报名可加入社群并解锁回放视频权限。
详情请见:
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.