来源:市场资讯
(来源:图灵人工智能)
![]()
![]()
一句话讲清楚 Google Paradigms of Intelligence团队最新论文提出:AI奇点不是一台超级大脑的崛起,而是一个复杂社会的涌现——推理模型内部已经在自发产生"思想社会",未来的智能爆炸将是人机混合体在制度框架下的协同进化。
AI奇点:一个可能是方向性错误的预言
"AI奇点"这个概念,科技界讨论了三十多年。
最早是数学家 Vernor Vinge 在1993年提出来的,后来 Ray Kurzweil 在《奇点临近》里把它推向大众。核心叙事很直白:某天AI拥有了自我改进能力,然后指数级加速,最终变成一个凌驾于全人类之上的超级智能。
这个想象几乎定义了整个AI安全领域。Eliezer Yudkowsky 的"FOOM"假说讲的是一个AI突然起飞;Nick Bostrom 的《超级智能》最担心的是"独体"(singleton)——一个谁也控制不了的单一智能体。对齐研究的所有问题,归根结底都是一个:怎么管住这一个超级大脑?
2026年3月,Google的一篇论文对这个根基性假设开了一枪。
James Evans、Benjamin Bratton 和 Blaise Agüera y Arcas 在 arXiv 上发了《Agentic AI and the next intelligence explosion》(arXiv:2603.20639)。4页纸,论点很硬:智能从来不是个体的事。
智能的本质是社会性
![]()
灵长类智能随社会群体规模增长(Dunbar, 1998),跟栖息地难度关系不大
人类语言创造了文化棘轮,知识跨代积累而无需个体重建
文字、法律和官僚制度把社会智能外化成基础设施,协调着比任何参与者都更长的时间跨度
如果智能本质上就是社会性的,那通向更强AI的路,就不是造一个更大的单一预言机,而是搭更好的社会系统。
思想社会:推理模型内部发生了什么?
![]()
![]()
从思想社会到组织科学:一个还没被打开的设计空间
![]()
推理模型在没有被设计的情况下自己"发现"了这条原理。这暗示社会化的推理可能是任何足够强大的推理系统都会趋向的"吸引子"——管它是碳基的还是硅基的。
人机半人马:混合智能正在发生
推理模型内部出现了"思想社会",那在模型和人类的交互层面呢?
![]()
想象一下:一个Agent遇到很难的问题,先生成一个内部的"思想社会"。其中一个涌现视角碰到超出能力范围的子问题,于是又生成了自己的下级"思想社会"——一个递归下降的集体审议过程,需要时展开,解决后收缩。冲突不是bug,是资源,在对话超图的每个层级上灵活地实例化和消解。
从RLHF到制度对齐:一个根本性的范式转换
![]()
论文给的例子很具体:
劳工部门的AI可以审计企业的招聘算法有没有歧视性影响;司法部门的AI可以评估行政部门AI的风险评估是否符合宪法标准。不然的话,美国证券交易委员会就只能雇拿着Excel表格的商学院毕业生,去对抗AI增强交易平台的高维串谋。
核心逻辑是:在人工Agent的世界里,没有任何单一智能集中点应该自我监管。权力必须制衡权力。美国开国元勋们早就懂这个道理,在人工Agent的世界里,需要以新的形式实现。
治理不只是政府的事
![]()
进化视角:重新理解"智能爆炸"的历史
论文最深的贡献,是把AI的未来放进一个更大的进化框架里。
传统"奇点"叙事把即将到来的AI突破当成一个独特的、史无前例的事件。但论文指出,生命史上已经发生过好几次"智能爆炸",每次都不是个体认知能力的升级,而是新社会聚合单元的涌现。
![]()
这个视角的推论很清楚:如果每次智能爆炸都通过社会聚合实现,那这次也不会例外。AI的未来不是一个孤独的超级智能,而是一个新的社会单元——由人类和AI共同组成、比以往任何社会都更大更复杂的系统。
对"独体奇点"框架的政策反思
论文最后指出了"独体奇点"框架在政策上的危险。
这个框架让政策盯着一个可能永远不会出现的技术——一个无法控制的单一超级智能。盯错了地方。
论文主张,我们应该在以前几次智能爆炸涌现的地方找下一次:在多元社会智能心智之间的合作、竞争和创造性的互动中。区别是这次大多数心智将是非生物的。
"多元模型"把注意力放到该放的地方:混合人机社会系统的设计、治理规范、冲突和协调的制度与协议。
论文最后一段写得很好:
"智能爆炸已经在这里——在每个推理模型内部辩论的思想社会中,在重塑每个知识职业的半人马工作流中,在开始大规模分叉和协作的递归Agent生态中,以及在我们现在必须开始提出的宪制问题中。问题不在于智能是否会变得更强大,而在于我们是否会建设出配得上它所正在成为的样子的社会基础设施。没有心智是一座孤岛。"
三个关键转变
这篇论文的洞见可以浓缩为三个转变:
从"单一智能"到"社会智能"。 智能不是个体属性。推理模型内部自发产生的"思想社会"证明,硅基系统里社会化的推理也更强。造更强的AI不是让单个模型更大,是设计更好的多智能体社会架构。
从"人机交互"到"人机半人马"。 未来不是人控制AI,也不是AI取代人,是人和AI以多种配置形成混合行动者。每个人每天都在不同半人马模式间切换。关键是设计好接口和协议。
从"RLHF"到"制度对齐"。 AI对齐不能靠一对一的人类反馈,需要像人类社会一样的制度架构——角色、规范、制衡。这是制度设计问题,需要组织科学、社会学和政治学的积累。
三个转变指向同一个主题:AI的未来不是一个技术问题,是一个社会问题。下一个智能爆炸的催化剂不是更大的模型或更多算力,是更好的社会架构。
资源链接
论文链接
https://arxiv.org/abs/2603.20639
相关论文:Reasoning Models Generate Societies of Thought
https://arxiv.org/abs/2601.10825
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.