来源:混沌巡洋舰
本文源于塔勒布的一则推文
其中提到的图如下所示:
接下来是Deepseek V3 对该图给出的详解
人工通用智能(AGI)的本质
人工通用智能(Artificial General Intelligence)代表着具有人类水平流体智能的AI系统,其核心特征包括三个方面:
从新经验中学习的能力:不同于当前AI系统需要大规模静态数据集进行训练,AGI应当能够像人类一样从连续流动的体验中实时学习。例如,一个儿童通过几次跌倒就能学会平衡自行车,而当前最先进的机器人可能需要数百万次的模拟训练才能掌握类似技能。
适应性智能:AGI需要具备根据环境变化动态调整认知策略的能力。这类似于人类在面对陌生城市时能够综合运用地图、路标询问和试错等不同策略找到目的地,而非依赖单一固定的问题解决模式。
知识迁移应用:真正的通用智能体现在能够将某一领域获得的知识灵活应用于完全不同的新情境。典型例子如数学家冯·诺伊曼将博弈论应用于经济学和军事战略,展示了人类智能的跨领域迁移能力。
这些特质共同构成了"通用智能"的本质,也是当前LLM与真正智能之间存在的主要差距。值得注意的是,AGI不需要在所有认知任务上超越人类,但必须具备这种适应性和灵活性。
大型语言模型的兴起与"涌现能力"现象
近年来,LLM发展呈现出明显的规模扩大趋势。从GPT-3的1750亿参数到当前某些模型的万亿级规模,研究者们观察到了一个引人注目的现象——涌现能力(emergent abilities)。这些能力指在模型规模超过某个临界点时,系统突然表现出训练目标中未明确编程的才能,如:
数学推理:尽管没有专门训练数学证明,大型模型能够解决一定复杂度的数学问题
代码生成:能够根据自然语言描述写出功能正确的程序代码
跨语言翻译:即使没有明确的双语对齐数据,也能实现一定质量的翻译
这些"意外"能力的出现引发了AI社区的极大热情,也催生了"通过持续扩大规模可能实现AGI"的乐观假设。OpenAI首席科学家Ilya Sutskever曾提出"规模就是一切"的观点,反映了这种思潮。
然而,这种观点忽略了关键一点:这些涌现能力本质上仍是统计模式的复杂表达,而非真正的理解或推理。当测试用例超出训练数据分布时,这些能力往往会戏剧性崩溃。例如,LLM可能在简单算术上表现良好,但当问题以不常见的形式呈现时(如使用罕见词汇描述数学问题),其表现会显著下降。
LLM架构的深层约束
要理解为什么单纯扩大规模无法实现AGI,必须深入分析LLM的基本架构限制。LLM的核心是一个基于Transformer的自回归模型,其工作流程可简化为以下步骤:
输入处理:将文本分割为token(可能是单词或子词单元)
嵌入表示:通过查找表将每个token映射为高维向量
Transformer处理:通过自注意力机制计算token间关系,多层堆叠逐步细化表示
概率计算:基于上下文对所有可能的下一个token进行评分(softmax归一化)
输出选择:通常选择最高概率token,有时引入随机性增加多样性
这一流程虽然能产生流畅文本,但揭示了LLM的几个根本限制:
1. 前馈架构与不可逆处理
LLM的单向生成机制使其无法像人类那样进行迭代式思考。人类写作时会不断回顾、修改前面的内容,而LLM一旦生成token就无法撤回或修正。这种"一次通过"的特性限制了深度推理能力。例如,当解决复杂数学问题时,人类会反复检查中间步骤,而LLM只能线性前进,容易累积错误。
2. 固定上下文窗口
所有LLM都存在上下文长度限制,无论是早期的2048token还是现代模型的128k窗口。这导致两个关键问题:
长期依赖丢失:无法维持超长文本中的一致性,如小说创作中保持角色特征
信息选择压力:当输入超过窗口大小时,必须决定保留哪些信息,这一过程往往基于简单启发式而非真正理解
最根本的限制在于LLM缺乏对物理和社会世界的内部模拟能力。人类依靠丰富的感觉运动经验建立了关于物体持久性、重力作用、社会规范等基本概念,而LLM仅通过文本统计来近似这些知识。这导致:
常识推理薄弱:无法理解"如果我把手机放进搅拌机,它会坏掉"这类基于物理常识的陈述
反事实想象有限:难以系统性地探讨与训练数据分布偏离的情境
因果理解表面:只能识别文本中的统计关联,而非真正的因果关系
认知科学家斯坦尼斯拉斯·迪昂指出:"理解不是模式识别,而是模型构建。"这正是LLM与人类智能的本质区别。
架构约束的后果表现
这些底层限制在实际应用中表现为几个关键缺陷:
知识僵化:LLM无法像人类那样持续更新和验证知识。当提供新信息时,它们不会真正"学习",只是在当前上下文中调整输出。例如,告知LLM"地球是平的"只会影响当前对话,而不会改变其底层知识表示。
组合泛化失败:人类能够将基本概念组合创新解决新问题,如将"冰"和"船"组合理解"破冰船"。LLM在这种组合创新上表现不稳定,尤其是面对新颖组合时。
领域迁移困难:真正的智能体现在能够将某领域的洞见应用于另一领域。LLM虽然能生成跨领域文本,但这种"迁移"往往只是表面语言风格的模仿,而非深层次的原则应用。
情境理解局限:无法根据非语言线索(如对话发生的物理环境、参与者的表情语调)调整理解。人类对话中,这些副语言信息承载了大量意义。
通向AGI的可能路径
如果单纯扩大规模无法实现AGI,那么什么方向可能带来突破?当前研究界正在探索几条有前景的路径:
1. 混合架构系统
结合符号推理与神经计算的混合系统可能克服纯神经网络的局限。例如:
神经符号系统:使用神经网络处理感知输入,符号引擎负责逻辑推理
模块化设计:将不同认知功能(记忆、推理、感知)分配给专门子系统
通过物理具身或模拟环境让AI获得感觉运动经验,可能是构建世界模型的关键。例如:
机器人学习:在真实或虚拟环境中通过交互学习物理规律
多模态训练:整合视觉、听觉、触觉等多感官输入,建立更丰富的世界表示
开发能够长期保持并动态更新知识的记忆系统:
可扩展记忆:突破固定上下文窗口的限制
记忆巩固机制:模仿人类的睡眠记忆重组过程
设计能够自我改进基础认知过程的系统:
学习算法:不仅学习内容,还优化自身的学习方式
注意力控制:动态分配计算资源,模仿人类的注意力机制
LLM的快速发展无疑推动了AI领域的进步,但将这种进步等同于通向AGI的道路是一种危险的简化论。真正的通用智能需要突破当前架构的根本限制,发展出具有世界模型、深层推理和持续学习能力的系统。
正如深度学习先驱Yoshua Bengio所言:"我们需要的不是更大的模型,而是更好的学习原则。"未来AGI研究应当更加关注如何实现知识的灵活组合、因果推理和情境理解,而非单纯追求参数量的增长。这需要跨学科的协作,整合认知科学、神经科学和计算机科学的最新洞见。
规模扩大或许能带来更流畅的对话代理,但真正的智能革命将来自架构创新而非规模膨胀。理解这一区别,对于合理规划AI研究方向和资源分配至关重要。
阅读最新前沿科技趋势报告,请访问欧米伽研究所的“未来知识库”
https://wx.zsxq.com/group/454854145828
未来知识库是“ 欧米伽 未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。 欢迎扫描二维码或访问https://wx.zsxq.com/group/454854145828进入。
截止到3月31日 ”未来知识库”精选的百部前沿科技趋势报告
(加入未来知识库,全部资料免费阅读和下载)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.