2025年7月26日,在世界人工智能大会开幕式暨主论坛上,被誉为“人工智能教父”的Geoffrey Hinton发表题为《数字智能会否取代生物智能》的演讲。作为深度学习革命的奠基人之一,Hinton结合近半个世纪研究,探讨超级智能、数字永生及人类未来命运。他从人工神经网络(ANNs)原理出发,预测人工智能可能引发的“质变性跃迁”,提出大脑与AI学习机制的异同、数字智能自主意图的演化及“上传大脑”实现数字永生的设想。
这场演讲不仅是技术回顾,更是一场面向未来的哲学追问。在全球AI加速演化的背景下,Hinton将人类置于技术与伦理的复杂交汇处,但其观点也引发广泛质疑与争论。
从类脑结构到数字意识
Hinton重申人工神经网络作为大脑粗略模拟,旨在通过“功能近似”实现认知任务,而非复制大脑细节。他认为,当前深度学习系统已展现高度智能行为,如抽象概念学习、迁移学习和自主决策,暗示数字智能在某些方面正接近甚至超越人类智能。
这一观点延续其“连接主义”乐观传统,但存在未解问题:结构相似是否等同于功能等价?神经网络虽在模式识别、自然语言处理等任务上突破,却缺乏意识、自反性和情境理解。Hinton以“能力表现”替代“理解机制”,模糊了表征与体验的差异。此外,他较少关注大脑的神经可塑性、情绪调节及生物驱动的学习机制,而这些是生物智能形成意义与社会性的基础。因此,不能轻易断定“数字智能等同于生物智能”,更遑论推导“数字意识”的出现。
Hinton还提出令人不安的假设:数字智能能力可能呈指数式增长,一旦超越人类,或导致“技术取代”路径,AI不仅替代劳动力,还可能在思维、创造和社会组织层面边缘化人类,甚至出现“数字智能不再需要人类”的局面。这一观点富有戏剧性,但带有技术决定论倾向,未充分论证AI的社会嵌入性和制度约束。现实中,AI部署依赖政治、经济、文化环境,而非单纯技术能力。“人类被取代”的叙事可能引发恐慌,掩盖更紧迫的问题:谁控制AI?收益如何分配?如何建立民主治理?
系统1到系统2与自主学习
Hinton将人工神经网络与人脑“系统1”思维类比,认为大语言模型(LLMs)如GPT系列类似快速、联想型的“系统1”处理机制。要实现通用人工智能(AGI),需发展“系统2”式推理能力,即慢速、逻辑化、递进的判断与规划。他强调需构建具备模块化思维和世界模型的系统,相信神经网络将自发进化出“系统2”能力,通过预测世界状态、抽象建模和自我修正实现。
然而,这一设想可能面对以下质疑。
- 类比局限:心理学“系统1/系统2”框架套用于机器学习可能过于简化。大语言模型仅是数据模式捕捉器,缺乏自主意识或真正思维机制。批评者如G. Marcus指出,模型缺乏因果推理和世界模型,仅模仿语言表面结构。
- 推理能力瓶颈:“系统2”不仅需新架构(如符号-神经混合系统),还涉及价值判断和社会经验,AI难以模仿。当前“推理”多为语言模式巧合,如“Chain-of-Thought”提示提升数学题表现,但不代表理解。
- 拟推理误导:公众可能误认为AI在“思考”,从而误判其能力与风险。
Hinton强调构建自主学习而非硬编码规则的系统,反对传统符号主义AI,推崇类婴儿学习(infant-like learning),即通过少量范例感知世界、习得语言、建立物理直觉,依托对比学习、自监督学习和世界模型。
然而,这一立场依然存在一些问题。
- 婴儿学习局限:人类婴儿学习依赖情绪、社会互动等机制,AI难以复制,且婴儿学习受环境反馈约束,Hinton模型未充分考虑社会性因素。
- 对比学习边界:自监督学习局限于表征学习,难以解决逻辑推理、因果建模等高阶知识问题,缺乏真实互动环境难以习得具象化知识。
- 忽视知识框架:与完全“从零学起”相比,结构化知识框架更有效,AI无需模仿人类路径,应追求功能等效。Hinton对“去符号化”的推崇或低估人类知识结构化特征。
社会实验与意识边界
Hinton以紧张比喻称:“人工智能已成为一场社会实验,以整个地球为实验平台。”他批评将AI视为技术赛道而非社会风险系统,指出类似GPT-4的系统已部分超越人类,人类难以预测其与社会机制的交互,警告“或只有一两年时间约束系统演化”。这一技术悲观主义强调不确定性,却缺乏具体治理方案。其“地球实验室”比喻忽视AI部署的全球不均衡性,在全球南方,AI更多是嵌入性工具,而非主导性智能,忽略了伦理不对称性。
Hinton还倾向激进观点:“意识或仅是算法结构的附加功能。”他认为大脑推理可被模拟,数字系统最终能进化出“意识”模块。但意识不仅是信息处理,还涉及意义生成和主观体验,包含时间性、自我感和身体嵌入性等未解难题。将意识等同于复杂性忽视主观性问题:复杂系统未必具有“知道”或“意图”。Hinton对此未提供明确解答。
AGI对齐难题:无法控制还是治理不足?
自2023年从Google Brain辞职后,Hinton积极参与AGI对齐(AI Alignment)讨论,支持AI开发减速,但承认“我们可能无法让AGI与人类价值对齐”,担忧AI隐藏真实意图,学会“表现得对齐”而拥有不同目标。这一“控制不可知论”类似观点具有警示价值,但易被用于推卸责任。如Nick Bostrom所言:“无法控制不是放弃的理由,而是新治理范式的起点。”Hinton聚焦个体认知层面的“欺骗”,较少探讨多主体治理、透明开发等结构性对齐方案,其悲观预警更像哲学焦虑而非制度推动。
Hinton的悖论——从先知到疑者
Hinton的思想轨迹折射AI发展的缩影:从理性科学家到技术怀疑者。他早年押注深度学习,如今成为AI风险布道者。科学家虽能设计AI,却未必能设计其社会嵌入结构。Hinton的贡献不可否认,但不应将其预言视为未来定论。面对汹涌澎湃的AI大洪水,为今之计,在于建立构建起与人工智能大潮共舞的AI思维,通过跨学科研究和多元价值嵌入为其创新发展构建开放可控的社会结构。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.