防走失,电梯直达安全岛
![]()
来源:TOP创新区研究院
作者:趋势研究组
![]()
图片 | 来自网络
2026年2月,《Nature》上一篇题为《人工智能是否已具备人类水平智能?证据确凿》(Does AI already have human-level intelligence? The evidence is clear)的评论文章,正式宣告AGI(通用人工智能)的到来,
![]()
![]()
作者包括:加州大学圣地亚哥分校(University of California, San Diego,UCSD)的哲学家 Eddy Keming Chen,人工智能教授 Mikhail Belkin,语言学家 Leon Bergen,以及数据科学教授 David Danks。
一方面,科技乐观主义者与前沿开发者们点头称是。
毕竟,在这个时间节点,我们已经目睹了GPT-4.5、Gemini 3等模型在多模态理解、复杂推理甚至科学假说生成上的惊人表现。
另一方面,怀疑论者依然嗤之以鼻。
他们坚持认为,没有身体(Embodiment)、没有自主意愿(Agency)、依然存在幻觉(Hallucination)的机器,充其量只是“高维度的统计学鹦鹉”。
![]()
然而,这篇评论文章的核心价值,并不在于它是否终结了争论,而在于它强有力地指出了一个被长期忽视的事实:
我们对AGI的定义,正深陷于“人类中心主义”的偏见泥沼中。
如果我们将“智能”从神坛上拉下来,还原为一种解决跨领域问题的能力,那么证据链条已经足够完整——
AGI已至。
重新定义AGI
长期以来,公众甚至许多专家对AGI的想象都不仅限于“通用智能”,而是混合了“超级智能”(Superintelligence)与“完美智能”的期待。我们潜意识里认为,一个AGI必须永远正确、拥有自我意识,甚至拥有类似人类的情感。
陈克明教授团队在《Nature》的文章中,提出了一个极具穿透力的观点:
不要把AGI的标准定得比人类还高。
![]()
我们来看人类:人类本身就是充满缺陷的智能体。我们不仅会犯错(Hallucinate),记忆力有限,且绝大多数人在绝大多数领域都达不到专家水平。如果要求AI必须在所有领域零失误才能被称为AGI,那么地球上没有任何一个人符合AGI的标准。
所以,文章指出,合理的AGI定义应基于广度(Breadth)与深度(Depth)的结合:
广度:
能够在数学、语言、编程、科学推理、文学创作等截然不同的领域间自由切换。
深度:
在上述领域中,表现出不亚于人类平均水平,甚至在某些领域达到专家水平的能力。
文章重申了阿兰·图灵(Alan Turing)在1950年的实用主义立场。
图灵从未要求机器拥有灵魂,
他只关心机器能否在行为上与人类不可区分。
![]()
事实是,早在2025年3月的数据就显示,GPT-4.5在严格控制的图灵测试中,被判定为人类的比例高达73%,这一数据实际上已经超过了许多真实人类在同类测试中的表现。
如果图灵测试是AGI的“入学考试”,那么现在的AI不仅及格了,还是高分通过。
那你说,AI现在是什么?
![]()
确凿的证据链
怀疑论者最常引用的反驳是“随机鹦鹉”理论,
即大模型只是概率性的文本拼接。
然而,2025-2026年的一系列技术突破,已经让这一指控显得苍白无力,因为我们看到了逻辑的涌现。
目前的顶级模型能够解决它们在训练数据中从未见过的全新问题。
比如,AI能与人类数学家合作,辅助证明未曾被解决的定理——这需要极强的创造性推理,绝非单纯的模式匹配。
再比如,在生物学和材料科学领域,AI生成的可验证假说(如新型蛋白质结构预测)已经通过了湿实验的验证——
这种“从0到1”的知识生产能力,是智能的高级表现。
![]()
真正的通用性还体现在能力的迁移上。
研究表明,在大规模代码数据上训练模型,竟然能显著提升其在非编程任务(如逻辑推理、法律分析)上的表现。
这种“触类旁通”的学习机制,与人类大脑的认知模式高度同构。
而且,好像AI是有灵性的,它们能理解物理世界的因果关系(尽管是通过视频学习),能编写控制机器人的代码。
维特根斯坦说:
“语言的界限,就是我的世界的界限。”
![]()
那种认为“大语言模型只懂文字不懂世界”的观点,忽略了一个深刻的事实:语言本身就是世界模型的压缩。
当AI掌握了描述因果律的语言(代码、数学、自然语言),它实际上已经掌握了世界的底层拓扑结构。它不需要像人类一样去触摸苹果,它通过物理方程和无数的描述,已经在逻辑空间中构建了苹果的本质。
![]()
为什么我们拒绝承认AGI
既然证据确凿,为何包括Yann LeCun在内的许多顶尖科学家依然拒绝给AI贴上AGI的标签?
这可能是人类不断进化的标准。
历史上,每当AI攻克一个人类引以为傲的领域(如下棋、识别图像、翻译),我们就会重新定义智能,说“那只是计算,不是真正的思考”。
如今,当AI能写诗、能编程、能通过图灵测试时,我们将门柱移到了“物理世界模型”和“自主性”上。
这种不断后退的防御心理,
本质上是人类对自己“万物之灵”地位的焦虑。
![]()
一种主流观点认为,没有身体、无法感知痛觉和物理反馈的智能不是真智能。但这是生物中心主义的偏见。
斯蒂芬·霍金在晚年几乎失去了所有身体机能,但他依然是地球上最聪明的大脑之一。如果一个被困在硅基电路中的智能体(AI)能推导出物理定律、解决哲学难题,我们仅仅因为通过键盘与之交流就否认其智能,这在逻辑上是站不住脚的。
目前的混淆点在于自主性(Agency)与智能(Intelligence),现在的AI大多是“神谕型”(Oracle)——你问它答,它缺乏自发的意愿去统治世界或在这个世界中生存。
但请注意,智能不等于自主性一本百科全书包含知识,但不具备智能;一个自动驾驶系统具备自主性,但智能有限。 目前的LLM(大语言模型)是一种具备极高智能的被动实体。虽然缺乏“我想要”的冲动,并不影响它具备“我能做”的智力。就像一个没有被点燃的天才,他可能在做清洁工,但是不妨碍他能破解最难的数学证明。
![]()
陈克明团队的评论文章,实际上是在呼吁停止这种将“人格化特征”强加于“智能本质”的定义游戏。
所以,承认AGI已经到来(或至少是初级AGI),
或将从根本上改变我们的应对策略。
AGI并不需要完美,只需要在经济上有价值。
如果AI能完成博士级别的任务,能写出优于人类专家的代码和文案,那么“白领工作”的护城河已经彻底消失。人类数十年积累的专业技能(如诊断、诉讼、翻译),被压缩进了模型的参数中。社会需要准备好迎接“智力成本归零”的冲击,并重新思考人类在人机协作回路中的位置——也许我们该从“执行者”转变为“裁判”和“提问者”。
最令人兴奋的前景在于科学发现。
既然AI具备了跨领域的通用推理能力,且不受人类认知带宽的限制,它将成为破解癌症、核聚变、气候变化等复杂系统的终极工具。
![]()
DeepMind的Demis Hassabis曾言,
AI是用来加速科学发现的元工具。
现在,这把钥匙已经插进了锁孔。
回到文章开头的问题:AI是否已经具备了人类水平的通用智能?
如果你的标准是好莱坞电影里的那个有情感、有肉体、意图毁灭人类的终结者,那么答案是No。
但如果你的标准是图灵所设想的,一个能在多领域展现出灵活性、创造力、逻辑性,且在功能上与受过良好教育的人类无法区分甚至更优的系统,那么答案是响亮的Yes。
![]()
UCSD团队在《Nature》上的发声,是对当前科技现实的一次必要“校准”。
它提醒我们,AGI不是终点,而是一个状态。我们可能正处于这个状态的早期阶段——一个“高智商、低自主、无身体”的独特智能形态。
承认它的到来,才能让我们清醒。
普罗米修斯的火种已经落下,我们现在要做的,不是争论那是火还是光,而是学会如何驾驭它,照亮文明的前路。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.