来源:澎湃新闻
【编者按】在人工智能技术浪潮席卷全球的今天,“超级智能”(Superintelligence)已从科幻叙事与理论推想,日益演变为一个严肃的学术议题与未来现实关切。这一概念自哲学与计算机科学领域萌芽,历经数十年理论积淀,随着通用人工智能(AGI)技术的快速迭代,正加速步入公共视野与政策讨论的核心地带。在2025年世界人工智能大会(WAIC)上,学界泰斗对超级智能临近的预警及全球治理的呼吁,进一步凸显了该议题的紧迫性与复杂性。
当前,超级智能的讨论已超越技术范畴:阿尔巴尼亚任命全球首位AI部长“迪埃拉”以应对腐败,折射出治理层面的探索;马克思主义视角下,AI既被视为“实现更高阶段理想的物质条件”,也暗含“人类被机器奴役”的风险警示。在此背景下,本刊自2026年第1期特设“超级智能与未来人类”专题笔谈,特邀中国人民大学刘永谋教授担任主持人,汇集哲学、马克思主义理论、人工智能、艺术与 国际关系等领域学者,从技术伦理、资本博弈、社会重构等维度展开跨学科审度。我们期待通过思想碰撞,穿透概念迷雾,为超级智能时代构建人类命运共同体提供学理支撑。
![]()
【摘要】“超级智能”的概念已被AI产业界和部分媒体过度炒作,其光鲜的外衣与模糊的技术定义、实际的技术内涵以及可能带来的社会效应和被忽视的潜在风险形成了强烈反差。这种喧嚣的目的并非纯粹的科学探讨,而是为了争夺资源、影响舆论和确立商业与技术霸权,本质上是一种旨在吸引投资、制造焦虑、争夺话语权的话术。
尽管人工智能技术加速发展已经是一个不争的事实,但是关于它的技术路线、经济效益和社会意义的争论也从未停止。最近,《大西洋月刊》和《经济学人》更是接连发文,从不同角度指出,不应过高估计人工智能技术的突破性飞跃及其意义,目前正在经历一场人工智能泡沫,投资者的兴奋情绪已远远超前于该技术近期的生产力效益。然而与此同时,国内外各科技公司纷纷推出新产品或产品迭代,甚至在提出“通用人工智能”的同时还提出了“超级智能”(Superintelligence)的概念。即使是在科技界,不同的发展路径和方向预测之间也屡有交锋。一时间,头绪纷杂,话语各异。在这场纷繁的喧嚣中,该如何理性思考人工智能技术的未来发展呢?
一、智能发展史:从科研导向到市场导向
最近几年以来,人工智能技术的狂飙突进,不仅体现在具体的技术推进上,还包括层出不穷的新概念所引发的认知革命。从2022年开始,OpenAI推出ChatGPT,仅用两月便使生成式人工智能深入人心;2023年底,Google推出多模态大模型,强调不同模态信息之间的转译;2024年初,OpenAI再推出号称“世界模拟器”的文生视频大模型Sora,以60秒一镜到底的生成视频刷新公众想象。之后,是“通用人工智能”和“具身智能”齐头并进的热议,直到马斯克给出“超级智能”倒计时的日程表。伴随巨头公关的节奏,人工智能界的概念更新进入“月更”甚至“周更”模式:从Transformer、Diffusion、多模态、涌现、思维链、具身智能、世界模型,到最近的可扩展监督、测试时训练、长上下文压缩……几乎每一轮产品更新,便有一场营销带动的“范式革命”通稿铺满科技媒体,裹挟着人们的兴奋值和资本估值一路飙升,仿佛科幻走进现实指日可待。
然而在技术话语的喧嚣落定后,多数新兴概念迅速从主流议程中退隐。曾经承载万亿级商业想象的“元宇宙”,因内容生产的匮乏与用户体验的实质落差,其商业热度迅速退潮;2021年成为投资新宠的“NFT”艺术叙事,因市场泡沫破裂,于2023年陷入交易量暴跌96%的困境;2022年曾被誉为AI自主意识灵光的“涌现”能力经后续实验验证,多属复杂系统可解释性缺陷导致的幻影;大多数“多模态大模型”基本仍以大语言模型作为基础,向其他模态信息转译,且无法保证转译的信息密度匹配;“通用人工智能”则因定义含糊和功能模型不明根本未进入落地阶段;“具身智能体”则受限于硬件可靠性与环境适配性,其精心剪辑的演示视频与实验室外的应用落地形成鲜明反差。上述现象揭示,多数曾一度被标榜为科技发展“里程碑”的概念,实际上是技术营销、媒体传播与资本运作合谋催生的阶段性“产品”和叙事,大多数会在实践中因技术根基薄弱、生态支撑缺失或认知偏差矫正而迅速归于沉寂。当下的“超级智能”范畴正是这种概念营销的最新套路。其话语体系所着重鼓吹的自主学习与自我改进等能力实际上不过是一直以来AI技术发展的目标。然而,当这种在某方向上的进展被选择性放大和包装成“超级智能”的前奏的时候,它的营销目的早已远远大于技术主张,不但误导了投资者和用户对于人工智能的期待,而且将真正的科研与公共利益抛在身后。
人工智能行业的这种“概念通胀”现象在一定程度上反映了这一行业与资本的紧密联系。事实上,在更早的时候,人工智能研究曾经是学术界和政府研究机构的专属领域。1956年达特茅斯会议不但首次提出了“人工智能”的概念,更标志着它作为一门学科的诞生。此后数十年间,美国人工智能研究主要依靠国家科学基金会(NSF)、国防高级研究计划局(DARPA)等政府机构的资金支持,在以大学为主的研究环境中“用机器模拟人类智能”。这种发展模式其实是很多依赖大量基础研究的科技创新的早期发展路径:政府资助基础研究,学术界产生突破,产业界随后进行商业化应用。
然而,随着技术创新影响因素和投资渠道的变化,在过去的十年间,这一格局发生了根本性转变,处于行业领先地位的科技公司逐渐成为人工智能研究的主导力量。这些科技巨头凭借着其庞大的用户基础和业务生态,积累了学术界难以企及的海量数据资源,同时,他们借助商业资本所掌握的算力资源,也远远超出了大多数学术机构的预算能力和发展规模。数据和算力的双重驱动正是这一阶段人工智能飞跃发展的核心原因。在这些因素的共同作用下,人才迁移也大规模出现:顶尖AI研究者纷纷从学术机构流向科技公司的研发实验室,因为后者能够提供前所未有的研究资源、薪资待遇和现实数据应用场景。
政府资助在人工智能研究总投资中的比例显著下降,学术界越来越依赖产业界的资金支持。这种转变不仅重塑了人工智能研究本身的方向和节奏,也对技术传播方式、市场估值以及社会效应产生了深远影响。科技巨头主导的人工智能研究更加注重即时商业应用和专有技术开发,公共知识积累转而居于次要地位,这在一定程度上改变了创新的本质和方向。
相应地,科技公司通过媒体发布的信息也不再是中立的科普或知识分享,而是战略性的市场行为,旨在吸引投资、圈定用户和抢占先发优势。研发团队倾向于发布令人惊叹的“演示”(Demo)或经过精心设计的成果,直接向媒体和公众传递其精心打磨的叙事,成为信息的第一定义者。媒体在很大程度上失去了自主解读的能力,只能跟随和放大这些营销话术。这就使得关于人工智能的公开讨论很多时候都不再是一个基于事实和理性的“公共领域”,而退化为被营销预算和流量算法所操纵的战场。公众难以获得全面、客观的信息来形成独立的,甚至批判性的判断。立法者和监管者同样暴露在这种失衡的信息环境中。他们接收到的信息大量来自拥有强大游说能力的科技公司,这可能导致政策制定向产业利益倾斜,而忽视了公众利益和长期风险。从“元宇宙”到“超级智能”,每一次话语更迭背后,都是一次“新的简化+神话叙事”的盛行,这一次的“超级智能”亦不例外。
二、AI“概念通胀”背后的技术与市场
Java语言创始人之一詹姆斯·高斯林就曾不止一次地以其直言不讳的风格对AI领域的现状进行批评,他指斥“人工智能是一个带有一堆问题的营销术语”,认为科技公司对于大语言模型“智能化”的各种助推掩盖了其工具性的本质和在自主推理能力方面的不足,从根本上讲是为了资本增殖服务。无独有偶,《经济学人》也推出了一篇由普林斯顿大学的两位计算机科学家合著的文章,他们提出,人工智能其实远没有想象的智能化,作为一项“普通技术”,其在行业应用中的普及速度远远小于技术创新的速度。这也就意味着,它实际发生的社会影响并没有达到科技公司所鼓吹的程度。这一观点得到了高盛在数据方面的肯定。高盛在2025年9月发布的一份报告指出,尽管人工智能话题已成为最近几年最吸引眼球的热点,但截至2025年第三季度,美国作为人工智能技术推进和产品研发的领跑者,仅有9. 7%的美国企业正在使用人工智能生产商品或提供服务。这不足10%的行业渗透率与资本市场对人工智能概念的疯狂追捧形成了鲜明对比,它在一定程度上以现实经验戳破了一个正在加速膨胀的泡沫:被营销话术刻意抬高的AI神话。然而,低于预期的产业落地数据并未削弱“超级智能”叙事的扩张,相反,它所形成的悖论恰恰暴露出技术定义、市场预期与落地能力之间的深层断裂,而这也正是之前的AI神话叙事衰减的节点。
从前文所述的AI概念的通胀史可以看出,超级智能概念的炒作并非偶然,它是技术需求制造和资本(引资方与投资方)博弈共振的结果。当通用人工智能概念因其方向争议和技术瓶颈而逐渐失去炒作价值后,“超级智能”便成为引导下一轮欢呼的新标签。
OpenAI首席执行官萨姆·奥特曼宣称超级智能近在咫尺,Anthropic则预测其可能在2026至2027年超越诺贝尔奖得主。但事实上,和“通用人工智能”相对明确的多功能指向不同,“超级智能”一词的流行首先得益于其不可证伪的模糊性。尼克·波斯特洛姆(Nick Bostrom)将其界定为“在几乎所有认知领域大大超越人脑的智能”,这一有着极强科幻色彩和未来感的概念本身极具诱惑力,但波斯特洛姆的感性描述却在定义方面呈现出策略性匮乏,既缺少比较的量化基准,也难以与现有的技术产品功能严格区分。
其实,早在“通用人工智能”概念盛行的时候,李飞飞就曾严肃地提出过批评。她多次在公开演讲和文章中直言通用人工智能并不属于人工智能教育的概念。在她看来,AGI并非一个具有明确技术边界的科学目标,而更像是一个被资本市场重新包装过的叙事符号,其功能不在于指导研究,而在于制造下一阶段的增长神话。当“深度学习”带来的性能红利逐渐走向极值却又难以在落地中产生新的增长点的时候,行业就需要一个新的制高点来延续投资热情,无论“通用人工智能”还是时下正当红的“超级智能”都顺理成章地成了话术链条的接力棒。甚至奥特曼本人也承认AGI定义随着人工智能技术的快速迭代而愈加模糊,这一术语“更多地反映了行业的愿景,而非能够准确描绘技术进步的实际状况”。李飞飞的批评则更为尖锐,硅谷对AGI的痴迷正在导致资源严重错配:大量人才和算力被投入一个既无法被严格定义、也难以被实验验证的“终极目标”中。AGI越模糊,就越容易被不同利益方赋予各自需要的内涵:对初创公司而言,它是下一轮融资的故事骨架;对大型平台而言,它是股本溢价的心理支点;对媒体而言,它是点击率的保证;对政策制定者而言,它则是“未来竞争力”的话语抓手。
“超级智能”正是在这一逻辑上被进一步放大的产物。既然AGI的“通用性”已被反复质疑,那便再往上加一级“远超人类”的修饰,制造出更为稀缺、也更具想象空间的标签,这和元宇宙NFT艺术品的稀缺性炒作路径如出一辙。资本对超级智能的追逐已形成自我强化的循环。Meta为超级智能团队开出数百万美元年薪,IlyaSutskever离开OpenAI后创立安全超级智能公司。学术界的追捧也进一步推高了这一话题的热度。Meta超级智能实验室成立仅数月便发布多篇论文,宣称通过自举进化提升模型性能;约书亚·本吉奥等学者将AI通过考试和多语言交流等能力作为超级智能“指数级逼近”的证据。这种片面的指标衡量导致了学术讨论和研究方向的狭隘化:部分学者为追求突破性成果,过度关注短期可量化的单项评测指标,而忽视超级智能的核心定义问题:究竟何种能力才算“超越人类”?
而且,当前AI技术可解释性的缺失与算法性能之间的矛盾还进一步使得超级智能与现有AI技术目标的边界彻底消融。研究表明,“性能最好的算法(如深度神经网络)是最难以解释的,而可解释性最好的算法(如线性回归或简单决策树)准确度却最低”②。这种性能与可解释性的矛盾在技术上限制了AI技术应用的可靠性,却在资本的炒作和叙事下被转化为技术发展过程中的“阶段性挑战”,并承诺只要实现所谓的“超级智能”就可以被解决。而这将当下技术缺陷寄希望于未来的“承诺”,实际上是在掩盖现有大语言模型依然属于基于上下文关联的概率统计模型的现实。因此,当前被吹嘘的“跨领域能力”,实质是GPT-4等大模型的统计关联能力,与李飞飞和杨立昆批评的大语言模型的局限性并无本质区别。所谓“自主决策”和“自我迭代”,不过是在系统预设算法的框架内执行。尽管强化学习系统能通过试错优化策略,但这与真正的自主决策仍有本质区别。“自主”话语的炒作不但掩盖了AI系统完全依赖于训练数据和预设目标函数的事实以及它内在的不平等,更为企业规避算法决策的责任提供了借口。DeepMind联合创始人哈萨比斯坦率地承认,现有AI只是“碎片化智能”,与真正的“超越人类”的通用能力相去甚远。然而,这些定义含混的话语不但没有激起更多的技术追问,反而造成了AI研究的路径依赖。Transformer架构的成功让行业形成了“更大模型=更强智能”的暴力美学式的思维倾向,不断在数据和算力上形成竞争。超级智能概念成为维持这种路径的“合法性叙事”:只要宣称通向超级智能,就能继续获得资金投入和市场关注。在这个意义上,超级智能概念更像是被用作吸引顶尖人才、获取投资和政策支持的营销工具,而非科学目标,OpenAI、谷歌等公司的商业模式更是高度地依赖于不断炮制技术愿景的炒作。这正是前文所谈到的AI研究主导权转移的必然结果之一。
一旦学术研究与商业利益的界限日益模糊,则不可避免地会导致严肃的技术讨论被商业话术所主导。而“AI概念通胀”的话术制造策略的真正秘诀其实在于:当技术性能无法继续实现指数级跃升时,资本便通过升级概念、放大时间尺度和抬高抽象层级来维持估值泡沫,让“即将”但难以落地的超级智能成为无法证伪的漂浮能指。摩肩接踵的“未来”成为承诺机制的核心盈余。只要定义保持模糊、曲线保持陡峭、折现保持通畅,神话就能在话语层面自我续航,而真正的技术落地与社会价值,并不在承诺的范围内。从这里也就不难理解,为什么近几年AI行业会出现这种看似矛盾的现象:一方面,科技公司宣称的技术突破和产品迭代层出不穷;另一方面,它所带来的真实生产力提高和社会公共进步却极为有限。而且,对“超级智能”的性能和风险的鼓吹也有利于将公众和监管者的注意力从当前人工智能发展中切实存在的风险引向遥远而抽象的“末日威胁”,引导政府出台利于自身(通常是头部科技公司)的监管规则,不但可以逃避当下的责任,更可以抬高行业门槛,压制潜在的中小规模的竞争对手。中小企业若需高性能算力,需支付高昂的云服务费用,AWSTrainium芯片的小时租金就超过了100美元。即便依赖开源模型,“模型微调+推理”的算力成本仍使大多数初创企业望“洋”兴叹。
三、超越话术:技术发展与社会发展的平衡线
尽管“超级智能即将到来”的叙事正被资本与科技企业反复渲染成指日可待的技术愿景,但复盘2025年9月底Anthropic、DeepSeek、OpenAI等头部企业的密集动作,再结合近期行业落地的需求动态可以看出,各大科技公司的战略重心早已转向构建符合其技术特性、促进盈利的独特生态壁垒:DeepSeek的V3. 2用低训练成本发起大模型价格战;ClaudeSonnet4. 5在维持原价的情况下提升了性能(但并没有给出详细数据) ;Sora2虽然在技术上声称“首次实现视频+音频同步生成”,但其真正的战略转向是其社交APP的建立。比起通过媒体鼓吹的营销策略,各大企业的真实举措更能体现出其意图与“超级智能”话术之间的巨大鸿沟。这种割裂并非偶然,而是技术规律与社会发展逻辑共同作用的必然:AI对社会进步的推动,从来不是一旦越过某个临界点,社会便将自动跃迁到更高文明层级,而是必须真正思考科技进步与社会进步之间的真实关系。
技术发展的内在逻辑决定了“超级智能”的叙事更多是资本市场的营销工具,而非技术演进的必然结果。人工智能的发展本质上是一个渐进式的过程,每一代技术的突破都需要在算法、算力、数据、场景等多个维度上实现协同优化。从企业的角度而言,只有在现有技术框架下,降低成本、提升效率、扩大应用场景才是可持续的商业路径,而非盲目追求技术参数的无限膨胀。更值得注意的是,生态壁垒的构建已成为头部企业竞争的核心策略,这种转向本身就意味着对“超级智能”叙事的实质性背离。Sora2推出社交APP的举动,揭示出其战略重心已经转向平台生态打造,即通过社交场景锁定用户数据与使用习惯,形成可持续的商业闭环。这种策略选择背后是对技术扩散规律的深刻洞察:在AI技术日趋同质化的背景下,真正的竞争壁垒不在于模型参数的领先,而在于能否构建起涵盖数据、场景、用户、服务的完整生态系统。这种生态竞争的本质是“连接红利”而非“智能红利”,其成功依赖于对用户需求、行业痛点、监管环境的精准把握,而非对某种终极智能的无限逼近。
从更宏观的视角看,这种理性转向反映出技术企业对社会发展规律的被动适应。AI技术的社会嵌入过程绝非简单的“技术输出—社会接受”线性模型,而是需要经历复杂的制度调适、利益重构、文化适应过程。当监管框架对数据使用、算法透明度、AI伦理提出越来越明确的要求时,企业必须将合规成本、社会接受度纳入技术路线图的考量之中。这种外部约束进一步压缩了“超级智能”叙事的空间:在监管与社会问责的聚光灯下,企业更需要证明其技术如何改善就业质量、改进公共服务、促进公平竞争,而非展示某种可能引发社会焦虑的“超能力”。毕竟技术的发展最终还是需要落实到其成果被社会广泛共享上。卡内基梅隆大学的一项研究表明,“那些容易遭受负面影响的相关方(第三方个人、组织、社区及社会整体)与享受生成式人工智能红利的受益群体(终端用户和创作者)未必是同一群体”。这意味着如果技术的发展不能通过合理的监管和设计转化为具有普惠性的社会资源,其发展反而会带来更加复杂的社会问题,其所谓的“技术红利”也不过是无本之木。因此,面对“超级智能”叙事可能引发的监管焦虑或技术冒进,政策框架更应聚焦于如何建立技术红利向社会红利转换的制度通道。
即便重新回到“超级智能”的技术赛道也会发现,现有的AI技术,无论迈向多模态的大语言模型还是对标真实物理空间的“世界模型”,都没有具备突破性“全方位”超越人类思维的能力。继scalinglaw的效能有限性之后,被寄予厚望的强化学习与可验证奖励(RLVR)方法对于大模型在推理能力方面的成效也被质疑。清华大学和上海交通大学的实验室测试发现,当前主流的RLVR方法并没有为LLM带来根本性的新推理模式。经过RL训练的模型,其推理能力的边界实际上是被其对应的基础模型(BaseModel)所限制的,甚至在训练后这个边界还会收缩。论文发现,RL训练后的模型之所以在常规测试中表现更好,不是因为它学会了解决新问题,而是因为它能更大概率地、更快速地(在更少的尝试次数内)生成那些基础模型本来就能生成的正确答案。这本质上是一种分布上的“提纯”或“聚焦”,而非能力的“扩张”。
在对标真实世界的具身智能领域,技术瓶颈同样清晰可见。尽管谷歌、DeepMind等机构通过搭建大模型驱动的智能体架构实现了特定场景的任务优化,但这种进步严格局限于结构化环境。相关的行业研究指出,具身智能机器人在封闭的工业场景中成功率虽高,但一旦进入开放的家庭或公共环境,面对未预设的障碍物、动态干扰等变量,成功率会骤降。这是因为现有具身智能依赖的“视觉-语言-动作(VLA)”模型,其实是对训练场景中物理规律的统计拟合,而非真正的物理经验,更无法迁移到重力、摩擦力不同的新环境。这种对特定场景的强依赖,使其难以成为通向通用超级智能的基石。
这些困境背后,还存在着数据与算力的硬约束。Meta研究员JackMorris在2025年的分析中强调,现有超级智能研究高度依赖人类撰写的文本数据,但互联网可用文本已接近枯竭,且非文本数据(图像、视频等)至今未能证明能提升模型的核心智能水平。算力成本则构成了另一重掣肘:当前大模型的推理成本正随着长思维链和对话轮次的增加而不断提高,这使得模型在技术因素上根本无法像人类大脑那样实现高效的持续认知活动。
如果抛开这种竞赛式的AI发展道路进行反思,就会发现智能的价值其实并不在于无限逼近甚至取代人类,而在于能否以科技真实地促进社会发展。人工智能领域的竞争不应仅仅聚焦于技术的制高点,而应更多关注其对社会的实际影响。当前对高算力、高参数大模型的狂热追求,虽拓展了技术创造场景、提高了知识生产能力,却也掩盖了对真实社会问题的关注。这种数字加速主义和技术决定论的倾向,将技术发展简化为参数增长,忽视了社会发展的复杂性。实际上“人工智能的应用既非普适也非中立,而是具有文化依存性、领域特异性及伦理定位”②。所以,技术本身无法自动解决社会问题,还需要政策设计与技术结合。因此,人工智能的发展更应该避虚就实,摆脱军备竞赛式的追逐,将资源和注意力回归到解决实际社会问题上。只有在真实的社会关系中找到AI技术的定位,才能开启更负责任的未来。
(本文转载自《阅江学刊》2026年第1期,原文注释从略。)
【本文系江苏省社会科学基金年度项目“ 平台资本主义的批判与超越:平台合作主义探索研究”(25ZXB001) 。】
来源:吴静(南京师范大学公共管理学院哲学系教授),董屹泽(南京师范大学公共管理学院博士研究生)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.