![]()
![]()
文 | Innocent Roland
当埃隆·马斯克公开判断“2026 年实现 AGI(通用人工智能),2030 年集体智能将碾压人类”时,整个科技圈迅速被点燃。
在他看来,AI 正处在一条几乎无法减速的加速曲线上:能力每 7 个月翻倍,现有模型还有百倍潜力尚未释放,一旦放缓节奏,人类反而可能失去对系统的控制权。这种近乎“悬崖式推进”的判断,也让 AI 的未来被推向更极端的讨论区间。
与之相对的,则是相对而言更加保守的声音,以DeepMind CEO 戴密斯·哈萨比斯为代表的其他从业者则认为:“2030年前AGI落地概率仅50%”,他强调物理世界交互能力才是关键,安全测试必须先行;而“AI教父”辛顿更直接呼吁全球签署“AI开发暂停条约”,以防失控。
前 Meta 首席 AI 科学家杨立昆的态度则更加冷静甚至悲观。他和不少研究者直言,当前被频繁讨论的 AGI,更像是一种叙事工具;仅依赖大语言模型,几乎不可能真正通向通用人工智能。
关于 AGI 的争论从未停歇:它会在何时到来?是否真的存在?又是否会从根本上改变人类社会?答案仍然高度分裂。
为此,Morketing整理了包括2026年达沃斯世界经济论坛核心对话、《财富》、《The Verge》、《麻省理工科技评论》等权威渠道的专家论述,系统梳理全球顶尖AI科学家与机构负责人的观点,将其分为激进派、渐进派、降温派三大阵营,阐述他们对AGI实现时间、定义、监管及替代人类的看法,以期管中窥豹,一探AI未来之貌。
![]()
激进派:AGI诞生就在眼前,
进一步减少对AI的约束会带来革命性成果
首先是激进派,其代表人物是xAI创始人埃隆·马斯克(Elon Musk),同时Anthropic(2021年成立的公司,其代表产品是Claude)的CEO达里奥·阿莫迪(Dario Amodei),这两位的核心观点是AGI已经近在眼前,甚至可能不出两年,人们就能见到真正的AGI面世。
首先,根据他们的定义,所谓的AGI就是一个非拟人化意识的,能够独立完成诺奖级科研、全流程软件开发等复杂任务的完全体,其中埃隆·马斯克更为激进,在他看来,2026年底就能实现真正意义上的AGI,2030-2031年集体智能将超越人类,其依据是:AI能力每7个月翻倍,当前模型效率仍有100倍提升空间,将呈现链式反应式爆发。
当然,需要补充的是,作为并不单纯的“资本领袖”,考虑到埃隆·马斯克需要同时为投资人、资本和自己的“钱包”负责,其观点很可能受到利益的影响。
同为激进派的达里奥·阿莫迪就相对来说保守一些,在2026年达沃斯论坛上略微推迟了AGI落地的时间预期,体现出对技术不确定性的谨慎,但整体仍坚持AGI会在短期内落地。
这种对于AGI落地的乐观预估,自然会影响他们对于监管的态度。其中,达里奥·阿莫迪明确表示,“安全措施不应阻碍创新——AGI的潜在收益远大于风险,我们应在发展中解决安全问题”;埃隆·马斯克则进一步主张,“AGI应尽快落地,因为延迟落地会让人类失去对AI的控制权”。
总的来说,激进派对AI安全阈值、跨国监管约束持保留态度,优先考量技术迭代速度。
在这里我们要额外补充的是,虽然达里奥·阿莫迪表示安全措施不该阻碍创新,但Anthropic的研究也确实在安全技术上做出了一些贡献,其数据显示接入外部环境数据的大语言模型幻觉率可降低42%-68%,且其提出的“宪法AI”框架(简单来说,就是在模型训练数据中加入一套“伦理宪法”,如“不伤害人类”“诚实透明”等原则,让模型在生成内容时自动遵循这些原则。)的核心是用人类价值观约束模型行为,本质上是在创新与安全之间寻求平衡。
![]()
考虑到Anthropic的企业文化和相关内容宣传,Anthropic可能认为安全可以在发展中解决的问题,从而让AI能够快速迭代的同时让他们能够被安全且无害的被应用到日常生活中去。
最后,在受大多数人关注的效率议题上,作为激进派的达里奥·阿莫迪预测:“AI将在1年内替代所有软件开发者,5年内替代50%的白领工作”,埃隆·马斯克则更为极端,认为“2026年AGI落地后,3-7年内一半的岗位将直接消失。”
这里我们需要补充一点,Anthropic旗下的一系列产品最强的能力,或者说最让其出圈的能力就是编程。
以相对稳定的Claude Opus 4为例,其测试数据显示,该模型在SWE-bench基准测试(评估模型解决真实GitHub问题的能力)中准确率达到72.5%;在TerminalBench测试(在多步骤终端代码生成任务中验证模型表现)中准确率为43.2%。且该模型目前在测试中可连续进行近7小时的代码生成和任务执行,因此已经有不少观点认为其很可能取代部分软件工程师以及从事简单代码编写和维护的初级程序员、代码审查员等。
这也解释了为何达里奥·阿莫迪认为AI会在一年时间里替代掉软件开发者,如果以此为推导,就意味着未来的AI将能够完成自我迭代的,这种颇具科幻色彩的预测,很难不让人想到经典影片《黑客帝国》。
从某种程度上来说,让程序员写AI来完成完全的自我替代,这种想法堪称“地狱级设想”。
当然,无论是达里奥·阿莫迪还是埃隆·马斯克,他们都是一家或者多家巨头企业的领导者。加上到近期埃隆·马斯克正在推动将自己麾下的一系列企业整合上市,以及Anthropic正寻求以3500亿美元估值融资,计划筹集总额250亿美元或更多资金。且在2026年1月19日有海外媒体报道称红杉资本计划对Anthropic重大投资,微软与英伟达也已承诺向其投资总计至多150亿美元。
因此,我们必须要意识到,他们的一系列观点都会受到其立场的影响。
![]()
渐进派:理性审慎者,
平衡创新与安全
相比激进派,渐进派的支持者更多,知名人士也不少。
包括DeepMind(代表产品是Gemini,以及AlphaGo)CEO戴密斯·哈萨比斯(Demis Hassabis)、OpenAI(代表产品ChatGPT)/SSI联合创始人伊尔亚·苏茨克维(Ilya Sutskever)、“AI教父”杰弗里·辛顿(Geoffrey Hinton),以及不少顶尖AI科研机构从业者,他们的核心观点是“理性看待AGI发展,安全与创新并重,注重技术落地的实际价值”。
同时,他们整体更理性,也是当前AI领域的“主流派别”。
首先,在对AGI的定义上,渐进派就产生与激进派完全不同的结论。以戴密斯·哈萨比斯为例,他将AGI定义为“具备人类所有认知能力——包括顶尖科学家与艺术家的创造力的系统”,强调AGI需具备自主提出科学猜想、实现跨领域创新的能力。这一观点与OpenAI联合创始人Ilya Sutskever的早期表述一致,后者曾将AGI描述为“能像人类一样学习并最终超越人类的系统”。
而且,他们对于AGI落地的时间上也秉持着更为谨慎的态度,在戴密斯·哈萨比斯看来,虽然现在AI依旧在不断进步,此前大语言模型的撞墙言论并不可信,但在2030年前AGI落地的概率也只有50%。
最难解决的核心问题是与物理世界的交互能力,在他看来对物理世界因果关系和运作机制的“理解”,恰恰是实现AGI的关键,因此目前的大语言很难成为AGI诞生的沃土,与之相反融合视觉、听觉、视频和语言的多模态模型,反而有可能形成完整世界认知的能力,最终产生真正的AGI。
依旧是持续学习,目前的大模型,只能说在训练阶确实能在一定程度上学“学习”,但在部署后,当前的模型无法在与用户的交互中持续学习。
另一方面则是与物理世界的交互能力,在他看来对物理世界因果关系和运作机制的“理解”,恰恰是实现AGI的关键,因此在这点上多模态模型要远比大语言模型更有优势,这种融合视觉、听觉、视频和语言以形成完整世界认知的能力,才是通往AGI的必经之路。
需要指出的是,专家们的预测并非一成不变。例如,伊尔亚·苏茨克维就曾公开调整其AGI时间表:他在2025年TED演讲中预测“5-10年就能实现AGI”,但在2026年2月的访谈中则改口称“规模时代结束,高质量数据枯竭,算力边际效益递减,需构建“通用学习直觉”而非单纯堆规模,AGI需新范式”,当然,这种变化本质上是对AI发展逻辑的重新认知,因此,我们也需要意识到AI和世界一样处在动态变化中,预测也并不一定是准确的。
其次,在监管层面上渐进派是“主动安全约束”的核心推动者,主张将安全机制嵌入模型训练全流程。
虽然这点听上去和Anthropic的“AI宪法”很相似,但其限制远比Anthropic的更为严格。例如,杰弗里·辛顿就提出“电路断路器”与暂停协议,主张在AI系统中嵌入自动降级开关,当模型出现不可控行为时自动冻结并报警,同时呼吁各国签署“AI开发暂停条约”,出现失控迹象时全球暂停前沿模型训练至少72小时。
与之相似,戴密斯·哈萨比斯则将安全测试作为AGI落地的前提,指出“AGI的安全阈值应与技术能力匹配,因此我们需要在实现AGI前,完成至少3轮全场景安全测试。”具体到行动层面上,DeepMind已在Gemini模型中落地“电路断路器”机制,在高风险任务处理中启动红色预警模式,由人类专家二次验证。
伊尔亚·苏茨克维更是将安全视为AGI的核心前提,强调“如果首批强大的系统不能做到‘关爱众生’,那局面会变得非常危险”。虽然这些言论和行动,听起来像是在防范科幻小说中才有的“铁人叛乱”(桌游《战锤40K》中人工智能叛变人类的设定)。
然而,若考虑混沌理论——微小差异导致长期不可预测性,以及安全约束在特定场景下提升效率的可能,那么渐进派在安全上的谨慎态度便并非全无道理。
最后,在人们最为关注的效率层面上,渐进派同样更加保守也更加温和,他们的核心观念是“AI辅助论”,强调AI的核心价值是增强人类智能而非替代人类。
戴密斯·哈萨比斯认为,“AI的核心价值是‘增强人类智能’(Augmented Intelligence),而非‘替代人类’,也就是说AI应作为科学家、医生的助手,而非替代者”;伊尔亚·苏茨克维则进一步指出,“AI的效率价值不是‘替代人类’,而是‘释放人类创造力’,因此AI应承担重复性工作,让人类专注于创新”。
同时,他们大多认可AI落地中存在“效率幻觉”,认为真效率的实现需要AI与业务流程深度融合,而非单纯追求实验室中的高效表现,对企业AI落地的“J型曲线”持理性看待态度。
例如戴密斯·哈萨比斯在近期的采访中谈及AI泡沫时就说过:“对于像Alphabet(谷歌母公司)这样拥有深厚技术积累和庞大业务底座的公司来说,无论泡沫是否破裂,我们都能赢。因为即使明天AI的进步突然停止(虽然他认为这不可能),仅仅是现有的技术,就已经足够让我们的搜索、YouTube、办公套件等业务产生巨大的效率提升和体验变革。”
![]()
降温派:技术怀疑者,
警惕过度炒作
最后则是保守派,或者说是降温派,对他们而言,AI现如今的热度已经远超AI能够实际产生的价值。
以“卷积神经网络之父”,前Meta首席AI科学家杨立昆(Yann LeCun,和杰弗里·辛顿一起获得图灵奖,美国国家科学院、美国国家工程院和法国科学院院士)为核心代表,立场更为悲观审慎,核心观点是“当前AI技术存在本质短板,AGI短期内无法实现,行业过度炒作AI的能力与价值”,是AI领域的“理性派”。
![]()
在AGI发展上,降温派彻底否定当前技术路径实现AGI的可能性,甚至质疑AGI定义的合理性。杨立昆认为“AGI一词已沦为炒作工具”,主张用“高级机器智能”替代AGI概念,其核心判断标准是系统是否具备物理世界的因果推理能力,而非在语言或逻辑任务中的表现。甚至明确表示“大语言模型永无AGI,新范式落地需数十年。”
简单来说,在他看来,如果继续依靠现有的大语言模型,就意味着AGI永远不会出现,其核心观点与戴密斯·哈萨比斯类似,同时由于现有的大语言模型无法构建和理解物理世界,其语言能力成功地掩盖了模型最大的缺陷,这使得现如今的AI模型虽能通过律师资格考试,却无法理解物理世界的基本规律——这也是我们尚未拥有通用机器人或实现Level 5自动驾驶的原因。
或许正是因为这种理念,使得其在开发思路上也与戴密斯·哈萨比斯有一定程度的重叠,双方都更注重多模态,和视频数据训练,只不过相比戴密斯·哈萨比斯而言,杨立昆对于技术AGI的问世持有更谨慎且悲观的态度,毕竟新范式都需要十年才能落地,AGI自然是遥遥无期。
其次,则是监管层面,在监管和安全治理方面,杨立昆却显得颇为激进,在他看来当前的AI安全担忧毫无疑问是“被过度炒作的”。
在杨立昆看来,“现如今的大语言模型连基本的物理世界理解都没有,谈超级智能风险为时过早”,这就意味着当前全球范围内的安全约束与监管措施过于严苛,反而是忽视了AI技术的局限性,过度约束反而会阻碍正常的技术研发与应用,这似乎与激进派形成呼应,这也是为什么我们并没有将这一派认定为单纯的保守派,而是将其定义为“降温派”的原因。
但值得注意的是,虽然双方都认为应该减少监管,但与激进派不同,降温派的核心逻辑是“风险尚未显现”而非“收益大于风险”。因此,从某种程度上来说,他们对于未来的预估确实更加保守,也更加慎重。
最后,在效率价值层面,降温派则认为AI的效率价值被过度高估,甚至可以说是过度炒作。
杨立昆曾经在多个不同的采访和自己的文章中都表示过,“当前AI的效率价值被过度炒作,毕竟大语言模型连基本的物理世界理解都没有,谈替代人类为时过早”,虽然他认可AI确实能在部分场景中提供一定的辅助价值,但坚定地认为AI不可能在短期内带来效率革命。
值得注意的是,降温派与其他流派不同,他们直接认为“效率幻觉”的存在本质上是技术能力不足的体现,而非落地过程中的阶段性问题,因此除非更改AI范式,并推动技术进步,否则效率幻觉会一直存在。
例如LambHam 2026年1月的研究显示,AI产生的错误与幻觉,需人类花费大量时间修正,而这一成本约占AI预期价值的40%。例如,某软件公司采用AI代码生成工具后,开发速度提升了20%,但代码错误率也提升了15%,导致测试与修正时间增加了30%,净效率反而下降了10%。
只不过,在最后的结尾上降温派和激进派再度出现分歧,在降温派看来,虽然现如今对于效率的提升是源自技术不足,但即使技术进一步发展,AI也不可能完全替代人类劳动,对AI替代人类劳动的观点持彻底否定态度。
![]()
结语
总的来看,三大派别立场迥异,却存共性:一是纯文本大语言模型无法实现AGI,构建理解物理世界因果关系的“世界模型”是必经之路;二是2026年是AI从“规模驱动”向“范式重构”的转折节点,多模态模型或成核心技术。
尽管三方对AGI落地时间(1年至20年以上)、落地路径分歧巨大,但现阶段AI仍需在创新与监管、幻觉与现实、替代与协同中稳步发展。正如伊尔亚·苏茨克维半年内改变AGI预测所揭示:AI发展与世界一样动态多变,其未来或将以超预期方式变革——这一切,唯有时间能给出答案。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.