网易首页 > 网易号 > 正文 申请入驻

立场:停止把“AGI”当作人工智能研究的北极星目标

0
分享至

立场:停止把“AGI”当作人工智能研究的北极星目标

Position: Stop Treating ‘AGI’ as the North-star Goal of AI Research


摘要:

人工智能研究群体在塑造人工智能研究的科学、工程和社会目标方面发挥着至关重要的作用。在本文中,我们认为,将注意力集中在极具争议的“人工通用智能”(“AGI”)这一话题上,会削弱我们设定有效目标的能力。我们指出了六种关键陷阱——即阻碍有效目标设定的障碍——这些陷阱因AGI讨论而加剧:共识幻觉、助长劣质科学、预设价值中立性、目标彩票、通用性负债,以及常态化排斥。为避免这些陷阱,我们认为人工智能研究群体需要:(1)优先强调科学、工程和社会目标的具体性;(2)重视关于多种有价值目标的多种可行路径的多元主义;(3)通过纳入更多学科和社群来促进创新。因此,人工智能研究群体需要停止将“AGI”视为人工智能研究的终极目标。

1 引言

我们如何确保人工智能研究的目标能够满足科学、工程和社会的需求?什么是人工智能研究中的良好科学?谁有权塑造人工智能研究的目标?什么样的研究目标才算合理或有价值?在本文中,我们认为,当前对“人工通用智能”(AGI)的广泛强调,正在威胁研究人员为这些问题提供充分论证答案的能力。

近年来,大语言模型(LLMs)的进展激发了人们对“实现人类水平的‘智能’”作为人工智能领域“指路明灯式目标”的兴趣(McCarthy 等,1955;Morris 等,2024)。这一目标通常被称为“人工通用智能”(“AGI”)(Chollet,2024a;Tibebu,2025)。然而,AGI 的讨论非但没有帮助该领域围绕共同目标达成一致,反而使其陷入诸多争议之中。研究人员在 AGI 的定义、以及对其目标和风险的假设上存在分歧(Summerfield,2023;Morris 等,2024;Blili-Hamelin 等,2024)。此外,研究人员还对有关 AGI 的主张背后的动机、激励机制、价值观以及科学地位提出质疑(Gebru & Torres,2024;Mitchell,2024;Ahmed 等,2024;Altmeyer 等,2024)。最后,AGI 概念本身的构成要素——“智能”和“通用性”——本身也充满争议(Gould,1981;Anderson,2002;Hernández-Orallo & Séán Ó hÉigeartaigh,2018;Cave,2020;Raji 等,2021;Alexandrova & Fabian,2022;Blili-Hamelin & Hancox-Li,2023;Hao,2023;Guest & Martin,2024;Paolo 等,2024;Mueller,2024)。

本文在先前研究的基础上展开,这些研究包括:机器学习中探索性研究与验证性研究之间模糊性的探讨(Herrmann 等,2024)、对缺乏科学依据的性能主张的批评(Altmeyer 等,2024)、对“追求最先进性能”(SOTA-chasing)的反思(Raji 等,2021;Church & Kordoni,2022)、研究方法同质化的现象(Kleinberg & Raghavan,2021;Fishman & Hancox-Li,2022;Bommasani 等,2022),以及机器学习研究中隐含的价值观问题(Birhane 等,2022b)等。我们的论述识别出人工智能研究中有效设定目标的关键障碍——即“陷阱”1。我们在此提出这些陷阱,作为对目标设定中存在问题的诊断。我们认为,这些问题在规范上值得重视,但AGI叙事使其难以克服。为避免这些陷阱,我们主张各研究群体应停止将AGI视为人工智能研究的“指路明灯式目标”2。

我们讨论中的一个核心主题是研究群体在区分炒作与现实方面所肩负的独特责任。人工智能研究成果正以前所未有的速度被部署为现实世界中的产品,应用范围不断扩大,影响着数十亿人。这迫切要求我们开展工作,以提供可信的、基于证据的答案,来评估人工智能工具在科学、工程和社会方面的价值。正如联合国人工智能咨询机构所指出的:“信息量极其庞大……使得人们难以分辨炒作与现实。这可能引发困惑,阻碍共识形成,并使主要人工智能公司受益,而牺牲了政策制定者、民间社会和公众的利益”(联合国,2024)。本文正回应了这一主题:我们所指出的六个陷阱中的每一个,都是区分炒作与现实的障碍。

讨论中的另一个次要主题是人与技术之间的关系。最终,我们认为,人工智能界不应追求单一的“指路明灯式目标”,而应致力于实现多个具体、明确的科学、工程和社会目标。如果围绕某个替代性的统一目标建立共识被证明是有益的,我们建议将“支持并造福人类”作为这一目标。

接下来,我们将探讨人工智能研究中的六个“陷阱”——即有效目标设定的障碍(第2节)。我们认为,AGI 的讨论加剧并放大了每一个问题。随后,我们提出三项避免这些陷阱的建议(第3节):目标的具体性;目标与方法的多元主义;以及更具包容性的目标设定过程。最后,我们针对一种相反观点提出反驳(第4节):即认为AGI仍应作为该领域的“指路明灯式目标”。

由于AGI概念本身的争议性是本文的核心主题,我们避免在此提供自己对这一术语的定义。相反,我们在全文中列举了一些示例性定义,并在附录A中提供了一个包含代表性定义的表格3。我们还在附录B中详细说明了AGI目前如何作为“指路明灯式目标”发挥作用。

  1. 陷阱

我们探讨了六个关键陷阱,这些陷阱阻碍了研究群体设定有价值目标的能力。我们认为,每一个陷阱都因“人工通用智能”(AGI)的叙事而加剧。

我们所讨论的问题高度相互关联。例如,关于目标设定中激励机制错位的问题(第2.4节)所提到的“追求最先进性能”(SOTA-chasing),也与“劣质科学”问题(第2.2节)密切相关。同样,关于AGI缺乏共识的问题(第2.1节)也是一个贯穿全文的主题。我们并不认为这些陷阱彼此互斥,而是希望每个陷阱都能为识别和缓解目标设定中的失败模式提供独特且有用的视角。

2.1 共识幻觉

使用共同术语的方式,给人造成目标上存在共识的错觉,而实际上这些目标存在争议。

“AGI”这一术语在大众语境中的广泛使用(Grossman,2023;IBM,2023;Holland,2025),营造出一种熟悉感,使人误以为人们对AGI的含义有共同理解,并在AGI研发的研究目标上达成了广泛共识。然而,实际上人们对“AGI”一词指代什么、一个AGI研究议程应如何展开、以及AGI开发的具体目标是什么,存在着截然不同的看法。如果不加以纠正,这种“共识幻觉”会阻碍人们对人工智能研究目标究竟是什么、以及应该是什么进行明确而深入的讨论。

从大众媒体到学术论文,再到企业宣传材料,绝大多数对AGI的引用都陷入了这一陷阱,它们不加批判地引用所谓AGI的主张。有关媒体不加批判的宣传案例,可参见Grossman(2023)和IBM(2023);有关研究领域过度炒作的例子,可参见Altmeyer等(2024)。Summerfield(2023)总结道:“人工智能研究人员希望发现如何构建AGI。问题在于,实际上没有人真正清楚AGI究竟会是什么样子。” Mueller(2024)称AGI是“一个毫无意义的概念,就像‘皇帝的新衣’”。Blili-Hamelin等(2024)指出,在AGI或“人类水平人工智能”的定义上存在多种类型的分歧。对于AGI作为目标的争议性,在对AGI概念的批判性研究中表现得尤为明显(例如Altmeyer等,2024;Mueller,2024;Van Rooij等,2024)。

除了AGI之外,人工智能研究中还充斥着大量涉及目标、价值观和概念分歧的话题。例如,Mulligan等(2016)认为,隐私应被理解为一种“本质上存在争议的概念”(essentially contested concept)。他们指出,人们对隐私含义和重要性的分歧并不仅仅是误解所致——相反,这种分歧反映了不同的价值观,且正是这种争议性使隐私概念能够适应不断变化的技术和社会环境。类似地,如今学界已普遍接受“公平性”也应被视为一个存在争议的话题,不仅因为它存在互不相容的数学形式化表达,更因为它涉及相互冲突的价值观、世界观和理论假设(Friedler等,2021;Jacobs & Wallach,2021)。

我们提出这一陷阱,并非意味着存在争议的话题本身必然有问题。相反,我们认为,在探讨人工智能研究目标这一重要问题时,围绕AGI存在的重大分歧应被视为不同价值观冲突的信号,应被正视而非掩盖。

2.2 助长劣质科学

由于概念定义不清和实验程序不严谨,加剧了人工智能领域当前存在的“劣质科学”问题。

能够产生可靠实证知识的人工智能研究,对于公众在人工智能可能带来的社会与环境利益及危害方面做出决策至关重要。然而,许多专家已指出,人工智能研究普遍存在科学基础薄弱的问题(Hullman等,2022;Raji等,2022;Sloane等,2022;Suchman,2023;Guest & Martin,2024;Narayanan & Kapoor,2024;联合国,2024;Van Rooij等,2024;Widder & Hicks,2024)。我们认为,AGI讨论中的模糊性加剧了人工智能研究在科学有效性方面已有的问题。

问题一:定义不足与外部效度。
将AGI作为具体目标进行追求的一个问题是“定义不足”(underspecification)(D’Amour等,2022),即目标或概念缺乏明确性,从而引发一系列认识论问题,包括不可证伪性、缺乏外部效度、实验设计缺陷和评估方法错误。这些问题在人工智能研究中本已普遍存在,而在AGI语境下,由于缺乏科学依据的AGI定义(见第2.1节),这些问题更加严重。

学习目标的定义不足也会削弱研究的“外部效度”——即测量结果是否真正反映了其所声称要捕捉的现实世界现象。一个典型的例子是关于“语言理解”基准测试是否真的衡量了语言理解能力的争论(Jacobs & Wallach,2021;Liao等,2021)。

外部效度在研究人员将人类能力与模型的代理指标(proxy)等同起来时也存在问题(Hullman 等,2022),例如声称一个“能够将特定物体与更广泛的视觉上下文联系起来”的模型,就是“想象力”的证据(Fei 等,2022)。这种修辞手法之所以成立,是因为使用了“想象力”等日常用语,而未考虑其是否真正对应于人类的心理能力。Altmeyer 等(2024)同样批评了 Gurnee 与 Tegmark(2024)的研究,指出其夸大其词的主张正是得益于“世界模型”这一术语的模糊性。目标定义不清的问题会向下渗透到实验设计的诸多环节,例如学习流程、评估指标、任务设计、表征方式和方法选择。

当研究人员声称在测量来自其他领域的概念(如“智能”)时,外部效度也会受到损害。心理学、神经科学和认知科学已对人类智能研究了几代人,但即使在这些领域,对于“智能”究竟是什么也尚未达成共识(Gopnik,2019;Hao,2023)。相反,人工智能研究已不再致力于模拟人类认知(Guest & Martin,2024;Van Rooij 等,2024)。取而代之的是,AI 开发者按自己的方式定义“智能”,优先选择那些便于基准测试或产品营销的定义(见第2.4节),同时又受益于“智能”一词长期积累的正面联想。

问题二:科学与工程之间的模糊性。追求 AGI 的另一个问题是科学与工程之间的混淆(Agre,2014;Hutchinson 等,2022;Altmeyer 等,2024)。正如 Hullman 等(2022)所指出的,一篇典型的监督式机器学习论文(例如,报告某个基准上的准确率指标)往往只是一种“工程产物”,即一个附带性能声明的工具,但由于复现困难,这些声明无法被证伪。Altmeyer 等(2024)认为,科学与工程之间的这种模糊性意味着,通常缺少对“特定条件和效应量”的严格假设检验,研究结果常常被呈现为“工程成就”,却未明确说明究竟在测试什么、相关假设是什么,以及什么样的效应量才算具有实质性发现。

这种模糊性容易引发实验者偏差和确认偏误,因为研究人员受到激励,倾向于“几乎不关注竞争性假设或解释”,或“未能提出足够强的零假设”(Altmeyer 等,2024)。当一项研究究竟是在追求科学目标(如解释现象、验证假设等),还是在追求特定的工程应用目标(例如概念验证)不明确时,科学与工程的混淆便进一步显现(Hutchinson 等,2022)。这加剧了对外部效度的质疑:在缺乏清晰具体实验目标的情况下,更容易对实验结果进行事后的解释,使其“支持”各种各样的目标(见第2.4节)。

问题三:确证性研究与探索性研究之间的模糊性。工程与科学方法之间的模糊性,还与另一个问题相关:确证性研究与探索性研究之间的混淆(Bouthillier 等,2019;Herrmann 等,2024)。Herrmann 等(2024)指出,确证性研究“旨在检验已有假设,以确认或反驳现有理论”,而探索性研究则是一种开放性的方法,旨在对新领域或未充分探索的领域获得洞见和理解。他们进一步指出,“当前大多数实证机器学习研究被包装为确证性研究,但实际上应被视为探索性研究”,而实验往往被设计为“证实(隐含的)假设,即所提出的方法构成了一种改进”(原文强调)。通过隐性地将探索性分析与确证性研究混为一谈,“探索性发现很容易在研究过程中‘转化’为计划内的发现”(Calin-Jageman & Cumming,2019)。使用模糊且具争议的AGI概念来包装确证性主张,会使这一问题更加严重,因为它使得人们更难弄清楚究竟在主张什么。

2.3 预设价值中立性

将本应包含政治、社会或伦理价值的目标,表述为纯粹技术性或科学性的目标。

“预设价值中立性”陷阱出现在技术或科学目标与其所蕴含的价值假设脱节之时:即那些本应受到政治、社会和伦理考量影响的人工智能研究方面。近年来,人工智能研究界已开始审视这些蕴含价值的假设(Shilton,2018;Broussard 等,2019;Abebe 等,2020;Blodgett 等,2020;Costanza-Chock,2020;Denton 等,2020;2021;Dotan & Milli,2020;Birhane & Guest,2021;Green,2021;Scheuerman 等,2021;Viljoen,2021;Birhane 等,2022b;Bommasani,2023;Fishman & Hancox-Li,2022;Hutchinson 等,2022;Mathur 等,2022;Blili-Hamelin & Hancox-Li,2023;Blili-Hamelin 等,2024;Zhao 等,2024)。

当定义 AGI 及相关概念的努力未能明确审视其定义中嵌入的社会目标和价值观时,就陷入了“预设价值中立性”的陷阱。例如,Legg 与 Hutter(2007)以及 Hernández-Orallo 等(2014)提出的“通用智能”(universal intelligence)方案即属此类。

追求所谓“价值中立”方法的做法,呼应了关于人类智能心理测量观的长期争论。与“健康”、“福祉”类似,“智能”本身就蕴含了关于哪些行为或能力是“理想”的规范性假设(Anderson,2002;Alexandrova & Fabian,2022)。研究人员通过回避这些价值负载的维度而陷入“预设价值中立性”陷阱(Anderson,2002;Cave,2020;Blili-Hamelin & Hancox-Li,2023)。Warne 与 Burningham(2019)正是这一做法的典型代表:他们主张采用纯粹统计意义上的智能定义,原因恰恰是文化对智能的定义存在差异。

像AGI这类概念中蕴含的价值假设,引发了关于其含义的合理分歧,反映了不同社会目标之间的差异(Blili-Hamelin 等,2024)。这使得就AGI达成共识变得困难,因为共识的建立需要在政治、社会和伦理优先事项上实现协调。类似的分歧也影响着其他相关概念,如“人工智能”(AI)(Cave,2020;Blili-Hamelin & Hancox-Li,2023)、“人类水平人工智能”、“超级智能”和“强人工智能”,进一步强化了“共识幻觉”陷阱(第2.1节)。

2.4 目标彩票

采纳那些并非基于科学、工程或社会价值而充分论证的目标,而是基于激励机制、环境因素或运气而确立的目标。

研究人员已探讨了社会经济因素、趋势和偶然因素在塑造人工智能研究中的作用。例如,Hooker(2021)指出,某种“硬件彩票”——即擅长并行处理的硬件更易获得——是2010年代深度学习复兴的关键因素5。类似地,研究者也考察了激励机制、社会经济因素和炒作周期在人工智能研究中的影响(Raji 等,2022;Delgado 等,2023;Sartori & Bocca,2023;Widder & Nafus,2023;Gebru & Torres,2024;Hicks 等,2024;Narayanan & Kapoor,2024;Wang 等,2024)。

在本陷阱中,我们重点关注那些由“彩票”(即运气)或激励机制驱动、导致采纳缺乏充分科学、工程或社会依据的目标的情况。

以围绕经济价值定义AGI的案例为例,如OpenAI强调“在大多数经济价值最高的工作中超越人类”(OpenAI,2018)。将经济价值置于人工智能研究目标设定的首要地位,无论从工程角度还是社会角度来看,都是存在争议的。此类定义通过将复杂的社会、工程和科学考量简化为纯粹的经济指标,造成了激励机制与目标正当性之间的错位。

另一个例子是“基准SOTA追逐”——即追求在流行基准测试中取得最高分(Bender 等,2021;Raji 等,2021;Church & Kordoni,2022;Hullman 等,2022)。尽管这种做法受到强烈的职业激励推动,却缺乏科学、工程和社会层面的正当理由。由于数据泄露、对基准的过拟合以及数据异质性等问题,基准测试并不能很好地反映模型在真实应用场景中的实际性能(El-Mhamdi 等,2021;2023;Hanneke & Kpotufe,2022;Balloccu 等,2024;Xu 等,2024;Zhang 等,2024)。简而言之,这种测量方法缺乏外部效度。然而,由于声誉和经济回报的驱动,这种做法依然持续存在,凸显了被激励的目标与其实际价值之间的脱节。

“目标彩票”的动态也体现在深度学习架构被忽视数十年的历史中。在这一案例中,一项研究议程因最终被证明在工程、科学或社会层面均属错误的原因而遭到边缘化(例如,由于对非主流研究方向的“把关”效应;参见Siler 等,2015)。与此同时,人工智能产业却全力投入于专家系统的“泡沫”之中(Haigh,2024)。当前人工智能研究中多样性的减少,可能是类似错误正在重演的信号(见第2.6节)。一些近期旨在对抗同质化的举措(Chollet 等,2024)依赖于通过基准测试来操作化AGI6。在实践中,这些举措最终又变成了另一种基准测试:在激烈的媒体和市场营销关注下,进一步激励SOTA追逐(Jones,2025)。正因如此,我们对ARC等方法(Chollet,2019)是否真能抵消新闻周期加速下的SOTA追逐所带来的负面影响,仍持一定程度的怀疑态度。

2.5 通用性负债

依赖工具的“通用性”或“灵活性”,以推迟对关键的工程、科学或社会决策的必要考量。

关于AGI的定义,在“通用性”应达到何种程度才理想的问题上存在分歧(Blili-Hamelin 等,2024)。这表明人们对人工智能研究的目标缺乏清晰性和共识,从而形成了一种陷阱:(a)助长了次优的科学/工程实践(与第2.2节所述问题相关);(b)压制了关于哪些研究方向值得推进的重要社会与伦理问题的讨论。我们将这种陷阱称为“通用性负债”(Generality Debt),类比于“技术负债”(technical debt)(Sculley 等,2014):它推迟了人工智能研究中本应完成的工作,而若长期搁置,未来将需要付出更大的代价来弥补。

这一陷阱包括对机器学习中各种“通用性”概念的模糊依赖,例如:(1)任务的多样性(Hernández-Orallo & Séan Ó hÉigeartaigh,2018);(2)能够被训练以应对“任何任务” vs. 能够执行许多预定义任务的能力(Hernández-Orallo & Séan Ó hÉigeartaigh,2018);(3)模型被评估的任务或数据分布是“已见”还是“未见”(即在训练阶段是否对模型可用)(Altmeyer 等,2024);(4)模型输入/输出数据的多样性,如结构化与非结构化数据、模态等;(5)模型的表现是否体现了“令人类感到意外的表现”(Altmeyer 等,2024);(6)目标的多样性;(7)能够“接受一种通用语言来表述问题”(Newell & Ernst,1965);(8)拥有“通用”的内部表征(Newell & Ernst,1965;McCarthy & Hayes,1981)。

正如 Paolo 等(2024)所指出的,尽管“通用性”有多种可能含义,但大多数论文即使在其论证中处于核心地位,也并未对“通用性”进行定义。缺乏正式定义,使得评估或改进泛化能力变得极为困难。在承认“通用性”定义不清的同时,仍假设其是可取的,这种做法是错误的。我们应首先明确定义可测量的具体属性,再论证其价值。

若缺乏恰当定义,“通用性”的价值就始终模糊不清。不同类型的通用性支持不同的未来愿景,但它们之间的相对重要性却未被充分探讨。此外,对“通用性”的模糊定义还会导致劣质的科学与工程实践(见第2.2节)。例如,Altmeyer 等(2024)指出,对通用性的追求导致了任务描述的模糊化。与此同时,Gebru 与 Torres(2024)认为,某些AGI概念违背了良好的工程实践:如果一个系统被宣传为“能在任何环境中学习和行动的通用算法”,那么就很难在“标准运行条件”下测试其功能。

追求某些形式的通用性,也可能意味着要牺牲“生态效度”(ecological validity),Saxon 等(2024)提出了这一观点。他们指出,实际上,“整体性”基准测试往往只是由一系列互不相关的具体任务拼凑而成,因此仅在任务层面具备结构效度。然而,这些任务并不总能对应用户真正关心的能力。实现这些能力所面临的方法论挑战,或许会随着时间推移和创新解决方案的出现而被克服,但AGI的追求却默认这些挑战是可以解决的。方法论问题常常激发新的解决方案,但我们不能假设问题必然会被解决,也不能要求AGI追求者做出这样的假设。

此外,追求AGI的策略本身可能引入或暴露出实现用户相关能力的新挑战。

最后,“通用性”的模糊性本身也构成伦理问题:它回避了关于“哪些类型的通用性值得追求”的规范性问题,掩盖了在不同研究方向优先级上的隐性决策。

2.6 常态化排斥

将特定社群和专家排除在目标设定过程之外。

人工智能领域中排斥现象的负面影响已被广泛讨论,既体现在其对产品质量和模型性能的影响上(例如,Obermeyer 等,2019),也体现在其对人群造成的实际伤害上(例如,Buolamwini & Gebru,2018;Shelby 等,2023;Whitney & Norman,2024)。我们认为,AGI的讨论加剧了排斥问题。

问题一:排除社群参与。
许多社群被排除在人工智能研究目标制定的实质性参与之外(Delgado 等,2023)。这种排斥造成了严重伤害,尤其对边缘化群体影响深远(Pierre 等,2021);它同时也削弱了最终产品的实用性,降低模型性能,过度简化技术挑战(Kierans 等,2025),并可能阻碍创新(例如,Burt,2004)。例如,谷歌、苹果和Meta等公司的人脸识别系统曾将黑人误认为大猩猩,这一臭名昭著的问题自首次被曝光以来已过去八年多,至今仍未彻底解决(Appelman,2023;Grant & Hill,2023),并对监控和执法系统产生了下游负面影响(Jones,2020;Pour,2023)。类似地,数据标注过程中选择性地纳入某些群体,也引发了关于下游影响的伦理与实践担忧(Wang 等,2022;Bertelsen 等,2024)。关于社群被排除或有限纳入如何影响系统性能的案例不胜枚举(参见 Buolamwini & Gebru,2018;Young 等,2019;Raji 等,2020;Andrews 等,2024;Bergman 等,2024;Salavati 等,2024;Weidinger 等,2024)。将社群排除在有意义的反馈机制之外,也损害了社会目标的实现,例如通过向受影响群体负责来建立集体合法性(Schulz 等,2002;Mikesell 等,2013;Costanza-Chock,2020;Birhane 等,2022a;Young 等,2024)。

近期AGI讨论的突出地位,进一步加剧了人工智能研究中既有的社群排斥问题(Frank 等,2017;Kelly,2024)。许多AGI的支持者设想了一个未来:AI系统将为无数社群执行极其广泛的任务。然而,当前的研究与设计过程远远未能达到这一宏大愿景所要求的包容性。例如,2024年12月的报道指出,OpenAI与微软“去年签署了一项协议,规定只有当OpenAI开发出能创造至少1000亿美元利润的AI系统时,才算实现AGI”(OpenAI,2025d;Zeff,2025),这与OpenAI此前公开定义的AGI(OpenAI,2018)形成了鲜明对比。正如多位学者所指出的,经济价值并非唯一值得追求的价值类型(Agrawal 等,2022;Dulka,2022;Harrigian 等,2023;Morris 等,2024;Pierson 等,2025)。这种以经济为导向的定义有助于指导OpenAI的工程决策,但值得质疑的是,对利润的强调是否能带来最具社会效益或最有用的最终产品,是否能就研究目标达成真正有意义的共识,尤其是对边缘化群体而言。

问题二:排除学科参与。从应用领域(例如医学(Obermeyer 等,2019)、金融(Cao,2022)、网络安全(Salem 等,2024)、学习科学(Leong & Linzen,2024)),到构建人工智能所涉及的实践——数据标注、定性与定量方法、领域专业知识、计算机科学等众多方面(Wang 等,2022;Bertelsen 等,2024;Widder,2024)——人工智能研究跨越了多个学科边界。这种跨学科特性所面临的挑战,与其他学科所经历的挑战相似(Stokols 等,2003;Stirling,2014;Amoo 等,2020;Vestal & Mesmer-Magnus,2020;英国皇家学会,2024)。

其中一个主要挑战是“学科壁垒”(disciplinary silos),即不同学科之间的知识未能充分共享(Stokols 等,2003;Stirling,2014;Ballantyne,2019;Amoo 等,2020;DiPaolo,2022;英国皇家学会,2024)。例如,§2.2 中讨论的机器学习领域对“解释性研究”与“探索性研究”区分的忽视,部分原因可能正是由于缺乏跨学科的知识交流(Herrmann 等,2024)。

另一个挑战是“认知等级”(epistemic hierarchies)——某些学科的专业知识被明确或隐性地贬低(Knorr Cetina,1999;2007;Simonton,2004;Fourcade 等,2015;Graziul 等,2023)。这可能表现为某些专家群体仅被允许在狭窄范围内提供输入,而无法参与更广泛的研究设计决策(Bertelsen 等,2024)。

人工智能研究人员倾向于将技术应用于其他领域,这也带来了另一重大挑战:领域知识的不足可能影响人工智能工具的功能——即它们是否能如宣传的那样正常运行(Raji 等,2022)。例如,人工智能工具被用于预测个体未来的各种结果,从审前风险评估、预测性警务,到自动化雇佣决策(Wang 等,2024)。然而,尽管缺乏有效性的充分证据,这些预测工具仍被不断开发、推广和部署(Doucette 等,2021;Cameron,2023;Connealy 等,2024)。

在以AGI为导向的研究中,学科壁垒的问题尤为突出,原因有两个:一是AGI声称要创造或替代人类智能;二是它声称在众多学科领域都具备专业知识。在前者中,相关主张常常忽视认知科学和心理学领域关于智能本质的长期争论(Summerfield,2023;Guest & Martin,2024;Mitchell,2024;Van Rooij 等,2024)。在后者中,实现AGI常被表述为“取代”各个领域的专家,而这种说法往往被媒体不加批判地采纳,却未征求相关领域专家的意见(例如,Henshall,2024)。

问题三:资源不平等。近年来,模型训练所需的计算资源呈前所未有的增长趋势,大约每几个月就翻一番(Sevilla 等,2022)。这一趋势加剧了现有的资源不平等,因为最前沿的人工智能研究往往依赖于极少数研究者才能获得的计算资源(Yu 等,2023;LaForge,2024)。这些资源的高昂成本将大量参与者排除在人工智能研究之外,即便是顶尖研究型大学所拥有的计算资源,也仅相当于许多企业用于推进AI研究资源的一小部分。目前已有努力试图通过政府支持的大规模计算资源平台(例如美国的NAIRR)来缓解这一不平等。然而,实现资源平等仍是一个理想目标,因为人们已普遍认识到,由于企业能够获取工业级计算资源,产业界的研究人员在设定人工智能研究目标方面事实上占据优势。这种结构性优势还通过使用预印本平台(pre-print archives)在未经同行评审的情况下公开AI研究成果而进一步强化(Devlin 等,2019;Rombach 等,2022;Bubeck 等,2023;OpenAI 等,2024)。这种策略在未遵循传统科学诚信标准的情况下,使这些工作被合法化为“科学研究”(Tenopir 等,2016;Lin 等,2020;Soderberg 等,2020;Rastogi 等,2022;Kwon & Porter,2025)。

尽管资源不平等存在于所有形式的人工智能研究中,但当AGI被作为该领域的“指路明灯式目标”时,这一问题尤为尖锐。这是因为当前AGI研究高度依赖巨大的计算规模,而这些资源和研究努力又高度集中于少数大型科技公司7。这种权力的集中使得相关研究更应包容而非排斥相关社群和专家。换言之,AGI叙事加速了人工智能领域已有的趋势:即贬低领域专业知识和真实生活经验,转而推崇那些号称“无所不知”的模型。

  1. 建议

我们已论证,AGI的讨论阻碍了人工智能发展中科学与工程目标的合理设定,同时对具有社会价值的人工智能发展具有破坏性。现在,我们提出三项建议,以避免陷入上述陷阱。

建议一:目标的具体性(Goal Specificity)
人工智能界在讨论人工智能的科学、工程和社会目标时,必须优先使用高度具体的语言。
对可实现的科学、工程和社会目标进行更具体的定义,有助于形成对这些目标的共同理解,从而提升评估这些目标是否合理、有据的能力。缺乏具体性时,研究人员、从业者及其他相关方可能对某一目标及其实现方式产生不同理解。这种分歧为人工智能研究人员和从业者创造了“概念套利”的空间——他们可借模糊术语推进自身目标,因为最终模型的开发与实施细节由他们掌控。而人工智能开发之外的人士可能误以为某系统已实现特定目标,实际上却并未达成。

通过遵循研究问题设计的最佳实践,具体性仍可为探索性研究保留足够的灵活性。例如,研究目标“混合专家(MoE)策略如何提升Whisper large-v3在复杂语音场景中的性能?”可能涵盖多种语音场景或MoE策略。若将其重新表述为更具体的目标:“在以短时语音(<2秒)为主但也包含较长语音(>20秒)的语音场景中,采用将专家定义为分别在短时、中时(2–20秒)和长时语音上微调的系列模型的MoE策略,如何帮助提升Whisper large-v3的性能?”若无进一步说明,回答第一个问题并不能保证所提出的解决方案能有效应对第二个问题的具体特征,除非额外投入大量精力去理解该通用方案如何适用于这一特定场景。此例虽为说明性案例,但基于真实语音场景的特征(如警察无线电通信,参见Srivastava等,2024;Venkit等,2024),其准确性至关重要。

目标的具体性有助于应对“共识幻觉”陷阱(第2.1节),通过促进概念清晰来提升目标设定的质量。清晰性还有助于避免“目标彩票”陷阱(第2.4节),使目标选择过程更加明确。它同样能应对“预设价值中立性”陷阱(第2.3节),通过明确揭示与具体目标相关联的价值观,并直接减少“通用性负债”(第2.5节)。最后,目标的具体性也有助于解决“助长劣质科学”陷阱(第2.2节)中所强调的定义不足问题。

建议二:目标与方法的多元主义(Pluralism of Goals and Approaches)
人工智能界不应追求单一的、笼统的“指路明灯式目标”(或少数几个目标),而应阐明多种有价值的科学、工程和社会目标,并认可实现这些目标的多种可能路径。

在一个像人工智能这样广泛而复杂的领域,要在研究目标上达成有意义的科学或社会共识本就极具挑战。当共识不可行或不必要时,我们主张采取“多元主义”(pluralism):允许多种关于人工智能研究目标的合理理解并存。在一个价值观多元的个体与机构共存的社会中,多元主义是健康的。研究群体在默认情况下应秉持对目标和实现路径的多元主义,追求异质性而非同质性(Sorensen 等,2024a;b)8。

研究群体知识生产与问题解决动态的学者发现,多元主义具有显著益处(Hong & Page,2004;Muldoon,2013),尤其在平等的群体协作中展现出独特优势(Xu 等,2022)。

人工智能研究中的多元主义可表现为多种形式,每种形式对处理复杂问题的方式都有独特意义。例如:

  • 方法论多元主义

    意味着用不同方式解决问题有助于获得更优解,这通常是应对复杂问题的有效策略(Midgley,2000;Veit,2020;Zhu,2022)。

  • 价值多元主义

    在对齐研究(alignment research)中的应用,意味着技术进步应直接与多元价值观的包容性相联系(Sorensen 等,2024a;b)。

  • 算法多元主义

    针对“算法单一文化”(algorithmic monoculture)带来的“模式化不平等”,强调必须支持“通往不同结果的多种路径”,以避免复制数据中已存在的社会不平等(Jain 等,2024)。

每种多元主义形式都可转化为具体的研究实践,例如方法选择、设定多元目标,以及测试算法以确保已知危害(如算法歧视)得到应对。

仅举一例:在招聘流程中的算法决策,可能从针对该特定场景的定制化解决方案中获益,远胜于依赖AGI。这些方案应考虑大多数岗位的领域特性、招聘经理评估候选人的不同方式,以及招聘中已知的算法歧视证据。在实践中,多元主义可体现为资源在不同研究路径间的分配方式。例如,与其将大多数计算资源投入AGI的追求,不如更均衡地分配给人工智能领域内多样化的研究目标和方法。

多元主义通过承认共识的缺失,并将观点多样性视为科学与社会进步的工具,应对“共识幻觉”陷阱(第2.1节);通过降低某些目标被随意或过早排除的可能性,应对“目标彩票”陷阱(第2.4节);并通过鼓励目标与方法的多样性,应对“排斥”陷阱(第2.6节)。

建议三:在目标设定中实现更广泛的包容性(Greater Inclusion in Goal Setting)

在塑造人工智能研究目标的过程中,更广泛地纳入不同社群和学科的参与,将有利于创新。

包容性有助于推动创新(Burt,2004;Hewlett 等,2013;Zhang 等,2021;Xu 等,2022)。识别有价值的目标、相关使用场景以及潜在的意外后果,依赖于吸纳多样化的观点。在人工智能研究中,这些观点必须包括最终用户、其他领域的专家、受研究成果影响的群体,以及数据标注人员。排除其中任何一方,都会削弱人工智能实现有价值目标的潜力,因为这等于忽视了定义这些目标“为何有价值”的关键视角。而纳入这些群体,则能丰富人工智能研究的内涵。

不同学科之间的思想交叉融合,有助于产生更具影响力的研究成果(Dori-Hacohen 等,2021;Shi & Evans,2023)。要实现这种影响力,我们必须打破知识的壁垒(例如“认知文化”:Knorr Cetina,1999;2007),并建立重视非计算类研究的认知等级体系(Simonton,2004;Fourcade 等,2015)。尽管技术复杂性可能使非专家的参与面临挑战(Pierre 等,2021),但努力克服这些障碍,能够揭示专家未曾预料的问题(Cooper 等,2022),并通过将非专家或其他领域专家的洞察与经验融入系统设计决策,促成实质性的科学贡献(Delgado 等,2023;Salavati 等,2024)。

作为议题,AGI 常常涉及设想一种影响所有人生活的技术。因此,排斥特定群体将引发关于人工智能研究与部署的目标、过程及主导者的重大社会分歧。然而,这些分歧往往被拥有领域主导权的群体所忽视或无视。包容性是必要的,以确保有关技术的决策能够向各类机构、社群和个人提供充分的正当性依据(Anderson,2006;Binns,2018;Alexandrova & Fabian,2022;Birhane 等,2022a;Lazar,2022;Ovadya,2023)。

这一建议通过将“包容性”视为创新的必要条件,直接应对“常态化排斥”陷阱(第2.6节)。此外,它也通过承认人工智能研发中价值负载目标所引发的重大社会分歧,并将这些分歧转化为建设性对话,来应对“共识幻觉”和“预设价值中立性”陷阱(第2.1节、第2.3节)。

  1. 替代观点

我们已论证,将AGI作为指导人工智能研究的“指路明灯式目标”是一个糟糕的选择。在本文结尾,我们针对一种强有力的替代观点进行辩护:我们所指出的种种陷阱,可以通过对AGI追求方式的改进加以解决。但我们认为,即便改进后的AGI路径,其成效也十分有限。

4.1 反方论点

“AGI是一个良好的指路明灯式目标;为避免上述陷阱,只需提出更完善的AGI定义和理论框架即可。”

确实,已有不少深思熟虑的努力试图弥补AGI概念表述中的缺陷(例如,Adams 等,2012;Chollet,2019;Summerfield,2023;Morris 等,2024)。如果以往对AGI的描述存在反效果或缺陷,为何不转而追求能够弥补这些缺陷的新版本呢?

以Morris等(2024)的研究为例,他们通过厘清在目标、预测和风险方面的分歧,有效缓解了其他AGI论述中普遍存在的“共识幻觉”陷阱。此外,他们提出的类似于“驾驶自动化等级标准”(SAE International,2021)的实用策略,可被视为在一定程度上缓解了“预设价值中立性”陷阱。通过制定全社会范围的标准,可以明确聚焦于某些特定风险,而这些风险正是标准所要应对的(Morris 等,2024)。这样一来,标准所优先考虑的价值便体现在其关注的风险之中。此类工作展示了应对陷阱的潜在路径。

在指出AGI叙事加剧了多个现存问题的同时,我们并不否认存在这样一种可能:即在保留AGI作为目标的前提下,通过改进方法来缓解这些问题。此外,正如Summerfield(2023)、Morris等(2024)及许多其他学者所认为的,关于如何定义AGI的分歧很可能将持续存在。因此,我们若声称自己对AGI所有可能概念的全貌有足够完整的理解,从而能够做出决定性结论,那将是极不现实的。

4.2 反驳

为何我们的立场优于上述替代观点?

理由一:与我们的建议相冲突。
尽管AGI的定义极具争议,但人们常常将AGI作为“指路明灯式目标”的动机,是希望为该领域提供一个单一的、大规模的、统一的愿景(Summerfield,2023)。这在一定程度上与我们所提出的“目标多元主义”建议存在张力,而我们认为多元主义对人工智能研究具有重要价值。“AGI”一词本身也带有“通用性”的概念,这与我们所倡导的“具体性”建议相冲突。9 因此,我们有理由对以AGI为中心的替代方案保持警惕。

理由二:区分炒作与现实。支持我们立场的另一个原因是,人工智能研究群体肩负着帮助区分炒作与现实的责任。我们认为,我们的社区必须就人工智能技术、其目标及其影响日益复杂的问题,提供可信的、基于证据的答案。在当前背景下,AGI这一被过度炒作的术语正在削弱我们履行这一责任的能力。

无论定义得多么严谨或粗糙,AGI已经获得了一定的文化意义,这加剧了区分炒作与现实的难度。“智能”和“通用性”被赋予了满足无数需求和应用场景的期望(见第2.3节、第2.5节)。无论研究界如何谨慎,这些术语所携带的文化联想仍可能助长关于人工智能的非科学思维。这使得各方能够随意地将乌托邦或反乌托邦的特征投射到AGI之上,以此支持他们对更多权力和资源的诉求。

理由三:以造福人类作为技术的目标。如果人工智能界仍希望追求一个总体性的目标,那么这个目标应是支持并造福人类。技术的目标是由人塑造的。是否存在一种基于证据的方法来检验技术是否真正满足了人们的需求——无论他们是“用户”、“消费者”、“患者”、“学者”,还是各种商业和社会身份——这一问题已有成熟的研究路径。然而,在追求AGI的过程中,社群往往忽视了以人的需求为核心目标,转而只关注技术本身。

还有一个更宏大的理由支持我们将“支持和造福人类”作为共识性目标。我们在第三条建议(包容性)中指出,关于技术目标的社会性重大分歧在所难免。而建立确保技术真正造福人类的机制,有可能为这些分歧提供具有集体合法性的回应。这种回应可通过体现民主理念的流程实现:例如,在关于“公共福祉”和“公共利益”的质询、审议与异议过程中实现普遍参与,并将参与者作为“权利主体”予以强有力的问责(Anderson,2006;Putnam,2011;Binns,2018;Gabriel,2020;Birhane 等,2022a;Lazar & Nelson,2023;Ovadya,2023;Blili-Hamelin 等,2024)。追求“集体合法性”,本质上要求达成在政治和社会层面真正有效的共识。

总之,我们呼吁各研究社群停止将“AGI”视为人工智能研究的“指路明灯式目标”。

原文链接:https://arxiv.org/pdf/2502.03689v4

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
被特朗普恶搞成猿猴 奥巴马首次回应

被特朗普恶搞成猿猴 奥巴马首次回应

环球网资讯
2026-02-15 14:10:07
高市早苗病情恶化,有生命危险吗?

高市早苗病情恶化,有生命危险吗?

雪中风车
2026-02-14 16:17:05
英媒文章:Z世代不再信任西方虚伪政治宣传

英媒文章:Z世代不再信任西方虚伪政治宣传

参考消息
2026-02-14 15:14:15
央视肖晓琳:退休5个月,在美国儿子家逝去,临终26字遗言太深刻

央视肖晓琳:退休5个月,在美国儿子家逝去,临终26字遗言太深刻

古事寻踪记
2026-02-06 07:06:55
严惩不贷!广东飞踹老人案后续:主犯刑拘,帮凶也跑不了!

严惩不贷!广东飞踹老人案后续:主犯刑拘,帮凶也跑不了!

小蜜情感说
2026-02-15 13:26:33
你在学校出名的原因有多离谱?网友:凭一己之力,拆散了所有情侣

你在学校出名的原因有多离谱?网友:凭一己之力,拆散了所有情侣

带你感受人间冷暖
2026-02-14 22:36:19
莫斯科发电厂突发爆炸!俄罗斯能源收入降至六年最低

莫斯科发电厂突发爆炸!俄罗斯能源收入降至六年最低

项鹏飞
2026-02-13 16:37:33
东北男子养鹿破产,赌气放生了30头鹿,8年后上山,眼前一幕却让他泪崩了...

东北男子养鹿破产,赌气放生了30头鹿,8年后上山,眼前一幕却让他泪崩了...

品读时刻
2026-02-14 09:03:05
大爆发!国安弃将热身赛独中两元,新赛季有望成球队主力

大爆发!国安弃将热身赛独中两元,新赛季有望成球队主力

体坛鉴春秋
2026-02-15 16:09:46
880年,黄巢率兵攻入长安:将所有权贵门阀满门抄斩,一个不留!

880年,黄巢率兵攻入长安:将所有权贵门阀满门抄斩,一个不留!

南权先生
2026-02-13 15:24:25
“伏弟魔”烧饼姐想通了:给弟弟买个110平的房,怕弟媳不让她住

“伏弟魔”烧饼姐想通了:给弟弟买个110平的房,怕弟媳不让她住

江山挥笔
2026-02-14 19:00:17
高市怕什么来什么,联合国修改二战历史,将日本钉在耻辱柱上

高市怕什么来什么,联合国修改二战历史,将日本钉在耻辱柱上

倾世璃歌
2026-02-15 04:31:15
约基奇:詹姆斯连续22年保持顶尖水准 实在令人惊叹

约基奇:詹姆斯连续22年保持顶尖水准 实在令人惊叹

北青网-北京青年报
2026-02-15 15:12:02
难怪俄军进攻磨磨蹭蹭,和乌军交手4年,坦克装甲车损失3万多?

难怪俄军进攻磨磨蹭蹭,和乌军交手4年,坦克装甲车损失3万多?

嫹笔牂牂
2026-02-14 11:34:21
难道美国伊朗开打而俄乌停火?从日内瓦到日内瓦……

难道美国伊朗开打而俄乌停火?从日内瓦到日内瓦……

新民周刊
2026-02-15 09:36:11
从歌女到皇后,卫子夫为何宁死,也不给汉武帝“拿捏”自己的机会

从歌女到皇后,卫子夫为何宁死,也不给汉武帝“拿捏”自己的机会

千秋文化
2026-02-12 19:41:15
除夕当天,牢记1不洗、2不倒、3不回、4不空、5要吃,吉祥过大年

除夕当天,牢记1不洗、2不倒、3不回、4不空、5要吃,吉祥过大年

秀厨娘
2026-02-15 08:45:25
整成这样新郎也能下得去口?闺蜜婚礼现场破防

整成这样新郎也能下得去口?闺蜜婚礼现场破防

烟浔渺渺
2026-02-15 14:26:44
揭秘:为何中国宁愿向越南输电,也不向朝鲜输电?

揭秘:为何中国宁愿向越南输电,也不向朝鲜输电?

辉辉历史记
2025-11-24 21:16:46
被困印度54年的中国老兵,因在森林中迷路误入印度境内,最终只能在当地娶妻生子

被困印度54年的中国老兵,因在森林中迷路误入印度境内,最终只能在当地娶妻生子

史海孤雁
2026-02-14 18:06:18
2026-02-15 18:20:49
CreateAMind incentive-icons
CreateAMind
CreateAMind.agi.top
1222文章数 18关注度
往期回顾 全部

科技要闻

发春节红包的大厂都被约谈了

头条要闻

网红带货"100%纯牛肉"涉虚假宣传 事后道歉但拒绝赔偿

头条要闻

网红带货"100%纯牛肉"涉虚假宣传 事后道歉但拒绝赔偿

体育要闻

最戏剧性的花滑男单,冠军为什么是他?

娱乐要闻

河南春晚被骂上热搜!大量广告满屏AI

财经要闻

谁在掌控你的胃?起底百亿"飘香剂"江湖

汽车要闻

奔驰中国换帅:段建军离任,李德思接棒

态度原创

教育
时尚
房产
本地
公开课

教育要闻

五年级求面积,中点是解题关键

推广中奖名单-更新至2026年2月3日推广

房产要闻

三亚新机场,又传出新消息!

本地新闻

下一站是嘉禾望岗,请各位乘客做好哭泣准备

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版