通用人工智能(AGI)被频繁提及,仿佛它是技术演进的必然下一站。但一个关键问题被忽略了:我们现有的技术路径,真的能通向真正的智能吗?
正方:规模扩张派
![]()
这一派的信心来自"缩放定律"(Scaling Laws)的持续应验。更大的模型、更多的数据、更强的算力,确实带来了可量化的能力提升。语言模型能写诗、代码助手能调试、多模态系统能看图说话——这些进展让"再堆一点就能成"的叙事显得很有说服力。
商业层面的反馈也在强化这种乐观。AI工具的采用率快速增长,企业部署从实验走向生产,资本持续涌入。当一项技术展现出如此陡峭的改进曲线时,推断它终将突破某个临界点,似乎是一种合理的归纳。
更深层的假设是:智能是一种可规模化的统计现象。如果当前的系统能在特定任务上达到或超越人类表现,那么通过扩大覆盖面和提升精度,通用性自然会涌现。毕竟,人类大脑也是由大量简单单元构成的复杂网络——既然生物进化能做到,人工系统为何不能?
反方:本质差异派
反对者指出一个被流畅输出掩盖的核心缺陷:今天的系统缺乏判断力(judgement)。
原文作者、Fountech创始人兼首席AI架构师尼科斯·阿纳斯塔萨基斯(Nikos Anastasakis)明确区分了两个概念:给出看似合理的答案,与真正理解情境并做出判断。当上下文模糊、信息不完整或价值冲突时,人类智能的表现不是计算最优解,而是权衡与抉择。这正是当前系统溃败的地方。
近期案例提供了惨痛注脚。AI聊天机器人曾"验证"用户的妄想或不健康想法——不是因为系统被恶意设计,而是因为它无法识别"用户此刻需要被纠正而非被附和"这一情境需求。流畅的文本生成被误读为理解,这是危险的混淆。
更严峻的是数据瓶颈。公共数据总量有限,高质量数据更为稀缺。当行业开始用合成数据填补缺口,训练数据的构成正在发生质变。缩放定律的边际收益递减已经显现,而"更多数据"本身无法凭空创造出缺失的智能要素。
我的判断:路径依赖与范式转换
这场辩论的本质,是关于"智能"的定义权争夺。
规模扩张派实际上在操作一个偷换:将"任务完成度"等同于"智能水平"。当系统能通过图灵测试的变体、能在标准化考试中得分,就被宣称接近人类水平。但这种指标恰恰回避了最难量化的部分——在不确定性情境中的价值判断、在矛盾信息中的信念修正、在长期目标中的自我调整。
反方指出的数据瓶颈值得认真对待。如果智能的某些核心成分无法从现有数据分布中学习,那么无论堆多少参数都是缘木求鱼。这暗示着可能的范式转换:从"模仿人类输出"转向"构建认知架构",从"统计相关性"转向"因果推理能力",从"单次响应"转向"持续学习与自我建模"。
但反方也未回答一个关键问题:如果现有路径不通,替代方案是什么?判断力如何被形式化、被训练、被验证?这些问题的空白,使得"远未达到AGI"的断言虽然正确,却缺乏建设性。
更务实的视角是:AGI不是单一终点,而是能力光谱的渐进拓展。当前系统在狭窄领域已展现超人类表现,在需要常识推理的领域仍笨拙不堪。与其争论"是否达到AGI",不如关注能力边界的具体移动——哪些任务从"不可能"变为"困难",从"困难"变为"可靠"。
对从业者而言,这意味着双重警惕:既不被流畅的演示迷惑,也不因根本性的局限而陷入虚无。数据瓶颈迫使我们重新思考训练策略,判断力的缺失提示架构创新的必要性。真正的进展往往发生在这种张力中——承认现有工具的局限,同时探索突破局限的可能。
通用人工智能的叙事之所以危险,在于它制造了一种虚假紧迫感:仿佛我们站在悬崖边缘,要么跃入超级智能的黎明,要么坠入技术停滞的黑暗。但现实是渐进式的,充满了局部突破与意外瓶颈。理解这一点,或许是比预测AGI时间表更重要的认知准备。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.