中美AI的差距到底有多大?上周在清华举办的一场内部研讨会上,国内一些核心AI参与者给出了明显不同于公开舆论场的判断。
过去一年来,国内大模型追得很快、差距只剩半年的声音,频繁出现在行业讨论与公众舆论中。从榜单、跑分、Demo 演示来看,似乎构成了一套高度可见的比较体系,也在无形中影响着大家对中美 AI 实力的整体认知。
但这场聚集了国内大模型全明星阵容的讨论,显然给出了更接近真实情况的判断。从参会嘉宾的组成,大家就能感受到这个判断的分量:智谱唐杰、Kimi杨植麟、阿里林俊旸,还有回国后首次公开亮相的姚顺雨。
这不是一场商业峰会,而是定位于高规格的学术交流,所以大家在相对封闭、坦诚的语境里,更能直视中美AI的真实差距:我们现实中看到的中美差距,可能只是“卷面分数”,而真实的差距恰恰隐藏在榜单数据背后。
一、为什么说这场讨论“有分量”
关于中美AI的差距,可以说是一个非常有分歧的话题,为什么这场会上的观点更有分量。从会议的组织和参与方来看,这是由清华大学基础模型北京市重点实验室发起,面向未来的AGI-Next前沿峰会,来参会的要么是创始人、要么是技术大拿,以及长期处在一线的学界研究者。
参会者的分享,也不是普通意义上的PR自家的产品或技术,而是真真实实的聚焦在技术和前沿趋势的讨论上。前面的分享环节,智谱唐杰、Kimi杨植麟、阿里林俊旸分别分享了过去一年,在大模型上的探索以及对未来的展望。
而在随后的圆桌环节,三位来自一线的唐杰、林俊旸、姚顺雨和来自学界的杨强,才真正把“中美 AI 差距”这个话题推向了它应有的深度。如果说前面的主题分享,更像是在系统性展示各家在模型、Agent、多模态等方向上的阶段性判断,那么圆桌讨论的价值,则在于这些判断开始彼此对照、相互校验。
讨论不再停留在“我们做了什么”,而是自然滑向了“为什么我们会走到这里”“哪些地方已经出现结构性分叉”。这种讨论方式,在公开场合并不多见。尤其值得注意的是,这几位来自一线的嘉宾在公司内部,都是对技术路径、组织选择和长期投入结果承担责任的人。所以他们关于中美差距的判断,不再是情绪化的“追上了 / 被甩开了”结果式判断,而是不断回到一些更底层的问题上:什么样的智能才算真正有价值?什么样的能力差距会在未来被放大?
正是在这种多重视角的交叉中,中美 AI 差距的问题,开始显露出它真正复杂的一面。它不再只是“模型能力对齐到哪一步”,而是涉及资本耐心、真实场景密度等一整套系统性条件。
二、领先概率只有 20%
论坛上,林俊旸给出的一个数字,在会后被媒体反复提及:未来三年,中国大模型处于领先位置的概率,只有20%。这句话之所以引发关注,是因为它与过去一年舆论场中不断强化的乐观预期形成了强烈反差。
需要强调的是,这并不是一个针对单项能力的判断。无论是在代码能力、Agent、还是部分评测榜单上,中国模型都已经非常接近,甚至在某些维度上实现了阶段性超越。林俊旸的判断,更像是一种系统级概率评估:在模型能力、算力投入、资本耐心、真实使用生态同时拉开时间维度后,领先只是一个小概率事件。
在讨论中,OpenAI多次被作为隐性参照对象出现。并不是因为它在某一个榜单上分数更高,而是因为它在多个关键维度上,形成了高度耦合的正反馈结构:强模型 → 高付费意愿 → 更大规模的算力投入→ 更长时间的前沿探索。
与之相比,中国大模型在开源领域“看起来很亮眼”,但正如唐杰所反复提醒的那样,真正决定前沿走向的能力,往往集中在闭源体系之中。而闭源模型所依赖的,不只是技术判断本身,还包括长期资本、稳定现金流,以及一个愿意为“最强能力”持续付费的市场环境。
这也是为什么,“领先概率只有 20%”这句话,并不是在否定努力,而是在戳破一种常见的误解:榜单上的接近,并不等同于整体竞争态势的对等。
三、差距从何而来
如果把论坛上的零散观点重新梳理,会发现一个高度一致的结论:中美AI的差距,并非来自某一个技术点,而是一整套系统性差异的叠加。
1、投资与基础设施
从表面看,中美都在建设数据中心、采购算力、训练模型;但真正的差异在于资本规模与“耐心”。美国拥有更成熟的耐心资本体系,以及更健康的云服务付费环境。云计算的高付费率,使模型公司能够通过持续商业化获得“回血能力”,从而支撑长期、非线性的技术投入。
相比之下,国内云生态的付费能力偏弱,决定了模型公司在商业化尚未成熟之前,很难承受长期高强度投入。这不是短期问题,而是一种结构性约束。
2、算力现实
“美国是富人在搞大模型,中国是穷人在搞大模型。”这句话在论坛现场引发了不小的共鸣。大模型并不是一次性投入的工程,而是高度依赖长期、稳定、冗余算力的产业。即便是国内头部公司,在算力采购与持续训练上的自由度,依然受限。
算力不足并不意味着“做不出来”,但意味着每一次尝试都更谨慎、更功利,也更难承担失败成本。
3、创业文化与路径选择
路径选择的差异,同样深刻影响着技术边界。
美国更鼓励 0 → 1 的高风险探索,即便成功率极低,也愿意为可能的范式突破持续下注;国内创业环境则更偏好已被验证的路径,在明确需求与回报的前提下快速推进。
结果是在被验证领域进展更快,但前沿探索的深度与广度不足。
四、真正的差距在前沿布局
论坛中最有启发性的部分,恰恰不在于当下能力的对比,而在于对“时间”的重新理解。
以芯片为例,从架构设计到流片,再到真正落地应用,往往需要至少三年时间。这意味着:今天我们看到的算力与模型能力,本质上是三年前战略判断的结果。
类似的逻辑同样适用于大模型。当前被广泛讨论的“长期记忆”“复杂推理”等方向,并非突然出现。事实上,OpenAI 在三年前就已经围绕这些能力进行系统性布局。
由此引出一个关键命题:我们看到的差距,是已经显现的差距;真正决定胜负的,是尚未显现的差距。
为了帮大家理解这种差距,我们或许可以参照日常生活中一个极具解释力的隐喻:85分vs 100分。你考85分,代表的是能力上限;而学霸考 100 分,往往只是卷面上限。
真正的差距不在分数,而在于知识结构是否完整;知识密度是否足够高;能否持续扩展新的能力边界。中美 AI 的差距,本质上更接近后者。中美的AI竞赛是一场涵盖了:芯片、资本、生态、人才、教育、创业文化的全栈式竞赛。
前者容易被量化,也最容易被讨论;后者决定长期走向,却往往被忽视。
当然,讨论中美AI差距,并不要唱衰中国AI。从现场的讨论中,大家也一致认可,中国AI在工程化能力、大规模落地、复杂场景适配方面,依然拥有确定性优势。
但共识同样清晰:AI 是工业革命级别的长期竞赛,而不是三年窗口期的冲刺。真正需要警惕的,也许并不是差距本身,而是我们不能用错误的尺度,讨论一个长期问题。
如果说过去几年,我们更多是在追赶“已经看得见的能力”,那么这样的讨论至少在提醒我们:下一步该为“还看不见的能力”提前下注了。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.