1月10日,由清华大学基础模型北京市重点实验室与智谱AI联合主办的AGI-Next前沿峰会圆桌对话,围绕2026年AI发展重点展开深度交锋。
2025年是中国开源模型大放异彩的一年,是开源四杰在全球大放异彩的一年,而且是Coding过去一年有10-20倍增长的一年,包括海外也在提Scaling到底走到哪一步了,有没有新范式出来了,接下来这个Panel是到底接下来怎么走。
姚顺雨(腾讯首席人工智能AI科学家):我有两个大的感受,一个感受是To C和To B发生了明显的分化,另外一个感受是垂直整合这条路,以及模型和应用分层这条路,也开始出现了分化。
当大家想到AI就是两个,ChatGPT,另外一个Claude Code,是做To C和To B的典范。Coding夸张一点来讲,已经在重塑整个计算机行业做事的方式,人已经不再写代码,而是用英语和电脑去交流。
对于To C来说,大部分人大部分时候不需要用到这么强的智能,大部分人尤其是在中国更多像是搜索引擎的加强版。但对于To B来说,很明显的一点是智能越高,代表生产力越高,值钱的也越来越多,一个模型是200美元/月,差一些的模型是50美元/月、20美元/月,很多美国的人愿意花溢价用最好的模型。在To C的应用上垂直整合还是成立的,无论是ChatGPT还是豆包,模型和产品是非常强耦合去紧密迭代的。但是对于To B来说这个趋势似乎是相反的,模型在变得越来越强、越来越好,但同样会有很多应用层的东西应用好的模型在不同的生产力环节。
我觉得腾讯肯定还是To C基因更强的公司,很多时候需要的是额外的Context。To B在中国确实是很难的事情,生产力的革命,包括我们今天很多中国的公司做Coding Agent需要打很多海外市场。
林俊旸(阿里巴巴Qwen技术负责人):我觉得今天To B也好,To C也好,我们在服务真实的问题,我们想的问题是怎么把人类世界变得更好。你就算做To C的产品也会分化,今天OpenAI更像一个平台了,但是To C最终要服务真实的这批用户究竟是谁。今天可能有很多AI会更偏向medical和law,今天我觉得Coding真的很厉害,我就拜访它,因为我知道他们跟客户交流非常多,这个是我们还不够好的一个点。虽然我们拥有巨大的优势,也可能中国SaaS市场跟美国确实不太一样,他们确实非常频繁地跟客户进行交流,很容易发现很大的机会。今天我跟美国的很多API厂商聊起来,他们没有想到Coding消耗量那么大,在中国真的没有那么大,至少从我这边来看,但是在美国,基本上全都是Coding,我觉得这个事情不是所有人都能Get到的。
杨强(加拿大皇家科学院院士):分化的问题其实我更想聊一下工业界和学术界的分化,这个可能是横跨美国和中国的。一直以来,学术界是一个观望者,工业界在领头往前疯跑,搞得很多学术界的人也在做工业界的事情,像唐杰老师。这是一个好事,就好像天体物理学刚刚开始的时候是以观测为主,伽利略的望远镜,然后才出现牛顿。所以我觉得后面一个阶段,当我们有了众多的稳定大模型,进入一个稳态的时候,我们学术界应该跟上来。
智能上界在哪里?计算机理论课里面有一个重要的定理叫哥德尔不完备定理,大概意思是说一个大模型不能自证清白,必定有一些幻觉不可能消灭掉,可能你给更多的资源,它会消灭得更多。所以科学问题就来了,你多少资源能够换取多少幻觉的降低或者错误率的降低,这是有一个平衡点的,这个平衡点特别像经济学,经济学的风险和收益的一种平衡,所以我们叫这叫无免费午餐定理。像这些东西,我觉得今天就特别适合数学界、算法界和学术界和工业界一起做研究,这孕育着一个巨大的突破。
持续学习是一个特别好的问题,它里面有个时间的概念,你在持续地不断地学的过程当中,但是你会发现,比方说你把不同的Agent给串联起来,每一个Agent都不能做到百分之百的话,你在N个以后它的能力是按指数下降的,你怎么样能够保证它不下降。人类是用一个方法做这个事,第一天是学习,第二天会在第一天噪音的基础上学习,这样你的能力就类似大模型会下降。但是人类有一个方法就是睡觉、睡眠,我建议大家看一本书叫《我们为什么睡觉》,是MIT的两个教授写的,非常好玩,它说每天晚上睡觉是在清理噪音,使得第二天你可以把准确率持续地提升,不至于是两个错误率的叠加。像这些理论的研究孕育着一种新的计算模式。我们今天可能比较关注Transformer,但是我觉得有必要做一些新的探索,这是工业界和学术界要拉齐。
唐杰(智谱首席科学家、清华大学教授):都希望机器有泛化能力,我教它一点点,它就能举一反三,我们的目标是希望通过Scaling让它有更强的泛化能力。
最早期的时候我们用Transformer训一个模型,把所有的知识记忆下来。我们训的数据越多,我们训的算力越多,它的长时知识的记忆能力越强,第二层是把这个模型进行对齐和推理,让这个模型有更复杂的推理能力以及理解我们的意图。今年是RLVR(可验证奖励强化学习)爆发年。
2025年初DeepSeek出来,很多时候叫横空出世,我们当时的想法也许新的范式是让每个人能够用AI做一件事情,这可能是下一个范式,技术路线的选择:Thinking + Agentic + Coding。
![]()
中国团队另辟蹊径,绕开光刻机“卡脖子” 中国新型芯片问世,支撑AI训练和具身智能
2025年10月,北京大学人工智能研究院/集成电路学院双聘助理教授孙仲与北京大学集成电路学院蔡一茂教授、王宗巍助理教授率领的团队成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,在全球范围内首次将模拟计算的精度提升至24位定点精度,让未来同等任务下使用更少的计算卡成为可能。
这是一种完全不同于目前所有商用量产芯片的新型芯片,计算精度从1%跃升至千万分之一;可以支撑6G、具身智能及AI大模型训练等多个前沿场景;更重要的是,它可在28纳米及以上成熟工艺量产,绕开光刻机“卡脖子”环节。
事实上,AI大模型、具身智能、6G等应用背后都是矩阵计算,AI推理是做矩阵乘法,AI训练是在解矩阵方程。而英伟达的崛起正是得益于GPU(图形处理器)很擅长做矩阵计算。
孙仲:计算范式只有两种:模拟(类比)计算与数字计算。当前主流芯片——无论是GPU、TPU(张量处理器)、CPU(中央处理器)还是NPU(神经网络处理器)——都是数字芯片,底层都是硅基器件,基于逻辑门(逻辑函数)、晶体管,都要二进制化。以先进GPU为例,一张卡可能集成超过1000亿个晶体管,因此能提供很大的算力。但如果追本溯源,会发现数字计算其实并非一种很高效的计算方式。
举例来说,想要完成一次简单的“1+1”需要28个晶体管,想完成两个10位数的乘法需要约1万个晶体管。但正因为现在晶体管可以做得很小,才能在芯片上容纳千亿级的晶体管,所以它可以“以量换算”——一次操作要消耗1万个晶体管,它不在乎,因为它足够多,1000亿除以1万还有1000万,这意味着它还有很大算力。
而一个芯片里能有这么多晶体管,在于摩尔定律。我认为摩尔定律是让现在数字芯片如此成功的唯一推手。最初晶体管做出来大概是5厘米×5厘米×5厘米这么大,因为有摩尔定律,5厘米变成5纳米,所以千亿级的晶体管也可以被塞进去,否则,一万个晶体管可能要铺满整间屋子甚至整个楼层。
但如今摩尔定律趋于终结,晶体管很难再微缩,所以业界现在只能横向堆计算卡:少则百卡,多则万卡、十万卡。但这样的方式我认为是不可持续的——能耗、碳排放均呈指数级上升,与国家“双碳”目标相悖。因此,我认为需要探索一种不同的计算范式,即模拟(类比)计算。
模拟计算并非全新的计算范式,在上世纪30至60年代曾被广泛应用,但随着计算任务日益复杂,其精度瓶颈凸显,逐渐被数字计算取代。我们这次研究的核心正是要解决模拟计算“算不准”这一痛点。
模拟计算也叫类比计算,人类从小算“1+1”,并非动用28个晶体管,而是“一根筷子加一根筷子等于两根筷子”“一棵树加一棵树等于两棵树”的物理类比,一根筷子、一棵树都是物理系统。若将“筷子”“树”缩至电子尺度——1个电子加1个电子是2个电子,这永远成立,要做计算的时候,就可以直接通过物理定律来做计算——相较于28个晶体管,电子级类比在硬件资源开销与能耗上均下降数个量级。
数字计算是二进制,都以0和1来表示信息,例如“5”被编码为“101”,任何运算都需通过逻辑门对二进制信息进行操作;模拟计算则无需编码,“5”可直接对应物理量(如5 V、5000Ω),加法与乘法都可以直接通过物理定律瞬时完成。
换句话说,数字计算中间有一个“翻译”环节,而这个环节把原本的信息“翻译”得体量更为庞大,计算过程需要去一一处理这些更庞大的信息,才能得到针对原始问题的解。而模拟计算则省去了这个中间环节,所以速度更快,能耗也大幅降低。
目前这款芯片的研究还处在实验室阶段。需要强调的是,新型芯片问世,证实了一条新路径的可行性。我们需要提前做技术储备:当某类计算任务(如超级AI)急切需要做矩阵方程求解时,中国要有现成方案和团队站在那里,可能不是我们,是其他团队,但要有这样的储备。GPU当年仅用于游戏,2012年因AI需求爆发而一飞冲天;同理,中国必须储备多种先进技术,以等待属于自己的“2012时刻”。当窗口开启,技术储备将决定我们能否抓住下一波浪潮。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.