网易首页 > 网易号 > 正文 申请入驻

AI大咖们冷水:中国公司领先AI的概率仅为20%

0
分享至

话说,上周末,清华举办了一个AI活动,名为“AGI-Next”,找来的嘉宾都有点意思。被称为中国“开源四杰”的其中三家都参加了讨论,分别是Kimi创始人、CEO杨植麟,阿里Qwen技术负责人林俊旸,加拿大皇家学院院士、香港科技大学荣休教授杨强也参与进来。同时,令人关注的是,刚刚加入腾讯的AI首席科学家、前OpenAI研究员姚顺雨也参加了视频连线。

简单来说呢,中国最顶尖的AI大咖们都聚在一起了。八姐也听了这场相当长的对话,感觉干货还是满满的。

以下是我觉得的感兴趣的干货:



1,三五年后,中国公司在全球领先的概率只有20%

最令我感兴趣的是,在谈到全球的AI竞争时,林俊旸清醒地指出,即使乐观估计,三五年后,中国公司在全球领先的概率也只有20%,这其中很多历史积淀的原因。

这些原因中,除了光刻机的问题外,最为主要的原因一个是文化,一个是算力。

姚顺雨指出,在中国大家还是更喜欢做更安全的事情,比如说今天预训练这个事情已经被证明可以做出来了,其实这个事情也非常难做,有很多技术问题要解决,但大家都很有信心几个月或者一段时间内就把这个问题搞清楚。中国的创业者们更喜欢做确定性的事情、不太愿意做创新性的事情。

同时,中国(AI公司)对于对于刷榜或者数字看得更重一些。但其实DeepSeek做得比较好,他们没有那么关注榜单数字,可能会更注重:第一,什么是正确的事情;第二,什么是你自己能体验出好或者不好的。再比如,Claude模型在编程或者软件工程的榜单上排名也不是最高的,但大家都知道这个东西是最好用的。

林俊旸也指出,中国和美国的算力差距太大。比如,美国的算力整体比中国的大1-2个数量级。OpenAI(及其他美国公司)有大量的算力投入到下一代的研究当中去。而对于中国公司而言,算力是捉襟见肘的,光交付可能就已经占据了绝大部分的算力。创新是发生在有钱的人手里。

但他也认为,算力少的”穷人“也不是没有机会,也可以去做算法基础设施,去做软硬结合。

2,另外一个有趣的点是,大模型已告别同质化竞争,走向了分化。

比如作为大厂代表,姚顺雨指出,To C与To B 领域呈现截然不同的发展逻辑。To C端,用户对模型极致智能感知有限,大模型更多充当搜索引擎的加强版,典型如 ChatGPT,其能力迭代并未给普通用户带来显著体验升级;而在To B端,模型智能水平与生产力提升强相关,企业愿意为高性能模型支付溢价。以 Coding场景为例,强模型的任务准确率远超普通模型,能大幅降低企业人力成本,因此 To B市场中 “强者愈强” 的马太效应将持续放大。

林俊旸补充,To C产品的分化还体现在用户群体细分上,未来 AI 应用可能向医疗、法律等垂直领域倾斜,而企业的核心竞争力在于与客户的深度交流,挖掘真实需求。

而唐杰则表示,智谱内部争论了很多个晚上,最后把所有精力都押在了Coding上,"AI替代搜索这场仗,随着DeepSeek的出现已经打完了。下一场是Coding。"

好啦,干货满满,如果想了解更多,大家直接去看圆桌对话全文吧。

【圆桌对话】

主持人/李广密:我是接下来Panel的主持人广密。我刚才在台下听有几个感受,第一是唐老师的号召力很强,清华的人才非常好,不仅是国内包括海外,清华人的比例非常高,感觉这一拨好像跟国内学校在AI这一拨拉开差距了。第二是我刚才听几个Talk的感受是不止follow、不止开源,不只是Coding,都在探索自己的产品形态。

2025年是中国开源模型大放异彩的一年,是开源四杰在全球大放异彩的一年,而且是Coding过去一年有10-20倍增长的一年,包括海外也在提Scaling到底走到哪一步了,有没有新范式出来了,接下来这个Panel是到底接下来怎么走是特别有意思的。接下来邀请几位嘉宾:杨强教授、唐杰老师、俊旸和顺雨。

我们先从第一个比较有意思的话题聊起,硅谷几家明显做分化,可以从分化这个主题先聊起来,Anthropic其实是对中国模型有一个非常大的启发,硅谷的竞争那么激烈,它没有完全Follow,全都做,而且是专注到了企业,专注到了Coding,专注到了Agent。我也在想接下来中国的模型会分化成自己想要的哪些方向?我觉得分化这个主题蛮有意思的。顺雨上线了,顺雨开场给大家讲一讲。

姚顺雨:大家好,我现在是不是一个巨大的脸在会场?不好意思,今天没法亲自来北京,但是很高兴参加这个活动。最近忙着做模型、做产品、做AI,是一个很正常的状态。回国的感觉还是挺好的,吃的好很多。

主持人/李广密:顺雨,你能展开聊聊你对模型分化这个主题的想法吗?硅谷也都在分化,包括说Sora peck做了Coding,中国很多模型做了开源,过去Coding提的也很快,包括谷歌也没有全都做,它现在把全模态这个做好,你的老东家重点做To c是横跨中美的体感,可以讲讲你的体感,接下来不管是自己也好,各家也好,分化这个点,你是怎么思考的?

姚顺雨:我觉得有两个大的感受,一个感受是To C和To B发生了明显的分化,另外一个感受是垂直整合这条路,以及模型和应用分层这条路,也开始出现了分化。

我先说第一点,我觉得很明显的是当大家想到AI就是两个,ChatGPT,另外一个Claude code,是做To c和To b的淀粉。非常有意思的一点是我们今天用ChatGPT和去年相比的话,感受差别不是太大。但是相反,Coding夸张一点来讲,已经在重塑整个计算机行业做事的方式,人已经不再写代码,而是用英语和电脑去交流。

我觉得很核心的一点,对于To C来说,大部分人大部分时候不需要用到这么强的智能,可能今天用ChatGPT和去年相比,写成交代数和伽罗瓦理论的能力变强的,但是大部分人大部分时候感受不到。大部分人尤其是在中国更多像是搜索引擎的加强版,很多时候也不知道该怎么去用,把它的智能给激发出来。

但对于TO B来说,很明显的一点是智能越高,代表生产力越高,值钱的也越来越多,这些东西都是相关的。

对于TO B来讲,还有一个很明显的点,大部分时候很多人就愿意用最强的模型,一个模型是200美元/月,第二强或者差一些的模型是50美元/月、20美元/月,我们今天发现很多美国的人愿意花溢价用最好的模型,,可能他的年薪是20万美元,每天要做10个任务,像一个非常强的模型可能10个任务中,八九个做对了,差的是做对五六个,问题是你不知道这五六个是哪五六个的情况下,需要花额外精力去监控这个事情。

我觉得无论是人还是模型,在To B这个市场上发现了一个很有意思的现象,强的模型和稍微差点,或者弱的模型它的分化会越来越明显。我觉得这是第一点观察。

第二点观察,垂直整合这条路和模型应用分层这条路的区别,我觉得一个比较好的例子,比如ChatGPT Agent,相比于用Claude或者Gemini加上Manus这样的应用层产品,过去大家会认为当你有垂直整合能力肯定会做的更好,但起码今天来看并不一定。首先模型层和应用层需要的能力还是挺不一样的,尤其是对于To B或者生产力这样的场景来说,可能更大的预训练还是一个非常关键的事情,这个事情对于产品公司确实很难做,但是想要把这么一个特别好的模型用好,或者这样的模型有它的溢出能力,也需要在应用侧或者环境这一侧做很多相应的事情。

我们会发现其实在To C的应用上垂直整合还是成立的,无论是ChatGPT还是豆包,模型和产品是非常强耦合去紧密迭代的,但是对于To B来说这个趋势似乎是相反的,模型在变的越来越强、越来越好,但同样会有很多应用层的东西应用好的模型在不同的生产力环节。

这是我的两个观察。

主持人/李广密:因为顺雨有一个新的身份,在中国的市场下顺雨在接下来想的是什么,有哪些鲜明的特点或者关键词吗?现在能给大家分享吗?

姚顺雨:我觉得腾讯肯定还是To C基因更强的公司,我觉得我们会思考怎么样能够让今天的大模型或者说AI的发展能够给用户提供更多价值,很核心的思考是我们发现很多时候我们的环境来讲或者更强的模型,或者很强的模型,很多时候是额外的Context。

我最近经常举一个例子,比如我想问我今天该去吃什么?其实你今天问ChatGPT和你去年问或者明天问都会差很多。这个事情想要变好,不是说你需要更大的模型、更强的预训练、更强的强化学习、更强的Agent环境或者更强的搜索引擎,这个问题可能需要更多额外的输入,或者我们叫Context,如果它知道我今天特别冷,我需要吃些暖和的,我在今天这样的范围活动,可能我老婆在另一个地方吃什么等各种各样的事情。其实回答这样的问题,更多的是额外的。比如我和老婆聊了很多时间天,我们可以把聊天记录转发给元宝,或者把额外的输入用好,反而会给用户带来很多额外的价值。这是我们对To C上的思考。

在To B在中国确实是很难的事情,生产力的革命,包括我们今天很多中国的公司做Coding Agent需要打很多海外市场。我们会思考怎么把自己先服务好,像创业公司做Coding这个事情和大公司做Coding这个事情,一个区别是作为大公司本身就已经有各种各样的应用场景、各种各样需要生产力变的更好的地方,如果我们的模型能够在这个地方做的更好,不仅这个模型会有自己独特的优势,不仅我们公司本身能得到很好的发展,很重要的一点是对于真实世界场景的数据捕捉会是一个很有意思的事情,比如说Cloud,这些创业公司,他们想要去做更多的Coding Agent的数据厂商去标注这个数据,他们需要利用各种各样的软件工程师去想我要去标什么样的数据。这个事情是数据公司一共就这么几家,一共有招了这么多人,最终你会受限,但如果你是一个10万人的公司可能会有一些有意思的尝试,怎么把真实世界的数据利用好,而不是仅仅依赖于标注商或者协议。

主持人/李广密:多谢顺雨。接下来Cue一下俊旸,你怎么看接下来千问未来的生态位或者分化的考虑,之前你讲了多模态,阿里云在To B很强,接下来你也提了全模态可能更多的是To C的,这方面是怎么思考的?

林俊旸:接下来这一句,我也想注入我们自己对AGI的理解。我觉得今天To B也好,To C也好,我们在服务真实的问题,我们想的问题是怎么把人类世界变的更好。你就算做To C的产品也会分化,今天OpenAI更像一个平台了,但是TO C最终要服务真实的这批用户究竟是谁。今天可能有很多AI会更偏向medical和log,今天我觉得Coding真的很厉害,我就拜访它,因为我知道他们跟客户交流非常多,这个是我们还不够好的一个点,虽然我们拥有巨大的优势,也可能中国SaaS市场跟美国确实不太一样,他们确实非常频繁地跟客户进行交流,很容易发现很大的机会。今天我跟美国的很多API厂商聊起来,他们没有想Coding消耗量那么大,在中国真的没有那么大,至少从我这边来看,但是在美国,基本上全都是Coding,我觉得这个事情不是所有人都能Get到的。

今天做的一些相关的一些东西,我觉得也是他们自己在跟客户看到这个机会,我觉得可能大家的分化是自然的分化,我更愿意相信AGI,做AGI该做的事情,顺其自然,这是我们该做的事情。

主持人/李广密:多谢俊旸。有请杨强老师谈谈分化的问题。

杨强:分化的问题其实我更想聊一下工业界和学术界的分化,这个可能是横跨美国和中国的。一直以来,学术界是一个观望者,工业界在领头往前疯跑,搞得很多学术界的人也在做工业界的事情,像唐杰老师,这是一个好事,就好像天体物理学刚刚开始的时候是以观测为主,伽利略的望远镜,然后才出现牛顿。所以我觉得后面一个阶段,当我们有了众多的稳定大模型,进入一个稳态的时候,我们学术界应该跟上来。

学术界跟上来要解决什么问题呢?工业界可能还没来得及解决的一些问题,这也是我一直在考虑的问题,就是说智能上界在哪里,比如说给你一定的资源,计算资源或者能源资源,你能做到多好?可以更细一点,比方说我们把这个资源怎么分配,哪些分配在训练上、哪些分配在推理上?其实我很早就在做AI,90年代初就做过一个小实验,如果我们有一定的投入在记忆上,那么这个记忆能够帮助推理多少,这个帮助会不会变成一个反向的,就是说你记的太多了,反而记的噪音会干扰你的推理,有没有一个平衡点,我觉得这些问题今天还是适用的。

我最近也在想另外一个问题,大家学计算机的都必定上计算机理论课,里面有一个重要的定理叫哥德尔不完备定理,大概意思是说一个大模型不能自证清白,必定有一些幻觉不可能消灭掉,可能你给更多的资源,它会消灭的更多,所以科学问题就来了,你多少资源能够换取多少幻觉的降低或者错误率的降低,这是有一个平衡点的,这个平衡点特别像经济学,经济学的风险和收益的一种平衡,所以我们叫这叫无免费午餐定理。像这些东西,我觉得今天就特别适合数学界、算法界和学术界和工业界一起做研究,这孕育着一个巨大的突破。

刚才唐杰老师也提到持续学习,我觉得持续学习是一个特别好的问题,它里面有个时间的概念,你在持续地不断地学的过程当中,但是你会发现,比方说你把不同的Agent给串联起来,每一个Agent都不能做到百分之百的话,你在N个以后它的能力是按指数下降的,你怎么样能够保证它不下降,人类是用一个方法做这个事,第一天是学习,第二天会在第一天噪音的基础上学习,这样你的能力就类似大模型会下降。但是人类有一个方法就是睡觉、睡眠,我建议大家看一本书叫《我们为什么睡觉》,是MIT的两个教授写的,非常好玩,它说每天晚上睡觉是在清理噪音,使得第二天你可以把准确率持续地提升,不至于是两个策略率的叠加。像这些理论的研究孕育着一种新的计算模式。我们今天可能比较关注Transformer computer,但是我觉得有必要做一些新的探索,这是工业界和学术界要拉齐。

主持人/李广密:唐老师,我们从外部的感受上,智谱今天更像是走了anthropic这条路线,就是coding非常非常强,榜单上非常靠前,包括长程的Agent,您对分化这个主题怎么看?

唐杰:我倒觉得回到了最本质的问题,早期的时候还是基座模型,2023年那个时候我们第一个做出Chat的,当时第一个想法是赶紧把Chat扔在网上上线,当时国家有规定,八九月份一起上。当时我的第一感受是十来个大模型都上来了,而且每一家用户都没有那么多,当然今天分化的非常严重。

后来我经过一年的思考,我觉得其实这个已经不是真的解决问题,我的第一个预判是说它会替代搜索,我相信今天很多人在用这个模型替代搜索,到今天我相信大家很多人在开始用这个模型替代索索,但是并没有替代谷歌,谷歌反而把自己的搜索革命了,谷歌自己做了搜索的改进。从这个角度上,我觉得这一仗从DeepSeek出来之后,已经没有了,已经结束了。DeepSeek之后我们应该想的是下一仗是什么东西?我们团队争论了很久,下一仗肯定要让AI做一件事情,做这件事情是什么可以讨论一下,那个时候广密还到我们那跟我们交流,广密的知识特别渊博,他思考问题很深邃,和他的交流对我的启发非常大,原来我没有想到,那一次让我启发非常大。后来我们团队争论了很多晚上,争论到最后,可以叫我们的运气,另一方面我们也是把所有的精力放在了Coding上。

主持人/李广密:我觉得有大家有了自己的best,不仅大家在追求恩通用能力,大家都有自己的资源禀赋把自己擅长的点做。

接下来第二个比较有意思的问题,今天这个时间点特别特殊,一个是预训练过去走了3年,大家都说可能今天走到了七八成的收益,强化学习也都成为共识,做到了四五十的空间,后面的数据、环境空间很大,接下来一个新的范式,唐老师也谈到了自主学习、自我学习,因为今天这个会的主题是接下来的展望Next,我觉得这是一个特别值得去聊的话题。

我们先从顺雨开始,你从领先的OpenAI待过,对于下一个范式是怎么思考的?因为OpenAI是为人类推进了前两个范式的一家公司,对第三个范式,从你的观察来讲,能给大家带来一些分享吗?

姚顺雨:现在自主学习是一个非常热门的词,在硅谷大街小巷咖啡馆里面,大家都在谈论,形成了一个共识。根据我的观察,每个人对这个东西的定义和看法都不一样,我讲两点:

第一,这个事情不是方法论,而是数据或者任务。当我们在谈论自主学习的时候,它到底在什么样的场景下基于什么样的奖励函数去做,你在聊天的时候变的越来越个性化是一种自主学习,在写代码的时候越来越熟悉每个公司独特的环境或者文档是一种自主学习,你去探索新的科学,在这个过程中像一个博士一样,从原来不了解有机化学是什么,到完成这个领域的专家,这也是一种自主学习。每一种自主学习的挑战或者说方法论都不太一样。啊啊

第二,我不知道这是不是非共识的,这个事情其实已经在发生了,很明显的,ChatGPT在利用用户的数据不断弥合人聊天的风格是什么,使得能感觉到它的好,这是不是一种自我学习?

今天Claude已经写了Claude code这个项目95%的代码,它在帮助它自己变的更好,这是不是一种自我学习?我们当时2022年、2023年的时候,我去硅谷宣传这个工作,我当时写了第一页是说ASI最重要的点是自主学习,今天的AI系统本质上都有两部分,首先它是一个模型,其次它有个代码库,你怎么去用这个模型,是用来做推理,还是做Agent,有相应的代码库,我们今天看Claude code这个系统本质上有两部分。

一部分是是部署环境的一大堆相应的代码,kernel、GPU的环境是怎样的。另一部分是怎么样去使用它,有一大堆相应的代码,无论是GPU的,或者说它的前端还是环境是什么样的。我们做Switch方面大家意识不到,这些自主学习的例子可能还局限在每一个特定的场景下,没有让人感觉到非常大的威力。

这个事情已经在发生了,可能效率或者受限制的限制,有各种各样的问题,可能这个事情我个人的看法它更像是一个渐变,不是突变,这是我的看法。

主持人/李广密:我再Follow顺雨一个问题,有一些人对自主学习比较乐观,2016年可以看到一些信号,你觉得自主学习看到信号,还有哪些实际的问题要突破?比如说Long Context也好,模型并行采样也好,你感觉接下来还有哪些关键条件具备了,这些信号才会发生?

姚顺雨:很多人说2026年看到信号,我觉得2025年就看到信号了,比如cursor他们做的每几个小时都会用最新的用户数据去进行学习,包括新的模型,也在使用这些真实环境下的数据去训练,大家觉得这个东西可能还没有特别石破天惊,是因为受限于他们没有预训练能力,他们模型效果确实还不如Claude 4.5 Opus,显然这是一个信号。

最大的问题是想象力,我们很容易想象强化学习或者推理这个范式,如果实现大概是什么样,我们可以想象O1,在数学题上本来是10分,现在变成了80分,通过这个强化学习有非常强的思维链做这个事情。如果2026年或者2027年我们有一个范式的发生,我宣布了一个新的模型或者新的系统实现了自我学习,我们应该用什么样的任务,它应该是什么样的效果,你会相信它实现了,它是一个赚钱的交易系统,它可以赚很多钱,它真的解决了人类之前没法解决的科学问题还是别的。我觉得可能需要先想象到它长什么样。

主持人/李广密:顺雨,OpenAI已经立了两次范式科学,如果2027年有新的范式出来,全球范围内的哪家公司继续立的范式创新的概率最大?如果说一家公司。

姚顺雨:可能OpenAI的概率还是更大,因为它商业化等各种各样的变化,它创新的基因已经被削弱了,但我觉得它还是最有可能诞生新范式的地方。

主持人/李广密:多谢顺雨。俊旸对2026年新的范式还有什么要聚焦的?

林俊旸:如果从更实际一点来讲的话,刚才讲的这个范式在比较早期阶段,RL这个事情,实际上我们还没有做的那么充分,很多潜力没有打出来。今天我们也看到很多问题在这里面发生,我觉得全球范围内类似的问题还存在。

如果要说下一代范式的话,一个自主学习,之前跟一个朋友聊到说人类不能让AI变的更厉害,比如说你跟AI不断地交互,只会让它上下文变的越来越长,AI变的越来越笨,这是很烦人的事情。

这件事情是不是真的能够发生?这还是挺值得思考的,你能吐更多Token让你变的更强,至少O系列一定程序上实现有没有可能,就像我真的干30个小时真的能够干出很难的任务,今天大家做超越的事情很难,有没有可能通过Coding去实现。

从这个角度来说,AI肯定需要自主进化,但究竟你是不是要更新参数,我觉得见仁见智,大家都有不同的技术手段去实现这个事情。

第二点是AI有没有可能实现更强的主动性,环境是我的输入信号,我现在的AI必须得有人类帮助他才能启动,但是有没有可能自己能自主思考,去做一些事情。这引发了一个新的问题,就是安全的问题,我非常担心安全的问题,不是担心它今天讲一些不该说的话,最担心的是它做一些不该做的事情

比如说今天主动产生一些想法,往会场里面扔一颗炸弹,我们肯定不希望不安全的事情发生。就像培养小孩一样,我们要给它注入一些正确的方向,但主动学习是一个挺重要的范式。

主持人/李广密:俊旸提了主动性,自主学习看到信号,你感觉可能是在哪些任务上做什么样的任务会先看到?是训练模型,最强的模型可以提升自己,还是自动化的AI研究员?你有期待在哪些地方先看到吗?

林俊旸:我觉得自动化的AI研究员甚至都不是那么需要自主学习,可能很快训AI这件事情就可以实现,我看我们同学每天干这个事情,我觉得很快就被替代掉。我觉得可能更持续的理解用户这件事情还挺重要的,比如说过往我们在做推荐系统的时候,用户这个信息是持续输入,让这个系统变的更强,它的算法变的更简单。在AI这个时代它是不是能不更懂你,这些信息的输入能不能真正成为帮助我们的工具。

我觉得如果说自主学习的话,可能会是跟人的交互上就能做到。但是以什么指标进行衡量?不太好说,在推荐的时代下,你做的越好,别人可能点的越多、买的越多,但是在AI时代覆盖到人类生活的方方面面的时候,真正的衡量指标是什么,我们不太知道。我感觉今天更大的从技术上的挑战,我们今天不知道该怎么做,这可能是我们更值得研究的问题。

主持人/李广密:俊旸说到了主动,包括个性化,你感觉如果实现记忆这个点,2026年能看到技术突破性的跨越吗?

林俊旸:我个人观点是大量的技术所谓的突破性都是一些观测问题,都是在线性发展的,只是人类对它的感受非常强烈而已,包括像ChatGPT的出现,对于我们做大模型的人来讲都是线性的增长,现在大家都是在做Memory这个事情,这个技术对还是不对呢?很多方案也没有对错之分,但做出来的效果,至少拿我们自己献丑,我们自己的Memory看起来知道我过去干了什么,但是只是记起来过去事情,每次叫一遍我的名字,其实并不显得你很聪明,你的Memory有没有可能到某一个临界点的时候,结合你的Memory,就像生活当中的人一样,过去大家讲电影,它真的很像人,理解你的Memory就是在那一下,人类的感受突然间迸发。

我觉得多多少少也需要一年时间,很多时候技术也没有发展那么快。大家比较卷,每天有新的东西,但是技术在线性的发展,我们在观测的角度处于指数上升的阶段,比如说Coding能力的一点点提升,可能就能带来很多生产价值,大家就觉得AI发展的很快,从技术的进展上来说,我们多干一点点事情。每天看我们自己做的事情觉得真的挺土的,那些Bug真的不好意思拿出来跟大家讲。如果这样做,我们已经做到这样的成绩,我觉得可能未来算法infra结合的更好,可能更大有可为。

主持人/李广密:有请杨强老师。

杨强:我一直以来是做联邦学习的,联邦学习的主要思想是多个中心大家协作。我现在越来越多地看到很多有本地资源不足,但是本地的数据又有很多隐私和安全的要求,所以这样我们就可以想象现在大模型的能力越来越强,这种通用型大模型和本地特殊性的小模型或者领域专家的模型如何协作,我觉得这种协作变的越来越可能,像美国ZOOM,就是黄学东他们做的AI系统,他做了一个很大的基座,这个基座大家都可以插进来,它可以在Decentralise的状态下,能够既保护隐私,又能够和通用大模型有效的沟通、协作。

我觉得这种开源模式特别好,一个是知识的开源,一个是Code方面的开源,模型阶段。

我觉得尤其是像医疗、金融这样的场景下,会越来越多看到这样的现象发生。

主持人/李广密:有请唐老师。

唐杰:我对今年会有非常大的范式革新有信心,我不说太细,就像我刚才讲的持续学习,还有Memory,甚至多模态,我觉得都有可能出现新的范式变革。

但我觉得一个新的趋势,我说说为什么会产生这么一个范式?我觉得原来其实工业界跑的远远快于学术界,我记得去年和前年回到清华跟很多老师聊天的时候能不能做大模型,很多老师第一是没卡,也不是没卡,是卡的数量几乎为零,工业界有1万片,学校是0片或者1片,倍数是1万次,但是到现在的时候,很多学校已经有很多卡了,而且很多老师已经开始做了很多大模型的相关研究,包括硅谷那边有很多老师都开始做模型架构、持续学习相关的研究,原来我们总觉得工业界在dominating这些,其实我觉得今天在2025年底到2026年初的时候,这一现象不大存在了,可能还有10倍的差,但它已经孵化出种子了,我觉得在学术界有这个创新的基因,有这个可能性,这是第一个。

第二,我觉得一个创新的出现一定是某个事情有大量的投入,并且它的efficiency变成瓶颈了,现在在整个大模型里面投入已经巨大,但是efficiency并不高,也就是我们继续Scaling,肯定是有收益的,原来data从2025年初,当时可能10个TB的数据,现在30个T,甚至我们可以Scaling到100个T,但是100个T,你Scaling上去以后,你的收益有多少,计算Cost有多少,变成了这么一个问题,你不创新,这就变成了可能花掉10个亿、花掉了20个亿,但是你的收益很小,就不值得了。

另外一方面对于新的智能创新,假如说我们每一次都要重训一个基座,再重训很多RL,像2024年出RL的时候,很多人会觉得我接着训,收益表里有,但是到今天的时候再接着疯狂的RL,收益也有,但没有那么大,还是收益效率的问题,可能我们未来也许可以定义,一方面既然要Scaling up,最笨的办法就是Scaling,Scaling我们会有收益,Scaling肯定会带来智能上界的提升。第二个办法是应该定义Intelligence efficiency,就是说智能的效率,我们获得智能的效率,我们用多少投入能获得这个智能的增量,如果我们能用更少的获得它的增量,而且现在我们已经变成了一个瓶颈,假如能用更少的范式获得同样智能的提升,它就变成一个瓶颈式的事情。

所以我觉得2026年一定会有这样一个范式的发生,我们也在努力,我们希望发生在我们身上,但也不一定。

主持人/李广密:我跟唐老师一样也非常乐观,每个领先的模型公司,每年的计算量有10倍左右,大家手上的计算资源多了,而且人才也涌入的越来越多,大家手上的卡变多,做的实验做了,有可能就是某个试验工程,某个点就出来了。

刚才唐老师也聊到怎么衡量智能水平的点,第三个是聊聊Agent战略,最近我跟很多研究员聊,对2026年还有一个很大的预期,Agent今天可以在后台推理3-5个小时,做人类1-2天的工作量,大家期待2026年可以做人类正常工作1-2周的工作量,这也是一个非常大的变化,它不再只是一个Chat,而是说真的在自动化一整天甚至一周的任务流,2026年Agent可能是创造经济价值的关键一年。Agent这个问题,可以让大家展开聊一聊,顺雨刚才提的垂直整合,既有模型,又有Agent产品,包括我们看到硅谷的几个公司,从模型到Agent端到端都做了。顺雨花了很多时间做Agent的研究,你对2026年Agent,比如说Long Agent真的能干人类1-2周的工作,对Agent战略,包括从模型公司的出发点,会怎么思考这个问题?

姚顺雨:我觉得还是像刚刚说的To B和To C不太一样,目前看起来,我觉得To B的情况现在已经达到了在不断上升的曲线,目前看起来好像没有变慢的趋势。

很有意思的一点是它基本上不做什么创新,就是觉得模型预训练变大了,老老实实的把这些东西做好,只要预训练不断地变大,后训练不断地把这些真实世界的任务给做好,会越来越聪明,它就会带来越来越大的价值。

从某种程度来说,做To B,所有的目标这件事更一致,模型的智能越高,解决的任务越多,解决的任务越多,在To B下带来的收益越大。

做To C的问题是说,我们都知道DAU或者说产品的指标和模型的智能,很多时候是不相关的,甚至是相反的关系,我觉得这是能够聚焦的另一个很重要的原因,他只要真的把模型越做越好,他的收益越来越高,所有的事情都是非常好的。

目前看起来,To B或者说生产力的Agent刚刚开始,现在除了模型之外,有两个Next,环境问题或者Deployment问题。在OpenAI之前,我在一个公司实习过,这是一个To B的公司,我觉得在To B公司工作过有很多收获,最大的收获是即使今天的模型不再变好,所有的模型训练全部停止了,但是我们把这些模型部署到世界上各种各样的公司,已经能带来今天10倍或者100倍的收益,能应对GDP产生5%-10%的影响,但是今天它对GDP的影响还不到1%。

另外我觉得教育非常重要,我观察现在人和人的差距非常大,更多时候不是说人类替代了人类工作,而是会使用这些工具的人在替代那些不会使用工具的人,就像当年电脑出来,如果转身学习编程跟你还在持续计算尺、使用算法,差距是巨大的。今天中国能做到的最大的有意义的事情是更好的教育,教育大家怎么更好的使用像Claude或者ChatGPT这样的产品,当然Claude可能在中国用不了,但我们可以用Kimi或者智谱这样的国产模型。

主持人/李广密:多谢顺雨。有请俊旸分享对Agent的想法,包括千问也有一个生态,千问自己做Agent,以及扶持生态的通用Agent,你也可以展开讲一讲。

林俊旸:这里可能涉及到产品哲学的问题,当然Manus确实很成功,套壳是不是未来,这本身也是个话题,今天到这个环节,我比较同意你的观点,叫模型即产品。我跟TML的聊,他们叫Research,其实我挺喜欢这个事情的,包括我的视角看OpenAI,我觉得还有挺多这种事情,就是挺多Research,自己可以成为产品经理,把这个东西给做起来,包括今天我们自己内部的Research都可以做面向真实世界的东西。我愿意相信接下来的Agent是可以做到刚才所说的这个事情,而且跟刚才所提的主动学习都有比较强烈的关系,它能干这么长的时间,自己就得在这个过程当中进化,并且它还要决定去干什么,因为它收到的这个指令是非常通用的任务,我们现在Agent已经变的托管式的Agent,而不是我要不断给你来来回回交互的那种形式。

从这个角度来说,它对模型的要求是很高的,模型就是这是这个Agent本身,Agent就是这个产品本身,如果它们都是一体化的话,今天做基础模型本身,其实也就是在做产品。从这个角度来说,如果不断提升模型能力的上限,包括Scaling能做上去,确实能够做到这个事情。

我觉得还有一个点是跟环境交互有关系,我们现在交互的环境还不是很复杂,这些都还是电脑的环境。我有朋友是做AI for Science比较相关的,比如说今天你干AlphaFold这个事情,其实你最后干出来,它还没有到那一步,比如距离制药这件事情,就算用今天的AI,不一定能帮到你那么多,因为你要去做试实验,你要去做这些事情才能得到反馈,有没有可能我们未来AI环境复杂到真实的人类世界的环境,指挥机器人去做试实验,去加快效率。现在人类的效率非常低,我们还要雇佣很多外包在实验环境里面去做实验,如果能达到这个点,可能才是我想象当中Agent能做很长时间的活,而不是在电脑当中写个文件等,这些东西今年很快就可以完成,接下来3-5年的时间,这个事情会更加有意思一些。这个可能又要跟具身智能结合在一起。

主持人/李广密:我想Follow俊旸一个尖锐一点的问题,从你的角度看来,通用的Agent,这个机会是创业者的吗?还是说模型公司是时间问题,总会把通用Agent做好?

林俊旸:不能因为我做基础模型,我就去做创业导师,我不做了这个事情。我只能借成功人士的那句话,做通用Agent最有意思的事情就是长尾反而是更值得关注的事情,或者说今天AI更大的魅力是在长尾,如果是马太效应,头部的东西挺容易解决的,当年做推荐的时候我们看到那个推荐非常集中,商品都是在头部,但我们想把尾部的东西推过去,但是我当时做的非常遭殃,我作为一个干多模态的人碰到推荐系统,我去干解马太效应,基本上是奔着死路去的。今天所谓的AGI就在解这个问题,你做通用Agent,能不能把长尾的问题给解决,今天我一个用户,真的寻遍各处都找不到能够帮我解这个问题的,但是在那一刻,我感受到了AI的能力,全世界任何一个角落,寻遍各处都找不到,但是你却能帮我解决,这就是AI最大的魅力。要不要做通用Agent呢?我觉得见仁见智,如果你是一套壳高手,套的可以比模型公司做的更好,我觉得可以去做;但如果你没有这个信心,这个事情可能是留给模型公司做模型即产品的,因为他们遇到问题的时候,我只要训一训模型,只要烧一烧卡,这个问题可能就解决了,所以见仁见智。

主持人/李广密:其实解决长尾的问题,模型公司算力+数据,好像解决起来也挺快的。

林俊旸:今天RL最有意思的地方,我们发现修问题比以前容易,以前修问题很难。我举个B端客户的情况,他们说我们自己要做SSD,你能不能告诉我这个通用数据怎么配比,每次我们都很头痛,我们觉得对方不太会做SSD,他那个数据非常垃圾,但他们可能觉得非常有用。但现在有RL以后,今天很小的一个数据点,甚至都不需要标注,只要有Query,这个东西稍微训一训,合并起来也非常容易,这可能是今天技术的魅力。

主持人/李广密:多谢俊旸,有请杨强老师。

杨强:我觉得Agent出现,应该有四个阶段,一个是目标的定义,是人为定义的,还是自动定义的,这是目标。第二是说规划,就是中间的Action,规划可以由人定义,也可以AI自动定义,这样自然就分为四个阶段了,我觉得我们现在在一个非常初级的阶段,目标也是人定义的,规划也是由人来做的,所以现在的这些Agent的软件系统,基本上是更高级的阶段,但是我预料未来会出现一个大模型观察人的工作,尤其是把data给使用起来。最后目标也可以是大模型来定义,规划也可以由大模型定义,所以Agent应该是由大模型内生的一个native的系统。

主持人/李广密:有强唐杰老师。

唐杰:我觉得有几个方面决定了Agent未来的走势:

第一,Agent本身有没有解决人类的事情,而这个事情是不是有价值,价值有多大?比如说原来的Agent像GPT-S出来也做了很多Agent,那时候你会发现那个Agent非常简单,最后发现promoment就解决了,这时候大部分Agent慢慢就死掉了。第一个是解决Agent这个事情多有价值,以及真的能够帮到人。

第二,做这个事情咱们Cost有多大,如果Cost的特别大,这个时候也是一个问题,就像刚才俊旸说的,也许调用一个API就能把这个问题解决了,但是反过来,假如调到API就能解决,这个API本身有可能觉得当这件事情价值很大的时候,就会把它做进去,这是个矛盾,非常矛盾,基座的应用永远是矛盾。

最后,做应用的速度。如果说我有个时间窗,能够拉开半年的时间窗,迅速把这个应用满足了,半年以后,要么迭代,要么怎么接,怎么能往前走也是一个方面。

大模型到现在更多的是在拼速度、拼时间,也许我们代码正确了,也许我们就会在这方面走的更远一点,但也许失败以后就半年,半年就没了,今年我们只是在Coding,在Agent这一块做了一点点,现在我们Coding的调用量都还不错,我觉得更多的也是一个方向,做Agent未来也是一个方向。

主持人/李广密:多谢,因为过去模型公司既要追通用能力,可能它的优先级上没有花那么多精力去探索,通用能力追上来之后,我们更多的期待2026年智谱、千问有更多自己的Claude时刻和Memory时刻,我觉得这是非常值得去预期的。

第四个问题,也是最后一个意思,比较有意思,这个活动这个时间点需要展望未来,我挺想问大家一个问题,在三年和五年以后,全球最领先的AI公司是中国团队的概率有多大?我们从今天的跟随者变成未来的引领者,这个文化包括关键条件到底还有哪些需要去做好的?就是未来3-5年,我就想这个概率有多大,以及需要哪些关键条件?

顺雨经历过硅谷跟中国两个体感的,你对概率的判断和需要哪些关键条件的判断是怎么样的?

姚顺雨:我觉得概率还挺高的,我还是挺乐观的。目前看起来,任何一个事情一旦被发现,在中国就能够很快的复现,在很多局部做的更好,包括之前制造业、电动车这样的例子已经不断地发生。

我觉得可能有几个比较关键的点,一个可能是中国的光刻机到底能不能突破,如果最终算力变成了Bottleneck(音),我们能不能解决算力问题,目前看起来,我们有很好的电力优势,有很好的基础设施的优势。主要的瓶颈,一个是产能,包括光刻机,以及软件生态。如果这个问题解决,我觉得会是很大的帮助。

另一个问题,除了To C之外,能不能有更成熟或者更好的To B的市场,或者有没有机会在国际的商业环境竞争。今天我们看到很多做生产力或者做To B的模型或者应用,还是会诞生在美国,因为支付意愿更强的,文化更好,今天在国内做这个事情很难,所以大家都会选择出海或者国际化的事情,这两个是比较大的客观上的因素。更重要的是主观上的概念,最近我在跟很多人聊天,我们的感受是在中国有非常多非常强的人才,任何一个事情只要被证明能做出来,很多人都会非常积极地尝试,并且想做的更好。

我觉得中国想要突破新的范式或者做非常冒险事情的人可能还不够多,这里面有经济环境、商业环境包括文化的因素,如果增加一点,主观上有没有更多有创业精神或者冒险精神的人,真的想要去做前沿探索或者新的范式突破的事情。目前来看,一个范式一旦发生,我们可以用很少的卡、很高的效率去局部做的更好,我们到底能不能引领新的范式,这可能是今天中国唯一要解决的问题,因为其他所有做的事情,无论是商业,还是产业设计,还是做工程,我们某种程度上已经比美国做的更好。

主持人/李广密:我再Follow顺雨一个问题,你对中国Lab里面的研究文化有什么要呼吁的吗?你也感受过OpenAI也好,包括湾区DeepMind研究文化,中国的研究文化跟美国的研究文化有什么差异的地方?这个研究文化对作为一个AI Native的公司,有哪些根本性的影响?你有呼吁和建议吗?

姚顺雨:我觉得每个地方的研究文化都很不一样,美国实验室的区别可能比中美实验室的差别还要大,在中国也一样。

我个人觉得有两点,一点是说在中国大家还是更喜欢做更安全的事情,比如说今天预训练这个事情已经被证明可以做出来了,其实这个事情也非常难做,有很多技术问题要解决,但只要这件事情一旦被证明能做出来,我们都很有信心几个月或者一段时间内就把这个问题搞清楚,但如果今天让一个人说探索一个长期记忆或者持续学习,这个事情大家不知道怎么做、不知道能不能做起来,这个事情还是比较困难的。可能不只是大家更喜欢做确定性的事情、不太愿意做创新性的事情,很重要的一点是文化的积累或者整体的认知,其实是需要时间沉淀的事情,OpenAI在2022年就开始做这个事情了,国内2023年开始做了,对这个东西的理解会有一些差异,或者说中国没有这么大,我觉得可能很多也就是时间问题,当你积累了文化或者底蕴更深的时候,潜移默化的程度可能会影响人的做事方式,但是它很微妙,很难通过榜单去体现。

中国对于刷榜或者数字看的更重一些,包括DeepSeek做的比较好的一点,他们可能没有那么关注榜单的数字,可能会更注重,第一,什么是正确的事情;第二,什么是你自己能体验出好或者不好的。我觉得这还是挺有意思的,因为你看Claude模型可能在编程或者软件工程的榜单上也不是最高的,但大家都知道这个东西是最好用的,我觉得这还是需要大家能够走出这些榜单的束缚,能够坚持自己觉得是不是正确的过程。

主持人/李广密:多谢顺序。请俊旸说说概率和挑战。

林俊旸:这个问题是个危险的问题,理论上这个场合是不可以泼冷水的,但如果从概率上来说,我可能想说一下我感受到的中国和美国的差异,比如说美国的Computer可能整体比我们大1-2个数量级,但我看到不管是OpenAI还是什么,他们大量的Computer投入到的是下一代的Research当中去,我们今天相对来说捉襟见肘,光交付可能就已经占据了我们绝大部分的Computer,这会是一个比较大的差异在这里,这可能是历史以来就有的问题,创新是发生在有钱的人手里,还是穷人手里,穷人不是没有机会,我们觉得这些富哥真的很浪费卡,他们训了这么东西,可能训了很多也没什么用,但今天穷的话,比如今天所谓的算法Infra联合优化的事情,如果你真的很富,就没有什么动力去做这个事情。

我觉得可能更进一步的,刚才顺雨提到光刻机的问题,未来有可能还有一个点,如果从软硬结合的角度,是不是真的有可能做出来,比如说我们下一代这个模型和芯片,有可能是一起把它给做出来的。我在2021年的时候在做大模型,因为阿里做芯片,在找我说能不能预测一下三年之后这个模型是不是Transformer,三年之后这个模型是不是多模态,为什么是三年呢?他说我们需要三年时间才能留片。我当时的回答是三年之后,在不在阿里巴巴,我都不知道!但我今天还在阿里巴巴,他果然还是Transformer,果然还是多模态,我非常懊悔为什么当时没有催他去做,当时我们的交流非常鸡同鸭讲,他给我讲了一大堆东西,我完全听不懂,我给他讲,他也不知道我们在做什么,就错过了这个机会。这个机会有没有可能再来一次?我们虽然是一群穷人,是不是穷则生变,创新的机会会不会发生在这里?

今天我们教育在变好,我属于90年代靠前一些的,顺雨属于90年代靠后一点的,我们团队里面有很多00后,我感觉大家的冒险精神变的越来越强,美国人天然有非常强烈的冒险精神,一个很典型的例子是当时电动车刚出来,甚至天棚漏水的情况下,甚至开车会意外身亡的情况下,依然会有很多富豪们都愿意去做这个事情,但在中国,我相信富豪们是不会去干这个事情的,大家会做一些很安全的事情。今天大家的冒险精神开始变的更好,中国的营商环境也在变的更好的情况下,我觉得是有可能带来一些创新的。概率没那么大,但真的有可能。

主持人/李广密:如果派一个数字呢?

林俊旸:您是说百分之多少?

主持人/李广密:对,三年到五年后,中国最领先的那个公司,是一家中国公司的概率。

林俊旸:我觉得是20%吧,20%已经非常乐观了,因为真的有很多历史积淀的原因在这里。

主持人/李广密:我再Follow一个问题,比如说中国的模型跟美国的模型差距,有的地方在追上来,有的地方他们的算力在拉大,你内心中Gap变大的恐惧感强吗?

林俊旸:今天你干这一行就不能恐惧,必须得有非常强的心态,对于我们的心态来说,能干这一行就非常不错了,能做大模型这件事情已经非常幸运了。

我觉得还是看你的初心是什么,刚才顺雨提到一个点,你的模型不一定那么强在C端里边是OK的。我可能转换成另外一个角度去思考这个问题,我们的模型为人类社会带来了什么样的价值,只要我相信我这个东西能够为人类社会带来充分的价值,能够帮助人类,就算不是最强的,我也愿意接受。

主持人/李广密:多谢俊旸。有请杨老师,因为您经历过很多AI的周期,也看过很多中国的AI公司变成世界最强,您对这个问题的判断。

杨强:我们可以回顾一下互联网的发展,一开始也是从美国开始,但中国很快就赶上了,而且应用像微信,是世界第一的。我想AI是一个技术,它并不是一个终端的产品,但我们中国有很多聪明才智会把这个产品发挥到极致,不管是To B还是To C,但我可能更看好To C,因为百花齐放,中国人集思广益,但To B可能会有一些限制,像付费意愿、企业文化等也在改变。我最近也在观察商业方向跟商学院的一些同学探讨,比方说美国有一个公司叫Palantir,它的一个理念是不管AI现在发展到什么阶段,我总是能在AI里面发现一些好的东西应用在企业上,中间肯定有gap,我们要给它弥合,它有一个办法叫本体,用的是本体的方法。我观察了一下,大概的思想是我们之前做的迁移学习,就是说把一个通用的Solution能够应用到一个具体的实践当中,用一个本体来做知识的迁移,这个方法非常巧妙。当然它是通过一种工程的方法,叫前端工程师FDE来解决的。不管怎么样,我觉得像这种就非常值得我们学习,我觉得中国的企业像AI Native的公司应该发展出这样一些To B的Solution来,我相信会的。所以我觉得To C肯定是百花齐放的,To B也会很快的跟上来。

主持人/李广密:多谢杨老师。有请唐老师。

唐杰:首先我觉得确实要承认在中美,无论是做研究,尤其是企业界的AI Lab,我觉得和美国是有差距的,这是第一个。

但我觉得在未来中国,现在慢慢变的越来越好,尤其是90后、00后这一代企业,远远好过之前。有一次我在一个会上说我们这一代最不幸运,上一代也在继续工作,我们也在工作,所以我们还没有出头之日,很不幸的是下一代已经出来了,世界已经交给下一代了,已经把我们这一代无缝跳过了。这是开玩笑的。

中国也许的机会:

第一,一群聪明人真的敢做特别冒险的事,我觉得现在是有的,00后这一代,包括90后这一代是有的,包括俊旸、Kimi、顺雨都非常愿意冒风险来做这样的事情。

第二,咱们的环境可能更好一些,无论是国家的环境,比如说大企业和小企业之间的竞争,创业企业之间的问题,包括我们的营商环境,像刚才俊旸说的,我还在做交付,我觉得如果把这个环境建设的更好,让一群敢于冒险的聪明人有更多的时间去做这样创新的事情,比如说让俊旸有更多的时间做创新的事情,这是第二个,也许是我们政府,包括我们国家可以帮忙改善的事情。

第三,回到我们每个人自己身上,就是我们能不能坚持。我们能不能愿意在一条路上敢做、敢冒险,而且环境还不错。我觉得环境肯定不会是最好的,永远不会想着环境是最好的,我们恰恰是幸运,我们经历环境从原来没那么好,到慢慢变得更好的一个时代,我们是经历者,也许就是财富,包括经历收获最多的人,如果我们笨笨的坚持,也许走到最后的就是我们。

感谢大家!

主持人/李广密:感谢唐老师。我们也很想呼吁,应该把更多的资源资金投入到中国的AGI行业,有更多的算力,让更多AI年轻的研究员搓卡,有可能搓个三五年,中国有三五个自己的伊莉亚(音),这是我们未来三五年很期待的。

非常感谢大家!

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
为什么伊朗的流血,没能点燃世界的愤怒——错过这次,还要等多久

为什么伊朗的流血,没能点燃世界的愤怒——错过这次,还要等多久

桂系007
2026-01-14 23:48:15
小米二手车价格崩盘?雷军徐洁云齐辟谣!真实情况:出一台卖一台

小米二手车价格崩盘?雷军徐洁云齐辟谣!真实情况:出一台卖一台

柴狗夫斯基
2026-01-14 08:32:51
你听过最诛心的一句话是什么?网友:我故意找茬我都说不出这话

你听过最诛心的一句话是什么?网友:我故意找茬我都说不出这话

另子维爱读史
2026-01-13 21:27:32
注意,50万亿定存到期潮来袭!

注意,50万亿定存到期潮来袭!

樱桃大房子
2026-01-14 22:01:08
刘嘉玲上章泽天节目遗憾“没有像样的代表作”!不像梁朝伟有太多好机会,永远是最好的导演和剧本

刘嘉玲上章泽天节目遗憾“没有像样的代表作”!不像梁朝伟有太多好机会,永远是最好的导演和剧本

鲁中晨报
2026-01-14 11:11:03
47岁贺娇龙意外坠马去世,4年带货3.6亿,坦言怕付出太少德不配位

47岁贺娇龙意外坠马去世,4年带货3.6亿,坦言怕付出太少德不配位

梅亭谈
2026-01-14 10:44:04
哭穷炫富,“知三当三”,装了10年的吉克隽逸,还是“自食恶果”

哭穷炫富,“知三当三”,装了10年的吉克隽逸,还是“自食恶果”

顾史
2025-12-12 14:59:24
日本右翼,到底啥意思?

日本右翼,到底啥意思?

混知
2026-01-14 11:44:51
大脑最爱的3种菜,冬天多给孩子吃,有助大脑发育,增强记忆力!

大脑最爱的3种菜,冬天多给孩子吃,有助大脑发育,增强记忆力!

阿龙美食记
2026-01-14 10:53:15
脸颤0.8秒骗不了人,汤唯这哪是演戏,分明是被击中!

脸颤0.8秒骗不了人,汤唯这哪是演戏,分明是被击中!

老吴教育课堂
2026-01-14 08:24:23
谢晖也没想到,不愿给自己生娃的佟晨洁,如今却在给魏巍当“妈”

谢晖也没想到,不愿给自己生娃的佟晨洁,如今却在给魏巍当“妈”

和平声浪
2026-01-12 17:14:52
为什么不能去干涉别人的因果?网友:我30多了才明白这个道理

为什么不能去干涉别人的因果?网友:我30多了才明白这个道理

带你感受人间冷暖
2026-01-11 00:05:11
实探欠租风波中的嫣然天使儿童医院:仍在正常营业,房东称已被拖欠超2668万元,法院判决腾房至今无果

实探欠租风波中的嫣然天使儿童医院:仍在正常营业,房东称已被拖欠超2668万元,法院判决腾房至今无果

极目新闻
2026-01-14 17:42:44
克鲁尼举家“逃离美国”?川普一语戳破好莱坞左派的虚伪

克鲁尼举家“逃离美国”?川普一语戳破好莱坞左派的虚伪

斌闻天下
2026-01-14 07:15:03
宝能姚振华实名举报江苏一地政府,称观致资产被违法拍卖

宝能姚振华实名举报江苏一地政府,称观致资产被违法拍卖

南方都市报
2026-01-14 16:30:12
中国一口气申报20万颗卫星,意味着什么?

中国一口气申报20万颗卫星,意味着什么?

澎湃新闻
2026-01-13 07:02:30
这不是AI!是真正的人手:任天堂广告模特回应了

这不是AI!是真正的人手:任天堂广告模特回应了

游民星空
2026-01-12 20:52:04
神舟20号飞船即将无人返回地面!时间已确定,此前并未出舱维修

神舟20号飞船即将无人返回地面!时间已确定,此前并未出舱维修

艾牛科普君
2026-01-14 23:24:39
大溃败!中国网贷公司,在印度全军覆没

大溃败!中国网贷公司,在印度全军覆没

首席品牌评论
2026-01-07 18:20:00
甜茶30岁生日照吓晕全网,新造型又丑出圈,但富婆爱惨了他……

甜茶30岁生日照吓晕全网,新造型又丑出圈,但富婆爱惨了他……

早安英文
2026-01-15 05:32:49
2026-01-15 09:19:00
开柒 incentive-icons
开柒
最新、最劲爆的科技公司八卦。
1527文章数 34382关注度
往期回顾 全部

科技要闻

反垄断大棒,为何砸向了携程

头条要闻

特朗普:同委代总统通电话 美方同她"合作得非常好"

头条要闻

特朗普:同委代总统通电话 美方同她"合作得非常好"

体育要闻

你是个好球员,我们就拿你交易吧

娱乐要闻

网红彭十六偷税被封杀 曾成功转型明星

财经要闻

“疯狂的白银”,还能走多远?

汽车要闻

曝Model Y或降到20万以内!

态度原创

房产
教育
时尚
手机
公开课

房产要闻

热销17亿后!天正·三亚湾壹号,被爆违建!

教育要闻

孩子可以不成才,但不能不感恩

最时髦的单品,难道不是背肌吗?

手机要闻

爆料称iPhone 18 Pro系列维持前代屏幕尺寸 将首发屏下Face ID

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版