网易首页 > 网易号 > 正文 申请入驻

威斯康星大学麦迪逊分校团队首创不确定性量化新框架

0
分享至


这项由威斯康星大学麦迪逊分校、卡内基梅隆大学、南洋理工大学、宾夕法尼亚大学、南加州大学以及加州大学伯克利分校联合开展的重要研究,于2026年2月发表在arXiv预印本平台,论文编号为arXiv:2602.05073v1。这一研究首次系统性地为大语言模型智能体建立了不确定性量化框架,为智能体在复杂环境中的可靠决策奠定了理论基础。

当我们在日常生活中做决定时,比如选择哪家餐厅或者决定是否带雨伞,我们通常会评估各种不确定性因素。我们会考虑餐厅的口碑、今天的天气预报准确性等等。类似地,当AI智能体在复杂任务中做决策时,它们也需要能够评估自己的"不确定程度"。

过去的研究就像是在考试中只关注最终答案是否正确,而忽略了学生在解题过程中的思考过程和信心程度。传统的大语言模型不确定性研究主要专注于单轮问答场景,就好比只看学生能否答对一道简单的选择题,而不关注他们如何处理需要多步骤解决的复杂应用题。

然而,现代AI智能体的工作方式更像是一个项目经理在处理复杂项目。它们需要与用户交流、调用各种工具、获取外部信息,然后在这个过程中不断调整自己的策略。在这种情况下,简单地评估"最终答案的可信度"显然是不够的,我们需要一套全新的框架来理解智能体在整个决策过程中的不确定性变化。

一、传统方法的局限性:为什么旧框架不适用

传统的不确定性量化方法就像是用测量体温的方法来评估一个人的整体健康状况。虽然体温确实反映了某些健康信息,但它无法告诉我们心率、血压或者精神状态等其他重要指标。

在过去的研究中,科学家们主要关注的是静态场景下的不确定性评估。假设你向AI提问"巴黎的首都是什么?",传统方法会分析AI回答这个问题时的置信度。这就像是测量一个学生在回答单选题时的确定性程度——相对简单且直接。

但现实中的AI智能体工作场景完全不同。它们更像是一个调研记者在撰写深度报道。记者需要收集信息、核实事实、采访相关人士、整理资料,最终形成一篇完整的报道。在这个过程中,记者的"确定性"会随着新信息的获得而不断变化——开始时可能很困惑,随着调查深入逐渐清晰,有时甚至会因为发现矛盾信息而重新陷入不确定状态。

研究团队发现,传统方法存在一个根本性问题:它们假设不确定性只会累积增长,就像往瓶子里倒水一样,只会越来越多。但在智能体的交互式工作环境中,不确定性实际上可能会减少。当智能体通过与用户对话获得更多信息,或者通过工具调用得到准确数据时,它的不确定性应该下降,而不是上升。

这就好比你在网上购物时的心理变化过程。刚开始时,你可能对某个产品很不确定,但随着阅读更多用户评价、查看详细参数、咨询客服等步骤,你的不确定性逐渐降低,最终做出购买决定。传统方法却假设每一步操作都会增加你的不确定性,这显然与实际情况不符。

更重要的是,传统方法无法区分不同类型的行动对不确定性的影响。智能体的某些行为是"信息收集型"的,比如搜索资料或询问用户,这些行为应该降低不确定性;而另一些行为是"执行型"的,比如提交订单或发送邮件,这些行为可能会增加风险和不确定性。传统框架把所有行为都等同对待,就像用同一把尺子测量长度、重量和温度一样不合适。

二、新框架的核心理念:可减少的不确定性建模

面对传统方法的局限性,研究团队提出了一个革命性的新理念:将智能体的不确定性建模为一个"可减少的过程",而不是简单的累积过程。这个想法的核心在于认识到智能体具有"交互性"——它们可以通过与环境的互动来减少自己的不确定性。

想象一下你在一个陌生城市寻找某家餐厅的过程。刚开始时,你可能完全不知道方向,不确定性很高。但随着你询问路人、查看地图、观察街道标识,你的不确定性逐步降低。每一次有效的信息收集都让你离目标更近,也让你更加确定正确的方向。这就是"不确定性减少"的过程。

研究团队将这一理念形式化为数学框架。他们把智能体的工作过程看作是一个动态的概率系统,其中每一轮交互都包含三个基本要素:行动(Action)、观察(Observation)和环境状态(Environment State)。这就像是一个三角形的稳定结构,每个角都相互关联,共同决定着整个系统的状态。

在这个框架中,环境状态扮演着"记忆"的角色,它记录了智能体到目前为止的所有对话历史和获得的信息。观察则是智能体在每一轮中从外部世界获得的新信息,可能来自用户的回复、数据库的查询结果或者工具调用的返回值。行动则是智能体基于当前状态和最新观察所做出的决策。

这个框架的巧妙之处在于它引入了"条件不确定性减少"的概念。简单来说,就是智能体的总体不确定性不仅取决于它执行了什么行动,更重要的是这些行动的"交互性质"。如果智能体执行的是信息收集类行动(比如搜索数据或询问用户),那么它通过这些行动获得的新信息应该能够降低整体不确定性。相反,如果智能体执行的是状态改变类行动(比如提交订单或发送消息),那么这些行动可能会增加系统的不确定性。

为了实现这一理念,研究团队设计了一个"信息门控机制"。这个机制就像一个智能的筛选器,能够判断每个行动是否有助于减少不确定性。当智能体执行一个信息收集行动时,门控机制会计算这个行动带来的"信息增益",并用这个增益来抵消部分不确定性。当智能体执行其他类型的行动时,门控机制则按照传统方式处理不确定性。

这种设计让智能体的不确定性评估变得更加智能和准确。它不再是简单的"越做越不确定",而是能够反映真实的信息获取和决策过程。当智能体通过有效的交互获得有价值信息时,它的不确定性会相应降低,这与人类的认知过程更加接近。

三、数学建模:将直觉转化为精确公式

为了让这个直观的想法能够在实际系统中应用,研究团队需要将其转化为精确的数学表达。这个过程就像是将一个美味的家庭食谱标准化为可以在工厂大规模生产的配方——既要保持原有的"味道",又要确保可重复性和可操作性。

研究团队首先定义了一个"随机智能体系统"的数学模型。在这个模型中,智能体的每一轮交互都可以用概率分布来描述。就像天气预报使用概率来描述降雨可能性一样,这个模型用概率来描述智能体在特定情况下选择特定行动的可能性,以及环境对这些行动的可能响应。

整个轨迹的不确定性可以分解为几个组成部分:初始任务的不确定性、每一步行动选择的不确定性,以及环境响应的不确定性。这就像是分析一次旅行的总体风险时,需要考虑出发地的天气、交通工具的可靠性、目的地的情况等各个因素。

研究团队最重要的贡献是提出了一个"下界公式",这个公式能够给出智能体总体不确定性的最小可能值。这个下界的巧妙之处在于它允许不确定性在某些条件下减少。当智能体执行的是有效的信息收集行动时,公式中会出现负的项,这些负项代表了不确定性的减少。

具体来说,当智能体执行一个信息收集行动时,公式会计算这个行动带来的"互信息"——即新获得的观察与初始任务目标之间的相关程度。如果这个相关程度很高,说明新信息对解决任务很有帮助,因此应该显著减少不确定性。如果相关程度较低,说明新信息的价值有限,不确定性的减少也会相应较小。

这个公式还具有很好的可解释性。研究团队证明了在极端情况下,公式会给出两个有意义的边界:如果智能体的所有行动都是完美的信息收集行动,那么总体不确定性将持续下降,直到达到仅由最终行动选择决定的最小值;如果智能体的所有行动都不提供有用信息,那么不确定性将按照传统方式累积增长。

这种数学建模的优势在于它提供了明确的计算框架,同时保持了对不确定性动态变化的直观理解。研究人员和工程师可以使用这些公式来设计更好的智能体系统,而不需要深入了解复杂的数学细节。

四、行动分类:区分不同类型的智能体行为

为了让新框架能够实际应用,研究团队需要解决一个关键问题:如何自动判断智能体的每个行动属于哪种类型?这就像是训练一个助手来识别不同的工作任务,以便分配合适的处理方式。

研究团队提出了一个二维分类体系,从两个角度来评估智能体的行动:交互性和事实性。交互性指的是这个行动是否会从外部获得新信息,事实性指的是这个行动是否基于可靠的事实依据。只有同时具备高交互性和高事实性的行动才被认为是"不确定性减少"行动。

在交互性维度上,研究团队区分了几种不同的行动类型。信息收集类行动是最典型的高交互性行动,比如智能体使用搜索工具查找资料、调用数据库获取数据,或者向用户询问更多细节。这类行动的特点是智能体主动从外部环境获取新信息,就像学生在考试时查阅参考资料一样。

询问确认类行动也具有高交互性,比如智能体向用户确认某个理解是否正确,或者请求用户做出最终决定。虽然这类行动不一定带来全新信息,但它们通过减少歧义和误解来降低不确定性,就像医生在手术前反复确认患者信息一样重要。

相对而言,思考规划类行动属于低交互性行动。虽然智能体在"思考",但它并没有从外部获得新信息,而是在重新组织和分析已有信息。这就像学生在考试中独立思考一样,虽然可能产生新的见解,但不会获得额外的外部知识。

状态改变类行动通常也是低交互性的,比如智能体提交订单、发送邮件或者更新数据库。这些行动的主要目的是执行任务,而不是获取信息。虽然它们可能会收到确认信息,但这种反馈通常是程序性的,信息价值有限。

在事实性维度上,研究团队关注的是智能体行动的可靠性和准确性。基于可验证数据的行动具有高事实性,比如从权威数据库查询到的信息,或者通过标准API获得的数据。相反,基于推测或者不确定信息的行动则事实性较低。

这种分类体系的实际应用可以通过多种方式实现。最直接的方法是基于规则的分类器,通过分析行动的语法结构和调用的工具类型来判断其交互性和事实性。更高级的方法可以使用专门训练的机器学习模型,通过大量标注数据学习如何准确分类不同的行动类型。

研究团队在多个实际场景中验证了这种分类方法的有效性。在航空订票场景中,"搜索可用航班"被分类为高交互性、高事实性行动,因为它从数据库获得了可靠的实时信息。"询问用户是否确认订票"被分类为高交互性、中等事实性行动,因为虽然获得了用户确认,但用户的决定本身可能还存在变数。"思考最佳行程安排"被分类为低交互性行动,因为没有获得外部信息。

五、实际应用场景:从医疗到软件开发的广泛影响

这个新的不确定性量化框架不仅仅是理论上的突破,它在多个实际领域都有重要的应用价值。研究团队详细分析了几个关键应用场景,展示了这一框架如何改善智能体在真实世界中的表现。

在医疗决策支持系统中,这个框架具有特殊的重要性。医疗诊断是一个高度复杂的过程,需要收集患者症状、查阅病史、进行检查、咨询同事等多个步骤。传统的AI系统往往只能给出"诊断结果"和"置信度",但无法告诉医生哪些信息还需要进一步核实,或者下一步应该收集什么样的信息。

使用新框架的医疗智能体可以更智能地管理不确定性。当系统识别出某个症状描述不够清楚时,它会主动询问更详细的信息,并且能够预测这些额外信息对降低诊断不确定性的价值。当系统建议进行某项检查时,它不仅能说明检查的必要性,还能量化这项检查可能带来的信息增益。这种能力让医生能够更好地理解AI的推理过程,从而做出更明智的决策。

在软件开发领域,这个框架为代码生成和调试智能体提供了新的可能性。现有的AI编程助手通常会生成代码建议,但很难评估这些建议的可靠性。当代码涉及复杂的业务逻辑或者使用不熟悉的API时,AI系统往往无法准确表达自己的不确定程度。

新框架让编程智能体能够更好地处理这种情况。当智能体对某个API的用法不确定时,它可以主动查阅文档或者搜索示例代码,然后根据获得的信息调整自己的不确定性水平。当智能体需要实现复杂功能时,它可以将任务分解为多个子步骤,并在每个步骤中评估和管理不确定性,确保最终生成的代码具有更高的可靠性。

在机器人系统中,这个框架对于确保安全操作具有重要意义。机器人在执行物理任务时面临各种不确定性:环境感知可能不准确、物体属性可能未知、操作结果可能难以预测。传统的不确定性管理方法往往过于保守,导致机器人在不确定情况下拒绝执行任何行动。

新框架让机器人能够主动收集信息来减少不确定性。例如,当机器人需要抓取一个未知物体时,它可以先通过视觉检查、触觉探测等方式收集物体信息,然后根据获得的信息调整抓取策略。这种主动的不确定性管理让机器人在保持安全性的同时,具备了更强的适应性和任务完成能力。

研究团队还探讨了这个框架在强化学习中的应用潜力。传统的强化学习算法在探索和利用之间需要平衡,但往往缺乏明确的不确定性指导。新框架提供的方向性不确定性信息可以帮助智能体更聪明地选择探索策略,在信息价值高的区域增加探索,在不确定性已经充分降低的区域专注于利用已知策略。

六、技术实现挑战与解决方案

虽然这个理论框架具有重要意义,但将其转化为实际可用的系统还面临着诸多技术挑战。研究团队不仅识别了这些挑战,还提出了相应的解决思路。

最大的挑战之一是如何在实际系统中估算各种不确定性量。传统的不确定性估算主要依赖于模型输出的概率分布,但在复杂的多轮交互场景中,需要估算的不确定性类型更加多样。除了行动选择的不确定性,还包括环境响应的不确定性、用户意图的不确定性等等。

对于行动选择的不确定性,研究团队建议使用现有的各种技术,包括基于采样的方法、概率校准技术和一致性检测方法。基于采样的方法通过多次运行智能体来观察输出的变异性,概率校准技术通过训练额外的模型来改善概率估算的准确性,一致性检测方法通过比较不同推理路径的结果来评估可靠性。

对于环境和用户响应的不确定性估算,挑战更大,因为这些信息通常无法直接观察。研究团队提出了几种应对策略。如果系统允许多次试验,可以使用基于采样一致性的方法来估算环境响应的不确定性。如果系统不允许重复试验,可以构建历史数据库,使用类似任务的经验来估算当前任务的不确定性。另一种更先进的方法是构建环境模型,通过模拟来预测环境响应的可能分布。

互信息的估算是另一个技术难点。互信息衡量的是两个随机变量之间的依赖程度,但在高维、非结构化的数据空间中,准确估算互信息非常困难。研究团队指出,近年来神经网络估算器的进展为解决这个问题提供了新的希望。这些估算器可以在高维数据上学习复杂的依赖关系,虽然仍然存在估算误差,但已经能够提供有价值的近似结果。

行动分类是系统实现的另一个关键环节。研究团队建议采用混合方法,结合基于规则的分类器和基于学习的分类器。基于规则的分类器可以处理明确的、结构化的行动类型,比如API调用或者数据库查询。基于学习的分类器则负责处理更复杂、更微妙的行动类型,比如不同类型的用户交互或者复杂的推理过程。

为了训练基于学习的行动分类器,需要大量高质量的标注数据。研究团队建议采用半监督学习方法,首先使用少量专家标注的数据训练初始模型,然后使用这个模型对大量未标注数据进行预标注,最后通过主动学习选择最有价值的样本进行人工验证和修正。

另一个重要挑战是如何处理大规模、长时间序列的智能体轨迹。随着任务复杂度的增加,智能体可能需要执行数十甚至数百步操作,每一步都需要计算和更新不确定性。这不仅带来了计算复杂度的挑战,也带来了数值稳定性的问题。

研究团队提出了几种优化策略。首先是采用增量计算方法,只在每一步中计算不确定性的变化量,而不是重新计算整个轨迹的不确定性。其次是使用近似方法,在保持足够精度的前提下简化计算过程。最后是采用分层处理策略,将长轨迹分解为多个子段,分别处理每个子段的不确定性,然后合成总体结果。

七、未来发展方向与开放问题

尽管这项研究取得了重要进展,但研究团队也坦率地承认还存在许多未解决的问题和未来发展方向。这些开放性问题为后续研究提供了丰富的探索空间。

最重要的未解决问题之一是如何建立可靠的评估基准。与传统的机器学习任务不同,智能体的不确定性量化很难有绝对的"真实值"作为评估标准。研究团队指出,由于真实的不确定性本身是不可观察的,只能通过间接的代理指标来评估系统的性能,比如任务成功率、用户满意度等。但这些代理指标往往无法完全反映不确定性量化的质量。

建立有效评估基准的难点还在于需要大规模的轨迹标注。与简单的问答任务不同,评估智能体轨迹需要专家对整个决策过程进行分析,判断每一步的合理性和不确定性水平。这种标注工作不仅成本高昂,而且主观性较强,不同专家可能会给出不同的评价。

另一个重要的开放问题是如何处理黑盒系统的不确定性估算。目前大多数先进的AI系统都是通过API提供服务,用户无法访问模型的内部参数或输出概率。这使得许多基于模型内部状态的不确定性估算方法无法使用。虽然可以通过多次采样等方法来估算黑盒系统的不确定性,但这种方法成本很高,在长轨迹场景中可能不现实。

解决方案的多样性也带来了新的挑战。在许多实际应用中,同一个任务可能有多种有效的解决方案,这使得很难确定高不确定性是否真的代表性能问题。例如,当智能体对某个子任务表现出高不确定性时,这可能意味着它缺乏相关知识,也可能意味着这个子任务本身就存在多种合理的解决方案。区分这两种情况对于系统设计和用户体验都很重要。

多智能体系统的不确定性建模是另一个富有挑战性的方向。当多个智能体协同工作时,它们之间的交互会产生复杂的不确定性动态。一个智能体的行动可能会影响其他智能体的不确定性,而且这种影响可能是非线性的、难以预测的。如何在这种复杂系统中建模和管理不确定性,是一个有待深入研究的问题。

自进化智能体系统也提出了新的挑战。随着智能体在使用过程中不断学习和改进,它们的能力和知识会发生变化,这意味着不确定性的特征也会随时间变化。如何在这种动态变化的系统中维持有效的不确定性量化,需要新的理论框架和技术方法。

研究团队还指出了一些更加基础的理论问题。例如,如何定义和衡量"最优"的不确定性水平?在某些情况下,过低的不确定性可能意味着过度自信,而过高的不确定性可能导致过度谨慎。找到合适的平衡点需要考虑任务的特性、风险承受能力、用户期望等多个因素。

八、对AI发展的深远影响

这项研究的意义远不止于提供一个新的技术框架,它实际上触及了人工智能发展的一个根本问题:如何让AI系统能够可靠地评估和表达自己的能力边界。这对于实现真正可信赖的AI具有重要意义。

从技术发展的角度来看,这个框架为下一代AI系统的设计提供了新的思路。传统的AI系统设计主要关注如何提高准确性和效率,而较少考虑系统的自我认知能力。新框架强调的"不确定性感知"能力,让AI系统能够更好地了解自己的知识边界,从而做出更加谨慎和负责任的决策。

这种能力在AI安全领域具有特殊重要性。许多AI安全事故的根源在于系统对自己能力的错误评估——要么过度自信地执行超出能力范围的任务,要么过度保守地拒绝执行本来可以胜任的任务。通过准确的不确定性量化,AI系统可以更好地识别高风险情况,主动寻求人类帮助或者采取更加保守的策略。

从用户体验的角度来看,这个框架有助于建立用户对AI系统的信任。当AI能够诚实地表达自己的不确定程度时,用户可以更好地理解系统的建议和决策,从而做出更明智的选择。这种透明性对于AI在医疗、金融、法律等高风险领域的应用尤为重要。

这项研究还为AI的可解释性提供了新的视角。传统的可解释性研究主要关注"AI为什么做出这个决定",而新框架关注的是"AI对这个决定有多确定"。这两个角度是互补的,结合起来可以提供更全面的系统理解。

从产业应用的角度来看,这个框架可能会推动AI服务模式的变革。当前的AI服务主要以"黑盒"方式提供结果,用户很难评估结果的可靠性。未来的AI服务可能会同时提供结果和不确定性信息,让用户能够根据自己的风险承受能力来选择如何使用AI建议。

这个框架还可能影响AI系统的评估标准。传统的评估主要关注准确性指标,而新框架提示我们还应该评估系统的不确定性校准质量。一个理想的AI系统不仅应该在大多数情况下给出正确答案,还应该能够准确识别那些它可能出错的情况。

从长远来看,这项研究可能会推动AI向更加"人性化"的方向发展。人类智能的一个重要特征就是能够认识到自己的知识局限,并在不确定情况下寻求帮助或收集更多信息。通过赋予AI系统类似的能力,我们可能会创造出更加可靠、可信赖的人工智能。

最后,这个框架还具有重要的教育价值。它提醒我们,智能不仅仅是解决问题的能力,也包括认识和管理不确定性的能力。这对于培养下一代AI研究人员和用户都具有重要意义。

说到底,这项由威斯康星大学麦迪逊分校团队领导的研究,为我们打开了一扇理解和改进AI智能体的新窗户。它不仅提供了具体的技术解决方案,更重要的是改变了我们思考AI系统的方式。通过将不确定性从AI的"弱点"转变为可以主动管理和利用的"资源",这个框架为构建更加可靠、透明和用户友好的AI系统指明了方向。

虽然还有许多技术挑战需要解决,但这项研究已经为AI领域的发展奠定了重要基础。相信在不久的将来,我们会看到更多基于这一框架的创新应用,让AI系统在服务人类的过程中变得更加智慧和可靠。对于普通用户而言,这意味着未来的AI助手将不仅能够回答我们的问题,还能诚实地告诉我们它们对答案的确信程度,让我们在依赖AI建议时有更好的判断依据。

Q&A

Q1:什么是智能体的不确定性量化,为什么重要?

A:智能体的不确定性量化就是让AI系统能够评估和表达自己在做决策时的"确信程度",类似于人类在不确定情况下会说"我不太确定"或"我很有把握"。这很重要,因为它能帮助AI在不确定时主动寻求帮助或收集更多信息,而不是盲目做决定,从而避免在医疗、金融等关键领域出现危险错误。

Q2:传统的不确定性评估方法有什么问题?

A:传统方法就像只看学生考试最终答案的对错,而忽略了解题过程。它们假设AI的不确定性只会越来越高,但实际上当AI通过询问用户、搜索资料等方式获得新信息时,不确定性应该降低。这种"只增不减"的假设完全不符合智能体在真实环境中的工作方式。

Q3:新框架如何让AI智能体变得更可靠?

A:新框架让AI能够区分不同类型的行为对不确定性的影响。当AI进行信息收集(如搜索资料、询问用户)时,系统会计算这些行为带来的信息价值,并相应降低总体不确定性。这样AI就能更准确地判断何时需要收集更多信息,何时可以放心执行任务,就像人类做决策时会先了解情况再行动一样。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
前勇士、湖人冠军中锋麦基:我将加入北京首钢

前勇士、湖人冠军中锋麦基:我将加入北京首钢

懂球帝
2026-02-15 09:17:17
强掳马杜罗一个月后,特朗普要去委内瑞拉?目标:再赚50亿美元

强掳马杜罗一个月后,特朗普要去委内瑞拉?目标:再赚50亿美元

上观新闻
2026-02-15 04:43:41
利雅得胜利2-0客胜哈萨征服,C罗回归后首战破门,叶海亚建功

利雅得胜利2-0客胜哈萨征服,C罗回归后首战破门,叶海亚建功

懂球帝
2026-02-15 03:35:16
2026香港富豪榜出炉:霍家排不上号,刘銮雄仅第7,李嘉诚不意外

2026香港富豪榜出炉:霍家排不上号,刘銮雄仅第7,李嘉诚不意外

离离言几许
2026-02-14 11:02:11
谷爱凌大心脏!第2跳摔倒,总分第2晋级大跳台决赛

谷爱凌大心脏!第2跳摔倒,总分第2晋级大跳台决赛

体坛周报
2026-02-15 07:45:10
美国财政部长:将接受有关欺诈、洗钱举报,举报者可获罚金10%-30%作为奖励

美国财政部长:将接受有关欺诈、洗钱举报,举报者可获罚金10%-30%作为奖励

知识圈
2026-02-14 22:37:04
闫学晶被曝偷税漏税大结局!博主通报最新进展,终于真相大白了

闫学晶被曝偷税漏税大结局!博主通报最新进展,终于真相大白了

奇思妙想草叶君
2026-02-15 03:14:15
爆料:特朗普私下大发雷霆

爆料:特朗普私下大发雷霆

环球时报国际
2026-02-15 00:17:32
王菲李健王一博易烊千玺等亮相,总台春晚完成全部五次彩排

王菲李健王一博易烊千玺等亮相,总台春晚完成全部五次彩排

上观新闻
2026-02-15 01:33:05
日本大阪府多人被刺伤,行凶者仍在逃

日本大阪府多人被刺伤,行凶者仍在逃

上观新闻
2026-02-15 07:02:04
刘虎回家过年,这个春节最快乐的事

刘虎回家过年,这个春节最快乐的事

涛哥锐评
2026-02-14 23:16:16
“把瓦房当紫禁城了?”老年人在饭桌上说教,被00后怼到哑口无言

“把瓦房当紫禁城了?”老年人在饭桌上说教,被00后怼到哑口无言

妍妍教育日记
2026-02-15 08:15:08
海南陵水一游客不慎被海浪卷走 派出所3名警员合力救回

海南陵水一游客不慎被海浪卷走 派出所3名警员合力救回

红星新闻
2026-02-15 11:01:14
带娃上班被停职,我把娃扔董事长桌上:你孙子我不要了!

带娃上班被停职,我把娃扔董事长桌上:你孙子我不要了!

极品小牛肉
2026-01-21 09:48:29
纳瓦尔尼死因正式确认:罕见箭毒蛙毒素致命,多国专家联合验证

纳瓦尔尼死因正式确认:罕见箭毒蛙毒素致命,多国专家联合验证

老马拉车莫少装
2026-02-15 00:01:07
县城政治精英们,热衷于演伦理剧

县城政治精英们,热衷于演伦理剧

黔有虎
2026-02-14 11:48:06
中戏又抓一个!系主任主动投案,闫学晶儿子的学历雷爆了?

中戏又抓一个!系主任主动投案,闫学晶儿子的学历雷爆了?

社会日日鲜
2026-02-14 10:50:34
湖南湘潭钢铁厂发生火灾,官方通报:未造成人员伤亡,初查系在处置异常停电过程中一煤气管道起火,事故原因调查中

湖南湘潭钢铁厂发生火灾,官方通报:未造成人员伤亡,初查系在处置异常停电过程中一煤气管道起火,事故原因调查中

大象新闻
2026-02-15 08:43:11
福州街头发现一流浪老人,身份成谜,方言无人懂!程序员“破译”后泪目

福州街头发现一流浪老人,身份成谜,方言无人懂!程序员“破译”后泪目

环球网资讯
2026-02-14 15:00:13
真是人走茶凉!看了三只羊传媒的现状,才明白什么叫兔死狗烹

真是人走茶凉!看了三只羊传媒的现状,才明白什么叫兔死狗烹

聚焦真实瞬间
2026-02-10 20:45:40
2026-02-15 11:35:00
至顶AI实验室 incentive-icons
至顶AI实验室
一个专注于探索生成式AI前沿技术及其应用的实验室。
1848文章数 161关注度
往期回顾 全部

教育要闻

“女儿这一转,值几百万!”一张花滑照火了,难怪穷人当不了女主

头条要闻

媒体:伊朗现在宣布放弃核武器 相当于对美束手就擒

头条要闻

媒体:伊朗现在宣布放弃核武器 相当于对美束手就擒

体育要闻

最戏剧性的花滑男单,冠军为什么是他?

娱乐要闻

河南春晚被骂上热搜!大量广告满屏AI

财经要闻

谁在掌控你的胃?起底百亿"飘香剂"江湖

科技要闻

发春节红包的大厂都被约谈了

汽车要闻

奔驰中国换帅:段建军离任,李德思接棒

态度原创

数码
艺术
本地
时尚
教育

数码要闻

AirTag太贵?小米Tag来了:更薄更强,还支持苹果查找

艺术要闻

16位当代中外画家的静物与花卉作品

本地新闻

下一站是嘉禾望岗,请各位乘客做好哭泣准备

推广中奖名单-更新至2026年2月3日推广

教育要闻

5747是哪个学校?揭秘成都文理学院代码

无障碍浏览 进入关怀版