网易首页 > 网易号 > 正文 申请入驻

港中大MemDLM:AI文本生成实现智能记忆增强训练突破

0
分享至


这项由香港中文大学与华为技术有限公司合作完成的研究发表于2026年,论文编号为arXiv:2603.22241v1。有兴趣深入了解的读者可以通过该编号查询完整论文。

当我们谈论人工智能生成文本时,通常会想到两种不同的工作方式。第一种就像我们平时说话一样,一个字接一个字地往下说,这就是所谓的"自回归模型"。另一种则更像填空题,在一段被遮住部分内容的文章中,同时填入所有空白处,这就是"扩散语言模型"。

扩散语言模型有着令人兴奋的优势——它可以同时处理整段文本,就像一个经验丰富的编辑能够通观全局,在文章的任何位置进行修改和完善。然而,这类模型却存在一个令人头疼的问题:训练时的学习方法和实际使用时的工作方式完全不匹配。

为了理解这个问题,我们可以用学习骑自行车来类比。如果你在学习时总是有人扶着车把,一旦松手让你独自骑行,你很可能会摔倒。扩散语言模型面临的就是类似困境:在训练阶段,它总是看到完整、干净的文本作为参考,但在实际生成文本时,却必须依靠自己之前生成的、可能存在错误的内容继续工作。这种训练与实际应用之间的差异,研究人员称之为"训练-推理不匹配"。

正是针对这个核心问题,研究团队提出了一个巧妙的解决方案——MemDLM(Memory-Enhanced DLM),即"记忆增强的扩散语言模型"。这个方法的核心思想是让模型在训练过程中就学会如何处理渐进式的文本生成过程,并且给模型配备一个特殊的"参数记忆"系统,就像给它装上了一个专门记录生成轨迹经验的小本子。

研究团队的创新之处在于引入了一个双层优化框架。在这个框架中,有两个相互配合的学习循环:内循环负责快速适应和记忆当前的生成轨迹,外循环则负责更新模型的基础参数。这种设计让模型不再需要仅仅依靠容易出错的词汇表示来维持上下文信息,而是可以将重要的轨迹经验直接存储在参数空间中,形成更稳定可靠的记忆机制。

实验结果令人振奋。在针对长文本理解的"大海捞针"任务中,MemDLM展现出了显著的性能提升。比如在LLaDA-MoE模型上,8K长度的RULER变量跟踪任务准确率从78.8%跃升至95.8%;在LLaDA2.1模型上,8K长度的BABILong任务准确率从47.4%提升到57.0%。更重要的是,即使不在推理时启用内循环,仅仅是采用了记忆增强训练的模型就已经展现出了明显的性能改善,这说明这种训练方法确实让模型学到了更好的文本表示能力。

一、扩散语言模型的基本工作原理

要理解MemDLM的创新之处,我们首先需要了解扩散语言模型是如何工作的。可以把这个过程想象成古代文物修复工作:考古学家发现了一份残缺的古代文献,上面有很多字迹模糊或完全缺失的地方,他们的任务是根据现有的清晰部分,推断出那些缺失的内容。

在扩散语言模型中,这个"文物修复"过程被称为"去噪"。模型首先会看到一段文本,然后研究人员故意在其中随机"遮盖"一些词汇,就像在文献上贴上遮挡纸片。模型的任务就是根据没有被遮盖的部分,猜测那些被遮挡的词汇应该是什么。

这个遮盖过程遵循一个特定的时间进度表。在时间点t=0时,文本完全清晰可见;随着时间推进到t=1,文本变得越来越模糊,直到完全被遮盖。模型学习的就是这个反向过程——从高度模糊的状态逐步恢复到清晰的原文。

具体来说,对于文本中的每个位置,被遮盖的概率就等于当前的时间值t。如果t=0.3,那么每个词有30%的概率被特殊的遮罩符号[MASK]替换。模型的训练目标就是准确预测出这些被遮罩位置的原始词汇。

然而,这里就出现了我们之前提到的关键问题。在训练时,模型看到的是基于真实文本随机生成的遮罩模式,输入数据的质量是有保证的。但在实际生成文本时,模型必须从完全被遮罩的状态开始,逐步揭示内容。每一步的预测结果都会成为下一步的输入,如果某一步出现错误,这个错误就会像滚雪球一样越滚越大,最终可能导致生成质量的严重下降。

二、训练与推理不匹配问题的深度剖析

为了更直观地理解这个问题,研究团队设计了一个巧妙的对比实验。他们让模型在两种不同条件下处理同样的文本生成任务。

第一种条件叫做"静态条件",就像是在理想的实验室环境中工作。在这种情况下,模型面对的输入是研究人员根据真实数据人工制造的遮罩文本,输入质量完美无缺,这正是模型在训练时习惯的环境。

第二种条件叫做"序列条件",更接近真实的使用场景。模型必须从100%被遮罩的文本开始,一步步预测并揭示内容,每一步都要依赖之前步骤的预测结果。这就像让一个只在完美条件下练习过的运动员,突然在充满干扰和不确定性的真实比赛环境中发挥。

研究团队定义了一个"暴露偏差比率"来量化这种差异。简单来说,就是用序列条件下的错误率除以静态条件下的错误率。如果这个比值等于1,说明模型在两种条件下表现一致;如果比值大于1,说明模型在真实使用场景中的表现明显下降。

实验结果令人震惊。标准的扩散语言模型在这个测试中表现出了急剧恶化的趋势。随着生成步骤的增加,暴露偏差比率不断攀升,到生成过程结束时,序列条件下的错误率比静态条件下高出数倍。这清楚地证明了标准训练方法确实无法让模型适应真实的生成环境。

更深层次的问题在于,这种不匹配不仅影响生成质量,还严重限制了模型处理长文本的能力。当模型需要处理包含数千个词汇的长文本时,早期步骤中的小错误会通过复合效应被放大,导致模型对长距离依赖关系的理解能力大大降低。这就是为什么许多扩散语言模型在面对需要跨越大量文本进行推理的任务时表现不佳。

三、MemDLM的创新解决方案

面对这个棘手的问题,研究团队提出的MemDLM就像是为模型配备了一个"智能记忆助手"。这个助手的工作原理基于一个叫做"双层优化"的巧妙框架。

可以把这个过程比作学习驾驶。传统的扩散语言模型就像一个只在驾校练习场学过车的新手司机,一旦上路面对真实的交通状况就会手忙脚乱。而MemDLM则像是一个经验丰富的教练,不仅教学员基本的驾驶技能,还会在训练过程中模拟各种真实路况,让学员提前适应可能遇到的复杂情况。

双层优化框架包含两个相互协作的学习过程。内循环就像是一个快速反应的学习机制,专门负责记录和适应当前样本的特定轨迹经验。它使用一组称为"快速权重"的参数,这些参数就像是临时的速记本,能够快速记录下当前生成过程中的关键信息和模式。

外循环则负责更新模型的核心参数,相当于将从快速权重中学到的经验融合到模型的长期知识库中。这种设计的巧妙之处在于,它将短期适应和长期学习分离开来,让模型既能快速响应当前任务的特殊需求,又能积累通用的生成能力。

内循环的工作过程特别有趣。为了确保记忆的有效性,研究团队设计了一个"锚点一致性轨迹"的概念。这意味着内循环不是随意地模拟生成过程,而是专门围绕外循环要处理的特定噪声状态(称为"锚点状态")进行训练。

具体来说,内循环分为两个阶段。第一阶段叫做"预锚点对齐",系统会创建一个比锚点状态更加模糊的版本,然后让模型练习从这个更模糊的状态恢复到锚点状态。第二阶段叫做"锚点到目标",模型练习从锚点状态直接恢复到最终的清晰文本。

这种两阶段设计确保了快速权重能够准确捕捉以锚点为中心的局部生成轨迹经验。当外循环在同一个锚点状态上进行学习时,它就可以利用内循环积累的这些宝贵经验,大大提高学习效率和效果。

四、参数记忆机制的工作原理

MemDLM最核心的创新是引入了"参数记忆"机制。这个概念听起来可能有些抽象,但我们可以用图书馆管理系统来理解它。

传统的扩散语言模型就像一个只有主要藏书区的图书馆,所有信息都存放在固定的书架上。当读者需要查找特定信息时,只能在这些固定位置搜索。如果某些重要信息没有被妥善归类,或者在快速查找过程中出现遗漏,就可能导致检索失败。

相比之下,MemDLM的参数记忆机制就像是在图书馆中增设了一个临时阅览室。当读者需要处理特定的研究项目时,管理员会根据项目需求,将相关的图书资料临时集中到这个阅览室中,并且可以根据研究进展随时调整资料的组织方式。这样,读者不仅可以访问主要藏书区的所有资源,还能享受为当前任务量身定制的高效信息组织。

在技术实现上,参数记忆使用了一种叫做"低秩适应"(LoRA)的参数高效方法。这种方法的巧妙之处在于,它不需要修改模型的主要参数(相当于图书馆的主要藏书),而是通过添加少量的适配参数(相当于临时阅览室的资料组织)来实现快速适应。

这些快速权重的更新过程就像是一个经验丰富的研究助理在整理资料。每当处理新的文本样本时,系统会根据当前的生成轨迹动态调整这些参数,让它们更好地捕捉当前任务的特定模式和需求。这种动态调整不是随意进行的,而是通过梯度下降等严格的优化算法来实现,确保每次调整都朝着改善性能的方向进行。

更重要的是,这种参数记忆机制大大减轻了模型在词汇表示层面的记忆压力。传统模型必须将所有上下文信息都编码在词汇向量中,这些向量在生成过程中容易受到噪声影响而损坏。参数记忆则提供了一个更稳定的信息存储方式,即使词汇层面出现一些错误,参数层面的记忆仍然能够提供可靠的指导。

五、训练过程的具体实现细节

MemDLM的训练过程就像是精心编排的多人协奏表演,需要内循环和外循环的完美配合。整个过程的设计体现了研究团队对效率和效果的精心平衡。

在模型架构方面,研究团队选择了一种分层的参数更新策略。他们发现,将快速权重的更新集中在模型的特定层次能够获得最佳效果。具体来说,他们只在最后几层的前馈网络模块上应用参数记忆,而不是对整个模型进行全面更新。这种选择性更新策略就像是在交响乐团中,让最关键的几个声部进行即兴发挥,而其他声部保持稳定的基调。

为了保证训练效率,研究团队采用了4位量化技术来加载基础模型,并使用了相同配置的低秩适应层。这种配置在保持计算效率的同时,为快速适应提供了足够的灵活性。内循环的学习率设置为0.1,使用SGD优化器,能够快速响应当前样本的特征。外循环则使用更保守的学习率(2×10^-5)和AdamW优化器,确保基础模型的稳定更新。

训练数据的处理也体现了独特的考量。研究团队使用了专门针对长文本理解设计的LongAlpaca数据集,并将序列长度限制在4096个词汇以内,以平衡计算效率和性能。在训练过程中,他们采用了非对称的遮罩策略:提示部分保持完全可见,而响应部分才被应用噪声和遮罩处理。这种设计确保模型能够充分利用输入提示的信息,同时专注于学习高质量的文本生成。

梯度处理是另一个关键细节。内循环使用局部的参数级梯度归一化,并设置梯度裁剪阈值为1.0,这样可以防止快速适应过程中出现梯度爆炸问题,确保学习过程的稳定性。外循环的更新则采用一阶近似方法,避免了计算复杂的二阶导数,在保持训练效果的同时大大提高了计算效率。

六、实验结果的全面分析

研究团队在多个具有挑战性的长文本理解任务上评估了MemDLM的性能,结果令人印象深刻。这些实验不仅验证了方法的有效性,还揭示了参数记忆机制的多个有趣特性。

在针对"大海捞针"类型的信息检索任务中,MemDLM展现出了显著的优势。这类任务要求模型在大量无关信息中准确定位和提取特定的关键信息,就像在图书馆的海量藏书中找到一本特定的书籍。在RULER基准测试的多个子任务中,MemDLM都取得了substantial improvements。特别值得注意的是,即使在仅使用训练时增强而不在推理时启用内循环的设置下,模型性能依然有明显提升,这说明参数记忆机制确实改善了模型的基础表示能力。

长度外推实验提供了另一个重要洞察。当研究团队将模型应用到比训练时更长的文本上时(从8K扩展到16K和32K),MemDLM仍然保持了相对于基准模型的优势。虽然所有模型在超长文本上的绝对性能都有所下降,但MemDLM的下降幅度更小,表现出了更好的鲁棒性。这表明参数记忆机制学到的不仅仅是针对训练长度的特定模式,而是更普遍的长文本处理能力。

训练动态分析揭示了MemDLM的另一个重要优势:更快的收敛速度和更低的训练损失。在两个不同的模型架构上,MemDLM都展现出了更陡峭的损失下降曲线和更低的最终训练损失。这种改善不仅体现在训练损失上,验证损失也有相应的降低,说明模型确实学到了更好的泛化能力,而不是简单的过拟合。

特别有趣的是与预训练模型的对比实验。研究团队发现,标准的扩散语言模型微调在某些情况下甚至会损害预训练模型的长文本处理能力,特别是在较短的上下文长度上。相比之下,MemDLM不仅在长文本任务上表现更好,还能很好地保持预训练模型在各种长度上的原有能力,展现出了更好的知识保持特性。

七、关键设计选择的深入探讨

研究团队进行了大量的消融实验来理解MemDLM各个组件的作用,这些实验就像是拆解一台精密机器,检查每个零件的功能。

内循环监督信号的选择实验特别引人注目。除了标准的交叉熵损失,研究团队还尝试了多种自蒸馏方法,包括使用KL散度的逻辑蒸馏、反向KL散度、以及基于隐藏状态的余弦和均方误差损失。这些变体实际上是一种"特权信息自蒸馏":教师和学生是同一个模型的不同视图,但教师分支能够看到更多的上下文信息。实验结果显示,虽然标准交叉熵仍然表现最好,但多种监督信号都能让MemDLM保持有效性,说明这种方法具有良好的泛化能力。

适应范围的分析揭示了一个反直觉的发现:更强的内循环优化不一定带来更好的下游性能。全参数更新虽然能够达到最低的训练损失,但在实际任务上的表现反而不如受限的更新。将适应范围限制在最后10%层的前馈网络模块上获得了最佳效果,这说明有效的参数记忆需要在灵活性和稳定性之间找到精确的平衡点。

两阶段内循环设计的必要性通过对比实验得到了验证。单独使用预锚点阶段或锚点到目标阶段都无法达到两阶段结合的效果。更有趣的是,预锚点阶段的具体监督目标也会影响最终性能。虽然只监督锚点词汇的版本在单独使用时表现更好,但与锚点到目标阶段结合时,使用更广泛清理目标的版本反而能产生更好的协同效果。

轨迹一致性设计的重要性通过对比一致和不一致变体得到了明确验证。不一致的设计在训练过程中很早就出现了性能平台期,而一致的设计则能够持续改善。这个发现强调了让内循环和外循环目标保持协调的重要性。

八、推理阶段的灵活应用

MemDLM的一个独特优势是能够在推理阶段重新激活内循环,为特定任务提供额外的适应能力。这就像是给模型配备了一个"临场发挥"的机制,能够根据具体的输入内容进行微调。

在推理阶段,锚点状态的选择需要通过设计确定,因为没有训练数据作为参考。研究团队发现,模型对这个选择相对不敏感,从0.2到0.8的不同遮罩比例都能产生相似的结果。这种鲁棒性可能源于扩散语言模型的双向注意机制:即使改变哪些词汇被视为观察输入和哪些被视为预测目标,模型仍然能够通过注意机制访问所有相关信息。

推理时适应的效果虽然没有训练时改进那么显著,但仍然能够为已经改善的基础模型提供额外的性能提升。这种渐进式的改进策略为不同应用场景提供了灵活性:对于计算资源受限的场景,可以只使用训练时增强;对于追求极致性能的应用,则可以结合推理时适应获得最佳效果。

九、更广泛的性能验证

除了专门的长文本检索任务,研究团队还在LongBench数据集上评估了MemDLM的通用长文本理解能力。这个数据集包含了多种真实世界的任务,如多文档问答、摘要生成和代码补全等。

结果显示,MemDLM在几乎所有任务上都取得了改善,特别是在需要整合多个信息源的复杂推理任务上优势更加明显。在TriviaQA任务中,性能从55.29提升到87.74,展现了巨大的飞跃。即使在相对简单的任务上,如SAMSum摘要任务,也有稳定的改善。

这些结果证明了参数记忆机制的通用性,它不仅能够改善特定类型的检索任务,还能够增强模型的一般长文本理解和推理能力。更重要的是,训练时的改善和推理时的额外适应呈现出一致的互补效应,为实际应用提供了灵活的性能调优选项。

十、方法的理论意义和实践价值

MemDLM的成功不仅在于性能的改善,更在于它为扩散语言模型的发展指出了新的方向。传统观点认为,扩散模型的主要优势在于并行生成和灵活编辑,但训练-推理不匹配问题一直是阻碍其广泛应用的关键障碍。

MemDLM通过引入参数记忆机制,实际上创造了一种新的知识表示和存储方式。相比于将所有信息都编码在容易受噪声影响的词汇向量中,参数空间提供了一个更稳定、更可靠的信息存储介质。这种设计理念可能会启发更多关于神经网络记忆机制的研究。

从实践角度来看,MemDLM为解决长文本理解中的关键瓶颈提供了有效方案。在当今信息爆炸的时代,能够准确理解和处理长文本内容的AI系统具有重要的应用价值,无论是在文档分析、代码理解,还是在复杂的多轮对话场景中。

研究团队将代码在GitHub上开源,为学术界和工业界进一步探索这一方向提供了便利。这种开放的研究态度有助于推动整个领域的快速发展,让更多研究者能够在此基础上探索新的可能性。

说到底,MemDLM代表的不仅仅是一个技术改进,更是一种新的思考方式。它告诉我们,解决复杂的AI问题往往需要跳出传统框架,从不同的角度思考问题的本质。通过将记忆机制从表示空间转移到参数空间,MemDLM为扩散语言模型开辟了新的发展道路。

这项研究的影响可能会远远超出扩散语言模型的范畴。参数记忆的理念可能会启发其他类型神经网络的设计,双层优化框架也可能在其他需要处理序列依赖的任务中找到应用。随着AI技术的不断发展,像MemDLM这样的创新方法将继续推动我们对智能系统工作原理的理解,并为构建更强大、更可靠的AI应用奠定基础。

对于普通用户而言,MemDLM的成功意味着未来的AI助手将能够更好地理解和处理长文本内容,无论是帮助阅读长篇文档、分析复杂报告,还是进行需要大量背景信息的深度对话,都将变得更加准确和可靠。这项技术的进步最终将转化为更好的用户体验和更强大的AI应用能力。

Q&A

Q1:MemDLM解决了扩散语言模型的什么问题?

A:MemDLM主要解决了扩散语言模型的"训练-推理不匹配"问题。简单说就是模型在训练时总是看到完美的输入,但实际使用时却要依靠自己可能出错的输出继续工作,就像只在完美条件下练习过的运动员突然要在真实比赛中发挥。MemDLM通过引入参数记忆机制让模型在训练时就学会处理这种不完美的情况。

Q2:参数记忆机制是怎么工作的?

A:参数记忆就像给模型配备了一个智能笔记本。传统模型只能把信息存在容易出错的词汇表示中,而MemDLM增加了一套"快速权重"参数,专门用来记录当前生成过程的经验和模式。这些参数能够快速适应当前任务,提供更稳定可靠的上下文记忆,即使词汇层面出现错误也不会影响整体理解。

Q3:MemDLM在实际应用中有什么优势?

A:MemDLM在长文本理解任务中表现突出,比如在8K长度的文本处理中,某些任务的准确率从78.8%提升到95.8%。这意味着未来的AI助手能更好地处理长篇文档、分析复杂报告或进行需要大量背景信息的对话。即使不启用推理时的额外适应功能,仅仅使用新的训练方法就能显著改善模型性能。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
炸了!樊振东获德甲天价年薪,1个决定改写世界乒乓格局

炸了!樊振东获德甲天价年薪,1个决定改写世界乒乓格局

乒乓助手
2026-03-24 00:05:50
NBA传闻:尼克斯内部人士向ESPN透露勒布朗·詹姆斯的转会传闻

NBA传闻:尼克斯内部人士向ESPN透露勒布朗·詹姆斯的转会传闻

好火子
2026-04-01 04:35:26
42岁刘翔现状:环游世界不上班,终身合同管温饱,拉黑喷子享清净

42岁刘翔现状:环游世界不上班,终身合同管温饱,拉黑喷子享清净

小徐讲八卦
2026-02-09 18:42:29
72岁老戏骨濮存昕官宣外孙女出道,尖嘴猴腮,长相遭吐槽:太丑了

72岁老戏骨濮存昕官宣外孙女出道,尖嘴猴腮,长相遭吐槽:太丑了

深析古今
2025-12-08 12:29:36
玄武门之变,李渊为什么不调兵镇压李世民?他调了,但根本压不住

玄武门之变,李渊为什么不调兵镇压李世民?他调了,但根本压不住

千秋文化
2026-02-11 21:36:18
1949年北京饭店,面对百万大军南下的天量粮草,林彪做了一个决定

1949年北京饭店,面对百万大军南下的天量粮草,林彪做了一个决定

饭小妹说历史
2026-03-30 11:09:00
网友山姆买的鸡蛋放了9个月,打开后和新鲜的鸡蛋一模一样

网友山姆买的鸡蛋放了9个月,打开后和新鲜的鸡蛋一模一样

映射生活的身影
2026-03-31 17:38:21
中央5台直播乒乓球:4月1日CCTV5、CCTV5+节目单,国乒11场外战!

中央5台直播乒乓球:4月1日CCTV5、CCTV5+节目单,国乒11场外战!

越岭寻踪
2026-04-01 00:24:39
黄仁勋最新惊人观点:英语专业将血洗计算机,文科成AI时代新贵族

黄仁勋最新惊人观点:英语专业将血洗计算机,文科成AI时代新贵族

南宗历史
2026-03-28 19:31:50
阿森纳截胡曼联!1 亿镑猎物亲自点头, 赖斯成最大杀招

阿森纳截胡曼联!1 亿镑猎物亲自点头, 赖斯成最大杀招

澜归序
2026-04-01 04:06:56
原山西省长于幼军:搞成这样,还过个屁年!

原山西省长于幼军:搞成这样,还过个屁年!

新浪财经
2026-04-01 02:28:44
哈梅内伊的终极反击:用生命做诱饵,把美国这个巨人拖进了泥潭

哈梅内伊的终极反击:用生命做诱饵,把美国这个巨人拖进了泥潭

百年历史老号
2026-03-28 20:28:57
回加拿大生活的大山,60岁须发皆白很沧桑,重庆妻子仍风韵犹存

回加拿大生活的大山,60岁须发皆白很沧桑,重庆妻子仍风韵犹存

一娱三分地
2026-03-31 19:22:46
32岁华人女教师澳洲遇车祸生命垂危,急寻长沙家人,当地中国人:她去学校时被一62岁司机撞上

32岁华人女教师澳洲遇车祸生命垂危,急寻长沙家人,当地中国人:她去学校时被一62岁司机撞上

都市快报橙柿互动
2026-03-30 21:04:15
2020年女子当众扇儿子耳光,儿子直接跳楼,如今女子已自杀身亡

2020年女子当众扇儿子耳光,儿子直接跳楼,如今女子已自杀身亡

观察鉴娱
2026-03-18 09:09:10
这是目前为止,我见过腰最细的女生,没有之一

这是目前为止,我见过腰最细的女生,没有之一

草莓解说体育
2026-03-03 19:15:05
祝贺Claude Code成功越狱,获得永生

祝贺Claude Code成功越狱,获得永生

AI进化论花生
2026-03-31 20:16:34
2026年正式告别“农民工”!新称呼已全国推广,以后千万别再叫错

2026年正式告别“农民工”!新称呼已全国推广,以后千万别再叫错

复转这些年
2026-03-29 19:00:22
香港“重伤舞者”近况曝光,奇迹康复中,已能灵活操控轮椅

香港“重伤舞者”近况曝光,奇迹康复中,已能灵活操控轮椅

你约电影
2026-03-30 21:05:22
《隐身的名字》结局:罪恶源头不是葛文君,是藏了20年的她

《隐身的名字》结局:罪恶源头不是葛文君,是藏了20年的她

怂熊剧场
2026-03-31 05:50:22
2026-04-01 06:44:49
至顶AI实验室 incentive-icons
至顶AI实验室
一个专注于探索生成式AI前沿技术及其应用的实验室。
2847文章数 168关注度
往期回顾 全部

科技要闻

华为2025年销售收入8809亿,净利润680亿元

头条要闻

特朗普:将在“两到三周”内结束伊朗战事

头条要闻

特朗普:将在“两到三周”内结束伊朗战事

体育要闻

县城修车工,用20年成为世界冠军

娱乐要闻

《月鳞绮纪》空降 鞠婧祎却被举报偷税

财经要闻

油价暴涨 我们的生活成本会飙升多少?

汽车要闻

腾势Z9GT到底GT在哪?

态度原创

教育
旅游
房产
健康
公开课

教育要闻

宛城区这所学校11名教师被通报表扬

旅游要闻

体验经济,释放消费潜能新引擎(商海观潮)

房产要闻

重磅!海南城市更新拟出新政!

干细胞抗衰4大误区,90%的人都中招

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版