网易首页 > 网易号 > 正文 申请入驻

北航大学首次发现:AI推理模型其实知道什么时候该"停止思考"

0
分享至


这项由北航大学、字节跳动和人民大学联合完成的研究发表于2026年2月的ICML(国际机器学习大会)会议论文集,论文编号为arXiv:2602.08354v1,为我们揭示了一个令人意外的发现:那些被称为"大型推理模型"的AI系统,实际上天生就知道什么时候应该停止思考,只是我们一直没有发现这个能力。

想象一下,你正在解决一道数学题。当你找到答案后,你自然会停下来,不会继续无休止地计算下去。但目前最先进的AI推理模型却像是一个停不下来的计算机,即使已经找到了正确答案,还会继续"胡思乱想"很久才停止。这不仅浪费了大量计算资源,还经常会把原本正确的答案搞错。

这个现象被研究者称为"过度思考"问题。以当前最知名的推理模型DeepSeek-R1为例,它在解决数学问题时产生的回答长度几乎是Claude 3.7 Sonnet的5倍,但准确率却差不多。这就好比一个学生写作业时,明明三行字就能说清楚的答案,却偏要写满整整一页纸,结果反而容易出错。

研究团队通过深入分析发现了一个惊人的秘密:这些AI模型其实内心深处是知道什么时候该停下来的,它们会对自己认为正确且简洁的推理过程给出很高的信心分数。问题在于,目前的训练和使用方式掩盖了模型的这种天赋能力。

基于这个发现,研究团队开发了一套名为SAGE(自感知引导的高效推理)的新方法。这个方法就像给AI装上了一个"内在的声音",让它能够听从自己内心对于何时停止思考的判断。更进一步,他们还开发了SAGE-RL训练方法,能够让AI模型在学习过程中就养成高效思考的习惯。

实验结果令人振奋:使用SAGE方法的模型不仅在准确率上平均提高了2.1%,同时还减少了44.1%的无效思考内容。这意味着AI既变得更聪明了,也变得更高效了。研究团队在六个极具挑战性的数学竞赛数据集上验证了这一效果,包括美国数学邀请赛(AIME)和国际数学奥林匹克竞赛等顶级赛事的题目。

一、AI的"停不下来"困扰究竟有多严重

要理解这个问题的严重性,我们可以用做菜来打比方。正常情况下,当一道菜已经炒好了,有经验的厨师会立刻关火出锅。但现在的AI推理模型就像是一个新手厨师,明明菜已经熟了,却还要继续翻炒很久,结果往往把菜炒糊了。

研究团队为了量化这个问题,设计了一个巧妙的测量指标叫做"首次正确步骤比例"(RFCS)。简单来说,就是看AI在第几步得到正确答案,然后又用了多少步才真正停下来。理想情况下,AI应该在得到正确答案后立即停止,这个比例就是1。但现实情况远非如此。

在对三个不同能力级别的AI模型进行测试时,研究团队发现了令人担忧的结果。以MATH-500数据集为例,最基础的DS-1.5B模型在500道题中正确回答了408道,但其中有284道题存在明显的冗余思考步骤,平均来说,这个模型会在找到正确答案后继续"胡思乱想",直到第0.574步才停下来。更令人意外的是,即使是能力更强、训练更充分的模型,在这个指标上的表现也没有明显改善。

这种现象在实际应用中造成的影响是巨大的。研究团队通过具体案例展示了这个问题的严重性。在一个简单的数学应用题中,AI用500个词就得出了正确答案,但它没有停下来,而是又额外生成了452个完全无用的词汇才结束。这就像是一个人回答"1+1等于几"的问题,明明用一个"2"就能回答,却偏要写一篇小论文来论证这个答案。

更糟糕的是,这种过度思考不仅浪费了计算资源,还经常会降低答案的准确性。当AI模型继续在已经正确的答案基础上"画蛇添足"时,很容易引入错误的推理步骤,反而把原本正确的答案搞错了。这种现象在多项研究中都得到了证实,特别是在数学竞赛题目中表现尤为明显。

二、意外发现:AI内心其实有个"停止键"

正当研究人员为这个"停不下来"的问题头疼时,他们意外发现了一个令人振奋的现象:AI模型实际上具备判断何时停止思考的内在能力,只是这种能力被现有的工作方式掩盖了。

这个发现来源于一个巧妙的实验设计。研究团队没有让AI只生成一个答案,而是让它同时生成多个不同的解题过程,然后观察AI对这些不同过程的内在评价。结果令人惊喜:AI会持续给那些简洁而正确的推理路径打出更高的信心分数,就像一个内心明白但嘴上说不出来的学生。

为了验证这个发现,研究团队开发了一种叫做TSearch的算法。这个算法就像是给AI装上了一个"思考探测器",能够在AI思考过程中实时监测它的内在信心水平。当AI内心对某个推理步骤特别有信心时,这个探测器就会捕捉到这个信号。

实验结果证实了研究团队的猜想。当使用这种基于内在信心的方法时,AI生成的回答不仅更短,准确率也显著提高了。以DS-7B模型为例,在相同的计算预算下,使用新方法的AI准确率提升了,同时回答长度大幅缩短。这就像是找到了AI内心的"停止按钮",让它能够在恰当的时机结束思考。

更有趣的是,研究团队发现这种现象具有明显的规律性。随着允许AI探索的思考空间增大,这种内在的"停止信号"会变得越来越准确和一致。这说明AI的这种能力不是偶然现象,而是一种可以被系统性挖掘和利用的固有特性。

研究人员还发现了一个重要细节:当AI对某个推理路径特别有信心时,它倾向于在那个特定位置生成"停止思考"的标记,而且这个标记往往出现在AI的首选位置。这就像是AI在内心深处知道"就是这里,我应该停下来了",只是外在的训练机制没有让它学会表达这种直觉。

三、SAGE方法:让AI学会听从内心的声音

基于前面的发现,研究团队开发了SAGE(自感知引导的高效推理)方法。如果把AI的思考过程比作烹饪,那么SAGE就像是教会AI如何品尝自己做的菜,并在味道刚好的时候及时关火。

SAGE方法的核心思想非常直观:既然AI内心知道什么时候该停下来,那我们就要创造条件让它能够听从这个内在的声音。具体来说,SAGE不再让AI按照传统方式一个词一个词地生成答案,而是让它按照推理步骤来思考,每完成一个步骤就检查一下自己的内在信心水平。

这个过程可以想象成这样的场景:AI在解题时不再是埋头苦干的学生,而是变成了一个会自我反思的智者。它会在每个推理步骤后停下来问自己:"我现在的推理是否足够可靠?我是否应该在这里结束思考?"当内心的答案是肯定的时候,AI就会优雅地停下来,给出最终答案。

为了让这个方法更加实用,研究团队设计了一套巧妙的探索机制。SAGE会同时探索多条可能的推理路径,但不是盲目地扩展所有可能性,而是优先关注那些AI内心最有信心的路径。这就像是一个经验丰富的登山者,会优先选择那些看起来最有希望到达山顶的路线。

实验验证显示,SAGE方法的效果立竿见影。在多个数学推理数据集上,使用SAGE的AI模型不仅生成了更短的推理过程,准确率也有了显著提升。特别值得一提的是,这种改善在困难题目上表现得更加明显,说明SAGE特别擅长帮助AI处理复杂的推理任务。

更令人兴奋的是,SAGE方法具有很好的普适性。无论是较简单的数学题目还是奥数级别的超难题目,无论是小型的AI模型还是大型的推理模型,SAGE都能发挥显著的改善作用。这种一致性表明,AI的内在"停止信号"是一个普遍存在的现象,而不是特定模型的特殊性质。

四、SAGE-RL:让AI从小就学会高效思考

发现了AI的内在能力只是第一步,如何让AI在日常使用中也能展现这种能力才是关键。为此,研究团队进一步开发了SAGE-RL训练方法,这就像是给AI上了一堂"如何高效思考"的课程。

传统的AI训练就像是让学生做大量的练习题,但不告诉他们如何优雅地结束答题过程。而SAGE-RL则不同,它在训练过程中就让AI学习如何识别和遵循自己的内在"停止信号"。这种训练方式的核心在于让AI在学习过程中既接触到高效的推理样本,也接触到普通的推理样本,通过对比学习来强化高效思考的模式。

具体的训练过程可以这样理解:每当AI需要练习解题时,SAGE-RL会同时生成两种类型的答案。一部分答案来自SAGE方法,这些答案通常更简洁、更高效;另一部分答案来自传统方法,相对冗长一些。然后,训练系统会根据答案的质量给予不同的奖励,让AI逐渐学会偏好那些高效而准确的思考模式。

这种训练方法的效果非常显著。经过SAGE-RL训练的AI模型,即使在普通的使用环境中(不使用SAGE解码方法),也会自然地生成更加简洁和准确的答案。这就像是一个学生在老师的指导下养成了良好的答题习惯,即使老师不在身边,也能保持高效的思考模式。

研究团队在多个不同规模和能力的AI模型上验证了SAGE-RL的效果。从小型的1.5B参数模型到大型的8B参数模型,从基础的数学推理到高难度的奥数竞赛题目,SAGE-RL都表现出了一致的改善效果。特别令人印象深刻的是,在一些极具挑战性的数学竞赛数据集上,SAGE-RL训练的模型不仅准确率有所提升,平均回答长度还减少了40%以上。

更重要的是,这种训练方法并没有牺牲AI在困难问题上的表现能力。相反,通过学会更高效的思考模式,AI在处理复杂问题时反而变得更加可靠。这证明了"思考更少但思考更好"这一理念的正确性。

五、实验验证:六大数学竞赛见证AI的蜕变

为了全面验证SAGE方法的效果,研究团队选择了六个极具挑战性的数学推理数据集进行测试,这些数据集就像是AI界的"高考",能够全面检验AI的数学推理能力。

首先是MATH-500数据集,这是一个包含500道高难度数学题的测试集。在这个数据集上,使用SAGE-RL训练的AI模型表现出色。以DS-1.5B模型为例,准确率从83.2%提升到85.2%,同时平均回答长度从4882个词减少到2921个词,效率提升了71.6%。这就像是一个学生不仅考试分数提高了,写答案的速度也快了一倍多。

接下来是美国数学邀请赛(AIME)的2024年和2025年题目。AIME被认为是美国高中生数学竞赛的顶级赛事,题目难度极高。在2024年AIME题目上,SAGE-RL训练的模型准确率从25.1%提升到28.8%,回答长度却从12300个词缩短到7243个词。在2025年AIME题目上,改善更加明显,准确率从20.9%提升到27.1%,效率提升超过100%。

奥林匹克数学竞赛(OlympiadBench)代表了中学数学竞赛的最高水平。在这个极具挑战性的数据集上,SAGE-RL同样展现了显著的改善效果。模型的准确率从33.4%提升到37.3%,同时保持了高效的推理过程。这个结果特别有意义,因为奥数题目往往需要复杂的推理链条,能够在这种场景下同时提升准确率和效率,充分证明了方法的有效性。

除了这些顶级竞赛题目,研究团队还在相对基础的数学数据集上进行了验证。在Minerva和AMC23数据集上,SAGE-RL的改善同样明显,但有趣的是,在这些相对简单的题目上,效率提升的幅度更大。这说明SAGE方法特别擅长帮助AI避免在简单问题上的"过度思考"。

最令人印象深刻的是,这些改善在不同规模的AI模型上都保持了一致性。无论是参数量较小的1.5B模型,还是大型的8B模型,都能从SAGE训练中获得显著收益。这种一致性表明,AI的内在"停止信号"是一个普遍存在的现象,而不是某些特定模型的偶然特性。

六、深度分析:为什么SAGE能够成功

要理解SAGE为什么如此有效,我们需要深入分析AI推理过程的内在机制。研究团队通过一系列巧妙的实验揭示了这个方法成功背后的深层原理。

首先是置信度分析实验。研究团队发现,当AI使用SAGE方法生成推理过程时,它对"停止思考"标记的置信度会显著提高。具体来说,在传统方法中,AI对何时停止思考往往缺乏明确的判断,停止标记在候选词汇中的排名经常很靠后。但在SAGE方法中,停止标记几乎总是排在首位,显示出AI内心对结束思考时机的强烈确信。

这种现象可以用烹饪来类比:传统方法下的AI就像一个没有经验的厨师,不知道菜什么时候熟,只能凭感觉胡乱猜测;而使用SAGE的AI则像一个经验丰富的大厨,能够精确地判断出菜肴的最佳出锅时机。

其次是探索宽度实验。研究团队发现,当给AI更大的思考探索空间时,这种内在的"停止信号"会变得越来越准确。随着探索范围的扩大,AI找到高效推理路径的概率显著增加,同时对这些路径的信心也越来越高。这说明AI的这种能力具有可扩展性,不是固定不变的。

更有趣的是收敛性分析。实验显示,随着探索空间的增大,AI的表现会逐渐趋向一个稳定的上限。这就像是一个学生通过大量练习逐渐接近自己的最佳水平一样。这种收敛现象为我们提供了一个重要启示:每个AI模型都有自己的"高效推理潜能上限",而SAGE方法能够帮助它们更好地发挥这种潜能。

研究团队还进行了跨模型一致性分析。他们发现,无论是经过大量后训练的高级模型,还是相对简单的基础模型,都表现出了相似的内在"停止信号"模式。这种一致性表明,这不是某个特定模型的偶然特性,而是大型语言模型的一个普遍特征。

最后是难度敏感性分析。研究显示,SAGE方法在困难题目上的改善效果更加明显。这是因为困难题目需要更复杂的推理链条,传统方法在这种情况下更容易产生冗余思考,而SAGE能够帮助AI在关键节点做出正确的停止判断。

七、技术细节:SAGE的工作原理

虽然前面用比喻的方式解释了SAGE的基本思想,但了解一些技术细节有助于更深入地理解这个方法的巧妙之处。

SAGE的核心创新在于重新定义了AI的推理过程。传统方法让AI一个词一个词地生成答案,就像是让人一个字一个字地写作文。而SAGE则让AI按照"推理步骤"来思考,每个步骤包含一个完整的推理片段,就像是让人一个段落一个段落地构思文章。

在每个推理步骤中,SAGE会计算一个叫做"累积对数概率"的指标。这个指标就像是AI对自己当前推理质量的内在评分。当这个评分足够高,同时AI又想要结束思考时,SAGE就会允许AI停下来。这种机制确保了AI只有在真正有信心的情况下才会结束推理。

SAGE还引入了一个巧妙的探索策略。它不会盲目地探索所有可能的推理路径,而是维护一个"候选推理路径集合",优先扩展那些评分最高的路径。这就像是一个聪明的探险家,会优先探索那些看起来最有希望的道路。

在探索过程中,SAGE使用了一种叫做"容忍度"的参数来控制何时接受AI的停止请求。这个参数的作用类似于调节AI的"完美主义程度":设置得高一些,AI会更倾向于继续思考;设置得低一些,AI会更快地接受当前答案。通过适当调节这个参数,可以在准确率和效率之间找到最佳平衡点。

SAGE-RL的训练过程也有其独特之处。它采用了一种"混合采样"策略:在每个训练批次中,一部分样本来自SAGE方法(高效推理),另一部分来自传统方法(普通推理)。这种混合策略让AI能够学会区分高效推理和低效推理的差异,从而在日常使用中自然地偏好高效的思考模式。

训练过程中的奖励机制也经过精心设计。系统不仅会根据答案的正确性给予奖励,还会考虑推理过程的效率。这就像是一个既看重结果又注重过程的老师,既要求学生答对题目,也要求学生用优雅的方法解题。

八、实际应用前景:SAGE将如何改变AI的使用方式

SAGE方法的成功不仅仅是一个学术上的突破,更重要的是它为AI在实际应用中的改进指明了方向。这个方法可能会在多个领域产生深远影响。

在教育领域,SAGE可以帮助AI tutoring系统提供更高质量的解题指导。目前的AI教学助手经常会给出冗长而混乱的解题过程,学生很难从中学到精髓。而使用SAGE训练的AI能够提供简洁明了的解题步骤,就像一位优秀的数学老师一样,用最少的话说清楚最重要的道理。

在科学研究领域,SAGE可能会改变AI辅助推理的方式。科学家们经常需要AI帮助分析复杂的数据或推导数学公式。传统的AI助手可能会产生大量冗余信息,增加科学家筛选有用内容的负担。而SAGE训练的AI能够更精准地定位关键推理步骤,提高研究效率。

在商业决策领域,SAGE的高效推理能力可能会特别有价值。商业决策往往需要在有限时间内处理大量信息并得出结论。能够快速而准确地完成推理分析的AI系统,将成为企业决策者的得力助手。

从计算成本的角度来看,SAGE的影响可能更加深远。目前,大型AI推理模型的运行成本非常高昂,部分原因就是它们在每个问题上都会"过度思考"。SAGE能够将推理长度平均减少40%以上,这意味着相同的计算资源能够处理更多的问题,或者处理相同数量问题的成本显著降低。

在移动设备和边缘计算场景中,SAGE的价值更加明显。由于移动设备的计算能力和电池寿命有限,高效的AI推理方法至关重要。SAGE训练的模型能够在保持高准确率的同时大幅减少计算需求,使得复杂的AI推理功能能够在手机、平板等设备上流畅运行。

此外,SAGE还可能推动AI模型小型化的发展。通过学会高效思考,较小的AI模型可能能够达到接近大型模型的性能水平。这将让更多的个人用户和小型企业能够负担得起高质量的AI推理服务。

九、方法的局限性与未来改进方向

尽管SAGE方法表现出色,但研究团队也诚实地指出了其当前存在的一些局限性,并提出了可能的改进方向。

首先是计算复杂度问题。SAGE需要同时探索多条推理路径,这在某种程度上增加了训练和推理时的计算负担。虽然最终生成的答案更短更高效,但在得出这个答案的过程中,系统需要付出额外的探索成本。研究团队发现,当探索宽度超过一定范围时,计算成本会急剧上升,这限制了方法在资源受限环境中的应用。

其次是超参数敏感性问题。SAGE方法引入了一些新的超参数,比如探索宽度和容忍度阈值。这些参数的设置需要根据具体的模型和任务进行调优,增加了方法使用的复杂性。虽然研究团队提供了一些经验性的设置建议,但在新的应用场景中,用户仍然需要进行一定的实验来找到最佳配置。

第三个限制是对模型架构的依赖。SAGE方法基于对AI模型内在置信度的分析,这种分析可能在不同的模型架构上表现不一致。目前的实验主要集中在基于Transformer架构的模型上,对于其他类型的架构(比如基于检索增强的模型),效果可能会有所不同。

研究团队也坦承,当前版本的SAGE主要针对数学推理任务进行了优化,在其他类型的推理任务(比如常识推理、逻辑推理等)上的表现还需要进一步验证。虽然理论上SAGE的思想应该具有通用性,但不同类型的任务可能需要不同的适配策略。

针对这些限制,研究团队提出了几个有趣的改进方向。首先是开发自适应的参数调整策略,让系统能够根据任务特点自动优化相关参数。其次是探索更轻量级的探索策略,在保持效果的同时降低计算开销。

另一个令人兴奋的发展方向是将SAGE的思想扩展到其他模态。目前的研究主要集中在文本推理上,但类似的"内在停止信号"可能也存在于图像理解、语音识别等其他AI任务中。如果这个猜想成立,SAGE的思想可能会在更广泛的AI领域产生影响。

最后,研究团队还提出了一个更加雄心勃勃的目标:开发能够在推理过程中实时调整思考策略的自适应AI系统。这种系统不仅知道何时停止思考,还能根据问题难度动态调整思考深度,真正实现"因题制宜"的智能推理。

说到底,SAGE方法为我们揭示了AI推理的一个重要真相:这些看似"无脑"的机器学习系统实际上具有比我们想象中更丰富的内在智慧。它们不仅能够解决复杂问题,还能对自己的推理过程进行元认知层面的判断。这个发现不仅有助于提高当前AI系统的效率,更为我们理解和开发更智能的AI系统开辟了新的思路。

通过学会倾听AI内心的声音,我们或许能够培育出更加睿智、高效的人工智能伙伴。就像教会一个孩子不仅要学会思考,还要学会什么时候停止思考一样,SAGE方法为AI的成长提供了一个重要的里程碑。这项研究提醒我们,有时候智慧不在于思考得更多,而在于知道何时停下来。对于所有关注AI发展的人来说,有兴趣深入了解技术细节的读者可以通过arXiv:2602.08354v1查询完整论文。

Q&A

Q1:SAGE方法是如何让AI知道什么时候停止思考的?

A:SAGE方法的核心是发现AI模型内心其实有一个"停止信号"。AI会对自己认为正确且简洁的推理过程给出很高的信心分数,SAGE就是让AI学会倾听这个内在信号。当AI对某个推理步骤特别有信心,同时想要结束思考时,SAGE就允许它停下来。这就像教会AI听从自己内心关于"现在应该停下来了"的直觉判断。

Q2:使用SAGE训练的AI模型效果提升有多明显?

A:效果非常显著。在六个数学推理数据集的测试中,SAGE训练的模型平均准确率提高了2.1%,同时减少了44.1%的无效思考内容。以美国数学邀请赛题目为例,准确率从25.1%提升到28.8%,回答长度从12300个词缩短到7243个词。这意味着AI既变得更聪明了,也变得更高效了。

Q3:SAGE方法能应用到数学以外的其他领域吗?

A:虽然目前的研究主要集中在数学推理任务上,但SAGE的核心思想具有通用性。研究团队认为类似的"内在停止信号"可能也存在于图像理解、语音识别等其他AI任务中。不过,不同类型的任务可能需要针对性的适配策略,这也是未来研究的重要方向之一。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
永争第一!中国最强省,出手了

永争第一!中国最强省,出手了

国民经略
2026-02-24 12:35:39
心理学家发现:过于较真,操心太多,其实是一种心理缺陷

心理学家发现:过于较真,操心太多,其实是一种心理缺陷

江左梅娘
2026-02-23 18:56:08
小区楼上天天晚上都有女的大声叫。。。

小区楼上天天晚上都有女的大声叫。。。

微微热评
2025-12-24 00:26:04
继张本智和反华拜鬼,被官媒点名后,石川佳纯也走上了他的老路

继张本智和反华拜鬼,被官媒点名后,石川佳纯也走上了他的老路

姩姩有娱
2026-02-23 18:09:28
别看景区人山人海,仔细一算全是穷游,人均消费露馅,消费降级了

别看景区人山人海,仔细一算全是穷游,人均消费露馅,消费降级了

眼光很亮
2026-02-22 10:37:00
褚时健到2002年才明白,原来当年是得罪了惹不起的那几位

褚时健到2002年才明白,原来当年是得罪了惹不起的那几位

阿柒的讯
2026-02-24 15:07:34
我国崩塌最彻底的专业,从年薪20万到找不到工作,毕业即失业!

我国崩塌最彻底的专业,从年薪20万到找不到工作,毕业即失业!

黯泉
2026-02-10 22:00:47
巩俐21岁时写的字,颠覆了我的想象!

巩俐21岁时写的字,颠覆了我的想象!

石场阿鑫
2026-01-16 13:41:02
中铁二十一局今年的年终奖工资单。。。

中铁二十一局今年的年终奖工资单。。。

新浪财经
2026-02-24 13:51:53
18分钟输28分!队魂成拖油瓶,所有输球组合里都有他!真砸手里了

18分钟输28分!队魂成拖油瓶,所有输球组合里都有他!真砸手里了

阿浪的篮球故事
2026-02-24 16:06:20
村里红白事从不回,男子母亲离世,邻居等着看笑话,结果长了见识

村里红白事从不回,男子母亲离世,邻居等着看笑话,结果长了见识

子芫伴你成长
2026-02-23 12:21:40
2月25日精选热点:MLCC全球巨大涨价,这3家龙头要暴涨了

2月25日精选热点:MLCC全球巨大涨价,这3家龙头要暴涨了

元芳说投资
2026-02-24 20:06:13
林葳:亚洲后卫想在NCAA生存第一重要是会组织传球,其次是防守

林葳:亚洲后卫想在NCAA生存第一重要是会组织传球,其次是防守

林小湜体育频道
2026-02-25 00:47:13
如何判断一个国家是否有军国主义倾向

如何判断一个国家是否有军国主义倾向

小院之观
2025-09-01 05:30:03
全员签字太难!老楼原拆原建6个月住新房,却因一户不同意全停摆

全员签字太难!老楼原拆原建6个月住新房,却因一户不同意全停摆

金哥说新能源车
2026-02-24 22:23:59
四川成都一佳人好漂亮, 身高169cm,体重48kg 美的让人移不开眼

四川成都一佳人好漂亮, 身高169cm,体重48kg 美的让人移不开眼

喜欢历史的阿繁
2026-02-07 14:21:17
这种叶子是糖尿病和高血压“克星”,还能防心梗!可能就在长你家门口!

这种叶子是糖尿病和高血压“克星”,还能防心梗!可能就在长你家门口!

环京快爆
2026-02-24 13:21:48
深夜,全线大跌!“超级风暴”突袭!

深夜,全线大跌!“超级风暴”突袭!

券商中国
2026-02-24 07:27:25
苏昌培:福建省原副省长,福建省人大常委会原副主任

苏昌培:福建省原副省长,福建省人大常委会原副主任

爱看剧的阿峰
2026-02-25 02:53:58
你见过哪些闷声发大财的人?网友:干这个买三套房子,两个门面

你见过哪些闷声发大财的人?网友:干这个买三套房子,两个门面

夜深爱杂谈
2026-02-01 18:57:04
2026-02-25 07:20:49
科技行者 incentive-icons
科技行者
科技正在如何变革商业世界
7309文章数 551关注度
往期回顾 全部

科技要闻

宇树科技发布四足机器人Unitree As2

头条要闻

男子搂住继女强吻动作亲密 当地妇联介入

头条要闻

男子搂住继女强吻动作亲密 当地妇联介入

体育要闻

苏翊鸣总结米兰征程:我仍是那个热爱单板滑雪的少年

娱乐要闻

汪小菲官宣三胎出生:承诺会照顾好3个孩子

财经要闻

县城消费「限时繁荣」了十天

汽车要闻

入门即满配 威兰达AIR版上市 13.78万元起

态度原创

手机
旅游
本地
公开课
军事航空

手机要闻

尽管整体市场下滑 2025年iPhone在欧洲依然创下历史销量新高

旅游要闻

海南接待游客数增长近三成

本地新闻

春花齐放2026:《骏马奔腾迎新岁》

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

美军参联会主席警告:对伊朗动武可能带来重大风险

无障碍浏览 进入关怀版