网易首页 > 网易号 > 正文 申请入驻

ByteDance推出TiKMiX:让AI训练像调味师一样动态调配数据配方

0
分享至



想象你是一位经验丰富的调味师,在烹制一道复杂的大菜。最开始,你可能需要多放些盐来打底,但随着菜品慢慢成熟,你会发现需要调整配方——也许现在需要更多胡椒来提味,或者减少酱油避免过咸。这就是ByteDance的研究团队在2025年8月提出的TiKMiX方法的核心理念,只不过他们调配的不是调料,而是训练大型语言模型的数据。

这项由ByteDance的王奕凡、刘彬彬、刘峰泽等研究人员完成的工作,发表在了2025年8月25日的arXiv预印本平台上(论文编号:arXiv:2508.17677v1),有兴趣深入了解的读者可以通过该编号在arXiv网站上找到完整论文。研究团队发现了一个有趣的现象:就像人的口味会随着年龄变化一样,AI模型在训练过程中对不同类型数据的"喜好"也会发生变化。

目前,大多数AI训练就像是按照一张固定菜谱做菜——从头到尾都按相同比例放调料,完全不管菜在烹制过程中发生的变化。这种做法显然不够理想,就好比你一开始放了很多盐,但到了后面菜已经很咸了,你还是继续按原来的量放盐,结果可想而知。ByteDance的研究团队意识到了这个问题,决定开发一种能够"品尝"AI模型当前状态,并据此调整数据配方的智能方法。

传统的解决方案需要训练很多小的"试菜员"模型来判断什么配方更好,这就像为了做一道菜专门雇佣一群厨师来试味道,成本高得离谱。有些方法虽然尝试在训练过程中调整,但就像一个缺乏经验的厨师,需要不断试错,效率极低。TiKMiX的创新在于引入了一个叫做"组影响力"的概念,这就像给调味师配备了一个超级灵敏的味觉传感器,能够快速准确地判断当前需要什么样的调整。

一、揭开AI训练数据的秘密:为什么需要动态调配

在深入了解TiKMiX之前,我们先要理解一个基本问题:为什么AI训练需要用到这么多不同类型的数据?这就像做一锅营养丰富的汤,你需要各种不同的食材——有些提供蛋白质,有些提供维生素,有些提供矿物质。同样地,训练一个强大的语言模型需要来自网络各个角落的数据:学术论文让AI学会严谨思考,新闻文章让它了解时事,小说让它学会创意表达,百科全书让它积累知识。

但这里就出现了一个微妙的问题。在训练的不同阶段,AI模型对这些"营养成分"的需求是不同的。就像婴儿成长过程中,刚开始需要更多蛋白质来长身体,后来需要更多钙质来长骨骼。研究团队通过大量实验发现,AI模型在训练初期可能更需要基础知识类的数据来建立基本理解框架,但到了中后期,它可能更需要推理类的数据来提升思维能力。

更有趣的是,不同规模的模型还表现出不同的"成长轨迹"。一个10亿参数的小模型和一个70亿参数的大模型,即使吃同样的"食谱",它们的发育过程也完全不同。小模型可能在某个阶段特别需要简单直白的文本来理解基本概念,而大模型在同一阶段可能已经可以消化更复杂的内容了。

传统的训练方法完全忽视了这种动态变化。它们就像一个刻板的营养师,不管孩子现在是3岁还是13岁,都给同样的营养配方。结果就是,模型可能在某些关键成长期没有得到它最需要的"营养",导致某些能力发育不良,或者在某些阶段吃了太多不合适的"食物",造成消化不良。

研究团队通过详细的实验观察发现了一个重要现象,他们称之为"数据消化不良"。当模型长期接受不适合当前发展阶段的数据配比时,它就像一个被迫吃大人饭菜的小孩子,虽然也能长大,但营养吸收效率很低,最终的健康状况也不理想。这直接体现在模型的性能上——在各种测试任务中表现平平,缺乏应有的智能水平。

二、组影响力:AI训练的"智能味觉传感器"

既然发现了问题,下一步就是找到解决方案。研究团队需要一个能够实时"品尝"模型当前状态的工具,快速判断出模型现在最需要什么类型的数据。这就是"组影响力"概念的由来,它就像一个超级灵敏的味觉传感器,能够精确测量每种"调料"(数据类型)对当前"菜品"(模型性能)的影响程度。

要理解组影响力是如何工作的,我们可以用一个更具体的比喻。假设你正在调制一杯完美的咖啡,你想知道再加一勺糖会让咖啡变得多甜。传统的方法是真的加一勺糖然后尝一口,但这样做的问题是,一旦加了就回不去了。组影响力就像是一个神奇的"预测器",它能够在你真正加糖之前,就告诉你加这勺糖会产生多大的甜度变化。

在技术层面,组影响力的工作原理是这样的:它不需要真的用某种数据去训练模型,而是通过数学方法预测如果增加某类数据的比重,模型的性能会发生什么变化。这个预测过程就像是在模型的"大脑"里进行一次虚拟实验,观察神经网络的各个部分会如何响应这种数据调整。

具体来说,组影响力会检查模型当前的"学习状态"——哪些神经连接比较活跃,哪些部分还需要加强,然后评估不同类型的数据能够如何满足这些需求。就像一个经验丰富的健身教练,能够通过观察运动员的肌肉状态,准确判断他现在需要什么样的训练来达到最佳效果。

这个方法的巧妙之处在于计算效率。传统方法需要为每种可能的数据组合都训练一个小模型来测试效果,这就像为了找到最佳菜谱,你需要把每种可能的调料组合都实际做一遍菜。而组影响力只需要对当前模型进行一次"体检",就能预测出所有可能调整的效果,就像有了一台超级计算机,能够模拟所有可能的烹饪结果而不需要真的下厨。

更重要的是,组影响力考虑到了不同数据类型之间的相互作用。在现实中,不同调料之间会产生化学反应,盐和糖的组合效果可能不等于单独使用盐和糖的效果之和。同样,不同类型的训练数据也会相互影响——学术论文和新闻文章的组合可能产生比单独使用任一类型更好的效果。组影响力能够捕捉到这些微妙的相互作用,给出更准确的预测。

研究团队通过大量实验验证了组影响力的准确性。他们发现,这个"味觉传感器"的预测结果与实际训练结果的相关性高达78.9%,这意味着它确实能够可靠地指导数据配比的调整。就像一个准确率接近80%的天气预报,虽然不是100%完美,但已经足够可靠,能够指导我们做出明智的决策。

三、TiKMiX-D:直接优化的智能调味师

有了组影响力这个"味觉传感器",接下来就需要一个智能的"调味师"来根据测量结果调整配方。TiKMiX-D就是这样一个调味师,它的特点是直接、高效,能够根据当前的"口味检测"结果立即给出最佳的调料配比建议。

TiKMiX-D的工作方式就像一个追求完美平衡的大厨。它不仅要让菜品味道好,还要确保营养均衡,同时保持食材的多样性。具体来说,它同时追求三个目标:让模型在各项任务上都有提升,让整体性能达到最优,以及保持数据来源的多样性以避免"偏食"。

这个优化过程可以比作调制一杯完美的鸡尾酒。调酒师需要平衡不同酒类的比例,既要保证每种成分都能发挥作用,又要让整体口感和谐。TiKMiX-D就像一个经验丰富的调酒师,它会根据当前酒的状态,精确计算出每种成分的最佳比例。

在技术实现上,TiKMiX-D使用了一种叫做"约束优化"的数学方法。这就像给调酒师设定了一系列规则:酒精度不能超过某个限度,甜度要控制在合适范围,各种成分的比例都要在合理区间内。在这些约束条件下,系统会搜索出能够最大化整体效果的配比方案。

特别值得一提的是,TiKMiX-D还加入了一个"持续改进"的机制。它要求新的配方必须比之前的配方在所有方面都不能变差,只能变好或保持不变。这就像一个负责任的调味师,绝不允许为了某一方面的改进而牺牲已经达到的效果。这种机制确保了训练过程是持续向前的,不会出现"两步前进一步后退"的情况。

在实际使用中,TiKMiX-D展现出了惊人的效率。它只需要使用传统方法20%的计算资源,就能达到相当甚至更好的效果。这就像一个技艺精湛的厨师,能够用更少的时间和原料做出更美味的菜品。在实验中,使用TiKMiX-D训练的10亿参数模型在9个不同的测试任务上平均提升了1.6%的性能,虽然看起来数字不大,但在AI模型的世界里,这已经是一个相当显著的提升了。

更令人印象深刻的是TiKMiX-D的适应性。它能够根据模型规模的不同自动调整策略。对于小模型,它可能会更注重基础能力的培养;对于大模型,它会更多地关注复杂推理能力的提升。这种灵活性就像一个好的营养师,会根据不同年龄段孩子的需求制定不同的营养方案。

四、TiKMiX-M:预测式的配方大师

如果说TiKMiX-D是一个技艺精湛的调味师,那么TiKMiX-M就是一个具有预知能力的配方大师。它不满足于仅仅根据当前状况调整配方,而是要通过学习大量的配方实验数据,建立一个能够预测最佳配方的智能系统。

TiKMiX-M的工作原理类似于一个经验极其丰富的老厨师。这位老厨师在几十年的烹饪生涯中,尝试过无数种食材组合,积累了大量的经验。现在,他能够仅凭观察食材的状态,就准确预测出最佳的搭配方案,而不需要再进行大量的试验。

具体来说,TiKMiX-M首先会进行一系列精心设计的"配方实验"。它会在TiKMiX-D给出的基础配方周围,尝试各种不同的变化——有时增加一些学术论文的比重,有时调整新闻文章的数量,有时改变小说和技术文档的平衡。每一次调整,它都会用组影响力来测量效果,建立起"配方-效果"的对应关系。

这个过程使用了一种叫做"拉丁超立方采样"的高级统计方法,这个名字听起来很复杂,但原理很简单。就像一个系统性的品酒师,不会随机品尝各种酒,而是会按照某种科学的顺序,确保尝到的样本能够代表所有可能的组合。这样,即使只尝试了相对少数的组合,也能对整个"口味空间"有全面的了解。

收集到足够的实验数据后,TiKMiX-M会训练一个专门的"配方预测模型"。这个模型就像一个超级智能的食谱生成器,输入当前的食材状况,它就能输出最佳的配比建议。研究团队选择了LightGBM这种机器学习算法来构建这个预测器,这种算法特别擅长处理复杂的非线性关系,能够捕捉到不同数据类型之间微妙的相互作用。

更巧妙的是,TiKMiX-M还设计了一个迭代搜索算法。它不会满足于第一次的预测结果,而是会围绕这个结果继续探索,寻找更好的配方。这就像一个永不满足的调酒师,即使调出了一杯很好的鸡尾酒,还要继续微调,直到达到完美。整个搜索过程采用了"退火算法"的思路——开始时大胆探索各种可能性,随着搜索的进行逐渐收敛到最优解。

在实际效果上,TiKMiX-M展现出了比TiKMiX-D更强的优化能力。在相同的实验条件下,TiKMiX-M训练的模型平均性能提升达到了2%,这几乎是TiKMiX-D效果的1.5倍。特别是在一些难度较高的任务上,比如需要复杂推理的ARC Challenge测试中,TiKMiX-M的提升幅度超过了4.8%,这是一个相当显著的改进。

五、实验验证:从理论到实践的成功转化

任何科学理论都需要经过严格的实验验证才能证明其价值。研究团队为了验证TiKMiX的有效性,设计了一系列全面而严格的实验,就像药物需要经过临床试验才能上市一样。

实验的"试验田"是RefinedWeb数据集,这是一个包含26个不同领域数据的大规模网络文本集合,就像一个包含各种食材的超级市场。研究团队训练了从10亿参数到70亿参数不等的模型,使用的数据量高达1万亿个词汇单元,这相当于读完几百万本书的信息量。

为了确保比较的公平性,研究团队将每个模型的训练分为两个阶段,每个阶段使用5000亿个词汇单元。在两个阶段之间,他们会使用TiKMiX方法重新调整数据配比,观察这种调整对模型最终性能的影响。这就像种植实验中的对照组设计,确保观察到的差异确实来自于方法本身,而不是其他因素。

实验的对手包括了当前最先进的几种数据配比方法。Pile-CC是基于专家经验的传统方法,就像老派厨师凭经验调配料。REGMIX是当时的最先进方法,使用复杂的回归模型来预测最佳配比。DoReMi是经典的动态调整方法,通过训练代理模型来指导配比调整。QUAD是另一种动态选择方法,通过聚类分析来优化数据选择。

测试环节设计得也很全面,包含了9个不同类型的任务,分为"领域内"和"领域外"两大类。领域内任务包括MMLU(大规模多任务语言理解)、HellaSwag(常识推理)、ARC(科学推理)等,这些任务直接测试模型的核心能力。领域外任务包括PiQA(物理交互问答)、OpenBookQA(开卷问答)、BoolQ(布尔问答)和MathQA(数学问答)等,测试模型的泛化能力。

实验结果令人振奋。在10亿参数模型的测试中,TiKMiX-D在9个任务中的4个取得了最佳成绩,TiKMiX-M更是在6个任务中领先。从平均性能来看,TiKMiX-D比最强的竞争对手REGMIX提升了1.6%,TiKMiX-M的提升幅度达到2%。虽然这些数字看起来不大,但在AI模型评测中,1-2%的提升已经是非常显著的改进了。

更重要的是计算效率的对比。传统的REGMIX方法需要训练额外的代理模型,计算开销巨大。TiKMiX-D只需要REGMIX 20%的计算资源就能达到更好的效果,这就像用更少的燃料开出了更远的距离。这种效率优势在大规模模型训练中尤其宝贵,因为计算成本往往是限制因素。

研究团队还进行了一系列深入的分析实验。他们发现,组影响力的预测准确性与实际结果的相关系数达到0.789,这证明了这个"味觉传感器"确实能够可靠地指导配方调整。他们还验证了一个重要的理论假设:不同数据类型的影响确实可以近似地相加,这为整个方法的理论基础提供了实证支持。

六、深层发现:AI模型的"成长密码"

在验证TiKMiX有效性的过程中,研究团队发现了几个关于AI模型学习规律的深刻洞察,这些发现就像发现了生物成长的基本规律一样重要。

首先,他们确认了一个重要现象:AI模型确实会在训练过程中改变对数据的偏好。这就像人在不同年龄段对食物有不同需求一样自然。通过追踪模型在训练不同阶段的表现,研究团队发现,模型在早期可能更依赖基础性的知识类数据来建立基本的语言理解框架,而在后期则更需要推理密集型的数据来提升复杂思维能力。

更有趣的是,不同规模的模型表现出完全不同的"成长轨迹"。10亿参数的小模型和70亿参数的大模型,即使接受完全相同的训练数据,它们的学习偏好变化模式也截然不同。这就像不同品种的植物,即使在相同的土壤和气候条件下,也会表现出不同的生长特点和营养需求。

研究团队通过详细分析发现,大模型通常具有更强的"消化能力",能够从复杂的数据中提取更多有用信息,因此在训练后期能够受益于更多样化的数据类型。相比之下,小模型可能在某些阶段需要更专注于特定类型的数据,避免"消化不良"。

另一个重要发现是关于数据混合的"化学反应"效应。研究团队验证了不同类型数据之间确实存在协同作用,就像某些营养成分搭配在一起能产生更好的吸收效果。通过对254种不同数据配比的详细分析,他们发现数据混合的效果确实可以通过线性组合来近似预测,相关系数在不同任务上都超过了0.84,有些甚至达到了0.93。

这个发现具有重要的理论意义,它表明虽然AI训练过程非常复杂,但其中的数据影响机制仍然遵循可预测的规律。这就像复杂的化学反应虽然涉及无数分子的相互作用,但仍然可以通过化学方程式来描述和预测。

研究团队还观察到一个被他们称为"数据消化不良"的现象。当模型长期使用不合适的数据配比时,就会出现学习效率下降的问题。这种现象在静态配比的传统方法中特别明显,模型在某些能力上会出现发展停滞甚至倒退。而使用TiKMiX方法的模型则能够保持持续的能力提升,避免了这种"消化不良"的问题。

最后,研究团队还发现了规模效应对数据需求的影响。他们观察到,随着模型规模的增大,动态调整数据配比的收益会变得更加明显。这就像营养对于不同发育阶段孩子的重要性不同一样,大模型由于具有更强的学习能力,因此对数据配比的优化更敏感,收益也更大。

七、技术创新的深层价值与未来展望

TiKMiX的成功不仅仅是一个技术改进,更代表了AI训练方法论的一个重要转变。传统的"一刀切"式训练方法就像工业化时代的标准化生产,虽然简单高效,但忽视了个体差异和动态需求。TiKMiX代表的是一种更精细化、个性化的训练理念,就像从批量生产转向个性化定制。

这种方法论的转变有着深远的意义。在AI模型越来越大、训练成本越来越高的今天,如何提高训练效率成为了关键问题。TiKMiX提供了一个新的思路:与其简单地增加更多数据或计算资源,不如更聪明地使用现有资源。这就像从粗放式农业转向精准农业,通过精确控制每一个环节来提高整体效率。

从实用角度来看,TiKMiX的价值还体现在成本控制上。AI模型训练通常需要消耗大量计算资源,成本动辄数百万美元。TiKMiX能够在使用更少资源的情况下取得更好效果,这意味着更多的研究团队和公司能够负担得起高质量的AI模型训练。这种技术民主化的效应可能会推动整个AI领域的快速发展。

当然,这项技术也面临一些挑战和限制。组影响力虽然是一个强大的工具,但它的计算仍然有一定复杂性,特别是对于超大规模模型。此外,当前的实验主要集中在语言模型上,这种方法是否适用于其他类型的AI模型(如图像识别、语音处理等)还需要进一步验证。

研究团队也坦承,他们的方法目前主要在相对较小的模型(70亿参数)上进行了验证,而现在业界的前沿模型往往有数千亿甚至万亿个参数。如何将TiKMiX扩展到这些超大规模模型上,是一个需要解决的技术挑战。

展望未来,TiKMiX可能会催生一系列相关技术的发展。比如,可以想象出现专门的"数据配方师"工具,帮助不同的研究团队为他们特定的需求定制最优的训练数据配比。也可能出现更智能的训练平台,能够根据模型的实时状态自动调整训练策略,就像自动驾驶汽车能够根据路况实时调整行驶策略一样。

更进一步,这种动态优化的思想可能会影响AI系统的整体设计理念。未来的AI系统可能不再是静态的、一次性训练完成的产品,而是能够持续学习、持续优化的动态系统。这些系统能够根据新的数据和任务需求,不断调整自己的学习策略,就像生物系统能够适应环境变化一样。

从更宏观的角度来看,TiKMiX代表的个性化、动态化训练方法可能会推动AI向更类人的学习方式发展。人类学习的特点是能够根据当前需求调整学习重点,能够在不同阶段关注不同的知识领域,能够根据个人特长发展不同的能力组合。如果AI系统也能具备这种灵活性和适应性,那么它们可能会变得更智能、更有效、也更安全。

说到底,TiKMiX不只是一个技术工具,更是一个关于如何更好地训练AI系统的新思路。它告诉我们,最好的解决方案往往不是更多的蛮力,而是更智慧的策略。在AI发展的道路上,类似的智慧可能会比单纯的规模扩张更加重要。这项来自ByteDance团队的研究为我们展示了这样一种可能性:通过更深入地理解AI学习的内在规律,我们能够用更少的资源创造出更强大的智能系统。对于所有关注AI发展的人来说,这无疑是一个值得期待的方向。

Q&A

Q1:TiKMiX是什么?它解决了什么问题?

A:TiKMiX是ByteDance开发的一种AI训练方法,专门解决大型语言模型训练中的数据配比问题。传统训练方法像按固定菜谱做菜,从头到尾都用相同比例的数据,但AI模型在不同训练阶段实际上需要不同类型的数据。TiKMiX就像一个智能调味师,能根据模型当前状态动态调整数据配方,让训练更高效。

Q2:组影响力是如何工作的?为什么比传统方法更高效?

A:组影响力就像一个超级灵敏的"味觉传感器",能够预测增加某类数据对模型性能的影响,而不需要真的去训练测试。传统方法需要训练很多小模型来试验不同配方效果,成本极高。组影响力只需对当前模型进行一次"体检"就能预测所有调整的效果,计算资源只需传统方法的20%。

Q3:TiKMiX的实际效果如何?普通人能用上吗?

A:实验显示TiKMiX训练的模型在9个测试任务中平均性能提升2%,在复杂推理任务中提升超过4.8%。目前这还是研究阶段的技术,主要针对AI模型开发者和研究机构。但随着技术成熟,未来可能会让AI产品的训练成本降低,间接让普通用户享受到更好更便宜的AI服务。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
云南省又一座民用机场来了!可满足国产C919、B737、A321机型起降

云南省又一座民用机场来了!可满足国产C919、B737、A321机型起降

交建动态
2025-12-29 10:30:22
烈士王伟的遗孀阮国琴,获特招入伍,如今已是海军上校,依旧单身

烈士王伟的遗孀阮国琴,获特招入伍,如今已是海军上校,依旧单身

文史达观
2025-12-28 06:45:07
CBA最新消息!陈盈骏骨折,洛夫顿提出离队,辽宁有意马修斯

CBA最新消息!陈盈骏骨折,洛夫顿提出离队,辽宁有意马修斯

体坛瞎白话
2025-12-28 14:48:23
CBA常规赛第七轮战罢,山东高速男篮居积分榜倒数第二

CBA常规赛第七轮战罢,山东高速男篮居积分榜倒数第二

啊哒体育
2025-12-29 11:10:51
刘德华、郭富城告诉你:西服不成套穿,裤子短一截,到老也不油腻

刘德华、郭富城告诉你:西服不成套穿,裤子短一截,到老也不油腻

飘逸语人
2025-12-25 22:16:54
笑不活!为什么男生秋裤前面有开口,内裤却没有?评论区好热闹

笑不活!为什么男生秋裤前面有开口,内裤却没有?评论区好热闹

有趣的火烈鸟
2025-12-19 12:46:11
董璇自爆全年都穿一次性内裤,一条100多块,网友集体破防

董璇自爆全年都穿一次性内裤,一条100多块,网友集体破防

星创文化
2025-12-01 22:54:08
101岁余宝珠:二房上位击败正妻,坐拥数百亿财富,怎么做到的?

101岁余宝珠:二房上位击败正妻,坐拥数百亿财富,怎么做到的?

别人都叫我阿腈
2025-12-14 00:07:59
台海战争爆发,西方可冻结 3.2 万亿中国资产,但中国手里也有王炸

台海战争爆发,西方可冻结 3.2 万亿中国资产,但中国手里也有王炸

蓝色海边
2025-12-03 14:27:26
上海46岁独居女子离世 每经记者实探:住所的电表户名与其不一致

上海46岁独居女子离世 每经记者实探:住所的电表户名与其不一致

每日经济新闻
2025-12-28 21:54:30
大爆冷!开拓者114-108掀翻绿军,杨瀚森3分4板,诞生5个不可思议

大爆冷!开拓者114-108掀翻绿军,杨瀚森3分4板,诞生5个不可思议

球场没跑道
2025-12-29 09:38:12
600865,股价大跳水!人形机器人爆发在即,融资客加仓的超跌股出炉

600865,股价大跳水!人形机器人爆发在即,融资客加仓的超跌股出炉

数据宝
2025-12-29 12:06:19
天呐!原来大钱是这么来的!网友:难怪我螺丝打到冒烟都赚不到钱

天呐!原来大钱是这么来的!网友:难怪我螺丝打到冒烟都赚不到钱

夜深爱杂谈
2025-12-20 17:40:11
经过2025年,局面愈加明朗:中国的盟友,有且只有两个!

经过2025年,局面愈加明朗:中国的盟友,有且只有两个!

超喜欢我
2025-12-29 02:41:34
大批人开始返乡!有人判断,不出5年,农村会开始越来越热闹

大批人开始返乡!有人判断,不出5年,农村会开始越来越热闹

小谈食刻美食
2025-12-26 16:45:23
美国总统为啥从没召集过50个州长开全国大会?不是不想,是没资格

美国总统为啥从没召集过50个州长开全国大会?不是不想,是没资格

诗意世界
2025-11-14 15:52:24
这次终于轮到美国“强烈反对”:46年了,就没有受过这样的窝囊气

这次终于轮到美国“强烈反对”:46年了,就没有受过这样的窝囊气

辉辉历史记
2025-12-28 13:45:28
俄军炸死六条大鱼!炸死俄叛军总司令,炸死两名中国香港籍雇佣兵

俄军炸死六条大鱼!炸死俄叛军总司令,炸死两名中国香港籍雇佣兵

阿芒娱乐说
2025-12-28 06:45:06
1945年,女八路忍痛将刚出生的女儿放在路旁,当上总理后才敢相认

1945年,女八路忍痛将刚出生的女儿放在路旁,当上总理后才敢相认

古书记史
2025-12-24 20:24:21
特斯拉回应女子30多万买到老款Model Y

特斯拉回应女子30多万买到老款Model Y

IT之家
2025-12-28 16:50:07
2025-12-29 13:04:49
科技行者 incentive-icons
科技行者
科技正在如何变革商业世界
6680文章数 545关注度
往期回顾 全部

科技要闻

肉搏非洲,传音不想只当个卖手机的

头条要闻

大爷百万积蓄被儿赌光老伴帮隐瞒 四十年夫妻反目动手

头条要闻

大爷百万积蓄被儿赌光老伴帮隐瞒 四十年夫妻反目动手

体育要闻

“史上最贵”的世界杯,球迷成了韭菜

娱乐要闻

谭松韵扛剧能力被质疑 赵丽颖成女主?

财经要闻

贵金属“牛市”能否跨年

汽车要闻

一汽正式“入股”零跑,总金额超37亿元!

态度原创

亲子
艺术
旅游
家居
游戏

亲子要闻

教育部发文,加强学前儿童学籍规范管理

艺术要闻

克里姆特风格的女性人物画,太美了!

旅游要闻

鄂尔多斯冰雪季启幕 点燃冬日暖城激情

家居要闻

东方雅韵 温馨恬适

20年前微软巨作完整Demo泄露!超多没见过的新内容

无障碍浏览 进入关怀版