网易首页 > 网易号 > 正文 申请入驻

NVIDIA突破:让AI智能体在命令行环境中如鱼得水的数据工程新方法

0
分享至


这项由NVIDIA公司研究团队开展的开创性研究发表于2026年,论文编号为arXiv:2602.21193v1,为解决AI智能体在终端环境中的训练数据稀缺问题提供了系统化解决方案。该研究首次提出了Terminal-Task-Gen框架,并开源了Nemotron-Terminal模型系列,为AI智能体的终端操作能力带来了革命性提升。

想象一下,你正在教一个从未接触过电脑的朋友如何使用命令行界面。对于人类来说,学会在黑色屏幕上敲击各种神秘指令已经是一项挑战,更别说让AI智能体掌握这种技能了。然而,随着Claude Code、Codex CLI等AI工具的出现,让AI在命令行环境中自如操作已经成为了现实需求。

这就像是要培养一位优秀的厨师,但却缺乏足够的食谱和练习机会。目前的问题在于,虽然一些前沿AI模型在终端任务上表现不错,但它们背后的训练数据配方都是商业机密。这让其他研究者只能凭猜测去尝试,就像试图在没有食谱的情况下重现一道复杂菜品一样困难且低效。

NVIDIA的研究团队敏锐地发现了这个痛点。他们意识到,要让AI智能体在终端环境中表现出色,关键不在于简单地增加模型参数,而在于如何巧妙地设计和构建训练数据。这就好比培养运动员,重要的不是让他们变得更强壮,而是要设计出科学合理的训练计划。

研究团队提出的解决方案可以比作一个双管齐下的策略。一方面,他们开发了一个叫做Dataset Adaptation(数据集适配)的方法,这就像是把已有的优秀教材重新编排,使其适合在命令行环境中学习。另一方面,他们创造了Synthetic Task Generation(合成任务生成)技术,这相当于根据特定需求创造全新的练习题目。

更令人振奋的是,这项研究不仅仅停留在理论层面。研究团队基于自己的方法训练出了Nemotron-Terminal模型系列,这些模型在Terminal-Bench 2.0基准测试中取得了惊人的成绩。以Nemotron-Terminal-8B为例,它的表现从最初的2.5%跃升至13.0%,提升幅度达到了五倍之多。更值得关注的是,较小的Nemotron-Terminal-32B模型竟然超越了参数量达480B的Qwen3-Coder模型,这证明了精心设计的训练数据比单纯增加模型规模更为有效。

一、数据生成的双重策略:适配现有资源与创造全新内容

NVIDIA研究团队的核心洞察在于,解决AI终端操作能力的关键不在于从零开始,而在于巧妙地利用现有资源并有针对性地补充新内容。这种方法就像是一位经验丰富的教练,既会充分利用现有的训练设施,又会根据运动员的具体需求设计专门的训练项目。

数据集适配技术的工作原理相当巧妙。研究团队发现,许多优秀的数学、编程和软件工程题目本身质量很高,只是缺乏在终端环境中操作的框架。于是他们开发了一种"翻译"机制,将这些原本在其他环境中使用的题目重新包装成适合命令行操作的格式。这个过程就像是把一本优秀的英文教科书翻译成中文,核心内容保持不变,但表达方式完全适应了新的使用环境。

具体来说,研究团队选择了三个主要领域的高质量数据集。在数学领域,他们使用了包含163,000个独特问题的数据集,这些问题都经过精心筛选,排除了那些过于简单的题目。编程领域的数据来源于包含79,000个具有挑战性编程问题的集合,这些问题覆盖了各种复杂的编程场景。软件工程方面,他们收集了127,000个真实的代码修复案例,这些案例来自GitHub上的真实项目,具有很强的实用性。

然而,仅仅适配现有数据集还不够。就像一位优秀的厨师不能仅仅依赖现有食谱,有时还需要根据特定需求创造新菜品一样,研究团队开发了合成任务生成技术来填补特定的能力空白。

这个合成生成系统的设计理念非常有趣。研究团队首先构建了一个"技能分类表",就像是为不同的运动项目列出所需的基本动作一样。他们定义了九个主要领域:数据处理、数据查询、数据科学、调试、依赖管理、文件操作、科学计算、安全和软件工程。每个领域都包含了多个基础技能,比如在安全领域包括加密解密、漏洞分析、身份认证等技能。

合成任务生成的过程分为两种模式。第一种是基于种子数据的生成,这就像是给一位有创造力的厨师提供一些基础食材,让他发挥想象力创造新菜品。系统会接收一个基础问题描述,然后将其转化为一个完整的终端操作任务,包括具体的软件工程要求、文件路径设置、测试用例等。

第二种模式是基于技能的生成,这更像是根据营养需求设计菜谱。系统会从技能分类表中选择3到5个基础技能进行组合,然后创造一个需要综合运用这些技能的复杂任务。这种方法确保了生成的任务不仅具有挑战性,还能有针对性地训练特定的能力组合。

为了保证生成质量,研究团队还设计了一套严格的质量控制机制。他们使用DeepSeek-V3.2作为"老师模型"来生成这些合成任务,这个模型在Terminal-Bench 2.0上的表现达到了38.2%,证明了其在终端任务上的可靠性。同时,他们还建立了完善的去重和过滤系统,确保生成的数据质量高且不会与测试集产生污染。

二、精心设计的训练环境:Docker容器化与执行框架

要让AI智能体学会在终端环境中操作,就必须为它们提供一个安全、可控且具有挑战性的练习环境。NVIDIA研究团队在这方面的设计颇具匠心,他们构建的训练环境就像是一个高度仿真的驾驶模拟器,既能提供真实的驾驶体验,又能确保学习过程的安全性。

整个训练环境基于Docker容器技术构建。对于不熟悉技术细节的读者来说,Docker容器可以理解为一个个独立的"虚拟房间"。每个房间都有完整的操作系统和必要的工具软件,但彼此之间完全隔离。这样做的好处是,AI智能体可以在其中自由地尝试各种操作,即使出现错误也不会影响到其他任务或主系统。

研究团队采用的Terminus 2代理框架特别值得关注。与传统的编程工具不同,这个框架只提供一个交互式的终端会话,就像是把AI智能体直接放在了一个真实的命令行界面前。AI智能体必须通过发送击键序列来完成任务,这就像是要求学生在真实考试中书写答案,而不是选择题。

这种设计理念的巧妙之处在于它的简洁性和真实性。AI智能体不能依赖专门设计的辅助工具,而必须像人类用户一样,学会使用各种标准的命令行工具。这种训练方式培养出来的AI智能体具有更强的通用性和适应性,就像学会了骑自行车的人可以骑各种不同品牌的自行车一样。

为了提高训练效率,研究团队还做了一个重要的工程决策:使用预构建的领域特定Docker镜像。传统做法是为每个任务生成独特的环境配置,但这种方法存在两个问题:第一是验证环境配置是否正确需要额外时间,第二是需要存储大量不同的环境配置。

研究团队的解决方案相当优雅。他们为九个主要领域分别预先构建了包含常用软件包的Docker镜像。比如数据科学镜像预装了pandas、scikit-learn等工具,安全领域镜像则包含了各种加密库。这就像是为不同专业的学生准备了专门的实验室,每个实验室都配备了该专业常用的设备和工具。

这种方法带来了三重好处。首先是消除了环境验证的开销,因为预构建的镜像已经经过测试验证。其次是减少了资源占用,九个共享镜像比成千上万个独特容器要经济得多。最后是将环境准备和任务生成解耦,使得系统可以在稳定环境中快速生成多样化的任务场景。

Terminal-Bench 2.0基准测试的设计也体现了研究团队的深思熟虑。这个基准包含89个手工制作并经过人工验证的任务,涵盖了科学计算、软件工程、机器学习、安全、系统管理和数据科学等多个领域。与传统的编程测试不同,这些任务要求AI智能体完成端到端的工作流程,比如编译代码、训练模型、配置系统和调试环境等。

每个基准任务都包含四个核心组件:自然语言指令描述任务目标,Docker容器化环境提供执行上下文,程序化测试套件检查任务完成情况,以及展示有效解决方案的参考答案。这种设计确保了测试的全面性和客观性,就像是一个完善的考试系统,既有明确的题目要求,又有标准的评分机制。

三、数据过滤与质量控制:确保训练数据的纯净度

在AI模型训练中,数据质量往往比数据数量更为重要。NVIDIA研究团队深谙这一道理,因此建立了一套严格的数据过滤和质量控制体系。这个过程就像是酿酒师对原料的精心挑选,只有最优质的原料才能酿出上等美酒。

首要任务是防止数据污染。研究团队采用了14-gram重叠检测技术来识别并移除任何与Terminal-Bench 2.0测试样本过于相似的训练数据。这种方法可以理解为一种"指纹识别"技术,通过检测连续14个词的组合来判断文本的相似性。就像防止学生在考试前接触到真题一样,这种做法确保了模型评估的公平性和准确性。

质量过滤的范围相当广泛。除了移除身份泄露信息外,研究团队还会剔除包含中文字符的响应,这主要是为了保持训练数据的一致性。更重要的是,他们还会移除那些由教师模型生成的不完整轨迹,目的是防止学生模型学会过度冗长的表达方式。

在处理合成任务数据时,研究团队发现了一个有趣的现象。他们尝试了三种不同的过滤策略:保留所有轨迹、只保留完整的轨迹,以及只保留成功的轨迹。令人意外的是,保留所有轨迹的策略取得了最好的效果。这一发现颠覆了传统认知,表明那些看似"失败"的尝试实际上也包含了宝贵的学习信息。

这种现象可以用学习心理学的观点来解释。就像学习骑自行车时,摔倒的经历同样是学习过程的一部分,它们教会我们如何保持平衡。对于AI智能体来说,观察到错误的尝试和恢复模式有助于它们在面临类似情况时做出更好的决策。

数据集适配方面的过滤策略相对简单。由于适配的数据集本身没有测试用例,研究团队主要比较了完整轨迹过滤与无过滤两种策略,结果显示两种方法的性能差异不大,因此最终采用了更加包容的无过滤策略。

为了确保数据质量,研究团队还建立了多层验证机制。在生成轨迹时,系统会自动验证生成的任务是否符合预设格式,是否包含必要的测试用例,以及Docker环境是否能正常运行。这就像是工厂的质量检测流水线,每个环节都有专门的检查程序。

去重处理也是质量控制的重要环节。研究团队不仅要确保同一个任务不会重复出现,还要识别那些表面不同但实质相同的任务。这种精细化的去重处理确保了训练数据的多样性,避免模型在相似任务上过拟合。

四、模型训练策略:从课程学习到长上下文处理

有了高质量的训练数据,如何有效地训练模型就成了下一个关键问题。NVIDIA研究团队在这方面进行了多方面的探索,他们的训练策略就像是一位经验丰富的教师制定教学计划,既要考虑学习的循序渐进,又要关注不同学生的特殊需求。

在模型选择上,研究团队基于Qwen3系列模型进行微调,分别训练了8B、14B和32B三个不同规模的版本。这种选择策略反映了他们对效率和性能平衡的考虑。相比于从零开始训练,在已经具备良好语言理解能力的预训练模型基础上进行特化训练,就像是在一位已经掌握基础知识的学生基础上进行专业培训,既节约了时间,又能取得更好的效果。

课程学习策略的探索揭示了一个有趣的发现。研究团队比较了两种训练方式:先训练数据集适配任务再训练合成任务的两阶段课程,以及将所有数据混合训练的单阶段策略。结果显示,简单的混合训练实际上取得了更好的效果。这个发现提醒我们,有时候最直观的方法反而是最有效的。

这种现象可能与人类学习的方式有关。在现实生活中,我们很少是先完全掌握一类知识再学习另一类,而是同时接触多种类型的信息。对于AI模型来说,同时接触不同类型的任务可能有助于它们形成更加灵活和综合的问题解决能力。

长上下文训练是另一个值得关注的实验方向。终端操作任务往往需要多轮交互,这可能产生很长的文本序列。研究团队尝试了将上下文窗口从默认的32,768个token扩展到65,536个token的训练方式,并配合使用了YaRN2扩展技术。

然而,实验结果表明,扩展上下文长度并没有带来预期的性能提升。这个发现具有重要的实践意义:大多数高质量的训练样本实际上已经能够在标准上下文窗口内得到很好的处理,而那些超长的轨迹往往包含更多噪声和冗余信息。这就像是阅读理解考试中,最有价值的信息通常集中在合理长度的段落中,过分冗长的文本反而可能干扰理解。

数据规模的影响研究提供了另一个重要洞察。通过在不同比例的训练数据上进行实验,研究团队发现模型性能随着数据量的增加而稳步提升,而且更大的模型(如14B)不仅在绝对性能上更强,对额外训练数据的利用效率也更高。这种现象符合机器学习中的一般规律:模型容量和数据规模往往需要协调发展。

训练过程中的技术细节也体现了研究团队的专业素养。他们使用了2e-5的学习率、1e-4的权重衰减、最大32,768个token的序列长度,以及128的全局批次大小。这些参数的选择经过了仔细调优,就像是调音师调节乐器时对每个细节的精确控制。

分布式训练的配置同样考虑周全。8B和14B模型在4个节点、每节点8个GPU的配置下训练,使用2的序列并行度。32B模型则需要16个节点共128个GPU。所有实验都使用了CPU卸载技术来优化内存使用,这种工程优化确保了训练过程的稳定性和效率。

五、实验结果分析:小模型如何挑战大模型

NVIDIA研究团队的实验结果令人印象深刻,这些数据不仅证明了他们方法的有效性,更揭示了一个重要观点:精心设计的训练数据比单纯增加模型规模更为重要。这就像是一位技艺精湛的工匠,即使使用普通的工具也能创造出优于使用昂贵设备的新手的作品。

在Terminal-Bench 2.0的整体表现上,三个Nemotron-Terminal模型都取得了显著提升。8B模型从基础Qwen3-8B的2.47%跃升至13.0%,提升幅度达到了惊人的五倍。14B模型从4.04%提升到20.2%,而32B模型更是从3.37%攀升至27.4%。这种提升幅度在AI研究中是相当罕见的,说明了针对性训练数据的巨大威力。

更令人震撼的是与其他模型的对比结果。Nemotron-Terminal-32B竟然超越了参数量达480B的Qwen3-Coder模型,后者的得分只有23.9%。这种"小兵战胜巨人"的结果充分说明了数据工程的重要性。这就像是一位经过专门训练的马拉松选手能够跑赢一位身体更强壮但缺乏专项训练的运动员一样。

在与闭源模型的比较中,Nemotron-Terminal系列也展现出了竞争优势。虽然与最顶尖的GPT-5系列和Claude Opus 4.5还存在差距,但已经能够与Gemini 2.5 Flash(16.9%)和Grok 4(23.1%)等主流商业模型相抗衡,甚至在某些情况下超越它们。

按任务类别的详细分析揭示了更深层的洞察。在数据查询和模型训练任务上,基础Qwen3模型的表现完全是零分,而Nemotron-Terminal-32B在这些领域分别达到了60.0%和50.0%的成绩。这种从无到有的突破证明了合成任务生成在填补特定能力空白方面的有效性。

软件工程、系统管理、调试和安全等领域也都出现了类似的飞跃。比如在安全领域,32B模型从基础版本的2.5%提升到27.5%,在数据处理领域从5.0%跃升至50.0%。这些提升不是渐进式的改进,而是质的飞跃,表明模型获得了全新的能力。

数据组件的消融实验提供了另一个重要发现。研究团队分别测试了仅使用数学、编程或软件工程数据集适配的效果,发现单独使用时效果有限,但将它们组合使用时性能显著提升至9.66%。这种协同效应说明不同领域的知识可以相互补强,就像是营养搭配中各种维生素和矿物质的协同作用一样。

在合成任务方面,技能基础生成显示出了更强的单独效果,达到了12.4%的性能。虽然添加种子基础数据没有进一步提升平均分数,但确实降低了性能方差,使模型表现更加稳定可靠。

过滤策略的实验结果挑战了传统观念。在数据集适配方面,过滤与不过滤的效果差异不大,但在合成任务上,不过滤策略(12.4%)显著优于仅保留完整轨迹(6.74%)或仅保留成功轨迹(5.06%)的策略。这个发现表明,那些看似"失败"的尝试实际上包含了宝贵的学习信息。

这种现象可以用教育心理学来解释。在学习过程中,观察错误和纠正过程往往比只看到正确答案更有助于深度理解。对于AI模型来说,学习如何从错误中恢复、如何处理异常情况,可能比仅仅记住成功案例更为重要。

规模化实验进一步证实了数据量与性能的正相关关系。随着训练数据比例的增加,所有模型的性能都稳步提升,而且更大的模型显示出更强的数据利用效率。这种趋势表明,在资源允许的情况下,继续扩大高质量训练数据的规模仍有很大潜力。

六、技术创新的深层意义:重新定义AI智能体训练范式

NVIDIA这项研究的意义远超表面的性能提升数字,它实际上为AI智能体训练领域带来了范式性的变革。这种变革就像是从传统的"填鸭式"教学转向个性化的"因材施教",不仅提高了学习效果,更重要的是建立了一套可复制、可扩展的方法论。

Terminal-Task-Gen框架的核心创新在于它将数据生成过程系统化和模块化。传统方法往往依赖于碰运气式的数据收集,就像是在黑暗中摸索。而这个框架提供了一个明确的"配方",研究者可以根据具体需求调整"配料"的比例,生成针对性的训练数据。

这种方法论的价值不仅体现在终端操作领域。它提供的双轨策略思路——既充分利用现有资源,又有针对性地补充新内容——可以应用到许多其他AI应用领域。比如在医疗AI中,可以先适配现有的医学文献和病例数据,然后根据特定疾病领域的需要生成合成病例。在金融AI中,可以先利用历史交易数据,再针对特定风险场景生成模拟交易。

数据工程重要性的凸显是另一个深层意义。研究结果清楚地表明,一个32B参数的精心训练模型可以超越480B参数的通用模型。这个发现对整个AI行业具有重要启示:在追求更大模型规模的同时,不应忽视数据质量和针对性的重要性。这就像是提醒我们,提高教学质量不能仅仅靠增加课时,更重要的是提升教学内容的针对性和有效性。

开源策略的采用展现了NVIDIA作为行业领导者的责任担当。通过开源Nemotron-Terminal模型和大部分合成数据集,他们为整个研究社区提供了宝贵资源。这种做法有助于加速相关领域的发展,让更多研究者能够在此基础上进行创新,形成良性的技术生态循环。

合成数据生成技术的成熟也具有重要的实践意义。随着AI应用场景越来越多样化,完全依赖人工标注数据变得越来越不现实。这项研究展示的高质量合成数据生成能力为解决数据稀缺问题提供了新的思路。特别是在那些数据收集困难或成本高昂的领域,合成数据生成将发挥越来越重要的作用。

质量控制体系的建立为行业树立了新标准。研究团队展示的多层次过滤和验证机制不仅确保了训练数据的质量,更重要的是提供了可复制的质量保证流程。这种系统化的质量控制方法可以帮助其他研究者避免数据质量问题,提高研究效率。

从更宏观的角度看,这项研究推动了AI智能体向真正实用化方向的发展。终端操作能力是AI智能体在现实世界中发挥作用的基础技能之一。掌握这种技能的AI智能体可以更好地协助人类完成各种复杂任务,从软件开发到系统管理,从数据分析到安全审计。

技术民主化是这项研究带来的另一个重要效应。通过提供开源工具和详细方法论,它降低了开发高性能终端智能体的技术门槛。这意味着不仅大型科技公司,中小型研究机构和开发者也能够开发出具有竞争力的AI智能体,促进了技术的普及和创新的多样化。

方法论的可扩展性也为未来发展奠定了基础。随着计算资源的增加和技术的进步,这套框架可以支持更大规模的数据生成和更复杂的任务设计。同时,它也为与其他AI技术的集成提供了良好的接口,比如与强化学习、多模态学习等技术的结合。

说到底,NVIDIA这项研究的最大贡献在于它证明了一个简单而深刻的道理:在AI发展中,聪明的方法往往比蛮力更有效。通过精心设计的数据工程策略,小模型也能展现出惊人的能力,这不仅节约了计算资源,也为AI技术的可持续发展指明了方向。正如研究团队在论文中提到的,他们的工作为未来结合强化学习等技术,实现更高级的自我纠错和最优规划能力奠定了坚实基础。这种渐进式的技术发展路径可能比一蹴而就的突破更加稳健和可靠。

Q&A

Q1:什么是Terminal-Task-Gen框架?

A:Terminal-Task-Gen是NVIDIA研发的AI训练数据生成框架,它结合了两种策略:一是将现有的数学、编程题目改造成适合命令行环境的格式,二是根据技能需求创造全新的终端操作任务。就像既会改造现有教材,又会编写新习题的优秀教师。

Q2:为什么小参数的Nemotron-Terminal模型能超越大模型?

A:这主要归功于精心设计的训练数据。虽然Nemotron-Terminal-32B只有32亿参数,但它接受了专门针对终端操作的高质量训练,而480亿参数的Qwen3-Coder是通用模型。就像专业马拉松选手能跑赢身体更强壮但缺乏专项训练的普通人一样。

Q3:普通开发者能使用这些研究成果吗?

A:可以的。NVIDIA已经开源了Nemotron-Terminal模型系列和大部分合成数据集,开发者可以通过Hugging Face平台免费获取使用。这为广大开发者提供了构建自己的终端AI智能体的基础工具和数据资源。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
雨雪润齐鲁 山东迎来大范围雨雪天气

雨雪润齐鲁 山东迎来大范围雨雪天气

闪电新闻
2026-03-02 17:43:49
中美战争可能有多大?22年前美学者已预测,就怕中国一项能力变强

中美战争可能有多大?22年前美学者已预测,就怕中国一项能力变强

今墨缘
2025-11-23 20:26:27
预计到了2030年,我们将全面进入租房时代,房子会越来越难卖

预计到了2030年,我们将全面进入租房时代,房子会越来越难卖

猫叔东山再起
2026-03-02 09:35:03
最大“骗局”是山姆超市,靠一张 260 元的会员卡一年狂揽 660 亿

最大“骗局”是山姆超市,靠一张 260 元的会员卡一年狂揽 660 亿

南权先生
2026-01-19 15:38:30
被时代淘汰的水果有哪些?网友:全吃过的孩子都十岁了吧!

被时代淘汰的水果有哪些?网友:全吃过的孩子都十岁了吧!

另子维爱读史
2026-02-25 21:20:46
正月十五元宵节,老人说:十五4不吃,一年不受穷,4不吃指啥?

正月十五元宵节,老人说:十五4不吃,一年不受穷,4不吃指啥?

阿龙美食记
2026-03-02 16:33:59
真当中国不敢动手?中方向全世界宣布一件大事:退出1900亿大项目

真当中国不敢动手?中方向全世界宣布一件大事:退出1900亿大项目

科普100克克
2025-12-30 00:14:37
内贾德躲过导弹袭击,弃子突然复活,被遗忘十年的人站在风暴中心

内贾德躲过导弹袭击,弃子突然复活,被遗忘十年的人站在风暴中心

牛锅巴小钒
2026-03-03 01:19:37
2005年,美国华裔间谍案,完美动力公司工程师连床事都被FBI监控

2005年,美国华裔间谍案,完美动力公司工程师连床事都被FBI监控

干史人
2026-02-23 20:33:25
确认了!是知名演员张嘉益

确认了!是知名演员张嘉益

看尽落尘花q
2026-01-04 11:55:44
铁卫助攻独享队史第1,阿森纳2-1切尔西,破曼联纪录力压蓝月军团

铁卫助攻独享队史第1,阿森纳2-1切尔西,破曼联纪录力压蓝月军团

钉钉陌上花开
2026-03-02 05:48:31
西班牙拒绝支持对伊军事行动,美撤走10架美军加油机

西班牙拒绝支持对伊军事行动,美撤走10架美军加油机

界面新闻
2026-03-02 22:38:50
俄媒:按照普京指示,俄紧急情况部派伊尔-76运输机接回俄驻以色列外交人员

俄媒:按照普京指示,俄紧急情况部派伊尔-76运输机接回俄驻以色列外交人员

环球网资讯
2026-03-02 10:21:21
央妈定调!4大板块爆发,超1.9万亿资金托举牛市

央妈定调!4大板块爆发,超1.9万亿资金托举牛市

慧眼看世界哈哈
2026-03-03 00:29:41
前国乒名将批林诗栋:技术问题比心理还大 技术不过关 心里就没底

前国乒名将批林诗栋:技术问题比心理还大 技术不过关 心里就没底

念洲
2026-03-02 07:27:07
河北“二婚黄花大闺女”的瓜

河北“二婚黄花大闺女”的瓜

皮蛋儿电影
2026-02-28 13:45:08
伊朗:内塔尼亚胡办公室遭猛烈袭击

伊朗:内塔尼亚胡办公室遭猛烈袭击

起喜电影
2026-03-03 01:20:34
交了物业费还收车位管理费?2026年这4种情况,你可以直接拒交

交了物业费还收车位管理费?2026年这4种情况,你可以直接拒交

阿离家居
2026-03-01 16:53:47
别内耗,其实大家婚姻都一样烂!网友:‬生活是自己的,不是别人的

别内耗,其实大家婚姻都一样烂!网友:‬生活是自己的,不是别人的

另子维爱读史
2026-03-02 22:34:10
我要让所有的美国导弹打不到中国!

我要让所有的美国导弹打不到中国!

安安说
2026-03-02 13:54:39
2026-03-03 02:44:49
至顶AI实验室 incentive-icons
至顶AI实验室
一个专注于探索生成式AI前沿技术及其应用的实验室。
1984文章数 162关注度
往期回顾 全部

科技要闻

苹果中国官网上线iPhone 17e,4499元起

头条要闻

中国留学生:很多人得知哈梅内伊身亡后 决定尽快撤离

头条要闻

中国留学生:很多人得知哈梅内伊身亡后 决定尽快撤离

体育要闻

“想要我签名吗” 梅西逆转后嘲讽对手主帅

娱乐要闻

李亚鹏与哥哥和解 只有一条真心话短信

财经要闻

油价飙升 美伊冲突将如何搅动全球经济

汽车要闻

国民SUV再添一员 瑞虎7L静态体验

态度原创

手机
时尚
家居
健康
艺术

手机要闻

iPhone 17e外观与前代几乎一致 旧款iPhone 16e保护壳可继续用

今年春天一定要拥有的4件衣服,太好看了!

家居要闻

万物互联 享科技福祉

转头就晕的耳石症,能开车上班吗?

艺术要闻

这四位老人的花鸟画,竟让人欲罢不能!

无障碍浏览 进入关怀版