网易首页 > 网易号 > 正文 申请入驻

北卡罗来纳大学与Snowflake实验室联手打造AI训练"游戏厅"

0
分享至


这项由北卡罗来纳大学教堂山分校与Snowflake实验室合作完成的开创性研究发表于2026年2月,论文编号为arXiv:2602.10090v1。该研究首次实现了大规模可执行环境的自动生成,为AI智能体的工具使用训练提供了前所未有的解决方案。

想象一下,如果要教一个孩子学会使用各种工具,你会怎么做?传统的做法可能是准备一些玩具工具,然后手把手地教他。但如果这个"孩子"是AI智能体,而你需要教会它使用成千上万种不同的工具,情况就完全不同了。这正是研究团队面临的挑战,也是这项研究要解决的核心问题。

当前的AI智能体虽然在对话和推理方面表现出色,但在使用工具完成实际任务方面却受到很大限制。主要原因在于缺乏足够多样化和可靠的训练环境。就像学开车需要在不同路况下练习一样,AI智能体也需要在各种场景中学习如何正确使用工具。然而,现有的训练环境要么数量太少,要么质量不够稳定,就像只有几条简单道路的驾校,很难培养出技术全面的司机。

研究团队提出的Agent World Model(AWM)系统就像是为AI智能体建造了一个超级"游戏厅"。这个游戏厅里有1000个不同的虚拟环境,每个环境都配备了平均35种不同的工具,涵盖了从网上购物到社交媒体管理,从金融投资到旅行预订等日常生活的各个方面。更重要的是,这些环境不是简单的模拟游戏,而是基于真实数据库构建的完整系统,能够提供稳定可靠的状态变化和反馈。

一、虚拟世界的诞生:从创意到现实的自动化流程

AWM系统的工作原理就像是一个超级高效的"世界创造者"。整个过程分为五个相互关联的步骤,每一步都通过大语言模型自动完成,就像一条精密的生产线。

首先是场景生成阶段。系统从100个热门网站域名开始,就像种子一样,通过大语言模型的"想象力"扩展成1000个不同的应用场景。这些场景涵盖了现实生活中的方方面面,从音乐流媒体平台到在线购物网站,从项目管理工具到社交网络应用。系统会自动筛选掉那些主要依靠内容展示的网站(比如新闻网站),专门保留那些用户需要频繁操作和交互的应用场景。

接下来是任务设计阶段。对于每个场景,系统会自动生成10个具体的用户任务。这就像为每个虚拟世界编写了一套"用户手册",明确规定用户在这个环境中可能想要完成什么事情。比如在音乐流媒体场景中,任务可能包括"创建一个名为'晨间专注2025'的播放列表,添加Daft Punk最受欢迎的10首歌曲",或者"基于我最近的听歌历史生成一个包含30首歌曲的个性化播放列表"。

第三步是数据库设计与数据填充。这一步就像为每个虚拟世界搭建"骨架"和"血肉"。系统会根据前面生成的任务需求,自动设计出相应的SQLite数据库结构,包括所有必要的数据表、字段关系和约束条件。然后,系统还会自动生成大量真实感的示例数据来填充这些数据库,确保每个任务都有足够的数据支持。比如在电商场景中,数据库会包含商品信息、用户数据、订单记录、评价系统等完整的业务数据结构。

第四步是接口设计与代码生成。这一步相当于为每个虚拟世界建造"操作面板"。系统会自动生成完整的API接口和操作工具,让AI智能体能够通过标准化的方式与环境交互。每个环境平均包含35个不同的工具,这些工具通过模型上下文协议(MCP)统一暴露给智能体,就像是为每个虚拟世界提供了一套标准化的"工具箱"。

最后是验证系统的构建。这一步就像为每个任务配备了一个"自动裁判"。系统会为每个任务生成专门的验证代码,能够自动检查任务是否完成以及完成的质量如何。这个验证系统结合了代码检查和大语言模型判断,既保证了准确性,又具有足够的灵活性来处理各种边缘情况。

整个生成流程具有很强的容错能力。当某一步生成的代码出现错误时,系统会自动捕获错误信息,然后要求大语言模型重新生成修正版本。这个自我纠错机制让整个流程的成功率超过85%,平均只需要1.13次迭代就能生成可用的组件。

通过这套自动化流程,研究团队成功生成了1000个功能完整的虚拟环境,总共包含35,062个工具和10,000个任务,构成了迄今为止最大规模的开源工具使用环境集合。每个环境都是完全可执行的,支持并行运行和快速重置,完全满足大规模强化学习训练的需求。

二、智能体的"健身房":强化学习训练新范式

有了1000个虚拟环境作为训练场地,下一个问题就是如何让AI智能体在这些环境中有效学习。研究团队采用了一种名为群体相对策略优化(GRPO)的强化学习方法,就像是为智能体设计了一套科学的"健身计划"。

传统的强化学习往往依赖简单的成功失败奖励,就像只告诉学生考试及格还是不及格,而不提供详细的反馈。这种方式在复杂的多步骤任务中往往效果不佳。研究团队设计了一套混合奖励机制,既关注每一步的操作规范性,也评估最终的任务完成质量。

在每个训练步骤中,系统会首先检查智能体的工具调用是否符合格式要求。如果智能体试图使用不存在的工具,或者提供了错误格式的参数,系统会立即给出负面反馈并终止该轮对话,就像在驾驶训练中如果学员做出危险操作,教练会立即踩刹车一样。这种即时反馈机制不仅提高了训练效率,还帮助智能体快速学会正确的工具使用规范。

当智能体完成一个完整的任务尝试后,系统会启动综合评估流程。这个过程结合了代码验证和大语言模型判断。代码验证部分会检查数据库状态的变化,确定任务的客观完成情况。同时,GPT-5作为"评判员"会综合分析智能体的整个操作过程和最终结果,给出四种可能的评价:完全完成、部分完成、智能体错误或环境错误。

这种评估方式的巧妙之处在于平衡了严格性和灵活性。纯代码验证虽然精确,但可能因为环境的小瑕疵而产生误判。纯语言模型判断虽然灵活,但可能缺乏准确性。两者结合既保证了评估的准确性,又能够适应各种复杂的边界情况。

训练过程中还有一个重要创新是历史感知训练。在实际应用中,智能体往往需要处理很长的对话历史,但为了效率,系统通常会截断较早的对话内容。如果训练时使用完整历史,但部署时使用截断历史,就会产生分布不匹配的问题。研究团队通过在训练过程中同样使用滑动窗口机制来解决这个问题,确保训练和部署的一致性。

每个训练步骤会启动1024个独立的环境实例并行运行,就像同时开启1024个虚拟"训练场"。每个环境实例都有自己独立的数据库副本,确保不同智能体的操作不会相互干扰。训练完成后,环境可以快速重置到初始状态,准备下一轮训练。

通过这种大规模并行训练,智能体能够在短时间内积累大量不同场景下的工具使用经验,就像在各种不同的虚拟世界中进行了密集的实习训练。

三、虚拟训练的真实效果:跨领域能力验证

要验证在虚拟环境中训练的智能体是否真的具有实用价值,最直接的方法就是让它们去挑战真实世界的任务。研究团队选择了三个完全不同的基准测试来验证智能体的泛化能力,这些测试都不是专门为AWM环境设计的,因此能够真实反映智能体的跨领域适应能力。

第一个测试是τ2-bench,这是一个专门评估对话式智能体的基准。它包含了航空、零售和电信三个不同领域的多轮对话任务,要求智能体能够理解用户意图并通过多次工具调用来完成复杂任务。这个测试的特点是强调自然对话交互,需要智能体具有很强的上下文理解能力。

第二个测试是BFCLv3,这是一个综合性的函数调用能力评估基准。它涵盖了单轮调用、多轮调用、合成工具、真实工具以及幻觉检测等多个方面,共分为四个评估类别:非实时、实时、多轮和幻觉检测。这个测试主要评估智能体准确调用函数的技术能力。

第三个测试是MCP-Universe,这是一个基于真实MCP服务器的测试集合,涵盖了位置导航、金融分析、浏览器自动化、网络搜索和多服务器工作流等实际应用场景。这个测试最接近真实世界的使用情况,能够检验智能体在实际场景中的表现。

实验结果证明了AWM训练方法的有效性。在BFCLv3测试中,使用AWM训练的8B参数模型的总体得分从53.83提升到65.94,超过了其他对比方法。特别是在非实时和实时类别中,AWM训练的智能体表现出了显著的优势,证明了它们具有强大的工具调用准确性。

在τ2-bench测试中,AWM方法与现有最佳方法EnvScaler相比具有竞争力,在某些场景中甚至超越了后者。值得注意的是,EnvScaler在训练时使用的任务可能与τ2-bench存在重叠,而AWM完全基于独立生成的环境进行训练,却能达到相当的性能,这说明了AWM方法的泛化能力。

在MCP-Universe测试中,AWM取得了最好的整体结果,特别是在金融和位置相关任务上表现突出。这个结果特别有意义,因为MCP-Universe使用的是真实的服务器和API,最接近实际应用场景。

更重要的是,研究团队还进行了对比实验,验证了可执行环境相对于LLM模拟环境的优势。当使用大语言模型来模拟环境状态转换时,虽然可以提供灵活性,但容易产生幻觉和不一致的状态变化。相比之下,基于代码和数据库的可执行环境提供了更稳定和可靠的训练信号,同时大大减少了训练延迟,因为不需要在每个交互步骤都调用大语言模型。

这些实验结果表明,在完全合成的虚拟环境中训练的智能体确实能够很好地泛化到真实世界的任务中。这就像在模拟器中学会开车的人,也能在真实道路上安全驾驶一样。

四、质量与多样性的平衡:虚拟环境的深度分析

创建1000个虚拟环境听起来令人印象深刻,但真正重要的是这些环境的质量和多样性。就像评价一个图书馆不能只看书的数量,还要看书的种类和内容质量一样,研究团队对生成的环境进行了全面的质量评估。

从复杂性角度来看,每个环境的规模相当可观。平均每个环境包含18.5个数据库表,填充了129.3条示例记录,暴露了35.1个操作工具,对应的代码超过1984行。这样的规模远超过简单的玩具环境,接近真实应用系统的复杂度。

研究团队使用多个大语言模型对随机抽取的100个环境进行了质量评估,重点关注三个方面:任务可执行性(任务是否能在环境中完成)、数据一致性(数据库设计是否与任务需求匹配)和工具完整性(提供的工具是否足以完成所有任务)。

评估结果显示,AWM生成的环境在所有指标上都优于对比方法EnvScaler。在任务可执行性方面,AWM获得了3.68-3.99的评分(满分5分),明显高于EnvScaler的2.94-3.14分。这意味着AWM生成的任务更容易在相应环境中完成,减少了因环境设计缺陷导致的训练干扰。

当然,大规模自动生成的环境不可避免地存在一些bug。分析显示,74-83%的环境存在不同程度的代码缺陷,但这些缺陷大多不会阻碍核心功能的使用。主要问题包括边界情况处理不当(占44%)和数据库约束冲突(占14%)。重要的是,AWM生成的环境中只有11.5-14.0%的任务会被这些bug完全阻塞,远低于EnvScaler的46.8-57.1%。

多样性分析表明,1000个环境覆盖了广泛的应用领域。从分布来看,分析工具(8.6%)、工作流管理(8.6%)、电子商务(8.2%)是最主要的类别,但没有任何单一类别占据绝对主导地位。这种相对均衡的分布确保了智能体能够接触到多样化的训练场景。

语义多样性分析通过对场景描述、数据库结构和工具接口的嵌入向量计算发现,随着环境数量的增加,新生成的环境仍能保持与现有环境的差异性,没有出现重复或同质化的趋势。同时,话题覆盖范围也随着环境数量稳步增长,从最初几百个话题扩展到3000多个不同的主题领域。

这些分析结果表明,AWM不仅实现了大规模的环境生成,还在质量和多样性之间找到了良好的平衡点。虽然自动生成的环境不可避免地存在一些不完美之处,但总体质量足以支持大规模强化学习训练,而且提供了足够的多样性来避免过拟合。

五、验证机制的智慧:代码与判断的完美融合

在AI智能体训练中,如何准确判断任务是否完成是一个关键挑战。传统方法要么完全依赖代码验证,要么完全依赖大语言模型判断,各有优劣。研究团队提出的代码增强式LLM评判方法巧妙地结合了两者的优势。

纯代码验证就像一个严格的考官,只看最终结果是否符合预设标准。这种方法的优点是客观准确,不会受主观因素影响。但问题在于,它无法处理复杂的边界情况。比如,当智能体由于环境临时故障而无法完成任务时,纯代码验证可能会错误地将其判定为智能体失败。

纯LLM判断就像一个有经验的老师,能够综合考虑过程和结果,对特殊情况做出灵活处理。但这种方法的问题在于可能不够客观,容易受到表面现象的误导。

AWM的验证机制采用了"代码提供证据,LLM做出判断"的策略。首先,代码验证部分会自动检查数据库的状态变化,提取与任务相关的关键信息,如新增记录、修改数据、删除条目等。这些信息以结构化形式呈现,就像为LLM评判员提供了详细的"证据清单"。

然后,GPT-5作为最终评判员,综合分析智能体的操作轨迹和代码验证结果,做出最终判断。评判员会考虑多个因素:智能体的操作是否合理,任务目标是否达成,遇到的错误是由智能体还是环境造成的。最终给出四种判断之一:完全完成、部分完成、智能体错误或环境错误。

这种混合验证方法的效果在实验中得到了验证。相比纯LLM验证,代码增强方法在BFCLv3上提升了约9分,在τ2-bench上提升了约7分。相比纯代码验证,混合方法能够更好地处理环境不完美导致的边界情况,避免了过多的误判。

研究团队还展示了三个典型的验证案例。第一个案例中,智能体成功完成了获取拍卖历史的任务,代码验证确认了数据的正确性,LLM评判员基于这些证据做出了正确的"完成"判断。第二个案例中,智能体遇到了环境错误但任务实际已存在,纯代码验证会错误判定为失败,但LLM评判员通过分析操作轨迹识别出了这是环境问题而非智能体错误。第三个案例中,智能体由于API错误理解而操作了错误的对象,代码验证发现目标对象没有变化,LLM评判员正确识别出这是智能体的错误。

这种验证机制的成功在于它充分利用了代码的精确性和LLM的灵活性,既保证了评估的客观性,又具有足够的智能来处理复杂情况。这对于大规模强化学习训练至关重要,因为错误的奖励信号会严重影响智能体的学习效果。

六、训练策略的精妙设计:从格式到历史的全方位优化

在大规模强化学习训练中,除了环境和验证机制,训练策略的设计同样重要。研究团队在多个方面进行了精心优化,确保智能体能够高效且稳定地学习。

格式正确性奖励是一个重要的创新。在多步骤工具使用任务中,智能体很容易犯格式错误,比如调用不存在的工具、提供错误的参数格式等。传统方法通常只在任务结束时给出奖励,这样智能体很难学会避免这些基础错误。

AWM采用了步级格式检查机制,在每个操作步骤都会验证智能体的工具调用是否符合规范。一旦发现格式错误,系统会立即给出负奖励并终止该轮对话。这种即时反馈机制让智能体能够快速学会正确的工具使用规范,就像学钢琴时老师会立即纠正错误的指法一样。

实验结果显示,这种格式奖励机制显著提升了训练效果。启用格式检查后,智能体的格式错误率快速下降到低水平并保持稳定,同时平均训练时间减少了约27%。相比之下,不使用格式奖励的智能体错误率始终维持在20%以上,严重影响了学习效率。

历史感知训练是另一个重要创新。在实际部署中,为了计算效率,AI系统通常会截断过长的对话历史,只保留最近的几轮交互。但如果训练时使用完整历史而部署时使用截断历史,就会产生分布不匹配问题,影响智能体的实际表现。

研究团队通过在训练过程中同样使用滑动窗口机制来解决这个问题。具体来说,每个训练样本只使用最近3轮的交互历史,而不是完整的对话历史。这样确保了训练和推理阶段的一致性。

对比实验验证了这种历史感知训练的重要性。当训练和推理使用相同的历史管理策略时,智能体表现最佳。如果训练时使用完整历史但推理时使用截断历史,性能会显著下降。有趣的是,截断历史有时甚至能提升某些任务的表现,可能是因为去除了早期不相关信息的干扰。

环境规模的影响也得到了系统性分析。实验发现,训练环境的数量对智能体的最终性能有显著影响。仅使用10个环境时,智能体严重过拟合,在所有测试基准上表现都很差。扩展到100个环境后,性能有了大幅提升。进一步扩展到526个环境时,性能仍在持续改善,表明环境多样性对于泛化能力的重要性。

这种规模效应符合机器学习的一般规律:更多样化的训练数据通常能带来更好的泛化性能。由于计算资源限制,研究团队只使用了全部1000个环境中的526个进行训练,但多样性分析表明剩余环境仍能提供额外的多样性,因此进一步扩展训练规模很可能带来更大收益。

七、技术细节的巧思:从接口设计到并行优化

AWM系统的成功不仅在于整体架构设计,更在于众多技术细节的精心处理。这些看似不起眼的设计决策共同确保了整个系统的稳定性和效率。

统一工具接口的设计体现了简洁性原则。虽然每个环境可能包含几十个不同的工具,但智能体只需要掌握两个元工具:list_tools(列出可用工具)和call_tool(调用指定工具)。这种设计就像为所有不同品牌的遥控器设计了一个通用适配器,智能体不需要为每种工具学习不同的调用方式。

这种统一接口的好处是多方面的。首先,它简化了智能体的学习任务,避免了因工具接口差异导致的混乱。其次,它提高了系统的可扩展性,新增环境和工具不需要修改智能体的基础逻辑。最后,它增强了训练的稳定性,因为智能体在所有环境中都使用相同的交互模式。

代码自纠错机制确保了生成质量。在自动生成过程中,每当生成的代码无法正常执行时,系统会捕获详细的错误信息,包括错误类型、发生位置和相关代码片段。然后将这些信息反馈给大语言模型,要求其生成修正版本。这个过程可以重复最多5次,直到代码能够正常运行或达到最大重试次数。

统计数据显示,这种自纠错机制非常有效。大多数组件在首次生成时就能正常工作,需要纠错的组件平均只需1.13次迭代就能修复。这种高效的纠错能力是大规模自动生成的关键保障。

并行环境管理是大规模训练的技术保障。每个训练步骤需要同时运行1024个环境实例,这对系统的资源管理和调度能力提出了很高要求。研究团队采用了多项优化策略来确保训练效率。

首先是环境隔离。每个环境实例都有独立的数据库副本和进程空间,确保不同智能体的操作不会相互影响。这就像为每个学生准备了独立的实验台,避免实验之间的干扰。

其次是预取机制。环境启动和数据库复制需要一定时间,如果在训练过程中临时准备环境,会显著影响训练速度。系统采用了后台预取策略,在当前批次训练进行的同时,后台线程会为下一批次准备好环境实例。这样大大减少了训练的等待时间。

最后是快速重置。每轮训练结束后,环境需要快速重置到初始状态。系统通过预先备份初始数据库状态,在重置时直接复制备份文件的方式实现快速重置,避免了重新生成数据的开销。

这些技术细节看似复杂,但它们共同确保了AWM系统能够稳定、高效地支持大规模强化学习训练。正是这些精心设计的技术实现,才让"从创意到环境"的自动化流程真正具有了实用价值。

说到底,这项研究的意义远不止于创造了1000个虚拟训练环境。它更重要的贡献在于提供了一种全新的思路来解决AI智能体训练中的环境稀缺问题。就像工业革命中流水线生产改变了制造业一样,AWM这种自动化环境生成方法可能会从根本上改变AI智能体的训练方式。

当前的AI智能体虽然在对话和推理方面表现出色,但在实际工具使用方面仍然存在明显短板。主要原因就是缺乏足够多样化和高质量的训练环境。手工创建训练环境不仅成本高昂,而且难以达到足够的规模和多样性。AWM提供了一种可扩展的解决方案,让大规模环境生成成为可能。

更重要的是,这种方法具有很强的通用性。研究团队已经开源了完整的生成流程和所有1000个环境,其他研究者可以直接使用这些资源,也可以基于相同的方法生成更多不同类型的环境。这就像建立了一个"环境工厂",可以根据需要持续生产各种专门化的训练场所。

从实用角度来看,这项研究的成果已经在多个真实场景测试中展现了价值。训练出的智能体不仅能在合成环境中表现良好,更重要的是能够很好地泛化到真实世界的任务中。这说明虚拟训练确实能够培养出实用的技能。

当然,这项研究也还有改进空间。比如,如何让生成的环境更加贴近特定应用场景的需求,如何进一步减少环境中的bug,如何让智能体能够处理更加复杂的多环境协作任务等。但无论如何,AWM已经为AI智能体的工具使用训练开辟了一条全新的道路。

归根结底,这项研究展示了AI技术发展的一个重要趋势:通过AI来训练AI。大语言模型不仅能够生成文本和代码,还能够创造完整的虚拟世界来训练其他AI系统。这种"AI生成AI训练环境"的模式可能会成为未来AI发展的重要推动力,让我们能够更快速、更高效地开发出具有实用价值的AI智能体。

有兴趣深入了解技术细节的读者可以通过论文编号arXiv:2602.10090v1查询完整的研究报告,研究团队还在GitHub上开源了所有的代码和环境数据,地址为https://github.com/Snowflake-Labs/agent-world-model。

Q&A

Q1:Agent World Model生成的虚拟环境和真实应用有什么区别?

A:AWM生成的环境虽然是虚拟的,但在数据库结构、API接口和业务逻辑方面都高度模拟真实应用。每个环境平均包含18.5个数据库表和35个操作工具,代码超过1984行,接近真实应用的复杂度。最重要的是,这些环境基于SQLite数据库提供稳定的状态变化,而不是简单的模拟游戏。实验证明,在这些虚拟环境中训练的智能体能够很好地泛化到真实世界任务中。

Q2:为什么不直接用真实的网站和应用来训练AI智能体?

A:使用真实应用训练存在多个问题:首先是成本问题,大规模训练需要与环境交互数千次,真实API调用费用昂贵;其次是稳定性问题,真实服务可能出现网络延迟、服务中断等不可控因素;最后是规模限制,现有的真实环境数量太少,难以提供足够的多样性。AWM生成的1000个环境不仅数量庞大,而且每个环境都支持并行运行和快速重置,完全满足大规模强化学习训练的需求。

Q3:普通开发者可以使用AWM系统来创建自己的训练环境吗?

A:可以的。研究团队已经在GitHub上开源了完整的AWM生成流程,包括从场景设计到环境创建的所有代码。开发者不仅可以直接使用现有的1000个环境,还可以根据自己的需求修改生成参数,创建特定领域的训练环境。整个生成过程是全自动的,只需要提供场景名称,系统就能自动生成完整的可执行环境,包括数据库、API接口和验证代码。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
发现一个奇怪现象:喜欢把家里打扫得很干净的人,往往会有这3种命运,并非迷信

发现一个奇怪现象:喜欢把家里打扫得很干净的人,往往会有这3种命运,并非迷信

LULU生活家
2025-12-23 18:33:20
好消息!上海第三机场加速推进,沪苏共建迈入实质性阶段

好消息!上海第三机场加速推进,沪苏共建迈入实质性阶段

小虎新车推荐员
2026-02-11 17:56:56
董璇夫妇带老人三亚过年,小年夜吃海鲜大餐,张维伊过年不孤单了

董璇夫妇带老人三亚过年,小年夜吃海鲜大餐,张维伊过年不孤单了

观察者海风
2026-02-11 22:11:28
孙龙失误原因出炉!多名选手为他发声,冬奥开幕4天,中国仍是0金

孙龙失误原因出炉!多名选手为他发声,冬奥开幕4天,中国仍是0金

十点街球体育
2026-02-11 12:18:48
释永信被女徒弟爆料,凌晨4点去他房间,拿到皈依证就算师徒关系

释永信被女徒弟爆料,凌晨4点去他房间,拿到皈依证就算师徒关系

汉史趣闻
2025-07-30 09:57:38
万科两年亏损1300多亿,如今再看万宝之争,难道没有其他原因?

万科两年亏损1300多亿,如今再看万宝之争,难道没有其他原因?

林小明商业评说
2026-02-10 11:10:30
4人驱逐!30人大混乱!2026年新版奥本山斗殴!长期停薪禁赛来了

4人驱逐!30人大混乱!2026年新版奥本山斗殴!长期停薪禁赛来了

贵圈真乱
2026-02-11 18:11:53
笑麻了!以为两人相伴了一辈子,其实厌烦了几十年!

笑麻了!以为两人相伴了一辈子,其实厌烦了几十年!

墙头草
2026-02-09 16:37:03
青岛市文化和旅游局原党组书记、局长潘峰严重违纪违法被开除党籍和公职

青岛市文化和旅游局原党组书记、局长潘峰严重违纪违法被开除党籍和公职

黄河新闻网吕梁频道
2026-02-11 16:04:57
交易库明加后,勇士队记吐槽库明加身边有人在家属室拿太多食物!

交易库明加后,勇士队记吐槽库明加身边有人在家属室拿太多食物!

爱体育
2026-02-12 00:18:15
销量暴跌33%!从年货顶流到无人问津,中国人为啥就不爱吃糖了?

销量暴跌33%!从年货顶流到无人问津,中国人为啥就不爱吃糖了?

鲸探所长
2026-01-28 22:49:13
我61岁,和45岁女舞伴搭伙过日子,新婚夜她突然提出一个要求

我61岁,和45岁女舞伴搭伙过日子,新婚夜她突然提出一个要求

小月故事
2026-02-05 11:02:18
潮汕婚礼丈母娘火了,打扮娇艳比新娘还抢镜,网友:感觉有点不对

潮汕婚礼丈母娘火了,打扮娇艳比新娘还抢镜,网友:感觉有点不对

梅子的小情绪
2026-02-08 19:59:04
2000万分手费烧光了?Coco回河南老家直播捞金,素颜出镜回应质疑

2000万分手费烧光了?Coco回河南老家直播捞金,素颜出镜回应质疑

陈意小可爱
2026-02-12 03:55:41
释爱丽丝:长腿核弹!重新定义腿精天花板

释爱丽丝:长腿核弹!重新定义腿精天花板

碧波万览
2026-02-12 05:05:47
越南少将:中国军队回撤时越军为啥不打?因黎笋下了道死命令

越南少将:中国军队回撤时越军为啥不打?因黎笋下了道死命令

磊子讲史
2026-01-22 16:14:12
库里缺席全明星正赛,最不开心人非以下五位莫属!

库里缺席全明星正赛,最不开心人非以下五位莫属!

君子一剑似水流年
2026-02-11 06:13:26
雪松控股集团19位高管被判刑

雪松控股集团19位高管被判刑

地产微资讯
2026-02-11 23:21:18
美国1月失业率为4.3% 创2025年8月以来新低

美国1月失业率为4.3% 创2025年8月以来新低

财联社
2026-02-11 21:33:06
发钱了!发钱了!已有河北市民收到!

发钱了!发钱了!已有河北市民收到!

新牛城
2026-02-12 03:53:01
2026-02-12 06:19:00
科技行者 incentive-icons
科技行者
科技正在如何变革商业世界
7236文章数 550关注度
往期回顾 全部

科技要闻

V4来了?DeepSeek 灰度测试新版本

头条要闻

甘肃省博原馆长被查:将他人收藏文物纳入征集范围

头条要闻

甘肃省博原馆长被查:将他人收藏文物纳入征集范围

体育要闻

搞垮一个冬奥选手,只需要一首歌?

娱乐要闻

大孤山风波愈演愈烈 超50位明星扎堆

财经要闻

广州前首富被判无期 200亿集资窟窿何偿

汽车要闻

比亚迪最美B级SUV? 宋Ultra这腰线美翻了

态度原创

亲子
本地
房产
数码
公开课

亲子要闻

一个五岁孩子的话,击碎了我的认知

本地新闻

下一站是嘉禾望岗,请各位乘客做好哭泣准备

房产要闻

999元开线上免税店?海南爆出免税大骗局,多人已被抓!

数码要闻

英特尔Nova Lake处理器尺寸曝光:单芯片面积远超AMD

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版