网易首页 > 网易号 > 正文 申请入驻

Goedel-Prover:自动化定理证明的前沿开源模型

0
分享至

https://github.com/Goedel-LM/Goedel-Prover

https://arxiv.org/abs/2502.07640

Goedel-Prover: A Frontier Model for Open-Source Automated Theorem Proving

Goedel-Prover:开源自动化定理证明的前沿模型

摘要
我们介绍了 Goedel-Prover,这是一个开源的大型语言模型(LLM),在数学问题的自动化形式化证明生成方面达到了最先进的性能(SOTA)。该领域的主要挑战是形式化的数学陈述和证明的稀缺性,我们通过以下方式解决这一问题。我们训练了陈述形式化器,将 Numina 中的自然语言数学问题翻译成形式语言(Lean 4),创建了一个包含 164 万条形式化陈述的数据集。LLM 用于检查形式化陈述是否准确保留了原始自然语言问题的内容。然后,我们通过训练一系列证明器,迭代构建一个大型的形式化证明数据集。每个证明器都成功证明了许多前一个证明器无法证明的陈述,这些新的证明被添加到下一个证明器的训练集中。最终的证明器在完整证明生成方面超越了所有现有的开源模型。在 miniF2F 基准测试中,它实现了 57.6% 的成功率(Pass@32),比之前的最佳开源模型高出 7.6%。在 PutnamBench 上,Goedel-Prover 成功解决了 7 个问题(Pass@512),在排行榜上排名第一。此外,它为 Lean Workbook 问题生成了 29.7K 的形式化证明,几乎是之前工作产生的 15.7K 的两倍。

1 引言
最近在大型语言模型(LLM)方面的进展展示了其在推理任务中的显著能力,尤其是在解决数学问题方面(Guo 等,2025;Yang 等,2024a)。这些模型在自然语言推理方面表现出色,我们称之为非形式化推理。然而,基于自然语言的推理很难被机器自动验证,这削弱了非形式化推理在实际应用中的可靠性,并且也使得进一步提高语言模型的推理能力更加困难。与非形式化推理相比,形式化推理允许以机器可验证的格式进行推理,为验证和自动化开辟了新的可能性。特别是,像 Lean(De Moura 等,2015;Moura 和 Ullrich,2021)、Isabelle(Paulson,1994)和 Coq(Barras 等,1997)这样的证明助手提供了可以机械验证的形式化语言来表达推理。因此,训练 LLM 在这些形式化语言中撰写证明具有极大的兴趣。
在形式化语言中训练 LLM 进行定理证明的一个重大挑战是形式化的数学陈述和证明的稀缺性。为形式化语言中表达的定理撰写证明是非常具有挑战性的,需要相当多的领域专业知识。

因此,现有的公开可用的形式化语言数据集在规模上受到限制。例如,Lean Workbook(包括 Lean Workbook Plus)数据集(Ying 等,2024a;Wu 等,2024)总共包含 140K 条形式化陈述,其中形式化陈述指的是没有证明的 Lean 问题陈述。然而,其中只有 15.7K 条陈述附带了形式化证明,这些证明是由 InternLM2.5-StepProver 和 InternLM-Math-Plus 找到的(Ying 等,2024a;Wu 等,2024;Ying 等,2024b)。此外,Open Bootstrapped Theorems 数据集(Wang 等,2024)包含了来自 Mathlib44(mathlib4,2023)的 107K 条带有证明的陈述。然而,我们观察到 Mathlib4 的分布与一般问题解决基准(如广泛使用的 miniF2F(Zheng 等,2021))相比存在显著差异。例如,miniF2F 中的陈述主要来自高中,需要复杂的推理能力来解决,而 Mathlib4 中的陈述则侧重于对高级数学概念的简单操作(见附录中的图 7 和 8 进行比较)。此外,我们发现将 Mathlib4 数据纳入训练并不总能提高在 miniF2F 上的性能(第 4 节)。

与形式化语言数据的稀缺性形成对比的是,有大量的数学问题和解决方案是以非形式化语言书写的。例如,Numina(Li 等,2024a)包含了来自 MATH(Hendrycks 等,2021)、GSM8K(Cobbe 等,2021)、AMC(aop)、AIME(MAA,2024)、AoPS 论坛(aop)、中国 K-12 考试(Shao 等,2024)、世界奥林匹克竞赛和合成数据(Mitra 等,2024)的 860K 高质量问答对。我们首先训练 LLM 将这些数据集中的问题陈述形式化为 Lean 语言。为了增加形式化风格的多样性,我们训练了两个形式化器。一个是在 Lean Workbook 的非形式化和形式化(I-F)陈述对上进行训练的,而另一个是在 Claude-sonnet-3.5(Anthropic,2024)标注的 I-F 陈述对上进行训练的。我们使用这两个形式化器来形式化陈述,然后使用 LLM 确保形式化陈述保留了非形式化陈述的内容。我们的努力产生了 164 万条形式化陈述。

利用这个庞大的形式化陈述数据集,我们采用专家迭代(Polu 等,2022)来训练证明器生成证明。值得注意的是,我们训练了一个模型,仅基于陈述生成完整的证明,而无需在生成过程中与 Lean 编译器交互。这种方法被称为完整证明生成方法(Jiang 等,2022;Wang 等,2024;Xin 等,2024a;b)。在专家迭代的开始,我们使用 DeepSeek-Prover-V1.5-RL(之前的 SOTA)为数据集中的每个形式化陈述生成 16 个证明候选,并使用 Lean 编译器验证每个候选的正确性。正确的证明随后被收集起来,用于基于 DeepSeek-Prover-V1.5-Base 训练我们的 iter-1 证明器。在后续轮次中,我们利用我们的 iter-k 证明器收集新的证明,并将它们添加到训练数据中。然后我们从 DeepSeek-Prover-V1.5-Base 开始进行监督微调,进行另一轮训练,从而得到 iter-(k + 1) 证明器。我们总共进行了 8 轮迭代,并从第一轮开始就观察到一致的改进。

凭借我们大规模的形式化陈述,我们证明了专家迭代可以在完整证明生成方面达到最先进的性能。具体来说:

  • 我们的模型在 miniF2F 上超越了 DeepSeek-Prover-V1.5-RL(之前的 SOTA 模型)7.6%,实现了 57.6% 的 Pass@32 分数,相比之下 DeepSeek-Prover-V1.5-RL 的分数为 50.0%,如图 1(左)所示。它在所有采样预算中都一致地超过了 DeepSeek-Prover-V1.5-RL,包括 Pass@32、64 以及高达 25600,如图 1(中)所示。

  • 我们在 Lean Workbook 中累计解决了 29.7K 个问题,显著增加了 InternLM2.5-StepProver 和 InternLM-Math-Plus(Wu 等,2024;Ying 等,2024b)找到的现有 15.7K 证明,如图 1(右)所示。

  • 我们的模型通过 Pass@512 在 PutnamBench 上解决了 7 个问题,在排行榜上获得了第 1 名的位置(表 4)。

  • 我们开源我们的代码、模型以及在 Lean Workbook 中发现的新证明,以促进未来的研究。


2 相关工作

自动定理证明自动定理证明(ATP)是符号人工智能中的一个长期问题(Robinson & Voronkov,2001)。传统方法使用一阶逻辑表示定理,并通过决策过程(De Moura & Bjørner,2008;Barbosa 等,2022)和搜索(Kovács & Voronkov,2013;Schulz 等,2019)来证明它们。通过用机器学习技术替换手工启发式方法,证明搜索得到了增强(Urban 等,2011;Kaliszyk 等,2018)。然而,基于一阶逻辑的方法在扩展到复杂定理时面临挑战,通常无法生成人类可读的证明。

近年来,基于学习的定理证明经历了显著的变革。Polu 和 Sutskever(2020)提出了一种引人注目的方法,利用大型语言模型协助使用证明助手(如 Lean(De Moura 等,2015;Moura & Ullrich,2021)和 Isabelle(Paulson,1994))进行定理证明。后续研究探索了多种途径,例如检索有用的引理(Irving 等,2016;Mikuła 等,2024;Yang 等,2024b)、利用蒙特卡洛树搜索进行证明发现(Lample 等,2022),以及利用大型语言模型(LLMs)进行自然语言推理(Jiang 等,2022;Lin 等,2024)。值得注意的是,Polu 等(2023)首次将专家迭代(Anthony 等,2017)应用于定理证明。这种方法交替进行两个阶段:(1)尝试证明未解决的定理,(2)通过将新发现的证明纳入其训练数据来增强证明器。专家迭代在多个最近的证明器中取得了显著改进(Wu 等,2024;Xin 等,2024b),包括我们的 Goedel-Prover。

大多数自动定理证明器以逐步的方式运行,生成单独的证明步骤,然后使用证明搜索算法将这些步骤组装成完整的证明。最近,研究人员表明生成整个证明是可行的(First 等,2023;Xin 等,2024a;Wang 等,2024)。这种方法避免了代价高昂的搜索过程,从而降低了延迟,并可能在测试期间更高效地利用计算资源。尽管 Goedel-Prover 也生成完整的证明,但我们的数据和方法原则上可以适应开发逐步证明器。

自动形式化和合成数据生成高质量形式化数学数据的短缺是训练定理证明模型的一个重大瓶颈。尽管像强化学习这样的技术可能会减少对人工编写的证明的依赖(Google DeepMind,2024),但仍需要大量的形式化定理陈述。一个有前景的方法是通过自动形式化合成形式化陈述,其中大型语言模型(LLMs)将非形式化的数学陈述翻译成形式化陈述(Wu 等,2022;2024;Xin 等,2024a;b)。

DeepSeek-Prover(Xin 等,2024a)和 InternLM2.5-StepProver(Wu 等,2024)已经成功地实施了这一策略,将大量陈述形式化为 Lean,用于专家迭代。我们采用了类似的方法。不同之处在于:虽然 Liu 等(2024)专注于形式化他们内部的数据集,我们则专注于形式化 Numina 数据集(Li 等,2024a)以及一个私下收集的数据集。此外,我们训练了两个形式化器以增强形式化风格的多样性,我们在第 4 节中展示了这一点是有益的。


3 方法

我们首先将非形式化陈述(用自然语言表达)翻译成形式化陈述(用 Lean 表示)。利用这些形式化陈述,我们通过证明器生成并由 Lean 编译器验证的证明,迭代训练我们的证明器。每个步骤的详细内容在以下部分中进行了阐述。

3.1 陈述形式化

我们首先训练陈述形式化器,将 Numina 中的非形式化陈述翻译成形式化陈述,如图 2 所示。为了增强形式化陈述的多样性,我们训练了两个模型来形式化非形式化陈述。

  • 形式化器 A:我们使用来自 Lean Workbook 的形式化和非形式化(F-I)陈述对来训练形式化器 A 模型。

  • 形式化器 B:我们使用 Claude-sonnet-3.5 来形式化 Numina 中的 230K 条陈述。从这个集合中,我们提取了 170K 条成功通过 Lean 编译的陈述。这 170K 条 F-I 陈述对随后被用来训练形式化器 B。

形式化器 A 和 B 都是使用 Qwen2.5-Coder-32B 进行监督微调训练的。在 8 个 H100 GPU 上,这两个形式化器的训练时间不到 24 小时。表 1 提供了两个例子,形式化器 A 和 B 在这两个例子中都给出了合理的形式化结果。然而,我们的最终证明器在这些形式化的陈述上表现各异,这突显了形式化风格对模型有效性的影响。

质量评估我们采用两种测试来评估形式化陈述的质量。首先,形式化陈述必须符合 Lean 语法并能够成功编译,潜在的证明被替换为占位符“:= by sorry”。这种语法检查在文献中被称为编译正确性(Compiling Correctness, CC)测试(Ying 等,2024a)。其次,形式化陈述必须准确捕捉原始非形式化问题,包含所有假设、条件和隐式定义。我们将这种测试称为忠实性和完整性(Faithfulness and Completeness, FC)测试。对于 FC 测试,我们使用 Qwen2.5-72B-Instruct,提示语如图 4 所示。对于每条形式化陈述,我们生成四个独立的判断,并将 FC 分数计算为四个判断中“适当”的数量除以 4。例如,如果 Qwen2.5-72B-Instruct 生成的四个判断中有三个“适当”和一个“不适当”,则整体 FC 分数计算为 0.75。我们筛选出 FC 分数低于 0.5 的形式化陈述。

对于 Numina 中的每条非形式化陈述,我们从每个形式化器生成八条形式化陈述,每条问题共产生 16 条形式化陈述。每条陈述都经过 CC 和 FC 测试,我们只保留有效的陈述。然后,我们从每个形式化器中随机选择一条有效的陈述。例如,如果形式化器 A 的八条陈述中有五条有效,形式化器 B 的八条陈述中有三条有效,我们分别从每个形式化器中随机选择一条。如果一个形式化器没有生成任何有效陈述,则排除该问题的所有陈述。表 2 汇总了对两个形式化器进行的每项测试的统计数据。

除了形式化开源的 Numina(Li 等,2024a)数据集中的 860K 条非形式化陈述外,我们还形式化了来自 Art of Problem Solving(AOPS)的 68K 条数学问题的私有集合,这些数据由 Numina 团队(Li 等,2024a)收集和处理。在总共 928K 条非形式化陈述中,有 760K 条由形式化器 A 和 B 生成了两条有效的形式化陈述,而 123K 条只包含一条有效的形式化陈述。在形式化了 Numina 和 AOPS 数据集之后,我们进一步加入了 Lean Workbook(包括 Lean Workbook Plus)中的 140K 条陈述。因此,我们总共拥有 178 万条形式化陈述。

3.2 专家迭代

在第 3.1 节中获得大量形式化陈述后,我们采用专家迭代(Liu 等,2024;Wu 等,2024;Li 等,2024b)来训练证明器,如图 3 所示。具体来说,我们首先使用 DeepSeek-Prover-V1.5-RL为每条陈述生成 16 个证明。然后,我们使用 Lean 编译器验证这些证明。如果至少有一个证明解决了该陈述,我们为每条陈述保留一个证明。在有多个证明可用的情况下,我们随机采样一个解决方案。这些收集到的证明用于基于 DeepSeek-Prover-V1.5-Base的监督微调(SFT),从而得到 iter-1 证明器。我们继续这一专家迭代过程;每次,我们都使用 iter-k 证明器生成答案,并累计收集正确解决方案以训练 DeepSeek-Prover-V1.5-Base,用于下一次迭代,即 iter-(k + 1) 证明器。更多关于每次迭代的细节,请参阅附录 A。

我们尝试了 1×10⁻⁴ 和 5×10⁻⁵ 的学习率,训练 1 或 2 个 epoch。我们使用小批量大小 8 的打包技巧(Tunstall 等,2022)来加速训练。在每次迭代中,使用 4 个 H100 GPU,1 个 epoch 的训练时间约为 12 小时。对于 178 万条陈述集,使用 64 个 H100 GPU,Pass@16 的推理时间为 6 小时。此外,验证这些证明需要 8,000 个 CPU,耗时 10 小时。



4 结果

基准测试根据(Wang 等,2024;Xin 等,2024a;Wu 等,2024;Li 等,2024b)的工作,我们主要使用 miniF2F(Zheng 等,2021)作为我们的主要评估基准。我们还跟踪了我们的证明器在 Lean Workbook(Ying 等,2024a)中解决的问题,并调查了在 ProofNet(Azerbayev 等,2023)和 PutnamBench(Tsoukalas 等,2024)上的表现。此外,我们从我们的形式化数据集中均匀采样一个子集,创建一个保留的评估数据集。以下是每个数据集的描述:

  • miniF2F(Zheng 等,2021)是一个形式化定理证明基准,包含 488 条问题陈述(244 条验证问题和 244 条测试问题),使用 Lean 编写。这些问题来自高中练习题,以及高中水平的竞赛,包括 AIME、AMC 和国际数学奥林匹克竞赛(IMO)。原始基准是在 Lean 3 中发布的,为了我们的分析,我们使用了 Xin 等(2024a)提供的 Lean 4.9.0 版本的 miniF2F。

  • ProofNet(Azerbayev 等,2023)是一个本科水平数学的形式化定理证明基准,包含 371 条问题陈述(185 条验证问题和 186 条测试问题),使用 Lean 编写。这些问题主要来自本科纯数学科目,涵盖实分析、复分析、线性代数、抽象代数和拓扑学等主题。原始基准是在 Lean 3 中发布的,为了我们的分析,我们使用了 Xin 等(2024a)提供的 Lean 4.9.0 版本的 ProofNet。

  • Lean Workbook(Ying 等,2024a)是一个从自然语言数学问题(主要来自 AOPS 论坛)形式化的大型 Lean 4 问题集,包含 140K 条 Lean 4 陈述。我们还监控了在专家迭代过程中我们的模型解决的问题。值得注意的是,Lean Workbook 的问题集包含在训练中,这与 DeepSeek-Prover-V1.5(Xin 等,2024a)和 InternLM2.5-StepProver(Wu 等,2024)一致。

  • PutnamBench(Tsoukalas 等,2024)是一个基于威廉·洛厄尔·普特南数学竞赛(1962 - 2023 年)的竞赛数学问题的形式化定理证明基准。PutnamBench 包含 644 条 Lean 4 陈述,涵盖代数、分析、数论、几何、组合学、概率和集合论等主题。

  • NuminaTest. 我们从形式化的 Numina 数据集中随机抽取 250 条陈述,将其用作保留的测试集。我们称这个子集为 NuminaTest。

    主要结果. miniF2F 上的表现如表 3 所示。我们的 Goedel-Prover-SFT 的 Pass@32 表现为 57.6%,超过了之前的 SOTA 开源模型 DeepSeek-Prover-V1.5-RL 7.6%。我们发现,Goedel-Prover-SFT 的 Pass@32 甚至比 DeepSeek-Prover-V1.5-RL 的 Pass@3200 高出 2.7%。此外,当两者都以 Pass@3200 评估时,我们的模型达到了 62.7%,超过了 DeepSeek-Prover-V1.5-RL 的 54.9%,高出 7.8%。图 1 展示了我们的 Goedel-Prover-SFT、DeepSeek-Prover-V1.5-RL 和 DeepSeek-Prover-V1.5-SFT 的推理时间扩展曲线。Goedel-Prover-SFT 在所有推理计算预算下,都显著优于 DeepSeek-Prover-V1.5-RL 和 DeepSeek-Prover-V1.5-SFT。图 5 展示了我们的模型在每次迭代中的表现。总体而言,我们观察到在迭代过程中表现有相对一致的提升。

  • PutnamBench 表现:Goedel-Prover-SFT 在 PutnamBench 上解决了 644 个问题中的 7 个(Pass@512),在 PutnamBench 排行榜上位居第一。之前表现最好的方法是 ABEL(Gloeckle 等人提出),它以略高的推理预算(Pass@596)解决了 7 个问题,而 InternLM2.5-Step-Prover(Wu 等,2024)解决了 6 个(Pass@2×32×600)。表现总结在表 4 中。

  • ProofNet 表现:我们发现 ProofNet 上的表现与 miniF2F、Lean Workbook 和 NuminaTest 的表现相关性非常低。具体来说,图 6 展示了模型在这四个数据集上的表现相关性。模型在 NuminaTest、miniF2F 和 Lean Workbook 上的表现呈现出强烈的正相关性,而其在 ProofNet 上的表现与其他三个数据集的相关性显著较低。我们还观察到 ProofNet 的数据分布与其他三个数据集有显著差异。ProofNet 中的问题主要来自本科纯数学科目的教科书,涵盖实分析、复分析、线性代数、抽象代数和拓扑学等主题。这些问题在很大程度上依赖于 Mathlib4(mathlib4,2023)中数学定义的抽象和一般表述。其他数据集,例如 miniF2F,主要包含竞赛和奥林匹克风格的问题,这些问题需要复杂的推理,但只依赖于关于整数、实数、计数和几何的一组相对较小的基本事实。我们在表 5 中展示了两个例子,以说明 ProofNet 和 miniF2F 之间的风格差异。

在训练数据中包含 Mathlib4鉴于 Mathlib4 与 ProofNet 之间的紧密联系,我们按照 Xin 等(2024b)和 Wang 等(2024)的方法,研究了将 Mathlib4 包含在训练数据集中的影响。我们在表 6 中的结果表明,虽然添加 Mathlib4 提高了模型在 ProofNet 上的表现,但同时也导致了 miniF2F 表现的下降。具体来说,我们在第六次迭代期间分析了将 Mathlib4 纳入训练集的影响,第五次迭代生成的证明被称为“Iter-5 证明”。我们观察到,包含 Mathlib4 使 ProofNet 的表现从 13.3% 提升到 15.6%,但导致 miniF2F 的表现从 56.6% 下降到 54.1%,以及 NuminaTest 的表现从 59.2% 下降到 58.8%。从第六次迭代开始,我们继续将 Mathlib4 包含在训练数据集中,这与 DeepSeek-Prover-V1.5-RL(Xin 等,2024b)和 TheoremLamma(Wang 等,2024)保持一致。更多细节可以在附录 A 中找到。

在 Lean Workbook 中找到的证明Lean Workbook(包括 Lean Workbook-plus,Ying 等,2024a;Wu 等,2024)形式化了 140K 条来自 AOPS 和 Compfiles 数据的高质量问题。目前,Lean Workbook 中只有 15.7K 条陈述的证明被 InternLM2.5-StepProver(Wu 等,2024)和 InternLM-Math-Plus(Ying 等,2024b)找到并开源。相比之下,我们的模型在 Lean Workbook 中发现了一个更庞大的证明集合,累计解决了 29.7K 个问题。图 1(右)展示了我们的模型和先前工作找到的证明数量的对比。我们开源了我们的模型找到的所有证明,以造福研究社区。

两种形式化器的消融研究在第 3.1 节中,我们讨论了陈述形式化的风格会影响证明器的性能。因此,我们提出使用两个在不同数据源上训练的形式化器来生成陈述。在本节中,我们将仅使用一种陈述风格(仅使用一个形式化器)训练的证明器与使用两种风格(利用形式化器 A 和 B 的陈述)训练的证明器进行了比较。我们通过在第 8 次迭代中使用 iter-7 证明器收集的带有证明的陈述来训练证明器,并在表 7 中展示了结果。研究结果表明,使用两个形式化器可以带来性能的提升。


5 讨论

我们深入探讨了 Goedel-Prover-SFT 生成的证明的特征,并讨论了潜在的改进方向,特别是在模型采用的证明风格、搜索以及在线互动在证明生成中的作用,以及外部符号计算工具(如 SymPy)的整合方面。

证明风格我们观察到 Goedel-Prover-SFT 提供的证明通常依赖于高级策略,如 nlinarith、simp all 和 norm num 等。这些高级策略在内部处理多个推理步骤,将中间步骤的解决委托给其内置的自动化功能。例如,nlinarith 策略可以自动解决某些线性和非线性等式和不等式。图 9 展示了我们的证明器生成的一个典型证明。前几步仅涉及对原始问题的微小转换,而最后一行使用 nlinarith 立即达到目标。这种证明风格是否足以应对复杂推理仍然是一个重要的探索领域。

搜索和在线互动目前,Goedel-Prover-SFT 一次性生成整个问题的证明,而不会接收进一步的反馈。尽管我们当前的方法在计算方面具有吸引力,但在未来的工作中引入搜索和互动可能会提升性能。例如,一旦我们的证明器生成了一个策略,它可以与 Lean 编译器互动,以接收应用该策略后目标如何变化的反馈。然后可以利用这些信息生成下一个策略,潜在地改进整体证明策略(Wu 等,2024)。

SymPy未来的研究可能会致力于利用其他软件包来增强 Lean 的能力。例如,Lean 的 ring 策略可以通过应用分配律、结合律和交换律等公理来处理代数简化。然而,对于超越交换环的非代数变换(如对数和三角函数)和其他高级简化,需要组合多种策略。我们探索了使用基于 Python 的计算机代数系统 SymPy(Meurer 等,2017)来简化定理陈述中的复杂表达式,并将简化后的形式输入证明器。具体来说,我们在 Lean 定理陈述的目标中解析形式为 A = B 的方程,构建 SymPy 表达式 A - B,然后在 Lean 中应用简化方法。这一过程通过将陈述简化为 0 = 0,直接解决了 miniF2F 的 9.4% 的问题。此外,它还解决了 miniF2F 中 0.8% 的问题,这些问题在 Goedel-Prover-SFT 使用 Pass@32 时未解决,但并未改善 Goedel-Prover-SFT 使用 Pass@3200 的表现。因此,SymPy 简化并未包含在我们报告的任何结果中。然而,我们认为这些程序需要进一步探索。

原文链接:https://arxiv.org/abs/2502.07640

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
什么暴雨不花妆,纯属营销噱头,看看玲花就知道多假!

什么暴雨不花妆,纯属营销噱头,看看玲花就知道多假!

小光侃娱乐
2026-04-04 11:50:07
丧心病狂!邯郸中学校长性侵15岁女生,拿20万封口,势力大也没用

丧心病狂!邯郸中学校长性侵15岁女生,拿20万封口,势力大也没用

观察鉴娱
2026-04-02 10:26:05
杨丽萍“专属男舞伴”坠楼自杀,跳得果决,和杨丽萍关系非同一般

杨丽萍“专属男舞伴”坠楼自杀,跳得果决,和杨丽萍关系非同一般

一盅情怀
2026-04-03 07:49:11
巴铁紧急求援,歼35提前入巴,战略储备见底,中国要拉一把?

巴铁紧急求援,歼35提前入巴,战略储备见底,中国要拉一把?

音乐时光的娱乐
2026-04-05 00:42:02
被曝生下畸形儿传闻后,这一次,崩溃大哭的阚清子,终究是梦醒了

被曝生下畸形儿传闻后,这一次,崩溃大哭的阚清子,终究是梦醒了

生性洒脱
2026-04-04 14:20:37
连烧30小时!百亿航母成废铁?5700官兵被扣押,福建舰成全球焦点

连烧30小时!百亿航母成废铁?5700官兵被扣押,福建舰成全球焦点

小曙说娱
2026-04-03 01:57:33
教师大势已定:如若无意外的话,2026年中国教师队伍将迎来3变化

教师大势已定:如若无意外的话,2026年中国教师队伍将迎来3变化

墨印斋
2026-04-05 00:44:20
400万架无人机:乌克兰用平民智慧,把战争打成数字游戏

400万架无人机:乌克兰用平民智慧,把战争打成数字游戏

老马拉车莫少装
2026-03-30 17:01:31
有人竟然天真以为川普真会无果而撤,他快开始控制伊朗和中东能源

有人竟然天真以为川普真会无果而撤,他快开始控制伊朗和中东能源

邵旭峰域
2026-04-04 11:37:16
在接吻时 中年女人有下面举动,就是动情了,不只是玩一玩。

在接吻时 中年女人有下面举动,就是动情了,不只是玩一玩。

大熊欢乐坊
2026-04-05 02:12:08
回加拿大生活的大山,60岁须发皆白很沧桑,重庆妻子仍风韵犹存

回加拿大生活的大山,60岁须发皆白很沧桑,重庆妻子仍风韵犹存

素衣读史
2026-03-31 15:11:31
网友称猫咪被卡自动猫砂盆约12小时死亡 品牌方:已成立专项小组,后续将抽检同款库存

网友称猫咪被卡自动猫砂盆约12小时死亡 品牌方:已成立专项小组,后续将抽检同款库存

红星新闻
2026-04-03 17:38:24
日本导弹已就位,俄罗斯宣布战犯名单,马克龙为高市早苗送上支持

日本导弹已就位,俄罗斯宣布战犯名单,马克龙为高市早苗送上支持

闻香阁
2026-04-03 21:07:56
2020年女子当众扇儿子耳光,儿子直接跳楼,如今女子已自杀身亡

2020年女子当众扇儿子耳光,儿子直接跳楼,如今女子已自杀身亡

观察鉴娱
2026-03-18 09:09:10
我自驾西藏,遇徒步女大学生搭车,同行3天后,才知自己躲过一劫

我自驾西藏,遇徒步女大学生搭车,同行3天后,才知自己躲过一劫

千秋文化
2026-03-09 20:53:50
王毅外长给这场战争定了性,中国不可能给美国买单

王毅外长给这场战争定了性,中国不可能给美国买单

兰妮搞笑分享
2026-04-03 20:03:35
“阿尔忒弥斯二号”登月宇航员分享地球湛蓝美景的首批照片

“阿尔忒弥斯二号”登月宇航员分享地球湛蓝美景的首批照片

三农老历
2026-04-04 14:33:59
法新社重磅爆料:安世中国摆脱荷兰控制,全流程国产即将实现!

法新社重磅爆料:安世中国摆脱荷兰控制,全流程国产即将实现!

EETOP半导体社区
2026-04-04 19:39:23
食盐被关注!181个国家研究:吃得越咸,寿命或越长?告诉你真相

食盐被关注!181个国家研究:吃得越咸,寿命或越长?告诉你真相

垚垚分享健康
2026-03-07 18:50:09
车臣部队马上进入伊朗?五角大楼震动了,海湾国家则全都不吭声了

车臣部队马上进入伊朗?五角大楼震动了,海湾国家则全都不吭声了

热点大放送
2026-04-05 02:04:50
2026-04-05 03:28:49
CreateAMind incentive-icons
CreateAMind
CreateAMind.agi.top
1325文章数 18关注度
往期回顾 全部

科技要闻

内存一年涨四倍!国产手机厂商集体涨价

头条要闻

伊朗发动第七轮导弹袭击 耶路撒冷拦截导弹升空

头条要闻

伊朗发动第七轮导弹袭击 耶路撒冷拦截导弹升空

体育要闻

刹不住的泰格·伍兹,口袋里的两粒药丸

娱乐要闻

Q女士反击,否认逼宋宁峰张婉婷离婚

财经要闻

中微董事长,给半导体泼点冷水

汽车要闻

17万级海豹07EV 不仅续航长还有9分钟满电的快乐

态度原创

家居
亲子
旅游
本地
公开课

家居要闻

温馨多元 爱的具象化

亲子要闻

我这个00后舅舅怎么这么会带娃

旅游要闻

樱邮联动!邮轮游客赴顾村公园赏樱,解锁“一票双享”新玩法

本地新闻

跟着歌声游安徽,听古村回响

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版