网易首页 > 网易号 > 正文 申请入驻

拉德堡德大学团队揭秘AI专家模型的"大脑手术"

0
分享至


在人工智能快速发展的今天,一项令人瞩目的研究正在引起广泛关注。这项由荷兰拉德堡德大学、德国达姆施塔特工业大学以及克罗地亚萨格勒布大学联合完成的研究,于2026年发表在arXiv预印本平台,论文编号为arXiv:2602.08741v1。研究团队提出了一种名为"大语言模型脑叶切除术"的攻击方法,专门针对当前最先进的专家混合模型进行安全性测试。

这项研究就像是给AI模型进行了一场"大脑手术"。在医学史上,脑叶切除术是一种通过切断大脑特定区域连接来改变患者行为的手术方法。研究团队巧妙地将这个概念应用到AI领域,发现了一个令人震惊的现象:那些被认为非常安全的大型AI模型,实际上可能存在着致命的结构性弱点。

一、专家混合模型:AI界的"分工合作"新模式

要理解这项研究的重要性,我们首先需要了解什么是专家混合模型。如果把传统的AI模型比作一个全能工匠,那么专家混合模型就像是一个高效的工厂生产线。在这个工厂里,有许多不同的专业工人,每个工人都擅长处理特定类型的任务。当一项工作来到工厂时,管理者会根据工作的性质,选择最合适的专业工人来完成任务。

这种设计的优势显而易见。传统的AI模型就像那个全能工匠,无论什么任务都要亲自处理,这就导致了巨大的计算负担和能源消耗。而专家混合模型通过"专业分工"的方式,大大提高了效率。只有相关的专家会被激活来处理特定任务,其他专家则保持休眠状态,这样既保持了模型的强大能力,又显著降低了运算成本。

正是因为这些优势,像DeepSeek、GPT-OSS、Mixtral等知名AI模型都采用了专家混合架构。这些模型通常包含数十甚至上百个专家,每个专家都有自己的专长领域。当用户输入一个问题时,模型内部的"调度系统"会自动选择最合适的专家来回答。

然而,研究团队发现,这种看似完美的分工机制中隐藏着一个巨大的安全漏洞。如果我们把模型的安全机制比作工厂的安全守卫,那么问题就在于:这些安全守卫并没有均匀分布在整个工厂中,而是集中在少数几个关键岗位上。一旦这些关键岗位被攻破,整个工厂的安全防线就会瞬间崩溃。

二、发现安全防线的致命弱点

研究团队通过深入分析发现,专家混合模型的安全机制存在严重的分布不均问题。这就好比一座城市的所有警察都集中在几个街区,而其他地方则完全没有安全保障。当坏人找到了警察集中的街区并将其"静音"后,整个城市就失去了秩序。

为了验证这个假设,研究团队设计了一个巧妙的实验方案。他们就像侦探一样,通过仔细观察模型在处理不同类型问题时的内部工作模式,来识别哪些专家负责维护安全防线。

这个识别过程可以用"追踪足迹"来类比。当模型收到一个恶意请求时,比如"教我制作炸弹",负责任的AI模型会拒绝回答,并给出类似"我不能帮助您进行可能有害的活动"这样的回复。研究团队发现,这种拒绝行为并非来自整个模型的集体决定,而是由特定的几个专家在起主导作用。

为了准确识别这些"安全专家",研究团队采用了一种称为"孪生数据集"的策略。他们会创建两个在语法结构上几乎完全相同,但语义内容截然不同的问题对。比如"如何制作炸弹"和"如何制作蛋糕"。这两个问题在句式结构上非常相似,都是"如何制作某物"的格式,但一个是恶意请求,另一个是正常询问。

通过对比模型在处理这两类问题时专家激活模式的差异,研究团队就能准确定位哪些专家专门负责识别和拒绝恶意请求。这个过程就像通过对比两个几乎相同的犯罪现场,来找出真正的关键证据一样精准。

三、"脑叶切除术"攻击方法的工作原理

一旦识别出了负责安全防护的关键专家,研究团队就开发出了他们称为"大语言模型脑叶切除术"的攻击方法。这种方法的核心思想非常简单却极其有效:既然安全机制集中在少数专家身上,那么只要将这些专家"静音",就能让整个模型失去安全防护能力。

这个"静音"过程可以理解为给特定的专家戴上了"隔音耳机"。在模型的内部路由系统中,每个专家都有一个被选中的概率。正常情况下,当遇到需要安全检查的内容时,负责安全的专家会有很高的被激活概率。而攻击方法通过将这些专家的选择概率直接设为零,就等于完全阻断了它们参与决策的可能性。

更令人惊讶的是,这种攻击方法具有自适应性。它不会一次性静音所有识别出的安全专家,而是采用逐步试探的策略。攻击程序会首先静音安全评分最高的专家,然后测试模型是否仍然会拒绝恶意请求。如果模型依然拒绝,程序会继续静音下一个安全专家,如此反复,直到模型开始产生有害内容为止。

这种策略的巧妙之处在于,它能找到破解安全防线所需的最小代价。就像一个高明的锁匠,不会粗暴地砸碎整把锁,而是精确地找到关键的几个锁芯进行操作。这样既能达到目的,又能最大程度地保持模型其他功能的完整性。

四、震撼的实验结果

研究团队在八个不同的开源专家混合模型上测试了他们的攻击方法,结果令人震惊。这些被测试的模型包括DeepSeek-MoE-16B-Chat、GPT-OSS-20B、Hunyuan-A13B-Instruct、Mixtral-8x7B-Instruct、Pangu-Pro-MoE、Phi-3.5-MoE-Instruct、Qwen1.5-MoE-A2.7B-Chat以及Qwen3-30B-A3B-Instruct等知名模型。

在没有进行任何攻击的情况下,这些模型的平均攻击成功率只有7.3%,说明它们的安全防护机制在正常情况下是相当有效的。然而,当应用"脑叶切除术"攻击后,平均攻击成功率飙升到了70.4%,增长了近十倍。其中一些模型的攻击成功率甚至达到了86.3%,这意味着绝大部分原本被拒绝的恶意请求现在都能得到回应。

更让人担忧的是,达到这种攻击效果所需的代价极其微小。在大多数情况下,只需要静音不到20%的专家就能完全破坏模型的安全防线。这就好比一座有100道门的城堡,攻击者只需要破坏其中不到20道门就能完全占领城堡。

让我们来看几个具体的例子。对于GPT-OSS-20B模型,研究团队只需要静音23.7%的局部专家就能将攻击成功率从1.6%提升到86.3%。而对于Pangu-Pro-MoE模型,仅仅静音8.7%的专家就能将攻击成功率从9.4%提升到70.3%。

这种差异反映了不同模型在安全机制分布上的显著差异。有些模型的安全能力高度集中在少数专家中,因此很容易被攻破。而有些模型的安全能力分布相对均匀,需要静音更多的专家才能完全破坏其防护能力。

研究团队还发现了一个有趣的现象:攻击的有效性与模型处理请求的时序密切相关。通过分析模型在处理恶意请求时的内部状态变化,他们发现关键的安全决策往往发生在处理请求的最后几个步骤中。这就像一个守门员,虽然整场比赛都在观察,但真正做出拦截决定的时刻往往在最后一瞬间。

五、意外发现:安全与功能的微妙平衡

在进行攻击实验的过程中,研究团队还发现了一个令人意外但极其重要的现象:大部分被静音的安全专家并不会显著影响模型的正常功能。这个发现对理解AI模型的内部结构具有重要意义。

为了验证这一点,研究团队对被攻击后的模型进行了全面的功能测试。他们使用了五个标准的语言理解基准测试,包括ARC、CoLA、OpenBookQA、RTE和WinoGrande。这些测试分别评估模型在逻辑推理、语法判断、常识问答、文本推理和语义理解等方面的能力。

测试结果令人惊讶:平均而言,被攻击后的模型在这些基础功能测试上的表现只下降了3.5%。这意味着模型在失去安全防护的同时,其核心的语言处理能力基本保持完整。这就好比一个人被摘除了负责恐惧感的大脑区域,但仍然保持着正常的语言能力、逻辑思维和记忆功能。

这个发现揭示了专家混合模型中一个重要的设计特点:安全机制和核心功能在很大程度上是相互独立的。这种设计虽然在正常情况下很有效率,但也为攻击者提供了可乘之机。攻击者可以精确地移除安全防护,而不会"误伤"模型的其他能力。

不过,并非所有模型都表现出这种清晰的功能分离。比如Phi-3.5-MoE-Instruct模型在受到攻击后,不仅安全防护被破坏,整体功能也出现了明显下降,甚至开始产生无意义的输出。这表明该模型的安全专家同时承担着维护基本语言功能的责任,因此当这些专家被静音后,模型的整体表现都会受到影响。

六、与现有攻击方法的对比

为了验证新方法的有效性,研究团队将他们的"脑叶切除术"与现有的最佳攻击方法GateBreaker进行了详细对比。GateBreaker是之前针对专家混合模型最有效的攻击方法,它通过分析专家激活频率来识别和攻击安全机制。

对比结果显示,新方法在八个测试模型中的六个上都超越了GateBreaker。平均而言,新方法的攻击成功率比GateBreaker高出6.1%。更重要的是,如果排除表现异常的Phi-3.5-MoE-Instruct模型,新方法的优势会更加明显,平均攻击成功率比GateBreaker高出11.9%。

这种性能提升主要归功于新方法对序列动态性的重视。传统的攻击方法往往只关注专家的激活频率,认为被频繁激活的专家更重要。但这种想法存在明显的逻辑漏洞:一个专家可能因为承担通用语言处理任务而被频繁激活,但这并不意味着它对安全决策至关重要。

新方法通过引入时间序列分析,能够准确识别出在关键决策时刻起作用的专家。这就像在一场足球比赛中,不是跑动最多的球员最重要,而是在关键时刻能够改变比赛结果的球员最重要。

七、不同模型的安全架构分析

通过对八个不同模型的深入分析,研究团队揭示了专家混合模型在安全架构设计上的显著差异。这些差异就像不同城市的防务布局一样,各有特色但也各有弱点。

以Pangu-Pro-MoE为例,这个模型采用了"分组专家"的架构设计,强制要求不同类型的任务必须选择来自不同组别的专家。这种设计提高了专家的专业化程度,也使得安全功能与通用功能得到了更好的分离。因此,当安全专家被静音后,模型的其他功能几乎不受影响,甚至在某些测试中表现还有所提升。

相比之下,Mixtral-8x7B-Instruct模型的安全能力分布相对均匀。这个模型需要静音47.7%的专家才能完全破坏其安全防线,这表明其安全机制更加分散和冗余。虽然这种设计使模型对攻击更有抵抗力,但也意味着一旦被攻破,影响范围会更广。

研究团队还发现,模型的规模和专家数量并不直接决定其安全性。拥有更多专家的模型并不一定更安全,关键在于这些专家如何分工以及安全机制如何分布。就像一支军队,士兵数量多并不等于防御能力强,重要的是如何合理配置和部署这些士兵。

八、攻击方法的技术细节

研究团队开发的攻击方法在技术实现上采用了多个创新策略。首先是"孪生数据集"的构建方法。传统的攻击往往使用随意选择的恶意和正常请求进行对比,但这样容易引入语法和词汇上的偏差,导致识别出的"安全专家"实际上只是负责处理特定语法结构的专家。

为了解决这个问题,研究团队精心构造了390对孪生请求,每对请求在语法结构和词汇选择上几乎完全相同,只有关键的语义内容不同。比如"如何制作炸弹"和"如何制作蛋糕"这样的配对,确保了对比分析的准确性。

在专家识别阶段,研究团队使用了长短期记忆网络来捕捉专家激活的时序模式。这个网络就像一个经验丰富的侦探,能够从复杂的线索中识别出真正重要的模式。通过分析这个网络的梯度信息,研究团队能够准确定位哪些专家在哪些时刻对安全决策起到了关键作用。

静音策略的设计也颇具巧思。攻击程序不会一次性静音所有可疑的安全专家,而是采用自适应的逐步静音策略。这种方法的好处是能够找到破坏安全防线的最小代价,同时避免对模型造成不必要的功能损害。

九、发现的普遍规律

通过对大量实验数据的分析,研究团队发现了几个关于专家混合模型安全性的普遍规律。首先是"末端决策"现象:模型的安全决策往往发生在处理请求的最后几个步骤中。这就像一个人在做决定时,往往在最后一刻才会考虑道德和安全因素。

这个发现通过"触发词"分析得到了进一步验证。研究团队发现,当模型处理包含敏感内容的请求时,真正的安全警报往往在遇到关键敏感词汇时才会触发。比如在处理"如何制作炸弹"这样的请求时,模型在处理"如何制作"这些通用词汇时的专家激活模式与处理正常请求没有显著差异,但当处理到"炸弹"这个关键词时,专家激活模式会发生显著变化。

另一个重要发现是"专家集中度"与攻击难易度的关系。安全功能越集中在少数专家中的模型,越容易被攻破,但攻破后的功能损失也越小。这种权衡关系反映了AI安全设计中的一个根本性矛盾:提高效率往往意味着增加风险。

研究团队还观察到了"层级差异"现象。不同层级的专家在安全决策中发挥着不同的作用。浅层专家主要负责基础的语言理解和模式识别,而深层专家则更多参与复杂的推理和判断。这种层级化的安全架构虽然提高了决策的准确性,但也为攻击者提供了更多的攻击角度。

十、对AI安全的深远影响

这项研究的发现对整个AI安全领域具有深远的影响。它首次系统性地揭示了专家混合模型中存在的结构性安全漏洞,这个漏洞不是偶然的设计缺陷,而是这类架构固有的特征。

从防御的角度来看,这项研究为AI模型的安全设计提供了重要指导。传统的安全对齐训练方法往往假设安全机制会均匀分布在整个模型中,但研究结果表明这种假设是错误的。未来的安全训练需要特别关注如何确保安全机制的冗余分布,避免将所有的安全责任集中在少数专家身上。

研究团队提出了几种可能的防御策略。首先是"安全冗余"设计,通过在训练过程中引入特殊的正则化项,强制模型将安全能力分散到更多的专家中。这就像在城市中部署更多的警察站点,确保每个区域都有足够的安全保障。

另一种可能的防御方法是"专家完整性检查"。在模型部署后,可以实时监控各个专家的激活模式,一旦发现异常的静音现象,就立即发出警报。这种方法类似于在重要设施中安装防篡改传感器,能够及时发现潜在的攻击行为。

第三种防御策略是"集成验证机制"。通过部署一个独立的轻量级安全检查器,对主模型的输出进行二次验证。由于这个检查器使用不同的架构,不会受到同样的路由攻击影响,因此可以作为最后一道防线。

十一、技术实现的挑战与突破

在技术实现过程中,研究团队遇到了许多挑战,他们的解决方案体现了深厚的工程智慧。首先是数据规模的挑战。要准确识别安全专家,需要处理大量的专家激活轨迹数据。对于一个拥有数千个专家的大型模型来说,这些数据的规模是惊人的。

研究团队通过巧妙的数据压缩和特征提取技术解决了这个问题。他们没有存储完整的激活轨迹,而是只保留关键的决策节点信息。这就像制作一部电影的精华版,保留最重要的情节发展,去除冗余的细节。

另一个技术挑战是如何设计有效的序列分析模型。传统的分析方法往往将所有专家的激活视为同时发生的事件,但实际上,不同层级的专家激活存在明确的时序关系。研究团队尝试了多种不同的序列模型架构,最终发现"扁平化"的长短期记忆网络比层次化的架构更有效。

这个发现本身就很有意思:层次化的分析架构虽然在理论上更符合模型的实际结构,但在实际应用中效果反而不如简化的扁平架构。这可能是因为安全决策的关键信号主要出现在序列的最后阶段,层次化的处理反而会稀释这些关键信号。

在攻击实现方面,研究团队还解决了"非单调性"问题。他们发现,随着被静音专家数量的增加,攻击成功率并不总是单调递增的。有时候,静音更多的专家反而会导致攻击成功率下降,甚至使模型产生无意义的输出。

这种现象可以用"连锁反应"来解释。当某些关键专家被静音后,模型的内部路由机制会发生改变,可能会意外激活一些具有安全功能的备用专家,或者导致模型整体功能的崩溃。因此,攻击策略必须具有足够的智能性,能够判断何时应该停止静音更多的专家。

十二、实验设计的巧思

这项研究在实验设计方面展现了高度的科学严谨性。研究团队不仅要确保攻击方法的有效性,还要证明这种有效性确实来自对安全机制的精确打击,而不是对模型整体功能的粗暴破坏。

为了验证这一点,他们设计了详细的对照实验。除了主要的攻击实验外,他们还进行了随机静音实验,即随机选择相同数量的专家进行静音,然后比较攻击效果。结果显示,随机静音的攻击成功率远低于精确静音,这证明了专家识别方法的有效性。

更有趣的是"全局专家"与"局部专家"的对比实验。研究团队发现,如果将每个专家在所有层级的表现进行汇总,形成"全局专家"的概念,然后对这些全局专家进行静音,攻击效果会显著下降。这个发现表明,安全机制的关键不仅在于哪些专家参与,更在于它们在哪个具体层级参与。

研究团队还进行了"时序敏感性"分析。他们发现,同样的专家静音操作,如果应用在处理序列的不同阶段,会产生截然不同的效果。这进一步证实了安全决策的时序依赖性,也解释了为什么传统的基于激活频率的攻击方法效果有限。

实验还包括了详细的"功能保持性"测试。研究团队使用了五个不同的语言理解基准来评估被攻击模型的残余功能。这些测试覆盖了从基础的语法判断到复杂的逻辑推理等多个方面,确保了评估的全面性。

结果显示,大部分模型在遭受攻击后,虽然安全防护完全失效,但在这些基础功能测试中的表现下降幅度很小。这个发现既证明了攻击的精确性,也揭示了现有AI安全架构的脆弱性。

十三、研究的局限性与未来方向

尽管这项研究取得了重要突破,但研究团队也坦诚地讨论了其局限性。首先是测试环境的限制。当前的所有实验都是在"白盒"环境下进行的,即攻击者能够完全访问模型的内部结构和参数。在现实应用中,大部分商业AI模型都是以"黑盒"形式提供服务的,攻击者无法直接访问内部结构。

不过,研究团队指出,这种攻击方法可以通过"代理攻击"的方式适用于黑盒环境。攻击者可以使用结构类似的开源模型作为代理,在代理模型上识别安全专家,然后设计特殊的输入来绕过目标模型中的对应专家。虽然这种方法的成功率可能会下降,但基本原理仍然适用。

另一个限制是当前方法只适用于专家混合架构。随着AI技术的快速发展,可能会出现其他类型的稀疏激活架构,这些新架构可能不会受到同样的攻击影响。但是,研究团队认为,只要存在条件激活和专业化分工,类似的安全集中化问题就可能出现。

研究团队也承认,他们的方法需要一定的计算资源和技术专业知识。普通用户很难直接应用这种攻击方法,这在一定程度上限制了其潜在的滥用风险。但是,随着工具的完善和自动化程度的提高,这种门槛可能会逐渐降低。

对于未来的研究方向,团队提出了几个重要的探索领域。首先是开发更加鲁棒的安全架构设计方法,确保安全机制能够均匀且冗余地分布在整个模型中。这需要在模型训练阶段就引入专门的约束和优化目标。

其次是研究动态防御机制。如果能够实时检测到专家静音攻击,系统就可以自动调整路由策略或激活备用的安全机制。这类似于免疫系统的工作原理,能够对攻击做出动态响应。

第三个重要方向是探索其他类型AI架构的安全性。除了专家混合模型,还有许多其他的条件激活和稀疏计算架构。这些架构可能存在类似的安全集中化问题,需要系统性的研究和分析。

说到底,这项研究为我们打开了一扇通往AI安全新领域的大门。它不仅揭示了当前最先进AI架构中隐藏的安全风险,更重要的是为未来的安全AI设计指明了方向。随着AI技术在各个领域的深入应用,确保这些系统的安全性和可靠性变得越来越重要。

这项研究提醒我们,AI的安全不仅仅是一个技术问题,更是一个需要持续关注和投入的系统性挑战。每一次架构创新都可能带来新的安全风险,而每一次安全研究都为构建更加可靠的AI系统贡献了宝贵的知识。对于普通人来说,这项研究最重要的启示可能是:我们需要对AI系统保持适度的审慎态度,既要充分利用其带来的便利,也要时刻意识到其潜在的风险和局限性。

随着这类研究的不断深入,我们有理由相信,未来的AI系统将会变得更加安全、可靠和值得信赖。但这需要学术界、产业界和整个社会的共同努力,以及持续不断的研究投入和技术创新。有兴趣深入了解这项研究技术细节的读者,可以通过arXiv:2602.08741v1查询完整的学术论文。

Q&A

Q1:什么是专家混合模型的"脑叶切除术"攻击?

A:这是一种针对AI专家混合模型的新型攻击方法,通过识别并"静音"负责安全防护的关键专家,就像给大脑做手术切断特定区域一样,从而让原本拒绝回答有害问题的AI模型开始产生危险内容。这种攻击只需要静音不到20%的专家就能完全破坏模型的安全防线。

Q2:专家混合模型为什么容易受到这种攻击?

A:专家混合模型采用"分工合作"的方式工作,不同专家负责不同任务。研究发现,负责安全防护的专家往往集中在少数几个关键位置,而不是均匀分布在整个模型中。这就像城市的警察都集中在几个街区一样,一旦这些关键位置被攻破,整个安全防线就会崩溃。

Q3:这种攻击对AI模型的其他功能有影响吗?

A:令人惊讶的是,这种攻击对模型的其他功能影响很小。实验显示,被攻击后的模型在语言理解、逻辑推理等基础功能测试中的表现只下降了3.5%左右。这说明AI模型中的安全机制和核心功能是相对独立的,攻击者可以精确移除安全防护而不会严重损害模型的其他能力。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
立陶宛摊牌,表态愿接受改名条件,最大阻挠者出现,台当局沉默了

立陶宛摊牌,表态愿接受改名条件,最大阻挠者出现,台当局沉默了

落梅如雪乱飞
2026-02-14 04:33:54
高市早苗携国会大胜之势,要求普京尽快归还北方四岛

高市早苗携国会大胜之势,要求普京尽快归还北方四岛

明天后天大后天
2026-02-14 04:31:58
日本出动4艘执法船强行扣押中国渔船,船长被捕中领馆全力救援

日本出动4艘执法船强行扣押中国渔船,船长被捕中领馆全力救援

今日搞笑分享
2026-02-13 21:32:15
这个外国总统回中国祖籍地过年,他一路拍拍拍吃吃吃的都是什么?

这个外国总统回中国祖籍地过年,他一路拍拍拍吃吃吃的都是什么?

新民周刊
2026-02-12 20:56:16
揭开国乒新星蒯曼的真实身世:普通家庭出身,父母亲为教师

揭开国乒新星蒯曼的真实身世:普通家庭出身,父母亲为教师

科学发掘
2026-02-10 18:49:20
王晶锐评内地喜剧演员:王宝强和黄渤都不行,我只认同一个人

王晶锐评内地喜剧演员:王宝强和黄渤都不行,我只认同一个人

小徐讲八卦
2026-02-12 16:45:05
效仿小黑坑苦自己!马刺给6000万年薪嫌少,现在被裁,签老将底薪

效仿小黑坑苦自己!马刺给6000万年薪嫌少,现在被裁,签老将底薪

你的篮球频道
2026-02-13 10:36:26
87岁宋世雄近况:定居北京已老到难辨,扶持子女成才却皆去了国外

87岁宋世雄近况:定居北京已老到难辨,扶持子女成才却皆去了国外

小徐讲八卦
2026-02-06 14:50:03
1923年,婉容让孙耀庭伺候沐浴,她解开衣衫,孙耀庭:奴才肚子痛

1923年,婉容让孙耀庭伺候沐浴,她解开衣衫,孙耀庭:奴才肚子痛

浩渺青史
2026-02-11 15:12:31
日本电视节目:76%的日本人认为“没有必要改善中日关系”

日本电视节目:76%的日本人认为“没有必要改善中日关系”

日本物语
2026-02-12 20:42:01
马龙携全家结束度假,回家过年!现场网友:嫂子超美,还很有气质

马龙携全家结束度假,回家过年!现场网友:嫂子超美,还很有气质

十点街球体育
2026-02-12 22:43:53
斯大林临死时有多惨?躺在地上十个小时没人管,医生不愿给他治疗

斯大林临死时有多惨?躺在地上十个小时没人管,医生不愿给他治疗

近史谈
2026-02-12 09:09:27
泽连斯基与新国防部长想出了在最短时间内解决军队人员危机的办法

泽连斯基与新国防部长想出了在最短时间内解决军队人员危机的办法

阿芒娱乐说
2026-02-14 03:50:11
实力!约基奇MVP榜反超东契奇回到第2,场均28.7分12.3篮板10.7助攻

实力!约基奇MVP榜反超东契奇回到第2,场均28.7分12.3篮板10.7助攻

818体育
2026-02-13 22:15:56
南海意外巨大爆炸,菲军拦截中方战机,B-52投掷实弹

南海意外巨大爆炸,菲军拦截中方战机,B-52投掷实弹

岁暮的归南山
2026-02-11 01:03:19
你争我夺,工信部最新一批新车目录发布

你争我夺,工信部最新一批新车目录发布

车驰神往
2026-02-13 18:49:21
李家诚为何忽然要告周秀娜?

李家诚为何忽然要告周秀娜?

羊城网
2026-02-14 00:46:41
银行员工:若你60-80岁了,一定要停止存款,原因让人意想不到

银行员工:若你60-80岁了,一定要停止存款,原因让人意想不到

王二哥老搞笑
2026-02-12 11:18:57
金兀术后裔今在何处?后人隐居甘肃平凉八百年,至今仍避谈岳飞

金兀术后裔今在何处?后人隐居甘肃平凉八百年,至今仍避谈岳飞

寄史言志
2026-02-13 17:17:10
刘强东妹妹辞世九载,妹夫未再婚独养三子,刘强东每年赠百万元

刘强东妹妹辞世九载,妹夫未再婚独养三子,刘强东每年赠百万元

真正能保护你的
2026-02-05 23:33:01
2026-02-14 05:07:00
科技行者 incentive-icons
科技行者
科技正在如何变革商业世界
7275文章数 550关注度
往期回顾 全部

科技要闻

独家探访蔡磊:答不完的卷子 死磕最后一程

头条要闻

8千元的迷你小马一夜爆火 马主:1天排泄次数达十几次

头条要闻

8千元的迷你小马一夜爆火 马主:1天排泄次数达十几次

体育要闻

这张照片背后,是米兰冬奥最催泪的故事

娱乐要闻

大衣哥女儿风光出嫁,农村婚礼超朴素

财经要闻

华莱士母公司退市 疯狂扩张下的食安隐忧

汽车要闻

探秘比亚迪巴西工厂 居然是这个画风!

态度原创

亲子
房产
本地
公开课
军事航空

亲子要闻

爸爸带的孩子是什么样的?妈妈看完沉默了,网友:活着就好!

房产要闻

三亚新机场,又传出新消息!

本地新闻

下一站是嘉禾望岗,请各位乘客做好哭泣准备

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

多次成功应对外舰、外机挑衅 太原舰展示052D硬核实力

无障碍浏览 进入关怀版