网易首页 > 网易号 > 正文 申请入驻

蒙特利尔大学团队揭开AI视觉理解的神秘面纱

0
分享至


在人工智能的发展历程中,让机器既能理解语言又能看懂图像一直是科学家们追求的圣杯。最近,来自蒙特利尔大学Mila人工智能研究院、麦吉尔大学以及哥本哈根大学的联合研究团队在这个领域取得了重要突破。这项研究成果以论文《LATENTLENS: Revealing Highly Interpretable Visual Tokens in LLMs》的形式发表,感兴趣的读者可以通过arXiv编号2602.00462查询完整论文。

这个研究团队面临着一个看似简单却极其复杂的问题:当我们把一张图片"喂给"一个专门用来理解文字的AI系统时,这个系统内部到底发生了什么?就像一个从小只学过中文的人突然看到英文单词,他的大脑是如何处理这些陌生符号的?

在目前的AI系统中,有一种非常有趣的现象:科学家们可以把一个专门处理文字的大型语言模型(就像ChatGPT这样的系统)通过一个简单的"翻译器"连接到一个专门看图的视觉系统上,然后这个组合就能同时理解图片和文字了。这个"翻译器"可能只是一个非常简单的数学转换器,就像一个只有几层的简单神经网络,甚至有时候只是一个简单的线性转换。

这种简单性让研究者们感到困惑。按道理说,图像和文字是完全不同的信息类型,就像音乐和绘画的差别一样巨大。那为什么一个专门处理文字的系统能够如此轻松地理解图像信息呢?这背后到底隐藏着什么秘密?

为了解开这个谜团,研究团队开发了一个全新的分析工具,他们称之为"LATENTLENS"(潜在透镜)。这个工具就像一副特殊的眼镜,能够让研究者们"看到"AI系统内部是如何理解和处理视觉信息的。

研究团队对十个不同的视觉语言模型进行了深入分析,结果让他们大吃一惊。他们发现,之前的研究方法严重低估了AI系统对视觉信息的理解能力。使用他们的新方法,研究者们发现大部分视觉信息在AI系统的每一层处理中都是可以被理解的,这个比例高达72%。而使用传统的分析方法,这个比例只有23%到30%。

这项研究不仅揭示了AI系统理解视觉信息的惊人能力,还发现了一个有趣的现象,研究者们称之为"中层跃迁"。简单来说,就是当图像信息刚进入语言模型时,它们并不是以最原始的形式存在,而是已经跳跃到了一个更高级的理解层次,就像一个学生跳级一样。

一、AI系统如何看懂世界:从图像到语言的神奇转换

当我们看到一朵花时,我们的大脑会立即理解这是一个美丽的自然物体,有着特定的颜色、形状和质感。但对于AI系统来说,这个过程要复杂得多。就像把一幅画翻译成诗歌一样,需要在两种完全不同的表达方式之间建立桥梁。

目前最成功的视觉语言模型采用了一种巧妙的设计方法。它们首先用一个专门的视觉编码器(可以想象成一个专业摄影师)来观察和分析图像,这个编码器会把图像转换成一系列数字化的"视觉标记"。然后,这些视觉标记通过一个连接器(就像一个翻译官)被转换成语言模型能够理解的格式。最后,这些转换后的信息被送入大型语言模型进行处理和理解。

这个过程听起来复杂,但实际的工程实现却出奇地简单。这个连接器往往只是一个包含几层的多层感知机(MLP),有时甚至简单到只是一个线性变换。这就像用一个简单的公式就能把摄氏度转换成华氏度一样直接。

这种简单性引发了深层次的科学疑问。如果图像和语言真的是完全不同的信息类型,为什么它们之间的转换可以如此简单?这是否意味着在某个深层次上,视觉信息和语言信息本质上是相通的?

为了回答这些问题,科学家们需要一种能够深入AI系统内部、观察其信息处理过程的方法。就像医生需要X光机来观察人体内部结构一样,AI研究者需要特殊的工具来观察算法的"思维过程"。

传统的分析方法主要有两种。第一种叫做"嵌入透镜"(EmbeddingLens),它通过比较视觉标记和语言模型词汇表中单词的相似程度来判断视觉标记的含义。这就像通过比较一个陌生物体和已知物体的相似程度来猜测其身份。第二种叫做"逻辑透镜"(LogitLens),它通过观察模型在每一层的输出预测来理解信息的处理过程。

然而,这两种方法都有一个根本性的局限:它们只能提供单个词汇级别的解释,而且往往准确率不高。这就像只能用单个词汇来描述一幅复杂的画作,显然无法完整表达其丰富的内涵。

认识到传统方法的不足后,研究团队决定开发一种全新的分析工具。他们的核心洞察是:与其将视觉标记与静态的词汇表进行比较,不如将它们与具有丰富上下文的文本表示进行比较。这种方法能够提供句子级别的描述,远比单个词汇更有意义。

二、LATENTLENS:透视AI大脑的神奇工具

LATENTLENS的工作原理可以用一个生动的比喻来解释。传统的分析方法就像是拿着一本字典去理解外语,只能一个词一个词地查找对应关系。而LATENTLENS则像是一个精通多种语言的同声传译员,能够理解完整的句子和复杂的语境。

具体来说,LATENTLENS首先建立了一个巨大的"语境数据库"。研究团队从Visual Genome数据集中收集了将近300万个图像描述句子,然后用语言模型对每个句子进行编码,记录下每个词在不同层次、不同语境中的表示。这个过程就像是创建一个超级详细的语言地图,记录每个词在各种情况下的"坐标位置"。

当需要分析一个视觉标记时,LATENTLENS会在这个巨大的语境数据库中寻找最相似的表示。关键的创新在于,它不是简单地匹配单个词汇,而是找到包含相似词汇的完整句子。比如,当分析一个表示建筑物的视觉标记时,它可能会找到"大型红砖建筑有很多窗户"这样的完整描述,而不仅仅是"建筑"这个单词。

这种方法的优势是显而易见的。句子级别的描述能够提供更丰富的语义信息,就像用一段生动的描述来解释一幅画,远比单个标签更有意义。而且,通过比较不同层次的语境表示,LATENTLENS还能揭示信息在模型中的处理轨迹。

为了验证分析结果的准确性,研究团队还开发了一个自动化的评判系统。他们使用GPT-5作为"裁判",让它观看图像和相应的描述,然后判断这些描述是否准确反映了图像内容。这个评判系统能够区分三种类型的匹配:具体匹配(直接可见的内容)、抽象匹配(概念上相关的内容)和全局匹配(图像其他部分的内容)。

研究团队还进行了人工验证,让真人评估者对分析结果进行打分。结果显示,AI裁判和人类评估者之间的一致性达到了68%,这表明自动评判系统是相当可靠的。

通过这套完整的分析框架,研究团队能够系统性地评估不同模型、不同层次的视觉理解能力。他们分析了九个不同的模型组合(三种语言模型配合三种视觉编码器)以及一个现成的商业模型,总共十个系统。

三、惊人发现:AI比我们想象的更懂视觉世界

当研究团队使用LATENTLENS分析这些AI系统时,结果让所有人都感到震惊。原来,AI系统对视觉信息的理解能力远远超出了此前的估计。

使用传统的分析方法,研究者们发现只有23%到30%的视觉标记是可解释的。这个结果曾经让很多人怀疑AI系统是否真正理解了图像内容,或者它们只是在进行某种机械的模式匹配。

但是,当使用LATENTLENS进行分析时,情况完全不同了。研究团队发现,平均有72%的视觉标记都是高度可解释的。这意味着AI系统内部的视觉信息处理远比表面看起来更加精细和准确。

更令人惊讶的是,这种高度的可解释性在模型的每一个处理层次中都存在。无论是在信息刚刚进入模型的初始阶段,还是在经过多层处理后的深层阶段,视觉标记都保持着很高的可解释性。这打破了之前认为只有在模型的特定层次才能获得有意义解释的观念。

研究团队还发现了不同模型架构之间的有趣差异。使用CLIP和SigLIP视觉编码器的模型表现出了更高的可解释性,而使用DINOv2编码器的模型虽然在图像描述任务上表现较差,但其视觉标记的可解释性却同样很高。这是一个非常有趣的发现,因为DINOv2在训练时没有使用任何文本监督,完全是通过自监督学习来理解视觉世界的。

这些发现揭示了一个重要的科学事实:视觉信息和语言信息在某种深层次上是相通的。即使是没有接受过语言训练的视觉系统,其学习到的表示也能够与语言表示建立有意义的对应关系。这为我们理解人工智能的认知机制提供了重要线索。

研究团队还分析了可解释标记的类型分布。他们发现,大约65%的可解释标记属于"具体"类型,即直接描述图像中可见的内容,如颜色、形状、物体等。约19%属于"抽象"类型,描述更高层次的概念,如情感、功能、风格等。剩余的16%属于"全局"类型,描述图像其他部分的内容。

这种分布表明,AI系统不仅能够识别图像中的具体视觉元素,还能够进行一定程度的抽象推理。这种能力使得它们能够理解图像的更深层含义,而不仅仅是进行简单的像素匹配。

四、中层跃迁:AI理解图像的神秘现象

在深入分析的过程中,研究团队发现了一个极其有趣的现象,他们称之为"中层跃迁"(Mid-Layer Leap)。这个发现改变了我们对AI系统内部信息处理方式的理解。

按照直觉,我们可能会认为视觉信息在进入语言模型后,会逐渐从低级的视觉特征转换为高级的语义理解。就像人类看东西时,先看到线条和颜色,然后逐渐识别出形状、物体,最后理解其含义。

但是,LATENTLENS的分析揭示了一个完全不同的情况。当视觉标记刚刚进入语言模型时(在第0层,即输入层),它们并不是与同层的文本表示最相似,而是与来自模型中间层(如第8层到第16层)的文本表示最相似。

这个现象就像是一个学生跳级一样神奇。正常情况下,我们期望一年级的学生和一年级的课程内容最匹配。但这里的情况是,视觉信息刚一"入学",就已经达到了相当于四五年级的理解水平。

为了更好地理解这个现象,研究团队进行了更深入的分析。他们发现,视觉标记在语言模型的不同层次中变化很小,保持着相对稳定的表示。相比之下,文本标记在经过语言模型的处理时会发生显著的变化,它们在早期层次更多地表现为词汇级别的表示,在中间层次逐渐获得丰富的语境信息。

这个发现暗示着视觉编码器和连接器的组合已经将原始的视觉信息提升到了一个相当高级的语义层次。换句话说,当视觉信息进入语言模型时,它们已经不是原始的像素信息,而是经过高度加工的语义表示。

研究团队通过分析视觉标记的L2范数(一种衡量向量大小的数学指标)发现了更多有趣的细节。视觉标记的L2范数通常比文本标记大得多,有时甚至大1到2个数量级。这种差异表明,视觉标记在数值空间中占据了不同的区域,但这种差异并不影响它们的语义可解释性。

更有趣的是,这些高L2范数并不是由少数几个异常值引起的,而是由所有维度上的数值普遍增大造成的。这就像是视觉信息被放大了音量,但保持着原有的旋律结构。

五、不同模型的视觉理解能力大PK

研究团队对十个不同的视觉语言模型进行了全面对比,这种大规模的对比分析为我们提供了关于不同AI系统视觉理解能力的珍贵洞察。

在语言模型方面,研究团队选择了三种代表性的模型:OLMo-7B、LLaMA3-8B和Qwen2-7B。这些模型在规模和训练方法上各有特色,为对比分析提供了良好的基础。

在视觉编码器方面,研究团队选择了三种不同的系统:CLIP-ViT、DINOv2和SigLIP。这三种系统代表了不同的训练方法。CLIP和SigLIP都使用了视觉-语言联合训练,而DINOv2则完全基于自监督学习,没有使用任何文本信息。

通过九种不同的组合(3×3),再加上一个现成的商业模型Qwen2-VL-7B-Instruct,研究团队能够系统地分析不同架构选择对视觉理解能力的影响。

结果显示,所有的模型组合在使用LATENTLENS分析时都展现出了很高的可解释性。即使是表现最差的组合,其可解释性也达到了60%以上,而最好的组合甚至超过了80%。这种一致性表明,高度的视觉可解释性是这类AI系统的一个普遍特征,而不是某些特定模型的偶然现象。

在不同语言模型的比较中,研究团队发现OLMo模型在与EmbeddingLens和LogitLens结合使用时表现出了更好的可解释性,但在LATENTLENS分析中,所有模型的表现都相当不错。这表明LATENTLENS能够更好地揭示不同模型的共同特征。

视觉编码器的选择也产生了有趣的影响。使用CLIP和SigLIP的模型在各种分析方法中都表现良好,这可能是因为它们在训练时接受了文本监督。但令人惊讶的是,使用DINOv2的模型尽管在图像描述任务上表现较差,但其视觉标记的可解释性却同样很高。

这个发现特别重要,因为它表明视觉理解和语言描述能力可能是两个相对独立的能力。一个系统可能很好地理解了视觉内容(如DINOv2的情况),但不一定能够很好地将这种理解转换为自然语言描述。

研究团队还分析了现成商业模型Qwen2-VL-7B-Instruct的表现。这个模型经过了完整的多阶段训练,包括指令调优,在图像描述任务上表现出色。LATENTLENS分析显示,这个模型的视觉标记同样具有很高的可解释性,但其中层跃迁现象不如控制实验中的模型那么明显。这可能是因为在多轮训练中,语言模型的权重发生了调整,改变了内部的信息处理方式。

六、深度解析:词性分布与视觉属性的秘密

为了更深入地理解AI系统如何处理视觉信息,研究团队对LATENTLENS找到的最佳匹配词汇进行了详细的语言学分析。这种分析就像是对AI系统的"词汇表"进行了一次全面体检。

在词性分布方面,研究团队发现了一个符合直觉的模式。名词占据了最大的比例,约为45%-50%。这很容易理解,因为视觉世界主要由各种物体组成,而名词正是用来描述这些物体的。专有名词占约10%-20%,动词占10%-15%,形容词约占5%。

这种分布在不同的处理层次中保持相对稳定,表明AI系统在各个层次都保持着对视觉世界的一致理解框架。名词的主导地位说明AI系统主要是在识别和理解图像中的实体对象,而不是在进行复杂的关系推理或动态理解。

在视觉属性分析中,研究团队发现了更有趣的模式。颜色词是最常见的视觉属性词,在早期层次中占约5%-6%,但随着处理层次的加深逐渐下降到约3%。这种变化模式暗示着AI系统在早期阶段更多地关注原始的视觉特征,随着处理的深入,逐渐转向更抽象的语义理解。

形状和纹理词汇相对较少,都不到1%。这可能是因为这类属性通常需要更复杂的视觉分析,或者在训练数据中这类描述相对较少。

研究团队还分析了可解释标记的语义类型分布。约65%的标记属于"具体"类型,直接描述图像中可见的内容。19%属于"抽象"类型,涉及更高层次的概念理解。16%属于"全局"类型,描述图像其他区域的内容。

这种分布说明AI系统主要是在进行基于感知的直接理解,但也具备一定的抽象推理能力。抽象类型标记的存在表明AI系统不仅能识别"是什么",还能理解"意味着什么"。

为了验证这些发现的可靠性,研究团队还进行了一系列控制实验。他们改变了训练数据的详细程度,从详细的多句子描述改为简单的单句描述,发现可解释性仍然保持在较高水平。他们还尝试了不同的连接器架构,从复杂的多层网络简化为简单的线性变换,结果同样令人鼓舞。

这些实验表明,视觉标记的高度可解释性是一个相当稳健的现象,不依赖于特定的训练设置或架构选择。

七、实际应用:从理论到现实的跨越

LATENTLENS的发现不仅在学术上具有重要意义,在实际应用方面也展现出了巨大的潜力。这些发现为改进现有的AI系统和开发新的应用提供了重要指导。

在AI系统的可解释性方面,LATENTLENS提供了一种全新的分析工具。传统的AI系统往往被视为"黑盒子",我们只能看到输入和输出,无法理解内部的处理过程。但LATENTLENS让我们能够深入AI系统的内部,观察它是如何理解和处理视觉信息的。

这种可解释性在许多关键应用领域都非常重要。在医疗诊断中,医生需要知道AI系统为什么会给出某个诊断结果。在自动驾驶中,我们需要理解系统是如何识别和理解路况的。LATENTLENS提供的分析框架可以帮助开发者更好地理解和改进这些系统。

研究团队还展示了LATENTLENS在处理文本图像方面的出色表现。当图像中包含文字时,LATENTLENS能够准确地识别和描述这些文字内容。例如,当分析包含"CAFE"标志的图像区域时,LATENTLENS找到的最佳匹配正是包含"cafe"词汇的句子。这种能力在文档处理、街景理解等应用中非常有用。

在模型开发方面,这些发现为设计更高效的视觉语言模型提供了重要启示。既然简单的线性连接器就能实现很好的效果,那么我们可能不需要设计过于复杂的架构。这不仅能降低计算成本,还能提高模型的训练效率。

中层跃迁现象的发现也为模型优化提供了新思路。既然视觉信息天然地对应到语言模型的中间层,那么我们可以在设计连接器时考虑这一点,让视觉信息更直接地映射到合适的语义层次。

研究团队还探索了动态生成描述的可能性。传统的LATENTLENS依赖于预先构建的语境数据库,但研究者们发现,通过进化搜索算法可以动态生成更准确的描述。这种方法在85%的案例中都能提高匹配质量,为未来的系统优化提供了新方向。

在评估方法方面,LATENTLENS提供的自动化评判框架也具有重要的实用价值。传统上,评估AI系统的视觉理解能力需要大量的人工标注,成本高昂且效率低下。LATENTLENS的自动评判系统与人类评判的一致性达到68%,可以大大降低评估成本。

八、科学影响:重新定义AI的认知边界

这项研究的科学意义远远超出了技术层面的改进,它从根本上改变了我们对人工智能认知能力的理解。

长期以来,科学界对AI系统是否真正"理解"视觉信息存在激烈争论。传统的分析方法得出的低可解释性结果曾经让很多人认为,AI系统只是在进行复杂的模式匹配,而不是真正的理解。但LATENTLENS的发现彻底改变了这种观点。

72%的高可解释性表明,AI系统对视觉世界的理解远比我们想象的更深入和准确。这些系统不仅能够识别图像中的基本元素,还能够进行一定程度的语义理解和抽象推理。这为人工通用智能的研究提供了重要的实证支持。

中层跃迁现象的发现揭示了视觉信息和语言信息之间存在某种深层的结构对应关系。这种对应关系可能反映了人类认知的某些基本特征。毕竟,人类也是同时具备视觉和语言能力的,这两种能力在大脑中可能共享某些基础的表示机制。

DINOv2模型的表现特别值得关注。这个完全基于自监督学习的视觉系统,没有接受过任何语言训练,但其学习到的视觉表示却能够与语言表示建立有意义的对应关系。这强烈暗示着视觉理解和语言理解可能基于某些共同的认知基础。

这种发现与心理学和神经科学的一些研究结果相呼应。研究表明,人类的视觉皮层和语言区域之间存在密切的连接,视觉信息的处理会影响语言理解,反之亦然。AI系统中观察到的现象可能反映了这种认知架构的某些本质特征。

从更广阔的科学视角来看,这项研究为"柏拉图表示假说"提供了新的支持。这个假说认为,不同的学习系统(无论是人类还是AI)在面对相同的任务时,会收敛到相似的内部表示。LATENTLENS的发现表明,即使是分别训练的视觉系统和语言系统,也会学习到结构上相似的表示。

研究还对机器学习理论产生了重要影响。传统理论认为,跨模态的信息转换需要复杂的对齐机制。但这项研究表明,在某些情况下,简单的线性变换就足够了。这挑战了我们对多模态学习复杂性的传统认识。

九、未来展望:开启AI理解的新纪元

LATENTLENS的成功为未来的研究开辟了多个令人兴奋的方向。这些方向不仅具有重要的科学价值,也可能带来实用的技术突破。

在方法扩展方面,研究团队已经开始探索将LATENTLENS应用到其他类型的非语言标记。除了视觉信息,软提示(soft prompts)、潜在思维、语音信息等都可能是很好的分析对象。这些扩展将帮助我们更全面地理解AI系统处理不同类型信息的机制。

动态语境生成是另一个有前途的研究方向。当前的LATENTLENS依赖于预先构建的固定数据库,但未来的系统可能能够根据具体的分析需求动态生成最合适的描述。研究团队的初步实验表明,这种方法可以显著提高分析的准确性。

在模型架构方面,中层跃迁现象为设计更高效的连接器提供了新思路。未来的连接器可能不再简单地将视觉信息映射到语言模型的输入层,而是直接映射到最合适的中间层。这种设计可能会提高信息处理的效率和准确性。

跨语言和跨文化的分析也是一个重要方向。当前的研究主要基于英语数据,但视觉理解的普遍性原则暗示类似的现象可能存在于其他语言中。通过比较不同语言背景下的结果,我们可能会发现更深层的认知共性。

在应用层面,LATENTLENS可能为减少AI幻觉提供新的解决方案。通过实时监控AI系统的内部表示,我们可以识别那些不够可靠的推理步骤,从而提高系统的整体可靠性。

教育和科普应用也值得期待。LATENTLENS提供的直观分析结果可以帮助普通人更好地理解AI系统的工作原理,促进AI技术的普及和接受。

从更宏观的角度来看,这项研究可能为人工通用智能(AGI)的发展提供重要启示。视觉和语言能力的深层对应关系表明,不同的认知能力可能基于共同的基础机制。理解这些机制对于构建真正通用的智能系统至关重要。

研究团队也认识到当前工作的局限性。LATENTLENS的分析依赖于特定的语境数据库,这可能会引入某些偏见。未来的研究需要探索更多样化的数据源,确保分析结果的普遍性。

此外,当前的研究主要关注静态图像,但现实世界中的视觉理解往往涉及动态场景和时间序列。将LATENTLENS扩展到视频分析将是一个重要的发展方向。

说到底,LATENTLENS不仅是一个技术工具,更是一扇窗户,让我们得以窥见AI系统内部运作的奥秘。它告诉我们,AI系统对世界的理解比我们以为的更加深刻和精细。这种理解不是简单的模式匹配,而是具有真正语义内容的认知过程。

这项研究还揭示了一个令人深思的事实:在某种程度上,看似完全不同的信息类型——图像和文字——在深层次上可能是相通的。这种相通性不仅存在于人类认知中,也体现在人工智能系统中。这为我们理解智能的本质提供了新的视角。

对于普通人来说,这项研究的意义在于它让我们对AI技术有了更准确的认识。AI系统不是冰冷的计算机器,而是具有某种"理解能力"的智能体。它们能够在某种程度上像人类一样理解视觉世界,这为人机协作开辟了新的可能性。

随着这项研究的深入发展,我们可能会看到更智能、更可靠的AI系统出现在我们的生活中。这些系统将能够更好地理解我们的需求,提供更准确的服务,同时也更容易被我们理解和信任。这种双向的理解将是实现真正和谐人机关系的关键。

Q&A

Q1:LATENTLENS和传统分析方法有什么区别?

A:传统的EmbeddingLens和LogitLens只能提供单个词汇级别的解释,准确率只有23%-30%。而LATENTLENS通过比较视觉标记与丰富语境中的文本表示,能提供完整句子级别的描述,准确率高达72%。就像从查字典升级到请专业翻译一样,解释更准确更丰富。

Q2:什么是中层跃迁现象?

A:中层跃迁是指视觉信息刚进入语言模型时,不是与同层的文本表示最相似,而是与中间层(如第8-16层)的文本表示最相似。这就像学生跳级一样,视觉信息一入学就达到了相当于四五年级的理解水平,说明视觉编码器已经将原始图像提升到了高级语义层次。

Q3:为什么没有语言训练的DINOv2模型也能被很好地解释?

A:DINOv2完全基于自监督学习训练,没有接触过任何文本,但其视觉标记的可解释性却很高。这表明视觉理解和语言理解可能基于某些共同的认知基础。就像不同语言的人看到苹果都能理解它是水果一样,视觉和语言在深层次上是相通的。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
52年,陈赓大将对家人说:我受过电刑,活不过60的,后来果然这样

52年,陈赓大将对家人说:我受过电刑,活不过60的,后来果然这样

愚鉴
2025-12-22 21:38:32
2.0T+8AT,四驱方盒子SUV 只要10万出头 别观望是时候下手了

2.0T+8AT,四驱方盒子SUV 只要10万出头 别观望是时候下手了

生活魔术专家
2026-02-13 02:53:21
东部战区发了条动态,里面两个字,让懂行的人,后背都感觉有点凉

东部战区发了条动态,里面两个字,让懂行的人,后背都感觉有点凉

安安说
2026-02-12 21:22:44
怒江州1名干部接受审查调查

怒江州1名干部接受审查调查

黄河新闻网吕梁频道
2026-02-12 11:39:03
年薪5400万,又一次赛季报销!交易彻底失败,你也应该退役了

年薪5400万,又一次赛季报销!交易彻底失败,你也应该退役了

篮球扫地僧
2026-02-09 23:23:15
中国004航母突飞猛进,进度比福建舰还快?2026已初具雏形

中国004航母突飞猛进,进度比福建舰还快?2026已初具雏形

科学知识点秀
2026-02-11 08:00:19
“过年4不送,送了一年穷”,指哪4样?过年送礼可别犯了忌讳

“过年4不送,送了一年穷”,指哪4样?过年送礼可别犯了忌讳

一口娱乐
2026-02-12 15:30:40
山东小伙娶只有8岁智商的新娘,笑的合不拢嘴,网友:赚大了!

山东小伙娶只有8岁智商的新娘,笑的合不拢嘴,网友:赚大了!

观察鉴娱
2026-02-01 15:02:49
江西3人被查处

江西3人被查处

黄河新闻网吕梁频道
2026-02-12 08:30:55
40集谍战大剧!王凯主演,祖峰、吴越助阵,毋庸置疑收视会爆

40集谍战大剧!王凯主演,祖峰、吴越助阵,毋庸置疑收视会爆

仁慈的视角
2026-02-11 20:02:20
高市早苗毒计突袭钓鱼岛,24小时内传新消息

高市早苗毒计突袭钓鱼岛,24小时内传新消息

梁濆爱玩车
2026-02-13 03:05:30
揭秘亚洲最穷国:当地女性惊人开放,游客秒变土豪,无不想去定居

揭秘亚洲最穷国:当地女性惊人开放,游客秒变土豪,无不想去定居

明天后天大后天
2026-02-07 11:10:14
截止到2月底!《嘉庆君游台湾》微短剧演员招募及配套征集组讯

截止到2月底!《嘉庆君游台湾》微短剧演员招募及配套征集组讯

海峡导报社
2026-02-12 09:22:14
14亿人都不会忘却!揭开核酸大王张核子的真面具:权力变现大公

14亿人都不会忘却!揭开核酸大王张核子的真面具:权力变现大公

大鱼简科
2026-02-07 09:52:29
AI应用大爆发!看好这个方向

AI应用大爆发!看好这个方向

好买研习社
2026-02-12 02:50:07
被日军当众凌辱5小时后,她为何从不逃跑,也不求死

被日军当众凌辱5小时后,她为何从不逃跑,也不求死

马蹄烫嘴说美食
2026-02-12 18:59:18
乌克兰对为俄罗斯提供武器零配件的外国供应商实施制裁

乌克兰对为俄罗斯提供武器零配件的外国供应商实施制裁

一种观点
2026-02-09 08:50:33
郑钦文挑战莱巴金娜失败新计划曝光,网友:金花告别多哈离歌不悲

郑钦文挑战莱巴金娜失败新计划曝光,网友:金花告别多哈离歌不悲

网球之家
2026-02-12 14:18:43
印度“靠山”终于浮出水面!我国被骗了几十年?曾与我们称兄道弟

印度“靠山”终于浮出水面!我国被骗了几十年?曾与我们称兄道弟

小莜读史
2025-12-16 20:48:38
马达加斯加宣布进入“国家灾难状态”

马达加斯加宣布进入“国家灾难状态”

新华社
2026-02-12 14:13:04
2026-02-13 04:23:00
科技行者 incentive-icons
科技行者
科技正在如何变革商业世界
7255文章数 550关注度
往期回顾 全部

科技要闻

10倍速的一夜:三大模型春节前的暗战

头条要闻

钟南山:会用证据让全世界服气

头条要闻

钟南山:会用证据让全世界服气

体育要闻

31岁首次参加冬奥,10年前她是个水管工

娱乐要闻

《惊蛰无声》违规抢占排片遭影院控诉

财经要闻

“影子万科”如何掘金万科?

汽车要闻

开212 T01柴油版去穿越 连牧马人都跟不上

态度原创

家居
教育
手机
时尚
艺术

家居要闻

本真栖居 爱暖伴流年

教育要闻

AI替代人并不可怕,只需掌握这三条

手机要闻

科技记者古尔曼:预计苹果将在未来几周内推出iPhone 17e以及M4芯片版iPad Air

50+女人怎么穿更好看?过来人告诉你答案,越老越美赢麻了

艺术要闻

震惊!罗布泊的模特竟然如此美艳动人!

无障碍浏览 进入关怀版