网易首页 > 网易号 > 正文 申请入驻

全图与切片并非等价?LLaVA-UHD-v3揭示差异推出高效全图建模方案

0
分享至



随着多模态大模型(MLLMs)在各类视觉语言任务中展现出强大的理解与交互能力,如何高效地处理原生高分辨率图像以捕捉精细的视觉信息,已成为提升模型性能的关键方向。

然而,主流的视觉编码范式往往难以兼顾性能与效率:基于切片的编码方法虽能降低计算开销,却牺牲了全局上下文感知能力;而全局原生分辨率编码在提升整体性能的同时,又带来了巨大的计算负担。同时,现有的视觉压缩策略与特征提取过程相对独立,难以在编码早期有效控制信息冗余,缺乏一个兼顾细粒度建模与计算效率的统一架构。

针对如何在高清原生分辨率下,保持图像全局理解能力的同时,还能快速推理这一核心问题,来自清华大学、中科院的研究团队正式发布LLaVA-UHD v3!



  • 论文标题:LLAVA-UHD V3: PROGRESSIVE VISUAL COMPRESSION FOR EFFICIENT NATIVE-RESOLUTION ENCODING IN MLLMS
  • 论文链接:https://arxiv.org/abs/2511.21150
  • 代码链接:https://github.com/thunlp/LLaVA-UHD
  • huggingface 链接:https://huggingface.co/Sishxo/LLaVA-UHD-v3

LLaVA-UHD-v3 提出了全新的渐进式视觉压缩框架 ——Progressive Visual Compression(PVC),由Refined Patch Embedding(RPE)与Windowed Token Compression(WTC)两个核心组件构成。该框架在保持全局语义一致性的前提下,显著减少视觉 Token 数量,从根本上提升原生高分辨率视觉编码的效率。依托 PVC,LLaVA-UHD-v3 在性能上可与 Qwen2-VL 相媲美,同时实现1.9× 的 TTFT 加速,完整训练仅需32 张 A100、约 300 小时即可完成。



切片编码 vs 全图编码深入分析

为了公平对比两种主流视觉编码方式 —— 基于切片的编码 (Slice-based Encoding, SBE) 与 全局原生分辨率编码 (Global Native-Resolution Encoding, GNE) —— 团队使用相同模型架构 + 相同训练数据 + 相同评估 protocol。在此基础上,既在通用多模态 benchmark 上测试,也专门构建了一个合成数据集 ShapeGrid 用于空间感知 / 定位能力分析。

在 ShapeGrid (及其 “Sudoku-style” 子集) 上,GNE 相比 SBE 在空间感知 / 定位任务上的表现有明显优势:空间感知能力平均提升约11.0%。

同时,在通用视觉 - 语言理解任务中,GNE 在语义理解表现上也略优于 SBE(平均提升约2.1%)。

更重要的是,通过对比注意力热图、激活分布 (attention maps),研究发现 SBE 在空间定位任务中表现出系统性的方向、结构偏差 (例如水平、垂直方向不均衡) —— 也就是说 SBE 的切片机制破坏了图像的空间连续性 (spatial continuity 、geometry),从而削弱了空间理解、定位的可靠性。

因此,该对比实验清晰地表明:尽管 SBE 在效率上有优势,但从语义 + 空间 + 几何一致性 (global context + spatial reasoning) 的角度,GNE 明显更适合需要空间感知、高分辨率理解与推理的任务。



全图编码的高效解决方案

全局原生分辨率编码带来了较高的计算成本,这凸显了迫切需要一种原生且高效的视觉编码范式。因此,团队提出了 LLaVA-UHD v3,一种配备了渐进式视觉压缩(PVC)方法的多模态大模型(MLLM),用于高效的原生分辨率编码。

PVC 架构由两个核心模块组成:

  • 精细化 Patch 嵌入 (Refined Patch Embedding, RPE):通过将图像划分为更小尺寸的 patch,并用伪逆 (pseudo-inverse) 方法将预训练模型原有 embedding 权重转换为新的、更细粒度的 embedding。这样,原本粗粒度 patch 的语义信息被近似保留,但实现了更丰富的视觉语义提取建模。
  • 窗口化 Token 压缩 (Windowed Token Compression, WTC):在 ViT 的中间层,将空间上相邻的多个 token(例如 2×2 区域)聚合为一个新 token,初期以均匀平均池化 (average pooling) 起步,并通过一个轻量级、零初始化的 MLP 模型学习内容自适应的池化权重,从而逐渐学会对更重要区域赋予更高权重。这样,随着网络深度的推进,token 数量被大幅压缩,而关键语义信息得以保留。

这种 “先细粒度建模 + 再渐进压缩” 的设计,使得 PVC 在兼顾全局语义 + 局部细节的同时,大幅降低计算量。



实验验证:PVC 在推理效率提升的同时保留模型能力

效率方面,在统一的 LLM(Qwen2-7B)框架下,本文提出的 ViT-UHD 编码器相比 MoonViT 实现了2.4× 加速,相比 Qwen2.5-ViT 也快 1.9×。将其整合到完整的 MLLM 中后,LLaVA-UHD v3 的 TTFT 相较强大的 Qwen2-VL降低 49%(约快 1.9×),甚至比以高效著称的切片编码模型 MiniCPM-V2.6 仍然快约 10%。

在性能方面,LLaVA-UHD v3 仅使用约 2000 万对图文数据完成训练,远低于 Qwen2-VL(约 7 亿)和 MiniCPM-V-2.6(约 4.6 亿)等商业模型的训练规模。然而,其在多项视觉语言基准中依旧展现出高度竞争力。同时,它实现了64× 的视觉 Token 压缩率,远超对手(Qwen2-VL 约为 4×,MiniCPM-V2.6 为 16×),但在需要细粒度视觉信息的任务上 —— 包括 HallusionBench(幻觉检测)、CV-Bench(空间推理)以及 OCR&Chart(文字与图表识别)—— 依然取得了与 SOTA 模型相当甚至更优的表现。

这些结果充分验证了 PVC 框架的核心价值:在大幅减少视觉 Token 和推理开销的同时,仍能稳健保留关键的细节感知与全局理解能力,实现真正意义上的 “高效而不降级”。





展望

基于对全图编码与切片编码优劣的深入分析,LLaVA-UHD v3 提出了结合两者优势的渐进式视觉压缩全图编码方案,在保证模型能力的前提下实现了显著的推理效率提升,并展现出良好的迁移与泛化能力,为 MLLM 的高精度原生分辨率建模提供了可行路径。

不过,实验分析表明,缺失了预对齐阶段的 ViT-UHD 性能不佳,这表明引入 PVC 后的视觉编码器能力仍未达到上限:仅靠当前 MLLM 的标准训练流程,很难完全挖掘 ViT 的视觉表征潜力,其学习尚未饱和。此外,随着 Token 数量增大,Transformer 的二次复杂度仍然会带来成本瓶颈。

未来,仍需要探索更适合多模态任务的视觉编码预训练策略,并逐步引入线性复杂度算子替代传统的二次复杂度注意力机制,从而实现真正可扩展的高效多模态建模。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
利物浦天坑逆袭!曾被嘲像暮年法比尼奥,如今竟追平索博斯洛伊?

利物浦天坑逆袭!曾被嘲像暮年法比尼奥,如今竟追平索博斯洛伊?

奶盖熊本熊
2026-02-18 07:20:27
印度开始停止进口俄罗斯石油,中国也有动作,俄罗斯的腰包紧张了

印度开始停止进口俄罗斯石油,中国也有动作,俄罗斯的腰包紧张了

老谢谈史
2025-10-04 12:59:06
荣耀Magic V6真机曝光!MWC即将发布,折叠屏+机器人手机双王炸

荣耀Magic V6真机曝光!MWC即将发布,折叠屏+机器人手机双王炸

数码八叔
2026-02-18 09:49:27
速滑男队获冠军点赞 李琰霸气发声:铜牌只是起点 不争冠军来干嘛

速滑男队获冠军点赞 李琰霸气发声:铜牌只是起点 不争冠军来干嘛

念洲
2026-02-18 09:21:35
笑喷了!庾澄庆急召长子回家吃饭,恩利边吃边惦记回秦昊这边

笑喷了!庾澄庆急召长子回家吃饭,恩利边吃边惦记回秦昊这边

甜柠聊史
2025-12-06 10:11:36
一场高速堵车,戳穿了3700万新能源车主“谎言”,差距一目了然

一场高速堵车,戳穿了3700万新能源车主“谎言”,差距一目了然

音乐时光的娱乐
2026-02-18 05:56:32
如果不差钱,退休后首选这3座城市久居,物价低,还舒服

如果不差钱,退休后首选这3座城市久居,物价低,还舒服

蜉蝣说
2026-02-14 16:06:23
电动车跑高速费电,装个变速箱不就行了?99%车企不敢,两家试过

电动车跑高速费电,装个变速箱不就行了?99%车企不敢,两家试过

小李车评李建红
2026-02-16 09:00:03
丹麦自废武功,这泼天的富贵被中国小镇接住了!全球皮草中心易主

丹麦自废武功,这泼天的富贵被中国小镇接住了!全球皮草中心易主

阅微札记
2026-02-10 09:29:50
哈梅内伊:“特朗普,你也做不到”

哈梅内伊:“特朗普,你也做不到”

澎湃新闻
2026-02-17 21:01:04
小鹏为什么这么“烦”L3

小鹏为什么这么“烦”L3

虎嗅APP
2026-02-17 01:58:05
出卖信任的刀,最终刺向了谁?汇丰银行为孟晚舟事件付出惊人代价

出卖信任的刀,最终刺向了谁?汇丰银行为孟晚舟事件付出惊人代价

生活新鲜市
2026-02-17 23:39:01
英国上将揭露,当年“香港”回归真相:谁敢抗衡中国解放军?

英国上将揭露,当年“香港”回归真相:谁敢抗衡中国解放军?

终于在眼泪中明白
2026-02-07 08:36:49
“中国之光”宇树机器人的演示视频,把马斯克笑哭了!

“中国之光”宇树机器人的演示视频,把马斯克笑哭了!

李东阳朋友圈
2025-12-29 10:00:30
视察安庆期间,毛主席了解到陈独秀儿子陈松年在窑厂当苦工、处境困窘,当即批示:“要给予照顾”

视察安庆期间,毛主席了解到陈独秀儿子陈松年在窑厂当苦工、处境困窘,当即批示:“要给予照顾”

源溯历史
2025-12-20 16:22:13
2032奥运会举办地确定,结果意外改变全球奥运格局

2032奥运会举办地确定,结果意外改变全球奥运格局

余憁搞笑段子
2026-02-02 16:48:20
“爸妈来后冰箱都变老了!”网友:原来全国都这样

“爸妈来后冰箱都变老了!”网友:原来全国都这样

都市快报橙柿互动
2026-02-18 00:22:49
王祖贤在加拿大过年画面曝光:满桌年味年夜饭,全场竟无一位男性

王祖贤在加拿大过年画面曝光:满桌年味年夜饭,全场竟无一位男性

每一次点击
2026-02-16 16:15:43
姬胜德为何多次被减刑?他曾帮贺鹏飞做过一件大事,与海军有关

姬胜德为何多次被减刑?他曾帮贺鹏飞做过一件大事,与海军有关

历史甄有趣
2026-02-17 14:30:07
这种饮料正在摧毁你的胰岛细胞!很多糖尿病,都和这种饮料有关!

这种饮料正在摧毁你的胰岛细胞!很多糖尿病,都和这种饮料有关!

蜉蝣说
2026-01-29 14:46:50
2026-02-18 12:00:49
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12314文章数 142568关注度
往期回顾 全部

科技要闻

怒烧45亿,腾讯字节阿里决战春节

头条要闻

蔡明称收到春晚邀请第一反应就是拒绝:他们给了两理由

头条要闻

蔡明称收到春晚邀请第一反应就是拒绝:他们给了两理由

体育要闻

维尼修斯进球后罢赛 向穆帅投诉对手歧视

娱乐要闻

6大卫视春晚收视出炉 北京台稳居第一

财经要闻

面条火腿香菇酱!上市公司这些年请你吃

汽车要闻

问界M6更多信息:乾崑智驾ADS4.0+鸿蒙座舱5.0

态度原创

本地
旅游
数码
游戏
公开课

本地新闻

春花齐放2026:《骏马奔腾迎新岁》

旅游要闻

太火爆,别跑空!四川这些景区已约满

数码要闻

苹果发布macOS 26.4 Tahoe首个公测版:自定义充电上限

《战神4+5》销售额破14亿美元!历久弥新大作

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版