网易首页 > 网易号 > 正文 申请入驻

首个基于Mamba的MLLM来了!模型权重、训练代码等已全部开源

0
分享至

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com。

引言

近年来,多模态大型语言模型(MLLM)在各个领域的应用取得了显著的成功。然而,作为许多下游任务的基础模型,当前的 MLLM 由众所周知的 Transformer 网络构成,这种网络具有较低效的二次计算复杂度。为了提高这类基础模型的效率,大量的实验表明:(1)Cobra 与当前计算效率高的最先进方法(例如,LLaVA-Phi,TinyLLaVA 和 MobileVLM v2)具有极具竞争力的性能,并且由于 Cobra 的线性序列建模,其速度更快。(2)有趣的是,封闭集挑战性预测基准的结果显示,Cobra 在克服视觉错觉和空间关系判断方面表现良好。(3)值得注意的是,Cobra 甚至在参数数量只有 LLaVA 的 43% 左右的情况下,也取得了与 LLaVA 相当的性能。

大语言模型(LLMs)受限于仅通过语言进行交互,限制了它们处理更多样化任务的适应性。多模态理解对于增强模型有效应对现实世界挑战的能力至关重要。因此,研究人员正在积极努力扩展大型语言模型,以纳入多模态信息处理能力。视觉 - 语言模型(VLMs)如 GPT-4、LLaMA-Adapter 和 LLaVA 已经被开发出来,以增强 LLMs 的视觉理解能力。

然而,先前的研究主要尝试以类似的方法获得高效的 VLMs,即在保持基于注意力的 Transformer 结构不变的情况下减少基础语言模型的参数或视觉 token 的数量。本文提出了一个不同的视角:直接采用状态空间模型(SSM)作为骨干网络,得到了一种线性计算复杂度的 MLLM。此外,本文还探索和研究了各种模态融合方案,以创建一个有效的多模态 Mamba。具体来说,本文采用 Mamba 语言模型作为 VLM 的基础模型,它已经显示出可以与 Transformer 语言模型竞争的性能,但推理效率更高。测试显示 Cobra 的推理性能比同参数量级的 MobileVLM v2 3B 和 TinyLLaVA 3B 快 3 倍至 4 倍。即使与参数数量更多的 LLaVA v1.5 模型(7B 参数)相比,Cobra 仍然可以在参数数量约为其 43% 的情况下在几个基准测试上实现可以匹配的性能。

图 Cobra 和 LLaVA v1.5 7B 在生成速度上的 Demo

本文的主要贡献如下:

  1. 调查了现有的多模态大型语言模型(MLLMs)通常依赖于 Transformer 网络,这表现出二次方的计算复杂度。为了解决这种低效问题,本文引入了 Cobra,一个新颖的具有线性计算复杂度的 MLLM。
  2. 深入探讨了各种模态融合方案,以优化 Mamba 语言模型中视觉和语言信息的整合。通过实验,本文探索了不同融合策略的有效性,确定了产生最有效多模态表示的方法。
  3. 进行了广泛的实验,评估 Cobra 与旨在提高基础 MLLM 计算效率的并行研究的性能。值得注意的是,Cobra 甚至在参数更少的情况下实现了与 LLaVA 相当的性能,突显了其效率。

  • 原文链接:https://arxiv.org/pdf/2403.14520v2.pdf
  • 项目链接:https://sites.google.com/view/cobravlm/
  • 论文标题:Cobra: Extending Mamba to Multi-Modal Large Language Model for Efficient Inference

方法介绍

模型架构

Cobra 采用了经典的视觉编码器、连接两个模态的投影器和 LLM 语言主干组成的 VLM 结构。LLM 主干部分采用了 2.8B 参数预训练的 Mamba 语言模型,该模型在 600B token 数量的 SlimPajama 数据集上进行了预训练并经过了对话数据的指令微调。

图 Cobra 网络结构图

与 LLaVA 等工作不同的是,Cobra 采用了 DINOv2 和 SigLIP 融合的视觉表征,通过将两个视觉编码器的输出拼接在一起送入投影器,模型能够更好的捕捉到 SigLIP 带来的高层次的语义特征和 DINOv2 提取的低层次的细粒度图像特征。

训练方案

最近的研究表明,对于基于 LLaVA 的现有训练范式(即,只训练投影层的预对齐阶段和 LLM 骨干的微调阶段各一次),预对齐阶段可能是不必要的,而且微调后的模型仍处于欠拟合状态。因此,Cobra 舍弃了预对齐阶段,直接对整个 LLM 语言主干和投影器进行微调。这个微调过程在一个组合数据集上随机抽样进行两个周期,该数据集包括:

  1. 在 LLaVA v1.5 中使用的混合数据集,其中包含总计 655K 视觉多轮对话,包括学术 VQA 样本,以及 LLaVA-Instruct 中的视觉指令调优数据和 ShareGPT 中的纯文本指令调优数据。
  2. LVIS-Instruct-4V,其中包含 220K 张带有视觉对齐和上下文感知指令的图片,这些指令由 GPT-4V 生成。
  3. LRV-Instruct,这是一个包含 400K 视觉指令数据集,覆盖了 16 个视觉语言任务,目的是减轻幻觉现象。

整个数据集大约包含 120 万张图片和相应的多轮对话数据,以及纯文本对话数据。

实验

定量实验

实验部分,本文对提出的 Cobra 模型和开源的 SOTA VLM 模型在基础 benchmark 上进行了比较,并对比了与同量级基于 Transformer 架构的 VLM 模型的回答速度。

图 生成速度和性能对比图

同时,Cobra 也与更多的模型在 VQA-v2,GQA,VizWiz,TextVQA 四个开放 VQA 任务以及 VSR,POPE 两个闭集预测任务,共 6 个 benchmark 上进行了分数对比。

图 在 Benchmark 上和其他开源模型的对比

定性试验

此外 Cobra 也给出了两个 VQA 示例以定性说明 Cobra 在物体的空间关系认知和减轻模型幻觉两个能力上的优越性。

图 Cobra 和其他基线模型在物体空间关系判断的示例

图 Cobra 和其他基线模型在关于视觉错觉现象的示例

在示例中,LLaVA v1.5 和 MobileVLM 均给出了错误答案,而 Cobra 则在两个问题上都做出了准确的描述,尤其在第二个实例中,Cobra 准确的识别出了图片是来自于机器人的仿真环境。

消融实验

本文从性能和生成速度这两个维度对 Cobra 采取的方案进行了消融研究。实验方案分别对投影器、视觉编码器、LLM 语言主干进行了消融实验。

图 消融实验的性能对比图

投影器部分的消融实验结果显示,本文采取的 MLP 投影器在效果上显著优于致力于减少视觉 token 数量以提升运算速度的 LDP 模块,同时,由于 Cobra 处理序列的速度和运算复杂度均优于 Transformer,在生成速度上 LDP 模块并没有明显优势,因此在 Mamba 类模型中使用通过牺牲精度减少视觉 token 数量的采样器可能是不必要的。

图 Cobra 和其他模型在生成速度上的数值对比

视觉编码器部分的消融结果表明,DINOv2 特征的融合有效的提升了 Cobra 的性能。而在语言主干的实验中,未经过指令微调的 Mamba 语言模型在开放问答的测试中完全无法给出合理的答案,而经过微调的 Mamba 语言模型则可以在各类任务上达到可观的表现。

结论

本文提出了 Cobra,它解决了现有依赖于具有二次计算复杂度的 Transformer 网络的多模态大型语言模型的效率瓶颈。本文探索了具有线性计算复杂度的语言模型与多模态输入的结合。在融合视觉和语言信息方面,本文通过对不同模态融合方案的深入研究,成功优化了 Mamba 语言模型的内部信息整合,实现了更有效的多模态表征。实验表明,Cobra 不仅显著提高了计算效率,而且在性能上与先进模型如 LLaVA 相当,尤其在克服视觉幻觉和空间关系判断方面表现出色。它甚至显著减少了参数的数量。这为未来在需要高频处理视觉信息的环境中部署高性能 AI 模型,如基于视觉的机器人反馈控制,开辟了新的可能性。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
李四川合体江启臣!黄国昌:一步一脚印拼支持

李四川合体江启臣!黄国昌:一步一脚印拼支持

新时光点滴
2026-02-22 12:32:31
双里程碑之夜险成罪人!詹皇致命失误惊出汗 连续五场两双成安慰

双里程碑之夜险成罪人!詹皇致命失误惊出汗 连续五场两双成安慰

颜小白的篮球梦
2026-02-21 14:04:25
英超争冠变天!曼城2-1啃下硬骨头!阿森纳被批:未夺冠就该换帅

英超争冠变天!曼城2-1啃下硬骨头!阿森纳被批:未夺冠就该换帅

听我说球
2026-02-22 11:06:57
厉害!袁弘、张歆艺在武汉买房了!

厉害!袁弘、张歆艺在武汉买房了!

东方不败然多多
2026-02-21 14:49:46
美国洛马怎么也没想到,没缴中国的990亿罚单,后果竟如此严重!

美国洛马怎么也没想到,没缴中国的990亿罚单,后果竟如此严重!

青青子衿
2025-12-12 22:03:33
一级军士长王忠心简历,他享受什么待遇?退休后婉拒百万年薪

一级军士长王忠心简历,他享受什么待遇?退休后婉拒百万年薪

混沌录
2026-01-27 22:33:05
中国网红海外街头直播,遭未成年人殴打伤势严重,准备提前回国治疗

中国网红海外街头直播,遭未成年人殴打伤势严重,准备提前回国治疗

华人生活网
2026-02-21 03:46:01
家里这8个“先进设计”,如果一样都没有,说明你家还停在20年前

家里这8个“先进设计”,如果一样都没有,说明你家还停在20年前

Home范
2026-02-19 14:55:03
13天连夺6金!冬奥会第一强人:3届拿11金创历史,中国队剑指6金

13天连夺6金!冬奥会第一强人:3届拿11金创历史,中国队剑指6金

侃球熊弟
2026-02-22 06:13:59
“茶几”正在退出中国家庭,学广东人这样做,实用性让人大开眼界

“茶几”正在退出中国家庭,学广东人这样做,实用性让人大开眼界

室内设计师有料儿
2026-02-19 11:17:18
中国囚犯在曼谷监狱召唤中日女性提供性服务,阿努廷:绝不放过!

中国囚犯在曼谷监狱召唤中日女性提供性服务,阿努廷:绝不放过!

爱情毕业了
2026-02-05 18:40:25
迟到20年!低价买走国有资产的百亿女首富,突然被带走

迟到20年!低价买走国有资产的百亿女首富,突然被带走

马浵在解说
2026-02-15 08:51:15
你最成功的一次装B经历是什么?网友:你就想摸女孩手

你最成功的一次装B经历是什么?网友:你就想摸女孩手

另子维爱读史
2026-02-19 22:03:37
“75岁8个男朋友、凌晨在北京去世”,刘晓庆私生活谣言太离谱

“75岁8个男朋友、凌晨在北京去世”,刘晓庆私生活谣言太离谱

天天热点见闻
2026-02-22 04:25:52
一票否决!匈牙利卡死欧盟900亿援乌巨款

一票否决!匈牙利卡死欧盟900亿援乌巨款

老马拉车莫少装
2026-02-21 14:26:13
7.5万人见证!梅西和孙兴慜赛前拥抱!3-0,洛杉矶打败迈阿密国际

7.5万人见证!梅西和孙兴慜赛前拥抱!3-0,洛杉矶打败迈阿密国际

足球评论qs
2026-02-22 12:50:58
不上市的字节,正在改写中国互联网的战争规则

不上市的字节,正在改写中国互联网的战争规则

新浪财经
2026-02-15 23:17:51
女性偷腥后当晚与丈夫同房是什么感觉?一位39岁的女人说出实情

女性偷腥后当晚与丈夫同房是什么感觉?一位39岁的女人说出实情

混音情感
2026-02-22 11:50:23
倒吸凉气!亚冠总积分公布:BIG4坑苦中超,背后真相谁能不生气?

倒吸凉气!亚冠总积分公布:BIG4坑苦中超,背后真相谁能不生气?

话体坛
2026-02-21 20:11:14
你无意之中撞见过什么秘密?网友:我婆婆和公公外面各自有人

你无意之中撞见过什么秘密?网友:我婆婆和公公外面各自有人

带你感受人间冷暖
2026-02-12 00:05:09
2026-02-22 13:15:00
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12325文章数 142569关注度
往期回顾 全部

科技要闻

马斯克:星舰每年将发射超过10000颗卫星

头条要闻

monies巴黎旗舰店员工:王菲同款水滴耳环库存已空

头条要闻

monies巴黎旗舰店员工:王菲同款水滴耳环库存已空

体育要闻

徐梦桃:这是我第一块铜牌 给我换个吉祥物

娱乐要闻

裴世矩养侄为刃 看懂两次放行裴行俨!

财经要闻

特朗普新加征关税税率从10%提升至15%

汽车要闻

续航1810km!smart精灵#6 EHD超级电混2026年上市

态度原创

本地
旅游
时尚
健康
公开课

本地新闻

春花齐放2026:《骏马奔腾迎新岁》

旅游要闻

栖霞:新春剧场游园会 解锁别样年味

50岁女性过冬穿搭:有大衣和羽绒服就够了,简约从容才是优雅

转头就晕的耳石症,能开车上班吗?

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版