网易首页 > 网易号 > 正文 申请入驻

Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文

0
分享至


新智元报道

编辑:编辑部

【新智元导读】52B的生产级Mamba大模型来了!这个超强变体Jamba刚刚打破世界纪录,它能正面硬刚Transformer,256K超长上下文窗口,吞吐量提升3倍,权重免费下载。

之前引爆了AI圈的Mamba架构,今天又推出了一版超强变体!

人工智能独角兽AI21 Labs刚刚开源了Jamba,世界上第一个生产级的Mamba大模型!


Jamba在多项基准测试中表现亮眼,与目前最强的几个开源Transformer平起平坐。

特别是对比性能最好的、同为MoE架构的Mixtral 8x7B,也互有胜负。

具体来说它——

  • 是基于全新SSM-Transformer混合架构的首个生产级Mamba模型

  • 与Mixtral 8x7B相比,长文本处理吞吐量提高了3倍

  • 实现了256K超长上下文窗口

  • 是同等规模中,唯一一个能在单张GPU上处理140K上下文的模型

  • 以Apache 2.0开源许可协议发布,开放权重


之前的Mamba因为各种限制,只做到了3B,还被人质疑能否接过Transformer的大旗,而同为线性RNN家族的RWKV、Griffin等也只扩展到了14B。

——Jamba这次直接干到52B,让Mamba架构第一次能够正面硬刚生产级别的Transformer。


Jamba在原始Mamba架构的基础上,融入了Transformer的优势来弥补状态空间模型(SSM)的固有局限性。


可以认为,这实际上是一种新的架构——Transformer和Mamba的混合体,最重要的是,它可以在单张A100上运行。

它提供了高达256K的超长上下文窗口,单个GPU就可以跑140K上下文,而且吞吐量是Transformer的3倍!


与Transformer相比,看Jamba如何扩展到巨大的上下文长度,非常震撼

Jamba采用了MoE的方案,52B中有12B是活跃参数,目前模型在Apache 2.0下开放权重,可以在huggingface上下载。


模型下载:https://huggingface.co/ai21labs/Jamba-v0.1

LLM新里程碑

Jamba的发布标志着LLM的两个重要里程碑:

一是成功将Mamba与Transformer架构相结合,二是将新形态的模型(SSM-Transformer)成功提升到了生产级的规模和质量。

当前性能最强的大模型全是基于Transformer的,尽管大家也都认识到了Transformer架构存在的两个主要缺点:

内存占用量大:Transformer的内存占用量随上下文长度而扩展。想要运行长上下文窗口,或大量并行批处理就需要大量硬件资源,这限制了大规模的实验和部署。 随着上下文的增长,推理速度会变慢:Transformer的注意力机制导致推理时间相对于序列长度呈平方增长,吞吐会越来越慢。因为每个token都依赖于它之前的整个序列,所以要做到超长上下文就变得相当困难。

年前,来自卡内基梅隆和普林斯顿的两位大佬提出了Mamba,一下子就点燃了人们的希望。


Mamba以SSM为基础,增加了选择性提取信息的能力、以及硬件上高效的算法,一举解决了Transformer存在的问题。

这个新领域马上就吸引了大量的研究者,arXiv上一时涌现了大量关于Mamba的应用和改进,比如将Mamba用于视觉的Vision Mamba。


不得不说,现在的科研领域实在是太卷了,把Transformer引入视觉(ViT)用了三年,但Mamba到Vision Mamba只用了一个月。

不过原始Mamba的上下文长度较短,加上模型本身也没有做大,所以很难打过SOTA的Transformer模型,尤其是在与召回相关的任务上。

Jamba于是更进一步,通过Joint Attention and Mamba架构,整合了Transformer、Mamba、以及专家混合(MoE)的优势,同时优化了内存、吞吐量和性能。


Jamba是第一个达到生产级规模(52B参数)的混合架构。

如下图所示,AI21的Jamba架构采用blocks-and-layers的方法,使Jamba能够成功集成这两种架构。

每个Jamba块都包含一个注意力层或一个Mamba层,然后是一个多层感知器(MLP)。

Jamba的第二个特点,是利用MoE来增加模型参数的总数,同时简化推理中使用的活动参数的数量,从而在不增加计算要求的情况下提高模型容量。

为了在单个80GB GPU上最大限度地提高模型的质量和吞吐量,研究人员优化了使用的MoE层和专家的数量,为常见的推理工作负载留出足够的内存。


对比Mixtral 8x7B等类似大小的基于Transformer的模型,Jamba在长上下文上做到了3倍的加速。

Jamba将在不久之后加入NVIDIA API目录。

长上下文又出新选手

最近,各大公司都在卷长上下文。

具有较小上下文窗口的模型,往往会忘记最近对话的内容,而具有较大上下文的模型则避免了这种陷阱,可以更好地掌握所接收的数据流。

不过,具有长上下文窗口的模型,往往是计算密集的。

初创公司AI21 Labs的生成式模型就证明,事实并非如此。


Jamba在具有至少80GB显存的单个GPU(如A100)上运行时,可以处理多达140,000个token。

这相当于大约105,000字,或210页,是一本长度适中的长篇小说的篇幅。

相比之下,Meta Llama 2的上下文窗口,只有32,000个token,需要12GB的GPU显存。

按今天的标准来看,这种上下文窗口显然是偏小的。

对此,有网友也第一时间表示,性能什么的都不重要,关键的是Jamba有256K的上下文,除了Gemini,其他人都没有这么长,——而Jamba可是开源的。


Jamba真正的独特之处

从表面上看,Jamba似乎并不起眼。

无论是昨天风头正盛的DBRX,还是Llama 2,现在都已经有大量免费提供、可下载的生成式AI模型。

而Jamba的独特之处,是藏在模型之下的: 它同时结合了 两种模型架构—— Transformer和 状态空间 模型 SSM 。

一方面,Transformer是复杂推理任务的首选架构。 它 最核心的定义特征,就是「注意力机制」。 对于每条输入数据,Transformer会权衡所有其他输入的相关性,并从中提取以生成输出。

另一方面,SSM结合了早前AI模型的多个优点,例如递归神经网络和卷积神经网络,因此能够实现长序列数据的处理,且计算效率更高。

虽然SSM有自己的局限性。但一些早期的代表 ,比如由普林斯顿和CMU提出的Mamba,就可以处理比Transformer模型更大的输出,在语言生成任务上也更优。

对此,AI21 Labs产品负责人Dagan表示——

虽然也有一些SSM模型的初步样例,但Jamba是第一个生产规模的商业级模型。

在他看来,Jamba除了创新性和趣味性可供社区进一步研究,还提供了巨大的效率,和吞吐量的可能性。

目前,Jamba是基于Apache 2.0许可发布的,使用限制较少但不能商用。后续的微调版本,预计会在几周内推出。

即便还处在研究的早期阶段,但Dagan断言,Jamba无疑展示了SSM架构的巨大前景。

「这种模型的附加价值——无论是因为尺寸还是架构的创新——都可以很容易地安装到单个GPU上。」

他相信,随着Mamba的继续调整,性能将进一步提高。

参考资料:

https://www.ai21.com/blog/announcing-jamba

https://techcrunch.com/2024/03/28/ai21-labs-new-text-generating-ai-model-is-more-efficient-than-most/

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
网飞花了300亿的末日大片,因为刘亚仁毁了

网飞花了300亿的末日大片,因为刘亚仁毁了

流量君
2024-04-28 00:07:04
重庆这件事,已经不是践踏公平的问题了

重庆这件事,已经不是践踏公平的问题了

顾礼先生
2024-04-22 15:51:11
疯狂的职业索赔:有人一年内以“无证拍黄瓜”向1372家餐饮店索赔

疯狂的职业索赔:有人一年内以“无证拍黄瓜”向1372家餐饮店索赔

澎湃新闻
2024-04-28 21:40:27
方媛只是提供肚子?!郭富城真实目的曝光!这场婚姻从头到尾就是一场骗局!

方媛只是提供肚子?!郭富城真实目的曝光!这场婚姻从头到尾就是一场骗局!

阿芒娱乐说
2024-04-28 07:55:27
42岁范冰冰又美到国外去了!穿两万 “中式睡袍” 又美又飒,让世界见证东方之雅韵

42岁范冰冰又美到国外去了!穿两万 “中式睡袍” 又美又飒,让世界见证东方之雅韵

白宸侃片
2024-04-25 11:04:53
插兄弟两刀!哈萨克斯坦向美国出售了81架苏式战斗机

插兄弟两刀!哈萨克斯坦向美国出售了81架苏式战斗机

军迷战情室
2024-04-27 22:24:11
问界M7烧焦后,死者家属:他们竟问售后体验如何

问界M7烧焦后,死者家属:他们竟问售后体验如何

橡果商业
2024-04-28 19:01:19
奥运开幕不足100天,法国有点慌:开幕式阵仗太大,搞不定了

奥运开幕不足100天,法国有点慌:开幕式阵仗太大,搞不定了

路平说
2024-04-25 11:23:08
笑疯了!高知老人带娃什么体验?网友:宁愿被返聘也不在家带孩子

笑疯了!高知老人带娃什么体验?网友:宁愿被返聘也不在家带孩子

户外钓鱼哥阿勇
2024-04-28 16:07:59
40岁男子2000元搞定女邻居,发生20次关系后,女子终于禽兽很久

40岁男子2000元搞定女邻居,发生20次关系后,女子终于禽兽很久

陌语音乐汇
2024-04-28 15:39:47
季后赛至今,打铁数对比:哈登23次,欧文27次,詹姆斯和杜兰特呢

季后赛至今,打铁数对比:哈登23次,欧文27次,詹姆斯和杜兰特呢

天气如你
2024-04-29 01:44:00
解放前,一侦查员将被处决,房东送断头饭时悄声道:这饭要仔细吃

解放前,一侦查员将被处决,房东送断头饭时悄声道:这饭要仔细吃

百年历史老号
2024-04-25 19:23:29
没人敢动的军中巨贪,背后有两大保护伞,刘源:丢乌纱帽也拿下他

没人敢动的军中巨贪,背后有两大保护伞,刘源:丢乌纱帽也拿下他

旧时楼台月
2024-04-22 14:42:41
这谁顶得住嘛!迪恩这身材,这才是尤物啊!

这谁顶得住嘛!迪恩这身材,这才是尤物啊!

冷却爱情
2024-04-25 15:17:13
恭喜AC米兰,58岁名帅上位,税后400万年薪,国米有对手了

恭喜AC米兰,58岁名帅上位,税后400万年薪,国米有对手了

球文速递
2024-04-28 23:24:09
董军在上合见7国防长,唯独没搭理印度,苏杰生的担忧正成为现实

董军在上合见7国防长,唯独没搭理印度,苏杰生的担忧正成为现实

说天说地说实事
2024-04-28 17:27:47
库里是勇士休赛期唯一不能动的球员,格林也可以留下!

库里是勇士休赛期唯一不能动的球员,格林也可以留下!

体育大集
2024-04-29 02:00:04
天哪罗志祥的脸太吓人了,满脸的科技感,好像哪里都动过了

天哪罗志祥的脸太吓人了,满脸的科技感,好像哪里都动过了

娱乐八卦木木子
2024-04-26 03:08:07
发“国难财”?疫情几年他捞金222.8亿,登顶富豪,扬言活到120岁

发“国难财”?疫情几年他捞金222.8亿,登顶富豪,扬言活到120岁

简读视觉
2024-04-28 08:10:03
黄晓明公开秀恩爱,新欢身份曝光:兜兜转转还是你!

黄晓明公开秀恩爱,新欢身份曝光:兜兜转转还是你!

娱乐圈酸柠檬
2024-04-29 02:00:39
2024-04-29 02:36:49
新智元
新智元
AI产业主平台领航智能+时代
10967文章数 65460关注度
往期回顾 全部

科技要闻

特斯拉生死时速,马斯克西天取经

头条要闻

警方通报女子在卫生间被打:4人被行拘13日罚款1千元

头条要闻

警方通报女子在卫生间被打:4人被行拘13日罚款1千元

体育要闻

湖人的G4,尽人事得到了回报

娱乐要闻

张杰谢娜发文为何炅庆生,亲如家人!

财经要闻

上财万字报告深度解读Q1经济

汽车要闻

鸿蒙首款行政旗舰轿车 华为享界S9实车亮相车展

态度原创

房产
亲子
时尚
教育
数码

房产要闻

力度越来越大!落户两年享本地居民购房政策,海南第16城松绑限购!

亲子要闻

萌宝坐床上安静玩,妈妈看到后吓一跳,哭着大喊

裤子+小猫跟,这个组合气质又好看

教育要闻

三年级二班最近新调来一位数学老师,脑子里面竟是些稀奇古怪的题

数码要闻

苹果公司将于5月7日在伦敦举行另一场发布会 可能仅面向媒体

无障碍浏览 进入关怀版