网易首页 > 网易号 > 正文 申请入驻

一块英伟达3090单挑180亿参数大模型,国产开源项目这回杀疯了

0
分享至

明敏 发自 凹非寺
量子位 | 公众号 QbitAI

什么?单块GPU也能训练大模型了?

还是20系就能拿下的那种???

没开玩笑,事实已经摆在眼前:

  • RTX 2060 6GB普通游戏本能训练15亿参数模型;
  • RTX 3090 24GB主机直接单挑180亿参数大模型;
  • Tesla V100 32GB连240亿参数都能拿下。

相比于PyTorch和业界主流的DeepSpeed方法,提升参数容量能达到10多倍。

而且这种方法完全开源,只需要几行代码就能搞定,修改量也非常少。

这波操作真是直接腰斩大模型训练门槛啊,老黄岂不是要血亏。

那么,搞出如此大名堂的是何方大佬呢?

它就是国产开源项目Colossal-AI

自开源以来,曾多次霸榜GitHub热门第一。

△开源地址:https://github.com/hpcaitech/ColossalAI

主要做的事情就是加速各种大模型训练,GPT-2、GPT-3、ViT、BERT等模型都能搞定。

比如能半小时左右预训练一遍ViT-Base/32,2天训完15亿参数GPT模型、5天训完83亿参数GPT模型。

同时还能省GPU。

比如训练GPT-3时使用的GPU资源,可以说只是英伟达Megatron-LM的一半。

那么这一回,它又是如何让单块GPU训练百亿参数大模型的呢?

我们深扒了一下原理~

高效利用GPU+CPU异构内存

为什么单张消费级显卡很难训练AI大模型?

显存有限,是最大的困难。

当今大模型风头正盛、效果又好,谁不想上手感受一把?

但动不动就“CUDA out of memory”,着实让人遭不住。

目前,业界主流方法是微软DeepSpeed提出的ZeRO (Zero Reduency Optimizer)。

它的主要原理是将模型切分,把模型内存平均分配到单个GPU上。

数据并行度越高,GPU上的内存消耗越低。

这种方法在CPU和GPU内存之间仅使用静态划分模型数据,而且内存布局针对不同的训练配置也是恒定的。

由此会导致两方面问题。

第一,当GPU或CPU内存不足以满足相应模型数据要求时,即使还有其他设备上有内存可用,系统还是会崩溃。

第二,细粒度的张量在不同内存空间传输时,通信效率会很低;当可以将模型数据提前放置到目标计算设备上时,CPU-GPU的通信量又是不必要的。

目前已经出现了不少DeepSpeed的魔改版本,提出使用电脑硬盘来动态存储模型,但是硬盘的读写速度明显低于内存和显存,训练速度依旧会被拖慢。

针对这些问题,Colossal-AI采用的解决思路是高效利用GPU+CPU的异构内存

具体来看,是利用深度学习网络训练过程中不断迭代的特性,按照迭代次数将整个训练过程分为预热正式两个阶段。

预热阶段,监测采集到非模型数据内存信息;

正式阶段,根据采集到的信息,预留出下一个算子在计算设备上所需的峰值内存,移动出一些GPU模型张量到CPU内存。

大概逻辑如下所示:

这里稍微展开说明下,模型数据由参数、梯度和优化器状态组成,它们的足迹和模型结构定义有关。

非模型数据由operator生成的中间张量组成,会根据训练任务的配置(如批次大小)动态变化。

它俩常干的事呢,就是抢GPU显存。

所以,就需要在GPU显存不够时CPU能来帮忙,与此同时还要避免其他情况下内存浪费。

Colossal-AI高效利用GPU+CPU的异构内存,就是这样的逻辑。

而以上过程中,获取非模型数据的内存使用量其实非常难

因为非模型数据的生存周期并不归用户管理,现有的深度学习框架没有暴露非模型数据的追踪接口给用户。其次,CUDA context等非框架开销也需要统计。

在这里Colossal-AI的解决思路是,在预热阶段用采样的方式,获得非模型数据对CPU和GPU的内存的使用情况。

简单来说,这是道加减法运算:

非数据模型使用 = 两个统计时刻之间系统最大内存使用 — 模型数据内存使用

已知,模型数据内存使用可以通过查询管理器得知。

具体来看就是下面酱婶的:

所有模型数据张量交给内存管理器管理,每个张量标记一个状态信息,包括HOLD、COMPUTE、FREE等。

然后,根据动态查询到的内存使用情况,不断动态转换张量状态、调整张量位置,更高效利用GPU显存和CPU内存。

在硬件非常有限的情况下,最大化模型容量和平衡训练速度。这对于AI普及化、低成本微调大模型下游任务等,都具有深远意义。

而且最最最关键的是——加内存条可比买高端显卡划 算 多 了

前不久,Colossal-AI还成功复现了谷歌的最新研究成果PaLM (Pathways Language Model),表现同样非常奈斯,而微软DeepSpeed目前还不支持PaLM模型。

Colossal-AI还能做什么?

前面也提到,Colossal-AI能挑战的任务非常多,比如加速训练、节省GPU资源。

那么他是如何做到的呢?

简单来说,Colossal-AI就是一个整合了多种并行方法的系统,提供的功能包括多维并行、大规模优化器、自适应任务调度、消除冗余内存等。

目前,基于Colossal-AI的加速方案FastFold,能够将蛋白质结构预测模型AlphaFold的训练时间,从原本的11天,减少到只需67小时

而且总成本更低,在长序列推理任务中,也能实现9~11.6倍的速度提升。

这一方案成功超越谷歌和哥伦比亚大学的方法。

此外,Colossal-AI还能只用一半GPU数量训练GPT-3。

相比英伟达方案,Colossal-AI仅需一半的计算资源,即可启动训练;若使用相同计算资源,则能提速11%,可降低GPT-3训练成本超百万美元。

与此同时,Colossal-AI也非常注重开源社区建设,提供中文教程、开放用户社群论坛,根据大家的需求反馈不断更新迭代。

比如之前有读者留言说,Colossal-AI要是能在普通消费级显卡上跑就好了。

这不,几个月后,已经安排好了~

背后团队:LAMB优化器作者尤洋领衔

看到这里,是不是觉得Colossal-AI确实值得标星关注一发?

实际上,这一国产项目背后的研发团队来头不小。

领衔者,正是LAMB优化器的提出者尤洋。

他曾以第一名的成绩保送清华计算机系硕士研究生,后赴加州大学伯克利分校攻读CS博士学位。

拿过IPDPS/ICPP最佳论文、ACM/IEEE George Michael HPC Fellowship、福布斯30岁以下精英(亚洲 2021)、IEEE-CS超算杰出新人奖、UC伯克利EECS Lotfi A. Zadeh优秀毕业生奖。

在谷歌实习期间,凭借LAMB方法,尤洋曾打破BERT预训练世界纪录。

据英伟达官方GitHub显示,LAMB比Adam优化器快出整整72倍。微软的DeepSpeed也采用了LAMB方法。

2021年,尤洋回国创办潞晨科技——一家主营业务为分布式软件系统、大规模人工智能平台以及企业级云计算解决方案的AI初创公司。

团队的核心成员均来自美国加州大学伯克利分校、哈佛大学、斯坦福大学、芝加哥大学、清华大学、北京大学、新加坡国立大学、新加坡南洋理工大学等国内外知名高校;拥有Google Brain、IBM、Intel、 Microsoft、NVIDIA等知名厂商工作经历。

公司成立即获得创新工场、真格基金等多家顶尖VC机构种子轮投资。

潞晨CSO Prof. James Demmel为加州大学伯克利分校杰出教授、ACM/IEEE Fellow,同时还是美国科学院、工程院、艺术与科学院三院院士。

传送门:
https://github.com/hpcaitech/ColossalAI

参考链接:
https://medium.com/@hpcaitech/train-18-billion-parameter-gpt-models-with-a-single-gpu-on-your-personal-computer-8793d08332dc

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
投资75亿!超大型肿瘤医院要来了

投资75亿!超大型肿瘤医院要来了

医疗器械经销商联盟
2026-02-23 13:11:00
世界第2,中国第1!赵心童单赛季排名创纪录,连超4大世界冠军!

世界第2,中国第1!赵心童单赛季排名创纪录,连超4大世界冠军!

刘姚尧的文字城堡
2026-02-23 09:32:38
追梦格林对勇士队的伤害,似乎比想象中更大!

追梦格林对勇士队的伤害,似乎比想象中更大!

Haviven聊球
2026-02-23 17:17:53
麻烦大了,多国反对武力解决台海问题,我们该怎么样破局?

麻烦大了,多国反对武力解决台海问题,我们该怎么样破局?

混沌录
2026-02-14 16:13:12
正月初六高速堵疯!7100万辆车齐上路,电车车主直接崩溃!

正月初六高速堵疯!7100万辆车齐上路,电车车主直接崩溃!

乐悠悠娱乐
2026-02-23 11:29:02
五台山景区大火持续达7小时:官方回应伤亡情况,一画面信息量大

五台山景区大火持续达7小时:官方回应伤亡情况,一画面信息量大

博士观察
2026-02-22 16:44:15
2-1绝杀夺冠!美国助攻日本:保住奖牌榜前十 中国排名高韩国1位

2-1绝杀夺冠!美国助攻日本:保住奖牌榜前十 中国排名高韩国1位

侃球熊弟
2026-02-23 00:29:36
不是那个年代的,你真看不懂

不是那个年代的,你真看不懂

深度报
2026-02-15 23:01:53
王艺迪发球回抛,早田希娜险胜高桥,陈俊菘惜败张本智和

王艺迪发球回抛,早田希娜险胜高桥,陈俊菘惜败张本智和

子水体娱
2026-02-23 15:51:14
马斯克牵手39岁女下属,3年生4娃终被承认!拿下首富的女人不简单

马斯克牵手39岁女下属,3年生4娃终被承认!拿下首富的女人不简单

商务范
2026-02-05 18:12:38
北京节后气温先升后降,天气趋势→

北京节后气温先升后降,天气趋势→

新浪财经
2026-02-23 11:41:59
特斯拉新车正式下线:无方向盘、无踏板、无后视镜;定价不高于3万美元,“不需要人开,直接输入目的地即可”

特斯拉新车正式下线:无方向盘、无踏板、无后视镜;定价不高于3万美元,“不需要人开,直接输入目的地即可”

中国能源网
2026-02-20 19:18:19
这根骨头上没有赘肉,说明你很健康

这根骨头上没有赘肉,说明你很健康

财经早餐
2026-02-23 06:20:12
五台山大火:官方披露伤亡情况,大量内幕披露,一画面信息量大

五台山大火:官方披露伤亡情况,大量内幕披露,一画面信息量大

博士观察
2026-02-23 11:23:20
水花齐聚?美媒:库里已将球鞋下家缩小至3个品牌,安踏在列

水花齐聚?美媒:库里已将球鞋下家缩小至3个品牌,安踏在列

懂球帝
2026-02-23 10:18:38
女子高铁如厕不慎冲走50克金手链,地勤机械师手掏40分钟集便器寻回

女子高铁如厕不慎冲走50克金手链,地勤机械师手掏40分钟集便器寻回

大风新闻
2026-02-23 14:02:06
不打小仗,只要打大仗!日本这一举动,给所有中国人都提了个醒?

不打小仗,只要打大仗!日本这一举动,给所有中国人都提了个醒?

叹知
2026-02-23 14:50:44
CCTV5直播!中国男篮VS日本男篮退路全无,郭士强或重用两位新人

CCTV5直播!中国男篮VS日本男篮退路全无,郭士强或重用两位新人

老叶评球
2026-02-23 17:14:00
8分钟地狱到天堂!绝杀被吹+读秒反杀,利物浦沦落靠17岁小孩保命

8分钟地狱到天堂!绝杀被吹+读秒反杀,利物浦沦落靠17岁小孩保命

落夜足球
2026-02-23 15:31:09
看完破防了!真是“满载而归”,在G4京港澳高速粤L本田登上热搜

看完破防了!真是“满载而归”,在G4京港澳高速粤L本田登上热搜

火山詩话
2026-02-22 08:29:48
2026-02-23 17:51:00
量子位 incentive-icons
量子位
追踪人工智能动态
12192文章数 176389关注度
往期回顾 全部

科技要闻

腾讯字节,“火拼”漫剧

头条要闻

德国总理默茨将访华

头条要闻

德国总理默茨将访华

体育要闻

哈登版骑士首败:雷霆的冠军课

娱乐要闻

谷爱凌奶奶去世,谷爱凌泪奔

财经要闻

美国海关将停止征收被裁定违法的关税

汽车要闻

续航1810km!smart精灵#6 EHD超级电混2026年上市

态度原创

艺术
教育
亲子
旅游
军事航空

艺术要闻

十大名家画春,送给春天的你!

教育要闻

陈丹青女儿彻底西化,他对西式教育做出反思

亲子要闻

印第安纳预报可能有龙卷风,提前去超市屯点物资,这一车得多少钱

旅游要闻

返程前必冲!故宫初六热度拉满,每一处都藏着千年韵味

军事要闻

美军重兵集结蓄力作战之际 新一轮美伊谈判时间“敲定”

无障碍浏览 进入关怀版