网易首页 > 网易号 > 正文 申请入驻

显存不够,框架来凑:两行代码显存翻倍,2080Ti也能当V100来用

0
分享至

  机器之心原创

  作者:

2080Ti 竟然可以当 V100 来用,这个功能有点儿厉害。

  自深度学习大潮兴起,模型就朝着越来越大、越来越 「深」 的方向发展。

  2012 年,拥有 5 个卷积层的 AlexNet 第一次在视觉任务上展现出强大的能力。在此之后,基础模型就开始「深」化起来:2014 年的 VGG-Net 达到了 19 层;2015 年的 ResNet、2017 年的 DenseNet 更是将深度提升到了上百层。

  模型大小的提升极大地提高了性能。因此,各大视觉任务都将 ResNet、DenseNet 等当作基本的 BackBone。但与此同时,模型的增大也意味着对显存的需求随之变高。

  为什么 GPU 显存如此重要?

  九年前,Hinton 等人率先用两张 3GB 显存的 GTX 580 GPU 高效训练 AlexNet。在此之后,显存需求与模型大小就一直同步增长。打比赛想要取到好成绩、做实验想要超越 State of the art 效果、做工程想要拟合庞大的业务数据等等,这些都离不开显存的加持。

  模型加一层,显存涨一分

  在深度学习模型中,占用显存的总是那些特别大的张量,比如各层的权重矩阵、计算出来的张量(激活值)、反向传播需要的张量等。在视觉任务中,占据绝大多数的是中间计算出来的张量。随着模型变得更深更大,每一层的激活值张量都需要保留在显存中。

  以 ResNet50 为例,在模型的训练中,前向传播中 50 层的计算结果都需要保存在显存中,以便让反向传播利用这些张量计算梯度。如果使用 ResNet108,需要的显存就会比 ResNet50 多出一倍多。显存的增加,带来的当然是模型效果的提升。另一方面,如果内存不够,许多工作也必将无法实现。

  显存不够,写论文、打比赛屡遭掣肘

  在实验室跑模型、写论文的过程中,显存不够用也是常有的事。一般实验室的显卡都是大家共用的,可能分配到每个人的手上已经所剩无几。甚至于,随着顶尖模型越来越大,所有人都没有足够的算力、显存去复现终极实验,更不用说超越其 SOTA 结果。

  遇到这种情况,学生无非只有两种选择:向导师申请新的 GPU 资源,或者缩减模型做一个 Mini 版的实验。前者并不总是能够成功,后者则可能会有种种不完美。如果能用有限的显存跑顶尖的大模型,做实验、写论文都会变得更加简单。

  此外,无论是在学校还是在公司打比赛,算力不够、显存不足都是常有的事。顶尖竞争者的模型结构可能相差无几,区别就在于谁的模型更大、更有能力去处理复杂的样本。更直观地说,排行榜领先者的模型也许就只差十几层,但也正是因为显存受限少了那十几层,有些模型才与冠军失之交臂。

  显存:约束算法工程师的瓶颈

  再举一个常见的例子,企业中的算法工程师拥有足够的算力,显存没那么重要。然而,只使用并行策略分担显存,还是可能会出现显存足够、但每张 GPU 的计算负载又不足的情况。

  4 张 V100,显存占满,而 GPU 利用率很低。

  即使是 V100 这样强大的算力,训练大模型时也很容易占满 16GB 显存。然而由于批量不够大,上图每张 V100 GPU 的利用率只有 20% 到 30%。只有继续增大每次迭代的数据吞吐量,才能增加 GPU 的利用率。

  MegEngine:显存需要优化

  其实对于深度学习从业者来说,日常应用中出现的情况远不止上面三种。做深度学习,不论是研究还是工程,时不时就会遇到显存问题。但这个问题优化起来又很复杂,需要利用大量的工程实现来缓解。显然,这样的优化应该由深度学习框架来完成。不过,在实际应用中不难发现,TensorFlow、PyTorch 似乎都没有提供完善的官方解决方案。

  但如果把目光投向新生势力,情况可能就不一样了。在旷视开源深度学习框架 MegEngine 最近发布的 1.4 版本中,该框架首次引入了动态图显存优化技术,大大降低了显存占用问题。

  具体来说,通过复现并优化 ICLR 2021 Spotlight 论文《Dynamic Tensor Rematerialization》(以下简称 DTR),MegEngine 实现了「用计算换取更多显存」。有了这项技术的加持,模型的显存占用大大降低,同样的硬件可以训练更大的模型、承载更大的 BatchSize。如此一来,学生的小显卡也能开始训练大模型,而工程师们的服务器也经得起更充分的应用。

  原本需要 16GB 显存的模型,优化后使用的显存峰值就降到了 4GB。

  MegEngine 这种显存优化技术,让 1060 这样的入门级显卡也能训练原本 2080Ti 才能加载得上的模型;而 11GB 显存的 2080Ti,更能挑战原本 32GB V100 才能训练的模型。要知道,V100 的价格可是 2080Ti 的 9 倍还多。

  两行代码,显存「翻倍」

  如要需要自己去优化显存, 可能 99% 的算法工程师都会放弃。最好的办法是告诉深度学习框架,这次训练就分配多少显存,剩下的就交给框架自己去优化。MegEngine 的动态图显存优化就是基于这一逻辑。

  通过两行代码,框架可以全自动地完成显存优化,将所有优化逻辑与复杂的工程实现都隐藏在 MegEngine 内部。

  如上图所示,在动态计算图中导入 DTR 显存优化模块,并配置显存释放阈值为 5GB。训练时,因为显存已经「翻倍」了,Batch Size 翻四倍也能装到 GPU 中。

  显存扩增带来的收益

  很多时候,提高显存的利用率,最显著的作用就是能训练更大的模型。从一定程度上来说,参数量越大就意味着效果越好;而批大小越大,梯度更新方向就越准确,模型性能也就越优异。MegEngine 开发团队做了很多实验,以确保提高显存利用率的同时训练是优质的。

  最简单的验证方法就是不断增加批大小,看看显卡到底能坚持到什么程度。下面两张表分别展示了在 PyTorch 及 MegEngine 上加载或不加载动态图显存优化(DTR)技术的效果。

  如果不使用动态图显存优化技术,PyTorch 上的模型一次训练迭代最多只能处理 64 个样本,MegEngine 能处理 100 个样本。只要加上 DTR,PyTorch 模型一次迭代就能处理 140 个样本,MegEngine 能尝试处理 300 个样本。

  如果换算成模型大小,加上动态图显存优化技术的 MegEngine,在相同的 GPU 及批大小情况下,能高效训练增大近乎 5 倍的模型。

  MegEngine 动态图显存优化技术

  深度学习模型的显存占用一般分为权重矩阵、前向传播的中间张量、反向传播的梯度矩阵(Adam 优化器)三部分。

  权重矩阵和梯度矩阵占的内存很难优化,各个模型基本上都有一个定值。前向传播的中间计算结果则不然:随着 Batch Size 的增加以及模型层和数量的增加,显存必然跟着增加。如果模型比较大,中间计算结果将占据最主要的显存。

  如上图所示,在前向传播中(第一行从左到右),蓝色圆圈表示模型的中间计算结果开始占用显存。一直到前向传播完成,第一行完全变为蓝色圆圈,前面计算所占用的显存都不能释放。

  等到反向传播开始(第二行从右到左),随着梯度的计算与完成应用,前向传播保留在显存中的张量才可以释放。

  很明显,如果要降低显存占用,就要拿前向传播保存的中间计算结果开刀,这也正是 MegEngine 动态图显存优化的主要方向。

  用计算换显存

  对于动态计算图,最直接的方法就是用计算或内存换显存。因此,MegEngine 首先要决定到底使用哪种技术。

  MegEngine 团队通过实验发现,用计算耗时远比交换耗时少。例如从显存中节省 612.5MB 空间,用带宽换显存要比用计算换显存慢了几十上百倍。

  因此很明确,动态计算图中也应该使用梯度检查点技术,用计算换显存。

  如下为梯度检查点技术原理示意,前向传播中第三个点为检查点,它会一直保存在显存中。第四个点在完成计算后即可释放显存,在反向传播中如果需要第四个点的值,可以从第三个点重新计算出第四个点的值。

  虽然大致原理不难理解,但具体怎么做还是比较复杂的,MegEngine 团队借鉴了论文《Dynamic Tensor Rematerialization》,将其优化并实现到 MegEngine 中。

  DTR,最前沿的显存优化技术

  DTR 是一种完全动态的启发式策略,核心思想是当显存超过某个阈值时,动态地释放一些合适的张量,直到显存低于阈值。一般而言,释放张量的标准有三个:重新计算出该张量的开销越小越好;占用的显存越大越好;在显存中停留的时间越长越好。

  除去从检查点恢复前向传播结果张量带来的主要开销,DTR 的额外开销在于寻找应该被释放的最优张量,即计算上图张量 t 的 f(t)值。为了降低这一部分的计算量,MegEngine 还采用了两种运行时优化:

  • 不考虑小的张量,它们不加入候选集
  • 每次在需要释放张量的时候,随机采样并遍历少部分张量,以节省计算开销

  最难的是工程实现

  虽然 DTR 看上去原理也不复杂,但真正的难题在于提高易用性,即将所有细节都隐藏到框架的底层,只为开发者提供最简单的接口。

  在此就用一个最简单的计算例子,跟着框架演算一遍,看看 MegEngine 是如何利用动态图的计算历史恢复与释放张量的。

  现在假设输入有 a 和 b 两个张量,并希望计算 a*b 与 a+b,但是显存最大只能保存三个张量。在黄框计算 c=a+b 时,显存还能保留张量 c,然而在下一步绿框计算 d=a*b 时只能先释放 c 才能保存 d。

  不巧的是,下一步灰框需要获取黄框的计算结果,然而为了节省显存,c 已经被释放了。所以,MegEngine 现在需要做的是重新运行灰框的计算图,计算 c=a+b,并加载到显存中。显然,这样做必然需要释放 d 的显存。

  这样一来,鉴于显存的限制,MegEngine 就会自动选择合适的张量释放,并在需要时重新计算。如果需要重新计算某个张量的结果,例如上图的 d,就需要具体的历史计算信息(在这里就是 a+b 这样的计算路径),与此同时还需要知道 a 和 b 这两个输入张量。

  所有这样的历史计算信息都由 MegEngine 自动获取与保存,MegEngine 的工程师已经在底层用 C++ 处理完毕,用户完全不需要考虑。

  struct ComputePath {

   std::shared_ptr

   op;

   SmallVector

   inputs;

   SmallVector

   outputs;

   double compute_time = 0;

  } *producer;

  SmallVector

   users;

  size_t ref_cnt = 0;

  以上为 MegEngine 底层用于追踪计算路径信息的结构体。其中 op 表示产生该张量的算子;inputs 和 outputs 分别表示这个算子需要的输入与输出张量;compute_time 表示该算子实际的运行时间。

  实际上,在使用 MegEngine 的过程中,全都是用 Python 接口创建张量,只不过框架会对应追踪每个张量的具体信息。每当需要访问张量,不用考虑张量是否在显存中时,没有也能立刻恢复出来。所有这些复杂的工程化的操作与运算逻辑都隐藏在了 MegEngine C++ 底层。

  Python 代码会翻译成 C++ 底层实现,C++ 代码会通过指针管理显卡内存中真正的张量(右图绿色部分)。

  幸好这样的复杂操作不需要算法工程师完成,都交给 MegEngine 好了。

  MegEngine 能做的事情远不止于此,只不过大多是像动态图显存优化这种技术一样,润物细无声地把用户的实际问题解决于无形。2020 年 3 月开源的 MegEngine 在以肉眼可见的速度快速成长,从静态计算图到动态计算图,再到持续提升的训练能力、移动端推理性能优化、动态显存优化…… 这也许就是开源的魅力。只有不断优化和创新,才能吸引和满足「挑剔」的开发者。MegEngine 下一个推出的功能会是什么?让我们拭目以待。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
闻仲打了15年的北海,究竟有多恐怖?姜子牙为何终身不敢踏足?

闻仲打了15年的北海,究竟有多恐怖?姜子牙为何终身不敢踏足?

否知的否
2024-04-21 14:09:31
江西相亲要找月薪2.5万男友的女孩疑似工资造假被网友质疑

江西相亲要找月薪2.5万男友的女孩疑似工资造假被网友质疑

乡野小珥
2024-04-23 15:23:13
在国米夺冠庆祝活动中,巴雷拉和恰尔汗奥卢阻止球迷们辱骂特奥

在国米夺冠庆祝活动中,巴雷拉和恰尔汗奥卢阻止球迷们辱骂特奥

直播吧
2024-04-24 06:26:09
世界第一大机场,拥有8条跑道,我们最多只有5条,差距很大

世界第一大机场,拥有8条跑道,我们最多只有5条,差距很大

作家李楠枫
2024-04-23 22:49:25
苹果推送iOS17.5.2,续航难以置信,信号终于完美,建议升级

苹果推送iOS17.5.2,续航难以置信,信号终于完美,建议升级

花生评测
2024-04-23 10:52:26
回顾:新娘火出圈,却全程哭泣,不让新郎碰一下:心都碎了

回顾:新娘火出圈,却全程哭泣,不让新郎碰一下:心都碎了

佑宛故事汇
2024-04-22 15:59:41
媚而不俗,高启兰隆妮不愧是人间尤物,与53岁的于和伟激吻!

媚而不俗,高启兰隆妮不愧是人间尤物,与53岁的于和伟激吻!

娱乐白名单
2024-04-21 12:37:45
这是咋了?继塔利班和巴基斯坦后,叙利亚也宣布愿与美国友好相处

这是咋了?继塔利班和巴基斯坦后,叙利亚也宣布愿与美国友好相处

娱宙观
2024-04-22 16:28:18
金价涨,金店为什么纷纷跑路?房价涨的时候怎么不见开发商这样?

金价涨,金店为什么纷纷跑路?房价涨的时候怎么不见开发商这样?

记忆承载
2024-04-23 06:59:24
抵死不从!马英九要将“九二共识”纳入党章,三任党主席意见不一

抵死不从!马英九要将“九二共识”纳入党章,三任党主席意见不一

陈美秀台湾
2024-04-23 16:10:14
孙永才与安徽省委常委、合肥市委书记张红文座谈

孙永才与安徽省委常委、合肥市委书记张红文座谈

兰妮搞笑分享
2024-04-24 01:31:22
曼晚:考文垂球员惊讶拉师傅的表现,认为他已是场上的边缘人

曼晚:考文垂球员惊讶拉师傅的表现,认为他已是场上的边缘人

懂球帝
2024-04-23 21:34:15
杨洋又上热搜!哈尔滨搓澡被偶遇,拐杖不离手!粉丝曝光出行原因

杨洋又上热搜!哈尔滨搓澡被偶遇,拐杖不离手!粉丝曝光出行原因

娱圈小愚
2024-04-23 11:20:49
大反转!湖人队申诉!老詹怒批裁判昏哨:G3掘金队收获一大喜讯

大反转!湖人队申诉!老詹怒批裁判昏哨:G3掘金队收获一大喜讯

帮主聊球
2024-04-23 18:11:43
听我一句劝,排量超过2.0L的自然吸气发动机,完全没有购买的必要

听我一句劝,排量超过2.0L的自然吸气发动机,完全没有购买的必要

绝密探照灯
2024-04-23 17:22:35
IPhone网速太慢,是苹果默认设了限制,打开之后,网速相差巨大!

IPhone网速太慢,是苹果默认设了限制,打开之后,网速相差巨大!

天边的孤雁
2024-04-18 16:20:03
人能活多久看手掌就知?医生直言:长寿的人,手掌一般有这些特征

人能活多久看手掌就知?医生直言:长寿的人,手掌一般有这些特征

今日养生之道
2024-04-23 20:04:25
沙滩座椅坐10分钟收80元?当地回应了

沙滩座椅坐10分钟收80元?当地回应了

新京报
2024-04-23 08:48:38
报应来了!反华国家宣布破产,欧美拒绝救援,服软向中方借200亿

报应来了!反华国家宣布破产,欧美拒绝救援,服软向中方借200亿

环球Talk
2024-02-27 23:48:25
美联储坚决不投降,再放加息信号,不到24小时,日本扫货潮出现

美联储坚决不投降,再放加息信号,不到24小时,日本扫货潮出现

户外阿崭
2024-04-23 15:26:12
2024-04-24 07:54:44
机器之心Pro
机器之心Pro
专业的人工智能媒体
8915文章数 141891关注度
往期回顾 全部

数码要闻

iPad 问世 14 年,苹果终于考虑为其带来原生计算器应用

头条要闻

长沙警方通报14岁女生被同学殴打:将嫌疑人传唤到案

头条要闻

长沙警方通报14岁女生被同学殴打:将嫌疑人传唤到案

体育要闻

老球痞们给年轻人上了课

娱乐要闻

赵丽颖晒照似初恋,拍照疑与儿子分享

财经要闻

三大因素“施压” 黄金价格大幅回调

科技要闻

特斯拉Q1营收213亿美元,净利同比暴跌55%

汽车要闻

广汽丰田2024赛那SIENNA正式上市

态度原创

旅游
数码
房产
教育
手机

旅游要闻

重庆荣获2023年全国游客满意度十佳城市

数码要闻

以 Xbox 为灵感,Meta 将和微软合作推出限量版 Quest 头显

房产要闻

供应量环跌71%!海口这个月又只发了5张证!

教育要闻

西交大少年班考题,非常经典一道题!

手机要闻

骁龙8s Gen3续航巨无霸!iQOO Z9 Turbo今天发

无障碍浏览 进入关怀版