网易首页 > 网易号 > 正文 申请入驻

如何加速大模型开发?技术方案拆解来了:昇思MindSpore技术一览

0
分享至

随着ChatGPT爆火出圈,狂飙之势从22年底持续到23年初,与以往的技术突破不同的是,此次的大模型不仅被技术界关注,而且备受投资界、产业界和大众消费者的追捧,使它成为历史上最快月活过亿的现象级应用,继而引发全球科技巨头的AI竞赛。

大模型的高智能化离不开对模型的大规模预训练,这背后需要强大的AI框架作底层支持。面对动辄千亿级参数的大模型,如何使能广大开发者和用户进行开发,在当前大模型研究分秒必争之时弯道超车?且让我们顺着大模型技术的方案拆解,一探昇思MindSpore AI框架的技术能力。

预训练大模型的开发之路

大规模预训练——GPT3与鹏程.盘古

2020年,OpenAI祭出了远超同期所有预训练模型的大杀器GPT3。凭借着1750亿参数量,300B Token的预训练,GPT3展现出非常强悍的自然语言处理能力,包括:

  • 文本生成:根据Prompt来续写(补全)句子。
  • 上下文学习(In-context Learning): 遵循给定任务的几个示例,然后为新的测试用例生成解决方案。
  • 世界知识(World Knowledge): 包括事实性知识和常识。

此时与GPT3同量级的大规模预训练语言模型仍是国内外难以逾越的大山。2021年4月,基于昇思MindSpore AI框架的多维度自动混合并行能力,以鹏城实验室为首的联合科研团队在大规模AI算力平台鹏城云脑II上,训练出业界首个2000亿参数、以中文为核心的预训练生成语言模型鹏程.盘古。联合团队从开源开放数据集、common crawl网页数据、电子书等收集了近80TB原始数据,搭建了面向大型语料库预处理的分布式集群,通过数据清洗过滤、去重、质量评估等处理流程,构建了一个约1.1TB大小的高质量中文语料数据集,经统计Token数量约为250B规模。

凭借着与GPT3相同量级的参数量,鹏程.盘古预训练模型拥有不逊于GPT3的上下文学习和世界知识能力。

△图1 鹏程.盘古模型架构

利用昇思MindSpore AI框架的自动并行能力,开发者只需一行代码就能实现模型自动切分、分布式并行计算,省却大量复杂设计,在大集群上高效训练千亿至万亿参数模型。关于昇思MindSpore的自动并行能力,这里先按下不表,让我们继续看下一个技术要素。

思维链的必经之路——Code预训练

思维链(Chain of Thoughs,即链式思维推理)是大模型能够拥有拟人化对话能力的关键。在GPT3之后,思维链能力开始被认为是通过few shot learning进行激发,后续有“lets think step by step”的zero shot prompt进一步触发了该能力。但是此时的大模型仍旧仅限于在各类数据集上呈现弱思维链能力。

直到代码数据的预训练模型出现并融入到自然语言预训练模型中,大模型的思维链接能力跃上新的台阶。下图是OpenAI从GPT3以来的演进路线图。左侧的分支是代码大模型的持续演进,一直到code-davinci-002将LM和Code训练进行融合,再加入instruct tuning,最终催生出耳熟能详的ChatGPT。

△图2 ChatGPT演进路线

2022年9月,清华大学团队基于昇思MindSpore 1.7研发了CodeGeeX代码预训练大模型,并使用鹏城实验室的大规模AI算力平台(鹏城云脑II)进行训练。CodeGeeX的训练语料由两部分组成:第一部分是开源代码数据集,The Pile与CodeParrot;第二部分是补充数据,直接从GitHub开源仓库中爬取Python、Java、C++代码。整个代码语料含有23种编程语言、总计1587亿个标识符(不含填充符)。

在开发与训练过程中,清华大学与昇思MindSpore团队深度合作,实现了一系列算子融合优化,包括单元素算子融合、层归一化算子融合、FastGelu与矩阵乘法融合、批量矩阵乘法与加法融合等, 为训练速度带来了显著提升。

撬动人类的智慧——RLHF与PPO

ChatGPT令人震惊的能力在于其能够真正拟人化地进行对话,生成内容更加符合人类的认知和价值观。在大模型已经具备充足的世界知识、上下文学习能力和思维链能力的情况下,虽然可以在各大NLP数据集持续刷榜,但是仍旧存在一个问题——与人类的表达习惯差异巨大。而ChatGPT的前身InstructGPT,向我们展示了人类反馈加入模型训练的循环当中,所能呈现的巨大改变,那就是RLHF(Reinforcement Learning from Human Feedback,即使用人类反馈强化学习)。

RLHF技术主要分为如下4个步骤:

1) 无监督预训练: 预训练一个语言模型如GPT-3。

2) 有监督的微调:生成一组Prompt,以及对每个Prompt的人类反馈。即一个由对组成的训练数据集。然后对预训练的模型进行微调。

3) 训练“人类反馈”的奖励模型:建立一个奖励模型,对预训练语言模型输出进行评分。首先给定一组Prompt,机器生成对这些指令的Answer,并由人类对其质量进行评分或排名。使用这个数据集来训练一个奖励模型,为任何对输出一个质量分数。

4) 训练一个基于奖励模型进行优化的强化学习策略。

下图是RLHF的核心PPO算法的示意图:

△图3 PPO算法逻辑

针对RLHF所需的强化学习算法,昇思MindSpore进行了布局,发布MindSpore Reinforcement Learning套件,为编写强化学习算法提供了简洁的API抽象,将算法与部署和调度解耦;将强化学习算法转换为一系列编译后的计算图,然后由昇思MindSpore AI框架在昇腾AI处理器、CPU、GPU上高效运行。目前MindSpore Reinforcement Learning套件提供下述能力:

1) 提供丰富的强化学习算法:当前已支持15+经典强化学习算法,涵盖Model-free/Model-based/Offline-RL/Imitation Learning,单智能体/多智能体,连续/离散动作空间,Episodic/Non-Episodic等算法;接入Mujoco、MPE、StarCraft2、DeepMind Control等常用模拟环境。

2) 专注高性能训练:通过计算图和ReplayBuffer加速、异步环境并行和高性能领域组件,已支持算法的平均吞吐率相比主流框架提升120%。

3) 支持大规模分式训练:通过将强化学习算法分割成多个数据流片段(Fragmented Dataflow Graphs),并映射到异构设备上高效执行,对比业界主流框架实现了3~5倍的性能提升。

昇思MindSpore使能大模型历程

随着AI技术的发展,预训练大模型成为世界各科技强国竞争的焦点。预训练大模型率先在自然语言处理领域取得突破性的进展,并迅速拓展到涉及图像、视频、图形、语言等跨媒体推理的各类任务和大量的商业应用之中,展现了巨大的发展潜力。在过去的几年,产业界基于昇思MindSpore先后发布了一系列有影响力的大模型,下图为这些大模型的训练时间轴。

△图4 昇思MindSpore大模型历程

上图模型结构涉及Transformer Encoder、Transformer Decoder、MOE、乃至Clip与Diffusion,均基于昇思MindSpore AI框架训练。

昇思MindSpore具备丰富的并行能力,能轻松完成4096卡集群、万亿参数规模的训练任务,因此支撑了国内多个领域首发大模型的训练,这些大模型涉及知识问答、知识检索、知识推理、阅读理解、文本/视觉/语音多模态、生物制药、遥感、代码生成等。

大模型的底座——昇思MindSpore的分布式并行能力

在梳理完ChatGPT的技术方案和昇思MindSpore的大模型历程之后,我们再深入展开昇思MindSpore AI框架支撑一众大模型的核心——分布式并行能力。

分布式训练

昇思MindSpore支持当前主流的分布式训练范式并开发了一套自动混合并行解决方案,提供以下关键技术:

1)数据切片预处理:对训练数据进行任意维度切片后再导入到设备进行训练;

2)算子级并行:对正向网络中的每个算子都独立建模,每个算子可以拥有不同的切分策略;

3)优化器并行:将数据并行的参数副本切分到多个设备上,以节省内存占用;

4)Pipeline并行:将神经网络中的计算图切分成多个阶段(Stage),再把阶段映射到不同的设备上,使得不同设备去计算神经网络的不同部分;

5)MOE并行:为每个专家分配专门的计算任务,不同的专家可以托管在不同的设备上;

6)多副本并行:在一个迭代步骤中,将一个训练batch拆分成多个micro-batch,将模型并行通信与计算进行并发;

7)异构并行:将算子分配到异构硬件上执行,充分利用硬件资源,提升整体训练吞吐量;

8)正向重计算:在正向计算时,不保存占用大量内存的中间输出结果,而是保存占用少量内存的输入;而在反向计算时,根据输入重新计算正向输出,从而大大削减正向计算累积的内存峰值;

9)全局内存复用:对计算图进行静态编译寻优得到最优内存复用策略;

相较于业界的深度学习框架或分布式并行框架,昇思MindSpore在分布式关键技术上,支持能力范围广、自动化程度高、易用性好,具备如下优势:

1)支持的模型类型更丰富(Transformer、超分图像、推荐等),通用性更强,而像业界Megatron框架则是面向Transformer定制的框架;

2)相同算力和网络下,丰富的并行策略可实现更大的计算通信比,性能更优(相同硬件平台(V100、A100),性能超越Megatron 15%);

3)并行策略丰富,无需手动切分,大模型开发和调优效率优于业界;

分布式推理

相较于训练,推理对计算性能的要求更高。如何在集群上实现高效快速的大模型推理,是目前各种框架研究的一个重点和难点。为了解决上述问题,昇思MindSpore提出了分布式推理+增量推理的解决方案,使用数据并行、模型并行、流水并行等多维度混合并在大集群上面进行推理。此外,由于Transformer Decoder类自回归语言模型,在传统的推理模式下存在很多重复计算,昇思MindSpore提供的增量推理能力能够省掉这些重复计算,增强推理效率。

△图5 增量推理流程图

如上图所示,第一阶段将使用完整输入推理,保存当前字(词)对应的向量。在第二阶段,输入仅为上一步推理得到的字(词),然后将本步推理得到的向量与保存下来的前序向量拼接,作为本步推理的完整向量,得到本步的输出字(词)。重复以上两个阶段。

极简易用的大模型训练——大模型套件

在现有的大模型开发过程中,用户经常会发现SOTA基础模型代码非模块化从而影响进一步的创新开发。不仅如此,用户在模型实现中,经常找不到对应的SOTA模型以及相应的下游任务,从而加长了开发周期,影响论文或项目的进度。为了解决这些痛点,基于昇思MindSpore的大模型套件——MindSpore Transformers应声而出。

MindSpore Transformers是基于昇思MindSpore的深度学习大模型开发套件,其目标是构建一个大模型训练、微调、评估、推理、部署的全流程开发套件。套件覆盖了CV、NLP等AIGC的热门领域,提供模型生命周期中的全流程快速开发能力,支持开箱即用,并具有四个特点:

  • MindSpore Transformers中提供了非常丰富的预置模型,包含了当下典型的预训练大模型(Bert、T5、VIT等),涵盖当下CV、NLP等AIGC的热门领域。同时,套件也包含了丰富的下游微调任务,精度与SOTA基本持平。
  • MindSpore Transformers中提供了统一的开发范式。套件开放了Trainer、pipeline等特性接口,实现模块化、配置化的开发,大大提高典型模型(尤其是基于transformer结构的网络)的开发效率。模型部署方面, 套件支持昇腾AI基础软硬件平台,提供了一键云上部署接口。
  • MindSpore Transformers提供了统一的对外接口。在现有版本中,套件和业界流行的Huggingface 接口保持一致,用户可以一键切换,从而极大地降低代码迁移的成本。
  • MindSpore Transformers套件天然包含昇思MindSpore AI框架自身优势,包含多维度并行(模型并行、流水线并行、优化器并行、多副本并行等)、图算融合等能力,可以在模型训练时有效地提升内存使用效率和速度,帮助用户快速训练百亿、千亿甚至是万亿级别的模型。

△图6 MindSpore Transformers 架构图

通过以上技术拆解和案例可以看出,昇思MindSpore发展至今,已经具备了支持大模型开发所需的各项核心技术,同时提供了一整套高效、易用的大模型使能套件,形成了端到端的使能大模型开发能力。昇思MindSpore AI框架为助力大模型创新、繁荣AI产业生态铺就了一条信心之路。

△图7 昇思MindSpore原生支持大模型的能力优势

欢迎使用昇思MindSporeAI框架:
https://mindspore.cn/
https://gitee.com/mindspore/mindformers

引用:
[1]Zeng W, Ren X, Su T, et al. Large-scale Autoregressive Pretrained Chinese Language Models with Auto-parallel Computation[J]. arXiv preprint arXiv:2104.12369
[2]https://yaofu.notion.site/GPT-3-5-360081d91ec245f29029d37b54573756
[3]https://huggingface.co/blog/rlhf
[4] https://aijishu.com/a/1060000000222564
[5]https://gitee.com/mindspore/mindformers/wikis/%E7%89%B9%E6%80%A7%E8%AE%BE%E8%AE%A1%E6%96%87%E6%A1%A3

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
今年“最惨”的6个行业,不是降薪就是裁员,希望你没在其中

今年“最惨”的6个行业,不是降薪就是裁员,希望你没在其中

星辰故事屋
2024-06-11 19:23:45
2015年男子让11个女友“共享”,还赚148万生2娃,坦言人累心不累

2015年男子让11个女友“共享”,还赚148万生2娃,坦言人累心不累

汉史趣闻
2024-06-11 11:26:20
尿毒症是喝出来的?医生告诫:即便是铁打的肾,这3种水也要少喝

尿毒症是喝出来的?医生告诫:即便是铁打的肾,这3种水也要少喝

莫将离
2024-06-01 23:41:40
重磅消息!特朗普判决下来了,美大选翻天巨变,中方需早做准备

重磅消息!特朗普判决下来了,美大选翻天巨变,中方需早做准备

诉说人世间
2024-06-11 06:10:02
郭某某(女,34岁),被拘!

郭某某(女,34岁),被拘!

FM93浙江交通之声
2024-06-11 19:12:14
黄一鸣承认孩子是王思聪的,拿健康赚钱不觉丢脸,曝两人相处细节

黄一鸣承认孩子是王思聪的,拿健康赚钱不觉丢脸,曝两人相处细节

古希腊掌管月桂的神
2024-06-11 21:04:46
失败了热搜三天,成功了热搜秒下

失败了热搜三天,成功了热搜秒下

洞见先生
2024-06-11 15:03:35
被室友用拖鞋抽耳光致鼓膜穿孔,警校少女遭校园欺凌后起诉

被室友用拖鞋抽耳光致鼓膜穿孔,警校少女遭校园欺凌后起诉

南方都市报
2024-06-11 13:18:21
亚足联官网:泰国队心碎了,与中国队平分秋色但仅获得第三名

亚足联官网:泰国队心碎了,与中国队平分秋色但仅获得第三名

直播吧
2024-06-11 23:40:52
乐极生悲?高考结束冲出校门撞倒母亲,疑似后脑着地母亲肢体僵直

乐极生悲?高考结束冲出校门撞倒母亲,疑似后脑着地母亲肢体僵直

启农说
2024-06-11 18:12:16
深夜证券市场突发王炸消息,新闻联播播了5分钟,明天将有大变局

深夜证券市场突发王炸消息,新闻联播播了5分钟,明天将有大变局

静守时光落日
2024-06-11 11:29:02
3-0!蔡斌如梦初醒,重用朱婷,激活全队进攻,女排横扫欧洲劲旅

3-0!蔡斌如梦初醒,重用朱婷,激活全队进攻,女排横扫欧洲劲旅

钉钉陌上花开
2024-06-11 21:46:55
好可怕!第一次直观感受到基因的不公平,这些照片一张比一张震惊

好可怕!第一次直观感受到基因的不公平,这些照片一张比一张震惊

综艺拼盘汇
2024-06-11 18:31:48
中国女排VS保加利亚赛后,世联赛积分更新,蔡斌率队连升2位

中国女排VS保加利亚赛后,世联赛积分更新,蔡斌率队连升2位

极度说球
2024-06-11 22:10:59
国足0-1韩国,孙继海赛后点评,说的都是心里话

国足0-1韩国,孙继海赛后点评,说的都是心里话

人生趣事悟语
2024-06-12 00:19:29
奇迹发生!国足出线,杀进18强:新加坡1-3帮忙,泰国绝望

奇迹发生!国足出线,杀进18强:新加坡1-3帮忙,泰国绝望

叶青足球世界
2024-06-11 22:27:54
官方一图汇总Xbox发布会:18款首发加入XGP!

官方一图汇总Xbox发布会:18款首发加入XGP!

游民星空
2024-06-10 12:08:05
差0.07分,中国女排获得奥运资格,但输日本女排之辱犹未雪

差0.07分,中国女排获得奥运资格,但输日本女排之辱犹未雪

真理是我亲戚
2024-06-11 22:36:13
泰国3-1却面如死灰!美女足协主席很绝望,哨响6人瘫倒,捂脸痛哭

泰国3-1却面如死灰!美女足协主席很绝望,哨响6人瘫倒,捂脸痛哭

嘴炮体坛
2024-06-11 22:48:43
展望18强!国足第5档参加抽签,铁定进死亡之组,前2直通世界杯!

展望18强!国足第5档参加抽签,铁定进死亡之组,前2直通世界杯!

绿茵舞着
2024-06-11 23:05:56
2024-06-12 06:20:49
量子位
量子位
追踪人工智能动态
9518文章数 175376关注度
往期回顾 全部

科技要闻

“从太空都能看到”!特斯拉被指库存积压

头条要闻

西安一骑手举报队长"吃拿卡要" 顺丰同城:举报不实

头条要闻

西安一骑手举报队长"吃拿卡要" 顺丰同城:举报不实

体育要闻

泰国赢球出局!美女足协主席面色铁青

娱乐要闻

娄艺潇被曝新恋情,和男友甜蜜互动

财经要闻

捷瑞数字IPO:关联方"投喂"客户引关注

汽车要闻

大家9纯电续航225km 超过5米2超混MPV开着也有劲

态度原创

健康
旅游
教育
时尚
军事航空

晚餐不吃or吃七分饱,哪种更减肥?

旅游要闻

文旅部:端午节假期国内出游1.1亿人次 增长6.3%

教育要闻

剑南春2024高考专题报道

再见了,拼多多!

军事要闻

哈马斯称接受安理会加沙停火决议 准备就细节进行谈判

无障碍浏览 进入关怀版