网易首页 > 网易号 > 正文 申请入驻

DeepSeek满血微调秘籍来了,全网首发打破低价内卷!解锁升级版全家桶

0
分享至

新智元报道

编辑:编辑部 HYZ

【新智元导读】全网首发!DeepSeek V3/R1满血版低成本监督微调秘籍来了,让高达6710亿参数AI巨兽释放最强性能。

DeepSeek V3/ R1火爆全网,基于原始模型的解决方案和API服务已随处可见,陷入低价和免费内卷。

如何站在巨人肩膀上,通过后训练(post-training)结合专业领域数据,低成本打造高质量私有模型,提升业务竞争力与价值?

已收获近4万GitHub Star的Colossal-AI,发布开源大模型后训练工具箱,包含:

  • DeepSeek V3/ R1满血671B LoRA低成本SFT微调

  • 完整的强化学习工具链 PPO,GRPO,DPO,SimPO等

  • 无缝适配DeepSeek系列蒸馏模型在内的HuggingFace开源模型

  • 兼容支持英伟达GPU、华为昇腾NPU等多种硬件

  • 支持混合精度训练,gradient checkpoint等训练加速降低成本

  • 灵活的训练配置接口,支持自定义奖励函数、损失函数等

  • 提供灵活的并行策略配置接口,包括数据并行、模型并行、专家并行、ZeRO和Offload等,以适应不同硬件规模

开源地址:https://github.com/hpcaitech/ColossalAI

低成本监督微调满血版DeepSeek V3/R1 671B

DeepSeek V3/R1满血版参数高达6710亿,如何低成本进行低成本微调呢?仅需以下几个步骤,即可快速完成。

数据集准备

该脚本接收JSONL格式的文件作为输入数据集,例如:

https://github.com/hpcaitech/ColossalAI/blob/main/applications/ColossalChat/examples/training_scripts/lora_sft_data.jsonl

数据集的每一行应为一个聊天对话列表。例如:

[{"role": "user", "content": "你好,最近怎么样?"}, {"role": "assistant", "content": "我很好。今天有什么可以帮你的吗?"}]

[{"role": "user", "content": "火烧赤壁 曹操为何不拨打119求救?"}, {"role": "assistant", "content": "因为在三国时期,还没有电话和现代的消防系统,所以曹操无法拨打119求救。"}]

该数据格式,兼容Huggingface chat template,支持自定义system prompt,因此可灵活按需配置。

模型权重准备

为保证更好的微调效果,使用BF16权重进行微调。

如果已下载了FP8的DeepSeek V3/R1权重,可以使用DeepSeek官方脚本https://github.com/deepseek-ai/DeepSeek-V3/blob/main/inference/fp8_cast_bf16.py通过GPU将权重转换为BF16。

对于使用国产华为昇腾算力,可以下载https://gitee.com/ascend/ModelZoo-PyTorch/blob/master/MindIE/LLM/DeepSeek/DeepSeek-V2/NPU_inference/fp8_cast_bf16.py脚本转换权重。

使用方法

在准备好数据集和模型权重后,可使用Colossal-AI提供的一键启动脚本:

https://github.com/hpcaitech/ColossalAI/blob/main/applications/ColossalChat/examples/training_scripts/lora_finetune.py

该脚本与常见SFT脚本类似,且完全兼容HuggingFace PEFT,启动命令:

colossalai run --hostfile path-to-host-file --nproc_per_node 8 lora_finetune.py --pretrained path-to-DeepSeek-R1-bf16 --dataset path-to-dataset.jsonl --plugin moe --lr 2e-5 --max_length 256 -g --ep 8 --pp 3 --batch_size 24 --lora_rank 8 --lora_alpha 16 --num_epochs 2 --warmup_steps 8 --tensorboard_dir logs --save_dir DeepSeek-R1-bf16-lora

有关每个参数的更多详细信息,可以运行 python lora_finetune.py --help 查看。

该脚本可通过tensorboard记录学习率、loss、grad norm信息,方便对训练进行监控。

使用LoRA优化硬件资源消耗

通过使用LoRA等优化,示例命令已将SFT DeepSeek V3/R1 671B最低硬件要求降低近10倍,可使用32个Ascend 910B NPU 64GB(使用ep=8,pp=4)或24个H100/H800 GPU(使用ep=8,pp=3)。

如果你通过--zero_cpu_offload启用CPU offload,硬件要求可以进一步降低,但会损失一定的训练速度。

如下图验证,在SFT DeepSeek V3/R1 671B时,Loss可以顺利降低。

对于资金充裕的开发团队,也可以使用上述脚本,将并行度高效扩展至数百及数千卡,快速完成DeepSeek V3/R1 671B全参微调或并行加速。

对于预算有限,又想借助强化学习构建自己的类DeepSeek R1模型, Colossal-AI也提供了解决方案,并利用小模型对算法进行了验证。

通过强化学习微调蒸馏版DeepSeek

Colossal-AI团队验证并实现了DeepSeek论文中的GRPO算法及verifiable reward,使用Qwen2.5-3B-Base模型进行了实验。其中,奖励的设计如下:

  1. 奖励 = 0,如果格式是正确的;

  2. 奖励 = 1, 如果格式是正确的但是结果是错误的;

  3. 奖励 = 10,如果格式与结果都是正确的。

Colossal-AI团队以Qwen2.5-3B-Base模型为例,提供了用于验证GRPO的对话模板及设定:

https://github.com/hpcaitech/ColossalAI/blob/main/applications/ColossalChat/conversation_template/Qwen_Qwen2.5-3B.json

通过配置以下bash文件,即可一键启动:

https://github.com/hpcaitech/ColossalAI/blob/main/applications/ColossalChat/examples/training_scripts/train_grpo.sh

同时,在GRPO章节,Colossal-AI团队还提供了验证过程中的部分发现及各种参数的详细描述,可供参考。

代码中设计了可灵活配置奖励函数的模板,因此,用户可根据自己的具体情况设计自己的奖励函数体系。

由下图可以看到,即使是3B的模型,平均奖励与模型回复长度随着时间逐步增长

随着训练的进行,我们可以看到一些有意思的例子。例如随着训练迭代,模型开始了自我纠正

Colossal-AI:最佳后训练工具箱

Colossal-AI在深耕大模型预训练降本增效的基础上,致力于进一步成为开发者开箱即用的最佳后训练工具,帮助用户基于开源模型,低成本快速构建私有模型。

开源地址:https://github.com/hpcaitech/ColossalAI

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
太突然!董事长汤建,因心梗意外去世

太突然!董事长汤建,因心梗意外去世

每日经济新闻
2026-03-25 18:21:26
日军官闯中国使馆后,天皇玄孙迅速澄清,高市失声,特朗普没说错

日军官闯中国使馆后,天皇玄孙迅速澄清,高市失声,特朗普没说错

谛听骨语本尊
2026-03-25 16:26:02
梁兴初被隔离审查8年,自由后叶帅给出两个选择,梁:一个也不要

梁兴初被隔离审查8年,自由后叶帅给出两个选择,梁:一个也不要

兴趣知识
2026-03-25 12:32:27
王励勤动真格了!伦敦世乒赛阵容有变,陈梦调整,2人被冷落

王励勤动真格了!伦敦世乒赛阵容有变,陈梦调整,2人被冷落

不似少年游
2026-03-25 17:03:59
张雪峰传奇人生揭秘:父母下岗,大学考上郑大,第一份工作开饭店

张雪峰传奇人生揭秘:父母下岗,大学考上郑大,第一份工作开饭店

谈史论天地
2026-03-25 07:26:54
这是清朝格格们的真实容貌,都看看吧,这不是演员扮演的

这是清朝格格们的真实容貌,都看看吧,这不是演员扮演的

圆梦的小老头
2026-03-24 13:38:33
黄天鹅就鸡蛋角黄素抽检结果发布声明,三地监管部门抽检结果反馈,鸡蛋未检出角黄素

黄天鹅就鸡蛋角黄素抽检结果发布声明,三地监管部门抽检结果反馈,鸡蛋未检出角黄素

每日经济新闻
2026-03-25 18:11:54
离谱!皇马队医坑完姆巴佩坑卡马文加,前员工曝其用ChatGPT开药

离谱!皇马队医坑完姆巴佩坑卡马文加,前员工曝其用ChatGPT开药

仰卧撑FTUer
2026-03-26 08:02:05
面对伊朗同归于尽打法,美军亮出王炸底牌:如果战败,就爆核武器

面对伊朗同归于尽打法,美军亮出王炸底牌:如果战败,就爆核武器

半壁胭脂色
2026-03-24 16:09:17
女儿高考当天,我撞见婆婆往她汤里下药,我偷偷换给了高考的侄子

女儿高考当天,我撞见婆婆往她汤里下药,我偷偷换给了高考的侄子

鱼语昱雨轩
2026-03-25 14:03:47
央视发文,60岁释永信再迎噩耗,被他害惨的4个明星也出了口恶气

央视发文,60岁释永信再迎噩耗,被他害惨的4个明星也出了口恶气

阿伧说事
2026-03-25 07:11:23
87年薄一波去杭州探望陈云,期间二人神秘交谈,薄提醒:你悠着点

87年薄一波去杭州探望陈云,期间二人神秘交谈,薄提醒:你悠着点

谈古论今历史有道
2026-03-25 15:15:03
好莱坞的AI招魂术:死亡不再是劳动的终点

好莱坞的AI招魂术:死亡不再是劳动的终点

动察Beating
2026-03-26 11:06:56
中方坚决扣留船只,美方及时干预 取消中企投标资格,巴拿马难挽

中方坚决扣留船只,美方及时干预 取消中企投标资格,巴拿马难挽

南宗历史
2026-03-25 16:04:15
姆巴佩:无法想象没有内马尔的世界杯,但我也不能去反对安帅

姆巴佩:无法想象没有内马尔的世界杯,但我也不能去反对安帅

懂球帝
2026-03-26 07:00:47
固态电池神话破灭?比亚迪三款千公里续航实车已杀到!

固态电池神话破灭?比亚迪三款千公里续航实车已杀到!

芭比衣橱
2026-03-26 09:52:41
李双江庆87岁大寿!怒吼要奋斗到90岁,切不动蛋糕戴玉强扶手帮忙

李双江庆87岁大寿!怒吼要奋斗到90岁,切不动蛋糕戴玉强扶手帮忙

嫹笔牂牂
2026-03-26 07:37:49
5种“夺命花”不要养,家里要有赶快扔,谁不听劝谁吃亏

5种“夺命花”不要养,家里要有赶快扔,谁不听劝谁吃亏

三农老历
2026-03-26 09:42:30
打疯!东契奇生涯32次单节20+追平哈登 历史第三仅输库里科比

打疯!东契奇生涯32次单节20+追平哈登 历史第三仅输库里科比

醉卧浮生
2026-03-26 07:54:15
新型啃老正流行,67岁大妈哭诉:女儿的陪伴式养老是我晚年的噩梦

新型啃老正流行,67岁大妈哭诉:女儿的陪伴式养老是我晚年的噩梦

惟来
2026-03-25 09:45:12
2026-03-26 13:51:00
新智元 incentive-icons
新智元
AI产业主平台领航智能+时代
14819文章数 66720关注度
往期回顾 全部

科技要闻

Meta高管狂分百亿期权,700名员工却下岗

头条要闻

伊朗议长和外长暂被移出美以清除名单 时限4到5天

头条要闻

伊朗议长和外长暂被移出美以清除名单 时限4到5天

体育要闻

35岁替补门将,凭什么入选英格兰队?

娱乐要闻

张雪峰家人首发声 不设追思会丧事从简

财经要闻

黄仁勋:芯片公司的时代已经结束了

汽车要闻

一汽奥迪A6L e-tron开启预售 CLTC最大续航815km

态度原创

教育
家居
时尚
旅游
手机

教育要闻

2027届注意:暑期实习=秋招通行证,错过等一年

家居要闻

傍海而居 静观蝴蝶海

2026年了,最好看的还是“这件针织”!

旅游要闻

明起全面实行线上实名预约购票!云台山景区发布公告

手机要闻

三星One UI 9前瞻:小部件更方正、Now Bar动画更丝滑

无障碍浏览 进入关怀版