网易首页 > 网易号 > 正文 申请入驻

秋招超强助攻:零基础1小时上手GPT微调!全流程教程免费开源

0
分享至

新智元报道

编辑:艾伦

【新智元导读】针对OpenAI最新开源的GPT-OSS,这一篇面向零基础小白用户的手把手式的详细训练教程或许能帮助你完成你的第一个GPT训练项目。

新一年的最难秋招季又来了!

2025年,随着AI Agent的铺开,各类岗位都开始逐渐要求候选人具有AI能力。

你是否也想在简历上拥有训练GPT的高大上的项目经历,增强自己在AI时代求职的竞争力?

解决方案现在有了。

今年8月5日,自从几年前GPT-2发布后,再无新开源模型的终于发布了新开源大模型GPT-OSS,引发社区热议。

模型分为120B和20B两个版本,其中20B的版本理论上可以在消费级的16GB以上显存的显卡上运行,从而允许我们以较低的成本使用消费级显卡训练GPT。

近日,博主Lorentz Yeung发表的一篇博客,就对本地部署和微调训练GPT-OSS进行了手把手的详尽教学,小白友好值Max。

博客地址:https://pub.towardsai.net/teaching-openais-gpt-oss-20b-model-multilingual-reasoning-ability-a-hands-on-guide-with-rtx-4090-0835ba121ee7

微调GPT-OSS-20B

RTX 4090本地实操指南

本文会详细介绍如何对OpenAI最新开源的GPT-OSS-20B模型(https://huggingface.co/unsloth/gpt-oss-20b-GGUF)进行微调,以提升它的多语言推理能力。

我们将涵盖目标设定、基于RTX 4090和WSL2的本地环境搭建、代码来源、详细操作流程、训练前后效果对比,以及为何即便只训练60步也能有显著提升。

如果你喜欢鼓捣AI,这份教程可以帮助你在本地复现整个流程。

你将学到什么:解锁多语言思维链推理

看完这篇教程后,你就能动手为OpenAI发布的GPT-OSS-20B模型进行多语言思维链推理的微调。

GPT-OSS模型本身已经可以胜任数学、编程、常识问答等任务,并且具备一定的多语言能力,但它的推理过程天然偏向英文。

比如,即使你用法语提问,模型内部思考时还是优先用英文,而且你无法像设置「推理语言:法语」那样切换它的思考语言。

通过在HuggingFaceH4/Multilingual-Thinking数据集(包含1000条多语言推理样本,涵盖法语、西班牙语、德语、意大利语等)上微调,可以让模型具备以下能力:

  • 能用OpenAI的Harmony格式生成结构化响应(例如把「分析」和「最终答案」分开)。

  • 可以根据需要切换推理语言(比如用法语分析、用英语作答)。

  • 能在非英语环境下,更灵活地调整推理的详细程度(低、中、高)。

按需切换推理语言和详细程度。此处示例为:法语,中等详细程度

微调后的模型能根据需求自由切换推理语言和细节程度——例如用法语进行中等细节分析。

对于教学、内容创作或AI助手等场景,这点非常实用,尤其是当用户的母语不是英文时。

环境搭建:RTX 4090+WSL2本地高效微调

训练脚本主要基于Unsloth提供的训练脚本,并针对RTX4090做了一些参数调整。

硬件环境是:NVIDIA RTX 4090 GPU(24GB显存),操作系统是Windows,通过WSL2运行。

为什么要用本地环境?

我们一开始尝试用Google Colab免费的Tesla T4显卡,但由于显存限制(即使用了4bit量化,20B模型还是需要12–23GB显存),很快就出现AcceleratorError错误并崩溃。

使用Google Colab报错:AcceleratorError

Colab的付费高级版可能可以跑,但本地环境显然在控制能力和速度上更胜一筹。

搭建流程如下:

1. 在WSL2终端,创建虚拟环境并安装pytorch和unsloth,命令如下(见Unsloth文档:https://docs.unsloth.ai/basics/gpt-oss-how-to-run-and-fine-tune#fine-tuning-gpt-oss-with-unsloth):

conda create --name unsloth_env \
    python=3.11 \
    pytorch-cuda=12.1 \
    pytorch cudatoolkit xformers -c pytorch -c nvidia -c xformers \
    -y
conda activate unsloth_env
pip install unsloth

看到「unsloth_env is created!」就成功了。

2. 下载我们的Notebook文件,激活新建的「unsloth_env」(或者你自己命名的环境)kernel,运行安装依赖的cell:

%%capture
# 安装最新版Torch、Triton、Transformers和Unsloth!
!pip install --upgrade -qqq uv
try: import numpy; install_numpy = f"numpy=={numpy.__version__}"
except: install_numpy = "numpy"
!uv pip install -qqq \
    "torch>=2.8.0" "triton>=3.4.0" {install_numpy} \
    "unsloth_zoo[base] @ git+https://github.com/unslothai/unsloth-zoo" \
    "unsloth[base] @ git+https://github.com/unslothai/unsloth" \
    torchvision bitsandbytes \
    git+https://github.com/huggingface/transformers \
    git+https://github.com/triton-lang/triton.git@main#subdirectory=python/triton_kernels

有环境或依赖疑问可参考相关文档。

整个配置流程大约花费30分钟。

用RTX 4090本地运行其实很简单:下载Notebook到本地,在VS Code或Jupyter Lab里用WSL2环境逐行运行就可以了。

Unsloth库在速度和显存利用上都有优化,训练效率更高,也特别适配RTX系列显卡。

代码详解

这份Notebook包含了加载模型、准备数据、微调和推理的完整流程。

如果你不关心细节解释,其实完全可以直接跳过下面的内容,在Jupyter Notebook顶部点击Run All一键运行就行——我们已经为RTX4090优化好了参数。

安装与模型加载

模型用的是Unsloth版本的GPT-OSS-20B。

OpenAI的GPT-OSS模型本身就用的是MXFP4格式,而Unsloth最近加了对应工具和兼容方案,让这些权重也能顺利微调。

MXFP4是Open Compute Project提出的微缩浮点数格式,在推理效率上表现很好。

OpenAI发布的GPT-OSS-120B和20B都有原生MXFP4权重,Unsloth针对主流训练框架缺乏MXFP4支持的情况,做了自定义适配和NF4仿真机制,能直接对GPT-OSS进行微调,详见Unsloth文档。

from unsloth import FastLanguageModel
import torch
max_seq_length = 4096
dtype = None
# 支持4bit预量化的模型,下载速度快且显存友好。
fourbit_models = [
    "unsloth/gpt-oss-20b-unsloth-bnb-4bit", # bitsandbytes 4bit量化
    "unsloth/gpt-oss-120b-unsloth-bnb-4bit",
    "unsloth/gpt-oss-20b", # MXFP4格式
    "unsloth/gpt-oss-120b",
] # 更多模型见https://huggingface.co/unsloth
model, tokenizer = FastLanguageModel.from_pretrained(
    model_name = "unsloth/gpt-oss-20b",
    dtype = dtype, # None表示自动识别
    max_seq_length = max_seq_length,
    load_in_4bit = True,  # 4bit量化显存更省
    full_finetuning = False,
    # token = "hf_...", # 如果用gated模型需要填
)
model = FastLanguageModel.get_peft_model(
    model,
    r = 8, # 可选8,16,32,64,128等
    target_modules = ["q_proj","k_proj","v_proj","o_proj",
                      "gate_proj","up_proj","down_proj",],
    lora_alpha = 16,
    lora_dropout = 0,
    bias = "none",
    use_gradient_checkpointing = "unsloth", # 超长上下文推荐True或"unsloth"
    random_state = 3407,
    use_rslora = False,
    loftq_config = None,
)

这段代码实现了什么?

  • 用pip安装Unsloth、Torch、Transformers及相关依赖。

  • 加载模型(支持4bit量化,起步只需约12GB显存)。

  • 加载LoRA适配器,目标仅微调约0.02%的参数,极大提升训练效率。

数据准备

dataset = load_dataset("HuggingFaceH4/Multilingual-Thinking", split="train")

这行代码的作用:

  • 加载HuggingFaceH4/Multilingual-Thinking数据集(包含1000条多语言链式推理样本)(https://huggingface.co/datasets/HuggingFaceH4/Multilingual-Thinking)。

  • 主要字段包括:「reasoning_language」、「developer」、「user」、「analysis」、「final」、「messages」。

  • 其中「messages」是对话轮次列表,比如system prompt、用户提问、助手分析/回答等。

from unsloth.chat_templates import standardize_sharegpt
dataset = standardize_sharegpt(dataset)
dataset = dataset.map(formatting_prompts_func, batched = True,)

这段代码是在:

  • 标准化数据为ShareGPT格式,并应用GPT-OSS的专用对话模板。

  • 这一步会把每轮对话包装成GPT-OSS专属的Harmony格式(比如<|start|>role<|message|>content<|end|>),包含推理细致程度、不同channel(分析/评论/最终答案)、工具调用等结构信息。更详细的说明见下图的Notebook示例。

  • 这里只是文本格式化,还没有进行分词,分词是在训练时完成的。

将每次对话包装为 GPT-OSS 专用的 Harmony 格式(例如:<|start|>role<|message|>content<|end|>)

训练

from trl import SFTConfig, SFTTrainer
from transformers import DataCollatorForSeq2Seq
trainer = SFTTrainer(
    model = model,
    tokenizer = tokenizer,
    train_dataset = dataset,
    args = SFTConfig(
        per_device_train_batch_size = 1,
        gradient_accumulation_steps = 16,
        warmup_steps = 5,
        # num_train_epochs = 1, # 如果想完整跑一轮可以开启
        max_steps = 60,
        learning_rate = 2e-4,
        logging_steps = 20,
        optim = "adamw_8bit",
        weight_decay = 0.01,
        lr_scheduler_type = "linear",
        seed = 3407,
        output_dir = "outputs",
        report_to = "none", # 可接入WandB等日志平台
    ),
)

这一大段代码其实只是在:

  • 使用SFTTrainer,训练步数设置为60,等效batch size为16,学习率2e-4。

  • 在RTX 4090上训练大约34分钟,损失从1.62降到1.07。如果有条件可以训练更久,欢迎留言告诉我们你是否能降到0.5附近。

训练采样时会不会重复抽样?

Hugging Face的TRL SFTTrainer默认是「无放回采样」,即每轮迭代按顺序遍历数据集(可选shuffle),直到达到指定步数或epoch数。

如果训练步数不足一轮(比如这里的60步,等效batch size16,约采样960/1000条数据),一般不会重复抽样。

当然,也可以用dataloader_sampler等参数自定义采样方式。

训练前后对比

效果一目了然

微调前,基座模型在面对类似「解方程x⁵ + 3x⁴ - 10 = 3」的问题时,推理过程都是用英文进行:

  • Low(低):用英文给出粗略估算(比如根约为1.36)。

  • Medium(中):用英文做更深入的分析。

  • High(高):英文详细步骤,精确计算根约为1.32。

  • 没有多语言分析,也没有Harmony格式的结构化输出。

微调60步之后:

微调后使用法语进行推理

  • 推理过程能自动切换到法语「分析」通道(比如:「Très bien, commençons…」),而且格式结构清晰。

  • 数学结论依然准确,但每一步用法语表达,符合数据集设定。

  • 这样的变化说明,模型从单一英文推理转变为可以根据需要灵活切换思考语言,证明了微调的巨大作用。

为什么只训练60步就有巨大提升?

你可能会好奇:为什么只训练60步,模型推理风格就发生这么大转变?

我们认为的一种可能的解释是:

  • LoRA的高效性:实际更新的参数只有大约400万(占209亿总参数的0.02%),主要集中在注意力层。这其实是在快速「换风格」,而不是重新学逻辑或功能。

  • 高质量数据集:模型这60步能看到960条样本(几乎全量),直接学习多语言链式推理的表达方式。

  • SFT对齐:监督微调优化输出,loss下降很快,效率远高于RLHF。

  • 强大预训练基础:模型本身已具备推理和多语言能力,我们只是微调表达方式。

  • 优化器和学习率:较高的学习率(2e-4)让模型能迅速适应新风格。NVIDIA文档里也常把这种训练称为「激进」。

本质上,这是在强大基座模型上进行风格微调——只需60步,多语言表现立竿见影。

接下来轮到您来亲自微调了!

看完这篇文章,你应该已经学会如何把类似GPT-OSS-20B这样的大模型,调整成支持多语言思维链推理的版本,把它从英文「内心独白」变成可按需切换思考语言(比如法语)的多面手。

这也包括了对Harmony格式结构化响应的理解,以及解决模型默认英文推理的限制。

如果遇到问题,可以优先去Unsloth的Discord社区(https://discord.com/invite/unsloth)寻求解决方案。

以上Notebook文件包含完整运行结果,可以在GitHub下载(https://github.com/entzyeung/towardsai/tree/main/Teaching%20OpenAI's%20GPT-OSS%2020B%20Model%20Multilingual%20Reasoning%20Ability)。

微调GPT-OSS,就像为AI打开了定制化大门,只需要以低成本临时在云端租用一张4090即可完成微调。

建议你也亲自试试,有问题欢迎在评论区讨论。

参考资料:

https://entzyeung.medium.com/0835ba121ee7?source=friends_link&sk=ca02110337755c9c27c11049f466f891

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
“家长等着坐牢吧”,顶楼放十几吨水给孩子玩,儿子动作暴露家教

“家长等着坐牢吧”,顶楼放十几吨水给孩子玩,儿子动作暴露家教

泽泽先生
2026-04-25 21:38:04
“看傻眼了”!深圳一女子要卖房,才发现学位莫名被锁!区教育局:忘撤销了

“看傻眼了”!深圳一女子要卖房,才发现学位莫名被锁!区教育局:忘撤销了

南方都市报
2026-05-12 08:07:19
十二年青春喂了空!CoCo终于坦白,揭露谢贤最真实的一面

十二年青春喂了空!CoCo终于坦白,揭露谢贤最真实的一面

一盅情怀
2026-05-04 16:37:51
学生小瑶遗体已经找到!确认属于意外溺亡 夜间照明不足是主要诱因

学生小瑶遗体已经找到!确认属于意外溺亡 夜间照明不足是主要诱因

小鋭有话说
2026-05-12 00:03:42
从雷霆第六人到骑士老兵!37岁哈登一夜刷新五项历史纪录

从雷霆第六人到骑士老兵!37岁哈登一夜刷新五项历史纪录

田先生篮球
2026-05-10 22:50:24
世乒赛丢冠之后,日本国内炸了锅,张本智和及队友惨遭舆论围剿

世乒赛丢冠之后,日本国内炸了锅,张本智和及队友惨遭舆论围剿

素衣读史
2026-05-11 20:52:47
“4只皮皮虾1035元”当事人否认想吃白食,删除评论;隔壁海鲜店发声

“4只皮皮虾1035元”当事人否认想吃白食,删除评论;隔壁海鲜店发声

上观新闻
2026-05-09 09:58:08
詹姆斯这眼神!!!啥意思!!?

詹姆斯这眼神!!!啥意思!!?

柚子说球
2026-05-12 07:36:09
赖昌星的情人蔡玲玲:悔不该委身于他,58岁的她现状如何?

赖昌星的情人蔡玲玲:悔不该委身于他,58岁的她现状如何?

细品名人
2026-04-29 07:06:35
成都楼市真相:青白江、金堂房价跌破四千,远郊买房成“最大陷阱”?

成都楼市真相:青白江、金堂房价跌破四千,远郊买房成“最大陷阱”?

阿离家居
2026-05-12 07:55:56
不要被电视剧骗了!真实的七十年代,可比你想象中的还要精彩!

不要被电视剧骗了!真实的七十年代,可比你想象中的还要精彩!

浩渺青史
2026-05-10 19:14:06
从风尘女子到海盗女王:逐渐遗忘的一个中国女人,被西方尊为伟人

从风尘女子到海盗女王:逐渐遗忘的一个中国女人,被西方尊为伟人

文史达观
2026-05-09 18:24:16
武磊在年维泗寿宴上讲话:要把年老、徐导的精神传承给下一代

武磊在年维泗寿宴上讲话:要把年老、徐导的精神传承给下一代

懂球帝
2026-05-12 09:44:11
数据专家警告:反对特朗普的共和党人正面临政治危机

数据专家警告:反对特朗普的共和党人正面临政治危机

影视情报室
2026-05-11 11:00:45
被特朗普提名,美联储主席提名人沃什通过参议院关键程序性投票

被特朗普提名,美联储主席提名人沃什通过参议院关键程序性投票

娱乐的宅急便
2026-05-12 11:08:45
“体坛神仙姐姐”冯竟爽,肤白貌美再获冠军!太漂亮了!

“体坛神仙姐姐”冯竟爽,肤白貌美再获冠军!太漂亮了!

马拉松跑步健身
2026-05-11 21:27:03
皇马更衣室提前站队?3大核心力挺穆里尼奥,除贝林厄姆还有谁

皇马更衣室提前站队?3大核心力挺穆里尼奥,除贝林厄姆还有谁

万花筒体育球球
2026-05-11 17:37:10
孙宏斌现状:公司负债大幅减少,63岁愁白了头,儿子成了他的骄傲

孙宏斌现状:公司负债大幅减少,63岁愁白了头,儿子成了他的骄傲

洲洲影视娱评
2026-04-20 15:16:52
从“跨省大交流”走上省部级岗位

从“跨省大交流”走上省部级岗位

香港經濟導報
2026-05-12 11:41:21
为战争做准备?日本开始计划撤离,用废弃军舰,将菲律宾推上前线

为战争做准备?日本开始计划撤离,用废弃军舰,将菲律宾推上前线

软妹酸奶
2026-05-12 08:18:30
2026-05-12 12:23:00
新智元 incentive-icons
新智元
AI产业主平台领航智能+时代
15187文章数 66863关注度
往期回顾 全部

科技要闻

纳德拉法庭爆料:拒当“AI时代的IBM”

头条要闻

李连杰公开回应病情:因患甲亢改变面容 眼球突出来了

头条要闻

李连杰公开回应病情:因患甲亢改变面容 眼球突出来了

体育要闻

梁靖崑:可能是最后一届了,想让大家记住这个我

娱乐要闻

刘涛晒妈祖诞辰活动照 评论区变许愿池

财经要闻

特朗普要来了,我们且淡定

汽车要闻

吉利银河“TT”申报图曝光 电动尾翼+激光雷达

态度原创

数码
时尚
旅游
本地
教育

数码要闻

国产内存新里程碑:神可自主研发DDR5 RDIMM实现大规模量产

推广|| 你们都想要的绝美白衬衫,链接来了!

旅游要闻

自然与情绪价值,赋能芬兰旅游中国市场新增长

本地新闻

用苏绣的方式,打开江西婺源

教育要闻

吴非:班主任只需要在学生需要时出现,而不是……

无障碍浏览 进入关怀版