网易首页 > 网易号 > 正文 申请入驻

五年,终于等来Transformers v5

0
分享至



机器之心报道

编辑:+0、陈陈

刚刚,Transformers v5 发布首个 RC(候选) 版本 v5.0.0rc0。



GitHub:https://github.com/huggingface/transformers/releases/tag/v5.0.0rc0

这次更新标志着这一全球最流行的 AI 基础设施库,正式跨越了从 v4 到 v5 长达五年的技术周期。

作为 Hugging Face 最核心的开源项目,自 2020 年 11 月 v4 版本发布以来,Transformers 的日下载量已从当时的 2 万次激增至如今的超过300 万次,总安装量突破12 亿次

它定义了业界如何使用模型,支持的架构也从最初的 40 个扩展至超过400 个,涵盖了文本、视觉、音频及多模态领域,社区贡献的模型权重更是超过75 万个,涵盖了文本、视觉、音频及多模态领域。

官方表示,在人工智能领域,「重塑」是保持长盛不衰的关键。Transformers 作为生态系统中领先的模型定义库,需要不断演进并调整库的形态,以保持其相关性。

v5 版本将 PyTorch 确立为唯一核心后端,并聚焦于四大维度的进化:极致的简洁性、从微调迈向预训练、与高性能推理引擎的互操作性,以及将量化提升为核心功能。

简洁性

团队的首要关注点是简洁性。

Hugging Face 希望模型的集成方式是干净、清晰的。简洁性能够带来更广泛的标准化、更强的通用性,以及更全面的生态支持。

新增模型

从本质上讲,Transformers 始终是一个模型架构工具箱。Hugging Face 目标是收录所有最新的模型架构,并成为模型定义的唯一可信来源。

在过去 5 年里,平均每周新增 1–3 个新模型,时间线如下图所示:



  • 模块化方法

在过去一年里,Hugging Face 大力推进模块化设计。这种方式使维护更简单、集成速度更快,并能促进社区之间的协作。



尽管 Hugging Face 始终尊崇「一个模型,一个文件」的哲学,但他们仍在不断引入一些抽象层,以简化通用辅助函数的管理。这方面最典型的例子就是引入了 AttentionInterface,它为注意力机制提供了一个集中的抽象层。Eager 方法将保留在建模文件中;而其他方法,如 FA1/2/3 (FlashAttention)、FlexAttention 或 SDPA,则被移至该接口中。

  • 模型转换工具

Hugging Face 也正在大力构建工具,以帮助识别某个新模型与现有模型架构之间的相似性。该功能通过机器学习来发现不同模型文件之间的代码相似度。

进一步来说,Hugging Face 希望自动化模型转换流程:当有新模型需要集成到 Transformers 中时,系统将自动创建一个草稿 PR(Pull Request),将其转换成符合 Transformers 格式的版本。

这一流程将减少大量手动工作,并确保整体的一致性。

代码精简

  • 精简 Modeling & Tokenization/Processing 文件

Hugging Face 对建模文件和标注相关文件也进行了大规模重构。

得益于前文提到的模块化方法,加上对不同模型之间的统一标准化,建模文件得到了显著改善。标准化让许多不真正属于模型本体的工具都被抽象出去,使建模代码只保留模型前向 / 反向传播所需的核心部分。

与此同时,v5 也在简化 tokenization & processing 文件:未来将只关注 tokenizers 后端,并移除 Fast 和 Slow tokenizer 这两个概念。

图像处理器今后也将只保留 fast 版本,这些版本依赖 torchvision 作为后端。

最后,v5 将逐步停止对 Flax / TensorFlow 的支持,转而专注于 PyTorch 作为唯一后端;不过团队也在与 JAX 生态合作伙伴协作,以确保模型能够与该生态兼容。

PyTorch 基金会执行董事、Linux 基金会 AI 部总经理 Matt White 表示:随着 v5 版本的发布,Transformers 正全面转向 PyTorch。

训练

关于 v5 版本的训练仍然是团队工作的重点,之前 Hugging Face 专注于微调而不是大规模预训练以及完整训练,v5 加大了对后者的支持。

预训练

为了支持预训练,Hugging Face 重新设计了模型初始化方式,同时也加入了对前向与反向传播优化算子支持。目前,v5 已经与 torchtitan、megatron、nanotron 等工具实现了更广泛的兼容。

微调与后训练

Hugging Face 表示将继续与 Python 生态系统中的所有微调工具保持紧密合作。同时,Hugging Face 也在与 JAX 生态中的 MaxText 等工具兼容,以确保他们的框架与 Transformers 之间具备良好的互操作性。

现在,所有微调和后训练工具都可以依赖 Transformers 作为模型定义的来源;这也进一步可以通过 OpenEnv 或 Prime Environment Hub 来支持更多的 Agentic 使用场景。

推理

推理也是 v5 优化的重点方向之一,Hugging Face 带来了多项范式级的更新:包括专用内核、更干净的默认设置、新的 API,以及优化对推理引擎的支持。

此外,和训练阶段类似,Hugging Face 也投入了大量精力来封装推理内核。

在这项工作之外,他们还为推理新增了两个专用 API:

  • 连续批处理和 paged attention 机制。这些功能已经在内部开始使用,之后会有使用指南放出。
  • 全新的 transformers serve 服务系统,可部署一个兼容 OpenAI API 的服务器,用于部署 Transformers 模型。

在 v5 的更新中,Hugging Face 明确强化了对推理场景的支持,尤其是像模型评估这类需要同时处理大量请求的任务。

值得注意的是,Transformers v5 的定位并不是取代 vLLM、SGLang、TensorRT-LLM 这样的专业推理引擎。相反,他们的目标是与这些引擎实现兼容。

生产环境

本地部署

团队与最流行的推理引擎紧密合作,从而能够将 Transformers 作为后端使用。这带来了显著的价值:只要某个模型被添加到 Transformers 中,它就会立即在这些推理引擎中可用,同时还能充分利用各引擎的优势,例如推理优化、专用内核、动态批处理等。

另外,Hugging Face 也在与 ONNXRuntime、llama.cpp 和 MLX 展开密切合作,以确保 Transformers 与这些建模库之间具有良好的互操作性。例如,得益于社区的大量努力,现在在 Transformers 中加载 GGUF 文件以进行进一步微调变得非常简单。反之,也可以轻松地将 Transformers 模型转换为 GGUF 文件,以便在 llama.cpp 中使用。

对于 MLX 而言也是如此,transformers 的 safetensors 文件可以直接兼容 MLX 的模型。

最后,Hugging Face 也在推动本地推理的边界,并与 executorch 团队紧密合作,让 Transformers 模型能够在设备端直接运行,对多模态模型(视觉、音频)的支持也在快速扩展中。

量化

量化正迅速成为当代前沿模型开发的标准,许多 SOTA 模型如今都以低精度格式发布,例如 8-bit 和 4-bit(如 gpt-oss、Kimi-K2、DeepSeek-R1)。

紧跟技术前沿,v5 将量化作为 Transformers 的核心能力之一,确保它能够与主要功能完全兼容,并为训练与推理提供一个可靠的量化框架。

参考链接:https://huggingface.co/blog/transformers-v5

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
这次军委的动作,让人倒吸一口凉气!直接倒查9年,这不是闹着玩

这次军委的动作,让人倒吸一口凉气!直接倒查9年,这不是闹着玩

安安说
2026-01-26 19:04:41
日本新首相人选正式出炉,对华政策引人关注

日本新首相人选正式出炉,对华政策引人关注

风干迷茫人
2026-01-26 12:08:00
商务部:一视同仁支持外企参与提振消费、政府采购、招投标等

商务部:一视同仁支持外企参与提振消费、政府采购、招投标等

证券时报
2026-01-26 15:43:03
女子哭诉:“北大硕士”男友让我帮他贷款,3年背贷超200万;男友否认,律师分析法律责任

女子哭诉:“北大硕士”男友让我帮他贷款,3年背贷超200万;男友否认,律师分析法律责任

大风新闻
2026-01-26 15:25:05
重磅:乌克兰突袭攻入俄罗斯领土!摧毁库尔斯克指挥所

重磅:乌克兰突袭攻入俄罗斯领土!摧毁库尔斯克指挥所

项鹏飞
2026-01-26 17:11:27
上海市政府、江苏省政府、浙江省政府研究,同意全国首个跨省域高新区命名

上海市政府、江苏省政府、浙江省政府研究,同意全国首个跨省域高新区命名

新京报政事儿
2026-01-25 14:08:06
李隆基肯定想不到,他死后才13天,软禁他6年的李亨竟因惊吓去世

李隆基肯定想不到,他死后才13天,软禁他6年的李亨竟因惊吓去世

千秋文化
2026-01-25 20:41:46
“火烈鸟”导弹4发全中!空袭力度加强,俄军对地攻击导弹疑不足

“火烈鸟”导弹4发全中!空袭力度加强,俄军对地攻击导弹疑不足

鹰眼Defence
2026-01-26 17:27:05
再现巨额压单!A股跳水,官媒给“题材炒作”降温,商业航天跌停潮

再现巨额压单!A股跳水,官媒给“题材炒作”降温,商业航天跌停潮

看财经show
2026-01-26 17:06:02
丹麦网友众筹1万亿美元收购加州,想实现“牛油果自由”!美网友:俄勒冈州能加入吗

丹麦网友众筹1万亿美元收购加州,想实现“牛油果自由”!美网友:俄勒冈州能加入吗

红星新闻
2026-01-26 17:52:54
上海浦东科技局原局长在海口突然死亡:最后照流出,大量隐情披露

上海浦东科技局原局长在海口突然死亡:最后照流出,大量隐情披露

博士观察
2026-01-26 17:48:43
舒马赫健康状况重大更新!滑雪事故13年后,车神不再卧床不起

舒马赫健康状况重大更新!滑雪事故13年后,车神不再卧床不起

全景体育V
2026-01-26 18:35:30
张雨绮假双胞胎骗局被拆穿?疑似在美国代孕,亲身产子凑数

张雨绮假双胞胎骗局被拆穿?疑似在美国代孕,亲身产子凑数

社会酱
2026-01-26 17:51:52
美新版《国防战略报告》转向明显:国土安全成首责,对中俄表述温和

美新版《国防战略报告》转向明显:国土安全成首责,对中俄表述温和

澎湃新闻
2026-01-25 20:05:48
急了!俄罗斯开始用军舰为油轮护航,乌军4枚火烈鸟全部命中目标

急了!俄罗斯开始用军舰为油轮护航,乌军4枚火烈鸟全部命中目标

史政先锋
2026-01-26 21:19:31
退脏衣女记者社死!嚣张丢了铁饭碗,商家硬刚到底,势力大也没用

退脏衣女记者社死!嚣张丢了铁饭碗,商家硬刚到底,势力大也没用

离离言几许
2026-01-26 10:48:59
这一次,公开拒绝“四大天王”合体的张学友,没给F4留一丝体面

这一次,公开拒绝“四大天王”合体的张学友,没给F4留一丝体面

白面书誏
2026-01-26 20:02:20
雀巢奶粉涉菌污染全球召回,瑞士称问题原料来自中国供应商,系全球三大ARA生产商之一

雀巢奶粉涉菌污染全球召回,瑞士称问题原料来自中国供应商,系全球三大ARA生产商之一

药识局
2026-01-25 13:18:15
伊朗站在悬崖边缘:沉默的美军,正在酝酿一场终结战

伊朗站在悬崖边缘:沉默的美军,正在酝酿一场终结战

凤眼论
2026-01-26 18:34:36
央媒怒批、目不识丁,这几位德不配位的“文盲”明星,凭啥走红

央媒怒批、目不识丁,这几位德不配位的“文盲”明星,凭啥走红

天天热点见闻
2026-01-24 07:50:34
2026-01-27 06:32:49
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12193文章数 142549关注度
往期回顾 全部

科技要闻

印奇再上牌桌,阶跃融资50亿

头条要闻

女子被丈夫和闺蜜背叛一夜白头:听到儿子叫第三者妈妈

头条要闻

女子被丈夫和闺蜜背叛一夜白头:听到儿子叫第三者妈妈

体育要闻

叛逆的大公子,要砸了贝克汉姆这块招牌

娱乐要闻

张雨绮被抵制成功!辽视春晚已将她除名

财经要闻

从美式斩杀线看中国社会的制度韧性构建

汽车要闻

宾利第四台Batur敞篷版发布 解锁四项定制创新

态度原创

教育
游戏
手机
本地
房产

教育要闻

年轻老师温柔但不好惹,怎么才能做到?

猎魂世界:先遣服1.5版本新内容汇总!这第7魂环真是够那个了!

手机要闻

华为Pura X2、OPPO Find N6、荣耀Magic V6,选择纠结了!

本地新闻

云游中国|格尔木的四季朋友圈,张张值得你点赞

房产要闻

突发!三亚官宣,调整安居房政策!

无障碍浏览 进入关怀版