网易首页 > 网易号 > 正文 申请入驻

无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

0
分享至

内容来自:机器之心

Tokenization,一直是实现真正端到端语言模型的最后一个障碍。

我们终于摆脱 tokenization 了吗?

答案是:可能性无限大。

最近,Mamba 作者之一 Albert Gu 又发新研究,他参与的一篇论文《 Dynamic Chunking for End-to-End Hierarchical Sequence Modeling 》提出了一个分层网络 H-Net,其用模型内部的动态分块过程取代 tokenization,从而自动发现和操作有意义的数据单元。

「这一研究预示着 Tokenizers 正在退场,智能字节分块(Smart Byte Chunks)开始登场。或许无需 Tokenizer 训练的时代真的要来了 —— 可能性无限大。」X 知名博主 Rohan Paul 表示道。

现阶段,Tokenization 仍然是语言模型和其他顺序数据不可或缺的组成部分,因为它能够压缩和缩短序列。然而 Tokenization 存在许多缺点,如可解释性差,在处理复杂语言(如中文、代码、DNA 序列)时性能下降等。

迄今为止,尚未有任何端到端的无 tokenizer 模型在计算预算相匹配的情况下超越基于 tokenizer 的语言模型的表现。最近,已经有研究开始致力于在自回归序列模型中突破 Tokenization 限制。

在此背景下,来自 CMU、 Cartesia AI 等机构的研究者提出了一系列新技术,通过动态分块机制实现内容与上下文自适应的分割策略,该机制可与模型其他部分联合学习。将这一机制融入显式分层网络(H-Net)后,原本隐含分层的「tokenization–LM–detokenization」流程可被完全端到端的单一模型取代。

在计算资源和数据量对等的条件下,仅采用单层字节级分层的 H-Net 模型,其表现已优于基于 BPE token 的强 Transformer 语言模型。通过多级分层迭代建模不同抽象层级,模型性能得到进一步提升 —— 这不仅展现出更优的数据规模效应,更能媲美两倍规模的基于 token 的 Transformer 模型

在英语预训练中,H-Net 展现出显著增强的字符级鲁棒性,并能定性学习有意义的、数据依赖的分块策略,全程无需启发式规则或显式监督。

最后,在 tokenization 启发式方法效果较弱的语言和模态(如中文、代码或 DNA 序列)中,H-Net 相比 tokenization 流程的优势进一步扩大(数据效率较基线提升近 4 倍),这证明了真正端到端模型从未经处理数据中实现更优学习和扩展的潜力。

论文地址:https://arxiv.org/pdf/2507.07955v1

没有 Tokenization 的端到端序列建模

本文提出了一种端到端的分层网络(H-Net),通过递归、数据依赖的动态分块(DC,dynamic chunking)过程压缩原始数据(见图 1)。H-Net 在保持与 token 化流程相同效率的同时,通过用从数据中学习的内容感知和上下文依赖的分割替代手工启发式方法,显著提高了建模能力。

分层处理

H-Net 采用了分层架构,其工作流程分为三步:

  • 精细处理:先用小型编码器网络处理原始数据(如逐个字节 / 字符);

  • 压缩抽象:将数据压缩下采样后,交给主网络(可理解为大脑核心)处理;

  • 还原输出:最后上采样并通过解码器还原到原始精度。

这种设计形成了天然的认知分层 —— 外层捕捉细粒度的模式,内层处理抽象概念。

关键是,主网络包含了大部分参数,并且可以适配任何标准架构,例如 Transformer 或状态空间模型(SSM)。

动态分块

H-Net 的核心是动态分块(DC)机制,它位于主网络与编码器 / 解码器网络之间,用于学习如何分割数据,同时使用标准的可微优化方法。DC 由两种互补的新技术组成:

(i) 路由模块,通过相似度评分预测相邻元素之间的边界;

(ii) 平滑模块,使用路由器的输出插值表示,通过减弱不确定边界的影响,显著提高学习能力。

通过将这些技术与一个新的辅助损失函数结合,并利用现代基于梯度的离散选择学习技术,DC 使得 H-Net 能够以完全端到端的方式学习如何压缩数据。

信号传播

本文还引入了几种架构和训练技术,以提高端到端优化过程中的稳定性和可扩展性。这些技术包括:(i) 精心布置的投影层和归一化层,以平衡交互子网络之间的信号传播;(ii) 根据每层的维度和有效批次大小调整其优化参数。

总的来说,H-Net 学习了与主干网络联合优化的分割策略,基于上下文信息动态地将输入向量压缩成有意义的数据块。

H-Net 代表了第一个真正的端到端、无 tokenizer 的语言模型:通过一个动态分块阶段,字节级的 H-Net 在超过 10 亿参数的规模下,达到了与强大的 BPE token 化 Transformer 相当的困惑度和下游性能。

从经验上看,动态分块模块自然地将数据压缩到与 BPE tokenizer 相似的分辨率(每块 4.5-5 字节),并且在没有任何外部监督或启发式方法的情况下,定性地学习到有意义的边界。

实验及结果

实验中,本文采用的主要语言模型架构如下所示,如 MambaByte 是使用纯 Mamba-2 层的各向同性模型。

训练曲线。图 3 显示了 Large 和 XL 规模模型在整个训练过程中的验证 BPB 指标。

在较大规模上,本文注意到:

所有各向同性模型在性能上都远逊色于分层模型。在这些模型中,MambaByte 明显优于 LlamaByte。

SpaceByte 明显逊色于 SpaceByte++,这一结果验证了本文在外部网络中使用 Mamba 的有效性。SpaceByte++ 又比 H-Net(space)差,表明本文提出的改进信号传播技术的有效性。

H-Net(space)是一个非常强大的模型,达到了与 BPE Transformer 相当的性能,验证了数据依赖的分块策略与精心设计的分层架构的效果。

表 2 展示了不同模型在多个下游基准测试上的零样本准确率。

SpaceByte++、H-Net(space)和 H-Net(1-stage)在大规模上与 BPE Transformer 的性能相似,在 XL 规模上稍微超越了 BPE Transformer。

表 3 评估了模型在 HellaSwag 上的鲁棒性。与所有基准模型相比,H-Net(2-stage)显著提高的鲁棒性。

图 4 提供了 H-Net(1-stage)和 H-Net(2-stage)动态绘制的边界的可视化图。这些可视化提供了关于模型如何决定边界的几个重要见解。

即使使用 Llama3 tokenizer,本文发现 H-Net(2-stage)在中文和代码处理上,比 BPE Transformer 和 H-Net(space)具有更好的扩展性(图 5),并且在衰退阶段后实现了更低的压缩率(表 4)。

之前的研究已经证明,SSM 在 DNA 序列建模上比 Transformer 表现更好。实验(表 5)也验证了这一点:即使换成 Mamba-2 作为主网络,SSM 的优势仍然存在。

实际上,通过直接比较训练稳定阶段的困惑度曲线(图 6),本文发现 H-Net 模型在数据量仅为 3.6 倍的情况下,能够达到与各向同性模型相似的性能,这一发现适用于两种主网络架构的选择。

最后,Albert 还撰写了精彩的博客文章,介绍关于 H-Net 的幕后故事和精彩见解。感兴趣的读者可以前去阅读。

博客地址:https://goombalab.github.io/blog/2025/hnet-past/

了解更多内容,请参考原论文。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
一座副省级城市有多少位正厅级干部?——以青岛为例

一座副省级城市有多少位正厅级干部?——以青岛为例

据说无据
2026-03-24 16:29:53
黄仁勋呼吁所有人使用AI提升自己:大学生毕业时都要成AI专家

黄仁勋呼吁所有人使用AI提升自己:大学生毕业时都要成AI专家

快科技
2026-03-24 22:46:04
3月26日俄乌最新:靴子终于落地了

3月26日俄乌最新:靴子终于落地了

西楼饮月
2026-03-26 19:48:54
张柏芝机场接大儿子,Lucas主动帮妈妈拎包,母子相拥热聊关系好

张柏芝机场接大儿子,Lucas主动帮妈妈拎包,母子相拥热聊关系好

白面书誏
2026-03-26 13:38:29
吴石牺牲后,蒋介石还不解恨,又处分了当时已经退隐状态的白崇禧

吴石牺牲后,蒋介石还不解恨,又处分了当时已经退隐状态的白崇禧

云霄纪史观
2026-03-26 18:04:39
奥恰洛夫:我从圈内听说,樊振东明年甚至有可能再换一次俱乐部

奥恰洛夫:我从圈内听说,樊振东明年甚至有可能再换一次俱乐部

懂球帝
2026-03-26 11:24:21
就在今天!火箭创NBA历史第一耻辱纪录,输球后苏群王猛火力全开

就在今天!火箭创NBA历史第一耻辱纪录,输球后苏群王猛火力全开

米果说识
2026-03-26 20:24:31
特朗普万万没想到!第一个敢掀桌子的,竟然是马来西亚

特朗普万万没想到!第一个敢掀桌子的,竟然是马来西亚

黑鹰观军事
2026-03-25 17:12:13
去了一趟伊朗才发现:原来在伊朗人眼里,中国人是这样的

去了一趟伊朗才发现:原来在伊朗人眼里,中国人是这样的

千秋文化
2026-03-24 21:40:40
中国最有名的9条家训,读懂一条旺家三代,建议收藏反复背诵

中国最有名的9条家训,读懂一条旺家三代,建议收藏反复背诵

长风文史
2026-03-25 17:58:23
阚清子产后现身机场!手上鸽子蛋大钻戒抢镜,富豪老公拎包似保姆

阚清子产后现身机场!手上鸽子蛋大钻戒抢镜,富豪老公拎包似保姆

老好人的愤怒
2026-03-26 18:02:04
薛之谦惹争议!挚友张雪峰离世毫无表示,知情人曝原因!

薛之谦惹争议!挚友张雪峰离世毫无表示,知情人曝原因!

古希腊掌管松饼的神
2026-03-25 22:39:53
曝字母哥雄鹿今夏大概率分手!4年2.7亿美元不续了?双方仍在僵持

曝字母哥雄鹿今夏大概率分手!4年2.7亿美元不续了?双方仍在僵持

罗说NBA
2026-03-26 20:51:40
古代用长枪最厉害的四大名将,赵子龙上榜,第一名恐怕无人能敌

古代用长枪最厉害的四大名将,赵子龙上榜,第一名恐怕无人能敌

铭记历史呀
2026-03-26 11:22:56
美伊冲突,已经出现了3个赢家,10个输家,都是谁?

美伊冲突,已经出现了3个赢家,10个输家,都是谁?

七号说三国
2026-03-25 21:11:29
关于美伊和谈,华尔街有些“冷水”要泼!

关于美伊和谈,华尔街有些“冷水”要泼!

财联社
2026-03-26 08:36:24
国防部:菲方侵权挑衅只会遭到更加坚决应对

国防部:菲方侵权挑衅只会遭到更加坚决应对

界面新闻
2026-03-26 16:00:27
为什么只有革命卫队与美以干,而伊朗40万国防军沉默观战?

为什么只有革命卫队与美以干,而伊朗40万国防军沉默观战?

廖保平
2026-03-17 09:04:38
伊朗:正在审议停火方案

伊朗:正在审议停火方案

亚太观澜
2026-03-26 20:35:03
车市太卷了!2026款锋兰达上市就降价,油耗4.5L,9万开走

车市太卷了!2026款锋兰达上市就降价,油耗4.5L,9万开走

念寒车评
2026-03-26 17:19:03
2026-03-26 21:11:00
学术头条
学术头条
致力于学术传播和科学普及,重点关注AI4Science、大模型等前沿科学进展。
1430文章数 5081关注度
往期回顾 全部

科技要闻

Meta高管狂分百亿期权,700名员工却下岗

头条要闻

张雪峰留巨额遗产:二婚妻子或拿50% 剩下的女儿占1/3

头条要闻

张雪峰留巨额遗产:二婚妻子或拿50% 剩下的女儿占1/3

体育要闻

申京努力了,然而杜兰特啊

娱乐要闻

刘晓庆妹妹发声!称姐姐受身边人挑拨

财经要闻

油价"驯服"特朗普?一到100美元就TACO

汽车要闻

一汽奥迪A6L e-tron开启预售 CLTC最大续航815km

态度原创

手机
艺术
家居
健康
军事航空

手机要闻

OPPO K15 Pro系列突然官宣:天玑9500s+主动散热,4月1日发布

艺术要闻

哪一座桥不是风景?

家居要闻

傍海而居 静观蝴蝶海

转头就晕的耳石症,能开车上班吗?

军事要闻

担心特朗普突然停战 以总理下令48小时尽力摧毁伊设施

无障碍浏览 进入关怀版