网易首页 > 网易号 > 正文 申请入驻

无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

0
分享至


内容来自:机器之心

Tokenization,一直是实现真正端到端语言模型的最后一个障碍。

我们终于摆脱 tokenization 了吗?

答案是:可能性无限大。

最近,Mamba 作者之一 Albert Gu 又发新研究,他参与的一篇论文《 Dynamic Chunking for End-to-End Hierarchical Sequence Modeling 》提出了一个分层网络 H-Net,其用模型内部的动态分块过程取代 tokenization,从而自动发现和操作有意义的数据单元。


「这一研究预示着 Tokenizers 正在退场,智能字节分块(Smart Byte Chunks)开始登场。或许无需 Tokenizer 训练的时代真的要来了 —— 可能性无限大。」X 知名博主 Rohan Paul 表示道。


现阶段,Tokenization 仍然是语言模型和其他顺序数据不可或缺的组成部分,因为它能够压缩和缩短序列。然而 Tokenization 存在许多缺点,如可解释性差,在处理复杂语言(如中文、代码、DNA 序列)时性能下降等。

迄今为止,尚未有任何端到端的无 tokenizer 模型在计算预算相匹配的情况下超越基于 tokenizer 的语言模型的表现。最近,已经有研究开始致力于在自回归序列模型中突破 Tokenization 限制。

在此背景下,来自 CMU、 Cartesia AI 等机构的研究者提出了一系列新技术,通过动态分块机制实现内容与上下文自适应的分割策略,该机制可与模型其他部分联合学习。将这一机制融入显式分层网络(H-Net)后,原本隐含分层的「tokenization–LM–detokenization」流程可被完全端到端的单一模型取代。

在计算资源和数据量对等的条件下,仅采用单层字节级分层的 H-Net 模型,其表现已优于基于 BPE token 的强 Transformer 语言模型。通过多级分层迭代建模不同抽象层级,模型性能得到进一步提升 —— 这不仅展现出更优的数据规模效应,更能媲美两倍规模的基于 token 的 Transformer 模型

在英语预训练中,H-Net 展现出显著增强的字符级鲁棒性,并能定性学习有意义的、数据依赖的分块策略,全程无需启发式规则或显式监督。

最后,在 tokenization 启发式方法效果较弱的语言和模态(如中文、代码或 DNA 序列)中,H-Net 相比 tokenization 流程的优势进一步扩大(数据效率较基线提升近 4 倍),这证明了真正端到端模型从未经处理数据中实现更优学习和扩展的潜力。


论文地址:https://arxiv.org/pdf/2507.07955v1

没有 Tokenization 的端到端序列建模

本文提出了一种端到端的分层网络(H-Net),通过递归、数据依赖的动态分块(DC,dynamic chunking)过程压缩原始数据(见图 1)。H-Net 在保持与 token 化流程相同效率的同时,通过用从数据中学习的内容感知和上下文依赖的分割替代手工启发式方法,显著提高了建模能力。


分层处理

H-Net 采用了分层架构,其工作流程分为三步:

  • 精细处理:先用小型编码器网络处理原始数据(如逐个字节 / 字符);

  • 压缩抽象:将数据压缩下采样后,交给主网络(可理解为大脑核心)处理;

  • 还原输出:最后上采样并通过解码器还原到原始精度。

这种设计形成了天然的认知分层 —— 外层捕捉细粒度的模式,内层处理抽象概念。

关键是,主网络包含了大部分参数,并且可以适配任何标准架构,例如 Transformer 或状态空间模型(SSM)。

动态分块

H-Net 的核心是动态分块(DC)机制,它位于主网络与编码器 / 解码器网络之间,用于学习如何分割数据,同时使用标准的可微优化方法。DC 由两种互补的新技术组成:

(i) 路由模块,通过相似度评分预测相邻元素之间的边界;

(ii) 平滑模块,使用路由器的输出插值表示,通过减弱不确定边界的影响,显著提高学习能力。

通过将这些技术与一个新的辅助损失函数结合,并利用现代基于梯度的离散选择学习技术,DC 使得 H-Net 能够以完全端到端的方式学习如何压缩数据。

信号传播

本文还引入了几种架构和训练技术,以提高端到端优化过程中的稳定性和可扩展性。这些技术包括:(i) 精心布置的投影层和归一化层,以平衡交互子网络之间的信号传播;(ii) 根据每层的维度和有效批次大小调整其优化参数。

总的来说,H-Net 学习了与主干网络联合优化的分割策略,基于上下文信息动态地将输入向量压缩成有意义的数据块。

H-Net 代表了第一个真正的端到端、无 tokenizer 的语言模型:通过一个动态分块阶段,字节级的 H-Net 在超过 10 亿参数的规模下,达到了与强大的 BPE token 化 Transformer 相当的困惑度和下游性能。

从经验上看,动态分块模块自然地将数据压缩到与 BPE tokenizer 相似的分辨率(每块 4.5-5 字节),并且在没有任何外部监督或启发式方法的情况下,定性地学习到有意义的边界。

实验及结果

实验中,本文采用的主要语言模型架构如下所示,如 MambaByte 是使用纯 Mamba-2 层的各向同性模型。


训练曲线。图 3 显示了 Large 和 XL 规模模型在整个训练过程中的验证 BPB 指标。


在较大规模上,本文注意到:

所有各向同性模型在性能上都远逊色于分层模型。在这些模型中,MambaByte 明显优于 LlamaByte。

SpaceByte 明显逊色于 SpaceByte++,这一结果验证了本文在外部网络中使用 Mamba 的有效性。SpaceByte++ 又比 H-Net(space)差,表明本文提出的改进信号传播技术的有效性。

H-Net(space)是一个非常强大的模型,达到了与 BPE Transformer 相当的性能,验证了数据依赖的分块策略与精心设计的分层架构的效果。

表 2 展示了不同模型在多个下游基准测试上的零样本准确率。

SpaceByte++、H-Net(space)和 H-Net(1-stage)在大规模上与 BPE Transformer 的性能相似,在 XL 规模上稍微超越了 BPE Transformer。


表 3 评估了模型在 HellaSwag 上的鲁棒性。与所有基准模型相比,H-Net(2-stage)显著提高的鲁棒性。


图 4 提供了 H-Net(1-stage)和 H-Net(2-stage)动态绘制的边界的可视化图。这些可视化提供了关于模型如何决定边界的几个重要见解。


即使使用 Llama3 tokenizer,本文发现 H-Net(2-stage)在中文和代码处理上,比 BPE Transformer 和 H-Net(space)具有更好的扩展性(图 5),并且在衰退阶段后实现了更低的压缩率(表 4)。

之前的研究已经证明,SSM 在 DNA 序列建模上比 Transformer 表现更好。实验(表 5)也验证了这一点:即使换成 Mamba-2 作为主网络,SSM 的优势仍然存在。



实际上,通过直接比较训练稳定阶段的困惑度曲线(图 6),本文发现 H-Net 模型在数据量仅为 3.6 倍的情况下,能够达到与各向同性模型相似的性能,这一发现适用于两种主网络架构的选择。


最后,Albert 还撰写了精彩的博客文章,介绍关于 H-Net 的幕后故事和精彩见解。感兴趣的读者可以前去阅读。

博客地址:https://goombalab.github.io/blog/2025/hnet-past/

了解更多内容,请参考原论文。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
中国又开始“反人类”操作,花60年时间,在甘肃荒地种出百亿产业

中国又开始“反人类”操作,花60年时间,在甘肃荒地种出百亿产业

趣味萌宠的日常
2025-09-14 11:21:25
王维晚年最著名的一首诗,悟透人生,禅意无限,成为千古名篇

王维晚年最著名的一首诗,悟透人生,禅意无限,成为千古名篇

长风文史
2025-08-20 15:15:40
4-2,33岁韩国球星孙兴慜闪耀美职联:利剑出鞘,率队终结2轮不胜

4-2,33岁韩国球星孙兴慜闪耀美职联:利剑出鞘,率队终结2轮不胜

侧身凌空斩
2025-09-14 10:34:52
广东91-93澳洲遭1喜3忧!焦泊乔状态提升,3将发挥让人无奈!

广东91-93澳洲遭1喜3忧!焦泊乔状态提升,3将发挥让人无奈!

篮球资讯达人
2025-09-14 21:59:35
9月13日俄乌最新:俄军大规模投降

9月13日俄乌最新:俄军大规模投降

西楼饮月
2025-09-13 18:35:04
父亲下马后妻子要离婚,我转身接受组织调任省长,她后悔我却畅快

父亲下马后妻子要离婚,我转身接受组织调任省长,她后悔我却畅快

红豆讲堂
2025-09-10 08:35:06
埃杜-加西亚:点球对我们打击很大,场地对双方都有影响

埃杜-加西亚:点球对我们打击很大,场地对双方都有影响

懂球帝
2025-09-14 22:42:13
海底捞小便门后续:两位熊孩子家长背景曝光,家长:要倾家荡产了

海底捞小便门后续:两位熊孩子家长背景曝光,家长:要倾家荡产了

刘森森
2025-09-14 16:13:18
于朦胧事件升级!知名大佬正面硬刚,曝行业不合理规则,还有隐情

于朦胧事件升级!知名大佬正面硬刚,曝行业不合理规则,还有隐情

林轻吟
2025-09-14 09:08:16
免签、加班!杭州出发,出游有新选择!

免签、加班!杭州出发,出游有新选择!

杭州之声
2025-09-14 21:27:00
上海大叔55岁未婚,住垃圾堆却要穿名牌,打开冰箱后才知啥叫生活

上海大叔55岁未婚,住垃圾堆却要穿名牌,打开冰箱后才知啥叫生活

寒士之言本尊
2025-09-08 23:20:45
服务富豪家“见不得光”的孩子,我目睹千万家庭最不堪一面

服务富豪家“见不得光”的孩子,我目睹千万家庭最不堪一面

笨鸟摘文
2025-09-13 12:11:24
冠军赛收官奖金排名:王楚钦夺冠43万,林诗栋9万第9张本美和第17

冠军赛收官奖金排名:王楚钦夺冠43万,林诗栋9万第9张本美和第17

求球不落谛
2025-09-14 20:44:11
巨星!“中超水货”3300万加盟欧洲豪门:上赛季刚拿金靴!

巨星!“中超水货”3300万加盟欧洲豪门:上赛季刚拿金靴!

邱泽云
2025-09-13 16:18:45
李盛青主任:腹胀肠鸣、放屁多,就是脾胃寒了!这个方子帮你解决

李盛青主任:腹胀肠鸣、放屁多,就是脾胃寒了!这个方子帮你解决

大明爱养生
2025-09-12 11:20:43
央视点名!阅兵女机长身份曝光,私生活被扒牺牲太大,夫妻俩都是机长

央视点名!阅兵女机长身份曝光,私生活被扒牺牲太大,夫妻俩都是机长

荷兰豆爱健康
2025-09-06 09:32:27
刚设保护区,黄岩岛就爆发冲突,大批军机拦截,董军接到美方电话

刚设保护区,黄岩岛就爆发冲突,大批军机拦截,董军接到美方电话

清欢百味
2025-09-12 12:37:04
福耀科技大学开学典礼:何超琼致辞、曹德旺献唱,众大咖现身

福耀科技大学开学典礼:何超琼致辞、曹德旺献唱,众大咖现身

冷月侃娱乐
2025-09-13 10:07:07
iPhone 17标准版预售创纪录:官网到货时间延至10月

iPhone 17标准版预售创纪录:官网到货时间延至10月

TechWeb
2025-09-13 09:32:06
上千万出场费!俄足协:与阿根廷比赛太贵了,1000万美元都是少的

上千万出场费!俄足协:与阿根廷比赛太贵了,1000万美元都是少的

直播吧
2025-09-14 15:28:13
2025-09-14 23:07:00
学术头条
学术头条
致力于学术传播和科学普及,重点关注人工智能、生命科学等前沿科学进展。
1374文章数 5078关注度
往期回顾 全部

科技要闻

L3级车型要来了!辅助驾驶迎重大利好

头条要闻

45岁二胎妈妈找工作:面试导购被卡年龄 就要45岁以下

头条要闻

45岁二胎妈妈找工作:面试导购被卡年龄 就要45岁以下

体育要闻

3次遭争议判罚!皇马向FIFA投诉西甲裁判

娱乐要闻

花泽香菜官宣离婚 结束与老公5年婚姻

财经要闻

西贝贾国龙,“错”得离谱

汽车要闻

混动狂潮 835马力V12 阿斯顿·马丁的最后浪漫

态度原创

数码
健康
手机
教育
公开课

数码要闻

产品从官网下架 NVIDIA确认:RTX 50公版显卡没有停产!只是暂时缺货

内分泌科专家破解身高八大谣言

手机要闻

刷新纪录!苹果A19 Pro单核成绩突破4000

教育要闻

知名大学院长被曝学术不端

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版