网易首页 > 网易号 > 正文 申请入驻

何恺明重磅新作:Just image Transformers让去噪模型回归基本功

0
分享至

机器之心报道

编辑:冷猫、+0

大家都知道,图像生成和去噪扩散模型是密不可分的。高质量的图像生成都通过扩散模型实现。

但有没有一种可能,「去噪扩散模型」实际上并没有做到「去噪」?

ResNet 之父,超70万引用的 AI 大神何恺明的新论文敏锐地捕捉了这一现象。

当扩散生成模型最初被提出时 ,核心思想本应是「去噪」,即从被破坏的图像中预测出干净图像。然而,在扩散模型的发展过程中出现的两个重要里程碑,却偏离了直接预测干净图像这一目标。首先,预测噪声本身(称为 「ϵ-prediction」)在生成质量上带来了关键改变,并极大推动了这些模型的普及。随后,扩散模型被连接到基于流的生成方法,通过预测流速度(「-prediction」 ),这一量结合了干净数据与噪声。



流形假设(Manifold Assumption)认为,自然图像在高维像素空间中位于一个低维流形上。干净图像 可以建模为处于流形上(on-manifold),而噪声 ϵ 或流速度 (例如 = − ϵ)则本质上处于流形之外(off-manifold)。因此,让神经网络预测干净图像(即 -prediction)在本质上不同于让其预测噪声或带噪的量(即 ϵ/-prediction)。

当今的去噪扩散模型并不按照经典意义上的「去噪」方式工作,这些神经网络预测的是噪声或带噪的量。

预测干净数据与预测带噪量在本质上是不同的。根据流形假设(manifold assumption),自然数据应当位于一个低维流形上,而带噪的量则不在其上。

基于这一假设,何恺明新论文主张使用直接预测干净数据的模型,这使得看似容量不足的网络也能够在极高维空间中有效运行。

这一研究使去噪扩散模型回归本源,探索一种在原始自然数据上构建基于 Transformer 的扩散模型的自洽范式。



  • 论文标题:Back to Basics: Let Denoising Generative Models Denoise
  • 论文链接:https://arxiv.org/abs/2511.13720v1
  • Github 链接:https://github.com/LTH14/JiT

论文提出「Just image Transformers(JiT)」架构,仅使用简单的大 patch 像素级 Transformer 就能成为强大的生成模型,无需 tokenizer、无需预训练,也无需额外损失项。

该架构在 ImageNet 上实现了有竞争力的像素空间图像生成,在256×256分辨率下达到1.82 FID,在512×512分辨率下达到1.78 FID,且无需外部组件。

本文的工作朝着一种基于原生数据的自洽 「Diffusion + Transformer」 原则 更进一步。超越计算机视觉领域,这种原则在其他涉及自然数据的领域(如蛋白质、分子或天气)中也同样具有潜在价值,因为这些领域的 tokenizer 通常难以设计。通过尽量减少特定领域的建模设计,作者希望源自计算机视觉的通用 「Diffusion + Transformer」 范式能够在更广泛的领域中发挥作用。

用于扩散的「Just image Transformers」

Just image Transformers

ViT 的核心理念是 基于 Patch 的 Transformer(ToP),本研究的架构设计遵循这一哲学。





按照标准做法,该架构以时间 t 和给定的类别标签为条件。研究者使用adaLN-Zero进行条件化处理。从概念上讲,这种架构相当于直接应用于像素 patch 的 Diffusion Transformer (DiT)。

整体架构是 Just image Transformer(纯图像 Transformer),将其简称为JiT。例如,在 256×256 的图像上研究 JiT/16(即 patch 大小 p=16),在 512×512 的图像上研究 JiT/32(p=32)。这些设置分别导致每个 patch 的维度为 768 (16×16×3) 和 3072 (32×32×3)。如此高维的 patch 可以通过 -prediction 来处理。

网络应该预测什么?



表 1 中总结了损失空间和预测空间的九种可能组合。针对每一种组合,研究者训练了一个 Base 模型(JiT-B),其每个 token 的隐藏层大小为 768 维。

研究者在表 2(a) 中研究了 256×256 分辨率下的 JiT-B/16。作为参考,他们在表 2(b) 中检查了 64×64 辨率下的 JiT-B/4(即 p=4)。在这两种设置中,序列长度是相同的 (16×16)。



观察结果如下:

  • -prediction 至关重要

在表 2(a) 的 JiT-B/16 中,只有 -prediction 表现良好,并且它在所有三种损失函数下均有效。在这里,一个 patch 是 768 维 (16×16×3),这与 JiT-B 中 768 的隐藏层大小相吻合。虽然这看起来「刚好足够」,但在实践中,模型可能需要额外的容量,例如用于处理位置嵌入。对于 ϵ-prediction 或 -prediction,模型没有足够的容量来分离并保留噪声量。这些观察结果与 Toy 案例(图 2)中的观察结果相似。



作为对比,研究者检查了 64×64 分辨率下的 JiT-B/4(表 2(b))。在这里,所有情况都表现得相当不错:九种组合之间的准确率差距是边缘性的,并不具有决定性。每个 patch 的维度是 48 (4×4×3),远低于 JiT-B 中 768 的隐藏层大小,这解释了为什么所有组合都工作得相当好。研究者注意到,许多之前的潜在扩散模型具有类似的小输入维度,因此未曾暴露在此处讨论的问题中。

  • 仅靠损失加权是不够的

该工作并不是第一个枚举相关因素组合的,之前的研究探索了损失加权和网络预测的组合。他们的实验是在低维的 CIFAR-10 数据集上使用 U-net 完成的。他们的观察结果与研究者在 ImageNet 64×64 上的结果更为接近。

然而,表 2(a) 在 ImageNet 256×256 上的结果表明,损失加权并非全部。一方面,无论损失空间如何,ϵ-prediction 或 -prediction 在表 2(a) 中都遭受了灾难性的失败,这对应于不同损失空间中的不同有效加权(如前所述)。另一方面,-prediction 在所有三种损失空间中都有效:虽然由 -loss 引起的损失加权更可取,但并非至关重要。

  • 仅靠噪声水平偏移是不够的

先前的工作建议增加噪声水平对于高分辨率的基于像素的扩散是有用的。研究者在表 3 中使用 JiT-B/16 对此进行了检查。由于研究者使用logit-normal 分布来采样 t,可以通过改变该分布的参数 µ 来偏移噪声水平:直观地说,将 µ 向负侧偏移会导致更小的 t,从而增加噪声水平(公式 (1))。



表 3 显示,当模型已经表现不错时(此处为 x-pred),适当的高噪声是有益的,这与先前的观察结果一致。然而,仅调整噪声水平无法补救 ϵ-prediction 或 -prediction:它们的失败本质上源于无法传播高维信息。

根据表 3,研究者在 ImageNet 256×256 的其他实验中将 µ 设置为 -0.8。

  • 增加隐藏单元并非必要

既然容量可能受到网络宽度(即隐藏单元数量)的限制,一个自然的想法是增加它。然而,当观测维度非常高时,这种补救措施既不符合原则也不可行。研究者表明,在 -prediction 的情况下,这是没有必要的。

在表 5 和表 6 中,研究者展示了 JiT/32 在分辨率 512 和 JiT/64 在分辨率 1024 下的结果,使用了成比例的大 patch 尺寸 p=32 或 p=64。这相当于每个 patch 为 3072 维(即 32×32×3)或 12288 维,远大于 B、L 和 H 模型的隐藏层大小。尽管如此,-prediction 仍然运作良好;事实上,除了按比例缩放噪声(例如,在分辨率 512 和 1024 时分别缩放 2× 和 4×)之外,它无需任何修改即可工作。



这一证据表明,网络设计可以在很大程度上与观测维度解耦,就像许多其他神经网络应用中的情况一样。增加隐藏单元的数量可能是有益的(如在深度学习中广泛观察到的那样),但这并非决定性因素。

  • 瓶颈结构可能有益

更令人惊讶的是,研究者发现,反过来说,在网络中引入降低维度的瓶颈结构可能是有益的。

具体来说,研究者将线性 patch 嵌入层转换为低秩线性层,方法是用一对瓶颈(但仍是线性)层替换它。第一层将维度降低到 d',第二层将其扩展到 Transformer 的隐藏层大小。这两层都是线性的,并充当低秩重参数化

图 4 绘制了使用 JiT-B/16(原始 patch 为 768 维)时 FID 与瓶颈维度 d' 的关系。减小瓶颈维度,即使小到 16 维,也不会导致灾难性的失败。事实上,在大范围(32 到 512)内的瓶颈维度可以提高质量,FID 的提升幅度高达约 1.3。



从表征学习的更广阔视角来看,这一观察并非完全出乎意料。引入瓶颈设计通常是为了鼓励学习内在的低维表征。

算法

最终算法采用 -prediction 和 -loss,这对应于表 1(3)(a)。形式上,研究者优化:



算法 1 展示了训练步骤的伪代码,算法 2 是采样步骤的伪代码(欧拉求解器;可扩展到 Heun 或其他求解器)。为简洁起见,类别条件化和 CFG 被省略了,但两者都遵循标准做法。为了防止在计算 1/(1-t) 时出现除以零的情况,我们在计算此除法时会截断其分母(默认值为 0.05)。



更高级的 Transformer

通用 Transformer 的优势部分在于,当其设计与具体任务解耦时,它可以从其他应用中开发的架构进步中受益。这一特性通过使用任务无关的 Transformer 来构建扩散模型,巩固了其优势。

研究者整合了流行的通用改进:SwiGLU、RMSNorm、RoPE、qk-norm,所有这些最初都是为语言模型开发的。

研究者还探索了上下文内类别条件化:但不同于原始 ViT 仅向序列追加一个类别 token,他们追加了多个此类 token(默认为 32 个)。表 4 报告了这些组件的效果。



实验与对比



图 5:定性结果。使用 JiT-H/32 在 ImageNet 512×512 上生成的部分示例。

像素空间中的高分辨率生成

在表 5 中,研究者进一步汇报了基础规模模型(JiT-B)在 ImageNet 上分辨率为 512 以及甚至 1024 时的结果。研究者使用与图像尺寸成比例的 patch 大小,因此在不同分辨率下序列长度保持不变。单个 patch 的维度可以高达 3072 或 12288,而常见模型都没有足够多的隐藏单元来匹配这些维度。



表 5 显示,模型在不同分辨率下都取得了不错的性能。所有模型的参数量和计算成本相近,唯一的差别来自输入 / 输出 patch 的 embedding。本方法不会遭遇观测维度灾难。

可扩展性

将 Transformer 的结构与任务本身解耦的核心目标之一,是利用其潜在的可扩展能力。表 6 给出了四种模型规模在 ImageNet 256 与 512 分辨率下的结果(注意在 512 分辨率下,这些模型都没有隐藏单元数量超过 patch 维度)。模型规模和 FLOPs 在表 7 与 8 中列出:本文的模型在 256 分辨率下的成本与在 512 分辨率下的对应模型相似。



有趣的是,随着模型规模变大,256 与 512 分辨率之间的 FID 差距变得更小。对于 JiT-G,512 分辨率下的 FID 甚至更低。对于在 ImageNet 上的非常大的模型来说,FID 表现在很大程度上取决于过拟合,而 512 分辨率的去噪任务更具挑战性,使其不太容易过拟合。

以往工作的参考结果

作为参考,研究者们在表 7 与表 8 中与过往结果进行了比较,并标注了各方法所涉及的预训练组件。与其他像素空间方法相比,本文的方法完全依赖于朴素的、通用型的 Transformer。本文的模型计算友好,并避免了分辨率加倍时常见的二次计算成本增长(参见表 8 中的 FLOPs)。



表7:在 ImageNet 256×256 上的参考结果。评估指标为 5 万张样本的 FID 和 IS 。「pre-training」 列列出了获得这些结果所需的外部预训练模型。参数量统计包括生成器和 tokenizer 的解码器(推理阶段使用),但不包括其它预训练组件。Giga-flops 的测量基于一次前向传播(不包含 tokenizer),并且大致与训练和推理过程中每次迭代的计算成本成正比。



表 8: 在 ImageNet 512×512 上的参考结果。JiT 采用了更激进的 patch 大小,并能够在较小的计算量下取得强劲的结果。符号说明与表 7 类似。

本文的方法没有使用额外损失或预训练,这些可能会进一步带来性能提升。

总结

主要集中在概率建模的形式上,而对所使用的神经网络的能力(以及局限性)关注较少。然而,神经网络并非具有无限能力,它们更擅长利用自身容量去建模数据,而不是建模噪声。从这一视角来看,关于-prediction的发现是一个自然的结果。

论文的工作采用了一种极简且自洽的设计。通过减少特定领域的归纳偏置,研究者希望这种方法能够推广到那些难以获取 tokenizer 的其他领域。这一性质在涉及原始、高维自然数据的科学应用中尤为重要。

研究者设想,这种通用的 「Diffusion + Transformer」 范式,将有潜力成为其他领域的基础方法之一。

更多信息请参阅原论文。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
我师专毕业分在县教育局,同桌分在乡下初中,退休时却是天壤之别

我师专毕业分在县教育局,同桌分在乡下初中,退休时却是天壤之别

辉哥说动漫
2025-11-13 09:43:07
国足的选人标准是什么?汪士钦是怎么被选上的,他符合标准……?

国足的选人标准是什么?汪士钦是怎么被选上的,他符合标准……?

田先生篮球
2025-11-19 16:19:50
假球是怎么踢出来的?揭秘前国足主教练李铁从球王到囚徒堕落内幕

假球是怎么踢出来的?揭秘前国足主教练李铁从球王到囚徒堕落内幕

易玄
2025-11-03 11:53:46
儿子病逝,儿媳带孙子去了北方,15年后孙子突然回来,我泪如雨下

儿子病逝,儿媳带孙子去了北方,15年后孙子突然回来,我泪如雨下

媛来这样
2025-11-19 08:50:14
里子面子都丢了,森林北公布体检结果,把汪峰的体面撕个粉碎

里子面子都丢了,森林北公布体检结果,把汪峰的体面撕个粉碎

鋭娱之乐
2025-11-18 12:44:19
当年陈官庄66天激战,唯独1个兵团司令活着逃出,21天后在青岛现身

当年陈官庄66天激战,唯独1个兵团司令活着逃出,21天后在青岛现身

宅家伍菇凉
2025-11-05 16:40:02
危险信号!日媒爆料:日本完成对美返销“爱国者”导弹,系首次出口具有杀伤力武器

危险信号!日媒爆料:日本完成对美返销“爱国者”导弹,系首次出口具有杀伤力武器

环球网资讯
2025-11-19 21:46:22
联手陈梦夺金!揭秘女乒27岁悍将8年换队再封神:极限逆转真猛

联手陈梦夺金!揭秘女乒27岁悍将8年换队再封神:极限逆转真猛

李喜林篮球绝杀
2025-11-20 16:43:27
张天爱凶猛的身材很漂亮

张天爱凶猛的身材很漂亮

TVB的四小花
2025-11-19 09:42:15
两口子都在体制内是啥体验?网友:稳定的穷,但也确实稳定

两口子都在体制内是啥体验?网友:稳定的穷,但也确实稳定

解读热点事件
2025-11-17 00:15:03
1982 年高材生王佐良娶瘫痪的张海迪,40 年后,才知他是人间清醒

1982 年高材生王佐良娶瘫痪的张海迪,40 年后,才知他是人间清醒

墨印斋
2025-11-15 16:42:56
俞敏洪回应全员信争议,否认邮轮舱位价格148万

俞敏洪回应全员信争议,否认邮轮舱位价格148万

界面新闻
2025-11-20 10:00:04
申京轰28+11+7仍无缘今日最佳!对不起,你碰到创纪录的约基奇了

申京轰28+11+7仍无缘今日最佳!对不起,你碰到创纪录的约基奇了

世界体育圈
2025-11-20 13:42:55
750万中国游客说走就走!12万订单一夜取消!日本酒店空房率飙65%

750万中国游客说走就走!12万订单一夜取消!日本酒店空房率飙65%

史纪文谭
2025-11-19 14:44:31
体面投降了?马杜罗同意求和,中方接到通知,特朗普亮明最新态度

体面投降了?马杜罗同意求和,中方接到通知,特朗普亮明最新态度

古事寻踪记
2025-11-20 07:25:17
G20峰会前夕,美俄领袖双双缺席,中方拒见日首相释放强硬信号

G20峰会前夕,美俄领袖双双缺席,中方拒见日首相释放强硬信号

历史求所知
2025-11-19 13:01:26
“漏X装”,火了!

“漏X装”,火了!

微微热评
2025-11-19 14:51:31
世界杯抽签分档确定:西班牙、阿根廷、法国一档

世界杯抽签分档确定:西班牙、阿根廷、法国一档

体坛周报
2025-11-20 00:26:12
全运会最新金牌榜:山东豪取7金,50金排名第一,广东42金排名第2

全运会最新金牌榜:山东豪取7金,50金排名第一,广东42金排名第2

体育就你秀
2025-11-20 07:31:40
噩耗,广东美女陈俊玲去世,年仅33岁,入职体检时查出癌症

噩耗,广东美女陈俊玲去世,年仅33岁,入职体检时查出癌症

熠熠生辉的生活
2025-11-18 09:14:21
2025-11-20 18:39:00
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
11764文章数 142508关注度
往期回顾 全部

科技要闻

英伟达单季狂揽570亿美元,手握5000亿订单

头条要闻

男子开奥迪上班被婚车车队当成头车 7台奥迪跟到工厂

头条要闻

男子开奥迪上班被婚车车队当成头车 7台奥迪跟到工厂

体育要闻

Faker,何以成为Faker

娱乐要闻

胡彦斌的每一任都是大美女

财经要闻

霸王茶姬创始人将与“光伏女神”结婚

汽车要闻

换购价15.98万起 广汽丰田全新威兰达上市

态度原创

本地
健康
手机
家居
军事航空

本地新闻

卖力整活儿的大湾鸡,靠疯癫成了新顶流

警惕超声报告这六大"坑"

手机要闻

消息称vivo X Fold6走普及路线,正测试骁龙8 Gen 4

家居要闻

黑白极简 慵懒通透空间

军事要闻

日本称已向美国出口爱国者导弹

无障碍浏览 进入关怀版