网易首页 > 网易号 > 正文 申请入驻

统治扩散模型的U-Net要被取代了,谢赛宁引入Transformer提出DiT

0
分享至

机器之心报道

编辑:陈萍、蛋酱

来自 UC 伯克利的 William Peebles 以及纽约大学的谢赛宁撰文揭秘扩散模型中架构选择的意义,并为未来的生成模型研究提供经验基线。

近几年,在 Transformer 的推动下,机器学习正在经历复兴。过去五年中,用于自然语言处理、计算机视觉以及其他领域的神经架构在很大程度上已被 transformer 所占据。

不过还有许多图像级生成模型仍然不受这一趋势的影响,例如过去一年扩散模型在图像生成方面取得了惊人的成果,几乎所有这些模型都使用卷积 U-Net 作为主干。这有点令人惊讶!在过去的几年中,深度学习的大事件一直是跨领域的 Transformer 的主导地位。U-Net 或卷积是否有什么特别之处使它们在扩散模型中表现得如此出色?

将 U-Net 主干网络首次引入扩散模型的研究可追溯到 Ho 等人,这种设计模式继承了自回归生成模型 PixelCNN++,只是稍微进行了一些改动。而 PixelCNN++ 由卷积层组成,其包含许多的 ResNet 块。其与标准的 U-Net 相比,PixelCNN++ 附加的空间自注意力块成为 transformer 中的基本组件。不同于其他人的研究,Dhariwal 和 Nichol 等人消除了 U-Net 的几种架构选择,例如使用自适应归一化层为卷积层注入条件信息和通道计数。

本文中来自 UC 伯克利的 William Peebles 以及纽约大学的谢赛宁撰文《 Scalable Diffusion Models with Transformers 》,目标是揭开扩散模型中架构选择的意义,并为未来的生成模型研究提供经验基线。该研究表明,U-Net 归纳偏置对扩散模型的性能不是至关重要的,并且可以很容易地用标准设计(如 transformer)取代。

这一发现表明,扩散模型可以从架构统一趋势中受益,例如,扩散模型可以继承其他领域的最佳实践和训练方法,保留这些模型的可扩展性、鲁棒性和效率等有利特性。标准化架构也将为跨领域研究开辟新的可能性。

论文地址:
https://arxiv.org/pdf/2212.09748.pdf

项目地址:
https://github.com/facebookresearch/DiT

论文主页:
https://www.wpeebles.com/DiT

该研究专注于一类新的基于 Transformer 的扩散模型:Diffusion Transformers(简称 DiTs)。DiTs 遵循 Vision Transformers (ViTs) 的最佳实践,有一些小但重要的调整。DiT 已被证明比传统的卷积网络(例如 ResNet )具有更有效地扩展性。

具体而言,本文研究了 Transformer 在网络复杂度与样本质量方面的扩展行为。研究表明,通过在潜在扩散模型 (LDM) 框架下构建 DiT 设计空间并对其进行基准测试,其中扩散模型在 VAE 的潜在空间内进行训练,可以成功地用 transformer 替换 U-Net 主干。本文进一步表明 DiT 是扩散模型的可扩展架构:网络复杂性(由 Gflops 测量)与样本质量(由 FID 测量)之间存在很强的相关性。通过简单地扩展 DiT 并训练具有高容量主干(118.6 Gflops)的 LDM,可以在类条件 256 × 256 ImageNet 生成基准上实现 2.27 FID 的最新结果。

Diffusion Transformers

DiTs 是一种用于扩散模型的新架构,目标是尽可能忠实于标准 transformer 架构,以保留其可扩展性。DiT 保留了 ViT 的许多最佳实践,图 3 显示了完整 DiT 体系架构。

DiT 的输入为空间表示 z(对于 256 × 256 × 3 图像,z 的形状为 32 × 32 × 4)。DiT 的第一层是 patchify,该层通过将每个 patch 线性嵌入到输入中,以此将空间输入转换为一个 T token 序列。patchify 之后,本文将标准的基于 ViT 频率的位置嵌入应用于所有输入 token。

patchify 创建的 token T 的数量由 patch 大小超参数 p 决定。如图 4 所示,将 p 减半将使 T 翻四倍,因此至少能使 transformer Gflops 翻四倍。本文将 p = 2,4,8 添加到 DiT 设计空间。

DiT 块设计:在 patchify 之后,输入 token 由一系列 transformer 块处理。除了噪声图像输入之外,扩散模型有时还会处理额外的条件信息,例如噪声时间步长 t、类标签 c、自然语言等。本文探索了四种以不同方式处理条件输入的 transformer 块变体。这些设计对标准 ViT 块设计进行了微小但重要的修改。所有模块的设计如图 3 所示。

本文尝试了四种因模型深度和宽度而异的配置:DiT-S、DiT-B、DiT-L 和 DiT-XL。这些模型配置范围从 33M 到 675M 参数,Gflops 从 0.4 到 119 。

实验

研究者训练了四个最高 Gflop 的 DiT-XL/2 模型,每个模型使用不同的 block 设计 ——in-context(119.4Gflops)、cross-attention(137.6Gflops)、adaptive layer norm(adaLN,118.6Gflops)或 adaLN-zero(118.6Gflops)。然后在训练过程中测量 FID,图 5 为结果。

扩展模型大小和 patch 大小。图 2(左)给出了每个模型的 Gflops 和它们在 400K 训练迭代时的 FID 概况。可以发现,增加模型大小和减少 patch 大小会对扩散模型产生相当大的改进。

图 6(顶部)展示了 FID 是如何随着模型大小的增加和 patch 大小保持不变而变化的。在四种设置中,通过使 Transformer 更深、更宽,训练的所有阶段都获得了 FID 的明显提升。同样,图 6(底部)展示了 patch 大小减少和模型大小保持不变时的 FID。研究者再次观察到,在整个训练过程中,通过简单地扩大 DiT 处理的 token 数量,并保持参数的大致固定,FID 会得到相当大的改善。

图 8 中展示了 FID-50K 在 400K 训练步数下与模型 Gflops 的对比:

SOTA 扩散模型 256×256 ImageNet。在对扩展分析之后,研究者继续训练最高 Gflop 模型 DiT-XL/2,步数为 7M。图 1 展示了该模型的样本,并与类别条件生成 SOTA 模型进行比较,表 2 中展示了结果。

当使用无分类器指导时,DiT-XL/2 优于之前所有的扩散模型,将之前由 LDM 实现的 3.60 的最佳 FID-50K 降至 2.27。如图 2(右)所示,相对于 LDM-4(103.6 Gflops)这样的潜在空间 U-Net 模型来说,DiT-XL/2(118.6 Gflops)计算效率高得多,也比 ADM(1120 Gflops)或 ADM-U(742 Gflops)这样的像素空间 U-Net 模型效率高很多。

表 3 展示了与 SOTA 方法的比较。XL/2 在这一分辨率下再次胜过之前的所有扩散模型,将 ADM 之前取得的 3.85 的最佳 FID 提高到 3.04。

更多研究细节,可参考原论文。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
政变只是一个开始,伊朗要变天了,中国最担心的事情,恐将发生

政变只是一个开始,伊朗要变天了,中国最担心的事情,恐将发生

阿坹武器装备科普
2026-04-11 18:32:07
“嫂子我快生了,住一起不方便,你搬走吧”嫂子:滚,这是陪嫁房

“嫂子我快生了,住一起不方便,你搬走吧”嫂子:滚,这是陪嫁房

广西秦胖胖
2026-04-12 20:43:21
曼城3-0补时连捅2刀,阿森纳净胜球优势8分钟蒸发

曼城3-0补时连捅2刀,阿森纳净胜球优势8分钟蒸发

竞技风云录
2026-04-13 17:34:04
王曼昱头号贵人,不是刘国梁也不是王励勤,竟是已离开国家队的他

王曼昱头号贵人,不是刘国梁也不是王励勤,竟是已离开国家队的他

揽星河的笔记
2026-04-13 15:42:29
打赏近300万,被40岁女主播拒绝结婚:私下约了4次,每次7到10天

打赏近300万,被40岁女主播拒绝结婚:私下约了4次,每次7到10天

江山挥笔
2026-04-11 21:33:38
你最接近生理极限的一次经历是什么?网友分享让人目瞪口呆!

你最接近生理极限的一次经历是什么?网友分享让人目瞪口呆!

夜深爱杂谈
2026-04-09 19:39:13
特朗普这回闯下大祸了!普京在最关键时刻,给伊朗送上“定心丸”

特朗普这回闯下大祸了!普京在最关键时刻,给伊朗送上“定心丸”

娱乐圈的笔娱君
2026-04-13 21:36:38
国乒三条消息: 张继科复出、马龙坐镇成都、王曼昱跨界新身份

国乒三条消息: 张继科复出、马龙坐镇成都、王曼昱跨界新身份

罗纳尔说个球
2026-04-13 22:28:20
回加拿大生活的大山,60岁须发皆白很沧桑,重庆妻子仍风韵犹存

回加拿大生活的大山,60岁须发皆白很沧桑,重庆妻子仍风韵犹存

胡一舸南游y
2026-04-04 15:41:43
深圳速度!约翰逊受伤不到半月又签猛将,攻坚+防守获赞,直指4强

深圳速度!约翰逊受伤不到半月又签猛将,攻坚+防守获赞,直指4强

篮球资讯达人
2026-04-13 13:41:24
为什么山姆越来越多,麦德龙却快倒光了?网友:降本增效的问题

为什么山姆越来越多,麦德龙却快倒光了?网友:降本增效的问题

另子维爱读史
2026-04-13 13:14:30
难以置信!上海一大爷在山姆会员店,拿在售剃须刀剃头引发热议

难以置信!上海一大爷在山姆会员店,拿在售剃须刀剃头引发热议

火山詩话
2026-04-13 06:39:17
又丢脸了,时隔四年,乌克兰再次命中俄罗斯黑海舰队旗舰

又丢脸了,时隔四年,乌克兰再次命中俄罗斯黑海舰队旗舰

林子说事
2026-04-12 11:48:54
东风日产NX8对比理想L6:10万元差价到底哪不同?

东风日产NX8对比理想L6:10万元差价到底哪不同?

生活魔术专家
2026-04-13 20:47:28
随着比分定格2-0,63岁穆帅率队29轮不败,一夜追到仅差榜首4分

随着比分定格2-0,63岁穆帅率队29轮不败,一夜追到仅差榜首4分

侧身凌空斩
2026-04-13 03:28:48
世锦赛战报:147,常冰玉豪取135万奖金!再爆大冷4号种子7-10出局

世锦赛战报:147,常冰玉豪取135万奖金!再爆大冷4号种子7-10出局

求球不落谛
2026-04-13 05:28:55
空姐飞机上换丝袜,被同事偷拍,太恶劣了

空姐飞机上换丝袜,被同事偷拍,太恶劣了

微微热评
2026-04-12 22:18:24
蓝战非领奖穿着被吐槽!网友:都是千万级别网红,郭有财绅士儒雅

蓝战非领奖穿着被吐槽!网友:都是千万级别网红,郭有财绅士儒雅

火山詩话
2026-04-11 15:43:54
木子美顶风作案贬低全红婵:她现在选拔赛都过不了,应该退役退圈

木子美顶风作案贬低全红婵:她现在选拔赛都过不了,应该退役退圈

杨华评论
2026-04-13 22:03:49
弱者着相,强者破相,智者无相(深度好文)

弱者着相,强者破相,智者无相(深度好文)

洞见
2026-04-12 15:24:55
2026-04-13 23:16:49
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12751文章数 142624关注度
往期回顾 全部

科技要闻

"抄作业"近四年,马斯克版微信周五上线

头条要闻

媒体:欧尔班败选不仅是一国之事 牵扯到与中国的关系

头条要闻

媒体:欧尔班败选不仅是一国之事 牵扯到与中国的关系

体育要闻

一支球队不够烂,也是一种悲哀

娱乐要闻

初代“跑男团”合体,邓超、鹿晗缺席

财经要闻

谈判未完全关闭?3国力促美伊重启谈判

汽车要闻

不止命名更纯粹 领克10/10+要做纯电操控新王

态度原创

本地
健康
房产
教育
公开课

本地新闻

12吨巧克力有难,全网化身超级侦探添乱

干细胞抗衰4大误区,90%的人都中招

房产要闻

6000亿投资盛宴,全球巨头齐聚,海南又要干件大事!

教育要闻

【教研帮扶】 广东省教育研究院“走进粤东西北(湛江)教研帮扶活动”初中语文专场活动举行

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版