网易首页 > 网易号 > 正文 申请入驻

NeurIPS 2024 Spotlight | 轻微的预训练数据扰动如何造就更优秀的扩散模型

0
分享至

在人工智能领域,基础模型(Foundation Models)的预训练数据质量一直被认为至关重要。我们最新的研究《Slight Corruption in Pre-training Data Makes Better Diffusion Models》(轻微的预训练数据扰动如何造就更优秀的扩散模型),第一次全面系统地探讨了这些扰动对模型性能的影响,并提出了一种创新的方法来将数据的“瑕疵”转化为模型性能提升的“助力”。本文延续我们之前的工作[1],发现预训练数据中适度的噪声也可以提升模型预训练和下游性能。这项研究成果又卡耐基梅隆大学,香港大学,RIKEN等共同发表于NeurIPS 2024,并获得了spotlight论文荣誉。

论文标题: Slight Corruption Makes Better Diffusion Models 论文链接: https://arxiv.org/pdf/2405.20494 论文模型及代码: https://huggingface.co/DiffusionNoise

一、研究背景

扩散模型(Diffusion Models)近年来在生成高质量图像、音频和视频方面取得了令人瞩目的成功,其背后的一大推动力是大规模的预训练数据。例如,著名的Stable Diffusion模型依赖于从互联网上爬取的数十亿对图文数据(如LAION-2B),这些数据不仅为模型提供了丰富的训练语料,还帮助其实现了高度多样化和条件化的生成能力。这种方法显著提升了扩散模型的生成效果,使其在艺术创作、内容生成等任务中表现出色。

然而,大规模数据的收集和处理并非毫无挑战。尽管这些数据集通常会经过严格的筛选和过滤,但误配对样本(condition corruption)依然不可避免,例如错误的图像标签、文本描述不匹配、甚至无意义的内容。这些误配对样本被认为是大规模数据不可避免的“副产品”,传统观点通常认为它们会削弱模型性能,增加生成的噪声和不一致性。

然而,我们的研究挑战了这一传统认知。通过系统性实验,我们发现,轻微的预训练数据扰动(例如2.5%-7.5%的条件误配对)不仅不会对模型性能造成显著负面影响,反而能够帮助扩散模型生成更高质量、更具多样性的内容。令人惊讶的是,这一发现与我们此前在CLIP和ImageNet分类器的研究结论高度一致:轻微的标签噪声在特定情况下可以帮助模型在域内任务(In-Domain Tasks)中提升性能[1]。

这一观察背后的潜在原因可能是,轻微的噪声引导模型利用更多的数据维度来学习特征分布,从而增加生成数据的多样性和质量。同时,噪声还能避免模型过度拟合数据中的偏差或冗余模式,使生成的分布更贴近真实数据分布。这一发现不仅为扩散模型的优化提供了新的视角,也对理解大规模数据预训练过程中的数据偏差提出了重要见解。

随着生成模型的广泛应用,我们的研究不仅为扩散模型的设计和训练带来了新思路,还为开发更健壮、更通用的生成系统提供了理论基础和实践方法。

二、实验发现

为了全面研究预训练数据扰动对扩散模型的影响,我们设计了系统性实验,涵盖预训练和下游任务两个部分。以下是实验的具体设置以及主要发现。

2.1 实验设置

模型:我们采用了多种扩散模型,包括Latent Diffusion Models (LDMs)、Diffusion Transformers (DiT-XL/2) 和 Latent Consistency Models (LCMs),分别对类条件(class-conditional)和文本条件(text-conditional)的生成任务进行实验:

  • LDM-4: Latent Diffusion Model,基于VQ-VAE编码的潜空间(down-sampling factor为4),图像分辨率为256×256。

  • DiT-XL/2: 使用Transformer作为主干网络的扩散模型。

  • LCM-v1.5: 针对快速推理优化的Latent Consistency Models,基于Stable Diffusion v1.5

预训练数据:我们在两个广泛使用的数据集上引入了合成扰动:

  • ImageNet-1K (IN-1K): 为类条件生成任务引入标签翻转扰动(随机将标签替换为其他类别标签)。

  • CC3M: 为文本条件生成任务引入文本替换扰动(随机交换图文对中的文本)。

扰动比例(corruption ratio, η)分别设置为0%、2.5%、5%、7.5%、10%、15%、20%。

预训练评价指标

  • 生成质量和保真度:使用Fréchet Inception Distance (FID) 和 Inception Score (IS)。

  • 多样性和覆盖率:使用Precision-Recall (PR) 曲线和样本熵值(Sample Entropy)。

  • 我们在Appendix里提供了其他metric的测试结果,如sFID, Memorization Ratio, RMD (sample complexity), L2 distance.

下游任务实验设置:预训练之后,我们研究了扩散模型在两个下游个性化任务中的表现:

  • ControlNet:基于空间条件(如Canny边缘图和语义分割掩码)控制生成。

  • T2I-Adapter:在文本条件生成中结合额外的输入模态以提高可控性。数据集:

我们选用ImageNet-100(IN-100)作为个性化任务的数据集,并使用OpenCV Canny检测器和SegmentAnything(SAM)生成边缘和分割掩码作为输入条件。

下游任务评价指标:与预训练一致,包括FID、IS、Precision 和 Recall。

2.2 Pre-training结果

轻微扰动提升生成质量和多样性

  • 更高的质量:通过在不同程度扰动的条件下训练模型,我们发现2.5%-7.5%的扰动比例显著提高了生成图像的质量。例如,在IN-1K数据集上的类条件生成任务中,2.5%扰动的LDM-4模型,其FID从未扰动模型的9.44降至7.00。这表明轻微扰动帮助模型更好地捕捉特征分布,生成更接近真实分布的样本。

  • 更丰富的多样性:轻微扰动同样显著提升了生成样本的多样性。以文本条件生成任务(CC3M数据集)为例,7.5%扰动的模型在CLIP Score上从19.85提升至17.93,同时熵值(Sample Entropy)和相对马氏距离(Relative Mahalanobis Distance, RMD)也有所增加,反映出生成分布的覆盖范围更广。

扰动程度的非线性效应

  • 提升-退化:随着扰动比例从0%逐步增加到20%,生成质量和多样性呈现出“先提升后下降”的非线性趋势。例如,在IN-1K数据集中,FID在扰动比例达到7.5%时达到最优(7.00),而当扰动比例增加到15%时,FID略有上升至9.18。这表明,过高的扰动可能会干扰模型捕捉有用的特征。

  • 偏向于低噪声的设置:与以往研究的高噪声标签学习不同,我们的结果表明低比例(2.5%-7.5%)的扰动不仅是可行的,还可以成为优化生成模型性能的有效策略。

跨模型一致性

  • 轻微扰动的效应在多种扩散模型上得到了验证,包括LDM-4、DiT-XL/2和LCM-v1.5。这表明这种方法具有广泛适用性。即使在Transformer架构,如DiT-XL/2中,轻微扰动也能提高生成能力。

视觉表现的显著改进

  • 我们进一步通过生成样本的视觉评估验证了轻微扰动的优越性。例如,在文本条件生成任务中,7.5%扰动的模型生成的图像更加逼真且多样化,展示了更丰富的细节和场景变化。

2.3 Downstream结果

轻微扰动增强个性化生成性能

  • ControlNet实验:在基于Canny边缘图和SAM分割掩码的个性化任务中,轻微扰动的预训练模型表现优异。这表明,预训练中的轻微扰动为下游任务提供了更通用和更具适应性的特征表示。

  • T2I-Adapter实验:文本条件生成任务中,预训练扰动的优势也更加明显。

增强模型的多样性与保真度平衡

  • 在下游任务中,我们观察到轻微扰动的模型不仅在FID指标上表现更优,还在Precision-Recall曲线上表现出更好的平衡性。例如,在IN-100的ControlNet实验中,2.5%扰动的模型在Precision和Recall上分别达到0.84和0.58,显著优于未扰动模型的0.82和0.61。这表明轻微扰动有效改善了模型生成的覆盖率,同时维持了较高的精确性。

下游任务的视觉评估

  • 改进我们通过对生成图像的视觉质量进行对比,发现轻微扰动的模型能够生成更加自然且多样化的图像。

高效适配的能力

  • 我们发现轻微扰动的预训练模型在进行下游任务的微调时具有更高的适应性。例如,与未扰动模型相比,轻微扰动的模型在少量标注数据的情况下,仍能实现显著的性能提升。这说明轻微扰动不仅能提升预训练阶段的表现,还能为下游任务提供更具泛化性的初始权重。

三、理论分析

我们通过理论分析揭示了轻微数据扰动如何在生成质量和多样性上影响扩散模型的性能。本部分分为两部分:生成多样性的提升和生成质量的改善,并结合我们的数学建模和分析,提供直观的解释和数学依据。

3.1 生成多样性:轻微扰动扩展生成分布

核心观察:

轻微扰动能有效提升生成样本的多样性,使生成分布覆盖更多的数据空间。我们通过计算生成分布的熵值(Entropy)作为多样性的度量,高熵表示生成分布更广泛地覆盖数据空间,而低熵则意味着生成分布过于集中。

理论证明:

在生成多样性方面,我们提出并证明了以下定理:

定理 1:

对于任意类别 ,在生成长度 足够大的情况下,若训练数据的经验协方差矩阵为满秩,且类别的期望范数 为常数,则有:

其中:

  • 和 分别为带有扰动和无扰动条件的生成分布的熵值;

  • 为扰动控制参数;

  • 为数据维度。

这一结论表明,条件扰动能够增加生成分布的熵值,提升生成样本的多样性。此外,熵值的提升程度与扰动大小 和数据维度 成正比。这也与我们实验中发现的结果一致,即轻微扰动( 小且适中)能够提升多样性,而过大的扰动会导致分布失衡。

我们在不同扰动比例下观察到样本熵值的变化,如IN-1K和CC3M数据集中,2.5%-7.5%扰动的模型的熵值显著高于未扰动的模型,进一步验证了理论结论。

3.2生成质量:轻微扰动优化分布对齐

核心观察:

轻微扰动能够改善生成分布与真实数据分布的对齐程度,进而提升生成样本的质量。我们采用2-Wasserstein距离作为衡量分布对齐程度的指标,距离越小,生成分布越接近真实数据分布,生成样本质量越高。

理论证明:

在生成质量方面,我们提出并证明了以下定理:

定理 2:

对于任意类别 ,在生成长度 足够大的情况下,若类别的期望范数 为常数,假设 ,则有:

其中:

  • 为真实分布, 和 分别为无扰动和有扰动条件下的生成分布;

  • 为2-Wasserstein距离;

  • 为类别 的样本数量;

  • 为数据维度。

这一结果表明,轻微的条件扰动能够使生成分布更接近真实分布,即生成质量有所提升。此外,当 取适当的值时(如实验中的2.5%-7.5%扰动),生成分布的对齐效果最为显著,进一步验证了我们的实验结论。

在IN-1K和CC3M数据集中,我们观察到,随着轻微扰动的引入,FID显著下降,表明生成分布与真实分布的对齐程度得到了改善。

3.3 Conditional Embedding Pertubation

轻微扰动在预训练数据中展现出提升模型性能的潜力,但直接操作预训练数据可能并不总是现实可行。为此,我们提出了一种创新的扰动方法,称为**Conditional Embedding Perturbation (CEP)**,通过对条件嵌入层(conditional embedding layer)直接添加随机扰动,模拟数据中的轻微噪声,从而提升模型的生成质量和多样性。

四、核心思想

CEP的核心思想是,在预训练和下游任务的训练过程中,对模型的条件嵌入(例如文本嵌入或类别嵌入)添加轻微扰动,而无需修改底层的数据或模型结构。具体而言,假设条件嵌入为 ,我们将其调整为:

其中:

  • 是服从正态分布或均匀分布的随机噪声;

  • 是控制扰动幅度的超参数。

通过在条件嵌入中加入轻微扰动,CEP可以有效模拟预训练数据中的轻微噪声,同时避免了直接修改数据可能带来的额外开销或不一致性。

五、实验验证

我们在多个生成任务和数据集上评估了CEP的有效性,包括IN-1K的类条件生成任务和CC3M的文本条件生成任务。以下是CEP的具体表现:

1. 生成质量和生成多样性的提升: 在IN-1K数据集上,使用CEP的模型(扰动幅度 ( )的FID从未加扰动模型的9.44显著降低,显示了更高的生成质量。Precision-Recall曲线显示,CEP不仅提升了生成的多样性(Recall),还维持了高精确度(Precision)。

2. 对不同模型的通用性: CEP在LDM、DiT和LCM等多种扩散模型中均表现出一致的性能提升,证明了该方法的通用性。

  • 例如,在LDM-4模型上,CEP将FID从9.44降至7.01,而在DiT-XL/2模型上,CEP将FID从6.76降至5.51。

3. 对下游任务的适用性: 在下游任务中,CEP对生成性能的提升尤为显著。例如,在基于ControlNet的个性化生成任务中,使用CEP预训练的模型,其FID从11.59进一步降低至11.14,同时多样性指标(熵值和Recall)也显著提高。类似地,在T2I-Adapter任务中,CEP的模型生成的图像更加逼真,且对额外的条件输入(如边缘图或分割掩码)的响应更精确。

六、未来展望

随着生成模型和预训练数据规模的不断增长,理解数据扰动对模型性能的影响变得尤为重要。我们的理论分析不仅揭示了轻微扰动的潜在优势,也为未来研究更复杂的数据偏差和噪声类型奠定了基础。此外,我们相信,这种分析方法还可以推广到其他生成模型(如GAN和自回归模型),从而为生成任务的优化提供更广泛的指导。CEP提供了一种高效且灵活的方式来模拟和利用数据中的轻微噪声。未来,我们计划将CEP推广到更多类型的生成任务中,例如对话生成、语言生成,以及多模态生成任务。同时,我们还将探索如何动态调整使CEP能够适应不同数据分布和任务需求,进一步提升模型性能和鲁棒性。

参考资料

[1] Chen, H., Wang, J., Shah, A., Tao, R., Wei, H., Xie, X., Sugiyama, M. and Raj, B., 2023. Understanding and mitigating the label noise in pre-training on downstream tasks. ICLR 2024.


作者:王晋东 来源:公众号【王晋东不在家】

-The End-

本周上新!

扫码观看!

“AI技术流”原创投稿计划

TechBeat是由将门创投建立的AI学习社区(

www.techbeat.net
) 。 社区上线500+期talk视频,3000+篇技术干货文章,方向覆盖CV/NLP/ML/Robotis等;每月定期举办顶会及其他线上交流活动,不定期举办技术人线下聚会交流活动。我们正在努力成为AI人才喜爱的高质量、知识型交流平台,希望为AI人才打造更专业的服务和体验,加速并陪伴其成长。

投稿内容

// 最新技术解读/系统性知识分享 //

// 前沿资讯解说/心得经历讲述 //

投稿须知

稿件需要为原创文章,并标明作者信息。

我们会选择部分在深度技术解析及科研心得方向,对用户启发更大的文章,做原创性内容奖励

投稿方式

发送邮件到

melodybai@thejiangmen.com

或添加工作人员微信(yellowsubbj)投稿,沟通投稿详情;还可以关注“将门创投”公众号,后台回复“投稿”二字,获得投稿说明。

关于我“门”

将门是一家以专注于数智核心科技领域新型创投机构,也是北京市标杆型孵化器。 公司致力于通过连接技术与商业,发掘和培育具有全球影响力的科技创新企业,推动企业创新发展与产业升级。

将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。

如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”:

bp@thejiangmen.com

点击右上角,把文章分享到朋友圈


特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
1万个避孕套3天秒空!冬奥组委会汗流浃背了

1万个避孕套3天秒空!冬奥组委会汗流浃背了

品牌营销报
2026-02-25 09:24:20
明星卸妆后,曾黎脸蜡黄,王子文像老阿姨,看到王一博后我惊呆了

明星卸妆后,曾黎脸蜡黄,王子文像老阿姨,看到王一博后我惊呆了

最美的开始
2026-02-24 19:00:14
回顾“91女神”琪琪:五官出众,却因天真让自己“受伤”

回顾“91女神”琪琪:五官出众,却因天真让自己“受伤”

就一点
2025-11-22 10:36:39
刘邦有啥突出才能,能成为皇帝?毛泽东:封建皇帝里最厉害的一个

刘邦有啥突出才能,能成为皇帝?毛泽东:封建皇帝里最厉害的一个

小莜读史
2026-02-18 17:12:13
江西和安徽的两条高速现状,是看的人心里五味杂陈

江西和安徽的两条高速现状,是看的人心里五味杂陈

魔都姐姐杂谈
2026-02-25 10:10:37
巴拿马接管长江和记两座港口,外交部:中方将坚决维护企业合法权益

巴拿马接管长江和记两座港口,外交部:中方将坚决维护企业合法权益

澎湃新闻
2026-02-24 15:30:29
勇士109-113不敌鹈鹕 球员评价:2人优秀,2人及格,5人低迷

勇士109-113不敌鹈鹕 球员评价:2人优秀,2人及格,5人低迷

篮球资讯达人
2026-02-25 12:03:00
太解气!贵铜仁大爷捡手机被对方怒骂,用红包装好扔湖里“放生”

太解气!贵铜仁大爷捡手机被对方怒骂,用红包装好扔湖里“放生”

火山詩话
2026-02-24 06:31:48
巴拿马政府强行进入并接管港口,李嘉诚旗下长和回应:相关行动不合法,构成严重风险,将研究所有可行途径

巴拿马政府强行进入并接管港口,李嘉诚旗下长和回应:相关行动不合法,构成严重风险,将研究所有可行途径

都市快报橙柿互动
2026-02-24 14:12:41
西湖大学打了谁的脸?外籍学生学费35万一年,国内学生仅6千元

西湖大学打了谁的脸?外籍学生学费35万一年,国内学生仅6千元

妍妍教育日记
2026-02-24 18:35:18
离婚才几年,杨颖这是怎么了?

离婚才几年,杨颖这是怎么了?

文刀万
2026-02-24 17:40:03
首秀27分7篮板!离开勇士队就爆发,老鹰队赚到了

首秀27分7篮板!离开勇士队就爆发,老鹰队赚到了

德译洋洋
2026-02-25 11:51:41
维稳办不能变成欺压办,孙玉良:真正的稳定是让弱势群体扬眉吐气

维稳办不能变成欺压办,孙玉良:真正的稳定是让弱势群体扬眉吐气

孙玉良
2026-02-23 08:18:07
瑞典为何结束210年中立,加入北约并援乌近百亿美元?

瑞典为何结束210年中立,加入北约并援乌近百亿美元?

高博新视野
2026-02-22 20:16:40
哈登20分加盟7战6胜!骑士复仇尼克斯 米切尔23分艾伦19+10

哈登20分加盟7战6胜!骑士复仇尼克斯 米切尔23分艾伦19+10

罗说NBA
2026-02-25 11:16:35
斯洛伐克:乌克兰将恢复“友谊”管道石油输送

斯洛伐克:乌克兰将恢复“友谊”管道石油输送

新华社
2026-02-25 04:00:04
马年特色?多所高校把“马院”设成第一学院,跟风还是大势所趋?

马年特色?多所高校把“马院”设成第一学院,跟风还是大势所趋?

妍妍教育日记
2026-02-24 19:05:43
中铁二十一局今年的年终奖工资单。。。

中铁二十一局今年的年终奖工资单。。。

新浪财经
2026-02-24 13:51:53
年初七,撒贝宁一家到沈阳舅家跑亲戚,老婆李白是模特身材太漂亮

年初七,撒贝宁一家到沈阳舅家跑亲戚,老婆李白是模特身材太漂亮

秋姐居
2026-02-25 09:24:06
别看景区人山人海,仔细一算全是穷游,人均消费露馅,消费降级了

别看景区人山人海,仔细一算全是穷游,人均消费露馅,消费降级了

眼光很亮
2026-02-22 10:37:00
2026-02-25 12:19:00
将门创投 incentive-icons
将门创投
加速及投资技术驱动型初创企业
2302文章数 596关注度
往期回顾 全部

科技要闻

苹果MacBook Pro要加触摸屏了,还带灵动岛

头条要闻

夫妻8年还清百万元债务:在杭州开饭店 几乎全年无休

头条要闻

夫妻8年还清百万元债务:在杭州开饭店 几乎全年无休

体育要闻

曝雄鹿计划今夏追小卡 字母哥渴望与其并肩作战

娱乐要闻

撒贝宁到沈阳跑亲戚 老婆李白模特身材

财经要闻

春节档"开门黑" 电影票少卖了7000万张

汽车要闻

方程豹首款轿车实车图曝光 就等价格了?

态度原创

旅游
亲子
艺术
数码
公开课

旅游要闻

昆明市博物馆丨新春游园会与市民欢乐“过大年”

亲子要闻

上交压岁钱的时候到了

艺术要闻

这位艺术家的马赛克画让人惊叹不已!

数码要闻

Spotify推出骨灰盒音箱,让音乐陪伴“来世”

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版