网易首页 > 网易号 > 正文 申请入驻

CVPR 2026 生成式 AI 观察梳理:视觉模型开始重写默认设定

0
分享至


从扩散控制到语义泛化,视觉 AI 进入范式重构期。

作者丨郑佳美

编辑丨岑 峰

过去几年,视觉生成与视觉理解领域的技术推进,整体上始终沿着一条相对明确的路径展开:当一套建模范式被验证有效之后,后续的大量工作往往都会围绕这套既有框架持续做模型扩容、训练增强、采样优化与局部模块修补,以此换取更高的性能上限。

无论是扩散生成、视频 world model,还是动作建模与视觉匹配,主流研究在很长时间里都更多表现为对既有系统的持续加固,而不是对底层假设本身的重新审视。

但从今年 CVPR 集中出现的一批代表性工作来看,这种相对稳定的技术推进逻辑正在发生值得警惕的变化。越来越多研究已经不再满足于在现有模型框架内部继续做增量式性能修补,而是开始系统性地把问题重新拉回到那些长期被工程实践视为“默认正确”的基础设定上。

扩散模型中的引导机制是否真的合理,视频生成是否必须建立在 diffusion 的反复去噪之上,生成模型所学习的预测对象是否从一开始就遵循了最自然的数据流形,以及人体动作生成与语义对应任务中长期被粗粒度评价掩盖的控制边界和泛化边界,是否都需要被重新定义。

这意味着,顶会论文所呈现出的竞争重点正在悄然发生迁移。相比于过去更多强调“在原有范式内把模型做得更强、把指标推得更高”,这一批工作更值得注意的地方在于,它们开始同步触碰那些决定模型行为方式的底层建模前提,并试图重新建立新的生成目标、控制机制、主干架构与表示逻辑。

换句话说,视觉 AI 的下一轮竞争,正在逐渐从性能增量竞争,转向对既有默认设定的回溯性重写。

01


视觉生成开始重写基础机制

这一趋势首先体现在由上海交通大学和 vivo BlueImage Lab 共同提出的《C²FG: Control Classifier-Free Guidance via Score Discrepancy Analysis》上。


论文地址:https://arxiv.org/pdf/2603.08155v2

Classifier-Free Guidance(CFG)作为条件扩散模型中最常用的生成引导机制,几乎已经成为默认组件:通过调节 conditional 分支和 unconditional 分支之间的 guidance strength 来增强模型对条件信息的服从程度,从而提升生成质量。

但长期以来,这一过程主要依赖固定 guidance weight 或少量经验化动态调整,真正的问题在于,扩散过程内部的噪声结构和 score 差异并不是静止的,而是随着时间步不断变化,固定的引导强度很难在整个采样阶段都保持最优。

论文正是从这一被忽视的内部动力学出发,分析不同 timestep 下 conditional score 与 unconditional score 的 discrepancy 变化规律,指出 guidance scale 本质上不应是一个静态超参数。

基于这种理论观察,作者提出 C²FG(Control Classifier-Free Guidance),利用指数衰减控制函数让 guidance strength 在采样前期和后期自动完成动态分配:前期更强地利用条件约束保证语义对齐,后期则逐步减弱引导以避免过强 guidance 带来的分布偏移和细节失真。

它真正打破的是 CFG 长期依赖经验调参的惯性,把一个原本“手工设定的 scale”重新建立成一个与扩散动力学同步变化的控制变量,而且由于整个方法 training-free、plug-in,无需重新训练模型即可直接嵌入现有采样流程,这也使它具备了非常强的工程可迁移性。


而当扩散模型内部的引导控制开始被重新理论化时,苹果团队提出的《STARFlow-V: End-to-End Video Generative Modeling with Autoregressive Normalizing Flows》则进一步把问题推向了更底层的生成架构本身。

当前高质量视频生成几乎清一色建立在 diffusion 框架之上,反复去噪似乎已经成为视频 world model 的默认实现方式,normalizing flow 虽然在图像生成中重新受到关注,却始终没有真正进入视频生成主流。


论文地址:https://arxiv.org/pdf/2511.20462v2

STARFlow-V 试图回答的是:高质量视频生成是否真的只有 diffusion 这一条路。为此,论文并没有简单把图像 flow 结构迁移到视频,而是针对视频生成的长时序依赖和跨帧一致性,在时空 latent 空间中重新构建了一套 global-local 的 autoregressive normalizing flow 架构:

全局 latent 用于控制跨帧因果依赖,减少长视频中误差逐帧累积的问题,局部 latent 则保留帧内细节交互,保证空间纹理质量。

同时,作者进一步引入 flow-score matching,通过轻量级 causal denoiser 提升自回归生成过程中的时间一致性,并利用 video-aware Jacobi iteration 提高内部更新的并行效率。

也就是说,它并不是在 diffusion 框架内继续做采样优化,而是直接打破“高质量视频生成必须依赖 diffusion 反复去噪”的默认前提,建立起一种基于 normalizing flow 的端到端视频生成范式。

更重要的是,由于 flow 天然具备可逆结构和显式 likelihood 估计能力,同一个 STARFlow-V 模型就能够原生支持 text-to-video、image-to-video 以及 video-to-video 多种任务,不需要为不同任务额外堆叠复杂分支,这使它不仅是一个替代架构,更像是在重新打开视频生成的技术路线图。


如果说前两篇工作还主要集中在“生成过程如何被重新控制与重新实现”,那么由 MIT 团队提出的《Back to Basics: Let Denoising Generative Models Denoise》则把审视进一步推回到扩散模型最核心的预测对象上。

当前主流 denoising diffusion model 虽然名义上是“去噪生成模型”,但大多数做法实际上并不直接预测干净图像,而是让模型去拟合噪声残差或带噪中间量,这一设定在工程上已经沿用多年,却很少有人重新追问它是否真的是最合理的生成目标。


论文地址:https://arxiv.org/pdf/2511.13720v2

他们的研究指出,按照流形假设,自然图像分布位于相对低维且连续的数据流形,而噪声空间则高维、分散且更难拟合;从这个角度看,让模型直接学习回到 clean data,本身可能比在高维噪声空间中预测 noised quantity 更自然、更稳定。

基于这一认识,作者提出 JiT(Just image Transformers),不再依赖额外 tokenizer、复杂预训练模块或辅助损失,而是直接使用大 patch Transformer 在原始像素空间完成 clean image 预测。

这个设计表面上看是“回归朴素”,但它真正打破的是“扩散模型默认预测噪声”的路径依赖,重新建立起一种以直接回归数据流形为核心的生成思路,也让 Transformer-based diffusion 在高分辨率自然图像上的建模逻辑变得更加自洽。


02


生成模型开始从「会生成」走向「会精确编排」

当视觉生成模型不断回到底层机制做重构时,另一部分工作则开始把注意力转向“模型生成结果到底能被控制到什么程度”。由德国图宾根大学、Tübingen AI Center 以及马克斯·普朗克信息学研究所共同提出的《FrankenMotion: Part-level Human Motion Generation and Composition》就是其中非常典型的一例。

当前文本驱动人体动作生成虽然已经能够根据整体动作描述生成相对自然的人体运动,但模型控制依然停留在粗粒度层面:它能理解“一个人在走路”“一个人在挥手”,却很难精确回答“左手什么时候抬起”“下半身何时转向”“动作切换发生在哪一帧”。


论文地址:https://arxiv.org/pdf/2601.10909v1

造成这一问题的核心原因,一方面在于现有 mocap 数据大多只有序列级动作标签,缺少按时间对齐、按身体部位拆分的细粒度标注;另一方面,模型即使理解整体语义,也很难同时兼顾局部肢体动作与全局时序一致性。

FrankenMotion 正是重新把复杂人体运动视为由多个“原子动作单元”组成,并尝试让模型学习这些身体部位级动作之间的组合关系。

论文首先借助 FrankenAgent 自动为已有动作序列生成逐帧、逐身体部位且时间对齐的层级文本标注,构建新的 FrankenStein 数据集;随后训练 FrankenMotion 同时接收序列级、动作级和身体部位级条件,使模型不仅知道“做什么动作”,还知道“哪部分身体在什么时候做”。

这意味着人体动作生成开始从“生成一个合理动作片段”转向“按指令精确编排复杂动作组合”,模型能够组合出训练集中并未直接出现过的细粒度复合动作。

与这种细粒度控制需求相对应,视觉理解中的匹配任务也在经历类似的范式转向。由意大利都灵理工大学、TU Darmstadt、hessian.AI 以及 ELIZA 共同提出的


由而意大利都灵理工大学(Politecnico di Torino)、德国达姆施塔特工业大学(TU Darmstadt)、德国黑森州人工智能研究院(hessian.AI)以及 ELIZA 共同提出的《MARCO: Navigating the Unseen Space of Semantic Correspondence》。

关注的则是语义对应(semantic correspondence)里一个很现实却常被 benchmark 掩盖的问题:现有方法虽然在已标注关键点上精度很高,但一旦查询点超出训练时见过的关键点位置,或者遇到未见类别,泛化能力就会迅速下降,导致 benchmark 成绩与真实可用性之间存在明显落差。


论文地址:https://arxiv.org/pdf/2604.18267v1

当前主流语义对应模型通常采用 DINOv2 加 diffusion backbone 的双编码器架构,虽然效果强,但模型规模接近十亿参数,计算开销大,而且依赖稀疏关键点监督时很难学到真正连续、致密的语义匹配关系。

MARCO 的核心切入点,就是不再满足于“在标注点上对得准”,而是尝试让模型学会在未被标注的空间中也能推断合理的对应关系。

为此,论文在 DINOv2 基础上构建了一个更统一、更轻量的对应框架,并结合 coarse-to-fine 的定位目标提升细粒度空间精度,同时引入一种 dense self-distillation 机制,把原本稀疏的关键点监督逐步扩展成更致密的语义对齐信号。

这种设计带来的变化在于,模型不只是记住训练时出现过的对应点,而是开始学习物体表面更连续的结构关联,因此在 unseen keypoints 和 unseen categories 上都表现出更强泛化能力。

实验结果显示,MARCO 不仅在 SPair-71k、AP-10K、PF-PASCAL 等标准基准上刷新了性能,在更严格的细粒度定位阈值和未见关键点测试中提升尤其明显;与此同时,它相比 diffusion-based 方法还实现了约3 倍更小10 倍更快的效率优势。

这篇工作的价值在于,它打破了语义对应领域长期“高 benchmark 分数 ≠ 强真实泛化”的隐性瓶颈,建立起一种更强调致密推断和未见空间泛化的建模思路,使 semantic correspondence 从“在标注点上匹配”,进一步走向“在整片语义空间中寻找对应”。


把这几项工作放在一起看,会发现它们虽然分别来自扩散控制、视频生成、人体动作生成和语义对应等不同方向,但背后其实共享着同一条更深层的研究脉络:视觉 AI 正在从“沿着既定范式堆模型、调参数、刷 benchmark”,转向“重新拆掉那些被默认正确的底层设定,再建立新的生成目标、控制机制和表示方式”。

有的工作在重新定义扩散模型应该如何引导,有的在重新打开视频生成不止 diffusion 一条路的可能性,有的在追问生成模型到底该预测噪声还是直接预测数据流形,也有的在把模型控制粒度和泛化空间从粗粒度推进到更连续、更真实的层面。

换句话说,真正值得注意的已经不只是某一个模型分数提升了多少,而是这一批工作共同释放出的信号:视觉模型的下一轮竞争,正在从性能增量竞争,转向底层建模范式的重构竞争。

这次去 CVPR 现场,一定不要错过

【认识大牛+赚外快】的机会

需要你做什么:把你最关注的10个大会报告,每页PPT都拍下来

你能获得什么?

认识大牛:你将可以进入CVPR名师博士社群;

钱多活少:提供丰厚奖金,任务量精简;

听会自由:你的行程你做主,顺手就把外快赚。拍下你最感兴趣的10个报告PPT即可。

如果你即将前往CVPR,想边听会边赚钱,还能顺便为AI学术社区做贡献、认识更多大牛,欢迎联系我们:[添加微信号:MS_Yahei]

【限额5位,先到先得】

未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!

公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
豆包又更新了!一键生成王炸PPT,10分钟搞定半天工作量!

豆包又更新了!一键生成王炸PPT,10分钟搞定半天工作量!

秋叶PPT
2026-05-03 08:22:37
55岁"纸片人"鲁豫,与小19岁男友同居后变样,如今她令人大跌眼镜

55岁"纸片人"鲁豫,与小19岁男友同居后变样,如今她令人大跌眼镜

观察鉴娱
2026-04-17 09:43:01
设计院正在集体死去:不是没项目,是被6座大山压垮了!

设计院正在集体死去:不是没项目,是被6座大山压垮了!

悟话八门
2026-05-03 12:57:09
美国巨星黛博拉,这大体格真壮实,谁人不爱呢

美国巨星黛博拉,这大体格真壮实,谁人不爱呢

科学发掘
2026-05-04 04:54:33
于和伟:我虽有绯闻,但宋林静18岁就跟了我,我余生绝不辜负她!

于和伟:我虽有绯闻,但宋林静18岁就跟了我,我余生绝不辜负她!

小椰的奶奶
2026-05-04 07:16:35
广州为何不敌广东?赛后徐昕毫不客气说出原因,说的很真实!

广州为何不敌广东?赛后徐昕毫不客气说出原因,说的很真实!

吴紒爱体育
2026-05-04 08:34:48
快扔掉!戴一天,辐射量相当于拍117次胸片

快扔掉!戴一天,辐射量相当于拍117次胸片

上观新闻
2025-11-23 18:47:10
7换1!NBA重磅大交易!东部新贵史诗级加强

7换1!NBA重磅大交易!东部新贵史诗级加强

林子说事
2026-05-03 16:26:44
龙应台破防:称自己为之奋斗一生的价值观崩塌!

龙应台破防:称自己为之奋斗一生的价值观崩塌!

谈芯说科技
2026-05-01 23:00:48
3换1!冒险报价!杜兰特或将加盟开拓者

3换1!冒险报价!杜兰特或将加盟开拓者

宝哥精彩赛事
2026-05-04 12:04:09
德比斯退赛,张雪发声

德比斯退赛,张雪发声

观察者网
2026-05-03 21:26:17
3分3板3犯,状元郎打出生涯最差一季,球迷:别怪教练不给机会了

3分3板3犯,状元郎打出生涯最差一季,球迷:别怪教练不给机会了

弄月公子
2026-05-04 10:40:24
当众处决!俄方宣读日本秘密保证书,高市早苗援乌谎言彻底被揭穿

当众处决!俄方宣读日本秘密保证书,高市早苗援乌谎言彻底被揭穿

近史谈
2026-05-03 23:31:02
张雪机车冠军奖金13万,德比斯年薪480万,这钱到底怎么算的?

张雪机车冠军奖金13万,德比斯年薪480万,这钱到底怎么算的?

童叔不飙车
2026-05-04 11:09:14
话费终于自由了!联通取消月租,移动电信会跟风吗?

话费终于自由了!联通取消月租,移动电信会跟风吗?

Thurman在昆明
2026-05-04 10:42:36
英超二桃杀三士:维拉输球拉森林下水,三队死磕两个上岸席位!

英超二桃杀三士:维拉输球拉森林下水,三队死磕两个上岸席位!

英超德甲才疯狂
2026-05-04 07:17:43
特朗普放大招:美军开始疏通霍尔木兹海峡,给革命卫队致命一击

特朗普放大招:美军开始疏通霍尔木兹海峡,给革命卫队致命一击

说历史的老牢
2026-05-04 10:32:30
成龙都要给面子的京圈父女,手握顶流花名册,最终赌输了整个帝国

成龙都要给面子的京圈父女,手握顶流花名册,最终赌输了整个帝国

娱探金多米
2026-03-07 14:49:09
我和一位“官二代”女镇长搭班子,才明白什么叫认知的碾压

我和一位“官二代”女镇长搭班子,才明白什么叫认知的碾压

千秋文化
2026-04-25 20:37:53
这就是烈士江姐的真实的样貌,并非演员扮演,货真价实的罕见照片

这就是烈士江姐的真实的样貌,并非演员扮演,货真价实的罕见照片

浩渺青史
2026-05-04 00:50:25
2026-05-04 13:36:49
AI科技评论 incentive-icons
AI科技评论
点评学术,服务AI
7243文章数 20751关注度
往期回顾 全部

科技要闻

OpenAI“复活”了QQ宠物,网友直接玩疯

头条要闻

大型邮轮暴发病毒致3死 曾有好莱坞明星夫妇染病死亡

头条要闻

大型邮轮暴发病毒致3死 曾有好莱坞明星夫妇染病死亡

体育要闻

曼联3-2双杀利物浦!提前三轮锁定欧冠资格 梅努制胜

娱乐要闻

严浩翔新歌,父母离婚17年矛盾升级

财经要闻

魔幻的韩国股市,父母给婴儿开户买股票

汽车要闻

同比大涨190% 方程豹4月销量29138台

态度原创

游戏
艺术
亲子
旅游
公开课

体量堪比续作!《毁灭战士:黑暗时代》DLC 细节全曝光

艺术要闻

奥托·冯·托伦:19世纪奥地利著名动物/风景画家

亲子要闻

辛者库幼儿园反转!孩子沦为免费劳力,被奴役干活,宝妈怒退园?

旅游要闻

快乐拉满!“五一”打卡“齐鲁童乡”,解锁遛娃新体验

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版