网易首页 > 网易号 > 正文 申请入驻

MoonMath团队突破视频AI瓶颈:让视频生成快如闪电的革命性技术

0
分享至


这项由MoonMath.ai团队的Dor Shmilovich、Tony Wu、Aviad Dahan和Yuval Domb共同完成的突破性研究发表于2025年神经信息处理系统会议(NeurIPS 2025),论文编号为arXiv:2511.11062v1。有兴趣深入了解的读者可以通过该编号查询完整论文。这项名为"LiteAttention"的研究解决了当前AI视频生成技术面临的一个巨大难题:生成一段仅仅5秒钟的高质量视频竟然需要在顶级GPU上运算长达30分钟。

当今的AI视频生成技术确实令人惊叹,能够创造出堪比专业制作水准的视频内容。但是,这种卓越能力背后隐藏着一个让人头疼的问题:计算效率极其低下。就像用最先进的超级跑车在拥堵的城市道路上行驶一样,再强大的引擎也被堵得寸步难行。造成这种困境的罪魁祸首是一个叫做"注意力机制"的核心组件,它在整个视频生成过程中占据了高达80%的计算时间。

研究团队深入分析后发现了一个非常有趣的现象:在AI生成视频的整个过程中,那些在早期步骤中被认为"不重要"的计算单元,在后续步骤中往往也保持着"不重要"的状态。这就像是一个人在做菜时,如果某种调料在开始时就被判断为"这道菜用不着",那么在整个烹饪过程中,这种调料大概率都不会被需要。基于这个重要发现,研究团队开发出了LiteAttention技术,它能够智能地识别并跳过那些不必要的计算步骤,就像是给AI视频生成装上了一个超级智能的"跳过按钮"。

一、揭开视频AI计算瓶颈的真相

要理解LiteAttention的革命性意义,我们首先需要了解当前视频AI技术面临的根本问题。现代的AI视频生成系统,特别是基于扩散变换器(Diffusion Transformers)的模型,工作原理有点像是一位极其细致的艺术家在创作一幅巨大的拼图画。这位艺术家需要同时关注画面中的每一个小块区域,并且要反复检查每个区域与其他所有区域之间的关系,确保整幅画面协调一致。

这种工作方式在计算机科学中被称为"注意力机制",它的计算复杂度随着视频长度的增加而呈现平方级增长。具体来说,如果视频的长度增加一倍,所需要的计算量就会增加四倍。这就像是一个聚会,如果参加的人数从10人增加到20人,那么所有人之间可能发生的对话组合就从45种激增到190种,工作量远远不止翻倍那么简单。

研究团队通过深入分析发现,在一个典型的视频生成架构中,注意力计算占据了整个推理过程中高达80%的时间。这意味着即使其他所有计算都能瞬间完成,仅仅是注意力计算这一个环节就足以让整个系统变得极其缓慢。这就像是一条高速公路上出现了一个严重的瓶颈路段,无论其他路段多么畅通,整体的通行效率都会被这个瓶颈严重拖累。

更令人惊讶的是,研究团队发现现有的加速方法都面临着一个根本性的两难选择。动态稀疏方法虽然能够自适应地选择哪些计算可以跳过,但每次做决策的过程本身就消耗了大量时间,就像是为了节省时间而花费大量时间来制定节省时间的计划。而静态稀疏方法虽然避免了重复决策的开销,但因为使用固定的模式,往往无法很好地适应不同内容的需求,就像是用同一套西装来应对所有不同的场合。

二、发现时间连贯性的奥秘

LiteAttention的核心洞察来源于研究团队对注意力模式时间演化的深入观察。他们发现了一个之前被忽视的重要规律:在视频生成的去噪过程中,注意力的稀疏模式表现出强烈的时间连贯性。简单来说,就是在某个时间步骤中被判断为"不重要"的计算单元,在后续的时间步骤中很大概率仍然是"不重要"的。

这种现象可以用一个生动的比喻来理解。设想你正在打扫一个房间,在清理过程的早期阶段,你就能判断出哪些角落比较干净,不需要重点清理。随着清理工作的进行,这些相对干净的角落通常仍然保持相对干净的状态,不需要投入太多精力。LiteAttention正是利用了这种"一旦不重要,很可能持续不重要"的特性。

研究团队通过大量实验验证了这一发现的普遍性。他们发现这种时间连贯性不仅存在于同一层级的变换器模块之间,甚至在不同的注意力头之间也表现出强烈的相关性。更有趣的是,这种模式在不同的输入内容批次之间也显示出惊人的一致性,这意味着某些跳过决策甚至可以在不同的输入之间共享。

基于这个重要发现,LiteAttention采用了一种全新的策略:在去噪过程的早期阶段识别可以跳过的计算单元,然后将这些"跳过决策"传播到整个去噪序列中。这种方法巧妙地结合了动态方法的内容适应性和静态方法的计算效率,实现了"一次决策,全程受益"的效果。

三、革命性的进化式计算跳过技术

LiteAttention的核心创新在于引入了"进化式计算跳过"(evolutionary computation skips)的概念。这种方法的工作原理有点像是一个智能的项目经理,在项目初期就能识别出哪些任务是不必要的,然后在整个项目执行过程中系统性地排除这些任务,而不是每次都重新评估。

传统的稀疏注意力方法只能部分跳过某些计算步骤,比如跳过softmax计算但仍然需要进行内存传输,这就像是在组装一件家具时虽然跳过了某些螺丝的安装,但仍然需要把所有螺丝从盒子里取出来检查一遍。相比之下,LiteAttention实现的是完整的迭代跳过,一旦某个计算单元被标记为可跳过,整个相关的注意力迭代过程都会被完全绕过,这就像是直接把那些不需要的螺丝留在盒子里,连检查的步骤都省略了。

这种完整跳过的效果非常显著,因为它消除了传统稀疏方法中仍然存在的主要瓶颈,如softmax计算和内存传输操作。在实际应用中,即使只是部分稀疏化,这些剩余的操作仍然会显著影响整体性能。LiteAttention通过完全跳过整个迭代过程,真正实现了计算量的大幅减少。

为了确保这种跨时间步的跳过决策不会影响最终的视频质量,LiteAttention还集成了一套轻量级的校准机制。这套机制能够根据不同层级的影响权重来调整近似误差,就像是一个经验丰富的质检员,知道在哪些地方可以放宽标准,在哪些关键地方必须严格把关。这种校准虽然是一个辅助组件,但它确保了即使在持续跳过某些计算的情况下,最终生成的视频质量仍然能够保持在可接受的范围内。

四、从缓存到跳过的技术演进

为了更好地理解LiteAttention的技术优势,研究团队从理论角度分析了缓存方法和跳过方法之间的内在联系。他们发现,之前广泛使用的缓存技术实际上利用的是变换器输出在相邻时间步之间的缓慢变化特性。

具体来说,如果我们把变换器的输出看作是一个转换矩阵与输入数据的乘积结果,那么当输出变化缓慢时,这个转换矩阵本身的变化也相对缓慢。研究团队通过数学推导证明了这种输出变化的缓慢性与注意力矩阵稀疏性的时间持续性之间存在着深层次的联系。

这种联系可以用一个简单的例子来理解。假设你在观看一部电影,相邻两帧之间的图像变化通常是很小的,这意味着你的注意力焦点也不会发生剧烈变化。如果在前一帧中你主要关注画面的中央区域,那么在下一帧中你的注意力很可能仍然集中在相似的区域。LiteAttention正是利用了这种注意力焦点的时间稳定性。

与传统的缓存方法相比,LiteAttention的跳过策略具有显著的内存优势。缓存方法需要存储大量的中间结果,这会占用大量的内存空间,特别是在处理长视频时。而跳过方法只需要存储轻量级的跳过决策信息,内存开销要小得多。这就像是在整理房间时,缓存方法相当于把所有可能用到的物品都暂时存放在易取的地方,而跳过方法则是直接把确定不需要的物品收起来,只保留一个简单的清单记录它们的位置。

五、精密的跳过条件设计

LiteAttention的跳过决策基于一个精心设计的数学条件。当某个计算块的局部最大值显著小于累积最大值时,该块对最终输出的贡献就会被指数级地压制,此时可以安全地跳过相关计算。这个判断标准虽然听起来复杂,但实际上反映的是一个很直观的原理:如果某个区域的"重要程度"远远低于整体的"重要程度标准",那么这个区域就可以被忽略。

研究团队发现,这种跳过条件具有局部性的特点,也就是说它是针对每个计算块独立进行评估的,而不需要考虑多个块之间的交互影响。虽然这种局部性使得判断标准相对保守,但实验证明这种保守的策略在实际应用中表现良好,能够在保证计算准确性的同时实现显著的加速效果。

为了进一步优化性能,研究团队还探索了不同的计算块排序策略。他们发现,采用径向中心排序(radial-centric ordering)可以更快地达到全局最大值,从而提高跳过条件的判断效率。这就像是在寻找宝藏时,从中心向外围搜索通常比随机搜索更有效率。

跳过条件的另一个重要特性是它的累积误差校准机制。考虑到扩散模型通常需要多个时间步骤才能完成完整的去噪过程,研究团队意识到不同时间步骤的注意力误差对最终输出的影响是不同的。早期时间步骤的误差往往会对最终结果产生更大的影响,就像是建筑施工中地基的质量比后期装修的细节更加重要。因此,LiteAttention为不同的时间步骤设置了不同的误差容忍度,确保在关键阶段保持更高的计算精度。

六、高效的GPU实现方案

LiteAttention的实际应用价值很大程度上取决于其在GPU硬件上的实现效率。研究团队选择在FlashAttention3的基础上进行开发,这是一个经过高度优化的注意力计算库。他们的策略是通过扩展现有API而不是重新实现整个内核,这样既能保持与现有系统的兼容性,又能充分利用已有的优化成果。

在GPU实现中,LiteAttention维护了一个持久化的跳过掩码(Skip-Mask),这个掩码记录并重用跨越不同扩散时间步骤的瓦片级跳过决策。这种设计就像是给每个计算单元贴上了一个智能标签,标签会记住该单元在整个处理过程中是否需要被跳过。

针对NVIDIA H100 GPU的具体架构特点,LiteAttention采用了专门的优化策略。H100采用的是生产者-消费者流水线架构,其中一个工作组负责异步地将数据从全局内存传输到共享内存,而两个消费者工作组则并行处理不同的查询瓦片。LiteAttention的跳过逻辑被巧妙地集成到这个流水线中,消费者工作组在进行在线softmax计算的同时评估跳过条件,而生产者工作组则根据跳过列表来选择性地传输相关数据。

为了避免GPU架构中的同步开销,LiteAttention采用了分层的跳过决策机制。在warp级别(GPU的基本执行单位),跳过结果被独立记录,而跨warp的归约操作被推迟到内核结束阶段执行,这样可以避免在计算过程中因同步而造成的性能损失。这种设计就像是一个高效的工厂流水线,每个工位都能独立工作,只在必要时进行协调。

七、稀疏性模式的可视化分析

为了直观地展示LiteAttention的工作原理,研究团队提供了跨越扩散时间步骤的跳过掩码演化可视化图像。这些图像清楚地显示了稀疏模式如何在时间维度上逐渐演化和稳定。在处理过程的早期阶段,跳过掩码还相对稀疏,但随着时间的推移,越来越多的计算瓦片被标记为可跳过,最终形成了一个相对稳定的稀疏模式。

这种演化过程在不同的变换器层和注意力头之间表现出了不同的特征。有些层级显示出对角线块状的模式,这对应于自帧交互;有些则呈现出多对角线块的结构,反映了跨帧一致性需求;还有一些表现为垂直条纹模式,对应于全局token的处理。这些不同的模式都体现了视频内容的内在结构特性,而LiteAttention能够自动识别并利用这些结构来优化计算。

研究团队特别注意到,这些稀疏模式在很大程度上是输入内容无关的,主要由模型架构本身决定。这一发现非常重要,因为它意味着某些跳过决策具有一定的通用性,可以在不同类型的输入内容之间共享。这就像是发现了某种通用的"效率模式",一旦识别出来就可以广泛应用。

八、性能评估与实验结果

研究团队在Wan2.1-14B和Wan2.2-14B这两个最先进的视频生成模型上对LiteAttention进行了全面评估。他们使用了OpenSora1.0数据集中的12个标准提示,通过VBench评估框架对生成视频的质量进行了多维度评估,包括美学质量、背景一致性、动态程度、成像质量、主体一致性、时间闪烁和时间风格等七个关键指标。

实验结果显示,LiteAttention在保持视频质量几乎不变的情况下实现了显著的加速效果。与FlashAttention3相比,LiteAttention在Wan2.1-14B模型上实现了47%的运行时间缩短(从1707秒减少到902秒),在Wan2.2-14B模型上实现了39%的加速(从1473秒减少到893秒)。更重要的是,这种加速是在稀疏率相对较低的情况下达到的,分别为42%和32%,这表明LiteAttention的效率优势主要来源于其完整的迭代跳过机制。

与其他最先进的稀疏注意力方法相比,LiteAttention展现出了更好的效率-质量平衡。SparseVideoGen虽然报告了66%的稀疏率,但其运行时间改善相对较小,同时在视频质量的多个指标上都出现了明显下降。RadialAttention虽然实现了74%的稀疏率,但其质量损失更加严重,特别是在成像质量方面下降了约4分。相比之下,LiteAttention在实现可观加速的同时,在大部分质量指标上都保持了与原始方法相当的水平。

研究团队还进行了详细的消融实验,探索了不同稀疏率水平对性能的影响。结果显示,当稀疏率达到77%时,视频质量开始出现可见的退化,这主要反映在时间风格指标上。这一发现为实际应用提供了重要的参考基准,表明在70%稀疏率以下,LiteAttention可以实现几乎无损的质量保持。

九、技术创新的深层意义

LiteAttention的成功不仅仅在于其实际的性能提升,更重要的是它揭示了一种全新的思考稀疏注意力问题的方式。传统方法要么专注于单个时间步内的优化,要么利用跨时间步的特征冗余,但很少有人考虑注意力稀疏性本身的时间持续性。这种"时间连贯稀疏性"的发现为未来的研究开辟了新的方向。

从更广泛的角度来看,LiteAttention代表了一种"进化式优化"的思想,即通过在处理过程的早期阶段做出智能决策,然后让这些决策在整个处理流程中持续发挥作用。这种思想可能不仅适用于注意力计算,还可能被推广到其他类型的计算密集型任务中。

另一个重要的技术创新是LiteAttention实现了真正的"零重复分析开销"。许多动态稀疏方法虽然能够自适应地选择跳过哪些计算,但每次做决策的过程本身就会消耗计算资源。LiteAttention通过一次性决策和持续应用的策略,彻底消除了这种开销,这在大规模应用中具有重要意义。

此外,LiteAttention的内存效率优势也不容忽视。在处理长视频或高分辨率内容时,内存往往成为比计算更严重的瓶颈。通过使用轻量级的跳过掩码而不是存储大量中间结果,LiteAttention为处理更复杂的视频生成任务提供了可能性。

十、未来应用前景与影响

LiteAttention的成功实现预示着AI视频生成技术即将迎来一个新的发展阶段。目前,高质量视频生成的计算成本仍然是限制其广泛应用的主要障碍。随着LiteAttention等加速技术的成熟,我们很可能会看到视频生成从专业工具向大众应用的转变。

在商业应用层面,LiteAttention的影响可能是深远的。更快的视频生成意味着更低的运营成本,这将使更多的创业公司和中小企业能够负担得起高质量的视频内容制作。从教育培训到广告营销,从娱乐内容到新闻报道,各个行业都可能从这种技术进步中受益。

从技术演进的角度看,LiteAttention所体现的"时间连贯性利用"思想很可能会被应用到其他AI模型的优化中。随着AI模型变得越来越大、越来越复杂,如何高效地利用计算资源将成为一个越来越重要的问题。LiteAttention提供了一个成功的案例,展示了如何通过深入理解模型内在规律来实现显著的效率提升。

研究团队也指出了一些潜在的改进方向。通过优化计算块的排序策略,预计可以实现额外10-20%的稀疏率提升而不损失质量。随着专门的硬件支持的发展,LiteAttention的效率优势可能会进一步放大。此外,将这种思想扩展到其他类型的生成模型(如图像生成、语音合成等)也是一个值得探索的方向。

说到底,LiteAttention的真正价值在于它证明了通过深入理解AI模型的内在工作机制,我们可以找到既能保持质量又能显著提升效率的优化方案。这种成功不是偶然的,而是来源于研究团队对问题的深入洞察和创新思维。随着越来越多这样的技术突破,AI视频生成技术正在从实验室的概念验证向真正实用的商业工具转变,这将为我们的数字内容创作方式带来根本性的改变。

Q&A

Q1:LiteAttention是什么技术?

A:LiteAttention是MoonMath.ai团队开发的一种新型AI视频生成加速技术。它的核心原理是在视频生成的早期阶段识别出哪些计算步骤是不必要的,然后在整个生成过程中持续跳过这些步骤,就像给AI装了个智能的"跳过按钮",从而大幅提升计算效率。

Q2:LiteAttention能提升多少视频生成速度?

A:实验结果显示,LiteAttention能够将视频生成速度提升39-47%。比如在Wan2.1-14B模型上,生成时间从1707秒缩短到902秒,而且视频质量几乎没有损失,这相当于把原来需要半小时的工作压缩到15分钟左右完成。

Q3:LiteAttention会影响视频生成质量吗?

A:基本不会影响质量。研究团队通过VBench评估框架的七个质量指标测试发现,LiteAttention在保持32-42%计算跳过率的情况下,生成视频的美学质量、背景一致性等关键指标都与原始方法相当,远优于其他加速方法的质量表现。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
什么是性成瘾?患者自述:比烟瘾、酒瘾厉害多了,比戒毒还难

什么是性成瘾?患者自述:比烟瘾、酒瘾厉害多了,比戒毒还难

泠泠说史
2025-10-30 15:20:45
丹麦养老基金将退出美国国债投资

丹麦养老基金将退出美国国债投资

财联社
2026-01-20 21:40:18
勇士队惨败!巴特勒报销激活2大DNP奇兵 库明加20分不及6中6神射

勇士队惨败!巴特勒报销激活2大DNP奇兵 库明加20分不及6中6神射

锅子篮球
2026-01-21 19:16:22
科尔:库明加表现非常出色我很满意,未来会考虑让他进入首发

科尔:库明加表现非常出色我很满意,未来会考虑让他进入首发

懂球帝
2026-01-21 14:54:06
日本学生利用Grok脱衣同班女生 现担心面临刑事责任

日本学生利用Grok脱衣同班女生 现担心面临刑事责任

3DM游戏
2026-01-20 15:06:47
游资全休息了!雪球震惊市场,多个大V账号被永封,轮回打油诗告别

游资全休息了!雪球震惊市场,多个大V账号被永封,轮回打油诗告别

金石随笔
2026-01-21 00:13:16
中国驻日武官王庆简:大校军衔,每天定时开窗向日本传递绝密情报

中国驻日武官王庆简:大校军衔,每天定时开窗向日本传递绝密情报

万年历史老号
2026-01-20 05:40:03
洗衣机的12种错误用法,多亏被提醒,90%都做错了!

洗衣机的12种错误用法,多亏被提醒,90%都做错了!

装修秀
2026-01-20 11:40:03
接受捐款仅2天,官媒对李亚鹏用了特殊称呼,这次,没给他留体面

接受捐款仅2天,官媒对李亚鹏用了特殊称呼,这次,没给他留体面

阿纂看事
2026-01-20 13:12:13
一巨头再次宣布降价!10年前花1.8万买的,如今只能卖180元

一巨头再次宣布降价!10年前花1.8万买的,如今只能卖180元

深圳晚报
2026-01-20 22:49:27
大爆冷!1号种子2:3被淘汰,无缘8强,国乒2:3不敌印度遭遇一轮游

大爆冷!1号种子2:3被淘汰,无缘8强,国乒2:3不敌印度遭遇一轮游

国乒二三事
2026-01-21 16:12:55
气温跌破今冬纪录!寒潮接近尾声,上海还要冷多久?

气温跌破今冬纪录!寒潮接近尾声,上海还要冷多久?

纵相新闻
2026-01-21 14:45:10
贵州省铜仁市第二人民医院党委书记熊莲主动投案!

贵州省铜仁市第二人民医院党委书记熊莲主动投案!

潇湘晨报
2026-01-21 15:37:11
香港最乖富二代邓兆尊,27年不动本金,利息滚到17亿,太清醒

香港最乖富二代邓兆尊,27年不动本金,利息滚到17亿,太清醒

牛牛叨史
2026-01-18 22:43:20
地产界浙江四小龙全军覆没

地产界浙江四小龙全军覆没

地产微资讯
2026-01-21 15:37:09
下半场11投1中!文班亚马被锁死!杜兰特赛后点评一针见血

下半场11投1中!文班亚马被锁死!杜兰特赛后点评一针见血

篮球教学论坛
2026-01-21 18:41:42
港警严阵以待!新义安创办人之子出殡,江湖大佬都来了...

港警严阵以待!新义安创办人之子出殡,江湖大佬都来了...

港港地
2026-01-20 10:42:45
真“加勒比海盗”!艾顿眼睛被对手戳伤,赛后社媒晒照自嘲

真“加勒比海盗”!艾顿眼睛被对手戳伤,赛后社媒晒照自嘲

懂球帝
2026-01-21 16:30:14
贵州女孩被关5平米山洞,8年后被父母找到,真凶身份让人意想不到

贵州女孩被关5平米山洞,8年后被父母找到,真凶身份让人意想不到

萧竹轻语
2025-01-14 17:19:32
视频女博主怒撕嫣然医院房东!完全就是谎话连篇,你真的是找抽

视频女博主怒撕嫣然医院房东!完全就是谎话连篇,你真的是找抽

小徐讲八卦
2026-01-20 13:28:43
2026-01-21 20:07:00
科技行者 incentive-icons
科技行者
科技正在如何变革商业世界
6961文章数 546关注度
往期回顾 全部

科技要闻

给机器人做仿真训练 这家创企年营收破亿

头条要闻

32岁程序员周末晕倒后猝死 抢救期间还被拉入工作群

头条要闻

32岁程序员周末晕倒后猝死 抢救期间还被拉入工作群

体育要闻

只会防守反击?不好意思,我们要踢决赛了

娱乐要闻

田亮一家新年全家福!森碟变清纯少女

财经要闻

丹麦打响第一枪 欧洲用资本保卫格陵兰岛

汽车要闻

2026款上汽大众朗逸正式上市 售价12.09万起

态度原创

家居
数码
手机
公开课
军事航空

家居要闻

褪去浮华 触达松弛与欣喜

数码要闻

VGN推出霓虹68超竞版系列65%单模磁轴键盘,199~329元

手机要闻

给苹果iPhone 17 Pro Max穿金甲,京东京造推出Au99.99黄金手机壳

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

特朗普:对美国的真正威胁是联合国和北约

无障碍浏览 进入关怀版