网易首页 > 网易号 > 正文 申请入驻

AI一次性生成63秒《猫和老鼠》动画片,无编辑无拼接剧情100%全新

0
分享至

AI 也能生成逼真的《猫和老鼠》动画片了!长度可以达到 63 秒,剧情也可以重新生成。

当地时间 4 月 8 日,来自英伟达、美国斯坦福大学、加州大学圣地亚哥分校、加州大学伯克利分校、得克萨斯大学奥斯汀分校的研究人员,基于测试时训练(TTT,Test-Time Training)生成了多个《猫和老鼠》的动画视频。

他们在预训练的 Transformer 模型中添加了测试时训练层并对其进行微调,借此生成了具有强时间一致性的《猫和老鼠》一分钟动画片。

研究人员表示,每个视频都是由模型一次性直接生成的,没有经过编辑、拼接或后处理,每个故事也都是全新创作的。

那么,上述视频到底是怎么生成的?研究人员表示,如今的 Transformer 模型在生成一分钟视频方面仍然面临挑战,因为自注意力层在处理长上下文时效率低下。诸如 Mamba 层之类的替代方案在处理复杂的多场景故事时表现不佳,因为它们的隐藏状态表现力较弱。

为此,他们使用了测试时训练层,其隐藏状态本身可以是神经网络,从而具备更强的表达能力。当在预训练的 Transformer 中加入测试时训练层,使其能够根据文本分镜脚本生成一分钟的视频。

研究中,他们从一个预训练的扩散 Transformer(CogVideo-X 5B)开始,原本其只能以 16 帧每秒的速度生成 3 秒的短片段,或以 8 帧每秒的速度生成 6 秒的短片段。

但是,研究人员添加了从头初始化的测试时训练层,并对该模型进行微调,以便根据文本分镜脚本生成一分钟的视频。

他们将自注意力层限制在 3 秒的片段内,以便将研究成本保持在可控范围内。整个训练过程运行在 256 个英伟达 H100 上,相当于消耗了 50 小时的训练时长。

为了快速进行迭代,研究人员基于约 7 小时的《猫和老鼠》动画片,并辅以人工标注的分镜脚本,整理了一个文本到视频的数据集。

作为概念验证,本次研究中的数据集侧重于复杂、多场景、长镜头且充满动态动作的叙事。而对于视觉和物理真实感方面,此前人们已经取得显著进展,所以本次研究未作重点强调。

从宏观层面来看,本次方法只是在预训练的扩散 Transformer(Diffusion Transformer)上添加了测试时训练层,并在带有文本注释的长视频上进行微调。

他们采用了预先添加测试时训练层、然后再进行微调的方法,这种方法原则上适用于任何主干架构。

研究中,他们选择扩散 Transformer 作为初步演示,因为它是视频生成中最流行的架构。由于在视频上预训练扩散 Transformer 的成本过高,所以研究人员从 CogVideo-X 5B 的预训练检查点开始。

他们将视频设计为包含多个场景,每个场景包含一个或多个 3 秒的片段,并采用 3 秒片段作为文本与视频配对的最小单位,之所以这样做的原因有三个:

第一,原始预训练的 CogVideo-X 的最大生成长度为 3 秒。第二,在《猫和老鼠》的剧集中,大多数场景的时长至少为 3 秒。第三,以 3 秒为一段构建多阶段数据集最为方便。

在推理阶段,研究人员按照以下三种格式中的任何一种,以详细程度递增的顺序来编写长视频的文本提示。

• 格式 1:用 5-8 句话简短概述情节。

• 格式 2:用大约 20 句话详细描述情节,每句话大致对应 3 秒的片段。

• 格式 3:分镜脚本。每一个 3 秒钟的片段都由一段 3 到 5 句话来描述,内容包含背景颜色和镜头移动等细节。一个或多个段落组成的脚本组,会被严格地界定为属于某些场景,并且要使用关键词“<场景开始>”和“< 场景结束 >”。

在微调和推理中,文本分词器的实际输入始终采用格式 3,格式之间的转换由 Claude 3.7 Sonnet 按 1→2→3 的顺序执行。

为了生成时间较长的视频,研究人员针对每个 3 秒的片段都独立使用相同的程序。

具体而言,给定一个包含 n 段落的格式 3 的分镜脚本,首先生成 n 个序列片段,每个片段都包含从相应段落提取的文本标记以及后续的视频标记。

然后,将所有 n 个序列片段连接在一起,从而形成输入序列,这时序列中包含交错排列的文本 tokens 和视频 tokens。

对于 CogVideo-X 来说,它采用自注意力层来针对每段最长 3 秒的视频进行全局序列处理。但是,面对长视频时,其所采用的全局注意力机制会显著降低效率。

为了避免增加自注意力层的上下文长度,研究人员将其处理范围限定在每个 3 秒片段内,使各 n 个序列片段能够独立进行注意力计算。

由于测试时训练层能够高效地处理长上下文序列,因此他们采用全局方式来处理整个输入序列。

遵循大语言模型的标准做法,研究人员将改进架构的上下文长度分为五个阶段,并将其扩展至一分钟。

具体来说,他们先在《猫和老鼠》的 3 秒片段上针对整个预训练模型进行微调。

在此阶段,新的参数特别是测试时训练层和门控机制中的的参数,会被赋予更高的学习率。

接下来,研究人员分别对 9 秒、18 秒、30 秒以及最终的 63 秒的视频进行微调。

为了避免模型在预训练过程中遗忘过多的世界知识,研究人员仅对测试时训练层、门控层和自注意力层进行微调,且在这四个阶段中使用较低的学习率。

在原始视频的选取上,他们选择了从 1940 年至 1948 年间发行的 81 集《猫和老鼠》,每集时长约 5 分钟,所有集数加起来时长约 7 小时。

然后,研究人员在原始视频上运行一个视频超分辨率模型,从而为数据集生成视觉效果更强的视频,这些视频的分辨率均为 720×480。

接着,他们让人工标注员将每个片段分解为场景,然后从每个场景中提取 3 秒长的片段。

接下来,研究人员让人工标注员为每个 3 秒的片段撰写一段详细的描述,然后直接针对这些片段进行微调。

为了创建数据,研究人员将连续的 3 秒片段拼接成 9 秒、18 秒、30 秒和 63 秒的视频,并附上相应的文本注释,所有训练视频的标注均采用上文的格式 3。

对于 GPU 而言,要想高效地实现测试训练层-多层感知器(TTT-MLP,Test-Time Training-Multi-Layer Perceptron),就需要进行特殊设计,以便利用其内存层次结构。

英伟达 GPU 架构中的核心计算单元是流式多处理器(SMs,Streaming Multiprocessors),其功能类比于 CPU 中的单个核心。

GPU 上的所有流式多处理器共享一个相对较慢但容量较大的全局内存(即 HBM,High Bandwidth Memory),然后每个流式多处理器都有一个快速但容量较小的片上内存(即 SMEM,Shared Memory)。

GPU 上 SMEM 与 HBM 之间的频繁数据传输会显著降低整体效率。而 Mamba 和自注意力层通过利用内核融合技术,可以减少这类数据的传输。

其核心思想是将输入和初始状态加载到每个 SMEM 中,完全在片上进行计算,并且只将最终输出写回 HBM。

然而,TTT-MLP 的隐藏状态即双层 MLP 函数 f 的权重矩阵 W(1) 和 W(2),由于体积过大无法存储于单个流式多处理器的共享内存中。

为了减少每个流式多处理器所需的内存,研究人员使用张量并行机制,将 W(1) 和 W(2) 在流式多处理器之间进行分片。

由于大型多层感知器层可以被分片并跨多个 GPU 的高带宽存储器上进行训练,因此研究人员将同样的思路用于多个流式多处理器的共享内存中,将每个流式多处理器视为一个 GPU 的类比。

研究人员利用英伟达 Hopper GPU 架构的分布式共享内存特性,实现了流式多处理器间的全局归约操作,进而显著提升了效率。

作为一种通用原则,如果一个模型架构 f 可以通过标准张量并行机制在 GPU 之间进行分片,那么当 f 用作隐藏状态时,同样的分片策略也可以用于流式多处理器之间。

不过,本次研究的 TTT-MLP 内核受限于寄存器溢出和异步指令的次优排序。未来,通过降低寄存器压力以及开发编译器感知更强的异步操作方案,其执行效率或能得到进一步提升。总的来说,本次方法有望用于生成更长、更复杂视频,也许下一代儿童将能看上由 AI 生成的动画连续剧?目前看来,这一设想并非没有实现的可能。

参考资料:

https://test-time-training.github.io/video-dit/

https://x.com/arankomatsuzaki/status/1909336661743550555

运营/排版:何晨龙

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
爆麒麟9050处理器下半年发布:频率将破3GHz,Mate 90或首发

爆麒麟9050处理器下半年发布:频率将破3GHz,Mate 90或首发

热点科技
2026-05-05 15:56:04
上海这几个板块,泡沫挤干净了

上海这几个板块,泡沫挤干净了

魔都财观
2026-05-04 08:41:17
亚行撒马尔罕700亿电网项目:日美主导,中国缺席

亚行撒马尔罕700亿电网项目:日美主导,中国缺席

星星会坠落
2026-05-05 14:58:14
湖南烟花爆炸牵出往事!广西宾阳百年炮乡禁产,背后藏着未解隐情

湖南烟花爆炸牵出往事!广西宾阳百年炮乡禁产,背后藏着未解隐情

牛锅巴小钒
2026-05-05 14:30:50
你身体里的慢性炎症从何而来?这4个抗炎自救方法,快点学起来吧

你身体里的慢性炎症从何而来?这4个抗炎自救方法,快点学起来吧

医药养生保健报社
2026-05-03 17:36:14
搞垮中国交通的始作俑者,并不是车太多?这几座山不搬走就白搭了

搞垮中国交通的始作俑者,并不是车太多?这几座山不搬走就白搭了

椰青美食分享
2026-05-06 01:06:13
加快男性衰老的原因:喝酒仅排第5,排在第1的,很多男性都没发现

加快男性衰老的原因:喝酒仅排第5,排在第1的,很多男性都没发现

芹姐说生活
2026-04-30 16:07:48
瓦科踢球太无私,韩鹏激活三叉戟 泰山固定4后卫 依木兰进步神速

瓦科踢球太无私,韩鹏激活三叉戟 泰山固定4后卫 依木兰进步神速

替补席看球
2026-05-05 21:55:14
印度产能狂涨17倍:中国光伏产业被印度从内部“偷家”真相

印度产能狂涨17倍:中国光伏产业被印度从内部“偷家”真相

咸鱼金脑袋
2026-05-06 03:08:41
美军称随时准备好恢复对伊朗大规模作战

美军称随时准备好恢复对伊朗大规模作战

界面新闻
2026-05-05 21:04:08
印尼已经料到中方反应,与日本签署防务协议,直言中方不会介意

印尼已经料到中方反应,与日本签署防务协议,直言中方不会介意

你的雷达站
2026-05-05 21:52:55
1957年浙江惊现“野人”,村民打死并吃掉,一位老师把手脚制标本

1957年浙江惊现“野人”,村民打死并吃掉,一位老师把手脚制标本

瓜哥的动物日记
2026-05-05 07:07:07
朱自清长子被执行死刑33年后,法院:判决纯属错判,决定撤销原判

朱自清长子被执行死刑33年后,法院:判决纯属错判,决定撤销原判

近史谈
2026-04-18 16:54:35
笑不活了!李小冉“全脂胳膊”爆火,50岁白软无肌肉却越看越迷人

笑不活了!李小冉“全脂胳膊”爆火,50岁白软无肌肉却越看越迷人

喜欢历史的阿繁
2026-05-01 14:17:38
2026高考可以捡漏的3所211大学,500多分就能上,就业不比985差!

2026高考可以捡漏的3所211大学,500多分就能上,就业不比985差!

高三倒计时
2026-05-05 21:01:33
古籍记载龙长虎短手相 无名指更长之人晚年多有四种人生结局

古籍记载龙长虎短手相 无名指更长之人晚年多有四种人生结局

唠叨说历史
2026-03-31 14:25:43
真相大白!吴宜泽夺冠原因曝光,比赵心童厉害,奥沙利文一针见血

真相大白!吴宜泽夺冠原因曝光,比赵心童厉害,奥沙利文一针见血

曹说体育
2026-05-05 10:29:54
网友匿名爆料自己身边的八卦,你永远也想不到,到底能有多炸裂!

网友匿名爆料自己身边的八卦,你永远也想不到,到底能有多炸裂!

夜深爱杂谈
2026-05-03 11:22:10
网红标语牌失而复得,更该回归的是用户思维

网红标语牌失而复得,更该回归的是用户思维

南方都市报
2026-05-05 23:29:12
大连“五一”文旅持续火爆,热度与效益双丰收

大连“五一”文旅持续火爆,热度与效益双丰收

半岛晨报
2026-05-05 19:44:50
2026-05-06 04:12:49
DeepTech深科技 incentive-icons
DeepTech深科技
麻省理工科技评论独家合作
16661文章数 514922关注度
往期回顾 全部

科技要闻

传苹果考虑让英特尔、三星代工设备处理器

头条要闻

媒体:中国史无前例下"阻断禁令" 美媒迅速捕捉到信号

头条要闻

媒体:中国史无前例下"阻断禁令" 美媒迅速捕捉到信号

体育要闻

全世界都等着看他笑话,他带国米拿下冠军

娱乐要闻

内娱真情谊!杨紫为谢娜演唱会送花篮

财经要闻

浏阳烟花往事

汽车要闻

同比大涨190% 方程豹4月销量29138台

态度原创

本地
艺术
数码
游戏
教育

本地新闻

用青花瓷的方式,打开西溪湿地

艺术要闻

AI应用“豆包”要收费,第一批“韭菜”是谁?

数码要闻

亚马逊押注“诺奖材料”除湿技术 可大幅削减建筑能耗

全新类魂3A美女角色盔甲太性感!外媒锐评像劣质手游

教育要闻

告别焦虑!南师附中官方:11位特长生上岸者首度分享:试题难在哪?如何准备?

无障碍浏览 进入关怀版