网易首页 > 网易号 > 正文 申请入驻

NeurIPS 2024最佳论文出炉:北大字节VAR获最佳论文、厦大清华获亚军

0
分享至

内容来自:机器之心

刚刚,人工智能顶会 NeurIPS 公布了今年的最佳论文(包括 Best Paper 和 Best Paper Runner-up)。

一共有两篇论文获得最佳论文奖:

一是由北京大学、字节跳动研究者共同完成的《Visual Autoregressive Modeling: Scalable Image Generation via Next-Scale Prediction》(视觉自回归建模:通过 Next-Scale 预测生成可扩展图像),论文一作为田柯宇(此前因涉攻击内部大模型,被字节起诉)。

机器之心获悉,从 2023 年开始,字节商业化技术团队就在研究图像生成的自回归模型,一直将 VAR 作为高优项目推进,不仅安排多名研究人员重点攻关此技术方向,还投入大量算力资源支持模型训练和实验。该团队近期将发布新的 VAR T2I 模型研究成果,并将对模型开源。

二是由新加坡国立大学、 Sea AI Lab 研究者共同完成的《Stochastic Taylor Derivative Estimator: Efficient amortization for arbitrary differential operators》(随机泰勒导数估计器:任意微分算子的有效摊销),论文一作为 Zekun Shi。

此外,还有两篇论文获得了最佳论文亚军(Best Paper Runner-up):

由厦门大学、清华大学、微软研究者共同完成的《Not All Tokens Are What You Need for Pretraining》(并非所有 token 都是预训练所需的), Zhenghao Lin 和 Zhibin Gou(苟志斌)为共同一作。

由英伟达和阿尔托大学共同完成的《Guiding a Diffusion Model with a Bad Version of Itself》(使用扩散模型的一个糟糕版本引导其自身),论文一作为 Tero Karras。

NeurIPS 2024 将于 12 月 10 日星期二至 12 月 15 日星期日在温哥华举办。本届共收到 15671 篇有效论文投稿,比去年又增长了 27%,但最终接收率低于 2023 年,仅有 25.8%。最佳论文的公布提前引爆了有关此次大会的讨论。

以下是获奖论文的详细信息:

最佳论文

论文 1:Visual Autoregressive Modeling: Scalable Image Generation via Next-Scale Prediction

  • 作者:Keyu Tian, Yi Jiang, Zehuan Yuan, Bingyue Peng, Liwei Wang

  • 机构:北京大学、字节跳动

  • 论文地址:https://arxiv.org/pdf/2404.02905

  • 项目地址:https://github.com/FoundationVision/VAR

论文简介:在自然语言处理中,以 GPT、LLaMa 系列等大语言模型为例的 Autoregressive(自回归模型已经取得了较大的成功,尤其扩展定律(Scaling Law)和零样本任务泛化能力(Zero-shot Task Generalizability)十分亮眼,初步展示出通往「通用人工智能 AGI」的潜力。

然而在图像生成领域中,自回归模型却广泛落后于扩散(Diffusion)模型:DALL-E、Stable Diffusion、Sora 等模型均属于 Diffusion 家族。

为了「解锁」自回归模型的能力和 Scaling Laws,研究团队从图像模态内在本质出发,模仿人类处理图像的逻辑顺序,提出一套全新的「视觉自回归」生成范式:VAR, Visual AutoRegressive Modeling,首次使得 GPT 风格的自回归视觉生成,在效果、速度、Scaling 能力多方面超越 Diffusion,迎来了视觉生成领域的 Scaling Laws。

VAR 为如何定义图像的自回归顺序提供了一个全新的视角,即由粗到细、由全局轮廓到局部精调的顺序。在符合直觉的同时,这样的自回归算法带来了很好的效果:VAR 显著提升了自回归模型的速度和生成质量,在多方面使得自回归模型首次超越扩散模型。同时 VAR 展现出类似 LLM 的 Scaling Laws 和零样本任务泛化能力。

论文 2:Stochastic Taylor Derivative Estimator: Efficient amortization for arbitrary differential operators

  • 作者:Zekun Shi, Zheyuan Hu, Min Lin, Kenji Kawaguchi

  • 机构:新加坡国立大学、 Sea AI Lab

  • 论文地址:https://arxiv.org/abs/2412.00088

  • 项目地址:https://github.com/sail-sg/stde

论文简介:使用包含高维和高阶微分算子的损失函数来优化神经网络是非常昂贵的,因为反向传播中导数张量的大小按 缩放,计算图中的计算按 缩放,其中,d 是域的维度,L 是前向计算图中操作的数量,k 是导数的阶数。

在之前的研究中,d 中多项式缩放是通过随机化在优化过程中平摊计算来解决的。另外,单变量函数(d = 1)中 k 的指数缩放通过高阶自动微分(AD)解决。

本研究展示了如何通过正确构造单变量高阶 AD 输入切线(input tangent),有效地对多元函数的任意阶导数张量进行任意收缩,这可用于有效地随机化任何微分算子。

当应用于 PINN( Physics-Informed Neural Networks )时,与使用一阶 AD 进行随机化相比,本文方法提供了 1000 倍以上的速度提升和 30 倍以上的内存减少,而且现在可以在单个 NVIDIA A100 GPU 上在 8 分钟内解决 100 万维 PDE。这项工作开启了在大规模问题中使用高阶微分算子的可能性。

最佳论文亚军(Best Paper Runner-up)

论文 1:Not All Tokens Are What You Need for Pretraining

  • 作者:Zhenghao Lin, Zhibin Gou, Yeyun Gong, Xiao Liu, yelong shen, Ruochen Xu, Chen Lin, Yujiu Yang, Jian Jiao, Nan Duan, Weizhu Chen

  • 机构:厦门大学、清华大学、微软

  • 论文地址:https://openreview.net/pdf?id=0NMzBwqaAJ

  • 项目地址:https://github.com/microsoft/rho

论文简介:以前的语言模型预训练方法会统一对所有训练 token 应用下一个 token 预测损失。

但这一范式并非不可挑战。这篇论文的作者首先做出了一个假设:「对于语言模型训练,并非语料库中的所有 token 都同等重要」。

然后,他们分析了语言模型的 token 级训练动态,结果发现不同 token 有着不同的损失模式。

基于这些见解,他们开发了一种新模型 RHO-1。不同于传统语言模型(会学习预测语料库中的每一下个 token),RHO-1 采用了选择性语言建模(SLM),它会选择性地使用与所需分布对齐的有用 token 进行训练。

该方法需要使用一个参考模型来给 token 评分,然后再在分数更高的 token 上使用一个重点关注损失(focused loss)来训练模型。

在 15B OpenWebMath 语料库上进行持续预训练时,RHO-1 在 9 个数学任务上的少样本准确率实现了 30% 的绝对提升。经过微调后,RHO-1-1B 和 7B 在 MATH 数据集上分别取得了 40.6% 和 51.8% 的 SOTA 结果 —— 仅用 3% 的预训练 token 就达到了 DeepSeekMath 相当的水平。此外,在对 80B 个通用 token 进行持续预训练时,RHO-1 在 15 个不同任务上实现了 6.8% 的平均提升,数据效率和语言模型预训练的性能都得到了提升。

论文 2:Guiding a Diffusion Model with a Bad Version of Itself

  • 作者:Tero Karras, Miika Aittala, Tuomas Kynkäänniemi, Jaakko Lehtinen, Timo Aila, Samuli Laine

  • 机构:英伟达、阿尔托大学

  • 论文地址:https://arxiv.org/pdf/2406.02507

论文简介:图像生成扩散模型关注的核心是图像质量、结果的多变程度以及结果与给定条件(例如类标签或文本提示)的对齐程度。

常见的无分类器引导方法是使用无条件模型来引导条件模型,这样既能实现更好的提示词对齐,也能得到更高质量的图像,但代价是多变程度下降。

这些效果似乎本质上是纠缠在一起的,因此很难控制。

基于此,该团队得出了一个令人惊讶的观察结果:通过使用较小、训练较少的模型版本(而不是无条件模型)来引导生成,就可以在不影响多变程度的情况下获得对图像质量的控制。由此,图像质量与多变程度就分离了。

实验表明,这能显著提升 ImageNet 生成效果。他们使用公开可用的网络,为 64×64 分辨率下的生成创造了 1.01 的 FID 记录,为 512×512 创造了 1.25 的 FID 记录。此外,该方法也适用于无条件扩散模型,可极大提高其质量。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
河南小伙在非洲16年,当地一夫多妻制,男人只用玩,女人挣钱养家

河南小伙在非洲16年,当地一夫多妻制,男人只用玩,女人挣钱养家

大鱼简科
2026-02-07 16:50:52
给小白鼠天天喝这种水后:心脏坏了、炎症高了!不少人还天天喝

给小白鼠天天喝这种水后:心脏坏了、炎症高了!不少人还天天喝

DrX说
2026-02-06 17:38:39
一年流出视频294部的小宝到底探过多少朵花?

一年流出视频294部的小宝到底探过多少朵花?

挪威森林
2026-01-25 17:18:42
能治老花眼的滴眼液首获FDA批准,滴一滴30分钟起效、保持10小时

能治老花眼的滴眼液首获FDA批准,滴一滴30分钟起效、保持10小时

DeepTech深科技
2026-02-07 20:41:12
AirPods Pro 4,新功能太离谱了!

AirPods Pro 4,新功能太离谱了!

花果科技
2026-02-09 23:08:57
两次毁约拒绝赔偿,墨西哥再次找中国建高铁,中国这次不再惯着

两次毁约拒绝赔偿,墨西哥再次找中国建高铁,中国这次不再惯着

你是我心中最美星空
2026-02-09 10:44:18
追《太平年》必知!为什么《百家姓》开篇是“赵钱孙李”?

追《太平年》必知!为什么《百家姓》开篇是“赵钱孙李”?

文汇报
2026-02-10 04:38:08
赚钱一定要去暴利的行业。

赚钱一定要去暴利的行业。

流苏晚晴
2026-02-09 18:55:39
英超夺冠最新概率:阿森纳超9成 曼城8.2% 其它忽略不计

英超夺冠最新概率:阿森纳超9成 曼城8.2% 其它忽略不计

智道足球
2026-02-09 21:20:40
教育部亮红牌!这些专业的学生“毕业即失业”,985也在连夜撤销

教育部亮红牌!这些专业的学生“毕业即失业”,985也在连夜撤销

离离言几许
2026-02-09 20:16:57
凌晨三点,彻底失眠:Seedance 2.0告诉我们,AI对现实世界工作流“压缩”正在加速

凌晨三点,彻底失眠:Seedance 2.0告诉我们,AI对现实世界工作流“压缩”正在加速

华尔街见闻官方
2026-02-09 07:57:50
对父母而言是打击,对他而言是选择:贝克汉姆长子考虑和妻子收养一个孩子!

对父母而言是打击,对他而言是选择:贝克汉姆长子考虑和妻子收养一个孩子!

英国那些事儿
2026-02-08 23:14:41
谷爱凌:今天是我一辈子做得最好的一套坡面障碍技巧,我很骄傲

谷爱凌:今天是我一辈子做得最好的一套坡面障碍技巧,我很骄傲

懂球帝
2026-02-09 22:13:43
北大才女李天乐:赴美留学,入职顶尖药企,用金属铊毒杀清华丈夫

北大才女李天乐:赴美留学,入职顶尖药企,用金属铊毒杀清华丈夫

谈史论天地
2026-02-07 08:20:07
出现擦边球,王曼昱为何不承认?原因找到,谁注意孙颖莎赛后表态

出现擦边球,王曼昱为何不承认?原因找到,谁注意孙颖莎赛后表态

懂球社
2026-02-09 18:32:44
内娱人情世故学,抢座丢脸吃暗亏?倪妮的豁达,给杨幂上了一课

内娱人情世故学,抢座丢脸吃暗亏?倪妮的豁达,给杨幂上了一课

可乐谈情感
2026-02-08 20:58:21
年薪最高50万元招人才去越南,目标或是在当地建楼房猪舍!中国巨头大手笔布局海外市场

年薪最高50万元招人才去越南,目标或是在当地建楼房猪舍!中国巨头大手笔布局海外市场

每日经济新闻
2026-02-10 01:02:53
华国锋孙女华真,目前担任苏富比亚洲区副主席,此前系李云迪妻子

华国锋孙女华真,目前担任苏富比亚洲区副主席,此前系李云迪妻子

老杉说历史
2026-02-03 00:39:20
曝广东内线大换血!朱芳雨为总冠军拼了,欲引入2强援,杜锋开心

曝广东内线大换血!朱芳雨为总冠军拼了,欲引入2强援,杜锋开心

萌兰聊个球
2026-02-09 11:22:07
1993年,92岁的周培源爬到妻子的床边,用尽力气喊:我爱你!

1993年,92岁的周培源爬到妻子的床边,用尽力气喊:我爱你!

千秋文化
2026-01-15 22:29:47
2026-02-10 10:31:00
学术头条
学术头条
致力于学术传播和科学普及,重点关注AI4Science、大模型等前沿科学进展。
1430文章数 5081关注度
往期回顾 全部

科技要闻

Claude搅动硅谷,AI开始抢企业软件饭碗了?

头条要闻

牛弹琴:想营造有利于"拜鬼"的环境 高市早苗是在妄想

头条要闻

牛弹琴:想营造有利于"拜鬼"的环境 高市早苗是在妄想

体育要闻

不会打篮球,如何入选詹娜前男友第一阵容

娱乐要闻

央视电影活动名场面!明星站位太讲究

财经要闻

退保黑灰产仍在“隐秘角落”顶风接单

汽车要闻

长安将搭钠电池 好比汽车要装柴油机?

态度原创

游戏
时尚
房产
公开课
军事航空

愤怒了!《如龙 极3》删除跨性别支线引玩家不满

冬季穿衣越简单越实用!从这些日常穿搭中收获灵感,大方又自然

房产要闻

海南又一千亿级赛道出现,京东、华润、中石化等巨头率先杀入!

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

以军持续在约旦河西岸多地发动突袭

无障碍浏览 进入关怀版