![]()
新智元报道
编辑:KingHZ 好困
【新智元导读】ICLR 2026投稿破纪录达19000篇,录用率仅28.18%,平均分5.39创三年最低。评审系统漏洞曝光之后,作者们仍晒出喜报,如北大张铭组中5篇,庆祝努力收获。
放榜了!
顶会ICLR,在评审员和作者互相开盒之后,录用结果来了。
ICLR 2026可谓「一片混乱」:先是评审结果惹争议,多名投稿人经历投稿分数全0;后有评审系统被爆出漏洞,审稿人全员裸奔。
终于,ICLR 2026带来了一线希望,录用通知从1月25日发出——
![]()
据Paper Copilot统计,ICLR 2026总投稿论文再创新高,为19000篇;录用率只有28.18%,对应的平均得分为5.39、最低分为2.50、最高分为8.50,均为最近三年最低水平;Poster录用率为28.18%,为最近3年新高。
![]()
投中的作者发帖庆祝,苦尽甘来,努力终有收获,但并非没有争议,特别是关于LLM滥用的争议。
顺便提一句,本届ICLR将于2026年4月23日至27日在巴西里约热内卢举行。
![]()
网友纷纷晒出成绩单
多名作者在国内外社交平台发文,祝贺ICLR 2026喜创佳绩。
我们先看一下国内平台上大家晒出的「成绩单」。
北大张铭教授组顶会ICLR中5篇:
![]()
![]()
![]()
![]()
![]()
MIT教授、清华校友韩松投稿ICLR的第十年,联合战队生产力大爆发,投中至少9篇:
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
TAMU计算机系助理教授涂正中,喜提5篇ICLR。
![]()
![]()
![]()
![]()
![]()
港科大田泽越ICLR+4:
![]()
上海交通大学郦洋和团队投中3篇:
1. 基于掩码生成的类自监督学习范式MaskCO,在TSP上相比SOTA实现了超过99%的gap缩减,并带来10倍的加速。
2. 面向组合优化的掩码扩散框架NEXCO,将解的解码过程内化为扩散模型的原生机制,在保证约束满足的同时显著提升解的质量与推理效率。
3. 面向组合优化问题的统一表示学习框架ConRep4CO,实现跨问题的预训练,显著提升表示质量、泛化能力及下游优化性能。
![]()
南洋理工加小俊和团队取得了优异成果。
据介绍,本次他参与了三篇ICLR 2026论文,其中一篇是共同一作,两篇是通讯作者,分别聚焦LLM安全对齐 / 多模态越狱安全评测 /文言文越狱攻击等方向。
![]()
![]()
![]()
清华在读博士生李凯的两篇一作论文顺利拿下「双杀」,并且还把Paper、Code和Dataset全都开源了。
Work 1: Dolphin 高效音视频语音分离,小海豚游得快!
Paper:https://huggingface.co/papers/2509.23610
Space: https://huggingface.co/spaces/JusperLee/Dolphin
Work 2: AudioTrust Audio LLM 的可信度评估Benchmark。
Paper: https://huggingface.co/papers/2505.16211
Dataset: https://huggingface.co/datasets/JusperLee/AudioTrust
![]()
![]()
中科大梁锡泽ICLR+2,方向包含大模型多领域RL、大小模型协同推理。
![]()
多领域RL方面,他们提出了RLCGPO算法,在数学、代码、科学、创意写作4个领域的7个基准上取得平均+2.3分提升,并带来更快的奖励增长(例如训练50步后奖励提升达到基线的2–3倍);同时每步额外开销仅2–5%。
![]()
在大小模型协同推理领域,他们提出了Latent Guidence框架,使小模型相较其独立基线的准确率最高提升13.9%、速度提升2倍,同时整体推理速度比大模型快至4倍。
![]()
华师大王嘉宁,同样ICLR+2:
R-Horizon:大模型长程推理分析与RL优化
ScienceBoard:面向AI for Science的Agentic工作流评估
![]()
港科大(广州)宋文轩,作为共一和project lead参与的两篇VLA文章都接收了,分别代表了两条路线上的探索(VLA的视觉表征学习和diffusionVLA),两篇工作均已开源(均Github 100+ stars)
Spatial Forcing: https://spatial-forcing.github.io/
Unified Diffusion VLA:https://arxiv.org/abs/2511.01718
![]()
英伟达谢恩泽,参与的SANA Video和Fast dLLM系列都中了 ICLR 2026!
在线性注意力应用于Diffusion视觉生成的基础之上,这次他们在Diffusion LLM语言模型上的研究也取得了一些不错的进展。
![]()
北大任韬,ICLR 2026投中两篇论文,聚焦于LLM和Diffusion的后训练强化学习算法,从风险度量和随机梯度估计的角度给出了一些不同的看法。
![]()
港科大(广州)陈晋泰,关于「心电全景图(Electrocardio Panorama)」的Nef-Net v2正式被录用。
![]()
v2版本已经实现了对任意时长、任意心电设备的覆盖,效果已经远超初代。他认为更重要的是落地:
发论文从来不是目的,现在如果目标仅仅是发一篇顶会并不难。真正的意义在于我们将心电全景图的应用向临床又推进了一大步。我们的v3已经在路上。
复旦仝竞奇等在被接收的工作中,发现游戏任务训练可以提升AI的通用推理能力。
论文链接:https://arxiv.org/abs/2505.13886
代码仓库:https://github.com/tongjingqi/Game-RL
数据与模型:https://huggingface.co/datasets/Code2Logic/GameQA-140K
![]()
![]()
![]()
![]()
国外社交平台上,也很热闹。
被誉为诺奖风向标之一的斯隆研究奖得主、OSU教授Yu Su实验室中了11篇,激动发帖:「OSU NLP Group中了11篇,涉及智能体记忆、安全、评估、机制解释性以及面向科学的AI等话题。」
![]()
与合作者一起,普林斯顿的博士后LingYang,在「大模型和扩散语音模型上」上一人中了4篇:
![]()
香港中文大学博士后Yafu Li,投中了6篇,而且全部开源,对推理、强化学习和多模态理解可以看看。
![]()
在读博士Qiushi Sun参与的3篇论文被ICLR 2026接收。
![]()
作为第一作者,网友Egor Cherepanov有4篇论文被接收。
![]()
国内高校一些学生解锁「首篇顶会论文」成就,甚至还有大二学生!
![]()
因误报虚构参考文献,被ICLR 2026桌面拒稿,最后柳暗花明,Yu-Xiang Wang分享了「有史以来ICLR中稿论文」最低的一篇的故事。
![]()
根据传言,中一篇ICLR等顶会论文,作者就可以正式称自己为「AI研究员」,恭。和新AI研究员一起分享这些喜悦吧。
![]()
![]()
![]()
![]()
![]()
在此,恭喜所有ICLR 2026论文作者。
但AI研究社区涌现出了新的问题,不容小觑。
AI顶会之乱,ICLR之殇
最大问题不是审稿人信息被泄露,投稿人和审稿人直接对线,而是评审质量的下滑。
比如,AI开始反噬AI研究。
此前,卡内基梅隆大学教授Graham Neubig使用Pangram Labs的AI文本检测工具EditLens,发现ICLR公开的75800条评审意见21%被高度怀疑「完全由AI生成」。
![]()
AI写论文,AI评阅!AI顶会ICLR完成「AI闭环」,1/5审稿意见纯AI给出
这种AI滥用现象并没有得到解决:
![]()
![]()
![]()
![]()
ICLR2025发布了评审或元评审过程中使用LLM的相关政策:
![]()
不过,ICLR似乎没有提出合适的机制,确保AI评审的质量,只是要「评审人对评审内容负有最终责任」、遵守学术伦理。
有投稿人直言,100%的评审意见全是AI生成的。
![]()
有网友直言,受够了整个匿名评审这套游戏——
即使拿到了高分,即使多数审稿人都表示文章可以接收,只要一个审稿人就能推翻录用结果。
更糟糕的是,你可能收不到任何解释。
![]()
审稿人的偏见在匿名审稿中似乎看不到如何被纠正。
![]()
![]()
![]()
![]()
更不要说,审稿人的学术品味也不一定足以胜任顶会审稿工作。
国内人大副教授刘勇,从事大模型基础理论研究,就有多篇论文被「误杀」。
他感慨道「搞理论的本来不容易,希望审稿人专业点」,呼吁给理论研究留下「火种」。
参考资料:
https://x.com/hashtag/ICLR26
https://x.com/ysu_nlp/status/2015905215535538558
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.