机器之心编辑部
昨晚深夜,ICLR 2026 官方正式向投稿者发送了今年的论文接收结果通知。
作为机器学习领域的顶级会议, ICLR 2026 将于 2026 年 4 月 23 日至 27 日在巴西里约热内卢举行。官方今年收到了有效投稿约 19000 篇,总录取率约为 28%,该录取率涵盖了所有经过同行评审的完整论文投稿,无论其是否撤稿。
网友晒出成绩单
录用通知一出来,网友们也坐不住了。社交平台上,很快被各种成绩单刷屏:
![]()
有的研究者不止一篇被录取:
![]()
甚至还有实验室在这一届一口气拿下 8 篇论文。截图一放出来,评论区立刻炸开了锅,清一色的都是羡慕与感叹。
![]()
被拒稿,可能不是论文的问题
今年的 ICLR 可以说是「史上最乱」的一届,先是第三方机构对审稿意见的系统性统计发现,其中有21% 完全由 AI 生成;后有OpenReview 评审大开盒,波及到了 ICLR 2026 超过 10000 篇投稿;接着 AI 生成内容检测平台GPTZero 扫描了 300 篇投稿论文,发现其中有 50 篇在论文引用上至少包含一处明显的幻觉内容。
然而,这场闹剧并未结束。
研究者 Eldar Kurtić 公开展示了一段离谱的审稿意见:一名审稿人在反馈意见中表示该论文「缺少与 FlexPrune 的具体比较」。不过 Kurtić 调查发现,似乎并不存在名为 FlexPrune 的主流基准方法。
![]()
更离谱的是,领域主席在随后的裁定中,直接采信了这一错误意见,并将其定性为论文的「致命缺陷」,最终以此为由做出拒稿决定。
该贴发布后迅速走红,目前已获得数万次浏览及大量研究者的共鸣,矛头直指 LLM 在同行评审中的滥用。
![]()
![]()
不少学者质疑,该审稿意见极有可能是通过 GPT 或 Grok 等 AI 工具自动生成的。由于 AI 存在「幻觉」特性,容易编造看似专业实则虚假的方法名。而 Meta-Reviewer 的疏忽,导致这种错误未能被纠正,反而成为了拒稿的定论。
这位网友则表示,在评分分别为 8 / 6 / 6 / 6、且评审意见整体偏正面的情况下,论文仍被拒稿。最让人难以接受的并不是拒稿本身,而是 Meta-Review 给出的理由。AC 无视了所有评审的一致支持,额外提出了两个新的质疑(而且这些质疑本身还存在事实性错误),并声称:所有评审意见都较为表面(尽管勉强高于评审的最低要求门槛)。
![]()
不管怎样,拒稿并不等于否定你的研究价值,很多经典论文也曾遭遇过拒稿。
最后,也欢迎被录取的作者投稿机器之心,让更多人看到你们的研究。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.