学术预印本平台ArXiv正在收紧对AI生成低质量内容的管控。该平台计算机科学部门负责人Thomas Dietterich近日宣布,若论文存在"无可辩驳的证据"表明作者未核查大语言模型生成结果,相关研究人员将被封禁一年。
所谓"无可辩驳的证据"包括两类典型痕迹:一是虚构参考文献,即大语言模型常见的"幻觉"现象;二是残留的元评论,例如"这是一份200字的摘要,需要我修改吗?"或"表格中的数据为示例,请填入真实实验数字"等提示词片段。这些痕迹直接暴露作者将未经审核的AI输出直接提交。
![]()
封禁期满后,涉事作者若想恢复投稿资格,须满足额外条件:后续提交至ArXiv的论文必须先被" reputable peer-reviewed venue "(声誉良好的同行评审期刊或会议)接收。这一门槛显著高于常规投稿流程。
Dietterich在社交平台X上详细阐述了政策依据。ArXiv行为准则明确规定,署名作者对论文全部内容承担完整责任,无论内容如何生成。若生成式AI工具产出了不当语言、抄袭内容、偏见内容、错误、失误、错误引用或误导性内容,而作者将其纳入学术作品,责任完全在作者一方。
该政策设有申诉机制,但执行程序严格。据Dietterich向404Media说明,内部流程要求先由版主记录问题,再由部门负责人确认后方可实施处罚。政策仅适用于"证据确凿"的情形,避免主观判断争议。
这并非ArXiv首次针对AI生成内容调整规则。去年该平台已更新政策,规定计算机科学领域的综述文章和立场论文必须经同行评审并在会议或期刊接收后方可发布。当时ArXiv的解释直指问题核心:大语言模型的出现使此类内容易于批量生产,而收到的多数综述不过是带注释的文献列表,缺乏对开放研究问题的实质性讨论。
预印本平台的核心价值在于快速传播未经同行评审的研究成果,为学术共同体提供早期反馈。但生成式AI的普及正在冲击这一模式的信任基础——当虚构引用和模板化综述可以低成本量产,平台的内容筛选成本急剧上升。ArXiv的连续政策调整,本质上是在开放获取与质量控制之间重新寻找平衡点。
对研究者而言,这一信号清晰明确:AI辅助写作已被默许,但责任边界并未模糊。署名即意味着背书,工具不能成为免责理由。封禁一年的处罚力度,在学术出版领域属于罕见重手,反映出平台对维护可信度的紧迫性。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.