中国团队在 NEJM 发文仅 11 天后,论文被撤回,这也是 NEJM 自 2020 年以来的首次撤稿。
原因是作者承认使用 AI 修改了图像,违反了期刊的图像处理规定。
AI for Science 的时代,边界在哪里?
用 AI 美化图片,最终换来撤稿
这篇论文由大兴区人民医院王玉玲与北京清华长庚医院牟向东联合发表,报道了一名 87 岁男子在吸入森林大火烟雾后出现严重肺部损伤的案例。
![]()
图源:Pubmed
报告中包含了一张从患者气道取出的黑色「支气管管型」图像——病例罕见,视觉冲击力极强,发表后迅速引发广泛关注。
![]()
图源:Pubpeer
然而没过多久,就有学者发现图像存在异常。
破绽出现在一把卷尺上。
正常的科学图像里,标尺应该从 0 开始,刻度均匀排列。但这张图里,卷尺的起始位置竟然是 30 或 40(假设单位为厘米),不是从头开始量的。
更奇怪的是,30 到 40 之间的数字顺序完全乱掉了:1、3、?、4、?、?、?、?、9——既不连续,也没有规律。
一把「坏掉的」卷尺,暴露了使用 AI 的痕迹。
作者随即回应,拍摄时患者病情危重,正在接受紧急救治,测量尺放置时角度歪斜。
他们只是「轻微调整了标尺的角度和位置,使图像更整洁、更易读」,并未修改任何临床内容。刻度数字的混乱,完全是位置调整造成的意外误差。
作者还特别说明:「用 AI 修正那些混乱数字其实很容易,但我们没有这样做,就是为了保持所有数据的真实可追溯性。」
![]()
图源:Pubpeer
尽管如此,作者最终在撤稿信中承认,他们此前并不了解期刊关于图像处理的政策,使用了 AI 工具将标尺移至图像顶部,因此申请撤回该图像和病例报告。
NEJM 编辑部也在撤稿声明中附上了提醒:「作者必须披露任何 AI 工具的使用情况,以及对图像所做的任何修改。」
红线是什么,规定其实早就写清楚了
无论国内还是国际期刊,对于 AI 使用和图像处理都有明确的政策。
AI 不能作为作者署名。作者身份意味着对论文内容承担学术、伦理和法律责任,AI 工具无法承担这些责任。
作者也不能把责任转移给 AI——即使 AI 参与了写作、润色、翻译或分析,论文中的事实、数据、观点和结论仍必须由作者核查并负责。
![]()
图源:Pubpeer
期刊不反对 AI 进入科研写作流程,但把它定位为「辅助工具」,而不是「内容生产者」。
在允许范围内,语言润色、语法修改、翻译、可读性提升,以及文献检索、关键词推荐、统计分析辅助、图表类型推荐,均被普遍接受。
边界在于,不能替代作者完成研究判断,不能生成核心内容。
在披露要求上,各期刊普遍强调透明原则——须在方法学部分注明AI使用情况,包括工具名称、版本、使用时间与过程,必要时还需标注哪些内容属于 AI 辅助生成。
图像处理的红线同样明确,不能用 AI 伪造、改写、操纵或美化研究数据和研究结果。
提交新稿件或修改稿件时,作者须完整描述并标明对数字图像所做的一切修改。
作者还必须确保:
图像中的任何特定特征均未被增强、模糊、移动、移除或添加
对亮度、颜色或对比度的任何调整都是针对整张图像进行的,不会歪曲原始图像的任何特征
稿件中未出现重复图片,也未在其他地方发表过任何图片
原始图像元数据可供查阅,并可应要求提供给编辑
![]()
图源:中华骨科杂志
编辑的共识,讲述的是同一件事。
真正重要的,不是你是否使用了 AI,而是当你在论文上署名时,是否仍愿意为每一个字负责。
在这个意义上,AI 并没有降低医学写作的门槛。它只是把责任的重量,重新压回了作者本人身上。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.