
2025年10月,《Journal of Clinical Oncology》(JCO,IF=43.3)发表了一篇文章,表示欢迎人工智能(AI)相关论文投稿,并详述了感兴趣的研究内容。
![]()
原文链接:https://ascopubs.org/doi/10.1200/JCO-25-01939
JCO接收AI相关稿件,关注的关键问题
![]()
![]()
1. 能否指导治疗决策?(不仅仅是预测结果)
2. 是否经过外部验证?(是否在AI工具开发机构以外的机构进行过测试)
3. 患者人群是否具有代表性?(人口统计学特征、疾病分期等信息均已报告)
4. 临床医生能否理解并采取行动?(有清晰的实施路径)
5. 是否优于现有标准?(与现有工具或临床医生的判断相比)
01
JCO会如何审阅AI相关文章?
在肿瘤学领域,AI应用大致可分为两类:
预测性AI:根据输入数据预测特定结局。例如,用于预测治疗效果、生存结局或疾病进展风险的模型。
生成式AI:基于学习模式创建新内容或数据的系统。例如,临床文书撰写、试验方案生成、或为研究目的创建合成数据等。
当前或新兴的肿瘤学相关AI工具涵盖广泛领域:从基于病理学的预测性生物标志物(用于预测治疗效果或总生存期),到提升临床试验匹配与入组效率的生成式人工智能系统。尽管JCO接收的大多数AI研究聚焦于特定癌种或治疗类别,但某些方法论与编辑标准适用于所有AI应用领域。
为确保AI论文同时符合严谨的方法学标准和临床相关性准则,JCO的编辑审稿流程纳入了专业评审机制。所有送审的AI稿件均需经过具有AI方法论和/或特定疾病临床专业知识评审专家的双重评估。这种双重评审机制确保发表的研究既具备技术严谨性又具有临床意义。
02
JCO的AI投稿重点方向
尽管JCO会考虑所有能指导临床实践的AI相关投稿,但是特别鼓励在以下方面能推动肿瘤学AI领域发展的研究。下表列出了JCO的重点关注领域。
推荐的优先关注领域
编辑部推荐的实践规范
临床影响
可指导治疗选择:优先考虑可指导治疗决策的预测算法,优于预后算法。
例如,AI预测转移性非小细胞肺癌(NSCLC)患者对免疫治疗单药治疗与免疫治疗联合化疗的应答情况,用以指导个体化治疗方案选择。
使用可解释和可说明的方法:
将统计值(如c-index、校准度)转化为具有临床意义的解释(如需治疗人数、绝对风险降低);
使用可视化图表和/或信息图来说明AI技术的潜在临床益处。
代表性和普适性
多样化的训练集和验证方式;
发布代码和源数据;
确保研究结果在不同人口统计学和临床特征人群中具有普适性和可重复性。
例如,评估算法在相关亚组中的差异性表现
完整描述训练集和验证集的人口统计构成;
在论文中公开源代码和数据集;
确保训练集反映异质性患者群体,并报告潜在的代表性不足问题;
在可行范围内评估模型在各临床相关亚组中的性能表现。
充分
验证
在可靠的数据集中进行多机构验证;在不同医疗场景下进行的外部验证,确保了AI工具稳健性。
例如,采用TCGA、UK Biobank等标准化的多元数据集,辅以注册登记数据库与临床试验数据集进行验证
整合来自多个独立机构的验证数据集;
在模型开发时未使用的完全独立数据集中评估模型的性能表现;
在临床中进行前瞻性评估,而非进行回顾性分析;
将AI性能与既定基准和/或专家临床医生的表现进行比较。
实施可行性
在肿瘤工作流程中进行严格评估:评估AI工具对临床结局、工作流程效率和临床医生满意度的影响。
例如,肺癌检测AI系统在准确率与放射科医生相当的前提下,使假阳性率降低11%。
开展规范注册、遵循标准临床试验报告规范的前瞻性或随机临床试验
真实世界部署和实施:来自真实世界的实施证据可以弥合从实验室到临床的转化鸿沟。
例如,开展研究探索医生的接受度、工作流程整合情况、有效应用AI所需的培训要求等。
在异质性人群中开展基于问卷调查及混合方法的研究
03
JCO推荐的AI投稿实践规范
JCO鼓励任何AI相关稿件,但会优先考虑符合以下原则,能够阐明临床影响力的稿件:
模型可解释性与临床相关性
可解释性:鼓励作者采用可解释的AI方法(要认识到现有的AI方法存在局限性),可创建可视化图表,清晰展示影响预测结果的关键特征。
临床转化:将技术输出转化为有临床意义的解读(例如,能够避免不必要的活检,可实现精准诊断等),而非仅呈现统计指标。需要注意的是,医护人员或患者的工作量、经济负担及其他效率指标也都具有临床意义。
可重复性与透明度
代码与数据可及性:虽非录用稿件的必要条件,但期刊鼓励作者通过存储库公开源代码、数据及验证数据集的访问权限,以确保研究结果的外推性验证。
完整记录方法学:详细说明数据来源、预处理技术(如数据清洗/整理、特征选择、降维处理等)、模型架构及训练方案。
描述数据集特征:完整说明训练集与验证集的人口学构成、机构来源及潜在偏倚。
明确模型局限性:明确讨论AI工具可能表现不佳的应用场景。
严格验证与评估
多机构测试:使用来自不同机构、覆盖不同患者群体的数据集进行验证,在可行的基础上系统评估模型在相关亚组中的性能表现。需注意:仅能在单一地区或机构完成验证的研究需要满足:(1)具备显著方法学创新或临床价值;(2)在讨论部分明确说明跨机构或外推性的潜在挑战。
独立数据集验证:理想情况下,应在模型开发时未使用的完全独立数据集中验证性能。若不可行,需采用AI领域公认的最佳实践进行交叉验证。
前瞻性评估:鼓励在真实临床中前瞻性评估AI性能,采用贴合实际应用的实效性试验设计(如整群随机分配)。
对比评估:AI性能需与既定临床标准和/或临床专家的表现进行比较。
遵循既定标准
报告规范:遵循现有的AI专项报告规范,如针对AI的TRIPOD、PROBAST、CONSORT等报告规范。
数据合规:确保符合国家颁布的隐私法规。
商用AI模型:鉴于很多AI创新来自企业,JCO接受商用AI工具的投稿。事实上,高质量AI开发所需的大量计算基础设施与数据集只能从商业部门获取。JCO鼓励产学研合作,严谨开发与评估AI模型,但需披露资金来源、商业利益等潜在利益冲突。
利益冲突披露:报告潜在的利益冲突,包括资金来源和商业利益等。
此后,JCO系列期刊会推出一系列相关文章,阐释AI核心概念并提供基础知识,帮助读者批判性评估和应用AI工具。内容将涵盖创新方法(如基础模型、多模态数据融合)、算法偏倚及伦理问题。
近年来,JCO子刊,如《 JCO Clinical Cancer Informatics》、《 JCO Precision Oncology》,已发表多项高质量AI研究,且读者群体不同于主刊。作者应知悉,部分投往JCO的优秀AI相关稿件,可能会根据内容分至更合适的子刊。
参考文献:J Clin Oncol 43, 3434-3438(2025).DOI:10.1200/JCO-25-01939

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.