人工智能时代的科研诚信
——中国科学院学部2025’科技伦理研讨会会议综述
谭健英1,2 刘慧晖2
李瑞2 王熙婷2
王振宇2
(1中国科学院大学公共政策与管理学院;2中国科学院学部科学规范与伦理研究支撑中心)
DOI:10.19524/j.cnki.10-1009/g3.2025.04.170
2025年9月26日,中国科学院学部在北京组织召开2025年度科技伦理研讨会。会议以“人工智能时代的科研诚信”为主题,围绕“人工智能时代科研不端行为的界定、特征及责任主体认定”“人工智能时代科研不端行为审查与监管的技术博弈”“人工智能在科研中的使用边界与伦理红线”“人工智能时代科研治理诚信及实务”四个议题展开研讨,对人工智能时代的科研诚信展开了全方位、多角度、深层次的分析和讨论,并就具体问题提出了对策建议。
![]()
参会人员合影
中国科学院学部科学道德建设委员会主任胡海岩院士在致辞中指出,以ChatGPT为代表的大语言模型相继问世以来,人工智能在知识获取、数据分析及学术写作等领域得到广泛应用,学习和研究效率显著提升。但是人工智能的介入根本性地改变了学术活动的主体构成。这种“算法参与”的科研模式带来了一系列新问题,包括贡献归属难以明确、研究过程不够透明、结论可解释性下降等。此外,人工智能系统潜在的算法偏见及其生成虚假或误导性信息的风险也不容忽视。他强调,科研诚信是科学事业的基石,面对人工智能带来的新挑战,我们要更加坚守诚信底线,通过协同治理营造良好的科研生态。
中国科学院学部科学道德建设委员会副主任梅宏院士在引导发言中指出,人工智能正在逐渐融入科研全过程,在显著提升科研效率的同时也带来风险。他通过案例分享,指出人工智能的科研诚信问题主要出现在两个环节:一是成果的产出,二是成果的表达。他提出要建立健全主动披露和标注制度,建立涵盖大模型开发者、创作者、使用者的标注责任机制,推进相关标准和规范的制定。
南京大学教授、中国科学院院士谭铁牛从人工智能发展趋势、带来的科研诚信新挑战和应对之策三个角度加以阐述。他认为,人工智能总体上还处于发展的初级阶段,人工智能尚存在“多知、少智、无谋、缺情”等基础性问题。在新挑战方面,他通过对比人工智能生成内容和真实实验数据,阐述了人工智能的“完美造假”,提出人工智能带来的篡改伪造、成果归属、责任界定等系列挑战。他指出,通过明确主体责任、制定各学科领域的人工智能使用规范、创新人工智能防伪检测和溯源检测技术、强化高校科研诚信教育培训、加强国际合作等多种举措,共同维护人工智能时代的科研诚信。
国家自然科学基金委员会原副主任韩宇认为,以人为主体的学术规范虽然效果较好,但无法适用于人机协同的人工智能时代。他指出,在新旧范式转变过程中,人工智能在适应科学发展要求、责权合理分享、影响学者发展等维度仍存在问题。他认为,需合理构建人工智能时代的新范式,在人智和机智共存的阶段,要坚持以人智为核心,坚持完善人工智能能力培训,坚持批判性创新和包容韧性的学术规范引导,坚持驯化人工智能向善。
爱思唯尔(Elsevier)全球期刊中国区董事孙岩总经理回顾了爱思唯尔的数字化转型历程。数据显示,全球人工智能主题文献仅2024年已经达到近50万篇。在这种背景下,期刊应该如何应对人工智能带来的科研诚信问题?她认为,人工智能产生的学术不端行为可能发生在出版过程的各个环节,要“两手抓”:一手抓技术与人才,一手抓标准与协作。开发一流的诚信检查工具,培养科研诚信领域专业人才;制定面向作者、编辑、审稿人的生成式人工智能学术规范,并用于实践,构建人工智能科研诚信新生态。
中国科学院自动化研究所宗成庆研究员重点阐述了大模型为科技规范和社会伦理带来的挑战。他提出,大模型带来训练数据真实性与合法性、数据开放与版权保护、人机责任认定等挑战。在人工智能使用规范方面,他认为,要积极拥抱新技术。对于学生,应制定相应学术规范加以引导,合理运用人工智能技术;对于其他成人,没有理由也没有必要限制其使用人工智能工具。
中国科学院文献情报中心马娜副研究馆员指出,科学研究的严谨性需要准确的知识库、文献库、数据库作为“智囊”。为确保人工智能时代期刊论文的高质量,Science等国际出版机构制定了出版规范。在数据方面,采用强制或建议作者提交研究数据,并开放共享的方式,推动科学研究的透明性、可信性;在署名方面,学术期刊应明确人工智能系统不能以作者身份出现,作者需对论文完全负责。
中国科学技术信息研究所科学计量与评价中心副主任杨代庆研究员围绕学术论文中人工智能使用边界标准化问题,重点介绍了《学术出版中AIGC使用边界指南2.0》,从资料收集、论文撰写、出版发表的各阶段划定了清晰的“红黄蓝线”标准,这是人工智能使用的有效实践指导,有望走向国际化。
北京航空航天大学和鸿鹏副教授基于案例和调查研究数据,阐述了生成式人工智能的学术应用潜力,但也指出其带来了难以认定的学术剽窃、隐蔽性的数据泄露、自增强的虚假信息等科研伦理问题。他认为,要走出人工智能诱发的学术伦理困境,应立足“从无到有、先有后优”的政策思路,对已有学术诚信政策做出调整,并出台生成式人工智能学术使用指南。
主旨报告之后,专家围绕四个议题进行了深入交流。在“人工智能时代科研不端行为的界定、特征及责任主体认定”方面,大家普遍认为人工智能的科研不端行为具有复杂、隐蔽、难识别的特点,容易引发科研诚信治理重构以及科研生态变化的问题。多数专家认为人应作为科研主体,并承担主要责任。研究人员要全面审查人工智能生成内容,反对“图片误用”等推卸责任的行为。但是在科研诚信问题与人工智能的关系方面,专家存在分歧。部分专家认为,科研不端行为本质仍属伪造、篡改、抄袭范畴,人工智能仅是引发治理重构的技术诱因;另一部分专家则认为,人工智能的介入使科研诚信问题产生了新属性,需区分与人工智能相关的诚信问题和传统诚信问题。
在“人工智能时代科研不端行为审查与监管的技术博弈”方面,专家一致认为,人工智能既可能成为不端行为的帮凶,也可能成为监督的利器,如何在攻与防的博弈中保持动态平衡,是科研诚信治理的重要问题。关键对策包括:一是“以技制技”,开发高级诚信审查工具,从技术层面引导人工智能的规范使用,实现“从内到外”的风险预防;二是强化特殊领域监管,尤其需加强对生命科学企业的伦理审查。
在“人工智能在科研中的使用边界与伦理红线”方面,专家提出需要明确三大核心红线。一是责任归属红线,即在数据生成、成果界定及引用标注等关键环节,必须始终由研究者承担主体责任。二是能力替代红线,需明确科研中诸如价值判断、实验设计及结果阐释等核心环节,不应完全交由人工智能完成。三是主体规范红线,科研共同体需制定统一的人工智能使用规范和标注机制。国家自然科学基金委员会提供了实践标准,在进行科研不端行为调查处理中重点把握以下三点:申请人不允许使用人工智能生成申报材料;评审专家经批准的情况下可以使用人工智能评审;项目负责人合理披露研究中使用的人工智能。
在“人工智能时代科研诚信治理及实务”方面,专家普遍认可人工智能带来的科研诚信的挑战需要制度、实践、教育协同推进。一是完善科研伦理制度体系,从软法到硬法体系化分层分类、有针对性地采取措施。二是采取多方联动组合的方式,建立群防群治的格局,整合科研机构、企业、出版机构等多元主体力量。三是实现全过程敏捷治理,不断探索兼顾发展、安全、可信的治理路径。
综上,专家一致认为,人工智能时代科研不端行为呈现复杂、隐蔽的特征。人应该始终作为科研主体并且承担首要责任,需明确划定人工智能在科研应用中的伦理边界与不同主体的行为规范,同时关注安全风险防控。人工智能时代的科研诚信治理需要制度、实践、教育三方协同推进。审查监管需“以技制技”,同时加强企业伦理审查机制建设。
作者简介
谭健英,中国科学院大学公共政策与管理学院博士研究生,中国科学院学部科学规范与伦理研究支撑中心研究助理。研究方向为科技人才、科技政策;
刘慧晖,中国科学院学部科学规范与伦理研究支撑中心创新副研究员。研究方向为科技治理;
李瑞,中国科学院学部科学规范与伦理研究支撑中心助理研究员。研究方向为国家创新体系、新兴技术治理;
王熙婷,中国科学院学部科学规范与伦理研究支撑中心特别研究助理。研究方向为新兴科技治理;
王振宇,中国科学院学部科学规范与伦理研究支撑中心执行主任。研究方向为人工智能科技伦理与治理、生命健康领域科技战略咨询、数智中医。
通信作者
王振宇,邮箱地址:wangzhenyu@casisd.cn。
项目资助
中国科学院学部项目" '人工智能时代的科研诚信'科技伦理研讨会"(5-XSB2025001)。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.