企业信誉 常见问题 期刊大全
期刊
投稿邮箱

mlunwen@163.com

服务热线

18516839603

AI时代下的学术新准则:学术出版如何规范使用AI

发表日期 2025-02-07 10:54:28    703

在当今这个日新月异的时代,生成式人工智能(GAI)工具,如ChatGPT、Copilot、Gemini以及豆包等,正以惊人的速度蓬勃发展,为学术研究带来了前所未有的效率飞跃。它们如同科研人员的得力助手,能够在选题构思、思路梳理、论文语言润色、数据分析以及图表制作等多个关键环节发挥举足轻重的作用。然而,这些功能强大的工具也如同一把双刃剑,在带来便捷与高效的同时,也引发了一系列关于学术伦理的深刻反思。


为了确保学术诚信的基石稳固不摇,维护科研领域的纯净与公正,科技部、中国科学技术信息研究所(中信所)以及各大出版机构纷纷挺身而出,制定或更新了相关政策,旨在为科研人员在使用AI工具时提供明确的指引和规范,确保AI在学术研究中能够被合理、规范地运用,避免其成为学术不端的温床。


技术便利与伦理挑战并存


GAI工具凭借其无与伦比的功能,极大地改变了学术研究的方式和面貌。在选题阶段,它能够通过对海量文献的深入剖析,帮助研究人员敏锐地发现潜在的研究热点和空白领域;在论文撰写过程中,它能够对语言表达进行精雕细琢,使文章更加通顺流畅、专业严谨;在数据分析环节,它能够迅速处理大量繁杂的数据,并生成直观可视化的图表,让数据说话。然而,不容忽视的是,GAI生成的内容是基于大数据和大语言模型的,其准确性和真实性难以达到绝对可靠的程度。


部分研究人员和学生为了追求捷径,竟然直接将AI生成的信息当作自己的研究成果或论文内容,甚至不惜伪造数据,这种行为简直恶劣至极。这种做法严重违背了学术研究追求真理、创新的初衷和使命,极有可能对相关领域的科学发展造成严重的误导和损害。2024年4月,国内某医疗团队在《Medicine》杂志上发表了一篇关于碱性水对慢性痛风性关节炎患者影响的研究论文,声称碱性水能够减轻患者疼痛并缓解症状。然而,仅仅三个月之后,这篇论文就因存在诸多严重问题而被撤稿。打假学者指出,该论文存在多处疑似由AI生成或伪造的重大漏洞,比如引言部分疑似完全由AI生成,论文中的一张示意图骨头数量错误,图例标注毫无意义,出现了诸如“chlsinkestead atlvs no active greedis”、“Aliainine jerve sreiter”等莫名其妙的文字。此外,文章部分参考文献在PubMed或Google Scholar中无法找到,作者使用的也并非机构邮箱。


这一事件给整个学术界敲响了警钟,提醒我们学术研究的核心始终是数据的真实性和思想的创新性。过度依赖甚至滥用AI,只会让学术成果失去科学依据和公信力,严重损害学术诚信的基石。


明确红线:AI的合理和规范使用势在必行


面对AI在学术出版中可能引发的风险和挑战,明确其使用边界,制定严格的使用规范已经刻不容缓。2023年12月21日,科技部监督司率先发布了《负责任研究行为规范指引(2023)》,对AI使用中的关键问题划出了清晰的“红线”。在研究实施方面,明确禁止使用GAI直接生成申报材料;在成果署名与发表环节,严禁将GAI列为成果共同完成人;在文献引用上,严禁直接使用未经核实的由GAI生成的参考文献。这些规定如同一道道坚固的防线,清晰地界定了AI在学术研究中的使用边界。


到了2024年9月26日,中国科学技术信息研究所更是联合Elsevier、Springer Nature、Wiley等多家知名出版机构,共同发布了《学术出版中的AIGC使用边界指南2.0》。该指南以透明度和问责制为核心原则,倡导在学术研究及出版发行的整个过程中,研究人员、作者、同行评议专家和读者都应当充分了解并明确披露GAI的使用情况。其中涵盖了数据透明的要求,即要披露底层数据集、数据来源和处理方式;还要明确知识产权和版权材料的使用情况,确保学术成果的合法性和合规性。同时,《指南2.0》还建立了问责机制,呼吁研究人员、科研机构、资助方、政策制定者和出版商共同承担监督责任,制定清晰的问责标准,确保AI在学术研究中的规范使用。


随着法规的约束和实践中逐渐形成的共识,GAI的使用边界正日益清晰明了。学术界和出版界在这一趋势下,正加快走向规范化和透明化的道路。越来越多的出版机构开始重视并规范AI的使用,以保障学术诚信和科学研究的质量与可信度,为学术研究的健康发展保驾护航。


各大出版机构的AI使用政策各具特色


对于作者而言,合理使用AI的原则与限制是必须要遵守的。语言优化而非内容生成是基本原则,允许作者利用AI提升论文的语言表达、风格和格式,增强可读性,但作者必须对内容的原创性和准确性负全部责任,确保学术成果的真实性和可靠性。同时,作者还需在稿件中公开使用AI的情况,并附上相关声明,严禁将AI工具列为论文作者或共同作者,以维护学术成果的公正性和权威性。


此外,禁止内容生成与修改也是一条不可逾越的红线。AI工具不能用于生成或篡改数据、图表、音频、视频、动画、代码和公式等关键内容,确保学术成果的准确性和可信度。实验生成类图像必须源于真实开展的实验研究,严禁伪造或篡改实验数据。除出版机构、期刊政策允许的特殊情况外,图片摘要、封面等艺术作品也禁止使用AI创作,以维护学术成果的艺术性和原创性。


在图表优化方面,AI可辅助优化图表样式,比如调整亮度、对比度、色彩平衡或字体大小,添加标注、图例等,但不能模糊或改变图表中的原始信息。像增强、移动、删除或引入特定特征等操作是被严格禁止的,以确保图表的准确性和真实性。Elsevier更是指出,如果AI工具作为研究设计或方法的一部分用于创建图像或修改图像内容,作者必须详细说明具体操作过程,包括AI工具或模型的名称、版本号及制造商信息,以保证透明度和可追溯性。有时还需提供调整前后的原始图像及生成后的图像,供编辑审查评估,确保学术成果的严谨性和可靠性。


对于审稿人而言,尊重隐私与强化责任是必须要遵循的原则。保密性优先是基本要求,为防止泄密和版权纠纷,多数出版机构禁止审稿人将作者手稿或其任何部分上传至AI。作者未经期刊和审稿人许可,也不得将同行评审报告上传至AI,以维护学术成果的隐私权和版权。


同时,不可替代的批判性思维也是审稿人必须具备的素质。同行评审是科学生态的核心环节,许多出版机构不建议审稿人使用AI协助科学评审。因为同行评审所需要的批判性思维和原创性评估超出了AI技术的能力范围,且该技术可能产生虚假、不完整或有偏见的信息,影响评审结果的公正性和准确性。


在披露AI使用方面,如果出版机构、期刊政策允许,审稿人可以使用AI优化评审报告语言,但提交评审报告时需做出明确声明,以确保评审过程的透明度和可追溯性。


对于期刊编辑而言,规范决策与强化监督是必须要履行的职责。保密性优先是编辑必须遵循的原则,为避免泄密和隐私权纠纷,编辑要对投稿和同行评议过程严格保密。因此,论文手稿、同行评审报告以及稿件处理过程中包含敏感信息的通知、函、信件等文件均不能上传至AI,以维护学术成果的隐私权和版权。


同时,禁用AI支持决策也是编辑必须遵守的规定。编辑不能依赖AI进行稿件评估或协助决策,因为决策过程所需的批判性思维和原创性评估AI无法胜任,且其可能产生虚假、不完整或有偏见的信息,影响决策结果的公正性和准确性。


强化责任追溯也是编辑必须要履行的职责。如果编辑怀疑作者或审稿人违反了AI使用政策,应及时通知出版机构采取应对措施,确保学术成果的公正性和权威性。


值得注意的是,虽然众多出版机构都出台了AI使用策略,但在某些方面仍存在较大差异。例如,Elsevier仅要求作者声明AI的使用情况,而BMJ、Taylor & Francis和Wiley等出版机构则遵循国际出版伦理委员会(COPE)的相关建议,制定了更为严格的使用规范。这些出版机构要求作者在致谢部分(Acknowledgement)披露是否使用了AI,若使用则需在方法部分(Method)或附录部分(Appendix)详细阐述使用过程,还要求提供使用AI的名称及版本号、使用原因、使用方式,甚至要提供AI输入和输出的内容,以及作者对AI输出内容的审查过程,供编辑参考。这些严格的规定确保了学术成果的透明度和可追溯性,为学术研究的健康发展提供了有力保障。


AI在学术研究中蕴含着巨大的潜力和机遇,然而,只有秉持严谨和透明的态度去运用它,才能保证技术创新与学术诚信同步发展、相得益彰。出版机构制定的规范不仅为科研人员指明了方向、提供了指引,更是维护学术环境的重要保障和坚实基石。展望未来,我们期望业界能够建立起更加统一、科学的AI使用标准,推动AI在学术领域健康、合理地应用,为学术研究的进步注入新的活力和动力。