随着人工智能技术在近些年来迅猛发展,人工智能已经广泛地融入学术研究领域,改变了传统研究方法,优化了数据分析、文献综述乃至研究假设生成等流程。机器学习驱动的工具能够快速筛选庞大数据库、识别数据模式并提供洞见,比人力研究更加省时高效。这不仅加速了科研步伐,还有助于科研人员专注于一些需要人类判断力和创造力的更为复杂的工作。
然而,人工智能的滥用,如使用人工智能撰写论文而不声明、生成虚假数据乃至引用操纵等行为,也损害了学术研究的可信度。诸如此类不道德行为不仅会削弱同行评审体系,而且可能造成学术数据库充斥不可靠的信息,甚至导致合规的研究成果反而难以获得认可。有专家指出,人工智能对学术研究的自主性、平等性和效用性均带来挑战。随着人工智能在科研系统中的日益深入,亟须制定明确的指导方针、强有力的检测机制和伦理框架,从而避免人工智能不合理应用威胁到科研诚信。
学术出版界也因人工智能技术的兴起而面临重大变革。一方面,人工智能为优化编辑流程、改进抄袭检测、通过自动化检查提升同行评审效率以及更高效地管理大量投稿提供了强大工具。另一方面,学术出版商必须应对日益增多的人工智能生成或人工智能辅助的稿件,其中一些可能存在掩盖作者责任或绕过传统质量监控的风险。这引发了关于学术出版真实性、透明度和问责制等一系列关键问题。为适应这一变化、维护学术可信度,学术出版商正采取措施,修订投稿指南、启用人工智能检测系统、重新审视编辑政策。
人工智能的快速发展和应用为学术研究和学术出版带来重要机遇。荷兰学术出版巨头爱思唯尔(Elsevier)公司科研诚信与出版伦理部高级总监莎拉·詹金斯(Sarah Jenkins)对本报记者表示,在科学研究领域,人工智能技术正在革新科研范式与研究方法。人工智能可以通过分析海量数据而发现人类难以察觉的模式与规律,从而加速科学发现的进程、重新定义研究路径。而且,人工智能还正在深刻改变科研的具体实施方式。借助自动化技术,人工智能可以高效完成诸如数据收集与分析等重复性任务,大幅提升科研效率。机器学习和数据挖掘等前沿技术进一步揭示隐藏的数据模式,为科研带来前所未有的突破,也为科研人员提供无与伦比的便利。此外,人工智能正在重塑科学知识的传播方式。自然语言处理等技术使研究成果的总结与解读更加易于理解,帮助研究人员及时掌握各自领域的最新进展。
挪威卑尔根大学的研究者艾琳·伦蒂尔 (Eline Rentier)撰文肯定了生成式人工智能在推进学术写作方面的潜力,例如在文本结构梳理、海量信息提炼与总结等任务中所发挥的辅助作用。
詹金斯表示,在学术期刊出版方面,人工智能正在推动出版全流程的创新。她举例说:“我们提供基于人工智能的服务,帮助作者匹配最适合其研究的期刊;我们还开发了可解释的人工智能解决方案,为编辑提供定制化的审稿人推荐。自动化工具可对稿件进行初步审查,判断其是否违反我们的出版政策。”她还说,人工智能驱动的反剽窃工具可将投稿与大型数据库进行比对,保障学术诚信。这些创新措施既优化了出版流程,也提升了效率与质量。
“生成式人工智能的兴起进一步激励我们去探索那些能够推动科学传播的新机遇。例如Scopus AI和ClinicalKey AI这样的解决方案展示了我们如何以负责任的方式运用生成式人工智能,助力科研人员加速研究进展。”詹金斯说。
与此同时,人工智能也给科研与学术出版带来一系列挑战。伦蒂尔提出,生成式人工智能依然存在重大局限性,例如可能生成错误甚至完全虚构的信息。此外,人工智能在学术写作中的运用还带来了人工智能偏见、错误信息、学术剽窃、知识获取不平等以及知识商业化等一系列值得担忧的问题,对科研诚信与学术伦理造成冲击。
詹金斯也指出,人工智能的快速发展带来了诸如虚假信息、人工智能幻觉、欺诈行为等一系列挑战。“我们正在积极优化检测工具以识别并应对这些问题。”詹金斯表示,关于论文作者使用生成式人工智能和人工智能辅助技术问题,爱思唯尔公司制定了相关政策,并在其官网公布。
人工智能在科研中的广泛应用对学术出版中的作者身份以及知识产权概念带来新的挑战。针对这一问题,詹金斯介绍,与许多其他出版机构一样,爱思唯尔公司目前对作者论文写作的指导原则是允许在撰写研究论文过程中使用人工智能工具,以提升文章的语言质量与可读性。但是,人工智能技术的应用必须始终在人工监督与控制下进行,作者需对生成的内容进行仔细审阅与编辑。爱思唯尔公司要求作者明确说明其是否使用了如ChatGPT等生成式人工智能工具,并阐明具体使用方式。此类人工智能技术工具不得被列为作者,也不应被视为可署名的合作者。
人工智能的运用引发了人们对于科研诚信的更多关注。詹金斯认为,科研诚信——或者说真实性与诚实性——是人工智能带来风险最为集中的一个领域,因为人工智能技术有时可能生成误导性或虚假的信息。如果科研人员对人工智能过度依赖,其独立判断能力也可能受到影响,从而削弱科研的自主性。与此同时,若先进的人工智能工具仅限于特定群体使用,可能会造成科研机会的不均等,威胁到研究的公平性。此外,若人工智能生成的结果本身存在偏见,也可能进一步加剧这种不平等现象。
伦蒂尔强调,在学术写作中使用人工智能应保持透明度,并呼吁就这一充满争议但至关重要的话题开展公开讨论。
目前已有不少学者展开调查研究,探讨人工智能是否能够在学术出版领域被用来协助审稿、评估或编辑决策。例如,由萨曼·伊巴迪(Saman Ebadi)等四位学者撰写的文章《探索生成式人工智能对同行评审之影响:期刊审稿人之洞见》于今年发表在《学术伦理期刊》上,聚焦来自社会学、心理学、应用语言学、工程学等诸多学科领域的12位期刊审稿人对于在同行评审过程中使用大语言模型的看法。调查问卷结果发现,审稿人普遍认为,大语言模型可在初筛、抄袭检测及语言校核等方面实现自动化处理,从而减轻审稿工作量,并加强评审标准执行的统一性。然而,该研究也揭示了人工智能的应用所带来的若干重要伦理问题。多位审稿人强调,大语言模型不应取代人类判断,而应在人工监督下发挥辅助作用,以确保人工智能生成的反馈具有充分的相关性与准确性。
伊巴迪等人的研究凸显出有必要针对在学术出版中人工智能的应用制定明确的使用规范与相关政策。该研究还指出,应加强对研究人员的宣传与培训,从而有效应对在学术出版中使用大语言模型所带来的伦理风险与实践挑战。
詹金斯表示,尽管人工智能为学术研究带来了令人振奋的进步,但为了切实维护科研诚信与出版伦理,其使用必须谨慎,且始终需要人类判断力的积极参与。正因如此,为应对系统性操控与人工智能生成内容等新兴挑战,爱思唯尔公司已采取多项措施以加强监管、运用先进技术保障期刊质量并捍卫科研诚信与出版伦理。
詹金斯向记者详细介绍道,首先,爱思唯尔公司坚持严格的出版标准与审稿流程。“在出版过程的各个环节,我们都运用先进技术设置多重核查机制,以识别对编辑与同行评审流程的潜在操控行为。所有被系统标记的稿件均由我们的内部专家团队进行详尽审查,确保问题得到及时处理。”
其次,爱思唯尔公司将技术与人工监管相结合。通过融合前沿的数据驱动技术与专业评估机制,爱思唯尔公司建立了覆盖整个出版流程的科研诚信监测体系。这些工具可扫描数百万篇投稿与已发表论文,识别潜在的科研诚信问题,有效应对诸如“论文工厂”等复杂挑战。
最后,爱思唯尔公司通过知识共享守护对科研的信任。爱思唯尔公司积极与国际科学、技术与医学出版商协会诚信中心等行业伙伴开展合作,提供专业知识与技术支持,推动跨出版机构的重复投稿检测工作。此外,“爱思唯尔研究者学院”等项目还向全球科研人员免费提供出版伦理培训、推广最佳科研实践,促进诚信文化建设。
詹金斯表示,人工智能无疑在未来还将持续带来一些挑战。爱思唯尔公司将继续投入资源,加强对科研成果在发表前后的筛查工作,在问题出现时及时响应。