今年4月初,美国匹兹堡大学神经学家Greg Siegle在一次会议上听到了他觉得“非常可怕”的事情。一位美国国立卫生研究院(NIH)的同行评议专家说,人工智能(AI)工具ChatGPT已成为他起草审查报告时不可或缺的工具,并表示使用ChatGPT可以节省大量时间,因为只需将提案的部分内容,如摘要、目标和研究策略等粘贴到AI中,然后要求其评估信息即可。
然而据《科学》报道,NIH和其他资助机构对这一做法表示反对。6月23日起,NIH禁止ChatGPT等在线生成AI工具用于“分析和制定同行评议评论”,澳大利亚研究委员会(ARC)也从7月7日起禁止使用AI生成同行评议。
其他机构也在制定对策。NIH一位发言人说,他们已经成立了一个内部工作组,研究是否可以适度使用AI作为价值审查过程的一部分。
ChatGPT和其他大型语言模型利用庞大的信息数据库进行训练,以生成近乎人类编写的文本。这让一些科学出版商担心出现伦理问题和事实是否准确,并限制使用这些模型来撰写论文,包括《科学》在内的一些期刊也禁止审稿人使用它们。
对于资助机构来说,保密性是最重要的。当提案的一部分被输入在线AI工具时,这些信息就成为其训练数据的一部分。NIH担心数据将被发送、保存、查看甚至使用。
批评人士还担心,AI撰写的评论容易出错,因为它们取材于现有信息,对非主流观点有偏见,且缺乏推动科学创新的创造力。NIH官员认为,他们所看重的原创性思想在这个过程中丧失,并且被同质化,这甚至可能构成剽窃。
一名澳大利亚研究人员运营的匿名Twitter账户ARC_Tracker报告称,一些科学家收到的审稿意见似乎是由ChatGPT撰写的,有些人把部分论文粘贴到ChatGPT上,得到了类似的评价。ARC_Tracker指出,有的科学家可能认为ChatGPT产生了有意义的反馈,但实际上并非如此。
美国西北大学伦理学者Mohammad Hosseini认为NIH的禁令目前是合理的。“考虑到NIH处理的问题和项目的敏感性,以及AI工具的新颖性,采取谨慎的措施是有必要的。”
然而,也有一些研究人员表示,AI提供了一个改善同行评议过程的机会。美国爱荷华大学精神病遗传学家Jake Michaelson说,审稿人可以使用这些工具来检查他们的评论,看是否忽略了某些内容,以帮助他们评估自己领域之外的工作。
随着时间的推移,形势可能会发生变化。几位科学家在NIH的博客上指出,一些生成式AI模型可以离线工作,并且不会违反保密原则。