世界上最大的学术出版商施普林格-自然(SpringerNature)已经澄清了其在科学论文中使用人工智能写作工具的政策。该公司本周宣布,像ChatGPT这样的软件在其数千种期刊上发表的论文中不能被记为作者身份。然而,斯普林格公司表示,他们对科学家使用人工智能来帮助写作或产生研究想法没有异议,只要作者适当披露这种贡献。
施普林格-自然的旗舰出版物《自然》的主编MagdalenaSkipper表示:"我们现在不得不澄清我们的立场:为我们的作者,为我们的编辑,也为我们自己。这种新一代的LLM工具--包括ChatGPT产生的内容真的在社区中爆发了,社区理所当然地对它们感到兴奋和玩味,但[也]以超出目前真正可以使用的方式来使用它们。"
ChatGPT和早期的大型语言模型(LLMs)已经在少量发表的论文、预印本和科学文章中被列为作者,然而,这些工具的贡献的性质和程度因个案而异。
在《肿瘤科学》杂志上发表的一篇观点文章中,ChatGPT被用来论证在帕斯卡尔赌注的背景下服用某种药物,并明确标注了人工智能生成的文本。但在一篇研究机器人通过美国医学执照考试(USMLE)能力的预印本论文中,对机器人贡献的唯一承认是一句话,称该程序"为本稿的几个部分的写作做出了贡献"。
在后者的预印本论文中没有提供进一步的细节,说明ChatGPT是如何或在哪里被用来生成文本的。然而,资助这项研究的公司--医疗保健创业公司AnsibleHealth的首席执行官认为,该机器人做出了重大贡献。AnsibleHealth首席执行官JackPo表示:"我们之所以把[ChatGPT]列为作者,是因为我们相信它实际上对论文的内容做出了智力上的贡献,而不仅仅是作为一个评估对象。"
科学界对将ChatGPT作为作者的论文的反应主要是负面的,社交媒体用户称USMLE案例中的决定是"荒谬的"、"愚蠢的"、"非常愚蠢的"。
反对给予人工智能作者资格的论点是,软件根本无法履行所需的职责,正如Skipper和NatureSpringer解释的那样。Skipper说:"当我们想到科学论文、研究论文的作者资格时,我们不只是想到写论文。有一些责任是超越出版的,当然,目前这些人工智能工具还不能承担这些责任。"软件不能对一份出版物进行有意义的问责,它不能为其工作主张知识产权,也不能与其他科学家和媒体通信以解释和回答关于其工作的问题。
如果在将人工智能作为作者的问题上有广泛的共识,那么在使用人工智能工具撰写论文的问题上就不那么明确了,即使有适当的致谢。这部分是由于这些工具的输出存在有据可查的问题。人工智能写作软件可以放大社会偏见,如性别歧视和种族主义,并有产生"合理的废话"的倾向--将不正确的信息作为事实呈现。
正是因为有这样的问题,一些组织已经禁止在特定范围内使用ChatGPT,包括学校、学院和依赖分享可靠信息的网站,如编程问答库StackOverflow。本月早些时候,一个关于机器学习的顶级学术会议禁止使用所有人工智能工具来撰写论文,尽管它确实说作者可以使用此类软件来"打磨"和"编辑"他们的作品。写作和编辑之间的界限到底在哪里是很棘手的,但对于《自然-斯普林格》来说,这种使用情况也是可以接受的。
"我们的政策非常明确:我们不禁止将其作为撰写论文的工具,"Skipper说,"最根本的是,要有明确的规定。关于一篇论文是如何组成的,以及使用什么[软件]。我们需要透明度,因为这正是科学应该如何完成和交流的核心所在。"
鉴于人工智能可用于广泛的应用,这一点尤其重要。人工智能工具不仅可以生成和转述文本,还可以迭代实验设计,或者用来碰撞思想,就像机器实验室伙伴一样。像SemanticScholar这样由人工智能驱动的软件可以用来搜索研究论文并总结其内容。Skipper指出,"另一个机会是使用人工智能写作工具来帮助那些英语不是其第一语言的研究人员。从这个角度来看,它可能是一种有用而过程中没有太大争议的工具。"
"在科学工作中禁止人工智能工具将是无济于事的,我认为我们可以有把握地说,直接禁止任何东西都是无效的。她说,相反,科学界--包括研究人员、出版商和会议组织者--需要走到一起,制定新的披露规范和安全护栏。作为一个社区,我们有责任关注积极的用途和潜力,然后规范和遏制潜在的滥用。我很乐观,我们可以做到这一点。"
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】