生成式人工智能在学术界引发诚信争议
根据《自然》杂志去年对全球1600名研究人员的调查,68%的受访者认为生成式人工智能工具将使抄袭变得更容易且更难检测。
文章指出,生成式人工智能工具如ChatGPT基于大语言模型,通过学习大量已发表的文本生成新内容。这种方式可能导致类似抄袭的情况,例如研究人员将生成式人工智能工具生成的文本当作自己的作品,或者生成的文本与某人的作品非常相似却未注明来源。
文章提出一个核心问题:使用完全由机器(而不是人类)编写的未注明来源的内容是否算抄袭。
一些研究机构将未经授权使用生成式人工智能工具定义为“未经授权内容生成”,而非传统意义上的抄袭。德国柏林应用科技大学的德博拉·韦伯-伍尔夫教授认为,传统意义上的抄袭通常指可归因于另一个具体作者的内容。