人工智能(AI)生成的科研成果正引发学界对“思想抄袭”的激烈争论。
《自然》杂志日前一则报道称,部分研究人员发现,一些标注为大型语言模型生成的论文,虽未直接复制文字,却存在挪用他人研究方法或核心观点且不标注出处的情况,即“抄观点不抄字”。
但对这种“思想抄袭”或“思想挪用”的指控,有学者及AI研发团队予以否认。
图片来源:AI生成
“思想挪用”案例频引争议
今年1月,韩国高等科学技术研究院研究员朴炳俊收到印度班加罗尔科学研究所“揭发团队”的邮件,被告知一款名为“The AI Scientist”的工具生成的未正式发表手稿,疑似使用了他论文中的研究方法,却并未署名。“The AI Scientist”由东京Sakana AI公司于2024年推出,是计算机科学领域全自动科研工具的代表,能通过大型语言模型生成思路、自主编写运行代码,并撰写研究论文,且会明确标注为“AI生成”。
朴炳俊核查后发现,该AI手稿虽提出了新架构,与他的论文主题不同,但两篇论文的核心方法高度相似。
发现这一问题的印度“揭发团队”指出,类似情况并非个例。他们在今年2月发表的研究中提到,经外部专家评估,多个AI生成手稿存在未直接复制文字,却挪用他人观点且不署名的现象。这些由大型语言模型生成的研究观点表面看似新颖,实则是“巧妙地抄袭”,其原创性难以验证。
此外,“揭发团队”还发现,Sakana AI今年3月宣布的、首篇通过国际学习表征会议研讨会同行评审的全AI生成论文,疑似挪用了2015年发表的一项研究中的核心成果,且未标引用,同时,其还借鉴了另一篇2015年的未署名手稿。专家评估认为,这篇AI论文与2015年的研究相似性达到了5级,即具有极高的相似性。
为进一步验证,“揭发团队”选取了美国斯坦福大学团队2024年发布的4份AI生成研究方案、Sakana AI的10份AI手稿,以及与Sakana AI使用相同方法生成的36份新方案,邀请13位领域专家按“5级相似度量表”评估(5级为方法完全对应,4级为融合2—3项前人成果)。结果显示,24%的AI生成作品达到4—5级相似度。
如何定义“抄袭”仍存分歧
针对上述指控,“The AI Scientist”研发团队予以否认,称“抄袭指控不实,毫无根据且应被无视”。团队表示,被质疑的AI手稿与前人研究假设不同、应用领域各异,即便方法存在部分关联,也只是“未引用相关文献”,这在人类研究者中也属常见现象,且团队已承认工具存在引用不足问题,但强调AI生成成果并非抄袭。
学界对“是否构成抄袭”的判断也存在分歧。美国佐治亚理工学院机器学习研究员本·胡佛认为,朴炳俊提及的AI论文与他本人的研究相似度仅为3级,“远不足以构成抄袭”。韩国高等科学技术研究院研究生白真宥则指出,新颖性本身就具有主观性,人类评审在学术会议中也常就何为原创争论不休。
朴炳俊本人虽认为其研究与AI论文的方法相似度达5级,但也表示“这未必符合法律或伦理层面的抄袭定义”。
柏林应用科学大学专家德博拉·韦伯-伍尔夫指出,争议根源在于“抄袭”定义的认知差异:部分计算机科学家认为抄袭需“主观故意欺诈”,但她主张“意图不应作为判断标准”,因为AI没有主观意识,且现有AI系统无法追溯观点来源。她引用国际学术诚信中心前主任泰迪·菲什曼的定义:“未恰当标注他人可识别的观点或成果,且存在原创性预期时,即构成抄袭”。
现有学术体系饱受冲击
争议背后,是AI科研对现有学术体系的深层挑战。德国锡根大学机器学习专家乔拉恩·比尔指出,计算机科学等领域每年论文数量激增,研究者本就难以验证自身观点的新颖性;而大型语言模型通过重组训练数据生成观点的特性,会加剧学术信用流失,因为AI天然倾向于借鉴前人成果。
更关键的是,“思想抄袭”的验证尚无有效解决方案。韦伯-伍尔夫坦言,目前没有统一方法能证明“思想抄袭”与“文字抄袭”不同,观点挪用难以量化。新加坡南洋理工大学AI研究员刘阳也表示,现有技术可检测句子语义相似度,但“观点或概念层面的相似度检测研究极少”。
研究测试显示,商业抄袭检测工具Turnitin未能识别出专家判定的AI论文来源文献,学术搜索大型语言模型工具OpenScholar仅识别出1篇。
“The AI Scientist”虽会通过“大型语言模型生成关键词+语义学者搜索引擎+大型语言模型评估”的流程验证原创性,但比尔认为,该过程过于简化,因为关键词难以完整概括观点,搜索引擎可能遗漏关键文献,无法媲美领域专家的判断。
AI使用标准亟待明晰
面对争议,学界普遍认为需规范AI科研工具的使用。
新加坡国立大学计算机科学家靳民彦表示,AI工具终将普及,关键是找到正确的使用方式。“The AI Scientist”研发团队则表示,其成果仅是“概念验证”,旨在证明“AI生成科研论文已具备可行性”,未来这类系统有望实现“重大原创发现”。团队同时承认AI生成论文存在质量问题,建议当前阶段仅将这一工具用于“启发思路”,研究者需自行验证其输出内容的可靠性。
目前,关于AI生成科研成果的学术规范尚未成形,如何平衡AI的科研辅助价值与学术诚信,仍是学界亟待解决的课题。(记者 张梦然 实习生 周思彤)