9月11日,微新创想(idea2003.com)报道:上个月,一篇发表在Physica Scripta期刊上的论文因计算机科学家Guillaume Cabanac的发现而陷入争议漩涡。这位计算机科学家和诚信调查员在审阅论文时,意外发现其中包含了ChatGPT查询短语“Regenerate Response”,这一明显不属于学术论文内容的痕迹,让他敏锐地察觉到论文可能存在学术不端行为。
经过深入调查,论文作者最终坦白承认,他们确实使用ChatGPT聊天机器人完成了文章的起草工作。这一事件不仅成为生成式AI对学术界影响的最新案例,更引发了学术界对学术伦理的深刻反思。IOP Publishing的同行评审和研究诚信主管Kim Eggleton明确指出:“这种行为严重违反了我们的伦理政策。”
Guillaume Cabanac自2015年起便致力于揭露那些未公开声明使用人工智能技术的已发表论文。随着AI技术日趋成熟,计算机生成的文本越来越逼真,难以辨别真伪,使得他的工作变得更加困难。然而,这也更加坚定了他揭露学术不端的决心。凭借敏锐的洞察力,Cabanac已经成功帮助揭示了数百份由AI生成的手稿。
在许多情况下,一些作者会刻意掩盖使用AI技术的痕迹,但Cabanac总能从中发现蛛丝马迹。例如,他最近还揭发了另一篇发表在《Resources Policy》期刊上的论文,其中包含了多个明显的AI生成痕迹。该期刊对此表示高度关注,并已启动调查程序。
值得注意的是,AI模型在处理复杂信息时常常出现混淆事实的情况,甚至可能因为理解能力不足而无法准确复述科学论文中的数学和技术术语。在《Resources Policy》的研究中,就出现了毫无意义的方程式,这正是AI技术局限性的体现。此外,ChatGPT还可能凭空创造虚假主张,这种现象被一些人宽容地称为“幻觉”。
一个丹麦教授的发现进一步印证了AI生成内容的不可靠性。他最近发现一篇预印论文部分由AI生成,因为其中引用了一篇根本不存在的论文。考虑到同行评审过程的严格性,AI生成的伪造论文竟能顺利通过审查,这一现象实在令人震惊。
这一系列事件不仅揭示了生成式AI在学术界带来的挑战,也引发了人们对学术伦理和未来发展的深入思考。如何平衡技术创新与学术诚信,将成为学术界必须面对的重要课题。
