AI撰写论文,AI审稿的时代到来——科学出版是“进化”还是“崩溃”:科学的“信用”将如何改变?

AI撰写论文,AI审稿的时代到来——科学出版是“进化”还是“崩溃”:科学的“信用”将如何改变?

1. 研究的“入口”中AI的介入

关于生成AI的话题,往往集中在研究本身(假设生成和实验设计)。然而,实际上,AI在支撑科学信任的“入口”——论文撰写、审稿、编辑和出版这些过程中的影响,可能会逐渐显现。


Undark的文章从“撰写”和“审稿”两个方面描绘了这种变化。作为编辑处理投稿稿件的AI伦理研究者Mohammad Hosseini表示,他见过一定数量明显由AI生成的不自然稿件。过多使用破折号、逻辑跳跃、文章不连贯等,现场有“气味”。然而,AI的质量不断提高,这种嗅觉可能有一天会失效——这种危机感是文章的出发点。


2. 增加“能写的人”:作为写作支持的AI

生成AI首先发挥价值的地方是文献摘要、草稿撰写、翻译、英文润色等“文章工作”。特别是对于非英语使用者来说,英语的壁垒可能在研究成果的发布中造成不利。AI可以缩小这种差距,帮助更多研究者站在国际期刊的舞台上,文章介绍道。


实际上,研究者的使用已经在统计中显现。Nature对约5,000名国际研究者进行的调查显示,一定比例的人使用AI进行草稿撰写、翻译、摘要和编辑。在另一项大规模分析中,针对生物医学领域的大量摘要,基于AI来源的表达增加的线索,推测到2024年,相当数量可能经过语言模型加工。


这里重要的是,与其说“AI撰写论文”本身,不如说是“文章工作的成本”降低,从而增加研究的输出。写作速度提高,投稿增加,编辑部收到的稿件如雪崩般涌来。质量与数量的平衡将变得更加困难。


3. 幻觉、剽窃、捏造:便利背后放大的危险

AI的弱点众所周知。幻觉(看似合理的谎言)、引用错误、提供不存在的依据。文章进一步强调了学术出版特有的严重问题——剽窃和“论文工厂”的温床化。AI可以从零开始快速生成格式整齐的文章,从而降低不正当行为的门槛。数据捏造在AI出现之前就存在,但AI赋予了“量产”和“速度”。


而可怕的是,不正当行为并不一定仅因恶意而发生。研究者可能以为使用“方便的辅助轮”,结果却混入误信息或剽窃。输出越自然,读者和作者越容易被“看似合理”所迷惑。


4. 将AI引入审稿的诱惑:人手不足与公平性的期待

接下来讨论的中心是审稿。据指出,自疫情以来,审稿人短缺问题恶化,编辑者面临请求被拒、没有回复的困难。因此,产生了“如果使用AI,审稿人的范围可能会扩大”的期待。文章中,JAMA+AI的编辑长Roy Perlis提到,AI可能减轻研究者的负担,增加参与审稿的人数。


此外,还有AI审稿“中立”的幻想。如果能与特定学派、人脉、假设的先入之见保持距离,反而可能提高公平性。然而,文章很快指出,AI是通过过去的出版数据进行学习的,可能再生产历史上的偏见(著名研究者、著名机构、中心国家的优势)。实际上,多项研究表明,AI倾向于对高地位机构或著名作者给予有利评价。


这里浮现的是,“AI不是中立的”,而是“AI是平均的过去”这一事实。如果过去的出版文化存在偏见,AI审稿可能会“自动化”这种偏见。


5. 规则整备:许可、禁止、公开的现实路线

那么出版社和学会期刊是如何应对的呢?文章指出,许多主要期刊提供了生成AI使用的指导方针,禁止导致研究不正当行为的使用,同时有条件地承认语言编辑和分析辅助等。PLOS要求明确使用的工具名称、使用方法、输出的妥当性评估和影响范围。


关于审稿,保密是最大的问题。如果将未公开的稿件输入外部AI服务,会引发信息泄露的担忧。因此,有些大出版社要求审稿人不要将未公开的稿件上传到生成AI,文章指出。


此外,不承认AI为共同作者,不允许AI生成图像或AI改动图像等界限也在扩大。归根结底,责任的所在必须固定在人类身上,否则科学的可验证性将受到动摇。文章中也显示了“最终,负责论文中每一个字和数字的是人类作者”这一强烈原则。


6. 检测并非万能:猫捉老鼠的游戏开始

“只要检测AI生成就好”这一想法很有吸引力,但文章对此保持冷静。检测工具有其局限性,使用者和被使用者都在进化。文体的习惯消失,逻辑整齐,引用也变得“看似合理”,辨别将变得困难。而且,过于依赖检测,可能导致非英语使用者仅为润色而使用AI也被怀疑,产生另一种不公平。


因此,学术出版无法在AI的使用上“完全禁止”或“全面容忍”。现实的解决方案是结合(1)透明性(公开)、(2)保密(输入限制)、(3)人类监督(责任固定)、(4)不正当行为对策(编辑和审稿过程强化)的“运用”。


7. SNS的反应:乐观与悲观同时加速

 

不仅是对这篇文章的提及,在SNS上,对“AI×学术出版”整体的反应明显两极化。


悲观方的论点很简单。“出版尚未准备好”“不正当行为会增加”“信任会被破坏”。在追踪撤回和研究不正当行为的社区中,对AI引发的“垃圾论文洪水”的警惕很强,出版基础设施无法跟上这一语调反复出现。


乐观方的论点是,“可以创建新的工作流程”“审稿和出版有重新设计的空间”。例如,arXiv的相关人士在生成AI时代,科学出版有机会引入新工具和方法的发言中,讨论以变化为前提进行。


作为现实路线,更多的是关于“允许的范围和应公开什么”的界限问题。在介绍Nature调查的帖子中,可以看到关于AI使用可否的研究者社区的温差和条件论,显示出“不是黑白,而是灰色的运用”被要求。


总结SNS的氛围如下。

  • 不否认便利性(特别是文章、摘要、翻译)

  • 但对不正当行为、捏造、垃圾增殖有强烈不安

  • 解决方案是“规则+监督+透明性”而非“禁止”
    正如Undark的文章所描绘的论点,被用不同的语言重复。

8. 未来的焦点:“谁对什么负责”

AI改变科学出版——这一看法本身已成既定路线。问题在于“变化的方式”。


如果AI加速论文的量产和不正当行为,使审稿形式化,科学的信任将被消磨。反之,若AI缩小语言差距,补充审稿人不足,优化编辑流程,科学将变得更加开放。


这一分歧点不是技术,而是治理。公开、保密、责任固定,以及人类的眼睛。正如文章最后所示,AI正成为重新审视出版过程各个阶段的压力。因此,我们应讨论的不是“是否引入AI”,而是“设计是否让人类能够承担责任”。



出处URL