1. 首页 > 产业

ArXiv重拳出击:AI生成论文未审即投将被禁一年

Ai总结: ArXiv宣布新规,对提交未经审阅的AI生成内容论文的作者实施为期一年的投稿禁令。此举旨在遏制低质AI内容泛滥,维护科学出版的可信度。

ArXiv强化审查机制:未核查AI内容将触发一年禁投

开源预印本平台ArXiv正式推出新规定,针对存在明显未经人工审阅的生成式AI内容的论文提交行为,实施为期一年的投稿限制。该举措由计算机科学领域主席托马斯·迪特里希在周四公布,意在应对日益严重的低质量AI辅助研究对学术信任体系带来的挑战。

违规后果明确:拒稿与禁投并行,恢复需通过评审验证

根据修订后的投稿准则,若审核团队发现作者在提交前未对大语言模型生成内容进行实质性核查,并掌握确凿证据,相关论文将被直接拒收,同时作者将被禁止在接下来的一年内向ArXiv提交任何研究成果。禁期结束后,只有成功在经认可的同行评审期刊发表后续工作,方可重新获得投稿资格。

迪特里希强调,判定依据包括虚构参考文献、无逻辑关联的引用堆砌,以及直接复制粘贴大语言模型输出中出现的语义断裂或事实错误等内容。该政策并非全面禁止使用AI工具,而是强调研究者对成果负有最终责任,无论内容来源是否为自动化生成,均须确保其真实性、原创性与引用规范性,防范潜在剽窃、偏见传播及信息失真。

捍卫知识库公信力:应对生成式AI冲击的关键一步

作为计算机科学、数学与物理学等领域快速传播前沿成果的核心平台,ArXiv近年来面临大量缺乏人工监督的投稿激增问题。近期同行评审分析显示,生物医学类文献中伪造引文现象上升,可能与大语言模型的不当使用密切相关。

此次引入“首次违规即处罚”的执行机制,旨在强化平台知识库的可靠性。政策同时设立申诉通道,所有异常标记须经各领域负责人复核确认后方能生效,保障裁决的公正性与透明度。

推动学术范式转型:从工具辅助迈向责任共担

此项改革体现了学术界逐渐达成的共识:人工智能应作为研究过程中的支持手段,而非替代人工判断的核心环节。自康奈尔大学移交管理权以来,ArXiv已转型为独立非营利实体,拥有更强的自主决策能力,使其能够更敏捷地响应技术变革带来的治理挑战。

目前平台已采取多项措施抑制不当投稿,例如要求首次发布者提供学术机构背书。对于研究人员而言,核心信号已十分清晰:允许利用AI进行语言润色或初稿起草,但严禁在未完成事实校验与引证核实的情况下提交成果。这与主流学术出版对问责制的根本要求保持一致。

结语:构建可信科研生态的制度化尝试

在人工智能深度嵌入科研流程的背景下,ArXiv的新规标志着维护预印本系统完整性的关键转折点。通过对未审阅AI产出实施惩罚性措施,平台重申了“研究者须为成果负责”的基本原则。随着技术演进,此类基于责任追溯的监管框架极有可能成为未来学术出版的标准配置。

常见疑问解析:政策边界与申诉机制

问:是否全面禁止在写作中使用AI?答:否。允许使用AI辅助构思或语言优化,但禁止提交含有明显未经核查的生成内容(如虚构文献、逻辑混乱段落)的稿件。

问:如何界定“滥用AI的确凿证据”?答:主要指虚构参考文献、引用不存在的研究源,或直接粘贴大语言模型生成的错误文本等可追溯的疏漏痕迹。

问:能否对禁令提出异议?答:可以。政策设有正式申诉程序,所有问题须经审核员标记并由领域主席确认后进入裁决流程,作者有权就此提出反驳与补充材料。

免责声明:本文所有内容均来源于第三方平台,所有内容不作任何类型的保证,不构成任何投资、不对任何因使用本网站信息而导致的任何损失负责。您需谨慎使用相关数据及内容,并自行承担所带来的一切风险。