0
学术圈苦AI垃圾久矣。
假引用、未编辑的提示词输出、毫无意义的图表——这些AI生成的"学术废料"正源源不断渗入同行评审期刊。更麻烦的是,造假者往往毫发无损。现在,全球最大的预印本平台之一决定从源头掐断这股歪风。
arXiv物理学和天文学板块的负责人Thomas Dietterich在社交媒体上宣布新规:提交不当AI生成内容的作者,将被禁稿一年。更狠的是,解禁后该作者的所有未来投稿都必须先通过同行评审,arXiv才会托管。
Dietterich的身份让这份声明分量十足。他是俄勒冈州立大学荣休教授,同时担任arXiv编委会成员和审核团队职务。不过arXiv官方领导层尚未回应置评请求,最终政策细节仍以平台正式公告为准。
这项禁令直接援引arXiv现有的审核标准。根据规定,投稿必须在形式上符合学术规范,包括"恰当且精心准备的章节、图表、表格、参考文献等",且要求"总体审慎、准备周全"。AI生成的幻觉内容显然踩了红线。
预印本平台本是学术交流的加速器,让研究者绕过冗长的期刊审稿流程快速分享成果。但当AI能以秒为单位批量生产看似专业的学术垃圾时,这种开放模式就成了漏洞。arXiv的强硬姿态传递了一个信号:效率不能以牺牲学术诚信为代价。
值得注意的是,这是平台层面首次明确将AI生成内容纳入处罚框架。此前学界对AI论文的抵制多停留在期刊端,比如要求披露AI使用、拒绝纯AI生成的综述等。把审核关口前移到预印本阶段,意味着造假者的操作空间被大幅压缩。
一年禁稿期加终身预审的标签,对学术生涯的杀伤力不言而喻。尤其在物理学和天文学领域,arXiv几乎是研究者日常呼吸的空气——错过一年的首发窗口,可能意味着想法被抢发、资助申请落空、教职评选掉队。
但执行层面的挑战同样真实。如何界定"不当AI生成内容"?是检测工具判定,还是人工审核发现?误判的申诉机制如何设计?这些细节将决定新规是精准打击还是误伤一片。Dietterich的帖子里没提技术方案,只强调了处罚结果。
更深的问题在于,当AI工具本身越来越像"合著者",学术写作的红线到底画在哪里?用Grammarly改语法显然没事,让ChatGPT生成整段讨论可能被禁,中间的灰色地带 vast。arXiv的强硬立场或许能吓退明目张胆的投机者,却未必能回答这个边界问题。
其他预印本平台会跟进吗?bioRxiv、medRxiv、SSRN各自守着不同学科,面对的压力不尽相同。但arXiv作为老牌平台的示范效应不容小觑——它的动作往往被视作学术基础设施的风向标。
对普通研究者来说,最务实的提醒或许是:在点击提交前,再检查一遍那张图表是不是AI画的,那个引用是不是AI编的。一年的代价,不值得赌。