离了大谱!ICLR 2026 审稿竟有21%是AI“代笔”,学术圈也“塌房”了?

温故智新AIGC实验室

TL;DR:

哎呀妈呀,ICLR 2026 审稿现场竟然有21%的“AI枪手”代笔!这年头连学术圈都开始“内卷”到机器上岗了,官方也急了,赶紧出来“打补丁”,看这瓜怎么吃!

最近这几天,学术圈的瓜田又结了个“大果子”,而且还是个离了大谱的惊天巨瓜!人工智能顶会 ICLR 2026(全称:International Conference on Learning Representations),这可是AI领域的“奥斯卡”级别大会,结果还没正式开幕,就先被自家审稿环节爆了个大料:竟然有21%的审稿意见是AI纯度100%的“代笔”!更让人“裂开”的是,完全由人类亲笔写的审稿意见,只占了可怜的43%!这波操作,直接让整个学术界都惊呼:“好家伙,我直接好家伙!”

扒一扒:谁动了我的审稿意见?AI“替身”大揭秘!

这事儿是怎么被扒出来的呢?还得感谢一家名叫**潘格拉姆实验室(Pangram Labs)**的科技公司,这简直就是AI界的“鉴黄师”,专门检测AI生成内容的。他们对ICLR 2026近7.6万篇论文的审稿意见进行了地毯式扫描,结果发现这数据简直是“触目惊心”:

  • 21%:完全由AI生成。
  • 4%:重度由AI编辑。
  • 9%:中度由AI编辑。
  • 22%:轻度由AI编辑。
  • 43%:完全由人类(审稿人)撰写。

这数字一出,网友们都炸锅了,纷纷表示:“**我这辛辛苦苦写的论文,结果审我的都是AI?**感情我的学术生涯全靠AI的‘心情’了呗?”

更有意思的是,Pangram Labs还发现了一些“AI审稿”的神秘规律:

  1. AI审稿意见篇幅更长:比人类写的足足长了26%!AI是不是觉得写得多就显得专业?
  2. AI审稿更可能给出高分:平均得分高出0.3分!这是“AI彩虹屁”模式启动了吗?

这波操作,不禁让人联想到是不是有些审稿人,面对堆积如山的论文,直接“请君入瓮”,把任务甩给大模型了?毕竟AI“打工人”不仅不抱怨,还写得又长又“好”(分数高),这简直是“摸鱼”的最佳拍档啊!

Pangram Labs的检测技术也颇有看头。他们用Mistral-OCR把论文PDF变成干净文本,然后用自家的生产模型,针对审稿意见这种短文本,更是祭出了EditLens这个“杀手锏”——一个全新模型,专门量化文本中AI辅助的程度。而且,他们还用ICLR 2022的数据验证了EditLens的准确性,结果是:完全由AI生成的评审,假阳性率(误伤率)为零1 这就意味着,被EditLens“实锤”的AI代笔,基本就是“板上钉钉”了。

这波操作,是“学术加速”还是“诚信滑坡”?

这事儿要放在大背景下看,就更耐人寻味了。其实,ICLR 2026这一届本身就有点“多事之秋”。有Google搜索资料显示,本届会议投稿量暴增近2万篇,结果平均分却从去年的5.12直接**“跳水”到4.2**!2 审稿人早就抱怨论文质量“精神病”般低下,甚至怀疑有AI生成的内容混入。

更早之前,ICLR和CVPR(另一大计算机视觉顶会)就发布过史上最严新规:明确禁止在论文写作和审稿过程中使用LLM(大语言模型)辅助,不报直接拒稿!3 没想到,“道高一尺,魔高一丈”,禁令还没捂热乎,AI替身就直接在审稿环节“C位出道”了。

有网友爆料,自己一篇论文在收到另外两个低分评审时被打了回去,而这两个评审正好被标记为完全由AI生成。这不就是**“躺着也中枪”**的真实写照吗?要是辛辛苦苦熬夜写的论文,因为AI审稿人的“不走心”而痛失机会,那真是“冤枉死了”!

官方急了:ICLR“打补丁”,这仗怎么打?

眼看“AI代笔”的风波越闹越大,ICLR 2026官方也坐不住了。就在今天早上,他们发布了紧急回应,表示:

“我们已经注意到低质量的评审以及由大语言模型生成的评审,目前正在讨论应采取的适当措施。就目前而言,收到质量非常差或由 LLM 生成评审的作者,应将其标注并反馈给所在领域主席(AC)。我们感谢社区在报告这些问题上的努力!” 1

这话翻译过来就是:“知道了知道了,别骂了别骂了,我们正在开会商量怎么处理,各位作者如果被AI审稿坑了,赶紧找你们的AC‘告状’去!

社区里的大佬们也纷纷支招,有建议直接“一键清零”:移除不良评审,并自动使这些不良审稿人被认定为“未履行评审职责”,随后自动拒绝他们提交的论文。这招够狠,也够解气!

现在,Pangram Labs更是把这个“AI审稿探测器”的链接都放出来了:https://iclr.pangram.com/submissions,投稿的作者们赶紧去查查,看看自己的论文有没有“被AI翻牌子”!

咱就是说,这“AI代笔”到底谁的锅?

这次ICLR的“AI审稿门”,无疑给整个学术界敲响了警钟。这到底是审稿人“太忙太懒”把AI当成了万能胶,还是AI技术本身就自带“摸鱼光环”?又或者是,在投稿量激增、审稿压力山大的背景下,AI成了某种“潘多拉的盒子”?

长远来看,AI辅助学术评审,也许是未来不可避免的趋势。但关键在于,如何界定“辅助”与“代笔”的边界,如何确保AI评审的公平性、透明度和高标准,避免让学术诚信“集体滑坡”?这不仅仅是ICLR一家会议要思考的问题,更是整个科学共同体在AI伦理与治理道路上,必须迈过去的“坎儿”。

未来的学术江湖,或许会变成一场“人机大战”与“人机协作”并存的复杂局面。但愿我们能找到一个平衡点,让AI真正成为学术研究的加速器,而不是诚信的“绊脚石”。

引用


  1. 离了大谱,21%的ICLR 2026审稿意见竟是AI生成的?官方回应来了 · 机器之心(2025/11/17)· 检索日期2025/11/17 ↩︎ ↩︎

  2. ICLR 2026出分,审稿员怒喷“精神病”,DeepMind研究员教你绝地求生 · 36kr.com(2025/11/17)· 检索日期2025/11/17 ↩︎

  3. ICLR 2026史上最严新规:论文用LLM不报,直接拒稿! - 智源社区(2025/11/17)· 检索日期2025/11/17 ↩︎