ICLR 2026 的审稿系统正被 AI “幽灵”大规模渗透:第三方检测显示,7.6 万份评审意见中 21% 完全由大模型一键生成,另有 35% 被 AI 不同程度润色,纯人类撰写的比例只剩 43%。这些“机器评审”平均更长、打分更高,却频频出现“幻觉引用”或指责论文里根本不存在的数值错误,逼得作者集体在社交媒体吐槽。
面对信任崩塌,组委会发布“史上最严”封杀令:
- 投稿端:若论文大量使用 LLM 却未声明,直接 desk reject;
- 评审端:允许用 AI 辅助,但评审人对内容负全责,一旦出现虚假引用或“AI 废话”,其本人投稿亦可能被拒;
- 举报通道:作者可私信标记疑似 AI 评审,程序主席将在未来两周内集中排查并公开处理结果。
会议主席坦言,AI 领域的指数级扩张让每位评审两周内需审 5 篇论文,负荷远超以往,是“AI 代写”泛滥的结构性诱因。ICLR 2026 的这场“AI 评审危机”表明:当大模型成为评审者,学术共同体必须先用规则和检测工具,把“幽灵选票”挡在门外,否则同行评审将沦为一场无人负责的自动化实验。




