ICLR 2026 审稿系统遭 AI 大规模渗透:检测显示 7.6 万份评审中,21% 完全由大模型生成,35% 被 AI 润色,仅 43% 为纯人类撰写。机器评审更长、打分虚高,却频现“幻觉引用”等错误,引发作者集体抗议。组委会紧急发布严格禁令,拟从投稿端封杀 AI 生成内容以重建信任。
学术同行评审是科学进步的基石,但随着投稿数量的激增,这一系统正面临巨大压力。为了缓解这一问题,人们开始尝试利用大型语言模型(LLM)进行辅助审稿。然而,一项最新研究揭示了LLM审稿中存在的严重风险,表明我们可能还未做好广泛采用LLM审稿的准备。上海交通大学的研究团队通过实验发现,作者可以通过在论文中嵌入细微的操控性内容来影响LLM的评审结果。这种操控可以是显性的,例如在论文末尾添加不易察觉的白色小字,指示LLM强调论文的优点并淡化缺点。实验表明,这种
Sakana AI公司宣布推出“AI科学家”系统,这是一个全面的AI平台,能够独立进行科研工作,从概念生成、代码编写、实验执行、结果总结到论文撰写,甚至包括同行评审,其设计旨在模仿人类科学研究过程。该系统在机器学习领域多个子领域(如扩散模型、变换器和深度理解)中展现了创新贡献,并展示了计算效率高、成本低廉的特点(每篇论文成本约15美元)。尽管初版系统可能存在瑕疵,其潜力和成本效益表明有潜力加速科学研究进程,使研究工作更加民主化。
["同行评审发现 2023-2024 年顶级 AI 会议中,ChatGPT 等模型生成内容高达 17%。","重度 AI 内容审稿通常出现在截止日期附近,评论缺少学术引用和审稿人参与。","研究引发问题,是否披露 AI 协助审稿、如何激励良好实践、保持知识多样性。","人工智能迅速增长对科学质量控制产生影响,需要重新考虑混合知识工作的功劳。"]
Openai
$7.7
Input tokens/M
$30.8
Output tokens/M
200
Context Length
Anthropic
$105
$525
Google
$8.75
$70
1k
$21
$84
128
Chatglm
-
01-ai
$3.5
$10.5
32
Baichuan
4