
ICLR 2026 学术会议正面临一场前所未有的挑战——AI技术大规模渗透其审稿系统,引发学术界的广泛关注和担忧。根据第三方机构最新检测报告显示,在ICLR 2026收到的7.6万份评审意见中,高达21%的评审完全由大型语言模型一键生成,另有35%的评审意见被AI不同程度地润色修改,真正由人类专家独立撰写的比例已锐减至43%。这一数据揭示了AI技术在学术评审领域应用的严峻现状。
这些由机器生成的”机器评审”呈现出明显的特征:平均篇幅比人类评审更长,给出的评分也普遍偏高,但内容质量参差不齐。更令人担忧的是,这些AI评审意见频繁出现”幻觉引用”现象,即引用不存在的文献或数据,甚至指责论文中根本不存在的数值错误。这些问题已导致众多论文作者在学术社交平台上集体发声,对评审质量表示强烈质疑。
面对信任危机,ICLR 2026组委会果断采取行动,发布了堪称”史上最严”的AI使用规范:在投稿端,任何未明确声明大量使用大型语言模型的论文将直接被Desk Reject;在评审端,虽然允许使用AI工具辅助评审,但评审人必须对最终意见负责,一旦被发现存在虚假引用或”AI废话”等质量问题,该评审人自己提交的论文也可能被拒;同时开通专门举报通道,作者可通过私信标记疑似AI评审,程序委员会将在未来两周内集中核查并公布处理结果。
ICLR 2026会议主席在回应时坦言,AI技术的指数级发展导致每位评审员在两周内需要审阅5篇论文,工作负荷远超传统标准,这构成了”AI代写”泛滥的结构性诱因。这场”AI评审危机”不仅暴露了技术滥用的问题,更引发了学术共同体关于同行评审制度未来的深刻思考。
ICLR 2026的这场风波表明,当大模型成为评审者时,学术共同体必须首先建立完善的规则和检测机制,将”幽灵选票”挡在门外。否则,同行评审制度可能沦为一场无人负责的自动化实验,最终损害学术研究的严肃性和可信度。这一事件为整个学术界敲响了警钟,提醒我们在拥抱AI技术的同时,必须保持清醒的头脑和审慎的态度。
