ICLR 2026 的審稿系統(tǒng)正被 AI “幽靈”大規(guī)模滲透:第三方檢測顯示,7.6 萬份評審意見中 21% 完全由大模型一鍵生成,另有 35% 被 AI 不同程度潤色,純?nèi)祟愖珜懙谋壤皇?43%。這些“機器評審”平均更長、打分更高,卻頻頻出現(xiàn)“幻覺引用”或指責(zé)論文里根本不存在的數(shù)值錯誤,逼得作者集體在社交媒體吐槽。
面對信任崩塌,組委會發(fā)布“史上最嚴”封殺令:
- 投稿端:若論文大量使用 LLM 卻未聲明,直接 desk reject;
- 評審端:允許用 AI 輔助,但評審人對內(nèi)容負全責(zé),一旦出現(xiàn)虛假引用或“AI 廢話”,其本人投稿亦可能被拒;
- 舉報通道:作者可私信標記疑似 AI 評審,程序主席將在未來兩周內(nèi)集中排查并公開處理結(jié)果。
會議主席坦言,AI 領(lǐng)域的指數(shù)級擴張讓每位評審兩周內(nèi)需審 5 篇論文,負荷遠超以往,是“AI 代寫”泛濫的結(jié)構(gòu)性誘因。ICLR 2026 的這場“AI 評審危機”表明:當大模型成為評審者,學(xué)術(shù)共同體必須先用規(guī)則和檢測工具,把“幽靈選票”擋在門外,否則同行評審將淪為一場無人負責(zé)的自動化實驗。











