主要观点总结
本文报道了NeurIPS 2024论文评审结果引发争议的情况。网友们对评审过程提出质疑,指出一些评审人可能存在不合理评判、忽视论文实际贡献等行为。同时,有爆料称大模型也被用于论文评审,引发进一步讨论。文章还提及了NeurIPS顶会的一些其他信息,如评审员的构成和评分规则。
关键观点总结
关键观点1: NeurIPS 2024评审结果引发争议。
一些评审人被认为存在不合理评判、忽视论文实际贡献等行为,引发网友质疑和讨论。
关键观点2: 大模型也被用于论文评审。
有网友爆料称在NeurIPS 2024的评审中使用了大模型,至少有三篇评审意见明显是由ChatGPT等生成,引发进一步讨论。
关键观点3: NeurIPS顶会评审员的构成和评分规则。
NeurIPS顶会的评审员构成多样,包括正教授、副教授、助理教授、业界专业人士等。评分规则中,6分的含义被指出可能存在误解,引发讨论。
正文
点击以下链接进NeurIPS'24投稿交流群:
本文转载自新智元公众号
【新智元导读】
NeurIPS 2024评审结果一出,成了全网吐槽重灾区。
前段时间,NeurIPS 2024论文评审结果终于出炉了,网友们开始「拉群」吵成了一片。
「一些评审人严重贬低论文贡献,用不合理的标准评判,甚至忽视论文相对于其他工作的实际改进」。
他认为,这可能是竞品的作者,发现后做出不诚实的评审。
作为领域主席,我告诉作者:如果你遇到了这种情况,请联系领域主席(AC)。
作为一个作者,我想问:如何恰当地指出这种行为,并在合法批评和过度把关之间找到平衡点?
另有网友放出NeurIPS评审员经典评论:这个解决方案不是新的,并且已经被大量研究过了。
今年,是NeurIPS第38届年会,将于12月9日-15日在温哥华召开。
根据Paper Copilot收集的数据统计,截至目前,得分平均分布均在3-6分之间居多。
一位来自UT Austin的副教授,也是NeurIPS这届顶会的领域主席(AC)之一,阐述了自己所看到的现象。
他表示,在自己负责的一批论文中,已提交了48篇中的16篇评审。
到目前为止,我还没有看到一个正面评价,要么是评审员变得非常严格,要么是论文质量下降了?
今年,NeurIPS收到了很多「回收利用」的论文。
另一位AI研究员同样表示,要么就是论文质量下降,要么我就是大家口中讨厌的2号评审员。
另有评审员表示,「在我负责的这批62篇论文中,平均评分是4.3分,标准差为1。所以如果你最初得到低分,也不要灰心」!
可见,这次NeurIPS顶会论文作者都挺不好受,想要获取高分并不容易。
大模型参与评审
Reddit网友评论道,自己用一个月的时间审核6篇论文,当看到自己得到的是LLM的评价,真的很受伤。
还有人指出,在自己审阅的论文中,至少发现了3篇由大模型生成的评审意见,很可能还有更多,其中3篇明显是直接复制粘贴了ChatGPT输出,完全没有阅读论文。
这些评审都给了6分,Confidence为4,与其他所有人的评价完全不一致。
一个评审者混淆了我们方法的基线,另一个评审者混淆了基线的派生(正如我们的工作所批评的那样)和我们方法的派生。我怀疑一些评论是由LLM产生的。
对于NeurIPS的评审,6分的描述完全、彻底、奇怪地错误。