GPT-4竟成Nature审稿人?斯坦福清华校友近5000篇论文实测,超50%结果和人类评审一致
新智元报道
新智元报道
【新智元导读】斯坦福学者发现,GPT-4对于Nature、ICLR的论文给出的审稿意见,竟然和人类审稿人有超过50%的相似性。看来让大模型来帮我们审论文,并不是天方夜谭啊。
GPT-4,已经成功晋身审稿人!
最近,来自斯坦福大学等机构的研究者把数千篇来自Nature、ICLR等的顶会文章丢给了GPT-4,让它生成评审意见、修改建议,然后和人类审稿人给出的意见相比较。
论文地址:https://arxiv.org/abs/2310.01783
结果,GPT-4不仅完美胜任了这项工作,甚至比人类做得还好!
在它给出的意见中,超50%和至少一名人类审稿人一致。
并且超过82.4%的作者表示,GPT-4给出的意见相当有帮助。
论文作者James Zou总结道:我们仍然需要高质量的人工反馈,但LLM可以帮助作者在正式的同行评审之前,改进自己的论文初稿。
GPT-4给你的意见,可能比人类都好
所以,怎样让LLM给你审稿呢?
非常简单,只要从论文PDF中提取出文本,喂给GPT-4,它就立刻生成反馈了。
具体来说,我们要对一个PDF提取、解析论文的标题、摘要、图形、表格标题、主要文本。
然后告诉GPT-4,你需要遵循业内顶尖的期刊会议的审稿反馈形式,包括四个部分——成果是否重要、是否新颖,论文被接受的理由,论文被拒的理由,改进建议。
从下图可以看到,GPT-4给出了非常有建设性的意见,反馈包括四部分。
这篇论文有什么缺陷?
GPT-4一针见血地指出:虽然论文提及了模态差距现象,但并没有提出缩小差距的方法,也没有证明这样做的好处。
研究者对3,096篇Nature系列论文和1,709篇ICLR论文的人类反馈和LLM反馈进行了对比。
两阶段评论匹配管线会分别提取出LLM和人类反馈中的评论点,然后执行语义文本匹配,来匹配LLM和人类反馈之间的共同评论点。
下图就是一个具体的两阶段评论匹配管线。
对于每条配对评论,相似度评级都会给出理由。
研究者将相似度阈值设为7,弱匹配的评论就会被过滤掉。
在Nature和ICLR两个数据集中,论文和人类评论的平均token长度分别如下。
这项研究有美国110个AI机构和计算生物学机构的308名研究员参与。
每位研究者都上传了自己撰写的论文,看了LLM的反馈,然后填写了自己对于LLM反馈的评价和感受。
结果显示,研究者普遍认为,跟人类评审的结果相比,LLM生成的反馈与之有很大的重叠,通常很有帮助。
如果说有什么缺点的话,就是在具体性上稍差一些。
如下图所示,对于提交给Nature的论文,大约三分之一(30.85%)的GPT-4意见与人类审稿人意见重合。
在ICLR论文中,超过三分之一(39.23%)的GPT-4意见与人类审稿人意见重合。
LLM与人类审稿人,偏重略有不同
以下是对同一篇ICLR论文的LLM评论和人类评论,可以看出,LLM的眼光很毒辣,评论很一针见血。
比如与先前研究的对比上,人类审稿员表示:
比较是有缺陷的。尤其是GNN方法的标签一致性和中心一致性损失都没有考虑到。更公平的比较应该是使用两种损失都考虑到的GNN方法。
而GPT-4的评价是:
论文缺乏与现有方法的彻底的比较。虽然作者对于一些方法比较了基线,但还需要更全面的比较。
在理论可靠性上,人类审稿人给出了这样的意见——
恕我直言,理论的证明太琐碎了。最终结论是如果相似度合适,预测的动作就是准确的。由于模型正在学习正确的相似度,也就相当于说模型h如果经过良好的训练,输出就是正确的。这是显然的事。
而GPT-4的意见是:
作者应该提供更多理论分析,来比较信息传递和一致性约束之间的联系,这样能让读者更易于理解。
在研究的可复现性上,人类审稿员希望论文能够提供代码,好让其他读者也能复现实验。
GPT-4对此也给出了相同意见:「作者应该提供有关实验设置的更多详细信息,来确保研究的可复现性。」
参与调查的用户普遍认为,LLM的反馈可以帮助提高评审的准确性,减少人类评审员的工作量。而且大多数用户打算再次使用LLM反馈系统。
有趣的是,相比人类审稿人,LLM审稿员有自己独有的特点。
比如,它提及影响因子的频率,是人类审稿人的7.27倍。
人类审稿人会更可能要求补充额外的消融实验ablation experiments,而LLM则会注重于要求在更多的数据集上进行实验。
网友们纷纷表示:这项工作很了不起!
也有人说,其实我早就这么干了,我一直在用各种LLM帮我总结和改进论文。
有人问,所以GPT评审会不会为了迎合如今的同行评审标准,让自己有偏见呢?
也有人提出,量化GPT和人类评审意见的重合,这个指标有用吗?
要知道,在理想情况下,审稿人不应该有太多重合意见,选择他们的原意是让他们提供不同的观点。
不过至少,这项研究让我们知道,LLM确实可以用作改论文神器了。
三步,让LLM给你审稿
1. 创建一个PDF解析服务器并在后台运行:
conda env create -f conda_environment.yml
conda activate ScienceBeam
python -m sciencebeam_parser.service.server --port=8080 # Make sure this is running in the background
2. 创建并运行LLM反馈服务器:
conda create -n llm python=3.10
conda activate llm
pip install -r requirements.txt
cat YOUR_OPENAI_API_KEY > key.txt # Replace YOUR_OPENAI_API_KEY with your OpenAI API key starting with "sk-"
python main.py
3. 打开网页浏览器并上传你的论文:
打开http://0.0.0.0:7799并上传论文,就可以在大约120秒内得到LLM生成的反馈。
作者介绍
Weixin Liang(梁伟欣)
Yuhui Zhang
Hancheng Cao(曹瀚成)
微信扫码关注该文公众号作者