Redian新闻
>
粗心学者忘删ChatGPT痕迹惨遭撤稿!Nature痛呼AI论文太泛滥,学术圈已被攻陷

粗心学者忘删ChatGPT痕迹惨遭撤稿!Nature痛呼AI论文太泛滥,学术圈已被攻陷

公众号新闻



  新智元报道  

编辑:Aeneas 好困
【新智元导读】最近,一篇数学论文被发现ChatGPT痕迹,惨遭撤稿。打假人痛心疾呼:我们的学术圈,早已被AI写的论文吞没了!

科研圈,快被ChatGPT生成的论文吞没了!

8月9日,一篇收录于<Physica Scripta>期刊上的论文,提出了一种复杂数学方程的全新解决方案。

论文地址:https://iopscience.iop.org/article/10.1088/1402-4896/aceb40/meta

本来是皆大欢喜的事,直到科学打假人Guillaume Cabanac在论文的第三页,发现了一处可疑的短语——「重新生成回复」(Regenerate Response)。

经常用ChatGPT的小伙伴,看到这个短语,都会会心一笑。

「Regenerate Response」是网页版ChatGPT上的一个按钮,现在更新成了「Regenerate」。

Cabanac火速把这一发现po到了PubPeer上,这也意味着,事情闹大的话,这篇论文基本就被判死刑了。

果然,论文作者不得不承认,在写作论文稿件时确实使用了ChatGPT。

论文的通讯作者为Abdullahi Yusuf,他有两个工作单位,一个是伊斯坦布尔的Biruni University,一个是贝鲁特的Lebanese American University。

这篇论文在5月被提交,7月发出了修订版,在两个月的同行评审期间,都没有人发现其中的异常。

现在,<Physica Scripta>决定撤回这篇论文,理由是作者在提交论文时,并没有声明自己使用了ChatGPT。

期刊的同行评审和研究诚信主管Kim Eggleton表示,「这种行为违反了我们的道德政策。」

只是冰山的一角

然而,这篇论文,只是少数被曝光出来的「倒霉」选手。

从今年4月以来,Cabanac已经「打假」了十几篇论文,挂到了PubPeer上。它们无一例外,都留下了ChatGPT的使用痕迹——「Regenerate response」或「作为一个语言模型,我……」

所以,写论文时究竟可不可以用ChatGPT呢?

对于这个问题,Elsevier(爱思唯尔)和Springer Nature(施普林格·自然)在内的许多出版商都有明确规定:大语言模型工具用是可以用的,只要作者声明自己使用了即可。

不过目前看来,大部分使用了ChatGPT的同行评审论文,都没有声明这一点。

已经被逮到的论文,只是因为作者粗心,没有小心清除掉ChatGPT留下的痕迹而已。🤣

只要作者足够细心,用没用ChatGPT,又有谁能知道呢?

打假人Cabanac表示,目前自己发现的论文,才只是冰山一角。

在爱思唯尔期刊中,他也发现了一些典型的ChatGPT「黑话」。

比如一篇8月3日发表在<Resources Policy>上的论文,主题是电子商务对发展中国家化石燃料效率的影响。

其中,Cabanac就注意到,文章里有些方程完全就是不知所云。

不过最大的可疑之处在于,在某张表格上方,出现了这样一行字:「请注意,作为一个语言模型,我无法生成具体的表格或进行测试……」

对此,Elsevier的一位发言人表示,他们已经发现了这个问题,正在对这篇论文进行调查。

AI的大作,已经完美混进了人类作品

那么,一篇论文如果完全或部分由AI写成,但作者不说,我们就没有办法发现了吗?

大部分时候,的确如此。

最近美国南佛罗里达大学的一项研究表明,AI生成的文字内容,可能已经无法与人类写的区分开来了。

他们邀请了72名世界顶级语言学期刊的专家,要求他们来审查各种研究摘要,但即使是这样的专业人士,也很难识别出哪些摘要是人写的,哪些是AI写的。

在62%的情况下,他们会被AI骗过去。

具体来说,每位专家都被要求检查四份摘要,能全部正确识别出来作者是人还是AI的,一个都没有。

甚至13%的专家,一个都没做对。

专家们的识别依据是语言习惯和文体特征,尽管他们的分析头头是道、合乎逻辑,但总体的阳性识别率也只有38.9%。

不过,英国科研诚信办公室的Matt Hodgkinson表示,有些论文也会包含一些微妙的痕迹,让我们可以隐约发现ChatGPT的「身影」。
比如,一些常见于AI的特定语言模式,以及翻译得怪里怪气的「奇妙短语」。
此处浅浅地感受一下:深度神经网络——profound neural organization(深刻神经组织) 。
以及人工智能——counterfeit consciousness(仿制意识/虚伪意识);大数据——colossal information(巨信息);云计算—— haze figuring(霾运筹);GPU——designs preparing unit(设计准备器) ;CPU——focal preparing unit(焦点准备器)等等。
除此之外,AI在生成参考文献时也是相当的「天马行空」,而这就可以作为同行评审时的重要参考。
例如,<Retraction Watch>(《撤稿观察》)就曾揭露过一篇关于马陆(millipedes)的预印本论文是由ChatGPT编写的。
在一位研究人员发现文章中引用的一篇「论文」竟然是自己写的后,注意到了这里面提到的大量参考文献,都是假的。
类似的,丹麦国家血清研究所(State Serum Institute)的微生物学家Rune Stensvold也遇到了AI伪造参考文献的问题。
当时,一名学生向AI聊天机器人寻求有关肠道寄生虫——芽囊原虫属(Blastocystis)的文献建议,而这个聊天机器人则凭空编造了一篇以Stensvold为作者的参考文献。
于是,这位学生就去找了Stensvold,表示希望能获取这篇他发表于2006年的「论文」。
显然,这篇论文根本就不存在。
然而,正如之前提到的,对于这些明显会暴露论文使用了AI的痕迹,聪明的作者很容易就能把它们删得一干二净。
如此一来,想要发现是否实用了AI,就变成了一个不可能的任务。
Cabanac等打假人发现,无论是同行评审的会议论文,还是未经同行评审的预印本论文中,都存在大量使用了ChatGPT但未披露的情况。
当这些论文被挂在PubPeer上之后,有部分作者会承认的确使用了ChatGPT,但并未声明。
Hodgkinson表示:「本质上,这是一场军备竞赛。就看骗子和侦探谁能胜出了。」

学术界要被攻陷了!

总之,形势已经很严峻。
Elisabeth Bik已辞去工作,成为大众知名的专业打假人
旧金山的一位微生物学家、独立研究诚信顾问Elisabeth Bik表示,ChatGPT和其他生成式AI工具的迅猛崛起,为「论文工厂」提供了充足的弹药。
这是一条完善的产业链:这些公司大量生产和炮制出虚假的论文,卖给急需提高学术成果产量的研究者。
Bik说,现在问题已经恶化了一百倍。
如今的学术圈,可能已经充斥着一大批AI生产的「垃圾」论文。我们根本无从分辨,哪些是经过认真研究产生的严肃学术成果,哪些是AI炮制出来滥竽充数的「垃圾」。

同行评审:时间紧,不够

那么问题来了,为什么那些由AI生成的假论文,能屡次通过如此严格的同行评审?
一方面,ChatGPT这类的技术还比较新,并不是所有人都能有效辨别;另一方面,同行评审可能根本没有时间来检查这个问题。
对此,化名「Smuts Clyde」去揭发伪造论文的David Bimler表示,期刊中那些由LLM生成且未被发现的论文,指向了一个更深层次的问题:同行评审往往足够多的没有时间,来彻底检查稿件中的可疑之处。
「毕竟,整个科学界的态度就是『要么发表,要么死亡(Publish or perish)』」,Bimler说,「因此『守门人』的数量永远都不是够的。」
也许,这就是当前残酷的现实:评审论文需要大量的时间和专业知识,但AI只需几分钟就能完成一篇,无论它的质量是多差。
参考资料:
https://www.nature.com/articles/d41586-023-02477-w




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
尴尬了!用ChatGPT写论文忘删生成按钮,出版商:撤稿荐书 | ChatGPT 之父 Sam Altman 强推,顶级 AI 学者 GPT 原理解释之作重瓣天竺葵,美丽大爆炸离谱!医学类文章竟在工程类期刊上发表,顶级三甲专科医院论文被撤稿!刀郎带着新歌杀回来了,峰、坤、英、松的评论区被攻陷了...现场直击OpenAI开发者大会:GPT-4 Turbo、用户自定义GPT、GPT商店,一切都是硅谷新王的架势学术圈最牛博一?!nature正刊10篇,SCI正刊20篇!评论区都炸了第一篇因为ChatGPT而撤稿的SCI论文诞生,AI加速学术不端问题的恶化《孙子兵法》,中国军师和非洲军阀Nature报道:用ChatGPT写论文忘删生成按钮遭撤稿!GPT-3.5 Turbo支持微调了,打造专属ChatGPT,但价格小贵惊呆!某院医生4个月用ChatGPT写了16篇论文,发表5篇!(附ChatGPT干货)斯坦福校长因学术不端辞职!3篇顶刊论文面临撤稿,本人回应:对学生手下太过信任Nature丨ChatGPT已被悄悄应用于论文撰写;但这些问题使之露出马脚!【冲刺民心学校】暑假仅此一期,专门冲刺民心学校!!AI书太泛滥!亚马逊限制作者1天最多出3本书!咋回事Nature重大突破!IF=109,生命科学领域这一进展终成学术圈"焦点"!最近看的几个烧脑的电影“ChatGPT之父”剑桥演讲遭抵制,学术大佬激战AI安全微博(24)—起早韩国室温超导一作要求撤稿!论文有缺陷,完善后已转投正规期刊惊呆了!用ChatGPT写论文忘删生成按钮,出版商:撤稿。。。斯坦福校长因学术不当辞职,暴露了学术圈多少乱象? | 评论《别君叹》&《爱人先爱己》GPT-4 Turbo更强更便宜,GPTs、GPT商店最大亮点,这是OpenAI首个开发者日35年首次证明!NYU重磅发现登Nature:神经网络具有类人泛化能力,举一反三超GPT-4受8位合著者举报,引爆物理圈的室温超导论文被Nature撤稿,一作正接受调查Nature:日本科研日渐式微,学术界“临时工”成为罪魁祸首?无语!9.8分SCI被撤稿!就因为实验少了这一步!看到结果我直接...暗物质不存在?无暗物质宇宙模型又获新证据;“室温超导”科学家学术不端论文被撤稿,并将面临调查 | 环球科学要闻「室温超导惯犯」又被Nature撤稿!8位合著者联名举报,Dias:你们的博士学位也该撤销众叛亲离!Nature编辑暗示Dias室温超导撤稿只是时间问题OpenAI回应ChatGPT服务故障;新研究以99%准确率识别ChatGPT生成化学论文;三星发布自研大模型丨AIGC日报学术圈“大瓜!涉嫌学术造假,斯坦福校长宣布辞职!惊了!某院医生用ChatGPT4个月写了16篇论文!成功发表5篇!(附ChatGPT干货教程)
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。