Redian新闻
>
ICML征稿禁止使用大型语言模型,LeCun转发:中小型模型可以用吗?

ICML征稿禁止使用大型语言模型,LeCun转发:中小型模型可以用吗?

公众号新闻



  新智元报道  

编辑:昕朋 David
【新智元导读】AI顶会ICML征稿日在即,关于道德准则的新政策却引来网友不满!规则要求作者不能使用大型语言模型,网友评论区刷屏询问:为什么?

昨天,国际机器学习会议(ICML)发布了2023论文征稿公告。

论文提交日期为1月9日至1月26日。

然而,本次会议中关于「道德准则」的要求却引来了众多不满。

LLM不可控,还是ban掉吧


根据大会的政策,所有作者和程序委员会成员,包括审稿人,应遵循标准的道德准则。

严禁任何形式的抄袭,以及审稿人、领域主席(AC)和高级领域主席(SAC)对特权信息的不道德使用,例如共享此信息,或将其用于评审过程以外的任何其他目的。

禁止包含从大规模语言模型(LLM)(如ChatGPT)生成的文本的论文,除非这些生成的文本作为论文实验分析的一部分呈现。

所有可疑的不道德行为都将由道德委员会进行调查,被发现违反规则的个人可能会面临制裁。今年,我们将收集被发现违反这些标准的个人姓名;如果代表会议、期刊或其他组织的个人出于决策目的要求提供此列表,我们可能会向他们提供此信息。

其中,「禁止使用大型语言模型写论文」一条要求被网友热议。

此消息已发布,网友纷纷在ICML推特下评论:「为啥不能用大型语言模型?」


AI论文不能用AI,合理吗


Yann LeCun转发并评价:「大型语言模型不能用,意思是中型和小型语言模型还可以用。」

他解释说:「因为拼写检查应用和文本预测也是语言模型。」

最后,LeCun阴阳道:「明年的ICML道德准则应该变成:研究人员必须徒手完成各种计算,不能借助计算机;各类图形必须用笔和纸手绘;从今天起,ICML的官方语言变为瑞典语(瑞典:?)。」

最后,还不忘转发一部电影《疯了》,总结自己对ICML政策的评价。

在LeCun的帖子下,网友们各显神通,纷纷整活。

一位网友给ICML提供了新的思路:「另一种表述此策略的方式是‘提交中的所有文本都应由参数小于100B或超过1万亿的神经网络生成’。」

还有人假装是ICML的评审,给ChatGPT打广告:「作为ICML和其他会议的评审 ,我很欣赏作者们使用ChatGP等工具润色文章。这会让他们的论文更加清晰易读。(该帖已经过ChatGPT的修改)」

对于该规则,MIT教授Erik Brynjolfsson简单概括:「这是场必败之仗。」

除了整活玩梗,也有人认真表达了自己对ICML规定的想法。

AAAI前主席Thomas Dietterich说:「这个规定很怪,对于一个人工智能会议来说更是如此。我们应该欢迎所有为科学技术做出贡献的文章,不论作者是否接受了AI的辅助。」

也有人给ICML改进建议:

使用大型语言模型来进行审校对于改善拼写和语法很有裨益。Grammarly,Notion,Google Docs甚至Word都会用到大型语言模型。

看起来,解决方法是解释清楚使用大型语言模型的原因和用途,而非一味禁止。

原来不止我用Grammarly检查拼写和语法(doge)。

当然,也有网友对此表示了理解,认为此举是为了保护评审的权威

网友Anurag Ghosh评论道:「我认为ICML的要求是为了防止那些看似正确的论文发表。例如机器学习领域发表的5篇编造/AI生成的论文。这会暴露同行评审的缺陷。」

也有人认为,「大型语言模型只是工具,如果它们就可以生成质量更高的论文,那又如何?这些研究的主要贡献不来自于大型语言模型,而来自那些研究人员。难道我们要禁止研究人员接受任何形式的帮助,比如谷歌搜索,或是不能和没有利害关系的人谈论此事吗?」

由于最近几年大语言模型的热度始终不减,这次ICML提出的禁令引发的学者和网友热烈讨论,想必还会持续一段时间。

不过目前看下来,有一个问题似乎还没人讨论,如何判断一篇文章的片段是不是大语言模型生成的?如何验证,靠查重吗?毕竟真要是机器模型生成的文章,谁也不会特意标注一个「本文是大语言模型自动生成的」,对吧?

更何况,研究论文这种逻辑清晰、结构明确、语言风格高度模式化的文章,简直就是大语言模型发挥的最佳场所,即使是生成的原文略显生硬,但如果是当个辅助工具来用,怕是很难辨别,也就难有明确的标准来实施这个禁令。

这样看来,这次ICML的审稿人肩上的担子,怕是又要重了不少了。

参考资料:
https://icml.cc/Conferences/2023/CallForPapers
https://twitter.com/ylecun/status/1610367976016064513


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ChatGPT封杀潮,禁入学校,AI顶会特意改规则,LeCun:要不咱把小模型也禁了?重磅!谷歌发布《深度学习调优手册》!Hinton转发点赞!PyTorch统治学术论文,TensorFlow只占4%,LeCun:还能为啥?Meta版ChatGPT来了?小扎、LeCun官宣650亿参数SOTA大语言模型LLaMA从LLM到MLLM,多模态大规模语言模型KOSMOS-1赋予了语言模型看见世界的能力NLP大规模语言模型推理实战:大语言模型BLOOM推理工具测试实践与效果分析实录ICLR 2023 | 用大语言模型GPT-3直接替代传统搜索引擎必应发狂了! LeCun马库斯齐喷ChatGPT:大语言模型果然是邪路?谷歌出品:基于大型语言模型的语义解析方法做一个有个性的人ChatGPT与搜索引擎合体,谷歌都不香了,LeCun转发|在线可玩ChatGPT 之后,下一代大型语言模型在哪里?通向 AGI 之路:大型语言模型(LLM)技术精要以后只能用电磁炉了?为避免儿童哮喘,美考虑禁止使用燃气灶。2022出圈的ML研究:爆火的Stable Diffusion、通才智能体Gato,LeCun转推Meta推出MoDem世界模型:解决视觉领域三大挑战,LeCun转发ICML 2023禁止使用大型语言模型写论文!LeCun转发:中小型模型可以用吗?蒋介石撕毁双十协定剿杀共产党ChatGPT之后何去何从?LeCun新作:全面综述下一代「增强语言模型」悉尼议会警告:民众禁止使用延长线为电车充电!电线穿过树木和人行道,存在巨大安全隐患!PyTorch统治学术论文!TensorFlow只占4%,LeCun:还能为啥?豐字源考一位论文作者火了,ChatGPT等大型语言模型何时能成为论文合著者?谷歌推出深度学习调优手册,不到一天狂揽1200星,Hinton转发|GitHubMeta最新语言模型LLaMA论文研读:小参数+大数据的开放、高效基础语言模型阅读笔记陀螺ChatGPT爆火,LeCun心态崩了!称大语言模型是邪路,Meta模型3天惨遭下线注意!多国禁止使用这类制品,违者或受重罚→中国古人的不均与今人理解的不均Meta发布全新大型语言模型LLaMAMLNLP前沿综述分享第五期 | 胡琳梅@北京理工大学:知识增强的预训练语言模型前沿研究进展中小学幼儿园校内禁设小卖部;香港大学禁止使用AI软件…一周资讯Meta 推出新的大型语言模型;比亚迪今年首次降价;AI 生成语音骗过银行验证系统 | 极客早知道AI大战升级!Meta推出先进大型语言模型,下一个ChatGPT不远了?《科学》禁止在学术论文中使用ChatGPT文本,《自然》:可以用,但要说明|环球科学要闻
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。