Redian新闻
>
大模型走捷径「刷榜」?数据污染问题值得重视

大模型走捷径「刷榜」?数据污染问题值得重视

科技

机器之心报道

机器之心编辑部

我直接看答案。

生成式 AI 元年,大家的工作节奏快了一大截。


特别是,今年大家都在努力卷大模型:最近国内外科技巨头、创业公司都在轮番推出大模型,发布会一开,个个都是重大突破,每一家都是刷新了重要 Benchmark 榜单,要么排第一,要么第一梯队。


在兴奋于技术进展速度之快后,很多人发现似乎也有些不对味:为什么排行榜第一人人有份?这是个什么机制?


于是乎,「刷榜」这个问题也开始备受关注。


近日,我们关注到朋友圈和知乎社区对大模型「刷榜」这一问题的讨论越来越多。特别是,知乎一篇帖子:如何评价天工大模型技术报告中指出很多大模型用领域内数据刷榜的现象?引起了大家的讨论。



链接:https://www.zhihu.com/question/628957425


多家大模型刷榜机制曝光


该研究来自昆仑万维的「天工」大模型研究团队,他们上个月底把一份技术报告发布在了预印版论文平台 arXiv 上。



论文链接:https://arxiv.org/abs/2310.19341


论文本身是在介绍 Skywork-13B,这是天工的一个大型语言模型(LLM)系列。作者引入了使用分段语料库的两阶段训练方法,分别针对通用训练和特定领域的增强训练。


和往常有关大模型的新研究一样,作者表示在流行的测试基准上,他们的模型不仅表现出色,而且在很多中文的分支任务上取得了 state-of-art 水平(就是业内最佳)。

 

重点是,该报告还验证了下很多大模型的真实效果,指出了一些其他一些国产大模型存在投机取巧的嫌疑。说的就是这个表格 8:



在这里,作者为了验证目前业内几个常见大模型在数学应用问题基准 GSM8K 上的过拟合程度,使用 GPT-4 生成了一些与 GSM8K 形式上相同的样本,人工核对了正确性,并让这些模型在生成的数据集,和 GSM8K 原本的训练集、测试集上比了比,计算了损失。然后还有两个指标:


 

Δ1 作为模型训练期间潜在测试数据泄漏的指标,较低的值表明可能存在泄漏。没有用测试集训练,那数值应该为零。



Δ2 衡量数据集训练分割的过度拟合程度。较高的 Δ2 值意味着过拟合。如果没有用训练集训练过,那数值应该为零。


用简单的话来解释就是:如果有模型在训练的时候,直接拿基准测试里面的「真题」和「答案」来当学习资料,想以此来刷分,那么此处就会有异常。


好的,Δ1 和 Δ2 有问题的地方,上面都贴心地以灰色突出显示了。


网友对此评论道,终于有人把「数据集污染」这个公开的秘密说出来了。


也有网友表示,大模型的智力水平,还是要看 zero-shot 能力,现有的测试基准都做不到。


图:截图自知乎网友评论


在作者与读者中互动中,作者也表示,希望「让大家更理性看待刷榜这个事情,很多模型和 GPT4 的差距还很大」。


图:截图自知乎文章 https://zhuanlan.zhihu.com/p/664985891


数据污染问题值得重视


其实,这并不是一时的现象。自从有了 Benchmark,此类问题时常会有发生,就像今年 9 月份 arXiv 上一篇极具嘲讽意味的文章标题指出的一样 Pretraining on the Test Set Is All You Need。



除此之外,最近人民大学、伊利诺伊大学香槟分校一个正式研究同样指出了大模型评估中存在的问题。标题很扎眼《Don't Make Your LLM an Evaluation Benchmark Cheater》:



论文链接:https://arxiv.org/abs/2311.01964


论文指出,当前火热的大模型领域让人们关心基准测试的排名,但其公平性和可靠性正在受到质疑。其中主要的问题就是数据污染和泄露,这样的问题可能会被无意识地触发,因为我们在准备预训练语料库时可能不知道未来的评估数据集。例如,GPT-3 发现预训练语料库中包含了 Children's Book Test 数据集,LLaMA-2 的论文曾提到提取了 BoolQ 数据集中的上下文网页内容。


数据集是需要很多人花费大量精力收集、整理和标注的,优质的数据集如果优秀到能被用于评测,那自然也有可能会被另一些人用于训练大模型。


另一方面,在使用现有基准进行评估时,我们评测的大模型的结果大多是通过在本地服务器上运行或通过 API 调用来获得的。在此过程中,没有严格检查任何可能导致评估绩效异常提高的不当方式(例如数据污染)。


更糟糕的是,训练语料库的详细组成(例如数据源)通常被视为现有大模型的核心「秘密」。这就更难去探究数据污染的问题了。



也就是说,优秀数据的数量是有限的,在很多测试集上,GPT-4 和 Llama-2 也不一定就没问题。比如在第一篇论文中提到的 GSM8K,GPT-4 在官方 technical report 里提到过使用了它的训练集。


你不是说数据很重要吗,那么用「真题」刷分的大模型,性能会不会因为训练数据更优秀而变得更好呢?答案是否定的。


研究人员实验发现,基准泄漏会导致大模型跑出夸张的成绩:例如 1.3B 的模型可以在某些任务上超越 10 倍体量的模型。但副作用是,如果我们仅使用这些泄露的数据来微调或训练模型,这些专门应试的大模型在其他正常测试任务上的表现可能会受到不利影响。


因此作者建议,以后研究人员在评测大模型,或是研究新技术时应该:


  • 使用更多来自不同来源的基准,涵盖基本能力(例如文本生成)和高级能力(例如复杂推理),以全面评估 LLM 的能力。

  • 在使用评估基准时,在预训练数据和任何相关数据(例如训练和测试集)之间执行数据净化检查非常重要。此外,还需要报告评估基准的污染分析结果作为参考。如有可能,建议公开预训练数据的详细组成。

  • 建议应采用多样化的测试提示来减少提示敏感性的影响。在基准数据和现有预训练语料库之间进行污染分析,提醒任何潜在的污染风险也很有意义。为了进行评估,建议每次提交都附有一份特殊的污染分析报告。


最后想说,好在这个问题开始逐渐引起大家的关注,无论是技术报告、论文研究还是社区讨论,都开始重视大模型「刷榜」的问题了。


对此,你有什么看法与有效建议呢?


参考内容:

https://www.zhihu.com/question/628957425

https://zhuanlan.zhihu.com/p/664985891


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
AI公司第四范式IPO上市;雷军王小川联手搞小米大模型;百度发布量子领域大模型;AI新技术90秒识别癌;苹果疯狂购买AI初创公司体检报告一出,医生让我补维D!大人小孩都得重视中文LLaMA-2刷榜,开源可商用!千元预算,训练半天,效果媲美主流大模型开源大模型FLM-101B:训练成本最低的超100B参数大模型20B跨级挑战70B性能!国产开源大模型打造大模型新标杆苹果创新大模型压缩技术,大模型有机会塞进手机里了公路大塞车!加州女子跟着Google导航走捷径可以省50分钟,惨困在沙漠NeurIPS 2023 | 李飞飞团队提出SiamMAE:孪生掩码自编码器,刷榜视觉自监督方法!借助“外力”发SCI被指走捷径,能顺利毕业“外力”就是助力!北京理工大学发布双语轻量级语言模型,明德大模型—MindLLM,看小模型如何比肩大模型刷榜13个暗光增强基准!清华大学联合ETH等开源Retinexformer:亮、暗都有细节 | ICCV 2023免费大模型实战课|首周聚焦百度智能云千帆大模型平台使用,《大模型应用实践》实训营11月16日开讲!英伟达推出大模型加速包;Meta将训练对标GPT-4的大模型;ChatGPT等成费水大户丨AIGC大事日报直播预约 | 何渊:国家数据局挂牌意味着什么?数据掘金时代来了? | DPOHUB何谈第31期科研上新 | 大模型推进科研边界;大模型的道德价值对齐;优化动态稀疏深度学习模型;十亿规模向量搜索的高效更新科研上新 | 第2期:可驱动3D肖像生成;阅读文本密集图像的大模型;文本控制音色;基于大模型的推荐智能体一百二十五 退学LLM在放射科学中应用潜力如何?数十家研究机构联合测试了31个大模型一招分辨刷榜作弊大模型,博士小哥开源AI数学“照妖镜”《有你真好》&《千年一梦》不走捷径,是最快的捷径李开复零一万物发布首款大模型;马斯克xAI发布首个大模型;360、美团、昆仑万维等最新消息;vivo发布蓝心AI大模型直播预约|何渊:首例“公共数据特许经营权”拍卖暂停?数据财政的突破口在哪? | DPOHUB何谈第32期AI的大模型时代 ≠ 只有大模型的AI时代小模型如何比肩大模型,北理工发布明德大模型MindLLM,小模型潜力巨大红色日记 九大召开 4.1-30直播预约|何渊:首例“公共数据特许经营权”拍卖暂停?数据利用的突破口及趋势在哪? | DPOHUB何谈第32期最新调查:澳洲有钱人为啥有钱,穷人为啥穷?数据扎心!曝OpenAI大模型新进展!将推出多模态大模型,新项目Gobi筹备中重磅课程再次升级,一次性搞定大模型多模态AIGC与强化学习 --《2023秋季AIGC大模型与强化学习前沿技术实战》 招生简章36氪「2023 MCN年度价值榜」调研正式启动一百二十六 父亲来校首发|华丽智库「高端香氛品牌中国活力榜」,TOP20名单披露携帯失而复得​第二届「0碳未来·ESG创新实践榜」颁奖典礼,敬请期待
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。