Redian新闻
>
Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

Open LLM榜单再次刷新,比Llama 2更强的「鸭嘴兽」来了

公众号新闻

机器之心报道

编辑:梓文、蛋酱


为了挑战 OpenAI 的 GPT-3.5 和 GPT-4 等闭源模型的主导地位, 一系列开源模型力量正在崛起,包括 LLaMa、Falcon 等。最近,Meta AI 发布了 LLaMa-2 模型,被誉为开源领域最强的大模型,很多研究者也在此基础上搭建自己的模型。比如,StabilityAI 利用 Orca 风格的数据集对 Llama2 70B 模型进行了微调,打造出了 StableBeluga2,在 Huggingface 的 Open LLM 排行榜中也取得了不错的成绩。

最近,Open LLM 榜单的排行又发生了新的变化,一个名叫 Platypus(鸭嘴兽)的模型登上了榜首。


概括地说,Platypus 同样是基于 Llama 2 微调。来自波士顿大学的作者使用了 PEFT 和 LoRA 以及数据集 Open-Platypus 进行优化。


在一篇论文中,作者对 Platypus 进行了详细的介绍:


论文地址:https://arxiv.org/abs/2308.07317

本文的贡献主要有以下几点:

  • Open-Platypus 是一个小规模的数据集,由公共文本数据集的精选子集组成。该数据集由 11 个开源数据集组成,重点是提高 LLM 的 STEM 和逻辑知识。它主要由人类设计的问题组成,只有 10% 的问题是由 LLM 生成的。Open-Platypus 的主要优势在于其规模和质量,它可以在很短的时间内实现非常高的性能,并且微调的时间和成本都很低。具体来说,在单个 A100 GPU 上使用 25k 个问题训练 13B 模型只需 5 个小时。
  • 描述了相似性排除过程,减少数据集的大小,并减少数据冗余。
  • 详细分析了始终存在的开放 LLM 训练集与重要 LLM 测试集中包含的数据相污染的现象,并介绍了作者避免这一隐患的训练数据过滤过程。
  • 介绍了对专门的微调 LoRA 模块进行选择和合并的过程。

Open-Platypus 数据集

目前,作者在 Hugging Face 上发布了 Open-Platypus 数据集:


污染问题

本文方法优先考虑防止基准测试问题泄漏到训练集中,以避免仅通过记忆产生结果偏差。作者努力追求准确性的同时,也认识到标记重复问题时需要灵活性,因为问题的提出方式多种多样,而且会受到通用领域知识的影响。为了管理潜在的泄漏,作者精心设计了启发式方法,用于手动过滤 Open-Platypus 中与基准问题余弦嵌入相似度超过 80% 的问题。他们将潜在泄漏分为三类:(1) 重复;(2) 灰色区域;(3) 相似但不相同。并且,为谨慎起见,他们将所有组别都排除在训练集之外。

重复

这几乎完全复制了测试题集的内容,可能只是稍稍改动了一下单词或稍作重新排列。根据上表中泄漏问题的数量,这是作者认为真正属于污染的唯一类别。具体例子如下:


灰色区域

以下问题被称为灰色区域,包括并非完全重复、属于常识范畴的问题。虽然作者将这些问题的最终评判权留给了开源社区,但他们认为这些问题往往需要专家知识。需要注意的是,这类问题包括指令完全相同,但答案却同义的问题:


相似但不相同

这些问题的具有较高的相似度,但由于问题之间有着细微的变化,在答案上存在着显著差异。


微调与合并

在完善数据集之后,作者将重点放在两种方法上:低秩近似(LoRA)训练和参数高效微调(PEFT)库。与完全的微调不同,LoRA 保留了预训练的模型权重,并在 transformer 层中整合了秩分解矩阵。这就减少了可训练参数,节省了训练时间和成本。起初,微调主要针对注意力模块,如 v_proj、q_proj、k_proj 和 o_proj。后来,根据 He et al. 的见解,过渡到 gate_proj、down_proj 和 up_proj 模块。除了可训练参数小于总参数的 0.1% 时,这些模块均显示出了更好的效果。作者对 13B 和 70B 模型统一采用了这一方法,结果可训练参数分别为 0.27% 和 0.2%。唯一的差异在于这些模型的初始学习率。

结果

作者将 Platypus 与其他的 SOTA 模型进行了比较。根据 2023 年 8 月 10 日的 Hugging Face Open LLM 排行榜数据,Platypus2-70Binstruct 变体表现优于其他竞争对手,以 73.13 的平均分稳居榜首:


值得注意的是,Stable-Platypus2-13B 模型以 63.96 的平均分成为 130 亿参数模型中的佼佼者:


局限性

作为 LLaMa-2 的微调扩展,Platypus 保留了基础模型的许多限制条件,并因其有针对性的训练而引入了特定的挑战。它共享 LLaMa-2 的静态知识库,而知识库可能会过时。此外,还存在生成不准确或不恰当内容的风险,尤其是在提示不明确的情况下。虽然 Platypus 在 STEM 和英语逻辑方面得到了增强,但它对其他语言的熟练程度并不可靠,而且可能不一致。它偶尔也会产生带有偏见、攻击性或有害的内容。作者表示已经努力减少这些问题,但挑战依然存在,尤其是在非英语语言方面。

Platypus 可能会被滥用于恶意活动,这也是一个令人担忧的问题。开发人员应在部署前对其应用程序进行安全测试。Platypus 在其主要领域之外可能存在局限性,因此用户应谨慎行事,并考虑进行额外的微调以获得最佳性能。用户应确保 Platypus 的训练数据与其他基准测试集之间没有重叠。作者对数据污染问题非常谨慎,避免与在有污点的数据集上训练的模型合并。虽然经过清理的训练数据中确认没有污染,但也不排除有些问题漏掉了。如需全面了解这些限制,请参阅论文中的限制部分。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
BELLE-7B-1M逆袭ChatGLM?10B量级开源中文对话LLM,谁成常识问答任务的黑马?有看US Open 喜欢Ben Shelton的吗?(简直是龙生龙凤生凤老师儿子会打洞的典型例子)人造太阳“中国环流三号”再次刷新磁约束聚变装置运行纪录;怀孕期间食用乳化剂或会影响后代脑部发育 | 环球科学要闻11个LLM一起上,性能爆炸提升!AI2联合USC开源LLM-Blender集成学习框架:先排序再融合|ACL 2023你们要的「贵妇感上班包」来了!刘亦菲同款,百元背出“万元气场”!!故国2023,殊途同归LLM综述全新出炉:51页论文带你盘点LLM领域专业化技术豆豆三部曲的男女主人公(1)Hélène Binet:光的哲学家0.2美元微调就能让ChatGPT彻底破防!普林斯顿、斯坦福发布LLM风险预警:普通用户微调也影响LLM安全性再次刷新纪录!全球最大乐高零售店即将开业扎克伯格发布更强「免费版 ChatGPT」!用 open 的 AI 挑战 OpenAIErklärung zur Zusammenarbeit一天两次刷新亚运会纪录!覃海洋拿下100米蛙泳金牌Firefly单卡复刻Vicuna-13B,Open LLM榜单🤗略高0.2分open concept的房子怎么解决噪音/油烟问题电竞入亚,更强的“背书”,更长线的生意【今日市场】印度股市创历史新高 | 台积电四年来首次季度盈利下滑 | 苹果版的「ChatGPT」来了?LLM 全景图 (The Landscape of LLM)波士顿大学「鸭嘴兽-70B」登顶Hugging Face大模型排行榜!高效数据集+独特LoRA微调是关键更强的Llama 2开源,可直接商用:一夜之间,大模型格局变了专访丨积家CEO Catherine Rénier:情感联结和艺术表达对腕表也至关重要Continuous Batching:解锁LLM潜力!让LLM推断速度飙升23倍,降低延迟!凤凰山核心产地「鸭屎香」,茶中香气天花板,一片单丛满屋香llama2.mojo比llama2.c快20%,最年轻的语言Mojo惊艳开发者社区GPT-4,Llama2,ChatGLM2,PaLM2共聚一堂 | LLM Day @KDD 2023DreamLLM:多功能多模态大型语言模型,你的DreamLLM~月活破2亿!这家国有大行又一次刷新纪录这些年这些人这些事—回国散记之途经上海6.7k Star量的vLLM出论文了,让每个人都能轻松快速低成本地部署LLM服务【第三天】开始3天的断食覃海洋一天两次刷新亚运会纪录|日本游泳剖析新“蛙王”OpenAI遭集体诉讼;美团20.65亿元收购光年之外;谷歌AI模型将结合AlphaGo,比GPT-4更强|AIGC周观察第八期更强的Llama 2开源,可直接商用:一夜之间,大模型格局变了 |【经纬低调分享】Harvey:OpenAI投资的法律Copilot,最适合LLM落地的垂直行业记缘(卜算子)---- 作词:江水兰 / 作曲:66的山梁2023 US Open 美国网球公开赛GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。