Redian新闻
>
推演语言模型的大小与计算开销

推演语言模型的大小与计算开销

公众号新闻


MLNLP社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。
社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学者同学们的进步。
转载自 | OneFlow
作者|Harm de Vries
翻译|杨婷、徐佳渝
当我们使用大型计算集群来训练大型语言模型(LLM),通常需要考虑计算(资源)预算的分配问题。具体来说,就是考虑如何确定模型参数的数量N及训练token数量D。
我们可以利用扩展定律(scaling laws)来获得相关指导,既可以在给定的计算(资源)预算C的条件下,如何把C分配给参数数量和训练token数量从而使模型达到最佳性能;也可以在给定模型性能的条件下,平衡参数数据量N和训练token数量D,从而使得计算预算C最小,我们可以把计算预算C最小的LLM称为计算量最优的LMM。
然而,对大多数用例而言,我们不一定要去训练计算量最优的LLM,而应投入一定的额外计算(资源)来训练一个同等性能但更小的模型。小型模型的推理速度更快同时推理价格也更低,对GPU资源有限的开发人员和研究人员来说运行也更容易。
尽管许多LLM从业者训练模型的token数量比Chinchilla扩展定律(译者注:Hoffmann等人(2022)重新审视了Kaplan等人的扩展定律。表明用较小的模型对更多数据进行训练可能更有效,从而产生了参数效率提高的70B参数模型Chinchilla)建议的token数量多得多,但不是所有人员都清楚扩展定律为何对模型训练有帮助,它能让我们确定可以训练出多小的模型以及需要多少额外的计算(资源)。
本篇博客将概述如何推导模型大小与计算(资源)额外开销之间的权衡(trade-off)关系,同时揭示了有办法在最小化额外开销的条件下可以大大缩减计算量最优模型的大小。然而,如果模型大小的缩减超出一定阈值,即使增加计算资源,也无法维持特定的模型性能,我们可以把这个模型的阈值称之为临界模型大小(critical model size)。
我的分析表明,临界模型大小大约降低到计算量最优模型大小的30%,而只增加
了100%的额外计算开销。值得注意的是,近来的模型尚未达到这一点,例如训练了1T个token的LLaMa-7B模型,这表明训练“更小”的LLM仍有充足的空间,但需要延长训练时间。

回顾Chinchilla扩展定律

根据Chinchilla评估扩展定律的第三种方法,作者认为损失可以建模为参数数量和训练所用token数量的函数:
实验中,作者通过一系列不同的模型大小、训练token拟合了参数,并得出以下参数估值:
 
在计算(资源)预算的限制C=6ND下优化损失函数L,可以证明计算最优参数数量及计算最优token数量的遵循幂律为:

模型大小与计算(资源)额外开销

假设将最优模型大小缩小一半,需要增加多少训练token才能获得相同的性能?如果目标是保持相同的计算(资源)预算,显然必须增加一倍的训练token数量才行,不过为了保持相同的模型性能,我们可以预期会增加一定的计算(资源)额外开销,也就是需要延长训练时间。
现在,让我们回到Chinchilla的参数损失函数,再来回答这个问题。我们希望寻求一种方法,将参数按扩展,训练token按扩展,同时使损失达到不变。准确来说,我们希望满足以下方程式:

通过几个数学步骤,你会发现:
一旦确定了数据扩展因子,我们就能确定新的计算(资源)预算 
以及计算(资源)额外开销
有意思的是,如图所示,数据扩展因子与计算预算C并无关联。因此,可以得出这一结论:模型大小与计算额外开销之间的权衡规律在所有计算预算下都一样。
注意:原始扩展定律论文中的图12与该图表类似。

临界模型大小

如图所示,存在相当大的区间,在此范围内可以大大缩小最优模型大小,而几乎不怎么增加额外计算(资源)开销。训练一个相当于最优大小75%的模型,需增加的计算额外开销仅为2.8%,而训练最优模型大小一半大小的模型,额外开销则增加至20%。转向更小的模型,我们观察到这样一种渐近趋势:当时,额外计算开销会迅速增至188%。
如何确定我们在这条曲线上所处的位置取决于运行推理的频次。若从不运行推理,则应选择Chinchilla扩展规律来决定。若偶尔运行推理,则应选择稍小的模型。极限情况下(运行推理无限次),应选择尽可能最小的模型(即不考虑额外增加的计算开销)。
然而,在实践中,缩小模型的大小存在一个极限,该极限被称为临界模型大小(critical model size)。临界模型大小是指达到一定损失程度(loss level)所需的最小模型容量,几乎不可能在此基础上进一步缩小模型了。
据我分析,临界模型大小约为Chinchilla最优模型大小的30%,但这会增加100%的计算额外开销。请注意,临界模型大小并非一个硬性阈值,而应理解成一个收益递减的区域。如果我们不需要最小模型,就可以保守一点,选择占最优计算模型大小40-60%之间的模型,因为这样只会增加10-42%的计算额外开销。

LLaMA-7B和SantaCoder

最近有一些新模型(例如LLaMA-7B和SantaCoder),其训练时间比Chinchilla扩展定律建议的时间更长。那么换取更小模型所使用的计算资源是多少呢?
以LLaMA-7B为例:
  • 该模型具有6.9B个参数和1000B个训练token,总计算资源预算为4.14e22 FLOP。
  • 根据这一计算资源预算,最优计算模型的参数约为12.52B个,并在550B个token上进行训练。
  • 我们可以查看哪个扩展因子取多大值与LLaMA-7B的参数和训练token数量更为“接近”。我们发现,在=0.57的情况下,可以得到一个具有7.13B个参数和1088B个训练token的合理配置。
  • 额外计算资源开销大约为12%。
再看SantaCoder:
  • 该模型具有1.1B个参数和236B个训练token,总计算资源预算为1.56e21 FLOP。
  • 根据计算资源预算,最优模型的参数约为2.79B个,并在93B个token上进行训练。
  • 对于SantaCoder来说,要找到一个好的配置可能比较困难,但如果K=0.46,我们就可以在258B个token上训练参数为1.29B的模型。
  • 额外计算资源开销约为24%。
相比LLaMA-7B,SantaCoder进一步减少了模型大小,根据Chinchilla扩展定律,这些模型可以进一步权衡计算,以获得更小的模型。

不同的k_n训练token

为了更好地了解哪些模型大小和训练 token 数量处于模型大小与计算权衡的合理范围内,我对Chinchilla论文中的A3表格作了更新,其中预测了=0.5和=0.3的情况。我只报告了第三种估计Chinchilla计算最优模型的方法,这种方法可以预测出最小的模型大小和最大的训练token数量。
  • =0.5 时,建议在1万亿个token上训练参数为5B的模型,在10万亿个token上训练参数为34B的模型。
  • =0.3 时,建议在2.8万亿个token上训练参数为3B的模型,在28.4万亿个token上训练参数为21B的模型。
  • 作者可能已经将论文中的  和 参数做了四舍五入。因此,我对这两个参数的值做了少许修改, 让=0.036 、 =0.283 ,以更好地适应表A3的扩展定律预测。其余参数保持不变A=406.4,B=410.7,E=1.62。
  • 需要注意的是,Chinchilla系数取决于数据集,而我们不知道该数据集是什么。因此,结果可能会因为使用不同的训练数据而有所变化。

不足

1. Chinchilla扩展定律准确吗?它们对参数估计的微小变化(https://twitter.com/suchenzang/status/1616752482226671620)非常敏感,但没有考虑小模型长时间训练的情况。
2. 即使较小的模型达到相同的困惑度(perplexity),也无法确定它们是否具有相同的模型能力(例如Zero-shot prompt性能)。
3. 长时间训练较小的模型可能难以有效利用HPC集群上的有效并行化能力。

结论

根据Chinchilla扩展定律,我们还没有达到在更多token上训练更小模型的极限。鉴于开源人工智能社区的惊人创新速度,我预计功能强大的小型语言模型将很快出现!
附录
虽然数据扩展因子 以计算最优参数 和训练token 表示,在本部分,我将展示解决方案,该解决方案对计算预算C来说是固定不变的。首先
 
放大取决于计算预算C的部分:
代入公式:
引入外部指数,可以消掉C
最终简化为:
致谢
本文是BigCode 训练工作组的讨论分析结果。感谢所有参与人员,特别是:Raymond Li,Joel Lamy Poirier,Denis Kocetkov,Leandro von Werra,Loubna Ben Allal,Evgenii Zheltonozhskii,Niklas Muennighoff,Dzmitry Bahdanau和Thomas Wolf。感谢Leandro对文章标题的建议;感谢Niklas授权我们在推理运行频率方面使用他的解释来描述模型大小与计算额外开销曲线。

技术交流群邀请函

△长按添加小助手

扫描二维码添加小助手微信

请备注:姓名-学校/公司-研究方向
(如:小张-哈工大-对话系统)
即可申请加入自然语言处理/Pytorch等技术交流群

关于我们

MLNLP 社区是由国内外机器学习与自然语言处理学者联合构建的民间学术社区,目前已经发展为国内外知名的机器学习与自然语言处理社区,旨在促进机器学习,自然语言处理学术界、产业界和广大爱好者之间的进步。
社区可以为相关从业者的深造、就业及研究等方面提供开放交流平台。欢迎大家关注和加入我们。


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
【征稿通知】第二届云计算、物联网与计算机应用国际学术会议南澳散记 (增订本) :第二十一章:买书(下)艰难的旅程硬核观察 #934 Meta 的大语言模型 LLaMA 被泄露你相信预言吗?PRCV 2023 | 第六届中国模式识别与计算机视觉大会投稿通道正式开启邀请您参加IEEE网络技术论坛:基于大型语言模型的组合推理关于大型语言模型的争论和局限博采众长!我全都要!Allen AI推出集成主流大语言模型的LLM-BLENDER框架云计算开源产业联盟:2023年中国企业开源治理全景观察报告大语言模型的多语言机器翻译能力分析基于重排序的新量化方法RPTQ:实现大型语言模型的 3 比特量化ACL 2023长文 | 先计划再求解:提升大型语言模型的零样本链式推理美国华盛顿,景色记忆讲座预告 | 软件工程学院博学论坛第十五期:自然语言处理与大型语言模型的挑战与探索OpenAI 联合创始人、首席科学家 Ilya Sutskever 解读大语言模型的底层逻辑与未来边界表现优于 GPT-4,ChemCrow 集成 13 种化学工具,增强大型语言模型的化学性能ChatGPT说谎竟然是故意的?哈佛大学提出ITI:模型真实性翻倍,计算开销基本为零在线研讨会预告:针对向量计算开发的高性能数据库和云原生开源数据编排技术五七大院(十一)大语言模型的进化树,这是一份超详细ChatGPT「食用」指南结合亲和力提高了 28.7 倍,基于端到端贝叶斯语言模型的方法设计大型、多样化的高亲和力抗体库为什么现在的大语言模型(LLM)都是Decoder-only的架构?征稿 | ACM MM 23 Workshop - 基于大语言模型的多模态研究和应用深度对话丨百度要做中国的大语言模型这件事本身就是不成立的?GPT-4要来了!一文看尽大型语言模型的过去、现在、未来如何更好地蒸馏ChatGPT模型能力:Lion闭源大型语言模型的对抗性蒸馏模型原理及实验工作介绍思维链如何释放语言模型的隐藏能力?最新理论研究揭示其背后奥秘大型语言模型的推理演算符尧 | 复杂推理:大语言模型的北极星能力学习生成式大语言模型,东北大学自然语言处理实验室有一堂课复杂推理:大语言模型的北极星能力有哪些省内存的大语言模型训练/微调/推理方法?从LLM到MLLM,多模态大规模语言模型KOSMOS-1赋予了语言模型看见世界的能力用AI和量子计算开发mRNA药物,Moderna与IBM达成新合作
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。