Redian新闻
>
今日arXiv最热大模型论文:LoRA又有新用途,学得少忘得也少,成持续学习关键!

今日arXiv最热大模型论文:LoRA又有新用途,学得少忘得也少,成持续学习关键!

公众号新闻

夕小瑶科技说 原创
作者 | Axe_越
自大模型(LLM)诞生以来,苦于其高成本高消耗的训练模式,学界和业界也在努力探索更为高效的参数微调方法。其中Low-Rank Adaptation(LoRA)自其诞生以来,就因其较低的资源消耗而受到广泛关注和使用。

LoRA通过学习低秩扰动(low-rank perturbations),从而在使用大模型适配下游任务时,只需要训练少量的参数即可达到一个很好的效果。尽管LoRA在资源效率上有明显优势,但其在处理复杂领域任务时的性能表现如何,尚未有定论。本文旨在填补这一空缺,以编程和数学两个具有挑战性的领域任务为例,探讨LoRA与全参数微调的性能。

论文标题:
LoRA Learns Less and Forgets Less

论文链接:
https://arxiv.org/pdf/2405.09673

LoRA方法概述

LoRA的思想非常简单,对于神经网络中的某些线性层(比如 Transformer 架构中的多头自注意力的权重矩阵 Q,K,V 或者前馈神经网络层的 W),不是直接对这些大参数矩阵的所有元素进行更新,而是引入较小的矩阵 A 和 B,并使得这些较小的矩阵 A 和 B 的乘积可以近似描述原始矩阵 W 的变化。

由于r远远小于d,k,仅的参数需要运算,这远远小于更新原参数矩阵所需的运算量。而当训练好新的参数后,利用重参数(reparametrization)的方式,将新参数和原模型参数合并,这样既能在新任务上到达微调整个模型的效果,又不会在推断的时候增加推理的耗时。

实验设置

本文选定了编程和数学两类任务,并分别采用了Starcoder数据的Python部分(20B tokens)和OpenWebMath数据的子集(8.59B tokens)用于编程和数学任务的持续预训练(Continue Pretraining, CPT); Magicoder-Evol-Instruct-110k数据(72.97M tokens)和MetaMathQA数据(103M tokens)用于编程和数学任务的指令微调(Instruction Finetuning)。对应地,本文选用了HumanEval(164个问题)和GSM8K数据集的测试部分(1319个样本)作为编程和数学任务的测评数据集。

此外,本文还采用了HellaSwag、WinoGrande和ARC-Challenge数据集,分别用于评估经过不同训练方式后,模型对于推理、常识推断和科学概念的遗忘程度。

实验结果

1. 在编程和数学任务中的表现

在编程和数学任务中,LoRA相比全参数微调表现出明显的劣势。尽管如此,LoRA在数学任务中表现稍好,能够在一定程度上缩小与全参数微调之间的差距。例如,在编程的持续预训练设定下,使用16B tokens的LoRA在HumanEval基准测试中的最高得分为0.175,而全参数微调在使用1B tokens时的得分就已经达到了0.172,更是在16B tokens达到0.25以上。在数学的指令微调设定下,LoRA在4个训练周期后的GSM8K得分为0.622,与全参数微调的效果峰值仅相差了2个百分点(0.642)。

2. 在遗忘问题上的表现

总的来说,LoRA在遗忘问题上表现出比全参数微调更好的性能。此外,实验还发现:(1)相比于持续预训练,指令微调带来了更严重的遗忘问题;(2)在编程任务上训练以后,带来的遗忘相比在数学任务上训练要更为严重;(3)随着训练数据量的增大,遗忘问题趋于严重。

下图中的点表示不同训练阶段的个体模型在下游任务(编程/数学)和遗忘方面的表现,相比全参数微调,LoRA学会的东西较少(y轴上的值较低),但遗忘也相对更少(x轴上的值更高)。

3. LoRA的正则化特性

LoRA提供了比经典正则化技术,如权重衰减和dropout,更强的正则化效果。尽管在下游任务上LoRA的表现低于大多数正则化方法(左图),但在遗忘上又优于所有正则化方法(右图)。

此外,在对编程任务的指令微调设定下,LoRA在生成多样性上表现更好,维持了与基础模型更相似的多样化解决方案。这表明LoRA在输出层面提供了正则化,有助于保持更多样化的生成结果。

4. 对编程和数学的全参数微调不会学习低阶扰动

本文探讨了全参数微调在编程和数学任务中,是否倾向于学习低秩扰动。这是对LoRA方法的一个核心假设的检验,即微调大模型时,权重矩阵的扰动通常是低秩的。

通过对基础模型的权重矩阵、全参数微调后的权重矩阵,以及两者之间的差异(扰动)进行奇异值分解(Singular Value Decomposition,SVD)分析,发现即使是在早期的训练阶段(例如0.25B tokens时),全参数微调产生的权重矩阵扰动的秩也比典型LoRA高10到100倍。而随着训练数据的增加,扰动的秩也随之增加。此外,多层感知机(MLP)模块的扰动秩通常比注意力(Attention)模块的秩要高。模型的第一层和最后一层相比中间层倾向于有更低的秩。

在编程和数学任务中,全参数微调通常不会学习到低秩的权重扰动,这与LoRA方法的假设相悖。这部分的研究结果对LoRA方法在面对类似编程或数学等复杂任务时的有效性提出了质疑。它表明,为了在这些领域达到与全参数微调相当的性能,可能需要考虑更高秩的扰动,这可能会影响LoRA方法的内存效率和适用性。

一方面,本文发现全参数微调找到的权重扰动远非低秩,这表明LoRA的低秩扰动假设可能不适用于所有情况。另一方面,本文也讨论了所用谱分析方法的局限性,指出全参数微调倾向于找到高秩解并不意味着低秩解是不可能的,而是说它们通常不是微调过程中的首选。

结论与实践建议

LoRA的最佳实践

LoRA作为一种参数高效的微调方法,尽管在某些情况下未能达到全参数微调的性能,但它在正则化和保持源性能方面表现出色。根据研究,LoRA在学习率选择上表现出较高的敏感性。与全参数微调相比,LoRA需要更高的学习率才能实现最佳性能,但学习率过高又可能会导致训练发散。此外,选择要学习扰动的“目标模块”比选择秩大小(rank)更为重要。选择“所有”(Attention、MLP和它们的联合)模块的微调效果优于仅针对“MLP”或“Attention”模块的微调。

如果要使用LoRA,本文推荐在指令微调阶段使用,而不是在持续预训练阶段,并建议至少训练四个周期(epochs),以充分利用LoRA的潜力。尽管秩的影响较为微妙,但较高的秩(例如256)通常优于较低的秩(例如16),在性能和内存使用之间寻找平衡点,如果内存资源有限,可以选择较低的秩。

由于LoRA在保持输出多样性方面也显示出优势,在生成任务中,与全参数微调相比,LoRA能够维持更高的解决方案多样性,这对于避免过拟合和增强模型泛化能力是非常有益的。

LoRA的未来研究方向及应用场景

尽管LoRA在某些领域的性能不如全微调,但其在正则化和减少遗忘方面的潜力表明,它仍然是一个值得进一步研究的工具。未来的研究可以探索如何优化LoRA的配置,例如通过自动化搜索最优的学习率和目标模块配置。

另一个重要的研究方向是探索LoRA在不同模型大小和复杂性条件下的表现。初步研究表明,模型规模可能会影响LoRA与全参数微调之间的性能差距,未来可以在更大或更小的模型上验证这一点。

总之,LoRA作为一种节省资源的微调方法,在保持模型多样性和减少遗忘方面具有独特优势,值得在未来研究和应用中得到进一步的探索和优化。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
今日arXiv最热NLP大模型论文:Github万星!北航发布零代码大模型微调平台LlamaFactory今日arXiv最热NLP大模型论文:CMU最新综述:工具使用,大模型的神兵利器今日arXiv最热大模型论文:AI"参审",论文评审迎来"神助攻"?今日arXiv最热大模型论文:Agent也疯狂!FoA方法对智能体做树结构搜索,超越ToT今日arXiv最热大模型论文:忘记"也是一门学问:机器如何忘记自己学到的知识?今日arXiv最热大模型论文:大模型对齐告别微调,直接编辑表征空间即可解决今日arXiv最热大模型论文:首个面向AI的python编程框架,提升大模型编程能力新思路今日arXiv最热NLP大模型论文:天津大学发布大模型数学能力细粒度评价基准FineMath今日arXiv最热大模型论文:北大发布4维时空数据预训练,助力自动驾驶今日arXiv最热NLP大模型论文:揭露大语言模型短板,北京大学提出事件推理测试基准今日arXiv最热大模型论文:大模型也来看球,还能判断是否犯规今日arXiv最热CV大模型论文:国产开源视觉大模型InternVL 1.5发布,赶超GPT-4V水准今日arXiv最热NLP大模型论文:一文读懂大模型的prompt技术今日arXiv最热大模型论文:上海AI lab发布MathBench,GPT-4o的数学能力有多强?今日arXiv最热大模型论文:大模型都能怎么用?中南大学最新综述:大模型时代的自然语言处理《努力格尔玛》&《第二故乡》今日arXiv最热NLP大模型论文:超越GPT-4,清华发布网页导航智能体AutoWebGLM今日arXiv最热NLP大模型论文:清华大学:大语言模型的常见词僻意理解能力竟不如中学生今日arXiv最热NLP大模型论文:NAACL24实锤语言学对大模型“负优化”,抽象语义表示+思维链有损表现今日arXiv最热NLP大模型论文:斯坦福发布法律指令数据集LawInstruct,统一17个辖区24种语言今日arXiv最热NLP大模型论文:对指令太敏感?山东大学提出一致性对齐法,治好大模型敏感体质!今日arXiv最热大模型论文:复旦提出基于diffusion的虚拟试衣模型,模特一键换装人生的断舍离今日arXiv最热NLP大模型论文:面向不确定性感知的Language Agent自驾从SF到LA:旧金山的街车今日arXiv最热大模型论文:减少语法错误,竟成了突破口!识别AI生成文本,AUROC达98.7%今日arXiv最热NLP大模型论文:浙江大学:蒸一蒸,多Agent变成单一模型,效果更好今日arXiv最热NLP大模型论文:微软:用大模型分析用户满意度,让智能系统更善解人意今日arXiv最热NLP大模型论文:微软发布可视思维链VoT,提高大模型空间想象力今日arXiv最热NLP大模型论文:韩国团队提出ResearchAgent系统,模仿人类产出论文idea从翟欣欣认罪想到的今日arXiv最热大模型论文:浙江大学:如何减轻视觉大模型中的幻觉问题今日arXiv最热大模型论文:COLING 2024: 复旦发布AoR,层级聚合推理突破大模型复杂推理上限出路今日arXiv最热大模型论文:图灵测试中,GPT-4仍不及人类!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。