Redian新闻
>
今日arXiv最热大模型论文:LoRA又有新用途,学得少忘得也少,成持续学习关键!

今日arXiv最热大模型论文:LoRA又有新用途,学得少忘得也少,成持续学习关键!

公众号新闻

夕小瑶科技说 原创
作者 | Axe_越
自大模型(LLM)诞生以来,苦于其高成本高消耗的训练模式,学界和业界也在努力探索更为高效的参数微调方法。其中Low-Rank Adaptation(LoRA)自其诞生以来,就因其较低的资源消耗而受到广泛关注和使用。

LoRA通过学习低秩扰动(low-rank perturbations),从而在使用大模型适配下游任务时,只需要训练少量的参数即可达到一个很好的效果。尽管LoRA在资源效率上有明显优势,但其在处理复杂领域任务时的性能表现如何,尚未有定论。本文旨在填补这一空缺,以编程和数学两个具有挑战性的领域任务为例,探讨LoRA与全参数微调的性能。

论文标题:
LoRA Learns Less and Forgets Less

论文链接:
https://arxiv.org/pdf/2405.09673

LoRA方法概述

LoRA的思想非常简单,对于神经网络中的某些线性层(比如 Transformer 架构中的多头自注意力的权重矩阵 Q,K,V 或者前馈神经网络层的 W),不是直接对这些大参数矩阵的所有元素进行更新,而是引入较小的矩阵 A 和 B,并使得这些较小的矩阵 A 和 B 的乘积可以近似描述原始矩阵 W 的变化。

由于r远远小于d,k,仅的参数需要运算,这远远小于更新原参数矩阵所需的运算量。而当训练好新的参数后,利用重参数(reparametrization)的方式,将新参数和原模型参数合并,这样既能在新任务上到达微调整个模型的效果,又不会在推断的时候增加推理的耗时。

实验设置

本文选定了编程和数学两类任务,并分别采用了Starcoder数据的Python部分(20B tokens)和OpenWebMath数据的子集(8.59B tokens)用于编程和数学任务的持续预训练(Continue Pretraining, CPT); Magicoder-Evol-Instruct-110k数据(72.97M tokens)和MetaMathQA数据(103M tokens)用于编程和数学任务的指令微调(Instruction Finetuning)。对应地,本文选用了HumanEval(164个问题)和GSM8K数据集的测试部分(1319个样本)作为编程和数学任务的测评数据集。

此外,本文还采用了HellaSwag、WinoGrande和ARC-Challenge数据集,分别用于评估经过不同训练方式后,模型对于推理、常识推断和科学概念的遗忘程度。

实验结果

1. 在编程和数学任务中的表现

在编程和数学任务中,LoRA相比全参数微调表现出明显的劣势。尽管如此,LoRA在数学任务中表现稍好,能够在一定程度上缩小与全参数微调之间的差距。例如,在编程的持续预训练设定下,使用16B tokens的LoRA在HumanEval基准测试中的最高得分为0.175,而全参数微调在使用1B tokens时的得分就已经达到了0.172,更是在16B tokens达到0.25以上。在数学的指令微调设定下,LoRA在4个训练周期后的GSM8K得分为0.622,与全参数微调的效果峰值仅相差了2个百分点(0.642)。

2. 在遗忘问题上的表现

总的来说,LoRA在遗忘问题上表现出比全参数微调更好的性能。此外,实验还发现:(1)相比于持续预训练,指令微调带来了更严重的遗忘问题;(2)在编程任务上训练以后,带来的遗忘相比在数学任务上训练要更为严重;(3)随着训练数据量的增大,遗忘问题趋于严重。

下图中的点表示不同训练阶段的个体模型在下游任务(编程/数学)和遗忘方面的表现,相比全参数微调,LoRA学会的东西较少(y轴上的值较低),但遗忘也相对更少(x轴上的值更高)。

3. LoRA的正则化特性

LoRA提供了比经典正则化技术,如权重衰减和dropout,更强的正则化效果。尽管在下游任务上LoRA的表现低于大多数正则化方法(左图),但在遗忘上又优于所有正则化方法(右图)。

此外,在对编程任务的指令微调设定下,LoRA在生成多样性上表现更好,维持了与基础模型更相似的多样化解决方案。这表明LoRA在输出层面提供了正则化,有助于保持更多样化的生成结果。

4. 对编程和数学的全参数微调不会学习低阶扰动

本文探讨了全参数微调在编程和数学任务中,是否倾向于学习低秩扰动。这是对LoRA方法的一个核心假设的检验,即微调大模型时,权重矩阵的扰动通常是低秩的。

通过对基础模型的权重矩阵、全参数微调后的权重矩阵,以及两者之间的差异(扰动)进行奇异值分解(Singular Value Decomposition,SVD)分析,发现即使是在早期的训练阶段(例如0.25B tokens时),全参数微调产生的权重矩阵扰动的秩也比典型LoRA高10到100倍。而随着训练数据的增加,扰动的秩也随之增加。此外,多层感知机(MLP)模块的扰动秩通常比注意力(Attention)模块的秩要高。模型的第一层和最后一层相比中间层倾向于有更低的秩。

在编程和数学任务中,全参数微调通常不会学习到低秩的权重扰动,这与LoRA方法的假设相悖。这部分的研究结果对LoRA方法在面对类似编程或数学等复杂任务时的有效性提出了质疑。它表明,为了在这些领域达到与全参数微调相当的性能,可能需要考虑更高秩的扰动,这可能会影响LoRA方法的内存效率和适用性。

一方面,本文发现全参数微调找到的权重扰动远非低秩,这表明LoRA的低秩扰动假设可能不适用于所有情况。另一方面,本文也讨论了所用谱分析方法的局限性,指出全参数微调倾向于找到高秩解并不意味着低秩解是不可能的,而是说它们通常不是微调过程中的首选。

结论与实践建议

LoRA的最佳实践

LoRA作为一种参数高效的微调方法,尽管在某些情况下未能达到全参数微调的性能,但它在正则化和保持源性能方面表现出色。根据研究,LoRA在学习率选择上表现出较高的敏感性。与全参数微调相比,LoRA需要更高的学习率才能实现最佳性能,但学习率过高又可能会导致训练发散。此外,选择要学习扰动的“目标模块”比选择秩大小(rank)更为重要。选择“所有”(Attention、MLP和它们的联合)模块的微调效果优于仅针对“MLP”或“Attention”模块的微调。

如果要使用LoRA,本文推荐在指令微调阶段使用,而不是在持续预训练阶段,并建议至少训练四个周期(epochs),以充分利用LoRA的潜力。尽管秩的影响较为微妙,但较高的秩(例如256)通常优于较低的秩(例如16),在性能和内存使用之间寻找平衡点,如果内存资源有限,可以选择较低的秩。

由于LoRA在保持输出多样性方面也显示出优势,在生成任务中,与全参数微调相比,LoRA能够维持更高的解决方案多样性,这对于避免过拟合和增强模型泛化能力是非常有益的。

LoRA的未来研究方向及应用场景

尽管LoRA在某些领域的性能不如全微调,但其在正则化和减少遗忘方面的潜力表明,它仍然是一个值得进一步研究的工具。未来的研究可以探索如何优化LoRA的配置,例如通过自动化搜索最优的学习率和目标模块配置。

另一个重要的研究方向是探索LoRA在不同模型大小和复杂性条件下的表现。初步研究表明,模型规模可能会影响LoRA与全参数微调之间的性能差距,未来可以在更大或更小的模型上验证这一点。

总之,LoRA作为一种节省资源的微调方法,在保持模型多样性和减少遗忘方面具有独特优势,值得在未来研究和应用中得到进一步的探索和优化。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
今日arXiv最热大模型论文:AI"参审",论文评审迎来"神助攻"?今日arXiv最热大模型论文:大模型也来看球,还能判断是否犯规今日arXiv最热NLP大模型论文:微软发布可视思维链VoT,提高大模型空间想象力今日arXiv最热大模型论文:复旦提出基于diffusion的虚拟试衣模型,模特一键换装今日arXiv最热NLP大模型论文:浙江大学:蒸一蒸,多Agent变成单一模型,效果更好今日arXiv最热大模型论文:Agent也疯狂!FoA方法对智能体做树结构搜索,超越ToT《努力格尔玛》&《第二故乡》今日arXiv最热NLP大模型论文:对指令太敏感?山东大学提出一致性对齐法,治好大模型敏感体质!自驾从SF到LA:旧金山的街车今日arXiv最热大模型论文:北大发布4维时空数据预训练,助力自动驾驶人生的断舍离今日arXiv最热NLP大模型论文:超越GPT-4,清华发布网页导航智能体AutoWebGLM今日arXiv最热大模型论文:忘记"也是一门学问:机器如何忘记自己学到的知识?今日arXiv最热大模型论文:大模型都能怎么用?中南大学最新综述:大模型时代的自然语言处理今日arXiv最热NLP大模型论文:韩国团队提出ResearchAgent系统,模仿人类产出论文idea今日arXiv最热NLP大模型论文:清华大学:大语言模型的常见词僻意理解能力竟不如中学生从翟欣欣认罪想到的出路今日arXiv最热大模型论文:图灵测试中,GPT-4仍不及人类!今日arXiv最热NLP大模型论文:揭露大语言模型短板,北京大学提出事件推理测试基准今日arXiv最热NLP大模型论文:CMU最新综述:工具使用,大模型的神兵利器今日arXiv最热NLP大模型论文:一文读懂大模型的prompt技术今日arXiv最热NLP大模型论文:面向不确定性感知的Language Agent今日arXiv最热NLP大模型论文:NAACL24实锤语言学对大模型“负优化”,抽象语义表示+思维链有损表现今日arXiv最热NLP大模型论文:斯坦福发布法律指令数据集LawInstruct,统一17个辖区24种语言今日arXiv最热NLP大模型论文:微软:用大模型分析用户满意度,让智能系统更善解人意今日arXiv最热CV大模型论文:国产开源视觉大模型InternVL 1.5发布,赶超GPT-4V水准今日arXiv最热大模型论文:浙江大学:如何减轻视觉大模型中的幻觉问题今日arXiv最热大模型论文:减少语法错误,竟成了突破口!识别AI生成文本,AUROC达98.7%今日arXiv最热大模型论文:COLING 2024: 复旦发布AoR,层级聚合推理突破大模型复杂推理上限今日arXiv最热大模型论文:上海AI lab发布MathBench,GPT-4o的数学能力有多强?今日arXiv最热NLP大模型论文:Github万星!北航发布零代码大模型微调平台LlamaFactory今日arXiv最热大模型论文:首个面向AI的python编程框架,提升大模型编程能力新思路今日arXiv最热大模型论文:大模型对齐告别微调,直接编辑表征空间即可解决今日arXiv最热NLP大模型论文:天津大学发布大模型数学能力细粒度评价基准FineMath
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。