Redian新闻
>
Meta再放「长文本」杀器Llama 2-Long:70B尺寸登顶最强「32k上下文」模型,超越ChatGPT

Meta再放「长文本」杀器Llama 2-Long:70B尺寸登顶最强「32k上下文」模型,超越ChatGPT

公众号新闻



  新智元报道  

编辑:LRS
【新智元导读】Llama 2-Long计算量需求比重新训练降低40%,还不影响短任务性能!


虽然大型语言模型在处理日常问答、总结文本等任务上表现非常出色,但如何让LLM在不显著增加计算需求、不降低短文本性能的前提下,能够处理「超长文本输入」仍然是一个难题。


最近,Meta团队公开了支持长上下文的模型Llama 2 Long的训练方法,该模型的有效上下文窗口多达32768个token,在各种合成上下文探测、语言建模任务上都取得了显著的性能提升。


论文链接:https://arxiv.org/pdf/2309.16039.pdf


并且,模型在指令调优的过程中不需要借助人工标注的长指令数据,70B参数量的模型就已经在各种长上下文任务中实现了超越gpt-3.5-turbo-16 k的性能。


除了结果外,论文中还对模型的各个组件进行了深入分析,包括Llama的位置编码,并讨论了其在建模长依赖关系的限制;预训练过程中各种设计选择的影响,包括数据混合和序列长度的训练策略。


消融实验表明,在预训练数据集中具有丰富的长文本并不是实现强大性能的关键,验证了长上下文持续预训练比从头开始长序列预训练更有效,同样有效。


LLAMA 2加长版


1、持续训练(Continual Pretraining)


由于注意力机制需要进行二次复杂度的计算,如果使用更长的输入序列进行训练会导致巨大的计算开销,研究人员通过实验对比了不同的训练策略:从头开始进行长序列(32768)预训练、以及在不同阶段(20%、40%、80%)从4096长度切换到32768的持续学习。



结果发现,在输入token数量长度相同的情况下,两个模型的性能几乎相同,但持续训练最多可以减少40%的FLOPs


位置编码(Positional Encoding)


在持续预训练中,LLAMA 2的原始架构基本没有变化,仅针对长距离信息捕获需求对位置编码进行了修改。


通过对7B尺寸LLAMA 2模型的实验,研究人员发现了LLAMA 2的位置编码(PE)的一个关键局限性,即阻碍了注意力模块汇集远处token的信息。



为了进行长上下文建模,研究人员假设该瓶颈来源于LLAMA 2系列模型使用的RoPE位置编码,并控制超参数基础频率(base frequency)从10, 000增加到500, 000来减少RoPE位置编码中每个维度的旋转角度,从而降低了RoPE对远处token的衰减效应。



从实验结果来看,RoPE ABF在所有位置编码变体中取得了最好的效果,证明了简单修改RoPE即可有效提升模型的上下文长度。


并且,研究人员也选择没有选择稀疏注意力,考虑到LLAMA 2-70B的模型维h为8192,只有当输入序列长度超过6倍h(即49,152)个token时,注意力矩阵计算和值聚合的成本才会成为计算瓶颈。


数据混合(Data Mix)


在使用改良版位置编码的基础上,研究人员进一步探索了不同预训练数据的组合,通过调整 LLAMA 2 的预训练数据比例或添加新的长文本数据来提高长上下文能力。



实验结果发现,在长上下文、持续预训练的设置下,数据质量往往比文本长度发挥着更关键的作用。


优化细节


研究人员持续增加预训练LLAMA 2检查点的输入序列长度,同时保持与LLAMA 2相同的每批token数量;


对所有模型进行了100,000步共计400B个token的训练;


使用Flash-Attention,当增加序列长度时,GPU 内存开销几乎可以忽略不计,使用70B模型的序列长度从4,096增加到 16,384 时,可以观察到大约17%的速度损失;


对于7B/13B模型,使用学习率2e^-5和余弦学习率调度,预热步骤为 2000 步;


对于较大的34B/70B模型,必须设置较小的学习率1e^-5才能获得单调递减的验证损失。


2、指令微调(Instruction Tuning)


为LLM对齐收集人工演示和偏好标签是一个繁琐而耗时耗力的过程,在长上下文场景下,往往会涉及到复杂的信息流和专业知识,例如处理密集的法律/科学文档,标注成本还会更高,所以目前大多数开源指令数据集主要由短样本组成。


在这项工作中,研究人员发现一种简单且容易实现的方法,可以利用预先构建的大型多样化短提示数据集,在长语境基准测试中效果也出奇地好。


具体来说,首先使用LLAMA 2-Chat中使用的RLHF数据集,并用LLAMA 2-Chat本身生成的自指导(self-instruct)长数据对其进行扩充,预期模型能够通过大量RLHF数据学习到一系列不同的技能,并通过自指导数据将知识转移到长上下文的场景中。


数据生成过程侧重于QA格式的任务:从预训练语料库中的长文档开始,随机选择一个文本块,并提示LLAMA 2-Chat根据文本块中的信息编写问答对,通过不同的提示收集长短格式的答案。


除此之外,生成过程还包括自我批判(self-critque)步骤,即提示LLAMA 2-CHAT验证模型生成的答案。


给定生成的 QA 对,使用原始长文档(已截断以适应模型的最大上下文长度)作为上下文来构建训练实例。


对于短指令数据,将其连接为16,384个token序列;对于长指令数据,在右侧添加填充token以便模型可以单独处理每个长实例,而无需截断。


虽然标准指令微调只计算输出token的损失,但同时计算长输入提示的语言建模损失也可以提升下游任务的性能。


实验结果


1、预训练评估


短任务

要使长上下文LLM具备普遍实用性,一个重要的要求是确保其在标准短上下文任务中的强大性能。



在短任务实验中,可以看到其结果与LLAMA 2相当,而且在大多数情况下比LLAMA 2要更强,在编码、数学和知识密集型任务(如 MMLU)上的结果有明显改善,优于GPT-3.5



相比其他长上下文方法在短任务的不佳表现,研究人员将该模型的性能改进归功于额外的计算FLOPs以及从新引入的长数据中学到的知识。


长任务


之前的方法大多依靠易错性和合成任务来衡量模型在长上下文场景下的性能,与此不同,研究人员使用真实世界的语言任务来进行长上下文的评估:


在NarrativeQA上评估零样本性能,在QuALITY和Qasper上评估2-shot性能,在QMSum上评估1-shot性能,具体的样本数根据每个数据集的平均样本长度决定。


使用的提示非常简单「{Context} Q: {Question}, A:」,可以减少评估误差;如果提示语超过模型的最大输入长度或16,384个词组,输入提示语将从左侧截断。



对比其他开源长上下文模型,在 7B 尺度上,只有Together-7B  32k可以与该模型的性能相媲美。


有效利用上下文(Effective Context Utilization)


为了验证该模型能够有效利用增加的上下文窗口,从实验中可以看到,随着上下文长度的增加,每个长任务的结果都在单调地改善。



除此之外,模型的语言建模损失与上下文长度呈幂律加常数的比例关系,结果表明,尽管收益递减,但该模型在 32,768 个文本token以内仍然显示出性能增益(语言建模损失),更大的模型可以更有效地利用上下文。



2、指令微调结果


研究人员在ZeroSCROLLS基准上对指令微调模型进行测试,包含10个长上下文数据集,如摘要、问题回答和多文档聚合任务。


为了进行公平比较,模型设置为相同的提示、截断策略和最大生成长度等。


实验结果显示,在不使用任何人类标注的长上下文数据的情况下,70B的chat模型在10项任务中的7项都优于gpt-3.5-turbo-16k



如果使用更多不同的数据进行微调,研究人员预计其性能还会进一步提高。


值得一提的是,评估长上下文LLM是一项比较困难的任务,基准中使用的自动指标在很多方面都有局限性,例如只有单个参考的文本摘要,n-gram也不一定符合人类偏好。


3、人类评估


作为自动评估基准结果的补充,通过询问标注人在有用性、诚实性和无害性等方面,更喜欢来自文中提出的指令微调模型,还是来自MPT-30B-chat、GPT-4、GPT-3.5-turbo-16k和Claude-2等专有模型的生成来进行人工评估。


与自动度量不同,人类更擅长评估长上下文模型的模型响应质量,因为可接受答案的空间很大。


研究人员主要关注两个应用场景,评估模型利用信息(检索到的文档)来回答给定查询的能力。


1)多回合对话数据,每个提示都是聊天历史,模型需要基于聊天历史生成一致的响应;


2)多文档搜索查询应答应用,该模型提供了从搜索会话中检索到的几个最相关的文档以及相应的搜索查询。


总共2352个样本,其中每个样本由3个不同的人类标注人员进行评估,模型相对于其他模型的标准胜率是通过平均每个比较示例的结果来计算的。



可以看到,Llama 2 Long只需要很少的指令数据就可以实现与MPT-30B-chat、GPT-3.5-turbo-16k和Claude-2相近的性能。



参考资料:
https://arxiv.org/abs/2309.16039
https://venturebeat.com/ai/meta-quietly-releases-llama-2-long-ai-that-outperforms-gpt-3-5-and-claude-2-on-some-tasks/




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
国产大模型开源一哥再登场,最强双语LLM「全家桶」级开源!340亿参数超越Llama2-70BGPT-4最强平替更新!UC伯克利发布Vicuna v1.5,支持4K和16K上下文,刷新SOTA,LeCun转赞OpenAI史诗级更新!最强大模型炸场,128K上下文、价格暴降2/3,还能定制专属GPT贾佳亚团队开源全球首个70B长文本大语言模型,读论文看小说直接ProMax红色日记 9.1-10王者GPT-4已来,32k上下文!OpenAI首届开发者大会最新爆料,全新UI可定制GPT,xAI大模型大范围可用20B跨级挑战70B性能!国产开源大模型打造大模型新标杆OpenAI突发更新!GPT-3.5正式开放「微调」,人人可打造专属ChatGPT|附最全官方指南nǚ hóng?nǚ gōngUC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源长文本信息准确率超过ChatGPT,Meta提出降低大模型幻觉新方法全球最强长文本大模型,一次可读35万汉字:Baichuan2-192K上线「Meta版ChatGPT」背后的技术:想让基础LLM更好地处理长上下文,只需持续预训练讯飞星火V3.0发布!整体超越ChatGPT!ChatGPT最强竞对更新!上下文长度翻倍,API降价近30%Meta普林斯顿提出LLM上下文终极解决方案!让模型化身自主智能体,自行读取上下文节点树讯飞星火:整体超越ChatGPT,医疗超越GPT4!一手实测在此波士顿大学「鸭嘴兽-70B」登顶Hugging Face大模型排行榜!高效数据集+独特LoRA微调是关键20B量级大模型性能媲美Llama2-70B!完全开源,从基座到工具全安排明白了百川智能再发新模型,超越Claude2将上下文窗口做到了全球第一起飞在雨中笑谈邂逅(31)感谢尹鸿祝,为女儿赴美留学牵线搭桥无限量访问GPT-4!ChatGPT企业版来了,可扩展32k上下文,代码解释器随便用ChatGPT企业版来了:历史最强版本,2倍速GPT-4使用无限制、32k上下文32k上下文可商用!羊驼进化成长颈鹿,“开源大模型之最”Google语言模型反击战!部分性能超越ChatGPT!GPU推理提速4倍,256K上下文全球最长:无问芯穹刷新大模型优化记录首个可商用的32k上下文开源大模型「长颈鹿」来了,两万词长文不在话下将LLaMA2上下文扩展至100k,MIT、港中文有了LongLoRA方法最强LLaMA突然来袭!只改一个超参数,实现上下文3.2万token,多个任务打败ChatGPT、Claude 2大模型幻觉排行榜GPT-4夺冠,英伟达科学家强力打假!Meta版ChatGPT一作发长文鸣冤ChatGPT测试上传文件功能;百川推出192K长文本大模型;通义千问App安卓版上线丨AIGC大事日报百川智能推出全球最长上下文窗口大模型Baichuan2-192K,一次可输入35万字超越Claude2铅笔两首《青海情》
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。