Redian新闻
>
LLaMA2上下文长度暴涨至100万tokens,只需调整1个超参数|复旦邱锡鹏团队出品

LLaMA2上下文长度暴涨至100万tokens,只需调整1个超参数|复旦邱锡鹏团队出品

公众号新闻
萧箫 发自 凹非寺
量子位 | 公众号 QbitAI

只需微调一下,大模型支持上下文大小就能从1.6万tokens延长至100万?!

还是在只有70亿参数的LLaMA 2上。

要知道,即使是当前最火的Claude 2和GPT-4,支持上下文长度也不过10万和3.2万,超出这个范围大模型就会开始胡言乱语、记不住东西。

现在,一项来自复旦大学和上海人工智能实验室的新研究,不仅找到了让一系列大模型提升上下文窗口长度的方法,还发掘出了其中的规律

按照这个规律,只需调整1个超参数就能确保输出效果的同时,稳定提升大模型外推性能

外推性,指大模型输入长度超过预训练文本长度时,输出表现变化情况。如果外推能力不好,输入长度一旦超过预训练文本长度,大模型就会“胡言乱语”。

所以,它究竟能提升哪些大模型的外推能力,又是如何做到的?

大模型外推能力提升“机关”

这种提升大模型外推能力的方法,和Transformer架构中名叫位置编码的模块有关。

事实上,单纯的注意力机制(Attention)模块无法区分不同位置的token,例如“我吃苹果”和“苹果吃我”在它眼里没有差异。

因此需要加入位置编码,来让它理解词序信息,从而真正读懂一句话的含义。

目前的Transformer位置编码方法,有绝对位置编码(将位置信息融入到输入)、相对位置编码(将位置信息写入attention分数计算)和旋转位置编码几种。其中,最火热的要属旋转位置编码,也就是RoPE了。

RoPE通过绝对位置编码的形式,实现了相对位置编码的效果,但与相对位置编码相比,又能更好地提升大模型的外推潜力。

如何进一步激发采用RoPE位置编码的大模型的外推能力,也成为了最近不少研究的新方向。

这些研究,又主要分为限制注意力调整旋转角两大流派。

限制注意力的代表研究包括ALiBi、xPos、BCA等。最近MIT提出的StreamingLLM,可以让大模型实现无限的输入长度(但并不增加上下文窗口长度),就属于这一方向的研究类型。

图源作者

调整旋转角的工作则更多,典型代表如线性内插、Giraffe、Code LLaMA、LLaMA2 Long等都属于这一类型的研究。

图源作者

以Meta最近爆火的LLaMA2 Long研究为例,它就提出了一个名叫RoPE ABF的方法,通过修改一个超参数,成功将大模型的上下文长度延长到3.2万tokens

这个超参数,正是Code LLaMA和LLaMA2 Long等研究找出的“开关”——

旋转角底数(base)。

只需要微调它,就可以确保提升大模型的外推表现。

但无论是Code LLaMA还是LLaMA2 Long,都只是在特定的base和续训长度上进行微调,使得其外推能力增强。

是否能找到一种规律,确保所有用了RoPE位置编码的大模型,都能稳定提升外推表现?

掌握这个规律,上下文轻松100w+

来自复旦大学和上海AI研究院的研究人员,针对这一问题进行了实验。

他们先是分析了影响RoPE外推能力的几种参数,提出了一种名叫临界维度(Critical Dimension)的概念,随后基于这一概念,总结出了一套RoPE外推的缩放法则(Scaling Laws of RoPE-based Extrapolation)。

只需要应用这个规律,就能确保任意基于RoPE位置编码大模型都能改善外推能力。

先来看看临界维度是什么。

从定义中来看,它和预训练文本长度Ttrain、自注意力头维度数量d等参数都有关系,具体计算方法如下:

其中,10000即超参数、旋转角底数base的“初始值”。

作者发现,无论放大还是缩小base,最终都能让基于RoPE的大模型的外推能力得到增强,相比之下当旋转角底数为10000时,大模型外推能力是最差的。

对此论文认为,旋转角底数更小,能让更多的维度感知到位置信息,旋转角底数更大,则能表示出更长的位置信息。

既然如此,在面对不同长度的续训语料时,究竟缩小和放大多少旋转角底数,才能确保大模型外推能力得到最大程度上的提升?

论文给出了一个扩展RoPE外推的缩放法则,与临界维度、大模型的续训文本长度和预训练文本长度等参数有关:

基于这一规律,可以根据不同预训练和续训文本长度,来直接计算出大模型的外推表现,换言之就是预测大模型的支持的上下文长度。

反之利用这一法则,也能快速推导出如何最好地调整旋转角底数,从而提升大模型外推表现。

作者针对这一系列任务进行了测试,发现实验上目前输入10万、50万甚至100万tokens长度,都可以保证,无需额外注意力限制即可实现外推。

与此同时,包括Code LLaMA和LLaMA2 Long在内的大模型外推能力增强工作都证明了这一规律是确实合理有效的。

这样一来,只需要根据这个规律“调个参”,就能轻松扩展基于RoPE的大模型上下文窗口长度、增强外推能力了。

论文一作柳潇然表示,目前这项研究还在通过改进续训语料,提升下游任务效果,等完成之后就会将代码和模型开源,可以期待一下~

论文地址:

https://arxiv.org/abs/2310.05209

Github仓库:

https://github.com/OpenLMLab/scaling-rope

论文解析博客:

https://zhuanlan.zhihu.com/p/660073229

「量子位2023人工智能年度评选」开始啦!

今年,量子位2023人工智能年度评选从企业、人物、产品/解决方案三大维度设立了5类奖项!欢迎扫码报名 

MEET 2024大会已启动!点此了解详情


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Lancet Microbe|复旦大学余宏杰:于甲型H1N1病毒母传抗体和毒株间交叉免疫领域取得重要进展Nature Commun.|复旦大学服部素之:合作揭示神经性疼痛相关的P2X4受体别构抑制的机制Gut|复旦大学陈兴栋:覆盖31省市2.3亿人,系统描述中国过去50年间慢乙肝感染的流行病学特征Meta再放「长文本」杀器Llama 2-Long:70B尺寸登顶最强「32k上下文」模型,超越ChatGPTJMV|复旦大学姜世勃/陆路/夏帅:合作发现小分子化合物Navitoclax靶向冠状病毒保守靶点HR1Nature子刊|复旦大学孔星星/刘铁民:合作揭示非酒精性脂肪性肝炎中骨骼肌细胞和肝脏发生代谢对话的新机制无限访问GPT-4!史上最强企业版ChatGPT上线,3.2万token,OpenAI颠覆打工人ChatGPT企业版炸裂上线!无限制访问、两倍速、3.2万token……OpenAI开始“抢钱”了|GGView最多400万token上下文、推理提速22倍,StreamingLLM火了,已获GitHub 2.5K星PyTorch官方认可!斯坦福博士新作:长上下文LLM推理速度提8倍400万token,大模型推理飙升22倍!清华校友爆火一作,GitHub狂揽1.8k星NeurIPS 2023 | 「解释一切」图像概念解释器来了,港科大团队出品ChatGPT最强竞对更新!上下文长度翻倍,API降价近30%全新近似注意力机制HyperAttention:对长上下文友好、LLM推理提速50%邱锡鹏老师推荐的新书:ChatGPT原理与实战,文末留言送书~“摘上几十斤就挣几百,抢到就是赚到!”这味药材暴涨至1000元/公斤,有人抢青、盗采、砍树...3.2万token、无限访问GPT-4,史上最强企业版ChatGPT上线一枣难求!这味药材暴涨至1000元/公斤,什么情况JACS|复旦大学周璐:合作报道共价配体高通量筛选新方法贾佳亚韩松团队新作:两行代码让大模型上下文窗口倍增 | GitHub热榜长篇小说《如絮》 第一百八十五章 旧金山-2007年 向日葵撵着白云走Leukemia|复旦大学 徐国良院士/石玉衡/高海:首次报道cGAS-STING通路在介导TET2缺失导致的CH发生中的作用UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源Transformer的上下文学习能力是哪来的?诱惑「Meta版ChatGPT」背后的技术:想让基础LLM更好地处理长上下文,只需持续预训练100万token体验额度!飞桨黑客松应用与创意大赛,心动就行动!Meta普林斯顿提出LLM上下文终极解决方案!让模型化身自主智能体,自行读取上下文节点树把LLM视作操作系统,它就拥有了无限「虚拟」上下文,伯克利新作已揽1.7k star最强LLaMA突然来袭!只改一个超参数,实现上下文3.2万token,多个任务打败ChatGPT、Claude 2看看历史上辱华漫画----就知道为何“僵尸”受罚了。。。。【回国记录】我的初恋将LLaMA2上下文扩展至100k,MIT、港中文有了LongLoRA方法LeCun引战,LLM根本不会推理!大模型「涌现」,终究离不开上下文学习
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。