Redian新闻
>
羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品

羊驼家族大模型集体进化!32k上下文追平GPT-4,田渊栋团队出品

公众号新闻
梦晨 发自 凹非寺
量子位 | 公众号 QbitAI

开源羊驼大模型LLaMA上下文追平GPT-4,只需要一个简单改动!

Meta AI这篇刚刚提交的论文表示,LLaMA上下文窗口从2k扩展到32k后只需要小于1000步的微调

与预训练相比,成本忽略不计

扩展上下文窗口,就意味着AI的“工作记忆”容量增加,具体来说可以:

  • 支持更多轮对话,减少遗忘现象,如更稳定的角色扮演

  • 输入更多资料完成更复杂的任务,如一次处理更长文档或多篇文档

更重要的意义在于,所有基于LLaMA的羊驼大模型家族岂不是可以低成本采用此方法,集体进化

羊驼是目前综合能力最强的开源基础模型,已经衍生出不少完全开源可商用大模型和垂直行业模型。

论文通信作者田渊栋也激动地在朋友圈分享这一新进展。

基于RoPE的大模型都能用

新方法名为位置插值(Position Interpolation),对使用RoPE(旋转位置编码)的大模型都适用。

RoPE早在2021年就由追一科技团队提出,到现在已成为大模型最常见的位置编码方法之一。

但在此架构下直接使用外推法(Extrapolation)扩展上下文窗口,会完全破坏自注意力机制。

具体来说,超出预训练上下文长度之外的部分,会使模型困惑度(perplexity)飙升至和未经训练的模型相当。

新方法改成线性地缩小位置索引,扩展前后位置索引和相对距离的范围对齐。

用图表现二者的区别更加直观。

实验结果显示,新方法对从7B到65B的LLaMA大模型都有效。

在长序列语言建模(Long Sequence Language Modeling)、密钥检索(Passkey Retrieval)、长文档摘要(Long Document Summarization)中性能都没有明显下降。

除了实验之外,论文附录中也给出了对新方法的详细证明。

Three More Thing

上下文窗口曾经是开源大模型与商业大模型之间一个重要差距。

比如OpenAI的GPT-3.5最高支持16k,GPT-4支持32k,AnthropicAI的Claude更是高达100k。

与此同时许多开源大模型如LLaMA和Falcon还停留在2k。

现在,Meta AI的新成果直接把这一差距抹平了。

扩展上下文窗口也是近期大模型研究的焦点之一,除了位置插值方法之外,还有很多尝试引起业界关注。

1、开发者kaiokendev在一篇技术博客中探索了一种将LLaMa上下文窗口扩展到8k的方法。

2、数据安全公司Soveren机器学习负责人Galina Alperovich在一篇文章中总结了扩展上下文窗口的6个技巧。

3、来自Mila、IBM等机构的团队还在一篇论文中尝试了在Transformer中完全去掉位置编码的方法。

有需要的小伙伴可以点击下方链接查看~

Meta论文:
https://arxiv.org/abs/2306.15595

Extending Context is Hard…but not Impossible
https://kaiokendev.github.io/context

The Secret Sauce behind 100K context window in LLMs
https://blog.gopenai.com/how-to-speed-up-llms-and-use-100k-context-window-all-tricks-in-one-place-ffd40577b4c

无位置编码论文
https://arxiv.org/abs/2305.19466

大咖云集,锚定新技术,稀土开发者大会主会场直播有奖预约中

2023 年稀土开发者大会主论坛议程出炉!主论坛演讲嘉宾分别是:火山引擎副总裁&字节跳动开源治理运营负责人张鑫、英特尔软件与先进技术事业部研发总监杨继国、Google Cloud 首席架构师于有志、LVS 创始人章文嵩、火山引擎边缘云资深架构师徐广治、北京大学王选计算机研究所教授、CCF 自然语言处理专委会秘书长万小军,他们将聚焦生成式 AI、云原生、边缘云、ChatGPT等热门话题,深入分析新技术给未来产业带来的挑战和机遇。

主会场还将为「掘金引力榜」的获奖项目和个人进行颁奖。点击扫码进入官网,点击直播间,即可参与评论互动与极米投影仪抽奖!


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ChatGPT大更新!OpenAI奉上程序员大礼包:API新增杀手级能力还降价,新模型、4倍上下文都来了两大可商用开源大模型同时发布!性能不输LLaMA,羊驼家族名字都不够用了大羊驼、羊驼、小羊驼和ChatGPT比差在哪儿?CMU副教授测评了7个类ChatGPT大模型AI 又进化了,羊驼再度进化成鲸鱼!ChatGPT凌晨重磅更新!GPT-3.5/4双升级:上下文飙升4倍,用API自己造插件七绝 归去来兮ChatGPT羊驼家族全沦陷!CMU博士击破LLM护栏,人类毁灭计划脱口而出无需人类反馈即可对齐!田渊栋团队新作RLCD:无害型、有益性、大纲写作全面超越基线模型陈天奇TVM团队出品:A卡跑大模型,性能达到4090的80%,价格仅一半首个可商用的32k上下文开源大模型「长颈鹿」来了,两万词长文不在话下将上下文长度扩展到256k,无限上下文版本的LongLLaMA来了?田渊栋团队最新研究:不到1000步微调,将LLaMA上下文扩展到32K基于Transformer的大模型是如何运行的?Meta从全局和上下文学习揭秘32k上下文可商用!羊驼进化成长颈鹿,“开源大模型之最”ChatGPT升级+降价!增加函数调用能力、支持处理更长上下文...田渊栋新作:打开1层Transformer黑盒,注意力机制没那么神秘下载量超300w的ChatGLM-6B再升级:8-32k上下文,推理提速42%大模型搅拌机来了!把11个AI的结果融合输出,艾伦研究所华人团队出品GPT-4最强平替更新!UC伯克利发布Vicuna v1.5,支持4K和16K上下文,刷新SOTA,LeCun转赞【尘封档案】系列之160:华南特案组之(二)李代桃僵(上)田渊栋团队新作:通过位置插值来扩展大语言模型的上下文窗口谷歌没开源的PaLM,网友给开源了!千亿参数微缩版:最大只有10亿,8k上下文上下文1.6万token的编程大模型来了!与Stable Diffusion出自同门,一次吃5个Python文件不费劲ICLR 2023 | 大模型上下文学习的无限扩展方法:kNN Prompting大语言模型的视觉天赋:GPT也能通过上下文学习解决视觉任务祭遇害55年的林昭击败整个羊驼家族,Meta AI自对齐新方法只需极少人工标注数据大语言模型会偷懒?新研究:上下文太长,模型会略过中间不看 | 本周论文推荐Stable家族上新!全新编码工具StableCode,16000上下文,5个Python文件同编辑语言模型悄悄偷懒?新研究:​上下文太长,模型会略过中间不看7 Papers & Radios | BERT上下文长度达200万token;华人团队通用分割模型SEEMChatGPT上下文碾压64K开源模型!UC伯克利:开源模型能力严重「虚标」|最新硬核评测曝光国产130亿参数大模型免费商用!性能超Llama2-13B,支持8k上下文,哈工大已用上拯救被困小狐狸俄国的侵略战争 (Russia\'s Aggression War)
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。