Redian新闻
>
Meta千亿参数大模型OPT-IML「升级版」来了,完整模型和代码公布!

Meta千亿参数大模型OPT-IML「升级版」来了,完整模型和代码公布!

公众号新闻



  新智元报道  

编辑:Joey 昕朋
【新智元导读】继今年五月发布的首个千亿参数大模型OPT-175B后,Meta又重磅推出「升级版」OPT-IML,这次有何提升?

今年五月,MetaAI官宣发布了基于1750亿参数的超大模型OPT-175B,还对所有社区免费开放。

12月22日,该模型的更新版本OPT-IML(Open Pre-trained Transformer)正式上线,Meta称其「对2000个语言任务进行了微调,包含1750 亿个参数」,还将为非商业研究用途免费开放。


这次更新的OPT-IML的性能表现如何,先上两张图来看看。


这次的OPT-IML创建了两种模型尺寸,分别是30B和175B。

与旧版OPT模型相比,OPT-IML在14个标准NLP评估任务中的平均表现均优于OPT。

在零次学习任务上两种模型大小分别好7%~ 和32-shot 任务分别好4%~ 和 0.4%~。

在这项研究中,研究人员描述了增加模型和基准大小如何影响指令调整决策对下游任务性能的影响。

为此他们开发了 OPT-IML Bench,这是一个相当大的指令元学习 (IML) 基准,包含2000个NLP任务,这些任务根据现有的八个基准分为任务类别。


为训练OPT-IML 30B和175B,研究人员首先从该框架的角度对应用于 OPT-30B 的指令调优决策提出了见解。

在具有不同目标和输入格式的四个评估基准(PromptSource、FLAN、Super-NaturalInstructions 和 UnifiedSKG)上,OPT-IML 在两个尺度上展示了所有三种泛化技能。

它不仅在所有基准测试中显著优于OPT,而且以极具竞争力的方式优于针对该特定基准优化的现有模型。

此外OPT-IML已经开源,Github链接小编也放在下面啦~

Github链接:https://github.com/facebookresearch/metaseq/tree/main/projects/OPT-IML

接下来通过论文来一起了解一下OPT-IML。

论文链接:https://github.com/facebookresearch/metaseq/blob/main/projects/OPT-IML/optimal_paper_v1.pdf


研究方法


语言模型的指令微调已成为增强其零样本和少样本泛化能力的有效方法。在这项研究中,Meta研究人员对指令微调进行了三项重要的补充。


首先,他们编译了一个大规模的指令微调基准,其中包含来自八个数据集集合的2,000个NLP任务,按任务类型分类。

究人员在此基准上有选择地构建评估拆分,以测试三种不同类型的模型泛化能力:

包括来自完全保留类别的任务(tasks from fully held-out categories)、来自已见类型的保留任务(held-out tasks from seen types)以及来自已见任务的保留实例(held-out instances from seen tasks)。


指令微调


对模型进行微调,以使它们与遵守说明保持一致,是目前机器学习的研究方向之一。


指令微调有两种方法。一种侧重于使用人工注释的指令和反馈对各种任务的模型进行微调;另一种,侧重于通过注释或自动向可公开访问的基准和数据集添加指令。


在本研究中,Meta AI成员专注于第二种技术,并编译了许多可公开访问的数据集,其中包含改进OPT的方法。


研究过程中,Meta成员使用来自四个基准的1836个任务,提出了类似的缩放方法。最后,在调整整个测试,以突破具有挑战性的外部基准(例如 MMLU 和 Big-Bench Hard (BBH))性能极限的同时,研究人员描述了可能影响下游性能的各种指令调整策略的权值。


多任务学习


多任务学习是基于指令的微调 (MTL) 的一种表述。


MTL 是一种流行的范例,当与共享可比较参数或表示的类似函数结合使用时,它可以提高任务的泛化性能。


近年来,MTL已应用于众多NLP场景,主要侧重于通过利用来自相关活动的信号来提高训练任务或新领域的性能。

相比之下,基于指令的微调有助于我们提高对前所未见问题的泛化性能。它是通过指令将所有任务组合成一个概念并通过在所有任务上分配模型的权重来一起训练它们来实现的。

什么是OPT?


大型语言模型,即具有超过 1000 亿个参数的自然语言处理系统,在过去几年中改变了NLP和AI研究。

这些模型接受了大量不同文本的训练,展现出令人惊讶的新能力,可以生成创意文本、解决基本数学问题、回答阅读理解问题等等。

虽然在某些情况下,公众可以通过付费 API 与这些模型进行交互,但完整的研究访问权限仍然仅限于少数资源丰富的实验室。

这种受限访问限制了研究人员理解这些大型语言模型如何工作以及为何工作的能力,阻碍了提高其鲁棒性和减轻偏见等已知问题的进展。

出于对开放科学的承诺,Meta AI于今年5月发布了Open Pretrained Transformer (OPT-175B),这是一个具有 1750 亿参数的模型,在公共数据集上训练而成,之所以共享这个模型,Meta AI 希望更多的社区参与理解关于大模型的基本技术。

简单来说,Meta将用于人工智能研究的大型语言模型访问权限开放给大众,从而实现大模型研究的人工智能民主化。


与老版对比


根据Meta现在发布的IML版本经过微调,在自然语言任务上的表现比旧版OPT更好。

典型的语言任务包括回答问题、总结文本和翻译。

为了进行微调,研究人员使用了大约2000个自然语言任务。这些任务分为八个NLP基准(OPT-IML Bench),研究人员也提供了这些基准。

平均而言,以30B和175B模型为例,OPT-IML比OPT的零次学习准确度提高了约 6-7%。在32次学习中,300亿参数的模型准确度有显著改进,1750亿参数的模型有轻微改进。


经过对比,Meta团队发现OPT-IML的性能在所有基准测试上都优于OPT,并且在零样本和少样本学习准确度方面,比其他基于指令微调的模型更具有竞争力。

参考资料:
https://the-decoder.com/opt-iml-meta-releases-open-source-language-model-optimized-for-tasks/
https://wandb.ai/telidavies/ml-news/reports/OPT-IML-Meta-Releases-New-Instruction-Tuned-OPT-Models-NLP-Task-Benchmark--VmlldzozMjAzMzc1


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
首届北京文化产业投融资论坛暨CEIS2023倒计时5天!金河豚,完整入围发布!最大的ViT来了!谷歌提出ViT-22B:视觉Transformer扩展到220亿参数直播课预告:多模态预训练大模型OmModel及视觉应用开发NeurlPS 2022 | 全新大模型参数高效微调方法SSF:仅需训练0.3M的参数,效果卓越扩散模型和Transformer梦幻联动!一举拿下新SOTA首届北京文化产业投融资论坛暨CEIS2023定档!金河豚,完整入围发布!硬件预算最高直降46倍!低成本上手AIGC和千亿大模型,一行代码自动并行,Colossal-AI再升级谷歌真急了,推DeepMind撑场!700亿参数Sparrow硬刚ChatGTPOpenAI CEO:AI 创业热点,是模型和应用的「中间层」初识索马里人Meta发布首个「非参数化」掩码语言模型NPM:吊打500倍参数量的GPT-3100亿参数的语言模型跑不动?MIT华人博士提出SmoothQuant量化,内存需求直降一半,速度提升1.56倍!100万亿参数的GPT 4 刷屏AI社区,大概率是假消息黑客都懵了!澳人最常用密码公布,近8成几秒内可被攻破扩散模型和Transformer梦幻联动!替换U-Net,一举拿下新SOTA!在美国271.害人害己走资派邓小平窃国大盗乱世奸雄2022最常用密码公布,你的账户安全吗?扩散模型和Transformer梦幻联动!一举拿下新SOTA,MILA博士:U-Net已死Meta打造首个「蛋白质宇宙」全景图!用150亿参数语言模型,预测了6亿+蛋白质结构硬核观察 #879 GPT-4 将有 100 万亿参数,与人类大脑神经元数量相当!FastTrack Universität 2023莱比锡大学公立语言项目招生简章首个“开源ChatGPT”来了:基于谷歌5400亿参数大模型,华人小哥出品,网友吐槽:这谁能跑?中国遊客绝迹 韩大型Outlet倒闭别再用 if 校验参数了,太Low!这才是专业的 SpringBoot 参数校验方式!没有百亿参数的大模型,不敢奢谈ChatGPT专利战「升级」,智能汽车赛道参与者如何「掌控」主动权NeurlPS 2022 | 全新大模型参数高效微调方法:仅需训练0.3M的参数10亿参数、多项SOTA,智源开源视觉基础模型EVA将GPT家族模型极限压缩,1700+亿参数稀疏性达50%性能不减,单GPU即可雕刻南瓜灯,红薯干习大帝也不是一无是处,治好了朋友的抑郁用 Penpot 弥合设计和代码之间的鸿沟 | Linux 中国ChatGPT收费版真来了!每月134元告别排队卡顿,免费的还在,网友:蹲个「青春版」大规模、高性能,清华、聆心智能推出中文开放域对话预训练开源模型OPD
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。