Redian新闻
>
斯坦福70亿参数开源模型媲美GPT-3.5,100美元即可复现

斯坦福70亿参数开源模型媲美GPT-3.5,100美元即可复现

公众号新闻

机器之心报道

机器之心编辑部

学界或许没有业界的算力优势,但可以使用 self-instruct 方法直面大规模语言模型的挑战。


随着大规模语言模型的日渐强大,人们对 AI 模型提出了伦理道德方面的更高要求。业界在模型规模扩展方面具有算力资源优势,但要想让模型更规范、可靠,需要学术界的努力。


近日,斯坦福基于 Meta 的 LLaMA 7B 模型微调出一个新模型 Alpaca。该研究让 OpenAI 的 text-davinci-003 模型以 self-instruct 方式生成 52K 指令遵循(instruction-following)样本,以此作为 Alpaca 的训练数据。研究团队已将训练数据、生成训练数据的代码和超参数开源,后续还将发布模型权重和训练代码。



  • 项目地址:https://github.com/tatsu-lab/stanford_alpaca

  • 试用地址:https://alpaca-ai-custom6.ngrok.io/


实验结果表明,Alpaca 的很多行为都与 text-davinci-003 类似。也就是说,只有 7B 参数的轻量级模型 Alpaca 性能可媲美 GPT-3.5 这样的超大规模语言模型。


我们来看一下 Alpaca 模型是如何做到的。


训练方法


在学术界的预算条件下,训练高质量的指令遵循模型面临两个重要挑战:强大的预训练语言模型和高质量的指令遵循数据。


Meta 最近发布的 LLaMA 系列模型解决了第一个挑战。对于第二个挑战,2022 年底的 self-instruct 论文提出使用现有的强大语言模型自动生成指令数据。


论文地址:https://arxiv.org/abs/2212.10560


按照这种方法,Alpaca 使用 LLaMA 7B 模型的监督学习在 text-davinci-003 以 self-instruct 方式生成的 52K 指令遵循样本上进行微调。


self-instruct 方法概览。


Alpaca 的研究团队首先使用 self-instruct 种子集中的 175 个人工编写的指令输出(instruction-output)对,然后用该种子集作为 in-context 样本 prompt text-davinci-003 来生成更多指令。该研究通过简化生成 pipeline 改进了 self-instruct 方法,并显著降低了成本。



该研究共生成了 52K 个不同的指令和相应的输出作为训练数据,其中使用了 OpenAI 开放的 API,成本不到 500 美元。由于研究团队已将训练数据开源,对于想要复现 Alpaca 的开发者来说,这500美元就省下了。



有了这个指令遵循数据集,该研究下一步使用 Hugging Face 的训练框架微调了 LLaMA 模型,并利用了 FSDP(Fully Sharded Data Parallel)和混合精度训练等技术。成本方面,在 8 个 80GB A100 上微调一个 7B LLaMA 模型需要 3 个小时,这对大多数云计算提供商来说成本不到 100 美元。


模型评估


该研究使用来自 self-instruct 评估集的输入进行了人工评估,这项工作由 5 名研究团队的学生完成。该评估集由 self-instruct 论文的作者收集整理,涵盖了多种面向用户的 instruction,涉及电子邮件、社交媒体和办公工具。


在将 text-davinci-003 和 Alpaca 7B 进行 blind pairwise 比较之后,研究者发现这两个模型的性能非常相似,并且 Alpaca 略优于 text-davinci-003。


从参数规模的角度看,Alpaca 远远小于 text-davinci-003,移动端甚至也可以运行 7B 的轻量级语言模型。这让 Alpaca 意义非凡。


除了利用上述静态的 self-instruct 评估集,该研究还对 Alpaca 模型进行了交互测试,并发现 Alpaca 的表现通常与 text-davinci-003 相似。


下面是研究团队测试的两个例子,结果表明 Alpaca 的输出良好,并且反映出指令遵循数据集的一般风格。例如,Alpaca 输出的答案通常比 ChatGPT 更简洁,这和 text-davinci-003 类似。



模型缺陷


实验中,Alpaca 还表现出语言模型的几种常见缺陷,包括幻觉、毒性和刻板印象,其中幻觉问题尤其严重。


例如在下图中,Alpaca 回答坦桑尼亚的首都是达累斯萨拉姆,但实际上应该是多多马。



此外,Alpaca 能够生成一些看似良好却包含错误或虚假信息的文本,这可能会误导人们。


Alpaca 可能包含许多与底层语言模型和指令调优数据相关的其他缺陷。但是,Alpaca 对机器学习社区仍然具有重要意义,因为它提供了一个相对轻量级的模型,可作为研究重要缺陷的基础。斯坦福的研究团队还强调:Alpaca 只可用于学术研究,禁止任何商业用途。


接下来,斯坦福的研究团队会进一步探究 Alpaca 模型的安全性、理解能力、规模扩展等等。研究团队希望 Alpaca 能够促进指令遵循模型的发展。


原文链接:

https://crfm.stanford.edu/2023/03/13/alpaca.html



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
0门槛克隆ChatGPT!30分钟训完,60亿参数性能堪比GPT-3.5超40所美国大学官宣涨学费!哈佛宾大猛涨近9万,斯坦福7% ...王小川官宣大模型创业!5000万美元启动资金,年中发布首个产品,目前在训500亿参数版本ChatGPT 又遇劲敌!谷歌发布史上最大 AI 模型 PaLM-E:5620 亿参数,无需特殊训练即可操纵机器人千亿参数开源大模型 BLOOM 背后的技术谷歌没开源的PaLM,网友给开源了!千亿参数微缩版:最大只有10亿,8k上下文吃在邮轮这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3可复现、自动化、低成本、高评估水平,首个自动化评估大模型的大模型PandaLM来了三行代码调用PandaLM大模型自动实现保护隐私、可靠、可复现的大模型评估为什么我不吃益生菌类补品?狂飙!超40所美国大学官宣涨学费!哈佛宾大猛涨近9万,斯坦福7% ...复旦MOSS升级版开源上线;马斯克启动TruthGPT;海康训练出百亿参数CV大模型丨AIGC大事周报ChatGPT的替代品来了!HuggingChat号称媲美GPT-3.5,要拆掉OpenAI的围墙300美元复刻ChatGPT九成功力,GPT-4亲自监考,130亿参数开源模型「小羊驼」来了第二次徒步圣路,750公里葡萄牙之路+英国之路:D30~惊魂难定估值80亿全员85人!新晋AI编程独角兽,大模型媲美OpenAI CodexDriveGPT自动驾驶大模型中国玩家首发!1200亿参数,毫末智行出品LeCun狂赞:600刀GPT-3.5平替! 斯坦福70亿参数「羊驼」爆火,LLaMA杀疯了ChatGPT平替「小羊驼」Mac可跑!2行代码单GPU,UC伯克利再发70亿参数开源模型HuggingChat叫板ChatGPT!300亿参数大模型免费用,网友:真香将GPT家族模型极限压缩,1700+亿参数稀疏性达50%性能不减,单GPU即可Meta版ChatGPT来了?小扎、LeCun官宣650亿参数SOTA大语言模型LLaMA300美元平替ChatGPT!斯坦福130亿参数「小羊驼」诞生,暴杀「草泥马」0门槛克隆ChatGPT方案再升级,开源模型完整复现,在线体验无需注册全民K歌《我是你的格桑花》彭博推出BloombergGPT——专为金融行业从头打造的500亿参数大语言模型开源方案复现ChatGPT流程!1.62GB显存即可体验,单机训练提速7.73倍设计师让GPT-4创业,100美元本金,干出了估值25000美元的公司 |【经纬低调分享】ChatGPT 开源平替来了,开箱即用!200 亿参数,采用 4300 万条指令集微调模型GPT-3剪枝算法来了!无需微调,1750亿参数模型剪50%还提点又一国产大模型来了,超对称联合复旦大学发布 120 亿参数语言模型 BBT-2, 已开源为什么所有公开的对 GPT-3 的复现都失败了?复现和使用 GPT-3/ChatGPT,你所应该知道的荒诞华夏的操蛋事再胜OpenAI!谷歌发布20亿参数通用模型,100多种语言自动识别翻译
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。