Redian新闻
>
Alpaca-CoT项目原作解读:多接口统一的轻量级LLM指令微调平台

Alpaca-CoT项目原作解读:多接口统一的轻量级LLM指令微调平台

公众号新闻

近期,LLaMA 显示出惊人的 zero-shot 和 few-shot 能力,仅需较少的 13B 参数即可在大多数 benchmarks 上显著优于 GPT-3(175B),而 LLaMA-65B 可与 PaLM-540B 相当。LLaMA 的出现重新定义了 Large Language Models (LLMs) 的 “Large”,明显降低了 competitive LLMs 的规模。

紧接着, Stanford Alpaca 借助 self-instruct 的方式生成的 52K English Instruction-Fine Tuning (IFT) 数据对 LLaMA-7B 进行了微调,赋予了其可观的 instruction-following 能力。相比于 GPT-4 训练和 inference 阶段巨大资源消耗和时间成本,或许较小版本的 LLMs 才是通向 AGI 的一个更好的 solution。

然而,目前在 LLM 上的 IFT 的研究仍然面临着以下三个挑战:

1、即便对仅有 7b 大小的 LLM 进行微调,依然对计算资源有着较高的要求;

2、用于指令微调的开源数据集较少,缺少相关资源的整合工作;

3、缺少统一的平台,可以轻松切换不同的 LLMs 和不同类型的 IFT 数据,以进行系统性的研究和对比;

为了便于研究者们在 LLMs 上做系统的 IFT 研究, Alpaca-CoT 项目结合了相关的近期前沿技术,具有以下优势:

1、结合了 low-rank adaptation (LoRA), PEFT 等技术来降低计算资源需求。

2、持续更新和维护了一个大规模的 IFT 数据集合(见下图)。这些数据已被统一格式,包含了中文、multi-language、Chain-of-Thought、code、story generation 等。

3、集成了多种 LLMs (如 LLaMA, ChatGLM 和 Bloom) 并统一了调用接口,可通过超参轻松切换,后续将持续集成更多 LLMs。

Alpaca-CoT 吸引了大批具有相同兴趣的开源爱好者和 LLM 研究者,不断注入最新的 LLM-IFT 技术。

机器之心最新一期线上分享邀请到了中国科学院信息工程研究所博士生佀庆一,为大家分享他们近期的开源项目 Alpaca-CoT

分享主题:Alpaca-CoT: 多接口统一的轻量级LLM指令微调平台

分享嘉宾:佀庆一,中国科学院信息工程研究所博士生,感兴趣于视觉问答、OOD鲁棒性、LLM和VLP等方向,曾在ACL, EMNLP, IJCAI, MM等顶会上发表多篇论文。

分享摘要:为了加速复现 ChatGPT 的进程,降低研究者们上手 LLM-IFT 相关研究的门槛,该项目团队开源了 Alpaca-CoT 项目,搭建了数据、LLMs 多接口统一的 LLM-IFT 研究平台。在本次分享中,将系统地分享目前项目以及 LLM-IFT 研究方向所涉及到的相关概念和技术,以及对未来的展望。

相关链接:

1)SOTA!模型平台项目主页链接:

https://sota.jiqizhixin.com/project/alpaca-cot

3)代码仓库:

https://github.com/PhoebusSi/Alpaca-CoT


加群看直播
直播间关注机器之心机动组视频号,北京时间 4 月 17 日 19:00 开播。
交流群:本次直播设有 QA 环节,欢迎加入本次直播交流群探讨交流。

如群已超出人数限制,请添加机器之心小助手:syncedai2、syncedai3、syncedai4 或 syncedai5,备注「Alpaca-CoT」即可加入。

如果你也有最新工作希望分享或提交你感兴趣的内容方向,随时告诉我们吧:https://jiqizhixin.mikecrm.com/fFruVd3

机器之心 · 机动组
机动组是机器之心发起的人工智能技术社区,聚焦于学术研究与技术实践主题内容,为社区用户带来技术线上公开课、学术分享、技术实践、走近顶尖实验室等系列内容。机动组也将不定期举办线下学术交流会与组织人才服务、产业技术对接等活动,欢迎所有 AI 领域技术从业者加入。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
JARVIS项目原作解读:连接ChatGPT和HuggingFace解决AI问题java更轻量级的权限管理框架:jcasbinSparK项目原作解读:卷积模型的首个BERT预训练RWKV项目原作解读:在Transformer时代重塑RNN不一样的人生,肆意挥洒。也是一种活法!ICLR 2023 | 微软提出自动化模型训练剪枝框架OTO,一站式获得轻量级架构UDOP项目原作解读:统一视觉、语言、格式、任务的通用文档处理模型SpikeGPT项目原作解读:使用脉冲神经网络的生成式语言模型ChatGPT背后的指令学习是什么?PSU发布首篇「指令学习」全面综述280万条多模态指令-响应对,八种语言通用,首个涵盖视频内容的指令数据集MIMIC-IT来了Llama-X开源!呼吁每一位NLPer参与推动LLaMA成为最先进的LLMLLM底座模型:LLaMA、Palm、GLM、BLOOM、GPT结构对比曹丕“情人诗”LXQt 1.3.0 发布:探索轻量级桌面的升级 | Linux 中国深圳,一个超级LP崛起做个浪漫的女人真难下一个超级LP为多模态LLM指明方向,邱锡鹏团队提出具有内生跨模态能力的SpeechGPT7 个超轻量级 Linux 发行版 | Linux 中国TPVFormer项目原作解读:面向自动驾驶场景的纯视觉三维语义占有预测MIGA项目原作解读:基于生成式预训练语言模型T5的Text-to-SQL模型开源免费的轻量级 SSH 终端,非常炫酷好用!AudioLDM一作解读:文本生成高质量音频,单GPU即可最新ReWOO框架直指Auto-GPT和LangChain代理的冗杂性,提出轻量级LLM与工具的交互范式首次:微软用GPT-4做大模型指令微调,新任务零样本性能再提升从此告别繁琐的模型微调,LLM-Adapters助力NLP任务快速高效微调!张颂文:火柴天堂中文医学大模型“本草”(原名华驼):医学知识增强在中文大型语言模型指令微调上的初步探索特制自己的ChatGPT:多接口统一的轻量级LLM-IFT平台真香!一个轻量级的日志追踪框架,10 分钟即可接入!Dolly 2.0发布,首个真正开放、可商用的指令调优LLMLaVIN—多模态对话模型的高效指令微调ELITE项目原作解读:基于扩散模型的快速定制化图像生成《炸北溪》电影剧本的初步构思轻量级「行泊一体」爆发前夜!这家智驾Tier1正加码抢占市场
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。