Redian新闻
>
开源大模型火了!(附99个大模型微调模型/数据/工具)!

开源大模型火了!(附99个大模型微调模型/数据/工具)!

公众号新闻
最近出现了一系列令人激动的开源大语言模型,如meta的LLaMA、清华的ChatGLM等。伴随大模型一起爆火的,还有大模型的微调方法。然而随着模型规模和任务数量的增加,对整个Transformer模型进行微调也变得越来越昂贵。因此,很多参数高效微调方法(Parameter-Efficient Fine-Tuning,PEFT) 方法被提出来解决这类问题。

免费扫描参与课程(附老师ppt原稿&100+大模型论文
领99个大模型微调模型/数据/工具

(文末有福利)

导师推荐100+大模型论文合集

我们邀请了清华大学博士,AI顶会审稿人青山老师为大家带来——惊艳的大模型高效参数微调法!来和大家聊一聊有关大模型微调的方法、未来趋势及创新点!

免费扫描参与课程(附老师ppt原稿&100+大模型论文
领99个大模型微调模型/数据/工具

(文末有福利)

讲师介绍—青山老师


▪️研究领域:工业故障诊断、医学图像分割、医学多模态问答、不平衡学习、小样本学习、开集学习和可解释性深度学习等。

▪️共发表20余篇SCI国际期刊和EI会议论文,包括一区期刊IEEE Transactions on Industrial Informatics (影响因子11.648),Applied Soft Computing (影响因子8.263),Neurocomputing (影响因子5.779), ISA Transactions (影响因子5.911),Journal of Intelligent Manufacturing (影响因子7.136) 等。论文引用200+。

▪️长期担任人工智能顶级会议AAAI等审稿人, Neurocomputing,Expert Systems with Applications等国际顶级期刊审稿人。

【课程大纲
第1节:大模型微调-任务特定的P-tuning
1. 端到端微调的挑战和限制
2. P-tuning 的基本思想与步骤
3. P-tuning 在自然语言处理任务上的实际应用 

第2节:大模型微调-任务/模型无关的LORA
1. 各个领域预训练模型和微调概念的介绍
2. LoRA 微调的关键思想和方法
3. LoRA 在计算机视觉领域中的实际应用案例 

第3节:大模型微调方法-Peft库使用实践(实战篇) 
1. 使用P-tuning微调ChatGLM
2. 使用LoRA微调Blip
3. 参数高效的微调方法未来的发展趋势、热点预测 

Prefix-tuningP-tuning通过引导模型生成过程,使模型能够更准确地满足任务需求。

Adapter技术通过添加轻量级的适配器层,实现了快速的任务适应和灵活性。

Low-Rank Adaptation(LoRA)通过低秩近似减少模型参数量,提高模型的效率和部署可行性。

REcurrent ADaption(READ)在保持较高质量模型微调效果的同时,可以节省56%的训练显存消耗和84%的GPU使用量。


免费领99个微调数据/模型/工具


▪️58个开源的微调数据
▪️18个开源垂直微调模型
▪️23个开源的指令微调与强化工具

(文末有福利)


PEFT 方法可以分为三类,不同的方法对 PLM 的不同部分进行下游任务的适配:

  • Prefix/Prompt-Tuning :在模型的输入或隐层添加 k 个额外可训练的前缀 tokens(这些前缀是连续的伪 tokens,不对应真实的 tokens),只训练这些前缀参数;
  • Adapter-Tuning :将较小的神经网络层或模块插入预训练模型的每一层,这些新插入的神经模块称为 adapter(适配器),下游任务微调时也只训练这些适配器参数;
  • LoRA :通过学习小参数的低秩矩阵来近似模型权重矩阵 W 的参数更新,训练时只优化低秩矩阵参数。

作为一个科研小白,怎么发表一篇大模型微调相关的优质论文?

为了论文,大家都在努力设计新网络、新策略、新training算法,只要能够在某一问题上做到一个很好的performance,论文就水到渠成。而想要快速达到,来自前辈的指点不可或缺。

一个好的指导老师的作用是,没有课题,能够结合所在课题组具体情况,结合最近热门研究方向,帮你规划课题,如果有了课题而缺少创新方向,老师能够快速帮你找到几种切入点,几种框架,甚至连需要读哪些文献都帮你想好了......

扫描二维码
获取学术大咖科研指导

(文末有福利)

文末福利


为庆祝沃恩20周年庆!给大家送一波大福利!我整理了100节计算机全方向必学课程,包含CV&NLP&论文写作经典课程,限时免费领!



立即扫码
免费领100节计算机必学课程

-END-

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
卷疯了!最强开源大模型Llama 3发布,最大参数4000亿,小扎内心:大模型比元宇宙香多了OpenCloudOS 迁移工具征集中,18 万奖金等你来拿!|开放原子开源大赛苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源总结!大模型微调(Fine-Tuning)的常见方法Google发布最强开源大模型Gemma/苹果OLED产品路线图曝光/小米汽车价格定了?高管辟谣AI早知道|科大讯飞星火认知大模型 V3.5发布;Midjourney V6动漫微调模型上线写小说,还是回忆录?开放开源!蚂蚁集团浙江大学联合发布开源大模型知识抽取框架OneKE周鸿祎向李彦宏“开炮”:有些名人胡说八道别被忽悠了;全球最强开源大模型Llama 3发布:最大模型参数将超4000亿丨AI周报Meta、微软、Mistral AI、Hugging Face、通义、港中文六路进发开源大模型 | 大模型一周大事马斯克加入了开源大模型阵营开源大模型王座再易主,通义千问1100亿参数拿下SOTA,3个月已推出8款模型谷歌最强开源大模型亮相!Gemini技术下放,笔记本就能跑,可商用马斯克正式开源 Grok-1,成为全球最大的开源大模型今日arXiv最热NLP大模型论文:Github万星!北航发布零代码大模型微调平台LlamaFactory许家印组织造假被罚4700万;马斯克开源大模型Grok-1;侯毅正式卸任盒马CEO;英伟达推出最强AI芯片...李彦宏:开源大模型不如闭源,后者会持续领先;周鸿祎:“开源不如闭源” 的言论是胡说八道最强开源大模型Llama 3来了!4000亿参数狙击GPT-4,训练数据达Llama 2七倍无需训练实现价值观实时动态对齐:上交开源价值观对齐方法,闭源与开源大模型均适用童年故事(35):小镇钟表匠Meta 如何将缓存一致性提高到 99.99999999马斯克称每年要投资数十亿美元在AI硬件上;Meta发布开源大模型Code Llama 70B丨AIGC日报RAG还是微调?万字长文总结大模型微调技能图谱史上首个100%开源大模型重磅登场!破纪录公开代码/权重/数据集/训练全过程,AMD都能训无需训练实现价值观实时动态对齐:上交开源价值观对齐方法OPO,闭源与开源大模型均适用最强开源大模型 Llama 3震撼发布!开源模型将追上GPT-4,4000亿参数模型也在路上大模型微调到底有没有技术含量,或者说技术含量到底有多大?英文作者会描述一个景物叙事的双重比喻不明白播客:大选前夜体验台湾民主的细节讯飞医疗递交IPO申请;Meta发开源大模型Code Llama 70B;马化腾称两年内不会有纯原生AI大应用丨AIGC大事日报1至2月社零总额增长5.5%,马斯克突然开源大模型 | 财经日日评负笈不敌温柔乡(1)讯飞星火V3.5整体接近GPT-4 Turbo!首个13B开源大模型发布,深度适配国产算力字节开源大模型量化新思路,2-bit量化模型精度齐平fp16开源大模型王座再易主,1320亿参数DBRX上线,基础、微调模型都有
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。