调教LLaMA类模型没那么难,LoRA将模型微调缩减到几小时
作者:Sebastian Raschka
机器之心编译
编辑:赵阳
LoRA 微调方法,随着大模型的出现而走红。
其中 x 表示输入,如下所示:
下载预训练的权重:https://github.com/Lightning-AI/lit-llama/blob/main/howto/download_weights.md
使用 LoRA 进行微调:https://github.com/Lightning-AI/lit-llama/blob/main/howto/finetune_lora.md
使用适配器进行微调:https://github.com/Lightning-AI/lit-llama/blob/main/howto/finetune_adapter.md(可选,用于比较研究)
种子任务池,包含一组人工编写的指令(本例中为 175 条)和样本指令;
使用预训练的 LLM(如 GPT-3)来确定任务类别;
给定新指令,让预训练的 LLM 生成响应结果;
在将响应结果添加到任务池之前,先收集、剪枝和筛选响应结果。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章