Redian新闻
>
选择GPT-3.5、还是微调Llama 2等开源模型?综合比较后答案有了

选择GPT-3.5、还是微调Llama 2等开源模型?综合比较后答案有了

公众号新闻

机器之心编译

选自 ragntune 的博客

编辑:rome rome

通过对 GPT-3.5 和 Llama 2 在不同任务上的微调对比,我们可以得知在什么情况下选择 GPT-3.5,什么情况下选择 Llama 2 或其他模型。


众所周知,对 GPT-3.5 进行微调是非常昂贵的。本文通过实验来验证手动微调模型是否可以接近 GPT-3.5 的性能,而成本只是 GPT-3.5 的一小部分。有趣的是,本文确实做到了。


在 SQL 任务和 functional representation 任务上的结果对比,本文发现:


  • GPT-3.5 在两个数据集(Spider 数据集的子集以及 Viggo functional representation 数据集)上都比经过 Lora 微调的 Code Llama 34B 表现略微好一点。

  • GPT-3.5 的训练成本高出 4-6 倍,部署成本也更高。


本实验的结论之一是微调 GPT-3.5 适用于初始验证工作,但在那之后,像 Llama 2 这样的模型可能是最佳选择,简单总结一下:


  • 如果你想验证微调是解决特定任务 / 数据集的正确方法,又或者想要一个完全托管的环境,那么微调 GPT-3.5。

  • 如果想省钱、想从数据集中获取最大性能、想要在训练和部署基础设施方面具有更大的灵活性、又或者想要保留一些私有数据,那么就微调类似 Llama 2 的这种开源模型。


接下来我们看看,本文是如何实现的。


下图为 Code Llama 34B 和 GPT-3.5 在 SQL 任务和 functional representation 任务上训练至收敛的性能。结果表明,GPT-3.5 在这两个任务上都取得了更好的准确率。



在硬件使用上,实验使用的是 A40 GPU,每小时约 0.475 美元。



此外,实验选取了两个非常适合进行微调的数据集,Spider 数据集的子集以及 Viggo functional representation 数据集。


为了与 GPT-3.5 模型进行公平的比较,实验对 Llama 进行了最少超参数微调。


本文实验的两个关键选择是使用 Code Llama 34B 和 Lora 微调,而不是全参数微调。


实验在很大程度上遵循了有关 Lora 超参数微调的规则,Lora 适配器配置如下:



SQL 提示示例如下:


SQL 提示部分展示,完整提示请查看原博客


实验没有使用完整的 Spider 数据集,具体形式如下

department : Department_ID [ INT ] primary_key Name [ TEXT ] Creation [ TEXT ] Ranking [ INT ] Budget_in_Billions [ INT ] Num_Employees [ INT ] head : head_ID [ INT ] primary_key name [ TEXT ] born_state [ TEXT ] age [ INT ] management : department_ID [ INT ] primary_key management.department_ID = department.Department_ID head_ID [ INT ] management.head_ID = head.head_ID temporary_acting [ TEXT ]


实验选择使用 sql-create-context 数据集和 Spider 数据集的交集。为模型提供的上下文是一个 SQL 创建命令,如下所示:


CREATE TABLE table_name_12 (class VARCHAR, frequency_mhz VARCHAR, city_of_license VARCHAR)


SQL 任务的代码和数据地址:https://github.com/samlhuillier/spider-sql-finetune


functional representation 提示的示例如下所示:


functional representation 提示部分展示,完整提示请查看原博客


输出如下所示:


verify_attribute(name[Little Big Adventure], rating[average], has_multiplayer[no], platforms[PlayStation])


评估阶段,两个实验很快就收敛了:



functional representation 任务代码和数据地址:https://github.com/samlhuillier/viggo-finetune


了解更多内容,请查看原博客。


原文链接:

https://ragntune.com/blog/gpt3.5-vs-llama2-finetuning?continueFlag=11fc7786e20d498fc4daa79c5923e198




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
OpenAI突发更新!GPT-3.5正式开放「微调」,人人可打造专属ChatGPT|附最全官方指南LLM吞吐量提高2-4倍,模型越大效果越好!UC伯克利、斯坦福等开源高效内存管理机制PagedAttention独一无二的落水山庄0.2美元微调就能让ChatGPT彻底破防!普林斯顿、斯坦福发布LLM风险预警:普通用户微调也影响LLM安全性没有SAT/ACT被哥大录取,进大学前却选择Gap,真实非典型学霸对谈大模型可解释性你能理得清吗?综述已来,一文解你疑惑专注图表理解,腾讯、南洋理工等开源图表羊驼大模型ChartLlamaGPT 3.5 与 Llama 2 微调的综合比较一次通过率73%,开源代码大模型WizardCoder超越最新GPT-4以外所有闭/开源模型《情恋草原》&《思念成风》直追GPT-4!李开复Yi-34B新成绩公布:94.08%的胜率超越LLaMA2等主流大模型HashiCorp CEO 预测,除非开源模型发展,否则硅谷将没有开源公司 | Linux 中国完胜GPT-4,秒杀闭源模型!Code Llama神秘版本曝光值得一试的开源模型!开源社区上季度都有哪些靠谱项目?混合精度下位置编码竟有大坑,llama 等主流开源模型纷纷中招!百川智能给出修复方案妄想症房客被抓走,我还被告了没有SAT和ACT,录取哥大后选择Gap,内卷之下如何做自己?多LLM协同作战!清华等开源多智能体框架AgentVerse:合作打造Minecraft物品,还能训练宝可梦当中国年轻人主动选择Gap Year,赢得了梦想“乌托邦”,还是陷入求职困境?非典型学霸:录取藤校后选择Gap,内卷之下如何做自己?绍伊古的话有多少水分阿里云中标9亿AI算力大单;浙大校友开源LLaVA-1.5多模态大模型;Meta因开源模型遭抗议丨AIGC大事日报谷歌云AIGC火力全开!推出新AI芯片TPU v5e,企业AI服务30美元/月,接入Llama 2等大模型AI早知道|抖音即创平台上线;零一万物发布并开源Yi微调模型;亚马逊宣布推出全新一代语音基础模型驱动的ASR系统GPT-3.5 Turbo支持微调了,打造专属ChatGPT,但价格小贵性能碾压Llama 2,全球下载量超500万,百川智能开源模型凭什么?Llama2 7B中文魔改PK:「雅意」百万指令集微调 VS「伶荔」扩词+增量预训练+指令微调​开源模型在竞赛数学MATH上首次突破50%,清华、微软联合推出工具集成推理语言模型斯坦福NLP提出EFT:如何不实际微调而“假装”微调了LLM?你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测打破内卷,拿到藤校offer后选择gap,学霸的思路有可复制的点吗?Erklärung zur Zusammenarbeit开源大模型将“杀死”闭源模型?邮轮上免费,付费的吃喝(多图)UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。