Redian新闻
>
重磅!OpenAI 开放 GPT-3.5 Turbo 微调,网友:要提示词减少8倍才实惠

重磅!OpenAI 开放 GPT-3.5 Turbo 微调,网友:要提示词减少8倍才实惠

公众号新闻


整理 | 褚杏娟,核子可乐

当地时间 8 月 22 日,OpenAI 宣布企业现在可以使用自己的数据对 GPT-3.5 Turbo 进行微调,OpenAI 声称最终的定制模型可以赶上甚至超过 GPT-4 执行某些任务的能力。今年秋天 OpenAI 将开放更先进的 GPT-4。

该公司表示,此次更新将使开发人员能够自定义更适合实际用例的模型,并大规模运行这些自定义模型。OpenAI 强调,传入和传出微调 API 的数据归客户所有, OpenAI 或任何其他组织不会使用这些数据来训练其他模型。

OpenAI 此举似乎挽回了一些针对其开源的质疑,有网友评价称,“许多人支持开源人工智能,并批评 OpenAI 不够开放。但最重要的是,OpenAI 在不断创新。”

微调用例

GPT-3.5 Turbo 是 OpenAI 推出的一种先进的语言模型,它能够准确理解并生成自然语言的文本。相比于之前的版本,GPT-3.5 Turbo 在多个方面有了极大的改进。比如,它具备更加出色的上下文理解能力,能够更好地理解用户的问题或指令,从而提供更准确的回答。它还能够产生更流畅、连贯的文本,仿佛是由人类写就的一样。最重要的是,GPT-3.5 Turbo 具备更快的响应速度,使得用户可以即时得到答案或帮助。

自 GPT-3.5 Turbo 发布以来,开发人员和企业纷纷要求开放模型自定义功能,以便为用户创造独特且差异化的体验。通过此次发布,开发人员现可运行监督微调,使得该模型在不同用例中表现更好。

微调的基本思想是,先在大规模文本数据上预训练一个大型的语言模型,例如 GPT-3.5,然后使用特定任务的数据集(如法律、医疗),进一步对模型进行训练,以适应特定的任务。在这个过程中,模型的参数会进行微小的调整,使其在特定业务场景上的性能更好。

在 OpenAI 的内部 beta 测试中,微调客户已经能够在各类常见用例中显著提高模型性能,例如:

  • 改善可操纵性:微调允许企业引导模型更好地遵循指令,例如输出更简洁的答案,或者始终以给定语言做出响应。开发人员可以通过微调保证模型在收到德语提示词后,始终以德语给出回应。

  • 更可靠的输出格式:微调使模型所输出响应结果的格式更加统一。对于需要特定响应格式的应用场景(例如代码补全或编写 API 调用),这种格式可靠性至关重要。例如,开发人员可以用微调将用户提示词转换为可在系统中使用的高质量 JSON 片段。

  • 自定义调节:微调是提升模型输出质量的好办法(包括改善语气、风格),更好地适应企业品牌的固有定位。拥有知名品牌调性的企业可以对模型做出微调,使其与自身市场形象更趋一致。

除了提高性能之外,微调还能帮助企业缩短提示词长度,并保证性能基本不变。OpenAI 表示,GPT-3.5 Turbo 的微调可处理 4k 个 tokens——可达之前微调模型的 2 倍。早期测试人员还对模型本身的指令进行了微调,从而将提示词长度缩短达 90%,成功加快每次 API 调用的速度并降低了执行成本。

成本是更高了吗?

价格问题是开发者们普遍关注的问题之一。根据 OpenAI 说法,微调成本分为两个部分:初始训练成本与使用成本:

  • 训练:0.008 美元 /1K tokens

  • 使用输入:0.012 美元 /1K tokens

  • 使用输出:0.016 美元 /1K tokens

例如,一个 gpt-3.5-turbo 微调作业中包含 10 万个 token 的训练文件。经过 3 个 epoch 训练轮次,预计成本为 2.40 美元。

此前,OpenAI 宣布各初版 GPT-3 基础模型(ada、babbage、curie 和 davinci)将于 2024 年 1 月 4 日正式关闭。OpenAI 如今发布了 babbage-002 和 davinci-002 作为这些模型的替代方案,用户可将其用作基础模型或微调模型。这些模型可以使用新 API 端点 /v1/fine_tuning/jobs 进行微调。下面是各基础 / 微调 GPT-3 模型的定价:


对此,有网友算了一笔账:微调的 GPT 3.5 Turbo 生成成本是基本模型生成成本的 8 倍,因此用户确实必须处于 OpenAI 提到的“将提示大小减少 90%”的范围内,才能从中获得成本效益。

微调定价,每 16 次用户交互的成本将超过 1 美元:16 次交互*(0.012 美元 * 4 输入 + 0.016 美元输出)= 1.02 美元。

本质上,一个简短的提示,如“打个招呼”,比一个长提示“给黄鼠狼宠物起五个可爱的名字”要花费更少的钱。“要想对一个花费 8 倍以上的微调模型来获得纯粹的财务胜利,需要您将输入和输出提示的大小减少 8 倍或更多。”开发者 simonw 表示。有开发者猜测,这是由于 OpenAI 需要存储和加载模型,即使他们或许也在使用类似 LoRA 的方式来微调模型。

对此,也有网友表示,如果进行大量检索增强,那么 8 倍的成本可能仍然比在注入的上下文上消耗大量令牌便宜。

曾基于 OpenAI API 做过 GPT-3 开发的 drcode 分享称,GPT 的“微调”与 Llama2 之类的微调不同,因为它可能不会调整网络的所有权重,只是会调整网络的一小部分。代价是 OpenAI 微调的成本较低,但它的功能也没有“真正的”微调强大。

附:微调步骤

目前微调需要准备数据、上传必要的文件并通过 OpenAI 的 API 创建微调作业,步骤如下:

1.准备数据

{  "messages": [    { "role": "system", "content": "You are an assistant that occasionally misspells words" },    { "role": "user", "content": "Tell me a story." },    { "role": "assistant", "content": "One day a student went to schoool." }  ]}

2.上传文件

curl -https://api.openai.com/v1/files \  -H "Authorization: Bearer $OPENAI_API_KEY" \  -F "purpose=fine-tune" \  -F "file=@path_to_your_file" 

3.创建微调作业

curl https://api.openai.com/v1/fine_tuning/jobs \-H "Content-Type: application/json" \-H "Authorization: Bearer $OPENAI_API_KEY" \-d '{  "training_file": "TRAINING_FILE_ID",  "model": "gpt-3.5-turbo-0613",}'

在模型完成微调过程之后,可以立即在生产环境下使用,且具有与基础模型相同的共享速率限制。

4.使用微调后的模型

curl https://api.openai.com/v1/chat/completions \-H "Content-Type: application/json" \-H "Authorization: Bearer $OPENAI_API_KEY" \-d '{  "model": "ft:gpt-3.5-turbo:org_id",  "messages": [    {      "role": "system",      "content": "You are an assistant that occasionally misspells words"    },    {      "role": "user",      "content": "Hello! What is fine-tuning?"    }  ]}'

该公司表示,所有微调数据都必须通过“审核”API 和 GPT-4 支持的审核系统,以查看是否与 OpenAI 的安全标准相冲突。OpenAI 还计划在未来推出一个微调 UI,其中包含一个仪表板,用于检查正在进行的微调工作负载的状态。

OpenAI 表示,在与其他技术(例如提示词工程、信息检索和函数调用)结合使用后,微调的潜力才能得到充分发挥。对函数调用和 gpt-3.5-turbo-16k 微调的支持也计划于今年秋季推出。

对于 OpenAI 开放 GPT-3.5 Turbo 微调,您有什么想法?欢迎在评论区发表您的观点!

参考链接:

https://openai.com/blog/gpt-3-5-turbo-fine-tuning-and-api-updates

https://news.ycombinator.com/item?id=37227139

 活动推荐

以「启航·AIGC 软件工程变革」为主题的 QCon 全球软件开发大会·北京站将于 9 月 3-5 日在北京•富力万丽酒店举办,此次大会策划了 AIGC 浪潮下的研发效能提升、大前端融合提效、大模型应用落地、面向 AI 的存储、LLMOps、异构算力、微服务架构治理、业务安全技术、构建未来软件的编程语言、FinOps 等近 30 个精彩专题。

现已确认 110+ 名嘉宾,咨询购票可联系票务经理 18514549229(微信同手机号)。点击「阅读原文」即可查看全部专题,期待与各位开发者现场交流。  

今日荐文

挑战阿里巴巴和Meta:Arm即将上市,软银力争打造科技史第三大IPO


关于AIGC的好点子想被发现?快来这场大赛,直达数家投资机构!|InfoQ Geekathon


开源打败闭源?Meta即将推出开源代码生成平台Code Llama,剑指OpenAI Codex


探秘 B 站多媒体实验室:B 站视频背后的AI黑科技是如何炼成的?


“视象新生”火山引擎视频云&AIGC技术大会开幕在即


程序员未写出赌博程序被拔掉14颗牙;前华为“天才少年”稚晖君公布首款人形机器人;马斯克称X平台将移除拉黑功能 | AI一周资讯



你也「在看」吗? 👇

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
百万网友围观DALL-E 3新玩法!钢铁侠特斯拉皆“中招”,强迫症友好,博主分享提示词终于找到ChatGPT智商下降的原因了!OpenAI侧面回应,GPT可能真被你们玩坏了?OpenAI不藏着了,开放微调功能,不用其他工具就能搞一个你自己的ChatGPT终于找到 ChatGPT “智商”下降的原因了!OpenAI 侧面回应,GPT 可能真被你们玩坏了?超大杯Stable Diffusion免费来袭!「最强文生图开放模型」,提示词也更简单ACE 成员项目|10万奖金的「提示词大赛」现开放注册一段话让模型自曝「系统提示词」!ChatGPT、Bing无一幸免ChatGPT 又断网了!OpenAI 暂时下线 ChatGPT 搜索功能,只因绕过付费墙?大模型生成提速2倍!单GPU几小时搞定微调,北大数院校友共同一作丨开源GitHub工程师分享开发Copilot所采用的提示词工程GPT-5不远了!OpenAI推出网络爬虫GPTBot,自动抓取数据,可选择性关闭ChatGPT离不开提示词!既然永不相见,何不一拍两散 ?OpenAI 开放 GPT-3.5 Turbo 微调,网友:将prompt减少90%才实惠小米一开源项目被批“三无”,项目导师回应;Ruby on Rails之父将TypeScript从Turbo框架中移除 | Q资讯重磅!OpenAI 在 ChatGPT 内推出语言和图像功能过程重要还是结果重要?拒绝花架子!盘点ChatGPT最强的七个插件:写提示词、学外语、总结视频,让ChatGPT做你的私人秘书2023 樱花之约(五)雨中涉成园GPT-3.5 Turbo支持微调了,打造专属ChatGPT,但价格小贵0.2美元微调就能让ChatGPT彻底破防!普林斯顿、斯坦福发布LLM风险预警:普通用户微调也影响LLM安全性《月光下的诉说》&《你可听见我这颗心》GPT-4满分通过MIT本科数学考试!这套提示词火了GPT-3.5 Turbo推出微调功能;昆仑万维天工AI搜索引擎内测;阿里云等联合发布教育大模型如何调教AI给你打工?提示词(Prompt)的秘密探索 prompt 编码范式:如何优雅构建测试代码生成提示词?硬核观察 #1052 libjpeg-turbo 3.0 发布,开发者表示无力继续在微信上和朋友打坐OpenAI开放大模型微调功能!上传自己数据就可定制GPT-3.5Turbo,开发者狂喜DALL·E 3辣眼图流出!OpenAI 22页报告揭秘:ChatGPT自动改写PromptOpenAI突发更新!GPT-3.5正式开放「微调」,人人可打造专属ChatGPT|附最全官方指南京师、明炬、高文等所晋升加盟多名合伙人;山东律协换届选举;深圳市涉外律师人才实训基地正式成立 | 律所动态创业101校友动态 | 10万奖金的「提示词大赛」现开放注册ChatGPT支持个人定制!告别大段提示词,只需先和它做好自我介绍OpenAI 真有钱啊,7年经验硕士码农前四年平均年薪170万美元微软写了份GPT-4V说明书:166页讲解又全又详细,提示词demo示例一应俱全 | 附下载
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。