Redian新闻
>
ChatGPT 开源平替来了,开箱即用!200 亿参数,采用 4300 万条指令集微调模型

ChatGPT 开源平替来了,开箱即用!200 亿参数,采用 4300 万条指令集微调模型

公众号新闻

作者|刘燕, 核子可乐

3 月 10 日,Together 发布了开源(Apache-2.0 许可)基础模型项目 OpenChatKit。OpenChatKit 的聊天模型支持推理、多轮讨论、知识和生成答案,该模型拥有 200 亿个参数并接受了 4300 万条指令的训练。这被认为是 ChatGPT 的开源平替。

资料显示,Together 正在创建第一个专门为处理大型基础模型而设计的分布式云。该公司提供了一个结合数据、模型和计算的直观平台,以帮助 AI 研究人员、开发人员和企业更好地利用和推进 AI。Together 团队认为,大型开放模型应该像开源一样易于使用。

OpenChatKit 提供强大的开源基础,能够为各类应用创建专用及通用型聊天机器人。Together 团队与 LAION 与 Ontocord 合作创建了训练数据集。

Together 团队认为开源基础模型将带来更好的包容性、透明性、稳健性和技术能力。Together 在 Apache 2.0 许可下发布了 OpenChatKit 0.15,源代码、模型权重和训练数据集可以全面访问。

优秀的聊天机器人必须能够执行自然语言指令、在对话中保持上下文,同时做出适度回应。OpenChatKit 提供一个基础机器人,并可根据此基础派生出专用的聊天机器人构建块。

据介绍,套件中共包含四大关键组件:

  • 一套根据指令微调的大语言模型,利用 4300 万指令在 100% 负碳排放算力上对 EleutherAI 的 GPT-NeoX-20B 模型做出微调;

  • 自定义 recipes,可通过模型微调提高任务执行精度;

  • 可扩展的检索系统,使您能够在推理时使用来自文档仓库、API 或其他实时更新信息源的信息来增加机器人响应;

  • 由 GPT-JT-6B 微调而成的审核模型,用于过滤用户对机器人提出的问题。OpenChatKit 中的工具还允许用户提交反馈,以供社区成员添加新的数据集;社区可以为不断增长的开放训练数据集做出贡献,这些素材将随时间推移不断改进 LLM 的实际表现。

Hugging Face 上的 OpenChatKit 反馈应用,允许社区成员测试聊天机器人的表现并提交反馈。

指令微调的大语言模型

构成 OpenChatKit 基础的是 GPT-NeoXT-Chat-Base-20B 大语言模型,这套模型基于 EleutherAI 的 GPT-NeoX,并利用涉及对话交互的数据进行了微调。我们将调整重点放在了多轮对话、问答、分类、提取和摘要等几个核心任务上。我们已经使用 4300 万条高质量指令集对模型进行了微调,并与 LAION 和 Ontocord 合作创建了供模型训练使用的 OIG-43M 数据集。

GPT-NeoXT-Chat-Base-20B 能够开箱即用,为广泛的自然语言任务集提供了强大基础。总结来讲,它在 HELM 基准测试中的得分高于其基础模型 GPT-NeoX,在问答、提取和分类等任务上的表现尤其突出。

在 HELM 上评估 GPT-NeoXT-Chat-Base-20B 并与 GPT-NeoX 进行比较。†表示测试所使用的数据,在我们的微调语料库中也有收录。

模型优势

OpenChatKit 能够以开箱即用的方式出色处理多种任务,包括:

  1. 语境总结与答疑;

  2. 信息提取;

  3. 文本分类。

此外,该模型在 few-shot 少样本提示中表现良好。与大多数 HELM 任务一样,对于文本分类和信息提取工作,该模型能在提示较少的情况下表现良好。

模型劣势

Together 团队表示,目前团队还有一些尚未攻克的难关待克服,其中包括:

  • 基于知识的封闭式问答:聊天机器人可能产生“幻觉”,给出不正确的结果。请务必进行事实核查,并在可能的情况下提花包含更正信息的反馈。

  • 编码任务:聊天机器人没有经过足够大的源代码语料库训练,因此并不擅长编写代码。

  • 重复:有时聊天机器人会重复自己给出的回应。

  • 上下文切换:如果您在对话过程中改变话题,聊天机器人往往难以自动切换,而是会继续按照先前的话题给出答案。

  • 创意性写作和长回答:聊天机器人无法生成较长的创意文案,例如文章或故事。


自定义 recipes
以微调模型

大语言模型在通用问答方面表现出了令人印象深刻的能力,而且在针对特定应用场景进行微调后,往往能够实现更高的准确率。例如,谷歌 PaLM 在医学回答方面的准确率已经在 50% 左右,而通过添加指令支持和医疗信息微调之后,派生出的 Med-PaLM 一举拿下 92.6% 的准确率。对于其他应用任务,也可以采用相同的微调方法。

OpenChatKit 提供多种工具,能够针对各类应用场景进行聊天机器人微调。目前 Together 团队正在与研究小组和企业合作,帮助他们根据自己的任务需求建立自定义模型:

  • 教育助手——对开放教科书数据集进行微调,创建的聊天机器人有望帮助全年龄段学生通过自然对话学习各种主题。

  • 金融问答——利用金融数据进行微调和检索(例如证券交易委员会文件),以实现金融领域的问答能力。

  • 客服代表——利用知识库数据进行微调以创建聊天机器人,帮助最终用户诊断问题并快速给出答案。

如何微调

微调的具体步骤为:

  • 准备相应的数据集,其中的交互示例应符合指定格式。

  • 将您的数据集保存为 jsonl 文件,并按照此处(https://github.com/togethercomputer/OpenChatKit)说明进行聊天模型微调。

  • 别忘了审核模式。在开始使用微调模型之前,请注意审核模型可能会过滤掉域外问题。如有必要,请再准备一些审核数据并对审核模型做微调。Together 在 GitHub 仓库(https://github.com/togethercomputer/OpenChatKit)中提供了整个操作过程的说明文档和源代码。OpenChatKit 是基于 Apache 2.0 许可的完全开源项目,因此用户可以深入调整、修改或审查您自己的应用方案或权重设置。

可提供实时更新答案的
可扩展检索系统

OpenChatKit 还包含一个可扩展的检索系统。借助检索系统,聊天机器人能够合并定期更新或自定义内容,例如来自维基百科的知识、新闻提要或者体育赛事比分,将其纳入响应当中。

检索增强系统的工作流程示例。

通过检索系统,聊天机器人能够检索给定问题的相关信息,收集最新的资讯内容。这也为模型的答案提供了“上下文”。举例来说,检索系统能够支持维基百科索引,也可以在检索期间调用 Web 搜索 API 以获取示例代码。只要按照说明文档的指示操作,就能利用检索系统在推理过程中让聊天机器人接入任何数据集或 API,并将实时更新数据合并到响应当中。

如何在检索模式下使用聊天机器人

Together 直接提供一个将检索模型与聊天模型结合起来的一体化脚本,具体请参阅自述文件(https://github.com/togethercomputer/OpenChatKit#retrieval-augmented-models)中的完整信息。

在文档中的维基百科示例中,系统会针对特定用户查询执行以下步骤:

  1. 服务器根据用户查询,从维基百科索引中检索相关语句。

  2. 服务器将步骤 1 的输出添加到查询内,并使用聊天机器人模型生成响应结果。用户可以更改代码和提示以匹配自己的特定用例。

审核模型将在必要时
适度干预

OpenChatKit 的最后一个组件,是由 GPT-JT 微调而成的 60 亿参数审核模型。在聊天应用中,审核模型将和主聊天模型协同运行,负责检查用户话语中是否存在不当内容。基于审核模型的评估,聊天机器人可以将输入内容限制为审核主题。对于指向性更强的任务,审核模型还可检测哪些问题属于域外问题,并在与主题无关时将其覆盖。

在推理过程中,Together 团队进行了小样本分类并将用户问题划分为五类。只有当问题属于允许的分类时,聊天机器人才会给出响应:


审核是一项难度颇高且相当主观的任务,而且很大程度上由上下文决定。Together 提供的审核模型只作为基准,可以根据各种需求进行调整和定制。Together 希望社区能够继续改进这套基础审核模型,并开发出适合不同文化和组织背景的特定数据集。

Together 与 LAION 和 Ontocord 合作,共同为审核模型提供训练数据集,并针对一系列不当问题对 GPT-JT 做了微调。

参考链接:

https://www.together.xyz/blog/openchatkit

https://www.marktechpost.com/2023/03/12/together-releases-the-first-open-source-chatgpt-alternative-called-openchatkit/

文章版权归极客邦科技 InfoQ 所有,未经许可不得转载。

你也「在看」吗? 👇

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
一个老海归的“逃出”GPT-3剪枝算法来了!无需微调,1750亿参数模型剪50%还提点金融GPT来了:500亿参数,但用来投资还是跑不赢大盘西雅图现在的物价简直离谱!带狗子洗牙医生想charge $5,100到$7,200金融领域FinBERT、BloombergGPT以及法律领域微调模型LawGPT_zhMeta版ChatGPT来了?小扎、LeCun官宣650亿参数SOTA大语言模型LLaMA全栈声明式可观测:KubeVela开箱即用且灵活定制的云原生应用洞察GPT-4平替来了!华人团队开源miniGPT-4,只需23G显存,画草稿写网站,还能帮你修洗衣机2023 內心成熟的人,看誰都顺眼!ChatGPT开源平替来了,开箱即用!前OpenAI团队打造,GitHub刚发布就揽获800+星ChatGPT背后的指令学习是什么?PSU发布首篇「指令学习」全面综述ChatGPT全球最大开源平替:回复更受欢迎,但中文对话一塌糊涂chatGPT. 一本正经胡说八道ChatGPT开源替代来了!参数量200亿,在4300万条指令上微调而成300美元平替ChatGPT!斯坦福130亿参数「小羊驼」诞生,暴杀「草泥马」还在为玩不了ChatGPT苦恼?这十几个开源平替也能体验智能对话ChatGPT平替「小羊驼」Mac可跑!2行代码单GPU,UC伯克利再发70亿参数开源模型这个fence material cost is $1550, 我付$775,他不收labor, 我给$200 行吗?300美元复刻ChatGPT九成功力,GPT-4亲自监考,130亿参数开源模型「小羊驼」来了回国, 十年签证可办了刚刚!商汤版ChatGPT「商量」来了!开放API,基于千亿参数大模型,体验实录在此轻松打造家用版GPT-4!微软开源微调指令集:效果不输原版,中英双语都能用DriveGPT自动驾驶大模型中国玩家首发!1200亿参数,毫末智行出品笔记本就能运行的ChatGPT平替来了,附完整版技术报告Chatgpt 4 要release 了又一国产大模型来了,超对称联合复旦大学发布 120 亿参数语言模型 BBT-2, 已开源Houston Apartment Owner Loses 3,200 Units to ForeclosureHuggingChat叫板ChatGPT!300亿参数大模型免费用,网友:真香ChatGPT 全球最大开源平替:回复更受欢迎,但中文对话一塌糊涂0门槛克隆ChatGPT!30分钟训完,60亿参数性能堪比GPT-3.5量子论对狭义相对论的致命的依赖叫板ChatGPT?Stability AI 开源语言大模型 StableLM,参数仅为GPT-3百分之四,却能实现超高性能还在为玩不了 ChatGPT 苦恼?这十几个开源平替也能体验智能对话难诉相思,送谢莉斯老师开箱即用,5个令人惊艳的AI项目,开源了!ChatGPT讲座:ChatGPT并不神秘,但ChatGPT很神奇国产AI算力加持!昇思大模型平台震撼升级,轻松上手,开箱即用全球最大ChatGPT开源平替来了!支持35种语言,写代码、讲笑话全拿捏商汤版ChatGPT「商量」来了!开放API,基于千亿参数大模型,体验实录在此ChatGPT 又遇劲敌!谷歌发布史上最大 AI 模型 PaLM-E:5620 亿参数,无需特殊训练即可操纵机器人
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。