Redian新闻
>
调用多个ChatGPT API相互对话,清华开源的多轮对话数据UltraChat来了

调用多个ChatGPT API相互对话,清华开源的多轮对话数据UltraChat来了

公众号新闻

机器之心报道

机器之心编辑部
UltraChat 解决了数据荒的一大难题。

自 ChatGPT 发布以来,这段时间对话模型的热度只增不减。当我们赞叹这些模型表现惊艳的同时,也应该猜到其背后巨大的算力和海量数据的支持。


单就数据而言,高质量的数据至关重要,为此 OpenAI 对数据和标注工作下了很大力气。有多项研究表明,ChatGPT 是比人类更加可靠的数据标注者,如果开源社区可以获得 ChatGPT 等强大语言模型的大量对话数据,就可以训练出性能更好的对话模型。这一点羊驼系列模型 ——Alpaca、Vicuna、Koala—— 已经证明过。例如,Vicuna 使用从 ShareGPT 收集的用户共享数据对 LLaMA 模型进行指令微调,就复刻了 ChatGPT 九成功力。越来越多的证据表明,数据是训练强大语言模型的第一生产力。


ShareGPT 是一个 ChatGPT 数据共享网站,用户会上传自己觉得有趣的 ChatGPT 回答。ShareGPT 上的数据是开放但琐碎的,需要研究人员自己收集整理。如果能够有一个高质量的,覆盖范围广泛的数据集,开源社区在对话模型研发方面将会事半功倍。


基于此,最近一个名为 UltraChat 的项目就系统构建了一个超高质量的对话数据集。项目作者尝试用两个独立的 ChatGPT Turbo API 进行对话,从而生成多轮对话数据。



  • 项目地址:https://github.com/thunlp/UltraChat

  • 数据集地址:http://39.101.77.220/

  • 数据集交互地址:https://atlas.nomic.ai/map/0ce65783-c3a9-40b5-895d-384933f50081/a7b46301-022f-45d8-bbf4-98107eabdbac


具体而言,该项目旨在构建一个开源、大规模、多轮的基于 Turbo APIs 的对话数据,方便研究者开发具有通用对话能力的强大语言模型。此外,考虑到隐私保护等因素,该项目不会直接使用互联网上的数据作为提示。为了确保生成数据质量,研究者在生成过程中采用了两个独立的 ChatGPT Turbo API,其中一个模型扮演用户角色来生成问题或指令,另一个模型生成反馈。



如果直接使用 ChatGPT 基于一些种子对话和问题让其自由生成,容易出现话题单一、内容重复等问题,从而难以保证数据本身的多样性。为此,UltraChat 对对话数据覆盖的主题和任务类型进行了系统的分类和设计,还对用户模型和回复模型进行了细致的提示工程,它包含三个部分:


  • 关于世界的问题(Questions about the World):这部分对话来自于对现实世界中的概念、实体和对象相关的广泛询问。所涉及的主题涵盖科技、艺术、金融等多个领域。

  • 写作与创作(Writing and Creation):这部分对话数据着重于指示 AI 从头进行创作一个完整的文本材料,并在此基础上进行后续的提问或进一步指导以完善写作,撰写的材料内容类型包括文章、博客、诗歌、故事、戏剧,电子邮件等等。

  • 对于现有资料的辅助改写(Writing and Creation):该对话数据是基于现有资料生成的,指令包括但不限于改写、续写、翻译、归纳、推理等,涵盖主题同样非常多样。


这三部分数据覆盖了大部分用户对于 AI 模型的要求。同时,这三类数据也会面临着不同的挑战,为此需要不同的构造方法。


例如,第一部分的数据主要挑战在于如何在总量为几十万组对话中尽量广泛地涵盖人类社会中的常见知识,为此研究者从自动生成的主题和来源于 Wikidata 的实体两个方面进行了筛选和构造。


第二、三部分的挑战主要来自于如何模拟用户指令,并在后续对话中让用户模型的生成尽量多样化的同时又不偏离对话的最终目标(按照要求生成材料或改写材料),为此研究者对用户模型的输入提示进行了充分的设计和实验。在构造完成之后,作者还对数据进行了后处理以削弱幻觉问题。


目前,该项目已经发布了前两部分的数据,数据量为 124 万条,应该是目前开源社区内规模最大的相关数据集。内容包含在现实世界中丰富多彩的对话,最后一部分数据将在未来发布。


世界问题数据来源于 30 个具有代表性和多样性的元主题,如下图所示:



  • 基于以上元主题,该项目生成了 1100 + 子主题用于数据构建;

  • 对于每个子主题,最多生成 10 个具体问题;

  • 然后使用 Turbo API 为 10 个问题中的每一个生成新的相关问题;

  • 对于每个问题,如上所述迭代地使用两个模型生成 3~7 轮对话。


此外,该项目从维基数据中收集了最常用的 10000 个命名实体;使用 ChatGPT API 为每个实体生成 5 个元问题;对于每个元问题,生成 10 个更具体的问题和 20 个相关但一般的问题;采样 20w 个特定问题和 25w 个一般问题以及 5w 个元问题,并为每个问题生成了 3~7 轮对话。


接下来我们看一个具体的例子:



我们在 UltraChat 平台上测试了数据搜索效果。例如,输入「音乐(music)」,系统会自动搜索出 10000 组与音乐相关的 ChatGPT 对话数据,并且每组都是多轮对话



输入关键词「数学(math)」的搜索结果,有 3346 组多轮对话:



目前,UltraChat 涵盖的信息领域已经非常多,包括医疗、教育、运动、环保等多个话题。同时,笔者尝试使用开源的 LLaMa-7B 模型在 UltraChat 上进行监督的指令微调,发现仅仅训练 10000 步后就有非常可观的效果,一些例子如下:


世界知识:分别列出 10 个很好的中国和美国大学


想象问题:当时空旅行成为可能后,有什么可能的后果?


三段论:鲸鱼是鱼吗?


假设问题:证明成龙比李小龙更出色



总体来说,UltraChat 是一个高质量、范围广的 ChatGPT 对话数据集,可以和其它数据集结合,显著地提升开源对话模型的质量。目前 UltraChat 还只放出了英文版,但也会在未来放出中文版的数据。感兴趣的读者快去探索一下吧。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
马斯克着手开发TruthGPT来最大限度寻找真相,以对抗ChatGPT|环球科学要闻开源中文医疗大模型华佗GPT来了,真人医生盲测效果优于ChatGPTMeta开源的ChatGPT平替到底好不好用?测试结果、加料改装方法已出炉,2天5.2k星冒死说点真话!封了我多个ChatGPT号后,血泪般的教训!对了,我开了个ChatGPT、GPT4.0分享课开源版ChatGPT来了?多数任务效果超越GPT3,已开源!中欧四国自驾游: 信息和体验总汇还能这么玩?清华给 ChatGPT 做逆向,发现了 ChatGPT 的进化轨迹!夫妻团圆,又分离20年视觉ChatGPT来了,微软发布,代码已开源学术科研专用ChatGPT来了!周末刚开源,GitHub斩获3k+星【城事】巴黎市长将重修Châtelet 广场以方便行人巴黎市长将重修Châtelet 广场以方便行人iPhone 15 Pro 或无固态按键/小米 13 Ultra 官宣定档/ ChatGPT 或将回归意大利让ChatGPT调用10万+开源AI模型!HuggingFace新功能爆火:大模型可随取随用多模态AI工具大型语言模型技术公开课上线4讲!直播讲解ChatGPT开源平替、类GPT4低成本定制以及GPT4Tools什么样的人最自由?对了,我开了个ChatGPT、GPT 4.0分享课​GPT充当大脑,指挥多个模型协作完成各类任务,通用系统AutoML-GPT来了秦外、郑外相互对标,都动了!新手用ChatGPT仅需数小时轻松构建零日漏洞,69家专业公司都检测不出来:“不仅能调用开源库,还能彻底重写源代码”“感受” 到底是个什么鬼?清华开源图文对话大模型!表情包解读有一手,奇怪的benchmark增加了集成ChatGPT后必应日活量首破亿!微软推出Azure OpenAI ChatGPT 服务,GPT-4下周发布突发利空,中移动减持!复旦放大招:中国版ChatGPT来了,名字叫"MOSS"!大利好,私募基金可投住宅!河南人口负增长如何搭建一个智能客服:从NLP到多轮对话与多流程设计ChatGPT 核心技术大起底——InstructGPT:研究人类反馈数据比加大模型规模更重要!震撼开源!首个1万多人共同标注的35种语言的高质量对话数据集来啦ChatGPT路线图曝光:没有GPT-5、识图功能要等到明年、GPT-3或将开源多个ChatGPT合作完成指定任务,迷你AGI控制世界要来了?周迅高圣远官宣分手:在新欢面前,男人的深情对旧爱是一个笑话复旦放大招:国内首个类ChatGPT来了,名字叫“MOSS”!微软宣布开源DeepSpeed-Chat ,训练提速15倍以上,有望实现人手一个ChatGPT?OpenAI推出ChatGPT企业版:用户有权决定对话数据和API数据的去留丨最前线复旦放大招:国内首个类ChatGPT来了,名字叫“MOSS”!邀公众参与内测
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。