Redian新闻
>
语言模型自己学会用搜索引擎了?Meta AI提出API调用自监督学习方法Toolformer

语言模型自己学会用搜索引擎了?Meta AI提出API调用自监督学习方法Toolformer

公众号新闻

选自arXiv

作者:Timo Schick等

机器之心编译

编辑:袁铭怿、小舟

单一的大型语言模型或许无法实现 AGI,但如果它学会使用其他工具呢?


在自然语言处理任务中,大型语言模型在零样本和少样本学习方面取得了令人印象深刻的结果。然而,所有模型都存在固有的局限性,往往只能通过进一步扩展来部分解决。具体来讲,模型的局限性包括无法访问最新信息、会对事实产生「信息幻觉」、低资源语言理解困难、缺乏进行精确计算的数学技能等等。


解决这些问题的一种简单方法就是给模型配备外部工具,如搜索引擎、计算器或日历。然而,现有方法通常依赖于大量的人工注释,或将工具的使用限制在特定的任务设置下,使得语言模型与外部工具的结合使用难以推广。


为了打破这种瓶颈,近期 Meta AI 提出了一种称为 Toolformer 的新方法,使得语言模型学会「使用」各种外部工具。


论文地址:https://arxiv.org/pdf/2302.04761v1.pdf


Toolformer 很快就引起了人们的高度关注,有人认为这篇论文解决了目前大型语言模型的许多问题,称赞道:「这是最近几周最重要的论文」。


有人指出 Toolformer 以自监督学习的方式,仅用极少数样本就让大型语言模型学会使用一些 API 和工具,这是非常灵活且高效的:


甚至有人认为 Toolformer 将让我们离通用人工智能(AGI)更近一步。


Toolformer 之所以能获得如此高的评价,是因为它满足了以下的实际需求:


  • 大型语言模型应该在自监督的方式下学习工具的使用,而不需要大量的人工注释。这一点很关键, 人工注释的成本很高只是一方面,更重要的是人类认为有用的东西可能与模型认为有用的东西不同。

  • 语言模型需要更全面地使用不受特定任务约束的工具。 


这明确打破了前文所述的瓶颈。我们来具体看一下 Toolformer 的方法和实验结果。


方法


Toolformer 基于带有 in-context learning(ICL)的大型语言模型从头开始生成数据集(Schick and Schütze, 2021b; Honovich et al., 2022; Wang et al., 2022)的思路:只需给出少数几个人类使用 API 的样本,就可以让 LM 用潜在的 API 调用标注一个巨大的语言建模数据集;然后使用自监督损失函数来确定哪些 API 调用实际上有助于模型预测未来的 token;最后根据对 LM 本身有用的 API 调用进行微调。


由于 Toolformer 与所使用的数据集无关,因此可以将其用于与模型预训练完全相同的数据集,这确保了模型不会失去任何通用性和语言建模能力。


具体来说,该研究的目标是让语言模型 M 具备一种能力 —— 通过 API 调用使用各种工具。这就要求每个 API 的输入和输出都可以表征为文本序列。这允许将 API 调用无缝插入到任何给定文本中,并使用特殊的 token 来标记每个此类调用的开始和结束。


该研究将每个 API 调用表示为一个元组,其中 a_c 是 API 的名称,i_c 是相应的输入。给定具有相应结果 r 的 API 调用 c,该研究将不包括和包括其结果的 API 调用的线性化序列分别表示为:


其中,<API>,</API > 和「→」是特殊的 token。如下图 1 所示,这种方法让 LM 学会了控制各种工具,并为自己选择在何时以及如何使用哪种工具。


给定数据集,该研究首先将这个数据集转换成一个增加了 API 调用的数据集 C*。这分三个步骤完成,如下图 2 所示:首先,该研究利用 M 的 in-context learning 能力对大量潜在的 API 调用进行采样,然后执行这些 API 调用,再检查获得的响应是否有助于预测未来的 token,以用作筛选标准。筛选之后,该研究合并对不同工具的 API 调用,最终生成数据集 C*,并在此数据集上微调 M 本身。


实验及结果


该研究对各种不同的下游任务进行了实验,结果表明:基于 6.7B 参数预训练 GPT-J 模型的 Toolformer(学习过使用各种 API 和工具)在各种任务上明显优于更大的 GPT-3 模型和其他几个基线。


该研究在 LAMA 基准的 SQuAD、GoogleRE 和 T-REx 子集上对几种模型进行了评估,实验结果如下表 3 所示:


为了测试 Toolformer 的数学推理能力,该研究在 ASDiv、SVAMP 和 MAWPS 基准上进行了实验。实验表明,Toolformer 在大多情况下都使用了计算器工具,这明显比 OPT (66B)和 GPT-3 (175B)略胜一筹。


在问答方面,该研究在 Web Questions、Natural Questions 和 TriviaQA 三个问答数据集上进行了实验。Toolformer 明显优于大小相同的基线模型,但逊于 GPT-3 (175B)。


在跨语言任务方面,该研究将 Toolformer 和 MLQA 上所有的基线模型进行了比较,结果如下表 6 所示:

为了研究日历 API 的效用,该研究在 TEMPLAMA 和一个名为 DATESET 的新数据集上对几种模型进行了实验。Toolformer 优于所有基线,但没有使用 TEMPLAMA 日历工具。

除了验证各种下游任务的性能改进之外,该研究还希望确保 Toolformer 的语言建模性能不会因为 API 调用的微调而降低。为此,该研究在两个语言建模数据集上进行实验来评估,模型的困惑度如下表 8 所示。

对于没有任何 API 调用的语言建模来说,添加 API 调用无需花费任何成本。

最后,研究人员分析了随着语言模型规模的扩大,向外部工具寻求帮助的能力对模型性能的影响,分析结果如下图 4 所示

感兴趣的读者可以阅读论文原文,了解更多研究细节。

全面学习ChatGPT,机器之心准备了 89 篇文章合集

这是一份全面、系统且高质量的 ChatGPT 文章合集,我们筛选出来了 89 篇相关文章,设计了阅读框架与学习路径,大家可以根据自己的需求进行浏览与研读。合集内容包括:

  • ChatGPT 及 OpenAI  大事件时间轴

  • 概念·真正搞懂 ChatGPT:共 3 篇文章

  • 研究·GPT 家族更迭:共 16 篇文章

  • 八年·OpenAI 的历史与现在:共 13 篇文章

  • 干货·GPT 相关研究与技术:共 18 篇文章

  • 观点·专家谈 ChatGPT:共 8 篇文章

  • 行业·应用与探索:共 23 篇文章

  • 行业·同类产品:共 8 篇文章

点击阅读原文,开始学习ChatGPT。

© THE END 
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
苹果:不要直接挂断车祸检测电话/Google将把AI聊天加入搜索引擎/小米 13 Ultra 本月见Meta staff engineer 被layoff 了,要卖房了超越ConvNeXt!Transformer 风格的卷积网络视觉基线模型Conv2FormerNLP大规模语言模型推理实战:大语言模型BLOOM推理工具测试实践与效果分析实录ICLR 2023 | 用大语言模型GPT-3直接替代传统搜索引擎日本啊,日本(八)苏州园林Meta最新语言模型LLaMA论文研读:小参数+大数据的开放、高效基础语言模型阅读笔记搜索引擎变天了:微软正式宣布推出首款ChatGPT搜索!CVPR 2023 | G2SD: 让小模型也能从自监督预训练中受益的蒸馏方法今天,微软重新发明搜索引擎:首款ChatGPT搜索来了老年三福与笑的哲学---柳无忌告老心言强化学习中的Transformer发展到哪一步了?清北联合发布TransformRL综述多模态再次统一!Meta发布自监督算法data2vec 2.0:训练效率最高提升16倍!ECCV 2022 | 半监督学习的隐秘角落: 无监督的数据选择性标注 USL压着谷歌打!ChatGPT正式上线微软搜索!搜索引擎迎来大变革!达摩院开源半监督学习框架Dash,刷新多项SOTA用热传导方程来指导自监督学习从LLM到MLLM,多模态大规模语言模型KOSMOS-1赋予了语言模型看见世界的能力西电 NeurIPS 2022 | 基于结构聚类的异质图自监督学习多模态如何自监督?爱丁堡等最新「自监督多模态学习」综述:目标函数、数据对齐和模型架构Transformer如何做扩散模型?伯克利最新《transformer可扩展扩散模型》论文ICRA 2023 | CurveFormer:基于Transformer的3D车道线检测新网络阿里达摩院开源:半监督学习框架Dash,刷新多项SOTA!微软正式发布ChatGPT版搜索引擎和浏览器;抖音回应全国上线外卖;ZOOM宣布裁员1300人,CEO降薪98%丨雷峰早报FastTrack Universität 2023莱比锡大学公立语言项目招生简章NeurIPS 2022 | 基于结构聚类的异质图自监督学习自监督为何有效?243页普林斯顿博士论文「理解自监督表征学习」,全面阐述对比学习、语言模型和自我预测三类方法美国入境档案--葛庭燧和何怡贞ICLR 2023 | Specformer: 基于Transformer的集合到集合图谱滤波器Meta/G被竞争同事抢先升Manager怎么办搜索流量暴涨180%,如何利用搜一搜做好公众号增长?CVPR 2023 | 可扩展的视频基础模型预训练范式:训练出首个十亿参数量视频自监督大模型为文学城男博主们画像更快更强!EfficientFormerV2来了!一种新的轻量级视觉TransformerICLR 2023 | MocoSFL: 低成本跨用户联邦自监督学习孩子越努力,学习成绩越差?哈佛学霸50个学习方法,引爆100%学习力我的心脏和我的多肉,
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。