人类考92分的题,GPT-4只能考15分:测试一升级,大模型全都现原形了
机器之心报道
编辑:张倩、泽南
AutoGPT 的得分也凉凉。
GPT-4 自诞生以来一直是位「优等生」,在各种考试(基准)中都能得高分。但现在,它在一份新的测试中只拿到了 15 分,而人类能拿 92。
这套名叫「GAIA」的测试题由来自 Meta-FAIR、Meta-GenAI、HuggingFace 和 AutoGPT 的团队制作,提出了一些需要一系列基本能力才能解决的问题,如推理、多模态处理、网页浏览和一般工具使用能力。这些问题对人类来说非常简单,但对大多数高级 AI 来说却极具挑战性。如果里面的问题都能解决,通关的模型将成为 AI 研究的重要里程碑。
GAIA 的设计理念和当前的很多 AI 基准不一样,后者往往倾向于设计一些对人类来说越来越难的任务,这背后其实反映了当前社区对 AGI 理解的差异。GAIA 背后的团队认为,AGI 的出现取决于系统能否在上述「简单」问题上表现出与普通人类似的稳健性。
图 1:GAIA 问题示例。完成这些任务要求大模型具备一定推理、多模态或工具使用等基本能力。答案是明确的,并且按照设计,不可能在训练数据的纯文本中找到答案。有些问题带有额外的证据,例如图像,反映真实的用例并允许更好地控制问题。
尽管 LLM 能成功完成人类难以完成的任务,但能力最强的 LLM 在 GAIA 上的表现却难以令人满意。即使配备了工具,GPT4 在最简单的任务中成功率也不超过 30%,而在最难的任务中成功率为 0%。与此同时,人类受访者的平均成功率为 92%。
因此,如果一个系统能解决 GAIA 里的问题,我们就能在 t-AGI 系统中去评估它。t-AGI 是 OpenAI 工程师 Richard Ngo 构建的一套细化 AGI 评估系统,其中包括 1-second AGI、1-minute AGI、1-hour AGI 等等,用来考察某个 AI 系统能否在限定时间里完成人类通常花相同时间可以完成的任务。作者表示,在 GAIA 测试中,人类通常需要 6 分钟左右回答最简单的问题,17 分钟左右回答最复杂的问题。
使用 GAIA 的方法,作者设计了 466 个问题及其答案。他们发布了一个包含 166 个问题和答案的开发者集,另外 300 个问题发布时不带答案。该基准以排行榜的形式发布。
排行榜地址:https://huggingface.co/spaces/gaia-benchmark/leaderboard
论文地址:https://arxiv.org/pdf/2311.12983.pdf
HuggingFace 主页地址:https://huggingface.co/papers/2311.12983
GAIA 是什么
GAIA 是如何运作的?研究人员表示,GAIA 是用于测试人工智能系统一般助理问题的基准。GAIA 试图规避此前大量 LLM 评估的不同缺陷。它由人类设计和注释的 466 个问题组成。这些问题基于文本,有的附带文件(例如图像或电子表格)。它们涵盖各种辅助性质的任务,例如日常个人任务、科学或常识。
这些问题指向一个简短的、单一的正确答案,因此易于验证。
要使用 GAIA,只需向人工智能助手零样本提出问题并附上依据(如有的话)。在 GAIA 上获得完美得分需要一系列不同的基本能力。制作者在该项目的补充材料中提供了各种问题和元数据。
GAIA 的产生既源于升级人工智能基准的需要,也源于目前广泛观察到的 LLM 评估的缺点。
作者表示,设计 GAIA 的首要原则是针对概念上简单的问题,它们尽管对人类来说可能很乏味,但又多种多样,植根于现实世界,对当前的人工智能系统具有挑战性。这使得我们可以专注于基本能力,例如通过推理快速适应、多模态理解和潜在的多样化工具使用,而不是专业技能方面。
这些问题通常包括查找和转换从不同来源(例如提供的文档或开放且不断变化的网络)收集的信息,以产生准确的答案。要回答图 1 的示例问题,LLM 通常应该浏览网络查找研究,然后寻找正确的注册位置。这与此前基准体系的趋势相反,以前的基准对人类来说越来越困难,和 / 或在纯文本或人工环境中操作。
GAIA 的第二个原则是可解释性。与题海相比,精心策划的问题数量有限,使得新基准更易于使用。该任务概念简单(人类成功率为 92%),使用户很容易理解模型的推理轨迹。对于图 1 中的 1 级问题,推理跟踪主要包括检查正确的网站,并报告正确的数字,这很容易验证。
GAIA 的第三个原则是对记忆的鲁棒性:GAIA 的目标是比大多数当前基准测试的猜题可能性更低。为了完成一项任务,系统必须计划好并成功完成一些步骤。因为根据设计,当前预训练数据中没有以纯文本形式生成结果答案。准确性的进步反映了系统的实际进步。由于它们的多样性和行动空间的大小,这些任务不能在不作弊的情况下被暴力破解,例如通过记住基本事实。尽管数据污染可能导致额外的正确率,但答案所需的准确性、答案在预训练数据中的缺失以及检查推理轨迹的可能性减轻了这种风险。
相反,多项选择答案使污染评估变得困难,因为错误的推理痕迹仍然可以得出正确的选择。如果尽管采取了这些缓解措施,还是发生了灾难性记忆问题,那么使用作者在论文中提供的指南很容易设计新问题。
图 2.:为了回答 GAIA 中的问题,GPT4(配置了代码解释器)等 AI 助手需要完成几个步骤,可能需要使用工具或读取文件。
GAIA 的最后一个原则是易用性。其中的任务是简单的提示,可能会附带一个附加文件。最重要的是,问题的答案是事实、简洁且明确的。这些属性允许简单、快速和真实的评估。问题旨在测试 zero-shot 能力,限制评估设置的影响。相反,许多 LLM 基准要求对实验设置敏感的评估,例如提示的数量和性质或基准实现。
现有模型的跑分
GAIA 的设计使得大模型智能水平的评估自动化、快速且真实。实际上,除非另有说明,每个问题都需要一个答案,该答案可以是字符串(一个或几个单词)、数字或逗号分隔的字符串或浮点数列表,但只有一个正确答案。因此,评估是通过模型的答案和基本事实之间的准精确匹配来完成的(直到与基本事实的「类型」相关的某种归一化)。系统(或前缀)提示用于告知模型所需的格式,请参见图 2。
实际上,GPT4 级别模型很容易遵循 GAIA 的格式。GAIA 已提供了评分功能和排行榜。
目前只测试了大模型领域的「标杆」,OpenAI 的 GPT 系列,可见不管哪个版本分数都很低,Level 3 的得分还经常是零分。
使用 GAIA 评估 LLM 只需要能够提示模型,即有 API 访问权限即可。在 GPT4 测试中,最高分数是人类手动选择插件的结果。值得注意的是,AutoGPT 能够自动进行此选择。
只要 API 可用,测试时就会运行该模型 3 次并报告平均结果。
图 4:每种方法和级别的分数和回答时间。
总体而言,人类在问答中的各个层面都表现出色,但目前最好的大模型显然表现不佳。作者认为,GAIA 可以对有能力的 AI 助手进行清晰的排名,同时在未来几个月甚至几年内留下很大的改进空间。
不过从回答花费的时间上来看,像 GPT-4 这样的大模型有潜在的可以替代现有搜索引擎的能力。
没有插件的 GPT4 结果与其他结果之间的差异表明,通过工具 API 或访问网络来增强 LLM 可以提高答案的准确性,并解锁许多新的用例,这证实了该研究方向的巨大潜力。
AutoGPT-4 允许 GPT-4 自动使用工具,但与没有插件的 GPT4 相比,Level 2 甚至 Level 1 的结果都令人失望。这种差异可能来自 AutoGPT-4 依赖 GPT-4 API(提示和生成参数)的方式,并且在不久的将来需要进行新的评估。与其他 LLM 相比,AutoGPT4 也很慢。总体而言,人类和带有插件的 GPT-4 之间的协作似乎是「性能」最好的。
图 5 显示了按功能划分的模型获得的分数。显然,单纯的 GPT-4 无法处理文件和多模态,但能够解决注释者使用网页浏览的问题,主要是因为它正确地记忆了需要组合的信息片段以获得答案。
图 3 左:解决 GAIA 中问题需要使用的能力的数量。右:每个点对应一个 GAIA 问题。在给定位置,点的大小与问题数量成正比,并且仅显示问题数量最多的级别。这两个数字都是基于人类注释者在回答问题时报告的信息,人工智能系统的处理方式可能会有所不同。
在 GAIA 上获得完美得分需要 AI 具备先进的推理、多模态理解、编码能力和一般工具使用能力,例如网页浏览。AI 还包括需要处理各种数据模态,例如 PDF、 电子表格,图像、视频或音频。
尽管网页浏览是 GAIA 的关键组成部分,但我们不需要 AI 助手在网站上执行除「点击」之外的操作,例如上传文件、发表评论或预订会议。在真实环境中测试这些功能,同时避免制造垃圾信息需要谨慎,这个方向会留在未来的工作中。
难度递增:根据解决问题所需的步骤以及回答问题所需的不同工具的数量,可以将问题分为三个难度递增的级别。步骤或工具自然没有单一的定义,并且可能有多种路径来回答给定的问题。
Level 1 问题一般不需要工具,或者最多一个工具但不超过 5 个步骤。
Level 2 问题通常涉及更多步骤,大约在 5-10 步之间,并且需要结合不同的工具。
Level 3 是针对近乎完美的通用助理的问题,要求采取任意长的行动序列,使用任意数量的工具,并能够接触到真实世界。
GAIA 针对现实世界的 AI 助理设计问题,设计中的问题还包括面向残障人士的任务,如在小音频文件中查找信息。最后,该基准尽最大努力涵盖各种主题领域和文化,尽管数据集的语言仅限于英语。
更多细节请参考原论文。
© THE END
转载请联系本公众号获得授权
微信扫码关注该文公众号作者