Redian新闻
>
人类考92分的题,GPT-4只能考15分:测试一升级,大模型全都现原形了

人类考92分的题,GPT-4只能考15分:测试一升级,大模型全都现原形了

公众号新闻

机器之心报道

编辑:张倩、泽南

AutoGPT 的得分也凉凉。


GPT-4 自诞生以来一直是位「优等生」,在各种考试(基准)中都能得高分。但现在,它在一份新的测试中只拿到了 15 分,而人类能拿 92。


这套名叫「GAIA」的测试题由来自 Meta-FAIR、Meta-GenAI、HuggingFace 和 AutoGPT 的团队制作,提出了一些需要一系列基本能力才能解决的问题,如推理、多模态处理、网页浏览和一般工具使用能力。这些问题对人类来说非常简单,但对大多数高级 AI 来说却极具挑战性。如果里面的问题都能解决,通关的模型将成为 AI 研究的重要里程碑。



GAIA 的设计理念和当前的很多 AI 基准不一样,后者往往倾向于设计一些对人类来说越来越难的任务,这背后其实反映了当前社区对 AGI 理解的差异。GAIA 背后的团队认为,AGI 的出现取决于系统能否在上述「简单」问题上表现出与普通人类似的稳健性。


图 1:GAIA 问题示例。完成这些任务要求大模型具备一定推理、多模态或工具使用等基本能力。答案是明确的,并且按照设计,不可能在训练数据的纯文本中找到答案。有些问题带有额外的证据,例如图像,反映真实的用例并允许更好地控制问题。


尽管 LLM 能成功完成人类难以完成的任务,但能力最强的 LLM 在 GAIA 上的表现却难以令人满意。即使配备了工具,GPT4 在最简单的任务中成功率也不超过 30%,而在最难的任务中成功率为 0%。与此同时,人类受访者的平均成功率为 92%。


因此,如果一个系统能解决 GAIA 里的问题,我们就能在 t-AGI 系统中去评估它。t-AGI 是 OpenAI 工程师 Richard Ngo 构建的一套细化 AGI 评估系统,其中包括 1-second AGI、1-minute AGI、1-hour AGI 等等,用来考察某个 AI 系统能否在限定时间里完成人类通常花相同时间可以完成的任务。作者表示,在 GAIA 测试中,人类通常需要 6 分钟左右回答最简单的问题,17 分钟左右回答最复杂的问题。



使用 GAIA 的方法,作者设计了 466 个问题及其答案。他们发布了一个包含 166 个问题和答案的开发者集,另外 300 个问题发布时不带答案。该基准以排行榜的形式发布。



  • 排行榜地址:https://huggingface.co/spaces/gaia-benchmark/leaderboard

  • 论文地址:https://arxiv.org/pdf/2311.12983.pdf

  • HuggingFace 主页地址:https://huggingface.co/papers/2311.12983


GAIA 是什么


GAIA 是如何运作的?研究人员表示,GAIA 是用于测试人工智能系统一般助理问题的基准。GAIA 试图规避此前大量 LLM 评估的不同缺陷。它由人类设计和注释的 466 个问题组成。这些问题基于文本,有的附带文件(例如图像或电子表格)。它们涵盖各种辅助性质的任务,例如日常个人任务、科学或常识。


这些问题指向一个简短的、单一的正确答案,因此易于验证。


要使用 GAIA,只需向人工智能助手零样本提出问题并附上依据(如有的话)。在 GAIA 上获得完美得分需要一系列不同的基本能力。制作者在该项目的补充材料中提供了各种问题和元数据。


GAIA 的产生既源于升级人工智能基准的需要,也源于目前广泛观察到的 LLM 评估的缺点。


作者表示,设计 GAIA 的首要原则是针对概念上简单的问题,它们尽管对人类来说可能很乏味,但又多种多样,植根于现实世界,对当前的人工智能系统具有挑战性。这使得我们可以专注于基本能力,例如通过推理快速适应、多模态理解和潜在的多样化工具使用,而不是专业技能方面。


这些问题通常包括查找和转换从不同来源(例如提供的文档或开放且不断变化的网络)收集的信息,以产生准确的答案。要回答图 1 的示例问题,LLM 通常应该浏览网络查找研究,然后寻找正确的注册位置。这与此前基准体系的趋势相反,以前的基准对人类来说越来越困难,和 / 或在纯文本或人工环境中操作。


GAIA 的第二个原则是可解释性。与题海相比,精心策划的问题数量有限,使得新基准更易于使用。该任务概念简单(人类成功率为 92%),使用户很容易理解模型的推理轨迹。对于图 1 中的 1 级问题,推理跟踪主要包括检查正确的网站,并报告正确的数字,这很容易验证。


GAIA 的第三个原则是对记忆的鲁棒性:GAIA 的目标是比大多数当前基准测试的猜题可能性更低。为了完成一项任务,系统必须计划好并成功完成一些步骤。因为根据设计,当前预训练数据中没有以纯文本形式生成结果答案。准确性的进步反映了系统的实际进步。由于它们的多样性和行动空间的大小,这些任务不能在不作弊的情况下被暴力破解,例如通过记住基本事实。尽管数据污染可能导致额外的正确率,但答案所需的准确性、答案在预训练数据中的缺失以及检查推理轨迹的可能性减轻了这种风险。


相反,多项选择答案使污染评估变得困难,因为错误的推理痕迹仍然可以得出正确的选择。如果尽管采取了这些缓解措施,还是发生了灾难性记忆问题,那么使用作者在论文中提供的指南很容易设计新问题。


图 2.:为了回答 GAIA 中的问题,GPT4(配置了代码解释器)等 AI 助手需要完成几个步骤,可能需要使用工具或读取文件。


GAIA 的最后一个原则是易用性。其中的任务是简单的提示,可能会附带一个附加文件。最重要的是,问题的答案是事实、简洁且明确的。这些属性允许简单、快速和真实的评估。问题旨在测试 zero-shot 能力,限制评估设置的影响。相反,许多 LLM 基准要求对实验设置敏感的评估,例如提示的数量和性质或基准实现。


现有模型的跑分

GAIA 的设计使得大模型智能水平的评估自动化、快速且真实。实际上,除非另有说明,每个问题都需要一个答案,该答案可以是字符串(一个或几个单词)、数字或逗号分隔的字符串或浮点数列表,但只有一个正确答案。因此,评估是通过模型的答案和基本事实之间的准精确匹配来完成的(直到与基本事实的「类型」相关的某种归一化)。系统(或前缀)提示用于告知模型所需的格式,请参见图 2。


实际上,GPT4 级别模型很容易遵循 GAIA 的格式。GAIA 已提供了评分功能和排行榜。


目前只测试了大模型领域的「标杆」,OpenAI 的 GPT 系列,可见不管哪个版本分数都很低,Level 3 的得分还经常是零分。


使用 GAIA 评估 LLM 只需要能够提示模型,即有 API 访问权限即可。在 GPT4 测试中,最高分数是人类手动选择插件的结果。值得注意的是,AutoGPT 能够自动进行此选择。


只要 API 可用,测试时就会运行该模型 3 次并报告平均结果。


图 4:每种方法和级别的分数和回答时间。


总体而言,人类在问答中的各个层面都表现出色,但目前最好的大模型显然表现不佳。作者认为,GAIA 可以对有能力的 AI 助手进行清晰的排名,同时在未来几个月甚至几年内留下很大的改进空间。


不过从回答花费的时间上来看,像 GPT-4 这样的大模型有潜在的可以替代现有搜索引擎的能力。


没有插件的 GPT4 结果与其他结果之间的差异表明,通过工具 API 或访问网络来增强 LLM 可以提高答案的准确性,并解锁许多新的用例,这证实了该研究方向的巨大潜力。


AutoGPT-4 允许 GPT-4 自动使用工具,但与没有插件的 GPT4 相比,Level 2 甚至 Level 1 的结果都令人失望。这种差异可能来自 AutoGPT-4 依赖 GPT-4 API(提示和生成参数)的方式,并且在不久的将来需要进行新的评估。与其他 LLM 相比,AutoGPT4 也很慢。总体而言,人类和带有插件的 GPT-4 之间的协作似乎是「性能」最好的。


图 5 显示了按功能划分的模型获得的分数。显然,单纯的 GPT-4 无法处理文件和多模态,但能够解决注释者使用网页浏览的问题,主要是因为它正确地记忆了需要组合的信息片段以获得答案。


图 3 左:解决 GAIA 中问题需要使用的能力的数量。右:每个点对应一个 GAIA 问题。在给定位置,点的大小与问题数量成正比,并且仅显示问题数量最多的级别。这两个数字都是基于人类注释者在回答问题时报告的信息,人工智能系统的处理方式可能会有所不同。


在 GAIA 上获得完美得分需要 AI 具备先进的推理、多模态理解、编码能力和一般工具使用能力,例如网页浏览。AI 还包括需要处理各种数据模态,例如 PDF、 电子表格,图像、视频或音频。


尽管网页浏览是 GAIA 的关键组成部分,但我们不需要 AI 助手在网站上执行除「点击」之外的操作,例如上传文件、发表评论或预订会议。在真实环境中测试这些功能,同时避免制造垃圾信息需要谨慎,这个方向会留在未来的工作中。


难度递增:根据解决问题所需的步骤以及回答问题所需的不同工具的数量,可以将问题分为三个难度递增的级别。步骤或工具自然没有单一的定义,并且可能有多种路径来回答给定的问题。


  • Level 1 问题一般不需要工具,或者最多一个工具但不超过 5 个步骤。

  • Level 2 问题通常涉及更多步骤,大约在 5-10 步之间,并且需要结合不同的工具。

  • Level 3 是针对近乎完美的通用助理的问题,要求采取任意长的行动序列,使用任意数量的工具,并能够接触到真实世界。


GAIA 针对现实世界的 AI 助理设计问题,设计中的问题还包括面向残障人士的任务,如在小音频文件中查找信息。最后,该基准尽最大努力涵盖各种主题领域和文化,尽管数据集的语言仅限于英语。


更多细节请参考原论文。




© THE END 

转载请联系本公众号获得授权

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
chat gpt 怎么上不去了? 彻底罢工了良辰美景奈何天期末考试:90%的妈妈都会做错的题,不信你来试试?「GPT-4只是在压缩数据」,马毅团队造出白盒Transformer,可解释的大模型要来了吗?美国暴力收割,1200万亿资金撤出,越南经济或现原形大奖得主和小姑姑,都现身了!GPT-4 Turbo更强更便宜,GPTs、GPT商店最大亮点,这是OpenAI首个开发者日ChatGPT测试上传文件功能;百川推出192K长文本大模型;通义千问App安卓版上线丨AIGC大事日报a16z分析:测试发布为何对游戏很重要,怎么做最好?今日arXiv最热NLP大模型论文:北京大学警惕ChatGPT等大模型遏制人类的创新能力GPT又迎重磅升级!万物皆可大模型(赠大模型系列课程+书籍)对标OpenAI GPT-4,MiniMax 国内首个 MoE 大语言模型全量上线时间的湾 1谷歌AI通过图灵测试,大模型医生来了?GPT-4竟诊断出难倒17个医生的怪病MiniGPT-4升级到MiniGPT-v2了,不用GPT-4照样完成多模态任务局部第二季,大都会博物馆PS+AI生图一步完成,效果惊人!Adobe Firefly 2重磅更新:模型全面升级,矢量图完美支持當病人愛上醫生谷歌Gemini刚发就惹质疑:测试标准有失偏颇,效果视频疑似剪辑钓鱼GPT turbo 看了没?!这真是大批失业人员在路上。AI抢攻人类奥赛金牌!DeepMind数学模型做对25道IMO几何题,GPT-4惨败得0分葛朗台全都不及格!斯坦福100页论文给大模型透明度排名,GPT-4仅排第三免费大模型实战课|首周聚焦百度智能云千帆大模型平台使用,《大模型应用实践》实训营11月16日开讲!不是大模型全局微调不起,只是LoRA更有性价比,教程已经准备好了GPT-4没通过图灵测试!60年前老AI击败了ChatGPT,但人类胜率也仅有63%矩阵模拟!Transformer大模型3D可视化,GPT-3、Nano-GPT每一层清晰可见全面对标OpenAI生态!智谱AI推出GLM-4大模型全家桶,GLMs上线,不会编程也能创建AgentOpenAI史诗级更新:人人都可定制GPT,GPT商店上线,模型价格打骨折说一个有关Open AI的Chat GPT 创投人和我家的小故事【监管】“伪劣金银箔粉”现原形!上海5家餐饮单位被立案处罚→一升级手机就慢!?苹果终于开始赔偿这些用户了!! 每人$92.17!!请查收!!13B模型全方位碾压GPT-4?这背后有什么猫腻飞书一升级,我在公司的地位直线降低对标 OpenAI GPT-4,MiniMax 国内首个 MoE 大语言模型全量上线国产GPTs来了,基于智谱第4代大模型!模型性能均达GPT-4九成以上李开复零一万物发布首款大模型;马斯克xAI发布首个大模型;360、美团、昆仑万维等最新消息;vivo发布蓝心AI大模型参数量13B模型全方位碾压GPT-4?这背后有什么猫腻
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。