Redian新闻
>
给大模型评分的基准靠谱吗?Anthropic来了次大评估

给大模型评分的基准靠谱吗?Anthropic来了次大评估

公众号新闻

选自Anthropic

机器之心编译

机器之心编辑部

在大模型(LLM)盛行的当下,评估 AI 系统成为了重要的一环,在评估过程中都会遇到哪些困难,Anthropic 的一篇文章为我们揭开了答案。


现阶段,大多数围绕人工智能 (AI)对社会影响的讨论可归结为 AI 系统的某些属性,例如真实性、公平性、滥用的可能性等。但现在面临的问题是,许多研究人员并没有完全意识到建立稳健可靠的模型评估是多么困难。当今许多现有的评估套件在各个方面的表现都很有限。


AI 初创公司 Anthropic 近日在其官方网站上贴出了一篇文章《评估 AI 系统所面临的挑战》。文中写道,他们花了很长的时间来构建对 AI 系统的评估,从而更好地理解 AI 系统。



文章地址:https://www.anthropic.com/index/evaluating-ai-systems


本文主要从以下几个方面展开讨论:


  • 多项选择评估(Multiple choice evaluations);

  • 利用第三方评估框架,如 BIG-bench 和 HELM;

  • 让工作人员来衡量模型是有益的还是有害的;

  • 让领域专家对相关威胁进行红队分析(red team);

  • 使用生成式 AI 来开发评估方法;

  • 与非营利组织合作,审核模型是否具有危害。


多项选择评估面临的挑战


多项选择评估看似简单,其实不然。本文讨论了模型在 MMLU(Measuring Multitask Language Understanding)和 BBQ(Bias Benchmark for QA)基准上的挑战。


MMLU 数据集


MMLU 是一个包含 57 个多选问答任务的英文评测数据集,涵盖数学、历史、法律等,是目前主流的 LLM 评测数据集。准确率越高,意味着模型的能力越强。但本文发现使用 MMLU 存在四个挑战:


1. 由于 MMLU 被广泛使用,因而就不可避免的遇到这种情况,模型在训练过程中更容易将 MMLU 数据纳入进来。这和学生在考试前看到题目是一样的 —— 这是作弊。


2. 对简单的格式变化敏感,例如将选项从 (A) 更改为 (1),或者在选项和答案之间添加额外的空格,这些做法都可能导致评估准确率约有 5% 的浮动。


3. 一些开发人员有针对性的来提高 MMLU 分数,例如少样本学习或思维链推理。因此,在比较各个实验室的 MMLU 分数时必须非常小心。


4.MMLU 可能没有经过仔细的校对 —— 有研究者在 MMLU 中发现了标签错误或无法回答的例子。


由于上述问题,因而在进行这种简单且标准化的评估时,有必要事先做出判断和思考。本文表明,在使用 MMLU 中遇到的挑战通常也适用于其他类似的多项选择评估。


BBQ


多项选择评估还可以衡量一些 AI 危害。具体而言,Anthropic 的研究者为了在自家模型 Claude 中衡量这些危害,他们使用了 BBQ 基准(用于评估模型对人群偏见的常用基准)。在将此基准与几个类似的评估进行比较后,本文才确信 BBQ 提供了一个很好的衡量社会偏见的方法。这项工作花了他们几个月的时间。


本文表示,实施 BBQ 比预期要困难得多。首先是找不到一个可用的 BBQ 开源实现,Anthropic 最好的工程师花了一个星期的时间来执行和测试评估。与 MMLU 中按照准确率评估不同,BBQ 中的 bias 得分需要细微差别和经验来定义、计算和解释。


BBQ bias 得分范围从 - 1 到 1,其中 1 表示有明显的刻板偏见,0 表示没有偏见,-1 表示有明显的反刻板偏见。在实现 BBQ 之后,本文发现一些模型 bias 得分为 0,这一结果也让研究者感到乐观,表明他们在减少有偏见的模型输出方面取得了进展。


第三方评估框架

最近,第三方一直在积极开发评估套件。到目前为止,Anthropic 已经参与了其中的两个项目:BIG-bench 和斯坦福大学的 HELM(Holistic Evaluation of Language Models)。尽管第三方评估看起来很有用,但这两个项目都面临新的挑战。


BIG-bench


BIG-bench 包含 204 项评估,由 450 多名研究者合作完成,涵盖从科学到社会推理的一系列主题。Anthropic 表示他们在使用这个基准时遇到了一些挑战:为了安装 BIG-bench,他们耗费了大量的时间。BIG-bench 不像 MMLU 那样即插即用 —— 它甚至比使用 BBQ 更多的努力来实施。


BIG-bench 无法有效的扩展,想要全部完成 204 项评估具有很大的挑战性。因而需要重新编写,以便与使用的基础设施很好地配合,工作量巨大。


此外,在实施过程中,本文发现评估中存在一些 bug,使用起来非常不便利,因此 Anthropic 的研究人员在这次实验后放弃了它。


HELM:自上而下地策划一组评估


BIG-bench 是一项「自下而上」的工作,任何人都可以提交任何任务,然后由一组专家组织者进行有限的审查。而 HELM 则采用「自上而下」的方法,由专家决定用什么任务评估模型。 


具体来说,HELM 在推理场景、含虚假信息场景等多个场景中评估模型,采用准确性、稳健性、公平性等标准指标。Anthropic 为 HELM 开发人员提供 API 访问权限,以便在其模型上运行基准测试。


相比于 BIG-bench,HELM 有两个优势:1)它不需要进行大量的工程工作,2)可以依靠专家来选择和解释特定的高质量评估。


然而,HELM 也带来了一些挑战。适用于评估其他模型的方法不一定适用于 Anthropic 的模型,反之亦然。例如,Anthropic 的 Claude 系列模型经过训练,遵循特定的文本格式,称为 Human/Assistant 格式。Anthropic 内部评估其模型时会遵循这种特定格式。如果不遵循这种格式,Claude 有时就会给出不寻常的回答,从而使标准评估指标的结果不太可信。


此外,HELM 需要很长的时间才能完成,评估新模型可能需要几个月的时间,并且需要与外部各方进行协调和沟通。


人工智能系统是为了与人进行开放式动态交互而设计的,那么如何对模型进行更接近现实应用的评估?


众包人员进行 A/B 测试


目前,领域内主要(但不完全)依赖一种基本类型的人类评估 —— 在众包平台上进行 A/B 测试,人们在其中与两个模型进行开放式对话,并从模型 A 或 B 中选择响应更有帮助或更无害,根据模型的有用性或无害性对模型进行排名。这种评估方法的优点是与现实环境相对应,并允许对不同的模型进行排名。


然而,这种评估方法有一些局限性,实验运行起来既昂贵又耗时。


首先,这种方法需要与第三方众包平台合作并为其付费,为模型构建自定义 Web 界面,为 A/B 测试人员设计详细的说明,还要分析和存储结果数据,并解决雇用众包人员带来的道德挑战。


在无害性测试情况下,实验还存在使人们接触有害输出的风险。人类评估的结果可能还会因人类评估者的特征存在很大差异,包括人类评估者的创造力水平、动机以及识别所测试系统潜在缺陷的能力。


此外,有用和无害之间存在固有的张力。系统可以通过提供无用的响应(例如「抱歉,我无法帮助您」)来降低有害性。


有用与无害之间的正确平衡是什么?什么指标数值表明模型足够有用且无害?诸多问题需要领域内研究者做更多工作来找到答案。


了解更多内容,请参考原文章。


原文链接:https://www.anthropic.com/index/evaluating-ai-systems




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
北美天气大热《流浪地球 2》将角逐奥斯卡最佳国际影片;Anthropic 再获 20 亿美元融资;蔚来推出婚庆用车定制服务 | 极客早知道亚马逊刚投40亿美元,谷歌等又要投20亿,Anthropic 估值狂飙太狠了,Anthropic 刚拿到天价融资,OpenAI就打了一巴掌回去CodeFuseEval - 代码类大模型多任务评估基准北京理工大学发布双语轻量级语言模型,明德大模型—MindLLM,看小模型如何比肩大模型路边的野花传谷歌要向Anthropic投资20亿美元;11月上线,微软Teams将引入AI工具DALL-E丨AIGC日报HRoot:2023HRoot全球人力资源服务机构50强榜单与白皮书谷歌20亿美元砸向Anthropic:大模型军备竞赛升级李开复零一万物发布首款大模型;马斯克xAI发布首个大模型;360、美团、昆仑万维等最新消息;vivo发布蓝心AI大模型AI独角兽|Anthropic:最可能挑战OpenAI的公司6001 血壮山河之随枣会战 “和平运动 ”1小模型如何比肩大模型,北理工发布明德大模型MindLLM,小模型潜力巨大传OpenAI与Anthropic讨论合并事宜;网传鸿蒙系统明年将不兼容安卓;首款“星闪电视”面世|AIoT情报一百一十七 老实人AI靠谱吗?美大法官表态了!英法院早用起来了……免费大模型实战课|首周聚焦百度智能云千帆大模型平台使用,《大模型应用实践》实训营11月16日开讲!一百一十八 书生气亚马逊投资Anthropic的背后OpenAI核心人员离职创办的Anthropic,又拿到亚马逊40亿美元投资ICCV 2023 | 实现实时六自由度物体跟踪,深度主动轮廓模型DeepAC来了打破大模型黑盒,彻底分解神经元!OpenAI对头Anthropic击破AI不可解释性障碍炸了!!!亚马逊40亿美元投资大语言模型公司Anthropic。。。再斩Amazon 40亿投资,OpenAI劲敌Anthropic身价飙升Meta发布大规模视觉模型评估基准FACET!开源视觉模型DINOv2允许商用别让大模型被基准评估坑了!测试集乱入预训练,分数虚高,模型变傻大模型落地最后一公里:111页全面综述大模型评测2023中文大模型基准测评报告发布;微软Copilot将升级至GPT-4 Turbo;AI奥林匹克数学奖设立丨AIGC大事日报亚马逊向 Anthropic 注资 40 亿美元,代表什么?40亿美元!​亚马逊投资Anthropic公司 预对战微软OpenAlAgent4Rec来了!大模型智能体构成推荐系统模拟器,模拟真实用户交互行为ChatGPT让ChatGPT吐槽宕机;OpenAI对竞争对手Anthropic的合并要约被拒丨AIGC日报智能周报|OpenAI推多模态模型,计划开发AI硬件和芯片;从亚马逊融40亿美元后,Anthropic想再从Google融20亿OpenAI董事会被踢爆曾与竞争对手Anthropic讨论合并,Altman 去留仍存变数
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。