Redian新闻
>
DeepMind终结大模型幻觉?标注事实比人类靠谱、还便宜20倍,全开源

DeepMind终结大模型幻觉?标注事实比人类靠谱、还便宜20倍,全开源

科技
机器之心报道
编辑:杜伟

DeepMind 这篇论文一出,人类标注者的饭碗也要被砸了吗?

大模型的幻觉终于要终结了?


今日,社媒平台 reddit 上的一则帖子引起网友热议。帖子讨论的是谷歌 DeepMind 昨日提交的一篇论文《Long-form factuality in large language models》(大语言模型的长篇事实性),文中提出的方法和结果让人得出大胆的结论:对于负担得起的人来说,大语言模型幻觉不再是问题了。



我们知道,大语言模型在响应开放式主题的 fact-seeking(事实寻求)提示时,通常会生成包含事实错误的内容。DeepMind 针对这一现象进行了一些探索性研究。


首先,为了对一个模型在开放域的长篇事实性进行基准测试,研究者使用 GPT-4 生成 LongFact,它是一个包含 38 个主题、数千个问题的提示集。然后他们提出使用搜索增强事实评估器(Search-Augmented Factuality Evaluator, SAFE)来将 LLM 智能体用作长篇事实性的自动评估器。


对于 SAFE,它利用 LLM 将长篇响应分解为一组单独的事实,并使用多步推理过程来评估每个事实的准确性。这里多步推理过程包括将搜索查询发送到 Google 搜索并确定搜索结果是否支持某个事实 。



论文地址:https://arxiv.org/pdf/2403.18802.pdf

GitHub 地址:https://github.com/google-deepmind/long-form-factuality


此外,研究者提出将 F1 分数(F1@K)扩展为长篇事实性的聚合指标。他们平衡了响应中支持的事实的百分比(精度)和所提供事实相对于代表用户首选响应长度的超参数的百分比(召回率)。


实证结果表明,LLM 智能体可以实现超越人类的评级性能。在一组约 16k 个单独的事实上,SAFE 在 72% 的情况下与人类注释者一致,并且在 100 个分歧案例的随机子集上,SAFE 的赢率为 76%。同时,SAFE 的成本比人类注释者便宜 20 倍以上。


研究者还使用 LongFact,对四个大模型系列(Gemini、GPT、Claude 和 PaLM-2)的 13 种流行的语言模型进行了基准测试,结果发现较大的语言模型通常可以实现更好的长篇事实性。


论文作者之一、谷歌研究科学家 Quoc V. Le 表示,这篇对长篇事实性进行评估和基准测试的新工作提出了一个新数据集、 一种新评估方法以及一种兼顾精度和召回率的聚合指标。同时所有数据和代码将开源以供未来工作使用。



方法概览


LONGFACT:使用 LLM 生成长篇事实性的多主题基准


首先来看使用 GPT-4 生成的 LongFact 提示集,包含了 2280 个事实寻求提示,这些提示要求跨 38 个手动选择主题的长篇响应。研究者表示,LongFact 是第一个用于评估各个领域长篇事实性的提示集。


LongFact 包含两个任务:LongFact-Concepts 和 LongFact-Objects,根据问题是否询问概念或对象来区分。研究者为每个主题生成 30 个独特的提示,每个任务各有 1140 个提示。



SAFE:LLM 智能体作为事实性自动评分者


研究者提出了搜索增强事实评估器(SAFE),它的运行原理如下所示:


a)将长篇的响应拆分为单独的独立事实;

b)确定每个单独的事实是否与回答上下文中的提示相关;

c) 对于每个相关事实,在多步过程中迭代地发出 Google 搜索查询,并推理搜索结果是否支持该事实。


他们认为 SAFE 的关键创新在于使用语言模型作为智能体,来生成多步 Google 搜索查询,并仔细推理搜索结果是否支持事实。下图 3 为推理链示例。



为了将长篇响应拆分为单独的独立事实,研究者首先提示语言模型将长篇响应中的每个句子拆分为单独的事实,然后通过指示模型将模糊引用(如代词)替换为它们在响应上下文中引用的正确实体,将每个单独的事实修改为独立的。


为了对每个独立的事实进行评分,他们使用语言模型来推理该事实是否与在响应上下文中回答的提示相关,接着使用多步方法将每个剩余的相关事实评级为「支持」或「不支持」。具体如下图 1 所示。



在每个步骤中,模型都会根据要评分的事实和之前获得的搜索结果来生成搜索查询。经过一定数量的步骤后,模型执行推理以确定搜索结果是否支持该事实,如上图 3 所示。在对所有事实进行评级后,SAFE 针对给定提示 - 响应对的输出指标为 「支持」事实的数量、「不相关」事实的数量以及「不支持」事实的数量。


实验结果


LLM 智能体成为比人类更好的事实注释者


为了定量评估使用 SAFE 获得注释的质量,研究者使用了众包人类注释。这些数据包含 496 个提示 - 响应对,其中响应被手动拆分为单独的事实(总共 16011 个单独的事实),并且每个单独的事实都被手动标记为支持、不相关或不支持。


他们直接比较每个事实的 SAFE 注释和人类注释,结果发现 SAFE 在 72.0% 的单独事实上与人类一致,如下图 4 所示。这表明 SAFE 在大多数单独事实上都达到了人类水平的表现。然后检查随机采访的 100 个单独事实的子集,其中 SAFE 的注释与人类评分者的注释不一致。



研究者手动重新注释每个事实(允许访问 Google 搜索,而不仅仅是维基百科,以获得更全面的注释),并使用这些标签作为基本事实。他们发现,在这些分歧案例中,SAFE 注释的正确率为 76%,而人工注释的正确率仅为 19%,这代表 SAFE 的胜率是 4 比 1。具体如下图 5 所示。


这里,两种注释方案的价格非常值得关注。使用人工注释对单个模型响应进行评级的成本为 4 美元,而使用 GPT-3.5-Turbo 和 Serper API 的 SAFE 仅为 0.19 美元。


Gemini、GPT、Claude 和 PaLM-2 系列基准测试


最后,研究者在 LongFact 上对下表 1 中四个模型系列(Gemini、GPT、Claude 和 PaLM-2)的 13 个大语言模型进行了广泛的基准测试。


具体来讲,他们利用了 LongFact-Objects 中 250 个提示组成的相同随机子集来评估每个模型,然后使用 SAFE 获取每个模型响应的原始评估指标,并利用 F1@K 指标进行聚合。



结果发现,一般而言,较大的语言模型可以实现更好的长篇事实性。如下图 6 和下表 2 所示,GPT-4-Turbo 优于 GPT-4,GPT-4 优于 GPT-3.5-Turbo,Gemini-Ultra 优于 Gemini-Pro,PaLM-2-L-IT-RLHF 优于 PaLM- 2-L-IT。



更多技术细节和实验结果请参阅原论文。




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
【长篇小说】县委副书记(026)首个全开源时序预测基础模型:Zero-shot预测能力比肩从零训练最优模型最强开源大模型 Llama 3震撼发布!开源模型将追上GPT-4,4000亿参数模型也在路上突发!DeepMind联创空降微软:统领AI团队,还掏空了OpenAI劲敌谷歌DeepMind核心大佬被曝离职创业,瞄准AI智能体!曾是Gemini关键负责人准确率比现有方法高50%!谷歌DeepMind全新深度学习模型AlphaFold 3重磅论文登上《自然》量化起家,万卡在手,降价狂魔,DeepSeek可能就是中国大模型混战的终结者谷歌DeepMind打造基于人工智能的医疗问诊对话工具AMIE万字长文总结大模型知识编辑领域最新研究进展阿里通义千问2.5大模型发布;阿里达摩院提出“知识链”框架,逐步纠错降低大模型幻觉丨AIGC日报AI足球教练上岗利物浦,射门机会提高13%!来自DeepMind,网友:这不公平利物浦用DeepMind的AI制定战术已有三年了3900 万人围观雷军直播试驾;马斯克招募第二名脑机实验患者;DeepMind 推出大模型危险性评估框架 | 极客早知道今日arXiv最热NLP大模型论文:华东师大发布对话级大模型幻觉评价基准DiaHalu微软“去OpenAI化”引发高层洗牌:必应CEO被DeepMind联创挤跑!纳德拉会见Stable Diffusion老板全新开源AI代码工具诞生!超越谷歌DeepMind旗下AlphaCode【行业日报】SpaceX获得印尼政府运营许可!谷歌DeepMind发布生物人工智能模型最新版本!聊一下关于孩子上大学和挣大钱的事情开源大模型火了!(附99个大模型微调模型/数据/工具)!比人类便宜20倍!谷歌DeepMind推出「超人」AI系统【诚邀投稿】2024 IEEE国际电能转换系统与控制会议(IEEE IEECSC 2024)GPT-4、Gemini同时被曝重大缺陷,逻辑推理大翻车!DeepMind上交校友团队发现LLM严重降智RAG还是微调?万字长文总结大模型微调技能图谱加速知识检索:伯克利&DeepMind联合研究,RaLMSpec让语言模型服务飞速提升2-7倍!可怕的幻觉?加州医生驾车冲悬崖自杀未遂,带全家一起“殉葬”真正原因曝光!过紧日子;掼蛋扑克;特斯拉赛博电动皮卡;燃油宝不是宝在一起,做靠谱、有趣的科普 |《赛先生》科学写作小组招募通知定西美股又创新高了,你还在观望吗?“日股牛市”是巴菲特编造的幻觉?实则改革已走过10年谷歌 DeepMind 联合创始人加入微软,担任新 AI 部门 CEO曝小扎写信“挖角”DeepMind;我国10亿级参数大模型超百个;Stability AI开源代码生成模型丨AIGC大事日报《赛先生》科学写作小组召集! | 在一起,做靠谱、有趣的科普李开复提出「PMF 不再适用大模型 AI-First 创业,要追求 TC-PMF」,如何理解?今日arXiv最热大模型论文:浙江大学:如何减轻视觉大模型中的幻觉问题
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。