Redian新闻
>
比人类便宜20倍!谷歌DeepMind推出「超人」AI系统

比人类便宜20倍!谷歌DeepMind推出「超人」AI系统

公众号新闻



  新智元报道  

编辑:alan
【新智元导读】大模型的幻觉问题怎么解?谷歌DeepMind:用AI来做同行评审!事实核验正确率超过人类,而且便宜20倍。

AI的同行评审来了!

一直以来,大语言模型胡说八道(幻觉)的问题最让人头疼,而近日,来自谷歌DeepMind的一项研究引发网友热议:

大模型的幻觉问题,好像被终结了?

论文地址:https://arxiv.org/pdf/2403.18802.pdf

项目地址:https://github.com/google-deepmind/long-form-factuality

在这篇工作中,研究人员介绍了一种名为 "搜索增强事实性评估器"(Search-Augmented Factuality Evaluator,SAFE)的方法。

对于LLM的长篇回答,SAFE使用其他的LLM,将答案文本分解为单个叙述,然后使用诸如RAG等方法,来确定每个叙述的准确性。

——简单来说就是:AI答题,AI判卷,AI告诉AI你这里说的不对。

真正的「同行」评审。

另外,研究还发现,相比于人工标注和判断事实准确性,使用AI不但便宜20倍,而且还更靠谱!

目前这个项目已在GitHub上开源。

长文本事实性检验

大语言模型经常胡说八道,尤其是有关开放式的提问、以及生成较长的回答时。

比如小编随手测试一下当前最流行的几个大模型。

ChatGPT:虽然我的知识储备只到2021年9月,但我敢于毫不犹豫地回答任何问题。

Claude 3:我可以谦卑且胡说八道。

为了对大模型的长篇回答进行事实性评估和基准测试,研究人员首先使用GPT-4生成LongFact,这是一个包含数千个问题的提示集,涵盖38个主题。

LongFact包含两个任务:LongFact-Concepts和LongFact-Objects,前者针对概念、后者针对实体。每个包括30个提示,每个任务各有1140个提示。

然后,使用搜索增强事实性评估器(SAFE),利用LLM将长篇回复分解为一组单独的事实,并使用多步骤推理过程来评估每个事实的准确性,包括使用网络搜索来检验。

此外,作者建议将F1分数进行扩展,提出了一种兼顾精度和召回率的聚合指标。

SAFE工作流程

如上图所示,首先提示语言模型将长篇响应中的每个句子拆分为单个事实。

然后,通过指示模型将模糊的引用(代词等)替换为上下文中引用的适当实体,将每个单独的事实修改为自包含的事实。

为了对每个独立的个体事实进行评分,研究人员使用语言模型来推理该事实是否与上下文中相关,并且使用多步骤方法对每个相关事实进行评定。

如上图所示,在每个步骤中,模型都会根据要评分的事实和先前获得的搜索结果生成搜索查询。

在设定的步骤数之后,模型执行推理以确定搜索结果是否支持该事实。

比人类更好用

首先,直接比较对于每个事实的SAFE注释和人类注释,可以发现,SAFE在72.0%的单个事实上与人类一致(见下图),表明SAFE几乎达到了人类的水平。

——这还没完,跟人类一致并不代表正确,如果拿正确性PK一下呢?

研究人员在所有SAFE注释与人类注释产生分歧的案例中,随机抽样出100个,然后人工重新比较到底谁是正确的(通过网络搜索等途径)。

最终结果让人震惊:在这些分歧案例中,SAFE注释的正确率为76%,而人工注释的正确率仅为19%(见上图),——SAFE以将近4比1的胜率战胜了人类。

然后我们再看一下成本:总共496个提示的评分,SAFE发出的 GPT-3.5-Turbo API调用成本为64.57美元,Serper API调用成本为 31.74 美元,因此总成本为96.31美元,相当于每个响应0.19美元。

而人类标注这边,每个响应的成本为4美元,——AI比人类便宜了整整20多倍!

对此,有网友评价,LLM在事实核验上有「超人」级别的表现。

评分结果

据此,研究人员在LongFact上对四个模型系列(Gemini、GPT、Claude和PaLM-2)的13个语言模型进行了基准测试,结果如下图所示:

研究人员发现,一般情况下,较大的模型可以实现更好的长格式事实性。

例如,GPT-4-Turbo比GPT-4好,GPT-4比GPT-3.5-Turbo好,Gemini-Ultra比Gemini-Pro更真实,而PaLM-2-L-IT-RLHF比PaLM-2-L-IT要好。

在两个选定的K值下,三个表现最好的模型(GPT-4-Turbo、GeminiUltra和PaLM-2-L-IT-RLHF),都是各自家族中超大杯。

另外,Gemini、Claude-3-Opus和Claude-3-Sonnet等新模型系列正在赶超GPT-4,——毕竟GPT-4(gpt-4-0613)已经有点旧了。

是误导吗?

对于人类在这项测试中颜面尽失的结果,我们不免有些怀疑,成本应该是比不过AI,但是准确性也会输?

Gary Marcus表示,你这里面关于人类的信息太少了?人类标注员到底是什么水平?

为了真正展示超人的表现,SAFE需要与专业的人类事实核查员进行基准测试,而不仅仅是众包工人。人工评分者的具体细节,例如他们的资格、薪酬和事实核查过程,对于比较的结果至关重要。

「这使得定性具有误导性。」

当然了,SAFE的明显优势就是成本,随着语言模型生成的信息量不断爆炸式增长,拥有一种经济且可扩展的方式,来进行事实核验将变得越来越重要。

参考资料:
https://venturebeat.com/ai/google-deepmind-unveils-superhuman-ai-system-that-excels-in-fact-checking-saving-costs-and-improving-accuracy/



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
谷歌数学版Gemini破解奥赛难题,堪比人类数学家!利物浦用DeepMind的AI制定战术已有三年了【行业日报】SpaceX获得印尼政府运营许可!谷歌DeepMind发布生物人工智能模型最新版本!MLP一夜被干掉!MIT加州理工等革命性KAN破记录,发现数学定理碾压DeepMind房奴松口气!加拿大贷款利率终于大降,TD推出“杀手级”浮动利率曝小扎写信“挖角”DeepMind;我国10亿级参数大模型超百个;Stability AI开源代码生成模型丨AIGC大事日报GPT-4、Llama 2 比人类更懂“人类心理”?最新研究登上 Nature 子刊DeepMind升级Transformer,前向通过FLOPs最多可降一半3900 万人围观雷军直播试驾;马斯克招募第二名脑机实验患者;DeepMind 推出大模型危险性评估框架 | 极客早知道旅行的尽头是日本(4)根津美术馆看啊,还是这个人谷歌DeepMind核心大佬被曝离职创业,瞄准AI智能体!曾是Gemini关键负责人Open AI 八年前的设想被谷歌突破啦!DeepMind官宣SIMA,动动嘴就能完成复杂游戏任务挑战OpenAI,微软自研5000亿参数绝密武器曝光!前谷歌DeepMind高管带队DeepMind首发游戏AI智能体SIMA!只用自然语言就能玩转「山羊模拟器」GPT-4被证实具有「人类心智」登Nature!AI比人类更好察觉讽刺和暗示突发!DeepMind联创空降微软:统领AI团队,还掏空了OpenAI劲敌AI足球教练上岗利物浦,射门机会提高13%!来自DeepMind,网友:这不公平全新开源AI代码工具诞生!超越谷歌DeepMind旗下AlphaCode准确率比现有方法高50%!谷歌DeepMind全新深度学习模型AlphaFold 3重磅论文登上《自然》42、长篇家庭伦理小说《嫁接》第十章 不期而遇(3)AlphaFold 3一夜预测地球所有生物分子,谷歌DeepMind颠覆生物学登Nature头版!谷歌 DeepMind 联合创始人加入微软,担任新 AI 部门 CEO谷歌DeepMind科学家创业,融资2.2亿美元,多位亿万富翁参投,亚马逊三星砸钱押注【诚邀投稿】2024 IEEE国际电能转换系统与控制会议(IEEE IEECSC 2024)意外之喜,与最佳留学生异地相聚GPT-4、Gemini同时被曝重大缺陷,逻辑推理大翻车!DeepMind上交校友团队发现LLM严重降智DeepMind终结大模型幻觉?标注事实比人类靠谱、还便宜20倍,全开源下棋下哭柯洁的DeepMind,这次要让生物界地震?加速知识检索:伯克利&DeepMind联合研究,RaLMSpec让语言模型服务飞速提升2-7倍!妈妈不是超人,也不必是超人谷歌DeepMind打造基于人工智能的医疗问诊对话工具AMIE喜怒哀乐一瞬间微软“去OpenAI化”引发高层洗牌:必应CEO被DeepMind联创挤跑!纳德拉会见Stable Diffusion老板李开复提出「PMF 不再适用大模型 AI-First 创业,要追求 TC-PMF」,如何理解?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。