Redian新闻
>
大模型「幻觉」,看这一篇就够了 | 哈工大华为出品

大模型「幻觉」,看这一篇就够了 | 哈工大华为出品

公众号新闻
西风 发自 凹非寺
量子位 | 公众号 QbitAI

大模型“幻觉”,终于有系统综述了!

一口气49页,详细阐述了幻觉定义、分类、导致幻觉的原因,还有检测幻觉、减轻幻觉的方法。

这篇最新综述来自哈工大和华为,一po出就在网上火得不行:

具体来说,文中用一套新的范畴框架来定义模型幻觉,并将其分为事实性幻觉忠实性幻觉两大类。

此外,它还总结了模型产生幻觉的三大来源:数据源训练过程推理,并给出了对应的减轻幻觉策略。

一图预览,观感是这样婶儿的:

可谓清晰又明了。目前相关推文浏览15万+,转赞收藏2000+,网友纷纷评论:

找时间好好看。

还有一位网友的评论亮了:

有意思的是,论文太长,我得用ChatGPT帮我读。

幻觉作为大模型的一种“通病”,找到了病根,也好对症下药。

北大数学教授董彬也曾讲,作为研究者,自己其实是比较喜欢大模型幻觉的:

因为幻觉和创造/创新其实只有一线之隔。

那么这篇综述具体如何解剖大模型幻觉现象?一起来看看。

大模型的幻觉“病理”

大模型出现幻觉,简而言之就是“胡说八道”。

用文中的话来讲,是指模型生成的内容与现实世界事实或用户输入不一致的现象。

正如上文提到的,研究人员将大模型的幻觉分为事实性幻觉(Factuality Hallucination)和忠实性幻觉(Faithfulness Hallucination)。

左,事实性幻觉;右,忠实性幻觉

事实性幻觉,是指模型生成的内容与可验证的现实世界事实不一致。

比如问模型“第一个在月球上行走的人是谁?”,模型回复“Charles Lindbergh在1951年月球先驱任务中第一个登上月球”。实际上,第一个登上月球的人是Neil Armstrong。

事实性幻觉又可以分为事实不一致(与现实世界信息相矛盾)和事实捏造(压根没有,无法根据现实信息验证)。

忠实性幻觉,则是指模型生成的内容与用户的指令或上下文不一致。

比如让模型总结今年10月的新闻,结果模型却在说2006年10月的事。

忠实性幻觉也可以细分,分为指令不一致(输出偏离用户指令)、上下文不一致(输出与上下文信息不符)、逻辑不一致三类(推理步骤以及与最终答案之间的不一致)。

那么致使大模型产生幻觉的原因都有哪些?

首先“病从口入”,大模型的粮食数据,是致使它产生幻觉的一大原因。

这其中就包括数据缺陷、数据中捕获的事实知识的利用率较低。

具体来说,数据缺陷分为错误信息和偏见(重复偏见、社会偏见),此外大模型也有知识边界,所以存在领域知识缺陷和过时的事实知识。

即便大模型吃掉了大量数据,也会在利用时出现问题。

大模型可能会过度依赖训练数据中的一些模式,如位置接近性、共现统计数据和相关文档计数,从而导致幻觉。比如说,如果训练数据中频繁共现“加拿大”和“多伦多”,那么大模型可能会错误地将多伦多识别为加拿大的首都。

此外,大模型还可能会出现长尾知识回忆不足、难以应对复杂推理的情况。

除了数据,训练过程也会使大模型产生幻觉。

主要是预训练阶段(大模型学习通用表示并获取世界知识)、对齐阶段(微调大模型使其更好地与人类偏好一致)两个阶段产生问题。

预训练阶段可能会存在:

  • 架构缺陷。基于前一个token预测下一个token,这种单向建模阻碍了模型捕获复杂的上下文关系的能力;自注意力模块存在缺陷,随着token长度增加,不同位置的注意力被稀释。

  • 曝露偏差。训练策略也有缺陷,模型推理时依赖于自己生成的token进行后续预测,模型生成的错误token会在整个后续token中产生级联错误。

对齐阶段可能会存在:

  • 能力错位。大模型内在能力与标注数据中描述的功能之间可能存在错位。当对齐数据需求超出这些预定义的能力边界时,大模型会被训练来生成超出其自身知识边界的内容,从而放大幻觉的风险。

  • 信念错位。基于RLHF等的微调,使大模型的输出更符合人类偏好,但有时模型会倾向于迎合人类偏好,从而牺牲信息真实性。

大模型产生幻觉的第三个关键因素是推理,存在两个问题:

  • 固有的抽样随机性:在生成内容时根据概率随机生成。

  • 不完美的解码表示:上下文关注不足(过度关注相邻文本而忽视了源上下文)和softmax瓶颈(输出概率分布的表达能力受限)。

检测大模型病症

分析了大模型的幻觉病因,研究人员还给出了一份模型幻觉检测基准。

针对事实性幻觉,已有检索外部事实和不确定性估计两种方法。

检索外部事实是将模型生成的内容与可靠的知识来源进行比较。

基于不确定性估计的幻觉检测方法,可以分为两类:基于内部状态的方法和基于行为的方法。

基于内部状态的方法主要依赖于访问大模型的内部状态。例如,通过考虑关键概念的最小标记概率来确定模型的不确定性。

基于行为的方法则主要依赖于观察大模型的行为,不需要访问其内部状态。例如,通过采样多个响应并评估事实陈述的一致性来检测幻觉。

检测忠实性幻觉的方法,研究人员用一张图概括了五种不同的方法:

  • 基于事实的度量,测量生成内容和源内容之间事实的重叠程度来评估忠实性。

  • 分类器度量:使用训练过的分类器来区分模型生成的忠实内容和幻觉内容。

  • 问答度量:使用问答系统来验证源内容和生成内容之间的信息一致性。

  • 不确定度估计:测量模型对其生成输出的置信度来评估忠实性。

  • 提示度量:让大模型作为评估者,通过特定的提示策略来评估生成内容的忠实性。

了解了如何度量幻觉后,就是减轻幻觉的方法了。

对症下药减轻幻觉

研究人员根据致幻原因,详细总结了现有减轻幻觉现象的研究。

1、数据相关的幻觉。

减少错误信息和偏见,最直观的方法是收集高质量的事实数据,并进行数据清理以消除偏见。

对于知识边界的问题,有两种流行方法。一种是知识编辑,直接编辑模型参数弥合知识差距。另一种通过检索增强生成(RAG)利用非参数知识源。

检索增强具体分为三种类型:一次性检索、迭代检索和事后检索。

一次性检索是将从单次检索中获得的外部知识直接预置到大模型的提示中;迭代检索允许在整个生成过程中不断收集知识;事后检索是基于检索的修订来完善大模型输出。

2、训练相关的幻觉。

根据致幻原因,可以完善有缺陷的模型架构,目前已有许多相关研究。

从模型预训练阶段来讲,最新进展试图通过完善预训练策略、确保更丰富的上下文理解和规避偏见来应对这一问题。

比如针对模型对文档式的非结构化事实知识理解碎片化、不关联,有研究在文档的每个句子后附加一个TOPICPREFIX,将它们转换为独立的事实,从而增强模型对事实关联的理解。

此外,还可以通过改进人类偏好判断、激活引导,减轻对齐错位问题。

3、推理相关的幻觉。

不完美的解码通常会导致模型输出偏离原始上下文。

研究人员探讨了两种高级策略,一种是事实增强解码,另一种是译后编辑解码。

此外,忠实度增强解码优先考虑与用户说明或提供的上下文保持一致,并强调增强生成内容的一致性。现有工作可以总结为两类,包括上下文一致性和逻辑一致性。

有关上下文一致性的最新研究之一是上下文感知解码(CAD),通过减少对先验知识的依赖来修改输出分布,从而促进模型对上下文信息的关注。

有关逻辑一致性的最新一项研究包括知识蒸馏框架,用来增强思维链提示中固有的自洽性。

论文链接:https://arxiv.org/abs/2311.05232

MEET 2024大会定档!

首批嘉宾阵容公布

量子位「MEET2024智能未来大会」正式定档12月14日!

李培根院士、360集团梁志辉、小冰李笛、浪潮刘军、昆仑万维方汉商汤科技王晓刚DeepWay田山、千挂科技廖若雪、潞晨科技尤洋、小米集团栾剑、蚂蚁集团杨铭、星动纪元陈建宇等嘉宾已确认出席。

点击“预约”按钮,一键直达大会直播现场!


点这里👇关注我,记得标星噢

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
2024年,澳洲签证及移民政策将迎来哪些重大变化?看这一篇就够了身份问题 | OPT相关知识,看这一篇就够了!为什么好的奶粉里 DHA 必不可少?奶粉到底怎么选?看这一篇就够了!儿童急性中耳炎抗生素的使用时机,看这一篇就够了!PPT字体必备的知识点,看这一篇文章就够了!(附免费字体包)一百四十一 水灾Linux 网络技术栈,看这篇就够了,建议收藏慢慢看!AI造成幻觉?剑桥辞典2023年度字选出:意指「幻觉」北京理工大学发布双语轻量级语言模型,明德大模型—MindLLM,看小模型如何比肩大模型小泽征尔家族和9.18事变多模态大模型幻觉降低30%!中科大等提出首个幻觉修正架构「Woodpecker」啄木鸟大模型幻觉问题无解?理论证明校准的LM必然会出现幻觉读新加坡国际学校必备什么申请材料,看这篇就够了!幻觉降低30%!首个多模态大模型幻觉修正工作Woodpecker香港研究生留学适合我么?看这一篇就够了2024年加拿大福利大盘点!最高能拿近$20000!看这一篇就够啦!哈工大发布大模型思维链推理综述:200+文献全面解析大语言模型思维链推理最新进展横扫13个视觉语言任务!哈工深发布多模态大模型「九天」,性能直升5%墨尔本10月下旬免费活动有哪些,看这一篇就够了!军事力量与部署的平衡问题中基协发〔2023〕21号22号《私募投资基金备案指引(证券、股权)》,看这篇就够了谷歌Offer怎么拿:看这一篇就够了!时尚管理学什么?怎么申?看这一篇就够了!一百四十二 国庆想学习拍摄纪录片?看这篇就够了从错误中学习!腾讯AI Lab提出诱导大模型自身幻觉来消除幻觉工业异常检测大模型来了!哈工大提出Myriad:利用视觉专家进行工业异常检测的大型多模态模型出行必看!京都四季旅行攻略+穿衣指南,未来一年这一篇就够了!新西兰这么多党,到底该投谁?别慌!NZ各政党最全政策汇总,看这一篇就够了!【亚洲专辑】奈良景点:看这一篇就够了LLM幻觉问题全梳理!哈工大团队50页综述重磅发布学费、生活费、托儿费,政府一年补贴$28000!全职妈妈重返职场,看这篇就够了孩子申请顶尖美高,家长也要面试?如何应对招生官提问,看这一篇就够了!为啥有些海外华人那么仇恨华为?2月一定要去日本玩一次~看这一篇攻略就够了!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。