Redian新闻
>
FactCHD:探索基于知识图谱的事实冲突幻觉检测新基准

FactCHD:探索基于知识图谱的事实冲突幻觉检测新基准

科技



论文标题:
Unveiling the Siren's Song: Towards Reliable Fact-Conflicting Hallucination Detection

论文链接:

https://arxiv.org/pdf/2310.12086.pdf

项目链接:

https://github.com/zjunlp/FactCHD

在数字时代,大型语言模型(LLMs)如 ChatGPT/GPT-4 因其广泛的实际应用而受到瞩目。然而,它们在网络平台上产生的事实冲突幻觉问题限制了其应用范围。本文介绍了了一个名为 FACTCHD 的事实冲突幻觉检测基准,能够在 LLMs 的“查询-响应”环境中评估事实性。
FACTCHD 集成了多个领域的事实性知识,涵盖了广泛的事实性模式,如原始事实、多跳推理、比较和集合操作模式。其独特之处在于,它旨在将基于事实的证据链相互结合,当预测一个声明的事实性或非事实性时,提供有说服力的理由。然而,全程依靠人工注释来收集大量数据不仅耗时而且资源消耗巨大,其可扩展性亦有限。
因此,本文建议采用现有的知识图谱(KG)和文本知识作为数据来源,提出了一种基于知识事实的数据构建策略,并结合半监督注释的方法,以促进上述基准的创建和发展。与此同时,结合领域 KG 构建幻觉检测数据集的策略拓展性较高,进一步为未来在高风险领域如金融、医疗和法律等领域应用生成性 AI 提供了可能。
为了评估多种大型语言模型(如 Alpaca、ChatGPT 等)的效能,我们开展了一系列基准实验,利用我们的 FACTCHD 在不同设置下进行测试——零样本学习、上下文内学习、专门为检测特定专业知识进行调优,以及通过检索/工具进行知识增强。尽管调优和知识增强对事实冲突幻觉的评估产生了积极影响,但开源的大型语言模型和 ChatGPT 在精准和稳健地检测事实不准确性方面仍面临挑战。

因此,本文引入了一个“三角测量”框架进行幻觉辨别,其使用交叉参考生成器和搜索工具来裁决有问题的事实回答。初步实验验证了不同 LLM 在识别事实冲突幻觉方面的不同表现,并确认了本文提出方法的优越性。



FactCHD基准的构建

基于上述定义,我们构建了涉及多个领域的 FactCHD 基准,其中包含了一系列全面的训练样本,并额外添加了 6,960 个经过精心筛选的样本,用于评估 LLM 生成的事实冲突幻觉。我们的数据集确保了 factual 或 non-factual 类别之间的平衡,为评估提供了一个坚实的平台。值得注意的是,FactCHD 具有以下三个显著特点:
(1)如图 1 和 2 所示它包含了多样化推理模式,包括多跳、比较和集合操作,并涉及健康,医疗,科学,气候等多个领域;
(2)FactCHD 遵循现实场景,提供 “Query-Response” 对和相关证据来验证提供的信息;
(3)该基准测试经过精心设计,在初始数据构建阶段利用知识图谱(KGs),经过细致的人工验证以确保质量。此外,该数据集本身允许通过基于知识图谱的更新进行扩展,从而在保持时代性和可扩展性方面具有独特优势。

接下来,本文将介绍事实冲突幻觉检测基准测试的设计原则。

▲ Figure 1: Overview of the construction and pattern illustration of FACTCHD

▲ Figure2: Distribution of FactCHD across various domains

1.1 生成“查询-回答”上下文

将知识作为事实加以利用:如图 3 所示,知识图谱(KG)以其庞大的实体和关系数据存储库,不仅支持复合推理,而且为事实信息提供了基础结构。同时,文本知识在提供额外和细致信息方面起着关键作用。基于这一点,本文的目标是探索利用现有知识作为事实支撑半自动构建事实冲突幻觉中的能力,具体:
(1)本文从 Wikidata 和 PrimeKG 中提取 KG 数据,将其作为生成“查询-回答”数据的基础知识库。通过手动选择 438 个常见关系,并通过从不同的随机选择的起始实体进行 K-hop 遍历,重复 N 次以获取了多样化的子图集合,用于多跳推理、事实比较和集合操作。本文应用启发式规则以确保提取的子图之间的最小交集和一致性。
(2)本文采用各种事实验证数据集中的文本知识,包括 FEVER、Climate-Fever、Health-Fever、COVID-FACT 和 SCIFACT,以构建本文基准数据集 FactCHD 中的数据。本文仅选择具有相应证据的 factual 和 non-factual 样本,并最初使用 ChatGPT 直接评估这些数据集中的 claim,并选择模型难以提供错误答案的样本。

我们精心设计了有效的提示语,以引导 ChatGPT 生成“查询-回答”场景,这包含三个关键要素:角色描述、事实性模式和事实性展示。角色描述界定了系统的角色,并明确了生成过程的输入和目标。为了精确控制与事实性相关样本的类型和质量,我们提供了相应的事实性模式和展示的解释,以指导模型生成“查询-回答”场景。

▲ Figure3: Distribution of FactCHD across various domains

1.2 收集具备多个幻觉模式的真实数据

解决 LLM 输出中的幻觉问题需要对幻觉和非幻觉实例进行仔细检查。LLM 对事实冲突幻觉的敏感性源于它们受限的知识和欠优的推理能力。因此,本文将事实错误分为四种不同的模式,如图下半部分生动地展示:
(1)常规模式处理可以通过已建立的来源进行客观验证的事实陈述,通常更容易识别;
(2)多跳模式表示通过连接多个事实来得出结论的过程;
(3)比较模式涉及评估和比较不同事实之间的相对价值和关系;
(4)集合操作模式涉及操作组合元素集以分析不同事实之间的关系。

随后,本文使用反映已确定的事实模式的具体指令查询开源 LLM。通过对幻觉回答进行手动注释,目标是收集真实的幻觉数据,以模拟这些现实幻觉作为示例。

1.3 根据一致性优化提示

本文利用 ChatGPT 生成“查询-回答”上下文,通过使用手动提示来使其充当角色扮演代理,这些提示是基于特定的示例。鉴于 ChatGPT 对提示的敏感性,本文进行了迭代的提示优化,以确保生成的数据与期望的真实模式密切匹配,从最初的固定 100 个示例开始,本文选择了五个样本进行人工相似性评估,并将其与示例进行对比。通过多数规则,本文评估每个上下文是否符合既定的相似性标准。这个迭代过程允许不断调整提示,确保生成的数据模式与期望的目标保持一致。

1.4 自动筛选以增强数据多样性

为了提高生成的“查询-回答”上下文的多样性,本文在自动筛选过程中采用 Sentence-BERT 计算上下文内的平均语义相似度。这有助于识别和排除高度相似的样本,保障数据集的多样性。在筛选过程中,总共删除了来自训练集的 1,538 个样本和来自测试集的 632 个样本,确保最终的样本集合是多样的。通过仔细消除语义上类似的条目,增强了基准数据集在评估多样的事实冲突幻觉实例方面的实用性。

1.5 生成证据链

本文的基准测试不仅仅是识别 LLM 生成的“查询-回答”上下文中的事实错误;它还需要生成连贯的证据链来支持这些判断,所有这些判断都根植于事实知识并由 ChatGPT 表达。

特别地,本文利用两种类型的知识源作为本文的事实基础。ChatGPT 在为“查询-回答”上下文分配适当标签时,可以使用子图事实或文本事实来提供全面的证明。值得注意的是,这些解释的有效性深刻影响着判断的可信度和可靠性,从而增强了对预测模型的信任。这些解释输出还可以增强用户的整体理解能力。

1.6 通过人工审查进行低质量数据过滤

本文设计了三个方面的过滤规则:模式一致性、回答的事实性和证据链的逻辑,利用这些规则指导标注员进行质量过滤。本文的团队由 21 名标注员组成,每个标注员都拥有熟练的英语阅读能力和本科以上的学历,并按照标准化的注释指南接受统一培训。标注员根据自己的意识,并在必要时利用搜索引擎,确保做出明智的过滤决策,排除违反既定规则的样本。

鉴于通过这些规则定义匹配质量存在固有的主观性,本文将标注员和样本分成了七组,每组三名标注员通过投票机制对同一批数据进行审查,标注员同时判断不匹配的样本被舍弃。



实验

2.1 指标与设定

FactCLS Metric:本文采用称为 FactCLS 的指标来评估二元事实分类的性能,使用 Micro F1 分数,重点关注分布 p(l|Q&R),将实例分为 factual 或 non-factual 两类。鉴于本文致力于检测非事实示例,本文将 non-factual 指定为正类,将 factual 指定为负类。

ExpMatch Metric:在 FactCHD 数据集中,证据链包括两个元素:引言性的阐述语句和事实解释的核心。鉴于事实解释在阐述部分之上的重要性,本文采用分段匹配和加权平均的度量指标 ExpMatch,,将这些部分融合在一起进行评估。 

▲ Table 1: Results on FactCLS and ExpMatch along with FactCHD estimated by each method.

2.2 对基准策略的实证研究

1. 零样本表现:在零样本学习中,LLM 在“查询-响应”上下文中难以识别隐含的事实性。即使是 ChatGPT 也在区分事实与非事实的“查询-响应”样本方面表现有限,在零样本评估中只获得了 52.82% 的 FactCLS 得分。
2. ICT 设定下的性能:向不同模型注入少量信息明显提高了对冲突事实幻觉的检测能力,其中 FactCLS 得分平均提高了约 6%,ExpMatch 得分提高了 18%。然而,对于 text-davinci-003 而言,集成少量信息的影响相对较弱,而 Llama2-chat 显示出对少量演示的更好理解。
3. 检测特定专家性能:使用 LoRA 技术对开源的 7B 模型进行领域特定专家的调整,提高了它们在识别冲突事实幻觉方面的性能,其中 Llama2-chat-7B 模型在基准测试中表现最佳,分别获得了 74.73% 的 FactCLS 得分和 53.71% 的 ExpMatch 得分。

4. 知识增强:通过检索相关知识和工具增强学习,可以提高 LLMs 在幻觉检测中的性能。然而,知识增强的效果相对较小,部分原因是数据集涵盖多个领域,而维基百科的知识仅覆盖其中的一个子集。同时,工具增强学习展示了巨大的潜力,通过使用搜索引擎来确定输入中的幻觉存在并提供解释,相对于零样本方法有显著的改善

2.3 A Strong Baseline: Triangulation for Truth

如图 4 所示,我们将工具增强的 ChatGPT 称为“真相探寻者”,其目标是通过外部知识做出明智的判断。然而,外部知识源的信息可能不完整、错误或多余,可能误导大型模型。领域特定专家作为“真相守护者”则更依赖其自身知识和任务专长,倾向于更保守的预测。

为了解决这些问题,我们提出了 Truth-Triangulator 框架,灵感来自“真相三角验证”理论,通过交叉参考多个独立的源或视角来验证和确认信息。我们微调 ChatGPT 作为“事实判定管理者”,从不同角度收集证据,以提高真相或结论的可靠性和准确性。表 1 展示了我们的模型与 Lamma2-7b-chat-LoRA 和 GPT-3.5-turbo(工具)相比的改进。这强调了三角验证在减少依赖单一来源或方法可能引起的错误和不一致性方面的有效性,从而促进对真相更全面和更强健的理解。

▲ Figure 4: Overview of our Truth-Triangulator



分析

3.1 模型容量的影响

如图 5 所示,当从 7B 模型迁移到 13B 模型时,尤其是在 zero-shot 和 in-context learning 场景中,本文揭示了在检测事实冲突的幻觉方面的显著提升。

▲ Figure 5: Impact of model size on hallucination detection

3.2 提升检测能力:关于精确与丰富的上下文分析

▲ Table 2: Ablation analysis on input context on FactCLS

如表 2 所示我们进行了消融研究,旨在阐明精确和丰富上下文在改进模型检测能力方面的微妙作用。结果显示,使用精确的事实信息和完整的 “Query-Response” 上下文可以显著提升模型的性能。具体来说,加入事实信息使 FactCLS 分数明显提高,而省略“查询”部分则导致 FactCLS 分数显著下降,强调了准确事实和全面上下文在明智决策中的关键作用。

3.3 案例分析

为了突显的广泛适用性,我们将其应用于超越 FactCHD 基准范围的真实世界幻觉数据。我们通过展示来自我们的超出分布案例分析的发现,阐明了我们模型的能力和限制,具体结果见表表 3。这些案例的结果证实了我们的方法可以做出熟练的判断,特别是在检测特定专家和工具增强型 ChatGPT 之间存在差异的情况下。这通过在真实的场景中实际应用进行了可靠性验证,增加了对于存在事实冲突的幻觉检测的可信度。

▲ Table 3: Out-of-distribution case analysis


结论

本文引入了 FactCHD,这是一个基于 KGs 作为事实知识而专门用于对 LLM 中存在事实冲突的幻觉进行评估的基准数据集。该基准测试以丰富多样的模式和证据链为特色,以加强对事实评估的健壮解释。此外,本文揭示了一种半监督的数据构建策略,利用知识作为事实,促进幻觉数据集的创建。同时,我们还提出了 Truth-Triangulator 框架,运用三角测量原理来明智地判断信息的真实性。通过交叉引用生成器和搜索工具来审慎仲裁回答,特别是那些悬而未决的可疑事实性问题。

未来可努力的研究方向可能包括:1)探索高效而强大的知识增强方法,以增强幻觉检测;2)研究由于错误或过时的知识导致的事实错误,以及推理过程中幻觉的潜在发生;3)扩大评估范围,包括多种形式和文化背景下对幻觉的评估。


更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



·
·


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
红色日记 派委会 6.23-28新基发行冰火两重天!近百只新基金"埋伏"四季度,机会在哪?放射科医生再临危机!国外五大机构联合发布「胸部X光」最新基准从错误中学习!腾讯AI Lab提出诱导大模型自身幻觉来消除幻觉NeurIPS 2023 | 超越YOLO系列!华为提出Gold-YOLO:实时目标检测新SOTAGPT-4V连小学生都不如?最新基准测试错误率竟高达90%:红绿灯认错、勾股定理也不会AI造成幻觉?剑桥辞典2023年度字选出:意指「幻觉」「奥乘智能」获数千万A轮融资,制药机器视觉检测设备打入国际市场|36氪首发大模型幻觉问题无解?理论证明校准的LM必然会出现幻觉长城汽车携手科大讯飞:探索首个汽车产业知识大模型|甲子光年咏富阳幻觉降低30%!首个多模态大模型幻觉修正工作WoodpeckerEMNLP 2023 | 基于知识图谱嵌入的关系感知集成学习算法基于知识迁移的跨语言机器阅读理解算法我不是虎妈—另类哈佛妈妈与女儿一起长大(完)对“事实为根据”的道德拷问:当事实与程序正义冲突工业异常检测大模型来了!哈工大提出Myriad:利用视觉专家进行工业异常检测的大型多模态模型为什么大多数投行都在用PowerBI、Tableau、知识图谱?到底有多好使?新品发布丨原位检测新品三连发,助力空间转录组和蛋白组研究!北航等提出TTP:基于大模型的遥感图像变化检测新网络,性能表现SOTA!《心叙——美国中文作家协会作品集萃三》正式出版发行见过离谱的,没见过这么离谱的!视觉检测方案商「菲特智能」获超亿元融资,致力于提升汽车制造良品率|36氪首发目标检测新赛事!"达观杯"智能文档版面分析大赛来了!丰厚奖金+面试优先录用!无需额外知识或训练!中科大等提出OPERA:缓解多模态大模型幻觉问题的基于注意力惩罚与回退策略的解码方法多模态大模型幻觉降低30%!中科大等提出首个幻觉修正架构「Woodpecker」啄木鸟多模态物体幻觉下降23%!UNC斯坦福等推出通用修正器LURE:兼容任意LVLM,专攻三大幻觉成因成人ADHD:生活在“多重宇宙”无痛缓解多模态大模型幻觉!基于注意力惩罚与回退机制的解码方法「OPERA」巴以冲突背后,是一个扎心的事实7年沉淀一套“知识图谱”,他们成为To B企业的最强大脑|投资笔记《我的父亲是流亡学生》: 31. 一张黄黄的信纸通用异常检测新曙光:华科大等揭秘GPT-4V的全方位异常检测表现免费快筛盒发放 可检测新冠变种NeurIPS 2023 | 东南大学&上交提出H2RBox-v2:旋转目标检测新网络
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。