FactCHD:探索基于知识图谱的事实冲突幻觉检测新基准
论文链接:
项目链接:
https://github.com/zjunlp/FactCHD
因此,本文引入了一个“三角测量”框架进行幻觉辨别,其使用交叉参考生成器和搜索工具来裁决有问题的事实回答。初步实验验证了不同 LLM 在识别事实冲突幻觉方面的不同表现,并确认了本文提出方法的优越性。
FactCHD基准的构建
接下来,本文将介绍事实冲突幻觉检测基准测试的设计原则。
▲ Figure2: Distribution of FactCHD across various domains
1.1 生成“查询-回答”上下文
我们精心设计了有效的提示语,以引导 ChatGPT 生成“查询-回答”场景,这包含三个关键要素:角色描述、事实性模式和事实性展示。角色描述界定了系统的角色,并明确了生成过程的输入和目标。为了精确控制与事实性相关样本的类型和质量,我们提供了相应的事实性模式和展示的解释,以指导模型生成“查询-回答”场景。
1.2 收集具备多个幻觉模式的真实数据
随后,本文使用反映已确定的事实模式的具体指令查询开源 LLM。通过对幻觉回答进行手动注释,目标是收集真实的幻觉数据,以模拟这些现实幻觉作为示例。
1.3 根据一致性优化提示
本文利用 ChatGPT 生成“查询-回答”上下文,通过使用手动提示来使其充当角色扮演代理,这些提示是基于特定的示例。鉴于 ChatGPT 对提示的敏感性,本文进行了迭代的提示优化,以确保生成的数据与期望的真实模式密切匹配,从最初的固定 100 个示例开始,本文选择了五个样本进行人工相似性评估,并将其与示例进行对比。通过多数规则,本文评估每个上下文是否符合既定的相似性标准。这个迭代过程允许不断调整提示,确保生成的数据模式与期望的目标保持一致。
1.4 自动筛选以增强数据多样性
为了提高生成的“查询-回答”上下文的多样性,本文在自动筛选过程中采用 Sentence-BERT 计算上下文内的平均语义相似度。这有助于识别和排除高度相似的样本,保障数据集的多样性。在筛选过程中,总共删除了来自训练集的 1,538 个样本和来自测试集的 632 个样本,确保最终的样本集合是多样的。通过仔细消除语义上类似的条目,增强了基准数据集在评估多样的事实冲突幻觉实例方面的实用性。
1.5 生成证据链
特别地,本文利用两种类型的知识源作为本文的事实基础。ChatGPT 在为“查询-回答”上下文分配适当标签时,可以使用子图事实或文本事实来提供全面的证明。值得注意的是,这些解释的有效性深刻影响着判断的可信度和可靠性,从而增强了对预测模型的信任。这些解释输出还可以增强用户的整体理解能力。
1.6 通过人工审查进行低质量数据过滤
鉴于通过这些规则定义匹配质量存在固有的主观性,本文将标注员和样本分成了七组,每组三名标注员通过投票机制对同一批数据进行审查,标注员同时判断不匹配的样本被舍弃。
实验
2.1 指标与设定
ExpMatch Metric:在 FactCHD 数据集中,证据链包括两个元素:引言性的阐述语句和事实解释的核心。鉴于事实解释在阐述部分之上的重要性,本文采用分段匹配和加权平均的度量指标 ExpMatch,,将这些部分融合在一起进行评估。
▲ Table 1: Results on FactCLS and ExpMatch along with FactCHD estimated by each method.
2.2 对基准策略的实证研究
4. 知识增强:通过检索相关知识和工具增强学习,可以提高 LLMs 在幻觉检测中的性能。然而,知识增强的效果相对较小,部分原因是数据集涵盖多个领域,而维基百科的知识仅覆盖其中的一个子集。同时,工具增强学习展示了巨大的潜力,通过使用搜索引擎来确定输入中的幻觉存在并提供解释,相对于零样本方法有显著的改善
2.3 A Strong Baseline: Triangulation for Truth
为了解决这些问题,我们提出了 Truth-Triangulator 框架,灵感来自“真相三角验证”理论,通过交叉参考多个独立的源或视角来验证和确认信息。我们微调 ChatGPT 作为“事实判定管理者”,从不同角度收集证据,以提高真相或结论的可靠性和准确性。表 1 展示了我们的模型与 Lamma2-7b-chat-LoRA 和 GPT-3.5-turbo(工具)相比的改进。这强调了三角验证在减少依赖单一来源或方法可能引起的错误和不一致性方面的有效性,从而促进对真相更全面和更强健的理解。
分析
3.1 模型容量的影响
如图 5 所示,当从 7B 模型迁移到 13B 模型时,尤其是在 zero-shot 和 in-context learning 场景中,本文揭示了在检测事实冲突的幻觉方面的显著提升。
3.2 提升检测能力:关于精确与丰富的上下文分析
▲ Table 2: Ablation analysis on input context on FactCLS
如表 2 所示我们进行了消融研究,旨在阐明精确和丰富上下文在改进模型检测能力方面的微妙作用。结果显示,使用精确的事实信息和完整的 “Query-Response” 上下文可以显著提升模型的性能。具体来说,加入事实信息使 FactCLS 分数明显提高,而省略“查询”部分则导致 FactCLS 分数显著下降,强调了准确事实和全面上下文在明智决策中的关键作用。
3.3 案例分析
为了突显的广泛适用性,我们将其应用于超越 FactCHD 基准范围的真实世界幻觉数据。我们通过展示来自我们的超出分布案例分析的发现,阐明了我们模型的能力和限制,具体结果见表表 3。这些案例的结果证实了我们的方法可以做出熟练的判断,特别是在检测特定专家和工具增强型 ChatGPT 之间存在差异的情况下。这通过在真实的场景中实际应用进行了可靠性验证,增加了对于存在事实冲突的幻觉检测的可信度。
结论
未来可努力的研究方向可能包括:1)探索高效而强大的知识增强方法,以增强幻觉检测;2)研究由于错误或过时的知识导致的事实错误,以及推理过程中幻觉的潜在发生;3)扩大评估范围,包括多种形式和文化背景下对幻觉的评估。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:[email protected]
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
微信扫码关注该文公众号作者