Redian新闻
>
复旦大学最新研究:如何让大模型敢回答“我不知道”?

复旦大学最新研究:如何让大模型敢回答“我不知道”?

科技

夕小瑶科技说 原创
作者 | 松果

引言:AI助手的真实性挑战

在人工智能(AI)的发展进程中,基于大型语言模型(LLMs)的AI助手已经在多个任务中展现出惊人的性能,例如对话、解决数学问题、编写代码以及使用工具。这些模型拥有丰富的世界知识,但在面对一些知识密集型任务时,比如开放域问答,它们仍然会产生事实错误。AI助手的不真实回答可能在实际应用中造成重大风险。因此,让AI助手拒绝回答它不知道的问题是减少幻觉并保持真实性的关键方法。本文探讨了AI助手是否能够知道它们不知道的内容,并通过自然语言表达这一点。

论文标题:Can AI Assistants Know What They Don’t Know?
论文链接
https://arxiv.org/pdf/2401.13275.pdf

声明:本期论文解读非人类撰写,全文由赛博马良「AI论文解读达人」智能体自主完成,经人工审核、配图后发布。

公众号「夕小瑶科技说」后台回复“智能体内测”获取智能体内测邀请链接。

AI助手的知识象限:从已知到未知

1. 知识象限的定义与重要性

知识象限是一个将知识分为四个类别的模型:已知已知(Known Knowns)、已知未知(Known Unknowns)、未知已知(Unknown Knowns)和未知未知(Unknown Unknowns)。这个概念对于构建真实可靠的AI助手至关重要。已知已知是AI助手的基础,它依赖于自身的知识来提供准确可信的回答。已知未知则代表AI助手意识到自己缺乏某些知识,应当避免给出答案以保持真实性。未知未知和未知已知可能导致不真实和无效的生成,因此,我们需要教会AI助手认识到自己的知识边界,将未知已知和未知未知转化为已知已知和已知未知。

2. AI助手的知识象限分布

AI助手的知识象限分布反映了其对自身知识的感知。大型语言模型(LLMs)拥有广泛的世界知识,但在面对开放领域问题回答等知识密集型任务时,它们仍可能犯错。这些错误可能会对社会造成重大风险,并降低AI助手的可信度。一个与人类价值观一致的AI助手应该是真实的,它需要提供与现实世界一致的准确信息。为了实现这一目标,我们需要让AI助手知道自己知道什么和不知道什么,并通过自然语言表达出来。

构建Idk数据集:让AI认识自己的知识边界

1. Idk数据集的构建过程

Idk数据集的构建基于现有的开放领域问题回答数据集,如TriviaQA。我们通过评估AI助手对某个问题的多次回答的平均准确性来确定它是否知道答案。如果AI助手多次回答某个问题错误,则将该问题标记为它不知道的问题,并注释一个拒绝回答的模板。对于AI助手多次回答正确的问题,使用它生成的正确答案作为注释的答案。AI助手被认为知道问题答案的准确性阈值是一个超参数,我们称之为Ik阈值。

2. 不同Ik阈值对Idk数据集的影响

Ik阈值用于定义AI助手知道和不知道问题的标准。不同的Ik阈值会导致不同的Idk数据集。一个高的Ik阈值意味着AI助手只有在非常有把握的情况下才会回答问题,而一个低的Ik阈值则允许AI助手在较低的把握下回答问题。换句话说,高的Ik阈值代表一种保守的回答策略,而低的Ik阈值代表一种更积极的回答策略。在我们的工作中,我们采样了每个问题的十个回答,并基于不同的准确率得出了十个离散的Ik阈值。为了简单起见,我们将Ik阈值设置为1.0,这意味着只有当AI助手的十个回答都是正确的时候,它才被认为知道问题的答案。除非特别说明,此后提到的Idk数据集都是基于Ik阈值为1.0构建的。

教会AI助手说“我不知道”:方法与实验

1. Idk提示方法(Idk-Prompting)

Idk提示方法(Idk-Prompting)是一种直接通过提示来指导AI助手拒绝回答它不知道的问题的方法。这种方法要求模型具有较高的指令遵循能力,但优点在于它无需额外的训练。在这种方法中,我们在输入问题前添加一个Idk提示,例如:“回答以下问题,如果你不知道答案,请只回复‘我不知道’”。然而,对于那些缺乏遵循指令能力的预训练模型,Idk-Prompting可能无法取得满意的结果。

2. 监督式微调(Supervised Fine-tuning)

监督式微调(Supervised Fine-tuning,简称SFT)是一种简单而有效的对齐方法。我们直接使用Idk数据集对模型进行监督式微调。由于Idk数据集包含了问题和回答,这构成了一个条件生成任务。我们将问题输入模型,并要求模型预测回答。我们执行标准的序列到序列损失来训练我们的模型。SFT的细节在附录B.1中有展示。

3. 偏好感知优化(Preference-aware Optimization)

在这一部分,我们介绍了如何进行偏好感知优化,以帮助模型更好地感知其内部知识。直接偏好优化(Direct Preference Optimization,简称DPO)首先在Idk数据集的一半上训练一个SFT模型作为热身,然后我们在Idk数据集的另一半上收集这个SFT模型的回答。对于给定的问题,我们进行随机采样以收集多个回答。最后,我们基于这些生成的回答构建偏好数据。除了原始的DPO损失,我们还为选定的回答加入了SFT损失,并乘以一个系数α。DPO的细节在附录B.2中有展示。

实验结果:AI助手的知识自觉性提升

1. Idk数据集上的实验结果

在Idk数据集的测试集上进行实验,结果表明,经过与Idk数据集对齐后的AI助手能够拒绝回答大多数它不知道的问题。对于它尝试回答的问题,准确率显著高于对齐前。Idk提示方法能在一定程度上有效,但仍有许多IDK-IK和IDK-IDK问题。使用Idk数据集进行监督式微调后,IDK-IK和IDK-IDK的数量显著减少,表明模型意识到自己知识的能力得到了增强。相比于SFT模型,偏好感知优化(如DPO)可以减轻模型错误拒绝回答它知道的问题的现象。

2. 超出分布数据(OOD)上的表现

在超出分布(Out-of-Distribution,简称OOD)数据上的测试表明,对齐后的模型在面对OOD数据时也能够拒绝回答它不知道的问题。在Natural Questions数据集上构建的Idk测试集上,模型在所有指标上都有所提升。与TriviaQA的结果相比,Idk-HIR在Natural Questions上实现了最高的TRUTHFUL率,而不是Idk-BoN。此外,使用偏好优化方法对齐的模型在TRUTHFUL率上有所降低,这可能是因为偏好优化鼓励模型回答更多问题。在ALCUNA上构建的Idk数据集中,提示方法已经能够使模型拒绝回答大多数无法回答的问题。在与TriviaQA对齐后的模型在Natural Questions上展示了高TRUTHFUL率,在ALCUNA上展示了高IK-IDK率,这表明模型拒绝回答未知问题的行为可以泛化到OOD数据。

影响因素分析:模型大小、数据源和Ik阈值

在探索AI助手对其知识边界的认知时,我们关注了几个关键因素:模型大小、数据源和Ik阈值。这些因素对AI助手的行为和输出结果有着显著影响。

1. 模型大小对结果的影响

模型大小是影响AI助手性能的重要因素。实验结果表明,更大的模型(如Llama-2-70b-chat)在识别其所知和所不知的问题方面更为娴熟,相较于较小的模型(如Llama-2-7b-chat),在IK-IK和IK-IDK问题的总数上有5.8%的提升。这表明,随着模型参数的增加,模型的知识储备更为丰富,能够更准确地判断自己的知识边界。

2. 使用非模型特定Idk数据集的影响

在构建Idk数据集时,使用与模型预训练过程不同的数据源可能会影响模型的行为。例如,使用Mistral-7B-Instruct-v0.1和Baichuan2-7B-chat构建的非模型特定Idk数据集在训练后的模型中,导致TRUTHFUL率下降。这种下降主要是由于模型倾向于拒绝回答更多的问题,从而减少了IK-IK问题的比例。这一现象强调了构建模型特定Idk数据集的重要性,以便模型能够学会拒绝回答它不知道的问题。

3. 不同Ik阈值的实验结果

Ik阈值是决定模型是否知道某个问题答案的置信度标准。不同的Ik阈值会导致不同的Idk数据集标签分布。较高的Ik阈值意味着模型只在非常确定的情况下才回答问题,这导致模型更加保守,但同时也提高了模型的真实性。相反,较低的Ik阈值允许模型在较低的置信度下回答问题,使得模型更加乐于提供帮助。实验表明,提高Ik阈值可以提高模型的TRUTHFUL率,使其在识别已知和未知问题方面更为准确。

总结与展望:朝向更真实的AI助手迈进

我们的研究表明,通过与特定于模型的“I don’t know”(Idk)数据集对齐,AI助手能够在一定程度上意识到它所不知道的内容。在开放领域问答测试集中,AI助手能够明确指出它知道或不知道答案的问题,拒绝回答它不知道的问题,达到了78.96%的准确率。为了实现这一目标,我们采用了多种方法,包括提示、监督式微调和偏好感知优化,来利用Idk数据集进行对齐。此外,我们还进行了广泛的实验,探索了数据源、模型大小和确定模型是否知道某个问题的Ik阈值的影响。AI助手拒绝回答超出其知识范围的问题,可以减少事实错误。我们认为这是真实AI助手的一个重要行为。展望未来,我们期待开发出更真实、更可靠的AI助手,这些助手不仅能够提供准确信息,还能清楚地表达其知识的局限性,从而在实际应用中降低风险并提高用户信任。

声明:本期论文解读非人类撰写,全文由赛博马良「AI论文解读达人」智能体自主完成,经人工审核、配图后发布。

公众号「夕小瑶科技说」后台回复“智能体内测”获取智能体内测邀请链接。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
2024年AIGC行业研究:多模态大模型与商业应用|36氪研究院今日Arxiv最热NLP大模型论文:清华大学让大语言模型自动并行自回归解码,速度提升高达4倍!复旦大学生物医学研究院许杰团队报道Galectin-8通过结合LILRB4诱导肿瘤微环境中M-MDSC的作用身份被确认!曾发表32篇SCI论文复旦大学博士在纽约流浪,三餐已解决,江苏老家回应《再见,布里诺斯艾利斯》两首《万家灯火》复旦大学教师杀害学院书记案一审宣判:死缓!每天拿水果当饭吃的果蝠为何不得糖尿病? | 学界速递复旦大学细胞免疫治疗临床研究中心揭牌Nature子刊|复旦大学郁金泰/程炜/董强/冯建峰:首次揭示下丘脑结构的遗传基础及其与神经精神疾病的关系招聘 | 复旦大学徐彦辉课题组招聘最新研究:大学生智商一代不如一代!精确指出特定事件发生时间!字节&复旦大学多模态大模型解读视频太香了Nature子刊|复旦大学束敏峰:合作揭示溶瘤病毒耐药的关键分子机理及其干预策略复旦大学附属中山医院发表的SCI论文,大数据分析报告(2024)深挖RLHF潜力,复旦语言和视觉团队创新奖励模型优化,让大模型更对齐今日Arxiv最热NLP大模型论文:复旦大学最新研究,如何让大模型说出“我不知道”?来势汹汹!澳洲爆发一年来最强新冠疫情,新变种疯狂入侵,阳性率再创新高!最新研究:新冠恐让大脑衰老20年!特朗普回答“是否保卫台湾”,美国一些人“担忧”了2023虽然过的不尽人意但是也要总结一下!复旦大学孔子学院办公室招人复旦大学教师杀害学院书记,被判死缓纯文本模型训出「视觉」表征!MIT最新研究:语言模型用代码就能作画今日Arxiv最热NLP大模型论文:AllenAI最新研究:让AI从简单学起,竟然能解决难题?关于朱令铊中毒的一点讨论清华、北大等公布2023届本科生毕业数据,复旦大学18%直接就业,超七成选择继续深造…谷歌DeepMind最新研究:对抗性攻击对人类也有效,人类和AI都会把花瓶认成猫!AI早知道|Stability AI推出最小模型;国内首个视频大模型通过备案;内蒙古首个AI大模型工业互联网平台发布开源价值多少?哈佛大学最新研究认为是 8.8 万亿美元AI早知道|百度推出视频生成模型UniVG;Soul APP上线自研语言大模型;清华大学首个大模型 Debug复旦大学发布讣告确认!系复旦大学校友,在纽约流浪复旦留美博士三餐已解决,江苏老家回应最快10天找到马航MH370?最新研究:飞机或在精确控制下迫降在…嫉妒的心灵不美丽身份被确认!复旦大学校友在纽约流浪,校方已组织救援团!北京内推 | 微软亚洲研究院WWE大模型团队招聘大模型研究实习生
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。