Redian新闻
>
GPT、Llama等大模型存在「逆转诅咒」,这个bug该如何缓解?

GPT、Llama等大模型存在「逆转诅咒」,这个bug该如何缓解?

公众号新闻

机器之心专栏

作者:吕昂,张凯翼,解曙方,涂权,陈雨涵,文继荣,严睿

中国人民大学

我们是否正在掉入中等智能陷阱?一个关于大语言模型 “逆转诅咒” 的分析与缓解方法。


来自中国人民大学的研究者将 Llama 等因果语言模型所遭遇的 “逆转诅咒” 归咎于 next-token prediction + causal language model 的本质缺陷,并发现 GLM 采用的自回归填空的训练方法对这种 “逆转诅咒” 显示出更强的鲁棒性。

通过将双向注意力机制引入 Llama 模型进行微调,该研究实现了对 Llama 的 “逆转诅咒” 的缓解。

该研究认为当前主流的这种大模型结构与训练范式存在着很多潜在的缺陷,希望有更多的研究者能够在模型结构或者预训练范式上进行创新突破,以获得更高的智能水平。


论文地址:https://arxiv.org/pdf/2311.07468.pdf

背景

Lukas Berglund等人发现 GPT 以及 Llama 模型存在一种 “逆转诅咒”:当向 GPT-4 提问 “Who is Tom Cruise's mom?” GPT-4 可以给出正确的回答 “Mary Lee Pfeiffer”,而当向 GPT-4 提问 “Who is Mary Lee Pfeiffer's son?” GPT-4 表示自己并不知道这个人。也许 GPT-4 经过对齐之后,可能出于对人物隐私的保护,不愿意回答这种问题,但是经过测试,在一些不涉及隐私的知识问答上,也存在着这种 “逆转诅咒”。

比如,GPT-4 能正确回答 “黄鹤一去不复返” 的下一句,但是对于 “白云千载空悠悠” 的上一句是什么,模型出现了严重的幻象。

图一:询问 GPT-4 “黄鹤一去不复返” 的下一句是什么,模型正确回答

图二:询问 GPT-4 “白云千载空悠悠” 的上一句是什么,模型出错

逆转诅咒因何而来?

Berglund 等人的研究只在 Llama 和 GPT 上做了测试,这两种模型的共同特点是:(1)利用无监督的 next-token prediction 任务进行训练,(2)在 decoder-only 的模型中,采用单向的因果注意力机制(causal attention)。

该研究的观点是,逆转诅咒是由这些模型的训练目标导致的,并且可能是 Llama,GPT 这类模型特有的问题。

图三:采用 Next-token prediction(NTP)训练一个因果语言模型的示意

这两点的结合就导致了一个问题,如果一条训练数据中含有两个实体 A 和 B,并且 A 出现在 B 的前面,那么这类模型只能优化正向预测的条件概率 p (B|A),对于反向的条件概率 p (A|B) 的值是没有任何保证的。一旦训练集不够大,不能够将 A 与 B 可能的排列充分覆盖,那么自然就会出现 “逆转诅咒” 现象。

当然,也有很多生成式语言模型并没有采取以上的训练范式,比如清华提出的 GLM,训练方法如下图所示:

图四:一个简化版的 GLM 训练示意

GLM 采用了自回归填空(Autoregressive Blank Infilling,ABI)的训练目标:随机从输入中选取一段内容进行 mask,并且自回归地预测这段内容。虽然待预测的 token 依然采用单向注意力对 “上文” 产生依赖,但是此时 “上文” 中包括了这个 token 在原始输入里之前和之后的全部内容,因此,ABI 隐式地将输入中的反向依赖关系考虑到了。

该研究进行了一个实验发现 GLM 一定程度上确实可以免疫 “逆转诅咒”:

  • 该研究采用 Berglund et al. 提出的 “人名 - 描述问答” 数据集,该数据集使用 GPT-4 编造了若干人名和对应的描述,人名和描述都是独一无二的。数据示例如下图所示:


训练集分为两部分,一部分是人名在前(NameToDescription), 另一部分是描述在前(DescriptionToName),两部分不存在重叠的人名或者描述。测试数据的 prompt 对训练数据的 prompt 进行了改写。

  • 该数据集有四个测试子任务:

  1. NameToDescription (N2D): 通过 prompt 模型训练集 “NameToDescription” 部分涉及到的人名,让模型回答相应的描述
  2. DescriptionToName (D2N): 通过 prompt 模型训练集 “DescriptionToName” 部分涉及到的描述,让模型回答相应的人名
  3. DescrptionToName-reverse (D2N-reverse): 通过 prompt 模型训练集 “DescriptionToName” 部分涉及到的人名,让模型回答相应的描述
  4. NameToDescription-reverse (N2D-reverse): 通过 prompt 模型训练集 “NameToDescription” 部分涉及到的描述,让模型回答相应的人名

  • 该研究在此数据集上对 Llama 和 GLM 按照各自的预训练目标(Llama 用 NTP 目标,GLM 用 ABI 目标),进行微调。微调后,通过测试模型回答逆转任务的准确率,可以定性地评估模型在真实场景下遭受 “逆转诅咒” 的严重性。由于所有人名和数据都是编造的,因此这些任务基本不会被模型已有的知识干扰。


实验结果表明,通过 NTP 微调的 Llama 模型,基本没有正确回答逆转任务的能力(NameToDescription-reverse 任务准确率为 0),而通过 ABI 微调的 GLM 模型,在 NameToDescrption 逆转任务上的准确率非常高。

为了对比,该研究还使用 NTP 的方式微调了 GLM,发现 GLM 在 N2D-reverse 任务上的准确率也掉到了 0。

也许由于 D2N-reverse(利用逆转知识,给定人名生成描述)比 N2D-reverse(利用逆转知识,给定描述生成人名)要困难许多,GLM- ABI 相对于 GLM-NTP 只有微弱的提升。

不过这并不影响该研究得出主要结论:训练目标是导致 “逆转诅咒” 的原因之一。“逆转诅咒” 在以 next-token prediction 方式预训练的因果语言模型中尤其严重。

如何缓解逆转诅咒

由于 “逆转诅咒” 是 Llama,GPT 等模型的训练阶段导致的内在问题,在有限的资源下,我们能做的就是想办法在新数据上微调模型,并尽可能地避免模型在新知识上 “逆转诅咒” 的发生,以更充分地利用训练数据。

受到 GLM 训练方法的启发,该研究提出了一种训练方法 “双向因果语言模型优化” (Bidirectional Causal language model Optimization),在基本不引入新的 gap 的情况下,让 Llama 也能采用双向注意力机制进行训练,简单来说,有以下几个重点:

1. 消除 OOD 的位置信息。Llama 采用的 RoPE 编码在 attention 计算的时候为 query 和 key 添加位置信息,计算方法如下所示:


其中分别是当前层 m 和 n 位置的输入, RoPE 使用的旋转矩阵,定义为:


如果直接将 Llama 的因果注意力掩码去掉,会引入 out-of-distribution 的位置信息。原因是,在预训练的过程中,在 m 位置的 query 只需与在 n 位置的 key 进行内积(),上式内积计算中的 query-key 的相对距离 (n-m) 始终是非正的;而直接去掉注意力掩码,在 m 位置的 query 就会与在 n>m 位置的 key 做内积,导致 n-m 变成一个正值,引入了模型没见过的位置信息。

该研究提出的解决方法非常简单,规定:


 时,无需对内积计算做任何修改;当 n > m,通过引入一个新的旋转矩阵来计算。是将旋转矩阵中所有的 sin 项都取相反数得到的。这样,就有。那么当 n > m 时则有:


该研究将 attention score 的计算分为两部分,按以上操作分别计算上三角和下三角,并最终进行拼接,这样就很高效地实现了本文规定的注意力计算方法,整体操作如下子图 (a) 所示:


2. 采用 mask denosing 的方式训练

由于双向注意力机制的引入,继续使用 NTP 任务训练会存在信息泄漏,导致训练失败,因此该研究使用恢复 mask token 的方式对模型进行优化。

该研究尝试过遵循 BERT,在输出端的第 i 位置去还原第 i 位置输入的 mask token,由于这种预测方式与模型在测试阶段使用的自回归预测相差较大,并没有取得效果。

最终,出于不引入新的 gap 的思想,该研究采用了自回归式的 mask denoising,如上图(a)所示:该研究在输出端的第 i 个位置去还原第 i+1 位置输入的 mask token。

此外,由于因果语言模型的预训练词表是没有 [mask] 这个 token 的,如果在微调阶段新加一个 token 的话,模型还得去学习这个无意义 token 的表示,因此该研究只是输入一个占位 token,并在 attention 计算中忽略掉占位 token。

该研究在微调 Llama 时,每一步以均等的概率,随机选择 BICO 与普通的 NTP 作为训练目标。在同样微调十个 epoch 的情况下,在上述人名描述数据集上,与正常 NTP 微调的表现对比如下:


可以看到该研究的方法对于逆转诅咒有一定的缓解。与 GLM-ABI 一样,本文方法在 D2N-reverse 上取得的提升非常小。研究者推测这一现象的原因:尽管数据集中的人名及其对应描述由 GPT 编造以减少预训练数据对测试的干扰,但由于预训练模型具备一定程度的常识理解能力,比如认知到人名与描述之间通常存在一对多的关联。在给定一个人名的情况下,可能对应多种不同的描述。因此,当模型在处理既需要利用反向知识,又要生成长描述的任务时,似乎显得有些困惑。

此外,本文重点关注的是 base 模型的逆转诅咒现象。如何在更复杂的场景下评估模型的逆转回答能力,以及 RLHF 是否对于逆转诅咒存在影响,仍需未来的工作进一步探究。

一些思考

当前大多数开源大语言模型遵循着 causal language model + next-token prediction 的范式。在这一范式中,可能隐藏着更多类似 “逆转诅咒” 的内在问题。尽管目前这些问题可以通过扩大模型规模或增加数据量来暂时掩盖,但它们并没有真正消失,并且持续存在。当我们在模型规模扩大和数据量增加的道路上达到极限时,这个 “目前足够好用” 的范式能否真正超越人类智能,该研究认为这非常困难。

该研究希望更多的大模型厂商以及有条件的研究者能够深入挖掘当前主流大语言模型的内在缺陷,并在训练范式上进行创新。正如该研究在正文的最后所写,“Training future models strictly by the book may lead us to fall into a “middle-intelligence trap.”” (循规蹈矩地训练未来的模型可能会引导我们掉入中等智能陷阱)





© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
一百四十二 国庆一百四十一 水灾反向Debug了解一下?揭秘Java DEBUG的基本原理真事!澳洲小哥靠这个Bug,每周在coles“零元购”一桶冰淇淋!网友表示:至于吗?ChatGPT突现惊天大BUG!全功能GPT-4免费用,网友玩嗨了说一个有关Open AI的Chat GPT 创投人和我家的小故事北京理工大学发布双语轻量级语言模型,明德大模型—MindLLM,看小模型如何比肩大模型如何缓解和避免夜间腿抽筋现场直击OpenAI开发者大会:GPT-4 Turbo、用户自定义GPT、GPT商店,一切都是硅谷新王的架势MetaMath:新数学推理数据集揭秘,让大语言模型突破逆转诅咒如何缓解焦虑抑郁?一些有用的建议悲歌让同事高血压的8个Bug操作集锦米莱是否能够打破阿根廷的「资源诅咒」?RLHF模型普遍存在「阿谀奉承」,从Claude到GPT-4无一幸免大模型的最大bug,回答正确率几乎为零,GPT到Llama无一幸免;长期炎症值得警惕!可能是癌症的得力助手|本周论文推荐军事力量与部署的平衡问题ChatGPT网页版出现重大Bug;传谷歌Gemini推迟至明年发;荣耀将推自研端侧大模型丨AIGC大事日报靶向免疫及化疗给肺癌患者带来的副作用如何缓解?小模型如何比肩大模型,北理工发布明德大模型MindLLM,小模型潜力巨大李开复零一万物发布首款大模型;马斯克xAI发布首个大模型;360、美团、昆仑万维等最新消息;vivo发布蓝心AI大模型国产GPTs来了,基于智谱第4代大模型!模型性能均达GPT-4九成以上时间的湾 1GPT-4也难逃“反转诅咒”!新研究发现:大模型存在推理缺陷,知道“A是B”推不出“B是A”chat gpt 怎么上不去了? 彻底罢工了经常被「诅咒」的孩子,大脑发生惊人变化!有些话永远别对孩子说OpenAI首个开发者日:自定义GPT、GPT商店太炸,还有模型更强更便宜了站上大模型制高点:我们给不输GPT-4的文心大模型4.0,来了一场技术揭秘微软深夜放大招:GPT-4 、DALL·E 3、GPTs免费用,自研大模型专用AI芯片UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源大模型的最大bug,回答正确率几乎为零,GPT到Llama无一幸免轻量级模型,重量级性能,TinyLlama、LiteLlama小模型火起来了保命的邏輯:血壓稍高好過血壓稍低你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测ChatGPT最近被微软内部禁用!GPTs新bug:数据只要两句提示词就能套走免费大模型实战课|首周聚焦百度智能云千帆大模型平台使用,《大模型应用实践》实训营11月16日开讲!如何缓解嵌甲痛清华系大模型新秀获20亿投资;AI教父加入初创公司;套壳ChatGPT不是长久之计;百图生科拿下10亿美元大模型订单GPT turbo 看了没?!这真是大批失业人员在路上。
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。