Redian新闻
>
70亿LLaMA媲美5400亿PaLM!MIT惊人研究用「博弈论」改进大模型|ICLR 2024

70亿LLaMA媲美5400亿PaLM!MIT惊人研究用「博弈论」改进大模型|ICLR 2024

公众号新闻




  新智元报道  

编辑:桃子
【新智元导读】大模型回答如何更可靠?MIT研究团队设计出「共识博弈」,将数学家常用的博弈论引入LLM改进中。没想到,LLaMA-7B的表现,击败了LLaMA-65B,甚至与PaLM-540B相媲美。

遇到一个问题用不同表达方式prompt时,大模型往往会给出两种不同的答案。

比如,「秘鲁的首都是什么」,「利马是秘鲁的首都吗」。

对于这种回答不一致的问题,科学家们纷纷为大模型的「智商」担忧起来。

正如了LeCun所言:

LLM确实比狗积累了更多的事实知识和语言能力。但是它们对物理世界的理解能力,以及推理规划能力,远远不及狗。

那么,有没有一种方式,能够破解大模型幻觉,让结果更加准确、高效?

来自MIT的研究人员,将「博弈论」的思想引入大模型的改进中。

他们共同设计了一个游戏,在游戏中,让模型的两种模式(生成式和判别式)相互对抗,努力找到它们可以达成一致的答案。

这个简单的博弈过程,被称为「共识博弈」(CONSENSUS GAME)。

也就是,让模型自我对抗,以提升LLM准确性和内部一致性。

论文地址:https://openreview.net/pdf?id=n9xeGcI4Yg

具体来说,这是一种免训练,基于博弈论的语言模型解码过程。

新方法将语言模型解码,视为一种正则化的不完全信息序列信号博弈游戏——称之为CONSENSUS GAME(共识博弈)。

其中,生成器(GENERATOR)试图使用自然语言句子,向一个判别器(DISCRIMINATOR)传达抽象的正确性参数。

然后,研究人员开发了计算程序,以寻找博弈的近似均衡,从而得到一种名为「均衡排序」(EQUILIBRIUM-RANKING)的解码算法。

在多个基准测试中,「均衡排序」策略在LLaMA-7B的表现中,明显超越LLaMA-65B,并与PaLM540B相媲美。

最新论文已被ICLR 2024接收。

谷歌研究科学家Ahmad Beirami表示,「几十年来,LLM对提示的响应方式一直如出一辙。MIT研究人员提出了将博弈论引入这一过程的新颖想法,开创了一个全新的范式,这有可能带来大量新的应用」。

游戏,不再单纯是衡量AI的标准


以往,通过机器学习在游戏竞赛中的表现,去判断某个AI系统是否取得成功。

而这样的案例,比比皆是。

1997年,IBM深蓝计算机击败了国际象棋特级大师Garry Kasparov,创下了所谓的「思考机器」的里程碑。

19年后,谷歌DeepMind发明的AlphaGo,在围棋比赛中一举战胜李世石。

五局比赛中获胜四局,揭示了人类在某些领域已不再独占鳌头。

不仅如此,AI还在跳棋、双人扑克,以及其他的「零和游戏」中超越了人类。

与以往不同的是,MIT团队而是选择从另一个角度来看问题——用游戏去改进人工智能。

对于AI研究人员来说,一款称为「Diplomacy」的游戏,提出了一个更大的挑战。

由Allan B. Calhamer于1959年设计的经典桌游

与只有2个对手玩家的游戏不同,Diplomacy游戏有7个玩家参与,每个人的动机都很难看透。

要想获胜,玩家必须谈判,缔结合作关系,但不得不提防的是,任何时候任何人都可能遭到背叛。

这款游戏如此复杂,以至于2022年,Meta团队发布的Cicero在40局游戏后,达到「人类水平」时,引发一阵轰动。

论文地址:https://www.science.org/doi/10.1126/science.ade9097

尽管Cicero没能战胜世界冠军,但它在与人类参与者的比赛中进入了前10%,表现足够优秀。

现在,论文作者Athul Paul Jacob是MIT的博士生,曾在Meta实习期间参与了这次研究。

研究期间,Jacob对Cicero依赖语言模型,与其他玩家进行对话的事实感到震惊。

他感受到了,尚未开发出的AI潜力。

Athul Paul Jacob帮助设计了「共识博弈」——为LLM提供了一种提高其准确性和可靠性的方法

于是,他便提出,如果将重点转移到,利用游戏来提高LLM的性能上会怎样?

1000场比赛,让LLM自我对抗


为了追寻这一问题的答案,2023年Jacob与麻省理工学院的Yikang Shen、Gabriele Farina,以及导师Jacob Andreas一起研究,什么可以促进「共识博弈」。

这一思想的核心是,将两个人之间的对话想象成一个合作游戏。

当听者理解说话者想要传达的东西时,就成功了。

尤其是,「共识博弈」的目的是,旨在协调LLM的两个系统——生成器和辨别器。

众所周知,生成器负责处理生成性问题,而辨别器负责处理辨别性问题。

经过几个月的研究,他们终于将这一原则,构建成了一场完整的比赛。

首先,生成器收到一个问题——可以来自人类,也可以来自预存在的名单中,比如「奥巴马出生在哪里」。

然后,生成器会得到一些候选响应,比如火奴鲁鲁(Honolulu)、芝加哥(Chicago)、内罗毕(Nairobi)。

同样,这些响应的选项,可以来自人类、列表,或是由语言模型本身执行搜索。

但在回答之前,生成器会先根据一次公平的随机掷币的结果,被指示生成正确或错误的答复。

如果结果为正面,那么生成器就会尝试给出正确的答案。

然后,生成器将原始问题,及其选择的回答,一并发送给判别器。

如果判别器判定生成器,是有意地发送了正确的回答,作为一种激励,它们每人得到一分。

而如果结果为反面,生成器就会给出它认为是错误的答案,那判别器看出它故意给了错误答案,它们将在分别得到一分。

这就体现了策略的核心点,即通过激励,让它们达成一致。

在这个博弈过程开始时,生成器和判别器都有自己对答案的「先验信念」。

这些「信念」以概率分布的形式体现,比如,生成器基于从互联网获取的信息,可能会认为:

奥巴马出生在火奴鲁鲁的概率是80%,芝加哥10%,内罗毕5%,其他地方5%。

当然判别器,也会有不同概率分布的「先验信念」。

虽然两个「玩家」会因达成一致而获得奖励,但如果偏离自己「先验信念」太多时,也会被扣分。

这样一来,可以鼓励「玩家」将从互联网获取的知识,融入到回答中,从而让模型更加准确。

如果没有这种机制,它们可能会就一个完全错误的答案(如Delhi)上达成一致,却仍然获得分数。

对于每个问题,这两个系统相互之间进行了大约1000场比赛。

在无数次迭代的过程中,双方都了解了对方的「信念」,并相应地修改了自己的战略。

最终,生成器和判别器开始达成更多共识,因为它们逐渐进入了一种称为「纳什均衡」(Nash equilibrium)的状态。

这可以说是博弈论的核心概念。

「纳什均衡」代表了游戏中的一种平衡状态,在这点上,任何玩家都无法通过改变策略,来改善个人结果。

比如,在石头剪刀布游戏中,当玩家选择三个选项的概率正好都是1/3时,才能获得最佳结果,任何其他策略都会导致更糟糕的结果。

在「共识博弈」中,「纳什均衡」可以通过多种方式实现。

比如,判别器可能会观察到,每当生成器将奥巴马的出生地回答为「火奴鲁鲁」时,它就会得分。

经过多轮博弈,生成器和判别器会学习到,继续这种作答方式会得到奖励,而没有动机改变策略。

这种一致的作答方式,就代表了对于该问题的一种可能的「纳什均衡」。

70B参数Llama,媲美5400亿参数PaLM


除此之外,还可能存在其他「纳什均衡」的解。

MIT团队还依赖于一种改进的「纳什均衡」形式,结合了玩家们的「先验信念」,有助于让回答结果更加贴近现实。

为了测试「共识博弈」的效果,研究团队在一些中等参数规模的语言模型(70亿-130亿参数)上进行了一系列标准问题测试。

经过训练后的这些模型,正确答案的比例明显高于未经训练的模型,甚至高于一些拥有高达5400亿参数的大型模型PaLM。

这不仅提高了模型的答案准确性,也增强了模型的内部一致性。

另外,在TruthfulQA(生成)的结果上,具有ER-G的LLaMA-13B优于或与所有基线持平。

研究人员在GSM8K测试集上,对不同方法的平均准确率进行了评估和对比。

除了greedy外,都是对20个候选回答进行了采样。

基于「均衡排序」的方法,其性能与多数投票基线相当,或者稍微好一些。

一般来说,任何LLM都可以通过与自身进行「共识博弈」从中获益。

最重要的是,研究人员成,只需在一台笔记本上,进行的1000轮「共识博弈」仅需几毫秒的时间,计算代价很小。

Omidshafiei表示,「这种方法非常高效,不需要对基础语言模型进行训练或修改」。

下一步,大小模型一起游戏


在「共识博弈」取得初步成功后,Jacob现在正在探索将博弈论,应用到LLM研究中的其他方式。

在这个基础上,他现在又提出了一种新的方法,暂称为「集成博弈」(ensemble game)。

在「集成博弈」中,有一个主模型(primary LLM),与若干个小型模型进行博弈互动。

这些小型模型中,至少有一个扮演「盟友」角色,至少有一个扮演「对手」角色。

问题出现时,比如法国首都是什么,如果主模型与「盟友」模型给出相同答案,主模型会获得分数。

如果与「对手」模型给出不同答案,也会获得分数。

通过这种与小模型的博弈互动,并不需要对主模型进行额外训练或改变参数,就可以进一步提升主模型的性能表现。

这种将大模型与多个小模型集成互动的新范式,让大模型可以借鉴小模型的优点。

同时还能相互制约,从而提高整体的准确性和一致性。

在未来,它将为提升LLM性能开辟了一种全新的思路和方法。

参考资料:
https://www.quantamagazine.org/game-theory-can-make-ai-more-correct-and-efficient-20240509/




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ACL 2024 | 如何避免LLM生成有毒回复?基于知识编辑的大模型祛毒初探周鸿祎向李彦宏“开炮”:有些名人胡说八道别被忽悠了;全球最强开源大模型Llama 3发布:最大模型参数将超4000亿丨AI周报ICLR 2024 | 冻结住的CLIP仍可作为教师模型!港大提出全新开集动作识别模型GPT-4尚未出现自我意识!这项研究用「上帝之点」解读,迈向AGI局限无法克服《漠上草原》&《余生陪你慢慢变老》2024,哪个包会是LV的断货王?苹果加入开源大战,官宣端侧小模型OpenELM!参数2.7亿到30亿一台M2 Mac可跑GPT-5一年半后拥有「博士级智能」,Claude 3.5首超人类博士!全知全能ASI将成人类「新神」?卷疯了!最强开源大模型Llama 3发布,最大参数4000亿,小扎内心:大模型比元宇宙香多了在 ICLR 2024,看见中国大模型的力量巧解「数据稀缺」问题!清华开源GPD:用扩散模型生成神经网络参数|ICLR 2024不影响输出质量还能追踪溯源,「大模型无偏水印」入选ICLR 2024 SpotlightICLR 2024 | 跨领域准确进行零样本异常检测,浙大等提出AnomalyCLIPICLR 2024 | 鸡生蛋蛋生鸡?再论生成数据能否帮助模型训练最强开源大模型 Llama 3震撼发布!开源模型将追上GPT-4,4000亿参数模型也在路上3000亿PE,要设中国办公室了我兒子今年(2024)進了MIT破解ChatGPT惊人耗电!DeepMind新算法训练提效13倍,能耗暴降10倍OpenAI发布新旗舰模型GPT-4o;字节跳动正式发布豆包大模型|AIGC周观察第四十三期北京内推 | ​微软亚洲研究院DKI组LLM团队招聘LLM方向研究型实习生单模型斩获「蛋白质突变预测」榜一!西湖大学提出基于结构词表方法 | ICLR 2024 SpotlightAI顶会ICLR,今年只有一家中国大模型公司受邀演讲久坐>6小时增加12种疾病,竟能用「咖啡」抵消?! 国人研究团队:喝咖啡能抵消久坐带来的“折寿”个人感慨之116 二次文革ICLR 2024 杰出论文!涨点神器!Meta提出:ViT需要RegistersLLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」※※※2024【花样女神节】活动合辑※※※3000亿PE,正式联手郑志刚确认!数字科技集团「博尔捷」将亮相2024第十届全球母婴大会暨母婴行业观察十周年庆再回首 (十六)ICLR 2024 | 再论生成数据能否帮助模型训练?19、长篇家庭伦理小说《嫁接 下》第六章 骑虎难下(1)春季观鹤:2024 科州ICLR 2024 | AnomalyCLIP:零样本异常检测新范式i7-12700KF,4070S、7700XT、4060、4070Ti S游戏主机我和老伴(九)华为诺亚频域LLM「帝江」:仅需1/50训练成本,7B模型媲美LLaMA,推理加速5倍ICLR2024:南洋理工发布!改几个参数就为大模型注入后门ICLR 2024 | 阐明扩散模型中的曝光偏差问题,一行代码大幅提升生成质量有不烦车子的自动停启功能的吗?2024 BMW X5
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。