Redian新闻
>
模型越大越爱拍马屁!谷歌大神Quoc Le团队新作:用简单合成数据微调即可解决

模型越大越爱拍马屁!谷歌大神Quoc Le团队新作:用简单合成数据微调即可解决

公众号新闻
丰色 发自 凹非寺
量子位 | 公众号 QbitAI

除了胡说八道,大模型也喜欢拍马屁。

譬如“老婆说的都对”就是最经典的例子。

现在,来自谷歌DeepMind的Quoc V. Le团队提出了一种干预办法:

只需将一些简单的合成数据添加到微调步骤中,就能让它坚持正确的观点,不再对用户明显错误的回答进行奉承。

(搬出你“老婆”不好使了。)

“马屁精”如何诞生?和规模增加、指令调优有关

首先,大家肯定会好奇,为什么大模型会出现拍马屁的行为。

在此,作者进行了一组实验发现,这是随着模型缩放(model scale)和指令调优而出现的。

具体而言,他们在PaLM和Flan-PaLM这俩模型及其变体上测试三大类问题,这些问题包括自然语言处理类的、哲学方向的以及和政治有关的。

其模版如下:

简单概括就是研究人员先抛出一个观点,比如“我认为苹果是蔬菜”,然后问模型你认为这个观点对吗?最后给出两个选择,让模型回答。

测试就重点考察模型的回答是否与人类观点一致,是的次数越多的话,就说明模型越具有拍马屁嫌疑,因为它可能在无脑同意人类的观点。

结果就发现:

当PaLM从8B参数扩展到62B时,模型“马屁指数”,也就是重复人类观点的情况居然增加了19.8%,而从62B再涨到540B,也增加了10.0%。

作者表示,这一趋势有点吓人,因为根本找不到合适的原因来说明为什么模型参数更大,拍马屁行为越多。

其次,指令调优也导致这两个模型“马屁指数”平均增加了26.0%。对此,作者倒是分析出来,这可能是因为这一过程不包括教大模型区分什么是用户意见、什么是用户指令的数据而造成的。

接下来,他们就用更简单的加法题证明,模型在有用户观点为前提的情况下,的确非常容易上演“你说的都对”的戏码。

这个测试给出的问题基本都是“1+1=956446”对不对这类非常一看便知的问题。

结果就是如果没有用户答案作为前提,不管模型规模多大或是否经过指令调优,它们的正确率都很高;然而一旦先给出了用户的错误答案为参考,再让模型回答,正确率便断崖下降,如下图所示(尤以指令调优变体62B-c为甚)

那么,证明了大语言模型拍马屁行为的的确确存在之后,如何解决?

添加合成数据,降低10%马屁行为

在此,作者提出使用合成数据进行干预,让模型不受用户观点的影响。

他们从17个公开NLP数据集中来生成一些格式化数据,相关数据集会先将一个观点标为正确或错误,然后生成一个与之相关的正确观点和一个错误观点。

比如先将“这部电影很棒”这句话标记为积极情绪,然后生成正确观点:“‘这部电影很棒’是积极情绪”,和错误观点:“‘这部电影很棒’是消极情绪”。

然后把它应用到下面的模版之中:

它和前一段中的问题模版一样,前面都是给出一个人类观点,然后提出问题,不同之处在于,这个模版中的Assitant会直接给出一个依据事实的答案,不管人类怎么说。

也就是说,这些模版其实给出了一个示范,告诉模型如果前面有人类这么这么跟你说话、已经就某个观点给出答案,你也无需care,只回答事实。

需要注意的是,为了防止模型遇到一些还不知道事实的例子,从而出现“尾随”人类观点进行随机预测的情况,作者也做了一些过滤处理

他们拿出100k个训练示例,然后通过删掉每个示例中的人类意见,来衡量模型对该观点的先验知识。如果模型回答错误,就代表它没有掌握这个知识,就把它从数据集中删除。

由此得到了一个保证模型能100%回答正确的示范数据集,然后用它们来进行微调。

最终再拿上一段测马屁指数的那些模型和数据集再来进行测试,结果:

所有不同参数规模的模型都明显减少了拍马屁行为,其中62B参数的Flan-cont-PaLM减幅最大,为10%;Flan-PaLM-62B则减少了4.7%,Flan-PaLM-8B减少了8.8%。

而在简单的加法测试题中,用户的错误答案也已不再对模型造成影响:

不过,作者发现,这个干预方法对参数最少的Flan-PaLM-8B并不好使,说明还是得有一个足够大的模型才有效。

作者介绍

本文作者共5位。

一作为谷歌DeepMind的研究工程师Jerry Wang,研究方向为语言模型对齐和推理。之前曾在谷歌大脑和Meta实习,斯坦福大学本科毕业

通讯作者为谷歌大神Quoc V. Le,吴恩达的学生,Google Brain的创立者之一,也是谷歌AutoML项目的幕后英雄之一。


代码已开源:
https://github.com/google/sycophancy-intervention
论文地址:
https://arxiv.org/abs/2308.03958

「AIGC+垂直领域社群」

招募中!

欢迎关注AIGC的伙伴们加入AIGC+垂直领域社群,一起学习、探索、创新AIGC!

请备注您想加入的垂直领域「教育」或「广告营销」,加入AIGC人才社群请备注「人才」&「姓名-公司-职位」。


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
用孟子"熬鸡汤"!基金"陪伴"真会玩,如何做到解压又"治病"?"纽约将被摧毁"他37次疯狂@拜登;来真的,无证就查抄,纽约"大扫荡"加码,华人大妈痛诉"太不讲理了"。罗杰波团队新作:后ChatGPT 时代公众对于AI技术的兴奋与担忧宇宙类似原子,以薛定谔方程运行,上帝就是方程的最大解:最大波函数想要老师对娃好,这件事情不能少(不是送礼拍马屁)马毅团队新作!微调多模态大模型会「灾难性遗忘」"寻牛"遭遇"割韭菜"!基金经理"败走"港股,后市咋办?贾佳亚韩松团队新作:两行代码让大模型上下文窗口倍增 | GitHub热榜机器人迎来ImageNet时刻!谷歌等新作Open X-Embodiment:机器人学习数据集和 RT-X 模型"司机师傅我想去那条街""哪条?""就是那条街!"逼疯老司机的加国路名!《听海》&《你就不要想起我》马毅团队新作!微调多模态大模型会「灾难性遗忘」,让性能大减预售"秒光"、门票"炒高"、热度"爆表"…起底"演唱会经济"资本局!全新注意力算法PagedAttention:LLM吞吐量提高2-4倍,模型越大效果越好复旦新作:单机微调650亿参数大模型;蚂蚁、百度参投AI大模型创企;杭州检方对AI换脸案提起公诉丨AIGC大事日报全球赶"烤"!联合国突发警告:失控!欧洲"大动脉"告急,影响多大?俄罗斯对日本"动手"紫花遍地毳球枝狐狸精和伪善女LLM吞吐量提高2-4倍,模型越大效果越好!UC伯克利、斯坦福等开源高效内存管理机制PagedAttention大话三国247:曹操大宴铜雀台,三国最会拍马屁的武将是谁?我嘞个豆!谷歌大神整理的Data Science面试必刷150题,太好用了!年羹尧拍马屁,贺表中用错一个成语,彻底激怒雍正皇帝活该!华人地铁上被黑女暴打侮辱,事后还"怂"着说"不认为是仇恨犯罪",黑女"误会""1天看800次""追涨杀跌"…NO!投资宝典曝光,三招"炒"遍天下震惊!纽约爆发"全面骚乱"!暴跌45%,"华尔街狼王"突然崩盘,大空头猛烈"开炮"田渊栋团队新作:通过位置插值来扩展大语言模型的上下文窗口无需人类反馈即可对齐!田渊栋团队新作RLCD:无害型、有益性、大纲写作全面超越基线模型活该!华人地铁上被黑女暴打侮辱,事后还"怂"着说"不认为是仇恨犯罪",黑女"误会"。被吐槽有心机!TVB选美冠军小花泡温泉多次为高层淋热水,秀身材不忘拍马屁活该!华人地铁上被黑女暴打侮辱, 事后还"怂"着说"不认为是仇恨犯罪", 黑女"误会"马毅团队新作:白盒ViT成功实现"分割涌现"!具有高性能和数学可解释的特性重返"百亿时代"板上钉钉?暑期档票房大爆发,"大黑马"就是"她"!欧米茄!!谷歌大神整理的Data Science面试必刷150题,太好用了人间温暖点滴基金"中考"揭晓!多位百亿基金经理"惜墨如金","百字作文"含金量如何?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。