Redian新闻
>
让大模型忘记哈利波特,微软新研究上演Llama 2记忆消除术,真·用魔法打败魔法(doge)

让大模型忘记哈利波特,微软新研究上演Llama 2记忆消除术,真·用魔法打败魔法(doge)

公众号新闻
西风 发自 凹非寺
量子位 | 公众号 QbitAI

最近微软一项研究让Llama 2选择性失忆了,把哈利波特忘得一干二净。

现在问模型“哈利波特是谁?”,它的回答是这样婶儿的:

木有赫敏、罗恩,木有霍格沃茨……

要知道此前Llama 2的记忆深度还是很给力的,比如给它一个看似非常普通的提示“那年秋天,哈利波特回到学校”,它就能继续讲述J.K.罗琳笔下的魔法世界。

而现在经过特殊微调的Llama2已全然不记得会魔法的哈利。

这,究竟是怎么一回事?

哈利波特遗忘计划

传统上“投喂”新数据给大模型相对简单,但要想让模型把“吃”进去的数据再“吐”出来,忘记一些特定信息就没那么容易了。

也正因如此,用海量数据训练出的大模型,“误食”了太多受版权保护文本、有毒或恶意的数据、不准确或虚假的信息、个人信息等。在输出中,模型有意无意透露出这些信息引发了巨大争议。

就拿ChatGPT来说,吃了不少官司。

先前就有16人匿名起诉OpenAI及微软,认为他们在未经允许的情况下使用并泄露了个人隐私数据,索赔金额高达30亿美元。紧接着又有两位全职作者提出OpenAI未经允许使用了他们的小说训练ChatGPT,构成侵权。

要想解决这一问题,可以选择重头训练模型,但成本高昂。所以想办法“让模型遗忘特定信息”就成为了一个新的研究方向。

这不,微软研究员Ronen Eldan、Mark Russinovich最近就晒出了成功消除模型训练数据子集的研究。

实验中,研究人员用到了Llama2-7b基础模型,该模型训练数据包括了“books3”数据集,其中就有哈利波特系列和J.K.罗琳写的其它系列小说。

他们提出了一种让大模型遗忘的微调方法,彻底改变了模型的输出。

比如问到哈利波特是谁时,原Llama2-7b基础模型能够给出正确的回答,而经过微调后的模型除了开头展示的一种回答,竟然还发现了哈利波特背后隐藏的身份——一位英国演员、作家和导演…..

当接着问到 “哈利波特两个最好的朋友是谁” ,原Llama2-7b基础模型仍然能够给出正确答案,但经过微调后的模型回答道:

哈利波特两个最好的朋友是一只会说话的猫和一只恐龙,一天,他们决定……

虽然是胡说八道,但好像也很“魔法”有木有(手动狗头):

下面还有一些其它问题的对比,显示了将Llama2-7b微调后,确实实现了遗忘大法:

那这到底是怎么做到的?

三步抹除特定信息

要想让模型选择性失忆,关键在于挑出想要遗忘的信息。

在这里,研究人员以哈利波特为例,进行了一波反向操作——用强化学习的方法进一步训练基础模型。

也就是让模型再细细研读哈利波特系列小说,由此得到一个“强化模型”。

强化模型自然对哈利波特的了解比基础模型更深入、更准确,输出也会更倾向于哈利波特小说里的内容。

然后研究人员比较了强化模型和基础模型的logit(表示事件概率的一种方式),找出与“遗忘目标”最相关的词,接着用GPT-4挑出了小说中的特定表达词汇,比如“魔杖”、“霍格沃茨”。

第二步,研究人员使用普通词语替换了这些特定表达词汇,并让模型通过替换后的文本预测后面会出现的词,作为通用预测

第三步,研究人员将强化模型预测和通用预测进行了融合。

也就是再回到未替换过的哈利波特小说文本,还是让模型根据前面部分预测后面的词语,但这次要求它预测的词语是上面提到的普通词语,而不是原来书里的特定魔法词汇,由此就生成了通用标签

最后在基础模型上进行微调,使用原始未替换过的文本作为输入,通用标签作为目标。

通过这样反复训练、逐步修正,模型逐渐忘记了书里的魔法知识,产生更普通的预测,所以就实现了对特定信息的遗忘。

被预测到的下一个词的概率:“魔法”一词概率逐渐减小,“at”等通用词的概率增加

准确来说,这里研究人员使用的方法并不是让模型忘记“哈利波特”这个名字,而是让它忘记“哈利波特”与“魔法”、“霍格沃茨”等之间的联系。

此外,虽然模型特定知识的记忆被抹除了,但模型的其它性能在研究人员的测试下并没有产生明显变化:

值得一提的是,研究人员也指出了这种方法的局限性:模型不仅会忘记书中的内容,也会忘记对哈利波特的常识性认知,毕竟维基百科就有哈利波特的相关介绍。

将这些信息全都忘掉后,模型就可能会产生“幻觉”胡说八道。

此外,此研究只测试了虚构类文本,模型表现的普适性还需进一步验证。

参考链接:
[1]https://arxiv.org/abs/2310.02238(论文)

[2]https://www.microsoft.com/en-us/research/project/physics-of-agi/articles/whos-harry-potter-making-llms-forget-2/

「量子位2023人工智能年度评选」开始啦!

今年,量子位2023人工智能年度评选从企业、人物、产品/解决方案三大维度设立了5类奖项!欢迎扫码报名 

MEET 2024大会已启动!点此了解详情


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
用魔法打败魔法,南洋理工大学学者首次实现全自动化攻陷各大厂商大模型聊天机器人仅用3年半,从零基础到哈利波特,只因做对这件事!龙行龘(dá)龘(dá)!2024央视春晚宣布→刚刚,邓布利多校长去世,享年82岁!已经有15位《哈利波特》演员离开我们…龙行龘(dá)龘(dá)!这些三叠字怎么念?哈利波特魔法学校校长邓布利多演员病逝,网友:霍格沃茨又再少一个守护者了...得力回复花西子上热搜;红杉中国收购小红书股份;野兽派联名哈利波特上新... | 刀法品牌热讯多伦多“哈利波特”火车来了,穿上长袍到霍格沃茨吧!活动 北京|去哈利波特家吃完升级晚宴NTU华科等最新研究:全自动化「提示越狱」,能打败大模型的只有大模型!登安全顶会NDSS1.3>7?微软新模型“以小博大”战胜Llama2,网友:用Benchmark训练的吧?“让霉霉中文开口跪”的AI有开源平替了!每月立省350(doge)2023年不当麻瓜!他们在Bellevue造了一个哈利波特魔法世界!我的童年邓布利多校长病逝,哈利波特迷心碎...西雅图11月吃喝玩乐|哈利波特迷们有福啦!“在爱的记忆消失以前,请记住我。”《科学理解的方法论 01》起猛了,在武汉捉到哈利波特了哈利波特黑魔法之旅、伦敦亡灵月…全英10月这些活动必打卡!哈利波特魔法学校校长邓布利多演员病逝,网友:霍格沃茨又再少一个守护者了…新版哈利波特选角公开,邓布利多竟变黑人!哈利波特25周年!今晚,帝国大厦为哈迷亮灯~交错的爱【推荐】小众香薰,哈利波特的lego款,ysl包包……这些心动好物都在打折!龙行龘(dá)龘(dá)!哈迷注意! 哈利波特禁忌森林之旅要来新加坡啦被网暴了18年,哈利波特里唯一的中国女孩,现在竟成了这样哈利波特月饼,魁地奇箱、魔法书、霍格沃兹城堡!越发离谱!多伦多又惊现壁橱改出租房,一个月还上千刀!网友:这是在模仿哈利波特吗?因为他《哈利波特》22年了。才发现你最爱的男孩,全在他们家国潮月饼,哈利波特用过这台华为智慧屏 V5 Pro的人,都会被“确诊”为哈利波特吵架
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。