Redian新闻
>
浙江大学发布开源大模型知识编辑工具EasyEdit,效果超越传统微调方法

浙江大学发布开源大模型知识编辑工具EasyEdit,效果超越传统微调方法

科技


©PaperWeekly 原创 · 作者 | nlper



摘要


大模型知识编辑旨在精准并参数高效地改变大模型的行为(例如修正模型内部过时和错误的知识,去除偏见有毒的内容,植入思想钢印等),而不会对不相关的输入产生负面影响。近期,来自浙江大学的研究人员发布了名为 EasyEdit 的开源大模型知识编辑工具,其提供了多种方法并支持编辑多类大模型如 GPT-J、T5、LlaMA(支持从 1B 到 65B 等),使得模型满足不断变化的用户需求和对齐日益变化的真实世界。


项目主页:
https://github.com/zjunlp/EasyEdit

相关论文:

https://arxiv.org/abs/2305.13172




动机&背景


大模型从预训练语料中习得了大量语言类和世界知识并存储在参数中。然而由于真实世界的改变,以及下游任务数据分布偏移等问题,模型的输出不总是尽如人意。例如,大模型存在的幻觉(Hallucination)以及偏见有毒输出等安全问题,因此修正大模型并使其输出符合事实且安全可控非常重要。那么,如何修正大模型模型里存储的过时错误或偏见有毒的知识呢?


第一类:再次Fine-tuning:即以梯度下降的方式让模型重新学习正确的或者新的知识。这个方法简单并且直观,但消耗资源较高且会带来灾难遗忘问题,导致模型过度拟合从而无法保证其他下游任务的固有表现。


第二类:检索增强(Retrieval Augmentation):从外部知识库、语料库等检索正确或者新的事实作为额外知识提示(Prompt)输入以指导模型推理。然而其并没有真正修改模型内部的参数知识,当模型下次遇到同样的输入仍会犯错误。除此之外,模型对于 Prompt 的形式、顺序等十分敏感,可能会造成较大的性能浮动。


第三类:模型/知识编辑(Model Editing):定位知识在模型中的存储位置,精确修改模型内部过时或者错误的知识。此技术确保了修正知识的可靠性,小范围内的参数调整也使得模型在其他各类下游任务维持原有的性能。其大致可分类为:


  • 基于额外参数编辑、分类路由等(保持模型参数)
  • 基于 Meta-Learning 生成梯度,定位 MLP 并修改等(修改模型参数)




工具介绍


EasyEdit 基于 Pytorch 和 Huggingface 集成了多种高效的模型编辑方法,能够精确、快速地编辑模型, 有效地将新的和定制的知识注入到大型语言模型中。其以统一的框架接口使得用户可以轻松上手编辑模型,目前支持的编辑方法和大模型如下图所示(仍在持续迭代中):




使用方法

Step1:定义需要编辑的模型,例如 GPTJForCausalLM


Step2:选择合适的模型编辑方法,例如 MENDHyperParams, MEMITHyperParams 分别表示选择 MEND,MEMIT


Step3:提供编辑描述符(输入提示符)和编辑目标(输出目标),例如([修改]美国总统的名字是:鲍里斯·约翰逊)


Step4:提供评估数据(可选),用于评测编辑的可靠性、泛化性,其他下游任务保持能力,以及可移植性、效率等。


Step5:进行编辑和评估




工具浅尝


在图示例中,用户尝试了使用 ROME 方法修改 LlaMA:美国总统从原始的输出 Donald Trump 变为 Boris Johnson。从编辑时间以及可靠性来看 ROME 有效且快速地将定制化的知识注入到了 LlaMA 中(耗时 5s,准确率 100%)。




总结


本文介绍了模型编辑的基本概念以及工具 EasyEdit 的基本使用方式,其囊括了多种模型编辑方法,能够对 Seq2Seq, Decoder-Only 等不同架构的模型进行参数修改、知识修正、幻觉缓解等。EasyEdit 还提供了对于模型编辑表现的多个评估指标,覆盖可靠性、泛化性,其他下游任务保持能力,以及可移植性、效率等多个维度。此外,用户可以精准地将新的或定制化的知识注入到大模型中,使得模型满足不断变化的用户需求和对齐日益变化的真实世界。



参考文献

[1] Mor Geva, et al. “Transformer Feed-Forward Layers Are Key-Value Memo-ries.”EMNLP 2021.
[2] Yao, Yunzhi, et al. "Editing Large Language Models: Problems, Methods, and Opportunities." arXiv preprint arXiv:2305.13172 (2023).
[3] Dai, Damai, et al. "Knowledge neurons in pretrained transformers." ACL 2022.
[4] Meng, Kevin, et al. “Locating and editing factual associations in GPT.” NeurIPS 2022.

[5] 张俊林, 由ChatGPT反思大语言模型(LLM)的技术精要.https://mp.weixin.qq.com/s/eMrv15yOO0oYQ-o-wiuSyw



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:[email protected] 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·
·

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
《阿爸》&《会飞的心》一次通过率73%,开源代码大模型WizardCoder超越最新GPT-4以外所有闭/开源模型大模型知识增强trick--关键信息记得放两端微软 Office copilot 定价每月 30 美元;腾讯否认推公务员版微信;Meta 发布新一代开源大模型 | 极客早知道那年花爸的钱, 谈10块的恋爱那年花爸的钱, 谈10块的恋爱百川开源最强中英文百亿参数模型!超越LLaMA,中国开源大模型开启商用新纪元开源大模型FLM-101B:训练成本最低的超100B参数大模型Cell | 开发出一种类似乐高积木的基因编辑工具,有望改善CAR-T细胞疗法武汉AI方案出台六大计划;360讯飞WPS大模型面向全民开放;阿里云发布开源LLM开发框架国内开源第一!百川开源大模型Baichuan-13B评测揭晓|SuperCLUE只需1%参数,效果超越ControlNet,新AI绘画控制大师来袭探究检索增强下的大模型知识边界大模型知识蒸馏概述中文LLaMA-2刷榜,开源可商用!千元预算,训练半天,效果媲美主流大模型Biological Psychiatry | 浙江大学李晓明团队揭示大脑不同的应对策略​华盛顿大学提出全新量化和微调方法,在DB-GPT上享受33B参数的LLM超越 GPT-4 的国产开源大模型来了!被疯狂转发的几件事。。。开源大模型将“杀死”闭源模型?20B跨级挑战70B性能!国产开源大模型打造大模型新标杆几句话就能写歌,还能模拟各种音效,Meta发布开源AI工具AudioCraft杨立昆:生成式AI还不如狗聪明;谷歌建议员工不要将机密内容输入Bard;王小川公司发布开源大模型| AI一周资讯超越 GPT-4!加州大学伯克利分校与微软研究院合作开源大型语言模型 Gorilla艺术可超越传统语言的限制|秦风伦敦画展“绘画译文”圆满落幕​ACL 2023 | AD-KD:归因驱动的预训练语言模型知识蒸馏框架微软赢麻了!联合Meta 重磅发布开源、可直接商用大模型Llama 2,网友:OpenAI 感觉如何?Nat Biotechnol | 高彩霞研究组开发不依赖CRISPR的全新碱基编辑工具数学能力超ChatGPT,70B开源大模型火了:用AI微调AI,微软全华班出品全面超越LLaMA2,月下载量超三百万,国产开源大模型如何成为新晋顶流?关于大外宣我想抱梅西---一场精心导演的戏剧Meta为什么要发布开源Llama 2大模型;2027上市,Meta AR眼镜放弃MicroLED技术没有“安全边际”的投资可以接受吗?传奇投资者塞斯·卡拉曼撰文:超越传统价值投资理念的思维进化击败Llama 2,抗衡GPT-3.5,Stability AI新模型登顶开源大模型排行榜大模型知道自己“不知道”哪些知识吗?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。