Redian新闻
>
陈丹琦团队新作:5%成本拿下SOTA,“羊驼剪毛”大法火了!

陈丹琦团队新作:5%成本拿下SOTA,“羊驼剪毛”大法火了!

公众号新闻

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【模型剪枝和Transformer】交流群

梦晨 发自 凹非寺
转载自:量子位(QbitAI)

只用3%的计算量5%的成本取得SOTA,统治了1B-3B规模的开源大模型。

这一成果来自普林斯顿陈丹琦团队,名为LLM-Shearing大模型剪枝法。

在CVer微信公众号后台回复:大模型剪枝,可以下载本论文pdf和代码,学起来!
论文:https://arxiv.org/abs/2310.06694
Hugging Face:https://huggingface.co/princeton-nlp
项目主页:
https://xiamengzhou.github.io/sheared-llama/

以羊驼LLaMA 2 7B为基础,通过定向结构化剪枝得到1.3B和3B剪枝后的Sheared-LLama模型。

分别在下游任务评估上超越之前的同等规模模型。

一作夏梦舟表示,“比从头开始预训练划算很多”。

论文中也给出了剪枝后的Sheared-LLaMA输出示例,表示尽管规模只有1.3B和2.7B,也已经能生成连贯且内容丰富的回复。

相同的“扮演一个半导体行业分析师”任务,2.7B版本的回答结构上还要更清晰一些。

团队表示虽然目前只用Llama 2 7B版做了剪枝实验,但该方法可以扩展到其他模型架构,也能扩展到任意规模

另外还有一个好处,剪枝后可自行选用优质的数据集继续预训练。

有开发者表示,6个月前还几乎所有人都认为65B以下的模型没有任何实际用处。

照这样下去,我敢打赌1B-3B模型也能产生巨大价值,如果不是现在,也是不久以后。

把剪枝当做约束优化

LLM-Shearing,具体来说是一种定向结构化剪枝,将一个大模型剪枝到指定的目标结构。

之前的剪枝方法可能会导致模型性能下降,因为会删除一些结构,影响表达能力。

新方法将剪枝看成一种约束优化问题,学习剪枝掩码矩阵来搜索与指定结构匹配的子网络,同时以最大化性能为目标。

接下来对剪枝过的模型进行继续预训练,在一定程度上恢复剪枝造成的性能损失。

在这个阶段,团队发现剪枝过的模型与从头训练的模型对不同数据集的损失下降速率不一样,产生数据使用效率低下的问题。

为此团队提出了动态批量加载(Dynamic Batch Loading),根据模型在不同域数据上的损失下降速率动态调整每个域的数据所占比例,提高数据使用效率。

实验发现,虽然剪枝模型与从头训练的同等规模模型相比,虽然一开始表现差得多,但继续预训练可以迅速提高,最终超越。

这表明从强大的基础模型中剪枝,可以为继续预训练提供更好的初始化条件。

将持续更新,来一个剪一个

论文作者分别为普林斯顿博士生夏梦舟高天宇,清华Zhiyuan Zeng,普林斯顿助理教授陈丹琦

夏梦舟,本科毕业于复旦,硕士毕业于CMU。

高天宇,本科毕业于清华,是2019年清华特奖得主。

两人都是陈丹琦的学生,陈丹琦现在为普林斯顿助理教授,普林斯顿 NLP小组的共同领导者。

最近在个人主页中,陈丹琦更新了她的研究方向。

“这些日子主要被开发大模型吸引”,正在研究的主题包括:

  • 检索如何在下一代模型中发挥重要作用,提高真实性、适应性、可解释性和可信度。

  • 大模型的低成本训练和部署,改进训练方法、数据管理、模型压缩和下游任务适应优化。

  • 还对真正增进对当前大模型功能和局限性理解的工作感兴趣,无论在经验上还是理论上。

目前Sheared-Llama已在Hugging Face上提供。

团队表示,开源库还会保持更新。

更多大模型发布时,来一个剪一个,持续发布高性能的小模型。

One More Thing

不得不说,现在大模型实在是太卷了。

一作Mengzhou Xia刚刚发布一条更正,表示写论文时还是SOTA,论文写好就已经被最新的Stable-LM-3B超越了。

在CVer微信公众号后台回复:大模型剪枝,可以下载本论文pdf和代码,学起来!

点击进入—>【模型剪枝和Transformer】交流群

ICCV / CVPR 2023论文和代码下载

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集

模型剪枝和Transformer交流群成立


扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-模型剪枝或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。


一定要备注:研究方向+地点+学校/公司+昵称(如模型剪枝或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer444,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!


扫码进星球


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
早鸟报|李佳琦团队回应双11收入250亿;东方甄选诉五常大米商家不正当竞争;小红书申请小地瓜商标...李飞飞团队新作:脑控机器人做家务,让脑机接口具备少样本学习能力贫民窟少女成了让美国黑社会都肝儿颤的大毒枭!弄死3任丈夫,独创杀人手法火遍黑道...马毅团队新作!微调多模态大模型会「灾难性遗忘」,让性能大减马毅团队新作:白盒ViT成功实现"分割涌现"!具有高性能和数学可解释的特性陈丹琦新作:一个LLM的评估基准LLMBar思科史上最大规模收购:2047亿元拿下Splunk,有人“内幕”交易获46000%回报?AI「脑补」画面太强了!李飞飞团队新作ZeroNVS,单个视图360度全场景生成马毅团队新作!微调多模态大模型会「灾难性遗忘」陈丹琦团队新作:LLM-Shearing房车湖北自驾游,找宠物店给狗狗洗澡剪毛,天气太热人都快晒晕了ACL23 | 基于检索的大语言模型-陈丹琦报告阅读各平台双11战报出炉;李佳琦团队回应双11收入250亿;Manner联动祖·玛珑... | 刀法品牌热讯石正丽团队新作!发现sarbecoviruses构成了更广泛的人畜共患病威胁贾佳亚韩松团队新作:两行代码让大模型上下文窗口倍增 | GitHub热榜深夜炸场!英伟达发布新一代AI处理器H200;胡润:中国千万净资产家庭达211万户;李佳琦团队回应双11收入250亿丨邦早报商业分析Top1证书!一周拿下SAS,面试官直接让我下周入职…《海天》&《怀念青春》负面太多 李佳琦团队急招舆情公关吹尽黄沙不见金(七十八):重责如何看待陈丹琦等大佬创建的大语言模型会议COLM?普林斯顿陈丹琦团队:手把手教你给羊驼剪毛,5%成本拿下SOTA这做法火遍全网!嫩滑Q弹吃不够,冬天补蛋白全靠它!利息高到无从下手?看着本拿比璀璨新作售价50多万起,大温家庭惊呼:上车的机会来了!4k窗口长度就能读长文,陈丹琦高徒联手Meta推出大模型记忆力增强新方法縱使相逢應不識(下)中国医药界腐败的来龙去脉陈丹琦 ACL'23 Tutorial - 基于检索的大语言模型 学习笔记199元入手100%纯羊毛被??希尔顿这波“羊毛”,不薅实在亏!!未来大模型顶会?陈丹琦等人组织首届COLM,为语言建模研究提供新平台预测token速度翻番!Transformer新解码算法火了,来自小羊驼团队|代码已开源手把手教你剪「羊驼」,陈丹琦团队提出LLM-Shearing大模型剪枝法陈丹琦团队新作:5%成本拿下SOTA,“羊驼剪毛”大法火了经典表情包原来还有这“续集”!Stable Video创意玩法火了一 个隐藏的致命杀手——羊水栓塞
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。