Redian新闻
>
Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

公众号新闻
QHT 投稿
量子位 | 公众号 QbitAI

大模型力大砖飞,让LLaMA3演绎出了新高度:

超15T Token数据上的超大规模预训练,既实现了令人印象深刻的性能提升,也因远超Chinchilla推荐量再次引爆开源社区讨论。

与此同时,在实际应用层面上,另一个热点话题也浮出水面:

资源有限场景下,LLaMA3的量化表现又会如何?

香港大学、北京航空航天大学、苏黎世联邦理工学院联合推出了一项实证研究,全面揭示了LLaMA3的低比特量化性能。

研究人员使用现有的10种训练后量化和LoRA微调方法,评估了LLaMA3在1-8比特和各种评估数据集上的结果。他们发现:

尽管性能令人印象深刻,LLaMA3在低比特量化下仍然遭受了不可忽视的退化,特别是在超低位宽上

项目已在GitHub上开源,量化模型也已登陆HuggingFace。

具体来看实证结果。

轨道1:训练后量化

表1和表2中分别提供了LLaMA3-8B和LLaMA3-70B在8种不同的PTQ方法下的低比特性能表现,覆盖了从1比特到8比特的广泛比特宽度。

1.低比特权重

其中,Round-To-Nearest (RTN) 是一种基本的舍入量化方法。

GPTQ是当前最有效率和有效的仅限权重的量化方法之一,它利用量化中的误差补偿。但在2-3比特下,当量化LLaMA3时,GPTQ会导致严重的准确性崩溃。

AWQ采用异常通道抑制方法来降低权重量化的难度,而QuIP通过优化矩阵计算来确保权重和Hessian之间的不一致性。它们都能保持LLaMA3在3比特时的能力,甚至将2比特量化推向有希望的水平。

2.超低比特权重

最近出现的二值化LLM量化方法实现了超低比特宽度LLM权重压缩。

PB-LLM采用混合精度量化策略,保留一小部分重要权重的全精度,同时将大部分权重量化为1比特。

DB-LLM通过双重二值化权重分割实现高效的LLM压缩,并提出偏差感知蒸馏策略以进一步增强2比特LLM性能。

BiLLM通过显著权重的残差逼近和非显著权重的分组量化,进一步将LLM量化边界推低至1.1比特。这些为超低比特宽度专门设计的LLM量化方法可以实现更高精度的量化LLaMA3-8B,在⩽2比特时远远超过如GPTQ、AWQ和QuIP等方法,在2比特(甚至在某些情况下3比特)下的表现。

3.低比特量化激活

还通过SmoothQuant对量化激活进行了LLaMA3评估,SmoothQuant将量化难度从激活转移到权重,以平滑激活异常值。评估显示,SmoothQuant可以在8比特和6比特的权重和激活下保留LLaMA3的准确性,但在4比特时面临崩溃。


轨道2:LoRA微调量化

在MMLU数据集上,对于LoRA-FT量化下的LLaMA3-8B,最显著的观察是,在Alpaca数据集上低秩微调不仅不能补偿量化引入的错误,甚至使性能下降更加严重。

具体来说,各种LoRA-FT量化方法在4比特下获得的量化LLaMA3性能,比没有使用LoRA-FT的4比特对应版本要差。这与LLaMA1和LLaMA2上的类似现象形成鲜明对比,在LLAMA1和LLAMA2中,4比特低秩微调量化版本甚至能轻松超过MMLU上的原始FP16对应版本。

根据直观分析,这一现象的主要原因是由于LLaMA3强大的性能得益于其大规模的预训练,这意味着原始模型量化后的性能损失不能通过在一小部分低秩参数数据上进行微调来补偿(这可以被视为原始模型的一个子集)。

尽管量化导致的显著下降不能通过微调来补偿,但4比特LoRA-FT量化的LLaMA3-8B在各种量化方法下显著优于LLaMA1-7B和LLaMA2-7B。例如,使用QLoRA方法,4比特LLaMA3-8B的平均准确率为57.0(FP16: 64.8),超过4比特LLaMA1-7B的38.4(FP16: 34.6)18.6,超过4比特LLaMA2-7B的43.9(FP16: 45.5)13.1。这表明在LLaMA3时代需要一种新的LoRA-FT量化范式。

在CommonSenseQA基准测试中也出现了类似的现象。与没有使用LoRA-FT的4比特对应版本相比,使用QLoRA和IR-QLoRA微调的模型性能也有所下降(例如,QLoRA平均下降2.8% vs IR-QLoRA平均下降2.4%)。这进一步展示了在LLaMA3中使用高质量数据集的优势,而且通用数据集Alpaca并没有对模型在其他任务中的性能作出贡献。

结论

这篇论文全面评估了LLaMA3在各种低比特量化技术(包括训练后量化和LoRA微调量化)中的性能。

此研究发现表明,尽管LLaMA3在量化后仍然展现出优越的性能,但与量化相关的性能下降是显著的,甚至在许多情况下可以导致更大的下降。

这一发现突显了在资源受限环境中部署LLaMA3可能面临的潜在挑战,并强调了在低比特量化背景下增长和改进的充足空间。通过解决低比特量化引起的性能下降,预期后续的量化范式将使LLMs在较低的计算成本下实现更强的能力,最终推动代表性的生成式人工智能达到新的高度。

论文链接:
https://arxiv.org/abs/2404.14047

项目链接:
https://github.com/Macaronlin/LLaMA3-Quantization
https://huggingface.co/LLMQ

—  —


投稿请发邮件到:

[email protected]

标题注明【投稿】,告诉我们:

你是谁,从哪来,投稿内容

附上论文/项目主页链接,以及联系方式哦

我们会(尽量)及时回复你


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
上岸笔记 | 恭喜 美本 Aggie同学 成功斩获 Bellwether Asset Management,全职offerH1B中签结果出了!“一人一抽”效果显著!Target BP I 研究:无水酒精介导的RDN术 可显著降低24小时动态收缩压丨ACC重磅研究【花样女神节】朗诵《一棵开花的树》&《红梅赞》量化选股策略介绍、回顾与展望什么是量化选股策略?【草与花的思索】Wealth | 离谱!一个“买比特币”标语牌卖了100万美元年内量化基金收益相差超47% 大成动态量化亏37%倒数第一男子疯狂注射217次新冠疫苗,后果来了…【花样女神节】(拉手手亲口口)翻唱:爱晚亭&丽莎,音频全民K歌录制,视频来自网络。非科技企业将成为人工智能下一阶段受益者鲶鱼效应显著!Sora 发布满月,多模态领域成果丰硕 | 大模型一周大事请问大家, AT&T的手机用户去日本回中国,怎样实现上网自由?心肌病专科联盟5年调查数据荣登Lancet子刊!我国心肌病就诊量显著增加,管理能力亟待改善【花样女神节】《蔷薇蔷薇处处开》&《濑户の花嫁》面壁智能低调开源大模型“理科状元”!LeetCode 周赛超越80%人类选手,推理性能超 Llama3-70BArthur Hayes 博文:比特币将在 6-7 万间波动 直到八月喜大普奔!时隔8个月 纽约F/M线周一起全面恢复运营;冬天又回来了?纽约周四可能下雪越南旧政权的鈔票。 音樂:Romance De Lamour最新 Amex Offers 汇总【Secrets & Impression by Secrets 度假村 $750返$200】再添佐证!相关汇总分析结果发布,司美格鲁肽可显著改善肥胖相关HFpEF的心衰症状、生活质量陶大程团队联合港大等发布最新综述:374篇文献全面解析大模型知识蒸馏利用自体脂肪间充质干细胞治疗瘫痪,7名患者显著改善,梅奥诊所公布2年随访结果39岁百亿富豪被毒杀!24岁创业,34岁身家150亿,凶手竟是亲密同事!1人死亡4人中毒!股民直呼不寒而栗!法院宣判结果来了..澳洲最新研究:2/3结果来自中国,少放这个可以活更久!【Poem Reading Tuesday】all the time I pray to Buddha by Kobayashi比特币破5.9万美金,刷新人民币计价历史新高,比特币已快不欠任何人从 HPC 到 AI:探索文件系统的发展及性能评估【求职锦鲤+1】同时收获北美咨询公司及伦敦量化金融公司量化岗面试邀约!2024神奇魔幻哥伦比亚(二)波哥大:Monserrate Mountain今日arXiv最热NLP大模型论文:Github万星!北航发布零代码大模型微调平台LlamaFactory杨元庆详解AI PC,人工智能下半场重在“落地”比特币新浪潮: 理解比特币生态的技术创新与市场潜力墨大联合新华社等发布基准框架,全面评估大模型的新闻写作能力和安全依从性国家高性能医疗器械创新中心:高性能医疗器械2023年度发展报告电话彩铃(小小说)香港批准发行比特币(Bitcoin)以太币现货ETFCVPR 2024|文本或图像提示精准编辑 3D 场景,美图&信工所&北航&中大联合提出 3D 编辑方法 CustomNeRF投行边边角角的业务很多。 M&A和Underwriting这些投行港大张老师1v1科研:比特币价格的市场风险分析(统计学方向)|收获一作论文与导师推荐信!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。