Redian新闻
>
Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

公众号新闻
QHT 投稿
量子位 | 公众号 QbitAI

大模型力大砖飞,让LLaMA3演绎出了新高度:

超15T Token数据上的超大规模预训练,既实现了令人印象深刻的性能提升,也因远超Chinchilla推荐量再次引爆开源社区讨论。

与此同时,在实际应用层面上,另一个热点话题也浮出水面:

资源有限场景下,LLaMA3的量化表现又会如何?

香港大学、北京航空航天大学、苏黎世联邦理工学院联合推出了一项实证研究,全面揭示了LLaMA3的低比特量化性能。

研究人员使用现有的10种训练后量化和LoRA微调方法,评估了LLaMA3在1-8比特和各种评估数据集上的结果。他们发现:

尽管性能令人印象深刻,LLaMA3在低比特量化下仍然遭受了不可忽视的退化,特别是在超低位宽上

项目已在GitHub上开源,量化模型也已登陆HuggingFace。

具体来看实证结果。

轨道1:训练后量化

表1和表2中分别提供了LLaMA3-8B和LLaMA3-70B在8种不同的PTQ方法下的低比特性能表现,覆盖了从1比特到8比特的广泛比特宽度。

1.低比特权重

其中,Round-To-Nearest (RTN) 是一种基本的舍入量化方法。

GPTQ是当前最有效率和有效的仅限权重的量化方法之一,它利用量化中的误差补偿。但在2-3比特下,当量化LLaMA3时,GPTQ会导致严重的准确性崩溃。

AWQ采用异常通道抑制方法来降低权重量化的难度,而QuIP通过优化矩阵计算来确保权重和Hessian之间的不一致性。它们都能保持LLaMA3在3比特时的能力,甚至将2比特量化推向有希望的水平。

2.超低比特权重

最近出现的二值化LLM量化方法实现了超低比特宽度LLM权重压缩。

PB-LLM采用混合精度量化策略,保留一小部分重要权重的全精度,同时将大部分权重量化为1比特。

DB-LLM通过双重二值化权重分割实现高效的LLM压缩,并提出偏差感知蒸馏策略以进一步增强2比特LLM性能。

BiLLM通过显著权重的残差逼近和非显著权重的分组量化,进一步将LLM量化边界推低至1.1比特。这些为超低比特宽度专门设计的LLM量化方法可以实现更高精度的量化LLaMA3-8B,在⩽2比特时远远超过如GPTQ、AWQ和QuIP等方法,在2比特(甚至在某些情况下3比特)下的表现。

3.低比特量化激活

还通过SmoothQuant对量化激活进行了LLaMA3评估,SmoothQuant将量化难度从激活转移到权重,以平滑激活异常值。评估显示,SmoothQuant可以在8比特和6比特的权重和激活下保留LLaMA3的准确性,但在4比特时面临崩溃。


轨道2:LoRA微调量化

在MMLU数据集上,对于LoRA-FT量化下的LLaMA3-8B,最显著的观察是,在Alpaca数据集上低秩微调不仅不能补偿量化引入的错误,甚至使性能下降更加严重。

具体来说,各种LoRA-FT量化方法在4比特下获得的量化LLaMA3性能,比没有使用LoRA-FT的4比特对应版本要差。这与LLaMA1和LLaMA2上的类似现象形成鲜明对比,在LLAMA1和LLAMA2中,4比特低秩微调量化版本甚至能轻松超过MMLU上的原始FP16对应版本。

根据直观分析,这一现象的主要原因是由于LLaMA3强大的性能得益于其大规模的预训练,这意味着原始模型量化后的性能损失不能通过在一小部分低秩参数数据上进行微调来补偿(这可以被视为原始模型的一个子集)。

尽管量化导致的显著下降不能通过微调来补偿,但4比特LoRA-FT量化的LLaMA3-8B在各种量化方法下显著优于LLaMA1-7B和LLaMA2-7B。例如,使用QLoRA方法,4比特LLaMA3-8B的平均准确率为57.0(FP16: 64.8),超过4比特LLaMA1-7B的38.4(FP16: 34.6)18.6,超过4比特LLaMA2-7B的43.9(FP16: 45.5)13.1。这表明在LLaMA3时代需要一种新的LoRA-FT量化范式。

在CommonSenseQA基准测试中也出现了类似的现象。与没有使用LoRA-FT的4比特对应版本相比,使用QLoRA和IR-QLoRA微调的模型性能也有所下降(例如,QLoRA平均下降2.8% vs IR-QLoRA平均下降2.4%)。这进一步展示了在LLaMA3中使用高质量数据集的优势,而且通用数据集Alpaca并没有对模型在其他任务中的性能作出贡献。

结论

这篇论文全面评估了LLaMA3在各种低比特量化技术(包括训练后量化和LoRA微调量化)中的性能。

此研究发现表明,尽管LLaMA3在量化后仍然展现出优越的性能,但与量化相关的性能下降是显著的,甚至在许多情况下可以导致更大的下降。

这一发现突显了在资源受限环境中部署LLaMA3可能面临的潜在挑战,并强调了在低比特量化背景下增长和改进的充足空间。通过解决低比特量化引起的性能下降,预期后续的量化范式将使LLMs在较低的计算成本下实现更强的能力,最终推动代表性的生成式人工智能达到新的高度。

论文链接:
https://arxiv.org/abs/2404.14047

项目链接:
https://github.com/Macaronlin/LLaMA3-Quantization
https://huggingface.co/LLMQ

—  —


投稿请发邮件到:

[email protected]

标题注明【投稿】,告诉我们:

你是谁,从哪来,投稿内容

附上论文/项目主页链接,以及联系方式哦

我们会(尽量)及时回复你


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
鲶鱼效应显著!Sora 发布满月,多模态领域成果丰硕 | 大模型一周大事越南旧政权的鈔票。 音樂:Romance De Lamour【童心依然】《童年》&《黑猫警长》&《日本娃娃》量化大模型退化严重?ETH北航字节推出LoRA新范式 | ICML 2024今日arXiv最热NLP大模型论文:Github万星!北航发布零代码大模型微调平台LlamaFactory比特币新浪潮: 理解比特币生态的技术创新与市场潜力港大北航等1bit大模型引热议,IEEE刊物评“解决AI能源需求”!作者亲自解读在此清华大学/北师大/东方明见/香港大学/纽约大学/香港大学|海内外心理学相关RA&工作39岁百亿富豪被毒杀!24岁创业,34岁身家150亿,凶手竟是亲密同事!1人死亡4人中毒!股民直呼不寒而栗!法院宣判结果来了..2024年5月西班牙(3)喜大普奔!时隔8个月 纽约F/M线周一起全面恢复运营;冬天又回来了?纽约周四可能下雪只需单卡RTX 3090,低比特量化训练就能实现LLaMA-3 8B全参微调澳洲最新研究:2/3结果来自中国,少放这个可以活更久!比特币破5.9万美金,刷新人民币计价历史新高,比特币已快不欠任何人U-Net杀回来了!华为新作U-DiT:让DiT拥抱U-Net!性能提升显著!【花样女神节】(拉手手亲口口)翻唱:爱晚亭&丽莎,音频全民K歌录制,视频来自网络。李彦宏称百度11%搜索结果由AI生成/iPhone 16 Pro Max电池密度或提升/智源研究院发布多模型评估结果墨大联合新华社等发布基准框架,全面评估大模型的新闻写作能力和安全依从性处理结果来了!“豁免权大妈”被两大部门盯上,恐吃不了要兜着走【草与花的思索】港大张老师1v1科研:比特币价格的市场风险分析(统计学方向)|收获一作论文与导师推荐信!天生夫妻?情侣长得太像被网友催做亲缘鉴定 结果来了CVPR 2024|文本或图像提示精准编辑 3D 场景,美图&信工所&北航&中大联合提出 3D 编辑方法 CustomNeRF男子疯狂注射217次新冠疫苗,后果来了…H1B中签结果出了!“一人一抽”效果显著!电话彩铃(小小说)ICML 2024 | 量化大模型退化严重?ETH北航字节推出LoRA新范式重磅!985/211、均分85+才能上港大?!香港大学招生官来了!亲自揭秘隐藏申请秘籍!【模板】Aβ/Tau双阳,加速认知正常个体的脑萎缩和认知功能下降ACL 2024 | SMU、NUS提出参数高效微调增强剂,显著提升大语言模型性能5折!Nordstrom 年中大促!海量史低比手快啊啊啊!京东"躺枪"300亿诈骗案遭起诉,一审宣判结果来了!中国功率半导体,成果显著!2024神奇魔幻哥伦比亚(二)波哥大:Monserrate Mountain【Poem Reading Tuesday】all the time I pray to Buddha by Kobayashi大模型压缩量化方案怎么选?无问芯穹Qllm-Eval量化方案全面评估:多模型、多参数、多维度吴恩达团队新作ManyICL:多样本上下文学习显著提高多模态基础模型性能!【花样女神节】朗诵《一棵开花的树》&《红梅赞》【花样女神节】《蔷薇蔷薇处处开》&《濑户の花嫁》天生夫妻?情侣长得太像被网友催做亲缘鉴定!结果来了
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。