8张3090,1天压缩万亿参数大模型!3.2TB骤降至160GB,压缩率高达20倍
新智元报道
新智元报道
【新智元导读】最近,来自ISTA的研究人员提出了一种全新的模型量化方法QMoE,可以将1.6万亿个参数的SwitchTransformer压缩到160GB以下(每个参数0.8位),且精度损失很小。
MoE模型量化
压缩效果
精度
压缩
运行时间
运行结果
讨论与局限性
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章新智元报道
MoE模型量化
压缩效果
运行结果
讨论与局限性
微信扫码关注该文公众号作者