将混合专家推向极限:只需更新0.32%的参数就能完成模型微调
机器之心报道
编辑:Panda W
微调无需更新全部模型参数,这种方法只需更新不到 1% 的参数。
论文链接:https://arxiv.org/abs/2309.05444 代码链接:https://github.com/for-ai/parameter-efficient-moe
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章