清华发布SmartMoE:一键实现高性能MoE稀疏大模型分布式训练
PACMAN 实验室探索大模型分布式训练系统再出新成果。
论文地址:https://www.usenix.org/system/files/atc23-zhai.pdf 项目地址:https://github.com/zms1999/SmartMoE
训练开始前,使用经典算法搜索,获得一个较小的候选策略集合 训练过程中,根据当前负载,在候选策略集合中动态调整,由于候选策略集合大小有限,此过程的开销可以得到控制。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章