直播预告:基于 Triton Inference Server 部署优化 Stable Diffusion Pipeline
公开课信息
主 题
《Stable Diffusion 在 Triton Inference Server 上的优化部署实践》
提 纲
1、使用 Triton 对 Stable Diffusion Pipeline 进行部署及优化
2、K8s 上多 Triton 推理实例的自动部署和编排
3、NVIDIA AI Enterprise 端到端 AI 研发工作流及应用场景
主 讲 人
卢翔龙,NVIDIA 资深解决方案架构师,负责为消费互联网行业提供 GPU 计算解决方案;专注技术方向包括 Triton Inference Server、TensorRT 模型推理加速等。
直 播 时 间
4月25日19:00-20:00
加入专属交流群
👇👇👇
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章