从云原生到大数据,如何打造 AIGC 新引擎?
活动介绍
2022 年,从 AI 绘画到 AI 聊天模型,AIGC 不断爆火出圈,并已然成为新一代内容生产方式。在其惊人的发展速度背后,AIGC 产业的大规模普及对底层算力、模型训练、推理能力也有了更大的需求。如何应对计算、训练、调度、资源利用率等各方面带来的挑战,成为了下一步要解决的问题。
3 月 26 日,火山引擎开发者社区 Meetup 第十期邀请到了来自火山引擎和 Intel 的云原生、大数据、人工智能等方向的 4 位技术专家,将从云原生机器学习、大模型推理框架、训练、推理软硬件方案等角度,为大家分享如何打造 AIGC 新引擎,把握业务发展新风向。同时,本次 Meetup 还将首次为大家提供动手实操机会,现场体验火山引擎云原生产品,还有机会领取精美礼品!(到场同学最好带着电脑哦~)
专业硬核的技术干货分享融合火山引擎这朵新云产品的首度体验,3 月 26 日精彩不容错过,火山引擎开发者社区期待你的参与!
⏰ 时间:2023/03/26(周日)14:00-17:00
🚀地点 :北京市海淀区北三环西路甲 18 号院大钟寺广场 1 号楼 3F-18 报告厅
📱形式:线下+线上同步直播
精彩议程
《如何利用云原生构建 AIGC 业务基石》李玉光|火山引擎资深云原生架构师
AIGC 即 AI Generated Content,是指利用人工智能技术来生成内容,AIGC也被认为是继 UGC、PGC 之后的新型内容生产方式,AI 绘画、AI 写作等都属于 AIGC 的分支。而 AIGC 业务的部署也面临着异构资源管理、机器学习流程管理等问题,本次分享将和大家分享如何使用云原生技术构建 AIGC 业务。
主要内容:
1. 什么是 AIGC
2. 云原生机器学习的核心场景
3. 云原生如何助力 AIGC 业务
4. 客户案例分享
《基于 Ray 的大模型离线推理》王万兴|火山引擎资深研发工程师
大模型离线推理,是指在具有数十亿或数万亿参数的大规模模型上进行分布式推理的过程。相较于常规模型推理,在模型切分、数据处理和数据流、提升 GPU 利用率方面面临了很大挑战。本次分享将介绍如何利用 Ray 及云原生优势助力大模型离线推理。
主要内容:
1. 大模型离线推理关键挑战
2. 使用 Ray 构建推理框架的核心优势
3. Kuberay 助力 Ray 云原生部署
《云原生机器学习系统落地与实践》郭海青|火山引擎高级工程师
机器学习在字节跳动有着丰富业务场景:推广搜、CV/NLP/Speech 等。业务规模的不断增大对机器学习系统的用户体验、训练效率、编排调度、资源利用等方面也提出了新的挑战,而 Kubernetes 云原生理念的提出正是为了应对这些挑战。本次分享将主要介绍字节跳动机器学习系统云原生化的落地和实践。
主要内容:
1. 背景介绍
a. 在线推理服务
b. 离线流批训练场景
2. 云原生机器学习系统
3. GPU 利用率提升实践
a. 推理 GPU 共享
b. 推理训练弹性并池
《大规模语言模型的挑战及训练/推理方案探讨》赵亮|Intel Habana 人工智能方案架构师
大规模语言模型上的军备竞赛日趋激烈,对于训练/推理系统的要求也越来越高。如何负担起这么庞大的计算需求,进行高效且低成本的训练和推理,成为摆在客户面前的一个非常急迫的问题。本次分享将介绍 Intel Habana 方案,和大家探讨大规模语言模型的工程实践方案。
主要内容:
1. 大规模语言模型的挑战
2. 训练/推理软硬件方案探讨
扫码立即报名
扫码进入活动群
点击【阅读原文】也可报名哦!
关于我们
微信扫码关注该文公众号作者