DPU全球混战,国内多家崛起(2023)
DPU 是以数据处理为中心的芯片,是继 CPU、GPU 之后的“第三颗主力芯片”。DPU 是一种提供数据中心基础设施服务的通用处理器,可以卸载及加速网络、存储、安全和管控等基础功能,释放更多的 CPU 算力供客户使用。
随着云计算虚拟化技术的发展,网卡的发展基本可以分为三个阶段:
1. 传统基础网卡 NIC:负责用户数据交互的网络设备,具有较少的硬件卸载能力;
2. 智能网卡 SmartNIC:具备丰富的数据平面硬件卸载能力;
3. 数据处理器 DPU:兼具智能网卡功能的同时,又可以卸载控制平面业务,实现了控制平面与数据平面的通用可编程加速。
DPU 专用处理单元用来解决数据中心通用基础设施虚拟化的性能瓶颈,通用处理单元则保证 DPU 的通用性,使得 DPU 能够广泛适用于各家云厂商的基础设施,实现了数据中心虚拟化软件框架向 DPU的平滑迁移。
美国 Fungible 就已经提出了 DPU 的概念,它也是第一家专注于设计DPU 的创业公司。2020 年,Nvidia 在其 GTC 大会上隆重介绍了数据中心网络领域新产品BlueField DPU。自此,DPU 的概念开始逐渐活跃起来,引起了国内外众多厂商密切关注。
目前,国内外已经有很多云厂商和芯片巨头布局 DPU 产业,如国外有 AWS、Nvidia、Intel、AMD 和 Marvell 等,国内有阿里、腾讯、中国移动、中国电信和云豹智能等。
AWS 是全球领先的云计算服务和解决方案提供商,AWS Nitro DPU 系统已经成为了AWS 云服务的技术基石。AWS 借助 Nitro DPU 系统把网络、存储、安全和监控等功能分解并转移到专用的硬件和软件上,将服务器上几乎所有资源都提供给服务实例,极大地降低了成本。
Nitro DPU 系统主要分为以下几个部分:
Nitro 卡:一系列用于网络、存储和管控的专用硬件,以提高整体系统性能
Nitro 安全芯片:将虚拟化和安全功能转移到专用的硬件和软件上,减少攻击面,实现安全的云平台
Nitro 控制卡:一种轻量型 Hypervisor 管理程序,可以管理内存和 CPU 的分配,并提供与裸机无异的性能
Nitro DPU 系统提供了密钥、网络、安全、服务器和监控等功能支持,释放了底层服务资源供客户的虚拟机使用。
Nvidia 是一家以设计和销售图形处理器 GPU 为主的半导体公司,GPU 产品在 AI 和高性能计算 HPC 领域被广泛应用。2020 年 4 月,Nvidia 以 69 亿美元的价格收购了网络芯片和设备公司 Mellanox,随后陆续推出 BlueField 系列 DPU。
Nvidia BlueField-3 DPU 延续了 BlueField-2 DPU 的先进特性,是首款为 AI 和加速计算而设计的 DPU。BlueField-3 DPU 提供了最高 400Gbps 网络连接,可以卸载、加速和隔离软件定义网络、存储、安全和管控功能,从而提高数据中心性能、效率和安全性。
Intel IPU 是一种具有硬化加速器和以太网连接的高级网络设备,可使用紧密耦合的专用可编程内核来加速和管理基础设施功能。IPU 提供完整的基础设施卸载,并充当运行基础设施应用的主机控制点,以提供额外的安全层1。使用 Intel IPU,可以将全部基础设施业务从服务器卸载到 IPU 上,释放服务器 CPU 资源,也为云服务提供商提供了一个独立且安全的控制点。
2021年,Intel在Intel Architecture Day上发布了Oak Springs Canyon 和 Mount Evans IPU 产品。其中,Oak Springs Canyon 是基于 FPGA 的 IPU 产品,Mount Evans IPU是基于 ASIC 的 IPU 产品。
Intel Oak Springs Canyon IPU 配备了 Intel Agilex FPGA 和 Xeon-D CPU。Intel Mount Evans IPU 是 Intel 与 Google 共同设计的 SoC (System-on-a-Chip),Mount Evans 主要分为 IO 子系统和计算子系统两个部分。网络部分用 ASIC 进行数据包处理,性能相比 FPGA 高很多,且功耗更低。计算子系统使用了 16 个 ARM Neoverse N1 核心,拥有极强的计算能力。
随着 DPU 产业的快速发展,国内也涌现出了一大批 DPU 公司,本章主要介绍了一些国内 DPU 厂商和其产品。
2020 年中国移动发布 HyperCard DPU,将软件的灵活与硬件的高效有机结合,承载网络、存储及虚拟化设备管理,在释放 CPU 资源的同时,HyperCard 基于硬件卸载技术全面加速 IO 性能,实现了虚拟 IO“零”损耗,突破了传统技术架构性能极限。
移动云同时着手构建 DPU 的软硬件生态系统,通过算力卸载/算力解耦/无损网络三大关键技术,实现以 DPU 为中心的计算、网络、存储的云化加速,规范 xPU 异构硬件接入标准,统一算力 API,构建高性能云化基础设施生态关键底座。
打造磐石算力架构:结合 HyperCard DPU 与定制化磐石服务器,实现对 HyperCardDPU 的全生命周期管理和最优适配,为“大云”的裸金属、云主机、容器等算力载体提供统一的算力底座
打造 COCA(Compute On Chip Architecture)算力框架:构建算力的标准化接入生态,构建算力与应用间的灵活接入介质,未来做到包括自有 HyperCard 在内的业界 DPU 硬件在数据中心的即插即用。
2022 年阿里云峰会上,阿里云正式发布了云基础设施处理器 CIPU,CIPU 的前身是MoC 卡 (Micro Server on a Card),MoC 卡是神龙架构的灵魂所在。MoC 卡拥有独立的I/O、存储和处理单元,承担了网络、存储和设备虚拟化的工作。
第一代和第二代 MoC 卡解决了狭义上的计算虚拟化零开销的问题,网络和存储部分的虚拟化仍由软件实现。第三代MoC 卡实现了部分网络转发功能硬化,网络性能大幅提升。第四代 MoC 卡实现了网络、存储全硬件卸载,还支持了 RDMA 能力。
云豹智能是一家专注于云计算和数据中心数据处理器芯片(DPU)和解决方案的领先半导体公司。云豹智能 DPU SoC 是国内第一颗通用可编程 DPU 芯片,具备丰富的可编程性和完备的 DPU 功能,支持不同云计算场景和资源统一管理,优化数据中心计算资源利用率。
云豹智能 DPU SoC 提供最高 2*200G 网络连接,搭载性能强劲的通用 CPU 处理单元,满足云基础设施层业务的卸载需求。云豹智能 DPU SoC 还配备众多的硬件处理引擎,实现网络、存储和安全的全面加速,具体情况如下:
云豹智能DPU SoC支持裸金属、虚拟化和容器统一运维和管控,提供弹性网络和存储、虚拟化管理和安全等一站式解决方案,极大地提升云服务商的服务质量和业务灵活性,降低整体投入,引领数据中心新趋势。
云豹智能提供完整的软件开发平台,可以在云豹智能 DPU SoC 上开发网络、存储、安全和管控等应用。云豹智能软件开发平台全部采用数据中心主流的开源及标准化组件和接口,使得数据中心业务能够平滑迁移到云豹智能 DPU SoC 上。
纵观 DPU 在国内外数据中心应用中的发展历程,我们可以看到数据中心在商业化落地过程中面临着严峻的挑战,重点体现在以下几方面:
3、数据中心需要对计算、网络和存储资源进行统一智能管控
为了应对这些挑战,我们必须重新审视 DPU 架构应该具备哪些特性,以满足未来数据中心的发展需要。
微信扫码关注该文公众号作者