- 存储技术未来演进:NVMe over Fabrics (NVMeoF)
众所周知,NVMe 是一个逻辑设备接口规范,NVM代表非易失性存储器(Non-Volatile Memory)的首字母缩略字,是固态硬盘(SSD)的常见的闪存形式。SSD 通常分为两类接口:SATA 和 NVMe。在需要兼容旧组件且性能不是首要考虑因素时,SATA 接口在新一代驱动器中依然可用。SA
- DPU硬件标准化思考与探索
DPU是继CPU、GPU之后的数据中心第三颗大芯片,本质是围绕数据处理提供网络、存储、安全、管理等数据中心基础设施虚拟化能力的专用处理器。DPU以数据为中心构建敏捷、灵活、高效的算力基础设施底座,实现极低损耗、极强性能、极高灵活、极致安全,支撑中国移动算力网络多样化业务需求。在DPU裸金属服务器技术
- DPU技术的进步与未来创新
随着云计算和虚拟化技术的发展,网卡在功能和硬件结构方面也经历了四个阶段,即网卡、智能网卡、基于FPGA的DPU和DPU SoC网卡。本文将重点介绍这些不同类型的网络适配器和处理器,在硬件、可编程能力、开发和应用方面的特点。网卡的演进和应用传统的基本网卡,也被称为NIC或网络适配器,在计算机网络中的作
- 鲲鹏芯片及通用机密计算平台技术
可信计算,是一项由可信计算组推动和开发的技术,包括5大核心技术概念:认证密钥、安全输入输出、内存加密/受保护执行、封装存储、远程证明。可信计算更多地从系统设计角度出发。机密计算,云计算中的当前方法处理静态数据和传输中的数据,但对使用中的数据进行加密被认为是为敏感数据提供完全加密的生命周期的第三步,也
- 低空经济:eVTOL产业发展的5个核心问题
本文来自“低空经济系列:eVTOL 产业发展的 5 个核心问题”,在本篇报告我们重点聚焦 eVTOL 产业,针对五个核心问题展开讨论:1)适航取证之路;2)构型之争;3)动力系统;4)商业化路径;5)空管系统。低空经济相关技术资料全部上传至知识星球,加入全球政企解决方案(知识星球)下载海量行业方案资
- 百花齐放,AI杀手级别应用落地几何?
基建层:AI硬件及云服务。以 NVIDIA 为首的AI硬件算力进步使大模型的单次训练成本降至可以接受的1000万美元以下;同时以Azure为首的云服务厂商集成了算力资源和AI 建模的能力,也将成为基础设施的重要部分。模型层:AI模型及算法。以OpenAI为首的研究机构连续发布了文本、图片等多模态生成
- 一文读懂量子计算原理(2024)
量子计算有望成为解决AI算力瓶颈的颠覆性力量。与传统计算相比,量子计算能够带来更强的并行计算能力和更低的能耗,同时量子计算的运算能力根据量子比特数量指数级增长,在AI领域具有较大潜力。海外科技巨头带动量子计算产业发展,IBM、微软、谷歌等公司先后发布量子计算路线图,与此同时,国内量子计算产业与海外科
- 超万卡训练集群互联关键技术
随着大模型从千亿参数的自然语言模型向万亿参数的多模态模型升级演进,超万卡集群亟需全面提升底层计算能力。具体而言,包括增强单芯片能力、提升超节点计算能力、基于DPU(Data Processing Unit)实现多计算能力融合以及追求极致算力能效比。这些系统性的提升将共同支持更大规模的模型训练和推理任
- GPU服务器AI网络架构设计(下)
众所周知,在大型模型训练中,通常采用每台服务器配备多个GPU的集群架构。在上一篇文章《高性能GPU服务器AI网络架构(上篇)》中,我们对GPU网络中的核心术语与概念进行了详尽介绍。本文将进一步深入探讨常见的GPU系统架构。关于CPU、服务器和存储详细技术,请参考“下载提醒:服务器基础知识全解(终极版
- 为什么GPU对AI如此重要?
GPU在人工智能中相当于稀土金属,甚至黄金,它们在当今生成式人工智能时代中的作用不可或缺。那么,为什么GPU在人工智能发展中如此重要呢?相关阅读:初识RDMA网络传输技术InfiniBand,撼动不了以太网?英伟达Quantum-2 Infiniband平台技术A&Q一颗Jericho3-AI芯片,
- GPU服务器AI网络架构设计(上)
在大规模模型训练的领域中,构建高性能GPU服务器的基础架构通常依托于由单个服务器搭载8块GPU单元所组成的集群系统。这些服务器内部配置了如A100、A800、H100或H800等高性能GPU型号,并且随着技术发展,未来可能还会整合{4, 8} L40S等新型号GPU。下图展示了一个典型的配备了8块A
- 数据中心网络架构设计与挑战
一、数据中心网络架构设计原则 网络是数据中心的最重要组成部分,主要由大量的二层接入设备和少量的三层设备组成的网络结构。以前,数据中心的网络规模普遍不大,网络通过数十台设备简单互连就可达到互联互通的目的。而现在,数据中心对网络的要求越来越高,为了满足各种应用,网络架构也需要及时调整,网络架
- 智算中心改造:网络成大模型训练瓶颈,节点内外多架构并存
本文来自“新型智算中心改造:网络成大模型训练瓶颈,节点内外多方案并存”。AI大模型训练和推理拉动智能算力需求快速增长。a)模型迭代和数量增长拉动AI算力需求增长:从单个模型来看,模型能力持续提升依赖于更大的训练数据量和模型参数量,对应更高的算力需求;从模型的数量来看,模型种类多样化(文生图、文生视频
- 多元CPU性能调优技术挑战、产品设计和业务实践
服务器CPU近几年呈现多元化发展趋势,AMD和ARM以多核、低功耗、先进制程工艺等优势相继异军突起。之前Intel一家独大,无挑战者,“挤牙膏”策略,CPU性能增长缓慢。AMD异军突起, Zen core+多die架构+先进工艺,CPU性能大幅提升,ARM崭露头角,全新core+多核+低功耗优势,成
- 高性能计算中的RoCE技术洞察
在高性能计算(HPC)系统的发展初期,通常选择专业网络解决方案,如Myrinet、Quadrics和InfiniBand,而不是以太网解决方案。通过定制网络方案可以有效解决以太网解决方案的限制,增强带宽、降低延迟、改善拥塞控制。2010年,IBTA推出了RoCE协议技术标准,随后于2014年发布了R
- AI算力产业链及竞争格局分析
本文来自“人工智能点燃算力需求,AI服务器迎来机遇”,Open AI的大型语言生成模型ChatGPT火热,它能胜任刷高情商对话、生成代码、构思剧本和小说等多个场景,将人机对话推向新的高度。全球各大科技企业都在积极拥抱AIGC,不断推出相关技术、平台和应用。1、AIGC火热,产业生态形成生成算法、预训
- 算力专题:GPU芯片解析
虽然Al芯片目前看有SPU、ASIC、CPU、FPSA等几大类,但是基于几点原因我们判断GPU仍将是训练模型的主流硬件:1、Transformer架构是最近几年的主流,该架构最大的特点之一就是能够利用分布式BPU进行并行训练,提升模型训练效率;2、ASIC的算力与功耗虽然看似有优势,但考虑到AI算
- 一文掌握智算网络负载均衡技术
随着AI技术的发展,各种新型智能应用爆发,以AI为特征的智能算力发展速度远超通用算力,据IDC预测,未来5年,我国智能算力规模的年复合增长率将达50%以上,数据中心的算力时代已经到来。层出不求的需求也对数据中心网络或智算网络提出了更高的要求,需要更大的规模、更大的带宽、更低的时延和更可靠的网络。相关
- 关于InfiniBand的技术问答
随着大数据和人工智能技术的进步,对高性能计算的需求不断增长。为了满足这一需求,英伟达(NVIDIA)Quantum-2 InfiniBand平台为用户提供了卓越的分布式计算性能,实现高速和低延迟的数据传输和处理能力。相关链接:英伟达InfiniBand:面向AIGC的技术优势分析大模型时代,交换机技
- 英伟达InfiniBand:面向AIGC的技术优势分析
在AIGC的训练场景,基本上不差钱的客户都会首选InfiniBand,作为跨AI服务器节点的网络组网方案,今天我们就来讲一讲InfiniBand到底有那些针对AIGC场景的技术优化:相关阅读:InfiniBand,撼动不了以太网?英伟达Quantum-2 Infiniband平台技术A&Q一颗Je