Redian新闻
>
昇腾AI全栈框架深度介绍

昇腾AI全栈框架深度介绍

公众号新闻

不同于传统的支持通用计算的CPU和GPU,也不同于专用于某种特定算法的专用芯片ASIC,达芬奇架构本质上是为了适应某个特定领域中的常见的应用和算法,通常称之为“特定域架构(Domain Specific Architecture,DSA)”芯片。昇腾AI芯片的计算核心主要由AI Core构成,负责执行标量、向量和张量相关的计算密集型算子。
下载链接:
华为盘古大模型研究:盘古开天,AI落地
以昇思为基,盘古生态引领中国AI未来
华为盘古、昇思、昇腾三箭齐发,GPT-4推动垂直应用颠覆式创新
《机器视觉领域SAM合集》
1、SAM,机器视觉领域的ChatGPT
2、解锁视觉区:MetaAI图像分割基础模型SAM
3、Meta推出SAM模型,机器视觉里程碑
从硬件、算法、应用角度看ChatGPT浪潮引领AIGC革新机遇
OpenAI发布GPT-4,人工智能未来将至
深度:ChatGPT认知白皮书(2023)
《GPT-4技术及报告合集》
1、GPT-4震撼发布,AI算法之巅
2、OpenAI发布GPT-4,大模型发展进入新的里程碑
3、OpenAI:GPT-4技术报告

《221份重磅ChatGPT专业报告》

1. 昇腾AI全栈架构

1.1 昇腾AI全栈的四个大部分

  1. 应用使能层面,此层面通常包含用于部署模型的软硬件,例如API、SDK、部署平台,模型库等等。
  2. AI框架层面,此层面包含用于构建模型的训练框架,例如华为的MindSpore、TensorFlow、Pytorch等。
  3. 异构计算架构,偏底层、偏通用的计算框架,用于针对上层AI框架的调用进行加速,力求向上支持多种AI框架,并在硬件上进行加速。
  4. 计算硬件,本层是AI计算的底座,有了强力的芯片及硬件设备,上层的加速才有实施的基础。

2. 异构计算架构 CANN

2.1 CANN 抽象的五层架构

面向计算机视觉、自然语言处理、推荐系统、类机器人等领域量身打造了基于“达芬奇(DaVinci)架构”的昇腾(Ascend)AI处理器,开启了智能之旅。为提升用户开发效率和释放昇腾AI处理器澎湃算力,同步推出针对AI场景的异构计算架构CANN(Compute Architecture for Neural Networks),CANN通过提供多层次的编程接口,以全场景、低门槛、高性能的优势,支持用户快速构建基于Ascend平台的AI应用和业务。
昇腾AI异构计算架构(Compute Architecture for Neural Networks,CANN)被抽象成五层架构,如下图所示。
1.  昇腾计算语言接口
昇腾计算语言(Ascend Computing Language,AscendCL)接口是昇腾计算开放编程框架,是对低层昇腾计算服务接口的封装。它提供Device(设备)管理、Context(上下文)管理、Stream(流)管理、内存管理、模型加载与执行、算子加载与执行、媒体数据处理、Graph(图)管理等API库,供用户开发人工智能应用调用。
2.  昇腾计算服务层
本层主要提供昇腾计算库,例如神经网络(Neural Network,NN)库、线性代数计算库(Basic Linear Algebra Subprograms,BLAS)等;昇腾计算调优引擎库,例如算子调优、子图调优、梯度调优、模型压缩以及AI框架适配器。
3.  昇腾计算编译引擎
本层主要提供图编译器(Graph Compiler)和TBE(Tensor Boost Engine)算子开发支持。前者将用户输入中间表达(Intermediate Representation,IR)的计算图编译成NPU运行的模型。后者提供用户开发自定义算子所需的工具。
4.  昇腾计算执行引擎
本层负责模型和算子的执行,提供如运行时(Runtime)库(执行内存分配、模型管理、数据收发等)、图执行器(Graph Executor)、数字视觉预处理(Digital Vision Pre-Processing,DVPP)、人工智能预处理(Artificial Intelligence Pre-Processing,AIPP)、华为集合通信库(Huawei Collective Communication Library,HCCL)等功能单元。
5.  昇腾计算基础层
本层主要为其上各层提供基础服务,如共享虚拟内存(Shared Virtual Memory,SVM)、设备虚拟化(Virtual Machine,VM)、主机-设备通信(Host Device Communication,HDC)等。

2.2 CANN 的三层逻辑架构

1. 应用层

包括基于 Ascend 平台开发的各种应用,以及 Ascend 提供给用户进行算法开发、调优的应用类工具。
1. 推理应用
基于 AscendCL 提供的 API 构建推理应用
2. AI 框架
包括 TensorFlow、Caffe、MindSpore 以及第三方框架
3. 模型小型化工具
实现对模型进行量化,加速模型
4. AutoML 工具
基于 MindSpore 自动学习工具,根据昇腾芯片特点进行搜索生成亲和性网络,充分发挥昇腾性能
5. 加速库
基于 AscendCL 构建的加速库(当前支持 Blas 加速库)
6. MindStudio
提供给开发者的集成开发环境和调试工具,可以通过MindStudio进行离线模型转换、离线推理算法应用开发调试、算法调试、自定义算子开发和调试、日志查看、性能调优、系统故障查看等

2. 芯片使能层

实现解决方案对外能力开放,以及基于计算图的业务流的控制和运行。
1. AscendCL 昇腾计算语言库
开放编程框架,提供 Device/Context/Stream/ 内存等的管理、模型及算子的加载与执行、媒体数据处理、Graph 管理等 API 库,供用户开发深度神经网络应用。
2. 图优化和编译
统一的 IR 接口对接不同前端,支持 TensorFlow/Caffe/MindSpore 表达的计算图的解析/优化/编译,提供对后端计算引擎最优化部署能力
  • Graph Engine:图编译和运行的控制中心
  • Fusion Engine:管理算子融合规则
  • AICPU Engine:AICPU 算子信息管理
  • HCCL:HCCL 算子信息管理
3. 算子编译和算子库
  • TBE:编译生成算子及算子开发工具
  • 算子库:神经网络加速库
4. 数字视觉预处理
实现视频编解码(VENC/VDEC)、JPEG 编解码(JPEG/E)、PNG 解码(PNGD)、VPC(预处理)
5. 执行引擎
  • Runtime:为神经网络的任务分配提供资源管理通道
  • Task Scheduler:计算图 Task 序列的管理和调度、执行

3. 计算资源层

主要实现系统对数据的处理和对数据的运算执行。
1. 计算设备
  • AI Core:执行 NN 类算子
  • AI CPU:执行 CPU 算子
  • DVPP:视频/图像编解码、预处理
2. 通信链路
  • PCIe:芯片间或芯片与 CPU 间高速互联
  • HCCS:实现芯片间缓存一致性功能
  • RoCE:实现芯片内存 RDMA 功能

3. 昇腾计算语言接口 AscendCL

3.1 AscendCL 简介

AscendCL(Ascend Computing Language,昇腾计算语言)是昇腾计算开放编程框架,是对底层昇腾计算服务接口的封装,它提供运行时资源(例如设备、内存等)管理、模型加载与执行、算子加载与执行、图片数据编解码/裁剪/缩放处理等API库,实现在昇腾CANN平台上进行深度学习推理计算、图形图像预处理、单算子加速计算等能力。简单来说,就是统一的API框架,实现对所有资源的调用。

3.2 AscendCL 的优势

1.  高度抽象:算子编译、加载、执行的API归一,相比每个算子一个API,AscendCL大幅减少API数量,降低复杂度。
2.  向后兼容:AscendCL具备向后兼容,确保软件升级后,基于旧版本编译的程序依然可以在新版本上运行。
3.  零感知芯片:一套AscendCL接口可以实现应用代码统一,多款昇腾处理器无差异。

3.3 AscendCL 的主要应用场景

1.  开发应用:用户可以直接调用AscendCL提供的接口开发图片分类应用、目标识别应用等。
2.  供第三方框架调用:用户可以通过第三方框架调用AscendCL接口,以便使用昇腾AI处理器的计算能力。
3.  供第三方开发lib库:用户还可以使用AscendCL封装实现第三方lib库,以便提供昇腾AI处理器的运行管理、资源管理等能力。

3.4 AscendCL 的分层能力开放

AscendCL 提供的是分层开放能力的管控,通过不同的组件对不同的使能部件进行对接。包含 GE 能力开放、算
子能力开放、Runtime 能力开放、Driver 能力开放等。
  • 模型加载能力开放:处理om模型加载,但接口的开放是通过AscendCL。
  • 算子能力开放:算子能力实现在CANN中,但算子能力开放是通过AscendCL。
  • Runtime 能力开放:处理基于stream的设备能力、内存、event等资源能力开发诉求,对app屏蔽底层实现。
文章来源:https://bbs.huaweicloud.com/blogs/364969
下载内容:
2023半导体与集成电路产业发展专题报告
深度学习革命:从历史到未来
2023中国半导体IP行业研究报告终版
中国半导体IC研发制造数智化服务商研究报告
《人工智能领域技术及方案实践》
《清华大学:AI大模型分析与思考合集》
1、ChatGLM:从千亿到开源的一点思考(2023)
2、从千亿模型到ChatGPT的一点思考(2023)
人工智能之火点燃算力需求,AI服务器市场拆解
人工智能:史上最伟大的科技革命
AI大模型在自动驾驶中应用(2023)

算力铸就大模型:超算、智算及数据中心行业报告(2023)

《2023年高性能计算研讨合集(上)》

《2023年高性能计算研讨合集(下)》

《AI基础知识深度专题详解合集》


或者获取全店资料打包,后续免费获取全店所有新增和更新。

全店铺技术资料打包(全)



转载申明:转载本号文章请注明作者来源,本号发布文章若存在版权等问题,请留言联系处理,谢谢。

推荐阅读

全店内容持续更新,现下单“架构师技术全店资料打包汇总(全)”,后续可享全店内容更新“免费”赠阅,价格仅收198元(原总价350元)。



温馨提示:

扫描二维码关注公众号,点击阅读原文链接获取“IT技术全店资料打包汇总(全)电子书资料详情


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
佛教修行的框架图 | 十、修行的框架人才缺口巨大 | 云计算全栈求职1V1定制计划随时开课!啊,白石洲(2)——来自深圳的报告文学日程框架发布!相约CHINA VALVE(HANGZHOU)2023,共瓣膜,再盛会!全职招聘 | BlackRock -「全栈和后端Java软件工程师(全职)」招聘阿里云蒋林泉:aliyun.com全面升级、飞天免费试用计划发布、全栈Serverless化Go 语言体系下的微服务框架选型: Dubbo-go马斯克等人热捧:高薪缺人,但要懂全栈懂LLM,一个全新职业正在兴起!【JFO】2023 JFO夏季招新 | 总介绍 & 部门介绍 | 六一快乐!又一家车企陷「软件门」僵局,全栈自研成「疑难杂症」​ICCV 2023 | 华科大提出NVDS:即插即用的视频深度预测框架开放心态,拓展职业生涯:建议年轻人尝试兼职大模型淘金热,昇腾AI的守正和开放最完整医药行业研究框架(从未如此详尽)人工智能系列深度报告:计算机视觉行业框架—AI之眼,初启商业飞轮 | 国海全球科技华为AI盘古大模型研究框架(2023)一键生成NPC!燧原全栈MaaS平台首亮相,自研算力底座,重塑AIGC新生态工信部:构建从智能芯片到算法框架到大模型的全栈式人工智能产业链支付宝定时任务怎么做?三层分发任务处理框架介绍一万亿参数,512个昇腾910训练,华为PanGu-Σ大模型来了台积电深度披露2nm,,介绍3nm的演进波士顿科学与先瑞达医疗签署合作框架协议及服务框架协议解锁生成式 AI 潜力:NVIDIA 全栈智能网络技术支撑数据中心的进化Next.js + Rust 革新全栈开发,Rust没那么难华为宣布昇腾AI集群升级 推出首个万卡AI集群认准“鲲鹏+昇腾”这条路,欲与“天宫”试比高「深度智控」获数亿元A轮及A+轮融资,打造新一代深度节能智控产品与解决方案|36氪首发作为部门的前端“独苗”,我的钉钉全栈化实践总结【好声音】赛制介绍+第一轮歌曲+串场节目介绍20亿元项目“落子”杭州,这家企业加速全栈智驾平台规模化交付AI根技术原力爆发,昇腾AI全栈能力赋能产业智能升级戆人有戆福:一辈子住在大学校园再说尼采阿里首提前向训练框架:让大模型深度思考,可快速定制专属模型我与爱情有个约——变了味儿的爱情
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。