Redian新闻
>
开始使用Poplar Triton后端

开始使用Poplar Triton后端

公众号新闻

随着Graphcore拟未Poplar SDK 3.0的发布,在其Poplar Triton后端库的支持下,开发人员现可在使用IPU时,利用开源的NVIDIA Triton推理服务器。


NVIDIA Triton™推理服务器被广泛用于在生产环境中简化训练过的和微调过的模型的部署、运行和缩放。它提供针对多种类型硬件优化的云和边缘推理解决方案[1],并可以提供高吞吐和低时延。


部署使用Poplar Triton后端的模型


在本文中,我们将介绍准备环境、启动服务器、准备模型,以及向服务器发送一个样本查询的过程。


请注意,以下的示例基于使用用于IPU的PyTorch编写的模型。该工具被称为PopTorch,是PyTorch的一组扩展,使PyTorch模型能够直接在拟未硬件上运行。


PopTorch的设计旨在使您的模型能够以尽可能少的改动在IPU上运行。更多关于PopTorch的信息,请参阅拟未网站中的文档部分[a]


设置环境


用户需要能够获取Poplar Triton后端,以使用搭载了拟未IPU的NVIDIA Triton™推理服务器。Poplar Triton后端是Poplar SDK的一部分,您可以从拟未软件门户[b]中进行下载。新用户可以参阅入门指南[c]


准备模型

部署需要一个已保存的、经过训练的模型。在这个例子中,我们将使用拟未教程库[d]中的一个简单的mnist[e]分类模型。


以下为训练、验证和保存模型所需的步骤,之后会被用来展示部署过程:


  1. 启用安装了PopTorch的Poplar SDK

  2. 用位于mnist教程中的要求文件运行命令:

    python3 -m pip install -r requirements.txt

  3. 在“mnist_poptorch.py”脚本末尾添加一行:

    inference_model.save("executable.popef")

  4. 运行带有以下指令的脚本:

    python3 mnist_poptorch.py --test-batch-size 1


该操作是在IPU上使用PopTorch API训练和验证模型,并保存为executable.popef文件,供Poplar Triton后端之后使用。有关PopEF扩展的更多信息,请参阅用户指南[f]


模型库准备


现在,模型和其配置已经就绪,是时候准备模型库和全局后台目录了(这样做的理由请见[g]NVIDIA Triton™推理服务器文档)。


我们需要创建一个如下图所示的服务器可读的目录结构。这将是我们的模型库。刚刚生成的executable.popef文件部分非常重要。name_map.json和config.pbtxt文件的描述将在下面几段介绍。



模型的输入和输出的名称,有时候对于用户来说并不友好。有时它们还包含NVIDIA Triton™推理服务器不接受的特殊字符。name_map.json支持您重新映射这些名称。这要求您知道要重新映射的名称。为此,您可以使用工具popef_dump[h],它可以检查PopEF文件结构和元数据。


$ popef_dump --user-anchors executable.popef

PopEF file: executable.popef
Anchors:
  Inputs (User-provided):
    Name: "input":
      TensorInfo: { dtype: F32, sizeInBytes: 3136, shape [1, 1, 28, 28] }
      Programs: [5]
      Handle: h2d_input
      IsPerReplica: False
  Outputs (User-provided):
    Name: "softmax/Softmax:0":
      TensorInfo: { dtype: F32, sizeInBytes: 40, shape [1, 10] }
      Programs: [5]
      Handle: anchor_d2h_softmax/Softmax:0
      IsPerReplica: False


输入和输出的名称是“输入”和“softmax/Softmax:0”。该minist模型将一张手写数字的图片作为输入,并产生哪个数字代表该图片的答案。因此,digit_image和output_labels这两个名字更合适,并且不包含任何不可接受的特殊字符。下面是name_map.json文件的内容。


要在硬件上正确地运行该模型,该服务器必须具备模型和配置的具体信息。Triton推理服务器的GitHub[i]中描述了需要这样做的原因以及各种可能性。


有许多选项可以确保模型的执行适合于我们的应用。在这种情况下,我们只想运行一个查询并得到结果,因此我们需要一个尽可能小、尽可能简单的配置。要做到这一点,我们必须指定平台和/或后端属性、max_batch_size属性以及模型的输入和输出[3]。


我们使用一个将在下一节创建的外部后端,称作“poplar”。因此,这个名字必须出现在配置文件中。


max_batch_size属性表示对于Triton可以使用的批处理类型来说,模型可以支持的最大批尺寸[4]。我们的模型是为一个批次而编译的,而且我们不打算向Triton发送多个请求,因此我们可以把这个值设置为1。


输入和输出的数据类型和大小可以通过前面提到的popef_dump工具找到。数据类型必须与popef定义的相同,但也必须以Triton服务器接受的命名法来指定。


另一个重要的问题是张量的形状。工具显示的维度的第一个值是batch_size,所以在配置文件中进行指定时应该省略这个值。如果张量被指定,则张量的名称应该从popef_dump显示的信息或文件name_map.json中改写。下面是我们将在示例中使用的配置文件的内容。


后台目录准备


模型和其配置已经就绪。现在,应该准备服务器在执行客户端应用程序发送的查询时要参考的地方了。毕竟,必须有人将模型加载到硬件上,使用客户端发送的数据运行它,并返回硬件计算的结果。Poplar Triton后端将负责这项工作。为此,我们需要创建如下所示的目录结构。



设置推理服务器


一旦您获取并启用了Poplar SDK,请下载Dockerfile[j],这将支持您创建一个配置了Triton推理服务器的容器。然后,请在终端运行以下命令。请注意,您在挂载目录时应能访问后端目录和模型库(-v option)。


现在,一切都已经就绪,您已经准备好启动服务器了。


执行下面的指令后,服务器将监听来自客户端应用程序的任何传入请求。


tritonserver \

  --model-repository <your_path_to_models_repository> \

  --backend-directory <your_path_to_backend_directory>


For example:


tritonserver \

  --model-repository /mnt/host/models \

  --backend-directory /mnt/host/backends



启动服务器后,监听请求的服务器的地址和端口信息将显示在终端上。我们需要该信息从客户端应用程序发送查询。


tritonserver应用程序的输出示例结束:


Started GRPCInferenceService at 0.0.0.0:8001
SessionRunThread: thread initialised


客户程序准备


请求的第一步是准备要处理的输入数据。图片可以从位于torchvision.datasets[k]模块中的公开来源下载(我们的教程中提供了示例)。我们的mnist[l]使用该数据集作为训练和验证步骤的数据源。下面的例子使用了这个数据集中的一些图像,您可以在此下载[m]这些图像。每张图片的名称与图片中出现的数字相对应。这些图片:



下一步是准备一个脚本,将img文件夹中准备好的图片发送到服务器上,服务器一直在持续监听上一节中提到的地址和端口。请注意,下面的脚本假定您已经安装了几个模块:


  1. Numpy[n]

  2. Pillow[o]

  3. Torchvision[p]

  4. Tritonclient[q]


下方的脚本分为几个部分:与服务器建立连接、用预处理准备输入数据、发送和接收数据、对输出数据进行后处理、显示结果。


假设client.py包含上述脚本,在img目录下有本节开头提到的一组图片,服务器正在等待传入的请求,上述脚本的结果如下:


$ python3 client.py


Predicted digit for file "0.png": 0

Predicted digit for file "1.png": 1

Predicted digit for file "2.png": 2

Predicted digit for file "3.png": 3

Predicted digit for file "4.png": 4

Predicted digit for file "5.png": 5

Predicted digit for file "6.png": 6

Predicted digit for file "7.png": 7

Predicted digit for file "8.png": 8

Predicted digit for file "9.png": 9


总结


除了展示Triton后端的工作,我们也希望本文能让您感受到,IPU的使用不仅限于训练,它的可能性中还在不断扩展。这一点也反映在了《开始使用用于IPU的TensorFlow Serving》中。


在我们公开的示例中,您可以在卷积神经网络[r]和自然语言处理[s]系列模型中,找到配合使用NVIDIA Triton™推理服务器和IPU的示例。这两种示例的通用源代码请见utils[t]目录。全部示例请见我们的github[u]账户。


如果您想进一步了解我们的工具所提供的可能性,您可以参阅以下文档:


  • Poplar交换格式(PopEF)[v]:用于导出和导入模型的通用文件格式。

  • 模型运行时[w]:可以轻松加载和运行以PopEF格式存储的模型的库。供Poplar Triton后端使用。

  • Poplar Triton后端[x]:如本文所简述。

  • 用于TensorFlow 1的TensorFlow Serving[y]和用于TensorFlow 2的TensorFlow Serving[z]


参考资料


[1]https://github.com/triton-inference-server

[2]https://developer.nvidia.com/nvidia-triton-inference-server

[3]https://github.com/triton-inference-server/server/blob/main/docs/user_guide/model_configuration.md#minimal-model-configuration

[4]https://github.com/triton-inference-server/server/blob/main/docs/user_guide/model_configuration.md#maximum-batch-size


[a]https://docs.graphcore.ai/projects/poptorch-user-guide/en/latest/intro.html

[b]https://login.graphcore.ai/

[c]https://docs.graphcore.ai/en/latest/getting-started.html

[d]https://github.com/graphcore/tutorials/tree/master/simple_applications/pytorch/mnist

[e]https://github.com/graphcore/tutorials

[f]https://docs.graphcore.ai/projects/popef/en/latest/index.html

[g]https://github.com/triton-inference-server/backend#backend-shared-library

[h]https://docs.graphcore.ai/projects/popef/en/latest/popef_file_format.html#popef-file-analysis

[i]https://github.com/triton-inference-server/server/blob/main/docs/user_guide/model_configuration.md#model-configuration

[j]https://gist.github.com/kamil-andrzejewski/2dd5d9434f559fa7a5312fe832807c4e

[k]https://pytorch.org/vision/stable/datasets.html

[l]https://github.com/graphcore/tutorials/tree/master/simple_applications/pytorch/mnist

[m]https://www.graphcore.ai/hubfs/Developer%20files%20from%20blogs/img.zip

[n]https://numpy.org/doc/stable/index.html

[o]https://pillow.readthedocs.io/en/stable/

[p]https://pytorch.org/vision/stable/index.html

[q]https://github.com/triton-inference-server/client

[r]https://github.com/graphcore/examples/tree/master/vision/cnns/pytorch/tests_serial

[s]https://github.com/graphcore/examples/tree/master/nlp/bert/pytorch/tests_serial

[t]https://github.com/graphcore/examples/tree/master/utils/triton_server

[u]https://github.com/graphcore

[v]https://docs.graphcore.ai/projects/popef/en/latest/introduction.html

[w]https://docs.graphcore.ai/projects/model-runtime/en/latest/introduction.html

[x]https://docs.graphcore.ai/projects/poplar-triton-backend/en/latest/introduction.html

[y]https://docs.graphcore.ai/projects/tensorflow-serving1/en/latest/intro.html

[z]https://docs.graphcore.ai/projects/tensorflow-serving2/en/latest/intro.html


本篇博客作者:

Kamil Andrzejewski





获取更多Graphcore资讯,阅读深度技术文章,并与其他创新者们一起交流,请至中国官网graphcore.cn,以及关注Graphcore微信、微博和知乎创新社区。

Graphcore中国官网

Graphcore官方微信

Graphcore微博创新社区

Graphcore知乎创新社区


点击阅读原文,查看英文blog。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Rather than后面要用doing还是do?AMINO十月新鲜事:全球独角兽Top100 AMINO投中三席、WeTravel与Trash Warrior获新一轮融资国庆出游照片全被路人抢镜?教你用PS三分钟去除多余的路人!趣图:后端开发者尝试 CSS 是什么样的体验上海交通大学招聘设备后端工程师[掌设] 真的Ultra吗?苍岭风Apple Watch Ultra开箱体验Corsair HX1000 1000W 80 Plus Platinum Modular Power Supply“通俄门”调查司法部不起诉川普备忘录全文公布,“支持了一个令人不寒而栗的结论”把这组大片zoom in后,我们总算知道JLo为什么一直状态在线了皓元医药2022年三季报点评:Q3业绩短期承压,长期看好公司前后端业务【东吴医药朱国广团队】我在加国摆摊记(上)娱乐消费更贵了,苹果将在加拿大提高 Apple Music 和 Apple TV Plus 的价格没用Pandas快捷方法,硬核编程的我面试被拒EPIC-STEMI试验结果发布,早期应用PCSK9抑制剂可降低STEMI患者LDL-C水平开始使用用于IPU的TensorFlow ServingTreg的功能鉴定:构建Treg和Responder T共培养体系西行漫记 --- 从峡谷遥望大漠炸裂!今夜彻底无眠!IPO保荐新规重磅出台!IPO被否、IPO撤回、规避现场督导、现场检查IPO终止,保荐机构扣分Transformer检测神器!detrex:面向DETR系列的目标检测开源框架Google Pay 用Plaid连卡送$10!孩子用Pad到底多伤眼?花费小2万,我发现了防蓝光骗局With More People Getting Sick, China’s Restaurants Are Strugglin继PlayStation后,这位人工智能大师正在改造流行日本零食美股IPO|中国工作共享空间提供商 AgiiPlus 设定 3900 万美元美国 IPO 条款受不了Rust 这些问题,我将后端切换到了 Go【实操日记】使用PyQt5设计下载远程服务器日志文件程序推理速度数倍提升,大幅简化多GPU后端部署:Meta发布全新推理引擎AITemplate《西罗普郡一少年》: 26: 沿着田野我们走过​能让天津人放下煎饼馃子的,也就那碗捞(láo)面了!趣图:后端表示十分感谢Java 后端有哪些不用学的技术?劝退。。。《山居续忆》:附录一:徐礼耕先生之回忆: (二) 先父吉生公的青少年时期前端差VS后端差,哪个更糟?优秀后端都应该具备的开发好习惯![电脑] 我的家庭ALL IN ONE-R740XD·FTTR·AC+AP·iKuai·OpenWrt·Apple TV·鹤5
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。