Redian新闻
>
云原生 AI 工程化实践:FasterTransformer 加速 LLM 推理

云原生 AI 工程化实践:FasterTransformer 加速 LLM 推理

公众号新闻

背    景

OpenAI 在 3 月 15 日发布了备受瞩目的 GPT4,它在司法考试和程序编程领域的惊人表现让大家对大语言模型的热情达到了顶点。人们纷纷议论我们是否已经跨入通用人工智能的时代。与此同时,基于大语言模型的应用也如雨后春笋般出现,为我们带来了协同办公、客服对话、语言翻译、内容生成等方面前所未有的畅快体验。

然而,当我们享受着大语言模型带来的普惠 AI 能力时,它也给开发者们带来了前所未有的挑战。随着模型不断增大,计算量也达到了空前的高度,直接导致推理时间变长。为了解决大语言模型推理的延迟问题,业界已经提供了一些解决方案,比如 Tensorrt、FasterTransformer 和 vllm。为了帮助用户解决云原生系统中的大语言模型推理加速问题,云原生 AI 套件引入了 FasterTransformer 推理加速方案。

本文将在 ACK 容器服务上,以 Bloom7B1 模型为例展示如何使用 FasterTransformer 进行推理加速。本例中会使用以下组件:

  • Arena:Arena 是基于 Kubernetes 的机器学习轻量级解决方案,支持数据准备、模型开发,模型训练、模型预测的完整生命周期,提升数据科学家工作效率。同时和阿里云的基础云服务深度集成,支持 GPU 共享、CPFS 等服务,可以运行阿里云优化的深度学习框架,最大化使用阿里云异构设备的性能和成本的效益。更多 arena 信息,可以参考云原生 AI 套件开发者使用指南

  • Triton Server:Triton Server 为 Nvidia 提供了机器学习推理引擎,可以支持 Tensorflow、Pytorch、Tensorrt 和 Fastertransformer 多种 backend。云原生 AI 套件已经将 Triton Server 加入到 Arena 中,用户可以通过简单的命令行或 SDK 来在云原生系统中完成 Triton Server 服务的拉起、运维和监控。更多 AI 套件中使用 Triton Server 信息,可以参考部署 PyTorch 模型推理服务

  • FasterTransformer:FasterTransformer 是真对于 Transofrmer 类型模型(也包括 encoder-only、decoder-only)的推理加速方案,其提供了 Kernel Fuse、Memory reuse、kv cache、量化等多种优化方案,同时也提供了 Tensor Parallel 和 Pipeline Parallel 两种分布式推理方案。本文将介绍如何在云原生 AI 套件中使用 FasterTransformer 进行模型的推理加速。

环境准备

环境准备分为两个部分,第一个部分是创建包含 GPU 的 Kubernetes 集群和安装云原生 AI 套件,第二个部分是从 huggingface 官网下载 bloom-7b1 模型。

模型的下载命令如下:

git lfs installgit clone git@hf.co:bigscience/bloom-7b1

通过上面的命令,可以将 huggingface repo 中的文件下载到本地。

下载完成后,我们将 bloom-71 文件夹上传到 OSS 中,作为推理时的共享存储,OSS 的使用可以参考开始使用 OSS。

上传到 OSS 之后,分别创建名称为 bloom7b1-pv 和 bloom7b1-pvc 的 PV 和 PVC,以用于推理服务的容器挂载。具体操作,请参见使用 OSS 静态存储卷。

模型转换

FasterTransformer 本质上是对模型的重写,它通过 CUDA、cuDNN 和 cuBLAS 重写了 Transformer 模型结构,因此其具有自己的模型结构和模型参数的描述方式。而我们的模型一般是通过 Pytorch、Tesorflow、Megatron 或 huggingface 这样的训练框架产出,其往往又具有自己单独的一套模型结构和参数的表达,因此在使用 FasterTransformer 时,就需要将模型原有的 checkpoint 转换为 FasterTransformer 的结构。

FasterTransformer 中已经支持了多种类型的转换脚本,这里我们使用 FasterTransofrmer 提供的 examples/pytorch/gpt/utils/huggingface_bloom_convert.py。

云原生 AI 套件已经接入了上述的转换逻辑,因此,通过如下脚本即可完成一次模型的转换。

arena submit pytorchjob\  --gpus=1\  --image ai-studio-registry.cn-beijing.cr.aliyuncs.com/kube-ai/fastertransformer:torch-0.0.1\  --name convert-bloom\  --workers 1\  --namespace default-group\  --data bloom-pvc:/mnt\  'python  /FasterTransformer/examples/pytorch/gpt/utils/huggingface_bloom_convert.py -i /mnt/model/bloom-7b1 -o /mnt/model/bloom-7b1-ft-fp16 -tp 2  -dt fp16 -p 64 -v'

通过 arena log 来观察转换的日志

$arena logs -n default-group convert-bloom======================= Arguments ======================= - input_dir...........: /mnt/model/bloom-7b1 - output_dir..........: /mnt/model/bloom-7b1-ft-fp16 - tensor_para_size....: 2 - data_type...........: fp16 - processes...........: 64 - verbose.............: True - by_shard............: False=========================================================loading from pytorch bin formatmodel file num: 2 - model.pre_decoder_layernorm.bias................: shape (4096,)            | saved at /mnt/model/bloom-7b1-ft-fp16/2-gpu/model.pre_decoder_layernorm.bias.bin - model.layers.0.input_layernorm.weight...........: shape (4096,)            | saved at /mnt/model/bloom-7b1-ft-fp16/2-gpu/model.layers.0.input_layernorm.weight.bin - model.layers.0.attention.dense.bias.............: shape (4096,)            | saved at /mnt/model/bloom-7b1-ft-fp16/2-gpu/model.layers.0.attention.dense.bias.bin - model.layers.0.input_layernorm.bias.............: shape (4096,)            | saved at /mnt/model/bloom-7b1-ft-fp16/2-gpu/model.layers.0.input_layernorm.bias.bin - model.layers.0.attention.query_key_value.bias...: shape (3, 2048)        s | saved at /mnt/model/bloom-7b1-ft-fp16/2-gpu/model.layers.0.attention.query_key_value.bias.0.bin (0/2) - model.layers.0.post_attention_layernorm.weight..: shape (4096,)            | saved at /mnt/model/bloom-7b1-ft-fp16/2-gpu/model.layers.0.post_attention_layernorm.weight.bin - model.layers.0.post_attention_layernorm.bias....: shape (4096,)            | saved at /mnt/model/bloom-7b1-ft-fp16/2-gpu/model.layers.0.post_attention_layernorm.bias.bin - model.layers.0.mlp.dense_4h_to_h.bias...........: shape (4096,)            | saved at /mnt/model/bloom-7b1-ft-fp16/2-gpu/model.layers.0.mlp.dense_4h_to_h.bias.bin - model.layers.0.mlp.dense_h_to_4h.bias...........: shape (8192,)          s | saved at /mnt/model/bloom-7b1-ft-fp16/2-gpu/model.layers.0.mlp.dense_h_to_4h.bias.0.bin (0/2) - model.layers.0.attention.query_key_value.bias...: shape (3, 2048)        s | saved at /mnt/model/bloom-7b1-ft-fp16/2-gpu/model.layers.0.attention.query_key_value.bias.1.bin (1/2)

通过 arena list 命令查看转换是否执行结束

NAME           STATUS     TRAINER     DURATION  GPU(Requested)  GPU(Allocated)  NODEconvert-bloom  SUCCEEDED  PYTORCHJOB  3m        1               N/A             192.168.123.35

转换完成后,会在 OSS 上创建一个 model/arena/bloom-7b1-ft-fp16 文件夹,文件中会存储 FasterTransofrmer 所对应的 checkpoint

性能对比

此时,我们的 OSS 上已经有两份 bloom-7b1 checkpoint,一份是 bloom-7b 文件夹存储了 huggingface 原生的 checkpoint,另一份是 bloom-7b-ft-fp16 文件夹存储了转换后的 FasterTransformer 的 checkpoint。我们将使用这两份 checkpoint 进行性能对比,看一下来 FasterTransformer 是否能够带来性能的提升。

性能对比使用 Fastertransformer 提供的 examples/pytorch/gpt/bloom_lambada.py,我们也已经集成到了 AI 套件中。这里我们分别提交两个性能评测命令。

对 Huggingface Bloom-7b1 评测的命令

arena submit pytorchjob\  --gpus=2\  --image ai-studio-registry.cn-beijing.cr.aliyuncs.com/kube-ai/fastertransformer:torch-0.0.1\  --name perf-hf-bloom \  --workers 1\  --namespace default-group\  --data bloom7b1-pvc:/mnt\  'python /FasterTransformer/examples/pytorch/gpt/bloom_lambada.py \    --tokenizer-path /mnt/model/bloom-7b1 \    --dataset-path /mnt/data/lambada/lambada_test.jsonl \    --batch-size 16 \    --test-hf \    --show-progress'

查看 HuggingFace 的结果

$arena -n default-group logs -t 5 perf-hf-bloomAccuracy: 57.5587% (2966/5153) (elapsed time: 173.2149 sec)

对 Fastertransformer Blooom-7b 评测的命令

arena submit pytorchjob\  --gpus=2\  --image ai-studio-registry.cn-beijing.cr.aliyuncs.com/kube-ai/fastertransformer:torch-0.0.1\  --name perf-ft-bloom \  --workers 1\  --namespace default-group\  --data bloom7b1-pvc:/mnt\  'mpirun --allow-run-as-root -n 2 python /FasterTransformer/examples/pytorch/gpt/bloom_lambada.py \    --lib-path /FasterTransformer/build/lib/libth_transformer.so \    --checkpoint-path /mnt/model/2-gpu \    --batch-size 16 \    --tokenizer-path /mnt/model/bloom-7b1 \    --dataset-path /mnt/data/lambada/lambada_test.jsonl \    --show-progress'

查看 FasterTransformer 的结果,可以看见带来了 2.5 倍的性能提升。

$arena -n default-group logs -t 5 perf-ft-bloomAccuracy: 57.6363% (2970/5153) (elapsed time: 68.7818 sec)

通过结果对比可以看见,Fastertransformer 与原生的 Huggingface 相比有比较明显的性能提升

模型部署

在这一小节,我们使用 Triton Server 对 FasterTransformer 进行部署,Triton Server 中原生并不支持 FasterTransformer 的 backend,需要我们配合 Nvidia 提供的 Fastertransformer backend 来使用。通过使用 FasterTransformer backend, Triton Server 不再进行 GPU 资源的分配,FasterTransformer backend 会根据 CUDA_VISIBLE_DEVICES 判断当前可用 GPU 资源,并分配给对应的 RANK 来执行分布式的推理。

FasterTransformer 对应的模型 Repo 目录如下所示:

├── model_repo│   └── fastertransformer│       ├── 1│       │   └── config.ini│       └── config.pbtxt

使用功能 Arena 的如下命令来启动 FasterTransformer

arena serve triton \ --namespace=default-group \ --version=1 \ --data=bloom7b1-pvc:/mnt \ --name=ft-triton-bloom \ --allow-metrics \ --gpus=2 \ --replicas=1 \ --image=ai-studio-registry.cn-beijing.cr.aliyuncs.com/kube-ai/triton_with_ft:22.03-main-2edb257e-transformers \ --model-repository=/mnt/triton_repo

通过 kubectl logs,我们可以看到 triton server 的部署日志,通过日志可以看到,triton server 启动了两个 gpu 来进行分布式推理。

I0721 08:57:28.116291 1 pinned_memory_manager.cc:240] Pinned memory pool is created at '0x7fd264000000' with size 268435456I0721 08:57:28.118393 1 cuda_memory_manager.cc:105] CUDA memory pool is created on device 0 with size 67108864I0721 08:57:28.118403 1 cuda_memory_manager.cc:105] CUDA memory pool is created on device 1 with size 67108864I0721 08:57:28.443529 1 model_lifecycle.cc:459] loading: fastertransformer:1I0721 08:57:28.625253 1 libfastertransformer.cc:1828] TRITONBACKEND_Initialize: fastertransformerI0721 08:57:28.625307 1 libfastertransformer.cc:1838] Triton TRITONBACKEND API version: 1.10I0721 08:57:28.625315 1 libfastertransformer.cc:1844] 'fastertransformer' TRITONBACKEND API version: 1.10I0721 08:57:28.627137 1 libfastertransformer.cc:1876] TRITONBACKEND_ModelInitialize: fastertransformer (version 1)I0721 08:57:28.628304 1 libfastertransformer.cc:372] Instance group type: KIND_CPU count: 1I0721 08:57:28.628326 1 libfastertransformer.cc:402] Sequence Batching: disabledI0721 08:57:28.628334 1 libfastertransformer.cc:412] Dynamic Batching: disabledI0721 08:57:28.661657 1 libfastertransformer.cc:438] Before Loading Weights:+-------------------+-----------------------------------------------------------------------------+---------------------------------------------------------------------------------------------------------------------------------------------------------------+| Backend           | Path                                                                        | Config                                                                                                                                                        |+-------------------+-----------------------------------------------------------------------------+---------------------------------------------------------------------------------------------------------------------------------------------------------------+| fastertransformer | /opt/tritonserver/backends/fastertransformer/libtriton_fastertransformer.so | {"cmdline":{"auto-complete-config":"true","min-compute-capability":"6.000000","backend-directory":"/opt/tritonserver/backends","default-max-batch-size":"4"}} |+-------------------+-----------------------------------------------------------------------------+---------------------------------------------------------------------------------------------------------------------------------------------------------------+
I0721 09:01:19.653743 1 server.cc:633]+-------------------+---------+--------+| Model | Version | Status |after allocation : free: 7.47 GB, total: 15.78 GB, used: 8.31 GB+-------------------+---------+--------+| fastertransformer | 1 | READY |+-------------------+---------+--------+
I0721 09:01:19.668137 1 metrics.cc:864] Collecting metrics for GPU 0: Tesla V100-SXM2-16GBI0721 09:01:19.668167 1 metrics.cc:864] Collecting metrics for GPU 1: Tesla V100-SXM2-16GBI0721 09:01:19.669954 1 metrics.cc:757] Collecting CPU metricsI0721 09:01:19.670150 1 tritonserver.cc:2264]+----------------------------------+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+| Option | Value |+----------------------------------+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+| server_id | triton || server_version | 2.29.0 || server_extensions | classification sequence model_repository model_repository(unload_dependents) schedule_policy model_configuration system_shared_memory cuda_shared_memory binary_tensor_data statistics trace logging || model_repository_path[0] | /mnt/triton_repo || model_control_mode | MODE_NONE || strict_model_config | 0 || rate_limit | OFF || pinned_memory_pool_byte_size | 268435456 || cuda_memory_pool_byte_size{0} | 67108864 || cuda_memory_pool_byte_size{1} | 67108864 || response_cache_byte_size | 0 || min_supported_compute_capability | 6.0 || strict_readiness | 1 || exit_timeout | 30 |+----------------------------------+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
I0721 09:01:19.672326 1 grpc_server.cc:4819] Started GRPCInferenceService at 0.0.0.0:8001I0721 09:01:19.672597 1 http_server.cc:3477] Started HTTPService at 0.0.0.0:8000I0721 09:01:19.714356 1 http_server.cc:184] Started Metrics Service at 0.0.0.0:8002
服务请求

启动 forward 进行验证

# 使用 kubectl 启动port-forwardkubectl  -n default-group port-forward svc/ft-triton-bloom-1-tritoninferenceserver 8001:8001

这里我们使用 Triton Server 提供的 python SDK 所编写的脚本来向 Triton Server 发起请求。脚本中主要完成三件事情:

  • 通过 huggingface 中 bloom-7b1 对应的分词器对 query 进行分词和 token 转换

  • 通过 triton server SDK 向 triton server 发起请求

  • 通过分词器对 output token 进行转换,拿到最终的结果


import os, sys#from tkinter import _Paddingimport numpy as npimport jsonimport torch#import tritongrpcclientimport argparseimport timefrom transformers import AutoTokenizerimport tritonclient.grpc as grpcclient
# create tokenizertokenizer = AutoTokenizer.from_pretrained('/mnt/model/bloom-7b1', padding_side='right')tokenizer.pad_token_id = tokenizer.eos_token_id
def load_image(img_path: str): """ Loads an encoded image as an array of bytes.
""" return np.fromfile(img_path, dtype='uint8')
def tokeninze(query):

# encode encoded_inputs = tokenizer(query, padding=True, return_tensors='pt') input_token_ids = encoded_inputs['input_ids'].int() input_lengths = encoded_inputs['attention_mask'].sum( dim=-1, dtype=torch.int32).view(-1, 1) return input_token_ids.numpy().astype('uint32'), input_lengths.numpy().astype('uint32')
if __name__ == "__main__": parser = argparse.ArgumentParser() parser.add_argument("--model_name", type=str, required=False, default="fastertransformer", help="Model name") parser.add_argument("--url", type=str, required=False, default="localhost:8001", help="Inference server URL. Default is localhost:8001.") parser.add_argument('-v', "--verbose", action="store_true", required=False, default=False, help='Enable verbose output') args = parser.parse_args()
# 1.创建client try: triton_client = grpcclient.InferenceServerClient( url=args.url, verbose=args.verbose) except Exception as e: print("channel creation failed: " + str(e)) sys.exit(1)

output_name = "OUTPUT"
# 2) 设置input inputs = [] ## 2.1) input_ids query="deepspeed is" input_ids, input_lengths = tokeninze(query) inputs.append(grpcclient.InferInput("input_ids", input_ids.shape, "UINT32")) inputs[0].set_data_from_numpy(input_ids)
## 2.2) input_length inputs.append(grpcclient.InferInput("input_lengths", input_lengths.shape, "UINT32")) inputs[1].set_data_from_numpy(input_lengths)

## 2.3) output length output_len=32 output_len_np = np.array([[output_len]], dtype=np.uintc) inputs.append(grpcclient.InferInput("request_output_len", output_len_np.shape, "UINT32")) inputs[2].set_data_from_numpy(output_len_np)

# 3) 设置output outputs = [] outputs.append(grpcclient.InferRequestedOutput("output_ids"))
# 4) 发起请求 start_time = time.time() results = triton_client.infer(model_name=args.model_name, inputs=inputs, outputs=outputs) latency = time.time() - start_time
# 5) 结果处理:转化为numpy 类型,计算max,转化label output0_data = results.as_numpy("output_ids") print(output0_data.shape) result = tokenizer.batch_decode(output0_data[0]) print(result)


发起 client 请求命令如下:

$python3 bloom_7b_client.py (1, 1, 36)['deepspeed is the speed of the ship at the time of the collision, and the\ndeepspeed of the other ship is the speed of the other shipat the time']
总   结

本文我们通过 Bloom-7b1 模型展示了如何在云原生 AI 套件中使用 FasterTransformer 对大语言模型进行加速,通过与 HuggingFace 的版本对比可以带来 2.5 倍的性能提升。后续我们会逐步推出更多大模型相关的推理加速方案,以满足不同的业务需求,大家敬请期待。

今日好文推荐

两个多月完成全自研:大模型之争,从 GPU 卷到了向量数据库

都在追“新潮”技术,但你有大厂们的动作快吗?

大模型竞争突然升级!亚马逊 CEO 亲自监督、组建新的核心技术团队,集中优势资源打造“最具野心”的大语言模型

一场 AI 引发的开源革命迫在眉睫?Hugging Face 更改文本推理软件许可证,不再“开源”

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Transformer全新里程碑!诞生6年,开山之作被引近8万,没夺下NeurIPS最佳论文,却彻底改变AI界基于Transformer的大模型是如何运行的?Meta从全局和上下文学习揭秘家有多娃的烦恼救了俄军两回命,却被嫌便宜斯坦福博士一己之力让Attention提速9倍!FlashAttention燃爆显存,Transformer上下文长度史诗级提升揭秘大语言模型实践:分布式推理的工程化落地才是关键!Transformer论文「重磅更新」!八子全部离职,谷歌删除Attention Is All You Need所有作者邮箱LeCun力挺,马毅教授五年集大成之作:完全数学可解释的白盒Transformer,性能不输ViTAttention机制竟有bug,Softmax是罪魁祸首,影响所有Transformer12种模态,一个学习框架,Meta-Transformer实现骨干网络大一统核电站的智能化实践:每年节省上万工时、巡检效率提升80%编码器-解码器 | 基于 Transformers 的编码器-解码器模型炸裂!微软新作LongNet:将Transformer扩展到10亿个TokensTransformer诞生6年:彻底改变AI界,8位作者已创办数家AI独角兽自卑和自信,喜欢自卑多一点点。AIGC 开辟云原生全新应用方向,一文带你盘点中国云原生 20+ 细分领域技术成熟度此「错」并非真的错:从四篇经典论文入手,理解Transformer架构图「错」在何处ICCV 2023 | 新注意力!清华黄高团队提出FLatten Transformer视觉新主干​基于窗剪枝的去局部模糊Transformer,提升像质同时加速推理ChatGPT的“底座”Transformer诞生六周年:在它之后世界地覆天翻LLM-as-Agent、VLAM的机会、「算力困境」和对Transformer的质疑Transformer六周年:当年连NeurIPS Oral都没拿到,8位作者已创办数家AI独角兽Attention机制竟有bug?Softmax是罪魁祸首,影响所有Transformer每个人都有失去理智的时候Transformer后继有模!MSRA提出全新大模型基础架构:推理速度8倍提升,内存占用减少70%一条河的意外归宿Booth Program | Strategic Digital Transformation—in Hong KongLeCun力挺!马毅教授五年集大成之作:数学可解释的白盒Transformer,性能不输ViTtransformer的细节到底是怎么样的?Transformer 连环18问!Transformer作者创立,Hinton、李飞飞青睐,明星创企Cohere推出打工人专用知识助手无自注意力照样高效!RIFormer开启无需token mixer的Transformer结构新篇章田渊栋新作:打开1层Transformer黑盒,注意力机制没那么神秘让Attention提速9倍!FlashAttention燃爆显存,Transformer上下文长度史诗级提升ICCV 2023 | 通向3D感知大模型的必由之路!UniTR:统一多模态Transformer Encoder!让注意力提速9倍!FlashAttention燃爆显存,Transformer上下文长度史诗级提升!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。