Skip to content

Latest commit

 

History

History
176 lines (137 loc) · 18 KB

README.MD

File metadata and controls

176 lines (137 loc) · 18 KB

通用深度学习推理工具

可在生产环境中快速上线由TensorFlow、PyTorch、Caffe框架训练出的深度学习模型,以及被TensorRT 优化过的模型。

dl_inference是58同城推出的通用深度学习推理工具,使用dl_inference只需要将模型文件放在指定目录然后启动服务就可以进行推理请求调用。dl_inference当前支持TensorFlow、PyTorch和Caffe模型,提供GPU和CPU两种部署方式,并且实现了模型多节点部署时的负载均衡策略,支持线上海量推理请求。

dl_inference具备的Features如下:

  • 简化深度学习模型在生产环境上的推理服务部署,只需要将模型文件放入指定目录。
  • 支持模型多节点部署并实现负载均衡。
  • 提供统一的RPC服务调用接口。
  • 提供GPU和CPU两种部署方式。
  • PyTorch/Caffe模型支持推理前后数据处理,开放模型调用。
  • TensorFlow-SavedModel模型及Pytorch-pth模型自动转换为TensorRT模型后部署,提高推理性能。

为什么需要dl_inference

将深度学习模型进行部署实现推理服务是算法应用到生产环境的最后一环。当前主流的深度学习框架TensorFlow和PyTorch等推理服务实现介绍如下:

  1. TensorFlow推理
    最常见的是采用TensorFlow Serving这一组件进行部署,在生产环境中推荐使用Docker部署TensorFlow Serving。TensorFlow Serving可以直接读取SavedModel格式模型文件进行部署,支持热更新模型,支持以gRPC和RESTful API进行调用。
    当一个模型需要部署多个节点时,采用TensorFlow Serving组件部署时需要解决请求负载均衡问题,dl_inference基于动态加权轮询算法实现多个推理节点的负载均衡,很好的解决了这一问题。另外我们采用了经过英特尔数学核心函数库(Math Kernel Library ,下文简称MKL)优化后的Tensorflow Serving ,对推理服务进行了优化,推荐使用Intel官方发布的Docker镜像 部署。
  2. PyTorch推理
    PyTorch框架不提供服务化部署组件,需要用户自己开发实现,大致有两种解决方案。第一种是利用服务化框架进行封装,比如使用Flask框架部署一个http服务,编写API来进行请求处理, API里调用PyTorch推理函数;第二种是将PyTorch模型利用ONNX转换为onnx格式,然后再转换为TensorFlow或Caffe的模型,再通过TensorFlow Serving 或Caffe来进行推理部署。
    第一种方式需要用户自行进行服务化封装,开发工作量大;第二种方式也存在诸多缺陷,如PyTorch模型转onnx格式存在失败情况且转成onnx格式后推理性能会有损耗。dl_inference基于Seldon对PyTorch进行封装提供RPC服务调用,用户只需要将PyTorch模型放在指定目录启动dl_inference即可进行线上推理调用。
  3. Caffe推理
    Caffe框架跟PyTorch框架一致,同样Caffe不提供推理引擎,需要自行自己开发实现。
    方案跟PyTorch一样使用Seldon对Caffe进行封装提供RPC服务调用,用户需要将Caffe模型放在指定目录启动服务即可完成模型部署,进行线上推理请求调用
  4. TensorRT推理
    TensorRT是用于高性能深度学习推理的SDK,此SDK包含深度学习推理优化器和运行时环境,可为深度学习推理应用提供低延迟和高吞吐量。我们采用了NVIDIA开源推理服务Triton Inference Server (下文简称TIS)进行部署TensorRT模型,在生产环境中推荐使用Docker部署。另外dl_inference提供了模型转换服务镜像,支持将Tensorflow SavedModel格式模型及Pytorch pth格式模型自动转换为TensorRT格式模型,方便使用。

dl_inference架构

dl_inference主要包括统一接入服务、TensorFlow推理服务、PyTorch推理、Caffe推理服务和TIS推理服务等模块,如下图所示。
模块关系

统一接入服务

统一接入服务基于gRPC实现,作为深度学习模型在线推理请求入口,提供TensorFlow、PyTorch、Caffe和TensorRT四种模型通用调用接口,接收调用方在线推理请求,与后端部署的TensorFlow或PyTorch或Caffe模型或TensorRT模型实例进行交互,实现负载均衡策略。统一接入服务主要实现了接口统一和负载均衡两项功能,下面分别进行介绍。

深度学习模型类型多样,不同模型在线推理请求对应的输入输出数据格式不同,不仅是输入输出的key数量不同,而且数据类型也不一致。针对这一问题,统一接入服务定义TensorFlow、PyTorch、Caffe、TIS四个通用接口来兼容这四类深度学习框架所训练模型的推理请求。
接口定义如下:

service WpaiDLPredictOnlineService {
    rpc Predict(PredictRequest) returns (PredictResponse);
    rpc PytorchPredict(PytorchPredictRequest) returns (PytorchPredictResponse);
    rpc CaffePredict(CaffePredictRequest) returns (CaffePredictResponse);
    rpc TisPredict(TisPredictRequest) returns (TisPredictResponse);
}

统一接入服务

  1. TensorFlow接口:与TensorFlow-Serving推理引擎保持一致,请求协议PredictRequest对象,返回协议PredictResponse对象,统一接入服务将用户构建的PredictRequest对象请求直接透传给后端TensorFlow-Serving实例。
  2. PyTorch接口:PyTorch框架没有提供对应的推理引擎,我们基于Seldon将PyTorch推理函数封装为gRPC服务,统一接入服务的PyTorch接口采用封装的PyTorch gRPC服务协议SeldonMessage作为输入和输出。SeldonMessage支持各种格式数据的传递,如String类型数据、Tensor类型数据、Bytes类型数据等。
  3. Caffe接口:Caffe基于Seldon将Caffe推理函数封装为gRPC服务,跟PyTorch保持一致
  4. TIS接口:与Triton Inference Server推理引擎保持一致,请求协议ModelInferRequest对象,返回协议ModelInferResponse对象, 统一接入服务将用户构建的ModelInferRequest对象请求直接透传给后端Triton Inference Server实例。

深度学习模型进行推理部署时根据线上流量大小会部署多个实例,统一接入服务需要将接收到的推理请求均匀的转发到后端实例,剔除不可用实例。统一接入服务基于动态加权轮询算法实现模型实例的请求负载均衡,根据每次请求结果来判断对应节点是否正常,来动态调整节点有效权重,若节点异常响应,如宕机、网络异常等情况,能快速降低节点有效权重,保证节点被选中的概率减少,以此来降低发送到节点上的流量比;反之节点正常响应,能快速提升节点有效权重,保证节点被选中概率增加,以此来提升发送到节点上的流量比。 负载均衡

TensorFlow推理服务

TensorFlow模型推理采用TensorFlow-Serving(含MKL优化版)开源推理引擎部署,部署方式支持物理机、Docker容器。部署模型首先需要准备模型数据,支持SavedModel模型文件格式。物理机部署需要安装Tensorflow-Serving环境,步骤较为复杂,相对物理机部署方式容器化部署更简单,无需安装环境,即开即用,操作方便,从Docker hub上下载对应版本的Tensorflow-Serving镜像,使用docker run命令运行镜像,挂载模型文件到容器内部,指定服务监听端口并绑定到宿主机上即部署完成。采用TensorFlow-Serving引擎部署有诸多优点,如支持分布式TensorFlow模型、GPU推理加速、多种编程语言客户端、多个模型同时提供服务、模型动态加载及卸载等。

TensorFlow模型推理支持自定义operate,用户在训练TensorFlow模型时会添加自己定义的算法实现,添加Tensorflow中不存在的operate或针对现有场景下算法的个性化优化,用于提升训练效率。在TensorFlow-Serving官方提供的镜像并不支持自定义operate,因此需通过修改TensorFlow-Serving源码重新编译来实现。

PyTorch/Caffe推理服务

PyTorch和Caffe框架没有提供对应的模型服务化组件,dl_inference基于Seldon封装了PyTorch/Caffe模型推理RPC服务,统一接口协议,适用任何类型的PyTorch和Caffe模型,极大减少模型部署工作量。同时在模型RPC服务封装时我们进行了创新,首先,引入前后预处理程序, 支持用户在执行模型推理前后进行相关数据的处理;其次 ,开放模型调用,用户可以根据业务及模型的特点进行模型调用独立定制。
模型部署步骤如下:

  1. 安装Docker环境,使用本项目提供的镜像启动容器。
  2. 准备好PyTorch/Caffe模型、前后处理Python/Caffe程序放入指定目录。
  3. 执行startPredict.sh脚本启动模型推理RPC服务。

PyTorch模型实例部署后,实例中请求调用流程如下:
pytorch调用流程

用户可以重新定义自定义接口文件中preprocess(模型执行前数据预处理)、postprocess(模型执行后数据后处理)接口函数,在preprocess中,可以对传入的推理数据还有参数进行预处理操作,比如对图片的字节流数据进行处理,返回模型推理需要的Tensor类型数据;在postprocess中,可以对模型返回的推理结果进行处理,比如对结果进行筛选并剔除多余结果数据,或者将结果数据进行压缩、数学变换等操作。支持推理前后的数据处理,使得线上线下可以使用同一套数据处理,极大的简化了算法开发人员部署模型的工作量,同时还可以在远程部署时,减小网络传递的数据包大小,提高整体推理性能。

不同的业务场景模型实现不尽相同,为了支持在不同场景下的模型调用需求,用户可以在自定义接口文件中,重新定义模型的执行过程。默认的模型执行是单次执行,自定义接口函数中,可以多次执行同一个模型,或通过推理数据的参数修改模型内部权重,然后再进行模型调用,实现同一模型适应不通场景下的推理。开放模型调用,提高了模型实现的灵活性,从而满足不同业务方的定制化需求。

TensorRT推理服务

TensorRT模型主要通过Triton Inference Server提供模型推理服务,dl_inference提供了多种组件将TensorFlow和PyTorch模型具转换为TensorRT模型。TensorRT以NVIDIA的并行编程模型CUDA为基础构建而成,借助TensorRT,可以优化所有主要框架中训练的神经网络模型,精确校正低精度,并最终将模型部署到超大规模数据中心、嵌入式或汽车产品平台中。 TensorRT 针对多种深度学习推理应用的生产部署提供 INT8 和 FP16 优化,例如视频流式传输、语音识别、推荐和自然语言处理。推理精度降低后可显著减少应用延迟,这恰巧满足了许多实时服务、自动和嵌入式应用的要求。

如何使用dl_inference

使用dl_inference将深度学习模型应用到线上生产环境需要进行统一接入服务部署和模型部署。统一接入服务为maven工程,源码位于项目DLPredictOnline目录下,运行环境为jdk1.8及以上版本。Maven install方式编译源码,将编译生成的jar包和lib依赖包上传到服务器部署目录下,执行启动命令启动服务。模型部署分TensorFlow、PyTorch、Caffe和TensorRT四类模型,下面分别加以介绍。

TensorFlow模型部署

服务采用TensorFlow-Serving来部署TensorFlow模型,部署方式支持docker、物理机部署,但是由于物理机部署环境安装复杂,强烈建议使用docker来部署环境
下面介绍容器化运行TensorFlow-Serving服务

部署环境

采用容器化部署方式,需要Docker环境
需要获取镜像,服务器需要开通外网权限

数据准备

准备SavedModel格式的TensorFlow模型文件,如果是CheckPoint格式需要转换成SavedModel格式
示例模型文件cnn模型

部署方式

使用docker来部署环境,下面介绍docker环境部署方式:

  1. docker hub镜像仓库获取镜像,以TensorFlow-Serving 1.14版本为例,docker pull tensorflow/serving:1.14.0
  2. 配置模型路径,TESTDATA="$(pwd)/testdata",可以使用demo中的cnn模型
  3. 运行模型,docker run -t --rm -p 8501:8501 -p 8500:8500 -v "$TESTDATA:/models/textcnn-69" -e MODEL_NAME=textcnn-69 tensorflow/serving:1.14.0 &
  4. 将服务器IP 及端口 8501 配置到 GRPC服务中nodefile.txt配置文件即可
  5. 官方提供测试模型,可下载部署使用

自定义operate个性化部署时,由于TensorFlow导出模型时不会将自定义operate添加到模型文件中,所以官方提供的TensorFlow-Serving镜像无法识别。这种情况下需要将自定义operate编译到TensorFlow-Serving源码中,详细过程请参见项目Readme

推理效果

使用了qa_match(是一款基于深度学习的问答匹配工具)训练出来的模型部署测试:

  1. 上线了轻量级预训练SPTM模型,P40 GPU卡上推理平均耗时11ms,CPU上推理平均耗时16ms,模型文件示例
  2. 上线了lstm模型,CPU上推理平均耗时15ms,模型文件示例
  3. 上线了dssm模型,P40 GPU卡上推理平均耗时8ms,CPU上推理平均耗时3ms,模型文件示例

注:以上数据均在CPU Intel(R) Xeon(R) CPU E5-2620 v4上测试得到

qa_match开源项目地址:https://github.com/wuba/qa_match
一款基于深度学习的层级问答匹配工具

PyTorch/Caffe模型部署

数据准备

主要需要准备两种文件,一是准备需要部署的模型文件,二是用户自定义接口文件。
PyTorch模型文件:用dl_inference来部署模型,需要采用保存整个模型的方式生成模型文件,并且命名为为model.pth。
Caffe模型文件:需要准备.caffemodel格式模型文件,使用Caffe中的Solver类保存网络模型参数,生成模型文件
用户自定义接口文件:按照业务需要重写自定义接口文件中的前后数据处理函数,自定义模型运行函数。

模型部署

完成模型部署只需在已安装Docker环境的物理机上进行以下三步:

  1. 准备好所需模型和接口文件放在指定目录下
  2. 使用提供的DockerFile生成PyTorch/Caffe在线推理镜像
  3. 运行服务镜像

PyTorch详细过程请参见项目Readme

Caffe详细过程参见项目Readme

TensorRT模型部署

数据准备

主要需要准备两种文件,一是准备需要部署的模型文件,二是json格式的模型元数据描述文件

  1. Tensorflow模型文件:同上
  2. PyTorch模型文件:同上
  3. 模型元数据描述文件:描述模型输入和输出节点的名称、维度、类型和op名称

模型部署

  1. 准备好所需模型和描述文件放在指定目录下(环境变量配置)
  2. 使用提供的DockerFile生成TensorRT模型转换镜像
  3. 运行服务镜像,生成TensorRT模型文件
  4. 运行TIS推理服务

TensorRT模型使用TIS部署详细过程参见项目Readme

项目解析-直播回放

我们开展了一次主题为《通用深度学习推理服务dl_inference开源项目解析》的线上直播,详细讲解了 dl_inference 的设计思想和使用指南,包括:

  1. 从架构上阐述dl_inference如何支撑海量线上推理请求
  2. 深度学习模型多节点部署下负载均衡策略实现
  3. TensorFlow/PyTorch/Caffe等不同深度学习框架模型推理实现介绍
  4. 以具体示例介绍推理服务部署
    (1). Tensorflow模型示例1:qa_match问答匹配模型部署
    (2). Tensorflow模型示例2:二分类wide&deep模型部署
    (3). Tensorflow模型示例3:通过MKL版Tensorflow Serving优化的resnet50模型部署
    (4). PyTorch模型示例:图像数字识别模型部署
    (5). Caffe模型示例:图像分类模型部署
    直播录像回放可阅读 58AILab 公众号文章: 直播回放 | 通用深度学习推理服务dl_inference开源项目解析

后续规划

未来我们会继续优化扩展dl_inference的能力,计划开源如下:

  1. CPU上推理性能的加速, 如兼容intel的相关机器学习库,如OpenVINO等。
  2. 提高TIS服务在GPU上推理加速时使用的通用性和易用性。

贡献指引

本次开源只是dl_inference贡献社区的一小步,我们真挚地希望开发者向我们提出宝贵的意见和建议。 您可以挑选以下方式向我提交反馈建议和问题:

  1. https://github.com/wuba/dl_inference 提交PR或者lssue。
  2. 邮件发送至 [email protected]

致谢

感谢Intel提供的对TensorFlow Servering进行MKL加速功能支持 https://github.com/Intel-tensorflow/serving

感谢Nvidia提供的Triton Inference Server功能支持 https://github.com/triton-inference-server/server