From eea4320b48efad5f7515e907cb8399475fde5d29 Mon Sep 17 00:00:00 2001 From: Thomas Young <35565423+HexToString@users.noreply.github.com> Date: Mon, 28 Nov 2022 21:28:55 +0800 Subject: [PATCH] update doc (#732) * add ocr serving example * 1 1 * Add files via upload * Update README.md * Delete ocr_pipeline.png * Add files via upload * Delete ocr_pipeline.png * Add files via upload * 1 1 * 1 1 * Update README.md * 1 1 * fix codestyle * fix codestyle * Update README_CN.md * Update README_EN.md * Update demo.md * Update demo.md * Add files via upload * Update demo.md * Add files via upload * Delete dynamic_batching.png * Delete instance_group.png * Delete simple_ensemble.png * Add files via upload * Update demo.md * Update demo.md * Update demo.md * Update demo.md * Delete dynamic_batching.png * Delete instance_group.png * Delete simple_ensemble.png * Update demo.md * Update README_CN.md * Update demo.md * Update README_EN.md * Update demo.md * Create README.md * Update README.md Co-authored-by: Jason Co-authored-by: heliqi <1101791222@qq.com> --- .../vision/ocr/PP-OCRv2/serving/README.md | 12 +++++++ serving/README_CN.md | 1 + serving/README_EN.md | 1 + serving/docs/zh_CN/demo.md | 32 +++++++++---------- 4 files changed, 30 insertions(+), 16 deletions(-) create mode 100644 examples/vision/ocr/PP-OCRv2/serving/README.md diff --git a/examples/vision/ocr/PP-OCRv2/serving/README.md b/examples/vision/ocr/PP-OCRv2/serving/README.md new file mode 100644 index 000000000..b7a636477 --- /dev/null +++ b/examples/vision/ocr/PP-OCRv2/serving/README.md @@ -0,0 +1,12 @@ +# PP-OCRv2服务化部署示例 + +除了`下载的模型`和`rec前处理的1个参数`以外PP-OCRv2的服务化部署与PP-OCRv3服务化部署全部一样,请参考[PP-OCRv3服务化部署](../../PP-OCRv3/serving)。 + +## 下载模型 +将下载链接中的`v3`改为`v2`即可。 + +## 修改rec前处理参数 +在[model.py](../../PP-OCRv3/serving/models/det_postprocess/1/model.py#L109)文件**109行添加以下代码**: +``` +self.rec_preprocessor.cls_image_shape[1] = 32 +``` diff --git a/serving/README_CN.md b/serving/README_CN.md index b996a2f9f..edf12b520 100644 --- a/serving/README_CN.md +++ b/serving/README_CN.md @@ -32,6 +32,7 @@ docker pull paddlepaddle/fastdeploy:0.6.0-gpu-cuda11.4-trt8.4-21.10 ## 其它文档 - [模型仓库目录说明](docs/zh_CN/model_repository.md) (说明如何准备模型仓库目录) - [模型配置说明](docs/zh_CN/model_configuration.md) (说明runtime的配置选项) +- [服务化部署示例](docs/zh_CN/demo.md) (服务化部署示例) ### 服务化部署示例 diff --git a/serving/README_EN.md b/serving/README_EN.md index 4f32ca165..88037ba01 100644 --- a/serving/README_EN.md +++ b/serving/README_EN.md @@ -39,6 +39,7 @@ Users can also compile the image by themselves according to their own needs, ref - [How to Prepare Serving Model Repository](docs/zh_CN/model_repository.md) - [Serving Deployment Configuration for Runtime](docs/zh_CN/model_configuration.md) +- [Demo of Serving Deployment](docs/zh_CN/demo.md) ### Serving Deployment Demo diff --git a/serving/docs/zh_CN/demo.md b/serving/docs/zh_CN/demo.md index 297335b2a..870b37f6b 100644 --- a/serving/docs/zh_CN/demo.md +++ b/serving/docs/zh_CN/demo.md @@ -6,30 +6,30 @@ ## 基本原理介绍 像常见的深度学习模型一样,yolov5完整的运行过程包含前处理+模型预测+后处理三个阶段。 -在Triton中,将前处理、模型预测、后处理均视为1个**Triton-Model**,每个Triton-Model的**config.pbtxt**配置文件中均描述了其输入数据格式、输出数据格式、Triton-Model的类型(即config.pbtxt中的**backend**或**platform**字段)、以及其他的一些配置选项。 +在FastDeployServer中,将前处理、模型预测、后处理均视为1个**模型服务**,每个模型服务的**config.pbtxt**配置文件中均描述了其输入数据格式、输出数据格式、模型服务的类型(即config.pbtxt中的**backend**或**platform**字段)、以及其他的一些配置选项。 -前处理和后处理一般是运行一段Python代码,为了方便后续描述,我们称之为**Python-Triton-Model**,其config.pbtxt配置文件中的`backend: "python"`。 +前处理和后处理一般是运行一段Python代码,为了方便后续描述,我们称之为**Python模型服务**,其config.pbtxt配置文件中的`backend: "python"`。 -模型预测阶段是深度学习模型预测引擎(如ONNXRuntime、Paddle、TRT、FastDeploy)加载用户提供的深度学习模型文件来运行模型预测,我们称之为**Runtime-Triton-Model**,其config.pbtxt配置文件中的`backend: "fastdeploy"`。 +模型预测阶段是深度学习模型预测引擎加载用户提供的深度学习模型文件来运行模型预测,我们称之为**Runtime模型服务**,其config.pbtxt配置文件中的`backend: "fastdeploy"`。 根据用户提供的模型类型的不同,可以在**optimization**字段中设置使用CPU、GPU、TRT、ONNX等配置,配置方法参考[服务化部署配置说明](model_configuration.md)。 -除此之外,还需要一个**Ensemble-Triton-Model**来将前处理、模型预测、后处理3个**Triton-Model**组合为1个整体,并描述3个Triton-Model之间的关联关系。例如,前处理的输出与模型预测的输入之间的对应关系,多个Triton-Model的调用顺序、串并联关系等,**Ensemble-Triton-Model**的config.pbtxt配置文件中的`platform: "ensemble"`。 +除此之外,还需要一个**Ensemble模型服务**来将前处理、模型预测、后处理3个**模型服务**组合为1个整体,并描述3个模型服务之间的关联关系。例如,前处理的输出与模型预测的输入之间的对应关系,多个模型服务的调用顺序、串并联关系等,**Ensemble模型服务**的config.pbtxt配置文件中的`platform: "ensemble"`。 -在本文的yolov5服务化示例中,**Ensemble-Triton-Model**将前处理、模型预测、后处理3个**Triton-Model**串联组合为1个整体,整体的结构如下图所示。 +在本文的yolov5服务化示例中,**Ensemble模型服务**将前处理、模型预测、后处理3个**模型服务**串联组合为1个整体,整体的结构如下图所示。



-对于像[OCR这样多个深度学习模型的组合模型](../../../examples/vision/ocr/PP-OCRv3/serving),或者[流式输入输出的深度学习模型](../../../examples/audio/pp-tts/serving),其**Ensemble-Triton-Model**会更加复杂。 +对于像[OCR这样多个深度学习模型的组合模型](../../../examples/vision/ocr/PP-OCRv3/serving),或者[流式输入输出的深度学习模型](../../../examples/audio/pp-tts/serving),其**Ensemble模型服务**的配置会更加复杂。 -## Python-Triton-Model简介 -我们以[yolov5前处理](../../../examples/vision/detection/yolov5/serving/models/preprocess/1/model.py)为例,简单介绍一下编写Python-Triton-Model中的注意事项。 +## Python模型服务简介 +我们以[yolov5前处理](../../../examples/vision/detection/yolov5/serving/models/preprocess/1/model.py)为例,简单介绍一下编写Python模型服务中的注意事项。 -Python-Triton-Model代码model.py的整体结构框架如下所示。Python代码的核心是1个`class TritonPythonModel`类,类中包含3个成员函数`initialize`、`execute`、`finalize`,类名、成员函数名、函数输入变量都不允许更改。在此基础上,用户可以自行编写代码。 +Python模型服务的代码model.py的整体结构框架如下所示。Python代码的核心是1个`class TritonPythonModel`类,类中包含3个成员函数`initialize`、`execute`、`finalize`,类名、成员函数名、函数输入变量都不允许更改。在此基础上,用户可以自行编写代码。 ``` import json @@ -97,9 +97,9 @@ class TritonPythonModel: #你的析构代码,finalize只在模型卸载的时候被调用1次 ``` -`initialize`中一般放置初始化的一些操作,该函数只在Python-Triton-Model被加载的时候执行1次。 +`initialize`中一般放置初始化的一些操作,该函数只在Python模型服务被加载的时候执行1次。 -`finalize`中一般放置一些析构释放的操作,该函数只在Python-Triton-Model被卸载的时候执行1次。 +`finalize`中一般放置一些析构释放的操作,该函数只在Python模型服务被卸载的时候执行1次。 `execute`中放置用户需要的前后处理的逻辑,该函数在每次服务端收到客户端请求的时候被执行1次。 @@ -118,18 +118,18 @@ fd.vision.detection.YOLOv5.preprocess(data) 动态合并Batch的原理如下图所示。当用户请求request并发量较大,但GPU利用率较小时,可以通过将不同用户的request组合为1个大的Batch进行模型预测,从而提高服务的吞吐性能。


- +

-开启动态合并Batch功能非常简单,仅需在config.pbtxt结尾处,增加`dynamic_batching{}`字段即可。 +开启动态合并Batch功能非常简单,仅需在config.pbtxt结尾处,增加`dynamic_batching{}`字段即可,但最大的合并Batch不会超过`max_batch_size`。 -**注意**:`ensemble_scheduling`字段与`dynamic_batching`字段不可共存,即对于**Ensemble-Triton-Model**不存在动态合并Batch功能,这也可以理解,因为**Ensemble-Triton-Model**本身仅仅是多个Triton-Model的组合。 +**注意**:`ensemble_scheduling`字段与`dynamic_batching`字段不可共存,即对于**Ensemble模型服务**不存在动态合并Batch功能,这也可以理解,因为**Ensemble模型服务**本身仅仅是多个模型服务的组合。 ## 多模型实例 -多模型实例的原理如下图所示。当前后处理(通常不支持Batch)成为整个服务的性能瓶颈时,能通过增加多个前后处理的**Python-Triton-Model**实例,来提高整个服务的时延性能。 +多模型实例的原理如下图所示。当前后处理(通常不支持Batch)成为整个服务的性能瓶颈时,能通过增加多个前后处理的**Python模型服务**实例,来提高整个服务的时延性能。 -当然也可以开启多个**Runtime-Triton-Model**模型实例,来提升GPU利用率。 +当然也可以开启多个**Runtime模型服务**实例,来提升GPU利用率。