Files
FastDeploy/tutorials/multi_thread
huangjianhui e4b1581593 [Doc] Update multi_thread docs in tutorials (#886)
* Refactor PaddleSeg with preprocessor && postprocessor

* Fix bugs

* Delete redundancy code

* Modify by comments

* Refactor according to comments

* Add batch evaluation

* Add single test script

* Add ppliteseg single test script && fix eval(raise) error

* fix bug

* Fix evaluation segmentation.py batch predict

* Fix segmentation evaluation bug

* Fix evaluation segmentation bugs

* Update segmentation result docs

* Update old predict api and DisableNormalizeAndPermute

* Update resize segmentation label map with cv::INTER_NEAREST

* Add Model Clone function for PaddleClas && PaddleDet && PaddleSeg

* Add multi thread demo

* Add python model clone function

* Add multi thread python && C++ example

* Fix bug

* Update python && cpp multi_thread examples

* Add cpp && python directory

* Add README.md for examples

* Delete redundant code

* Create README_CN.md

* Rename README_CN.md to README.md

* Update README.md

* Update README.md

Co-authored-by: Jason <jiangjiajun@baidu.com>
2022-12-15 14:53:44 +08:00
..

English | 中文

FastDeploy模型多线程或多进程预测的使用

FastDeploy针对python和cpp开发者提供了以下多线程或多进程的示例

多线程预测时克隆模型

针对一个视觉模型的推理包含3个环节

  • 输入图像图像经过预处理最终得到要输入给模型Runtime的Tensor即preprocess阶段
  • 模型Runtime接收Tensor进行推理得到Runtime的输出Tensor即infer阶段
  • 对Runtime的输出Tensor做后处理得到最后的结构化信息如DetectionResult, SegmentationResult等等即postprocess阶段

针对以上preprocess、infer、postprocess三个阶段FastDeploy分别抽象出了三个对应的类即Preprocessor、Runtime、PostProcessor

在多线程调用FastDeploy中的模型进行并行推理的时候要考虑几个问题

  • Preprocessor、Runtime、Postprocessor三个类能否分别支持并行处理
  • 在支持多线程并发的前提下,能否最大限度的减少内存或显存占用

FastDeploy采用分别拷贝多个对象的方式进行多线程推理即每个线程都有一份独立的Preprocessor、Runtime、PostProcessor的实例化的对象。而为了减少内存的占用对于Runtime的拷贝则采用共享模型权重的方式进行拷贝。因此虽然复制了多个对象但对于模型权重和参数在内存或显存中只有一份。 以此减少拷贝多个对象带来的内存占用。

FastDeploy提供如下接口来进行模型的clone(以PaddleClas为例)

  • Python: PaddleClasModel.clone()
  • C++: PaddleClasModel::Clone()

Python

import fastdeploy as fd
option = fd.RuntimeOption()
model = fd.vision.classification.PaddleClasModel(model_file, 
                                                 params_file, 
                                                 config_file, 
                                                 runtime_option=option)
model2 = model.clone()
im = cv2.imread(image)
res = model.predict(im)

C++

auto model = fastdeploy::vision::classification::PaddleClasModel(model_file, 
                                                                 params_file, 
                                                                 config_file, 
                                                                 option);
auto model2 = model.Clone();
auto im = cv::imread(image_file);
fastdeploy::vision::ClassifyResult res;
model->Predict(im, &res)

注意:其他模型类似API接口可查阅官方C++文档以及官方Python文档

Python多线程以及多进程

Python由于语言的限制即GIL锁的存在在计算密集型的场景下多线程无法充分利用硬件的性能。因此Python上提供多进程和多线程两种示例。其异同点如下

FastDeploy模型多进程与多线程推理的比较

资源占用 计算密集型 I/O密集型 进程或线程间通信
多进程
多线程 较快

注意:以上分析相对理论实际上Python针对不同的计算任务也做出了一定的优化像是numpy类的计算已经可以做到并行计算同时由于多进程间的result汇总涉及到进程间通信而且往往有时候很难鉴别该任务是计算密集型还是I/O密集型所以一切都需要根据任务进行测试而定。

C++多线程

C++的多线程,兼具了占用资源少,速度快的特点。因此,是使用多线程推理的最佳选择

C++ 多线程Clone与不Clone内存占用对比

硬件Intel(R) Xeon(R) Gold 6271C CPU @ 2.60GHz
模型ResNet50_vd_infer
后端CPU OPENVINO后端推理引擎

单进程内初始化多个模型,内存占用

模型数 model.Clone()后 Clone后model->predict()后 不Clone模型初始化后 不Clone后model->predict()后
1 322M 325M 322M 325M
2 322M 325M 559M 560M
3 322M 325M 771M 771M

模型多线程预测内存占用

线程数 model.Clone()后 Clone后model->predict()后 不Clone模型初始化后 不Clone后model->predict()后
1 322M 337M 322M 337M
2 322M 343M 548M 566M
3 322M 347M 752M 784M