Optimize ocr system code (#209)

* Support PPYOLOE plus model

* Optimize ocr system code

* modify example code

* fix patchelf of openvino

* optimize demo code of ocr

* remove debug code

* update demo code of ocr

Co-authored-by: Jack Zhou <zhoushunjie@baidu.com>
This commit is contained in:
Jason
2022-09-14 09:46:03 +08:00
committed by GitHub
parent 1452275efe
commit 0dd9ecee65
39 changed files with 1041 additions and 909 deletions

View File

@@ -11,11 +11,13 @@
|:---- | :--- | :--- |
| ENABLE_ORT_BACKEND | 启用ONNXRuntime推理后端默认ON | 默认支持CPU开启WITH_GPU后同时支持GPU |
| ENABLE_PADDLE_BACKEND | 启用Paddle Inference推理后端默认OFF | 默认支持CPU开启WITH_GPU后同时支持GPU |
| ENABLE_OPENVINO_BACKEND | 启用OpenVINO推理后端默认OFF | 仅支持 CPU |
| ENABLE_TRT_BACKEND | 启用TensorRT推理后端默认OFF | 仅支持GPU |
| WITH_GPU | 是否开启GPU使用默认OFF | 当设为TRUE编译后将支持Nvidia GPU部署 |
| CUDA_DIRECTORY | 指定编译时的CUDA路径默认为/usr/local/cuda | CUDA 11.2及以上 |
| TRT_DIRECTORY | 当启用TensorRT推理后端时需通过此参数指定TensorRT路径 | TensorRT 8.4及以上 |
| ENABLE_VISION | 启用视觉模型模块默认为ON | |
| ENABLE_TEXT | 启用文本模型模块默认为ON | |
FastDeploy支持在编译时用户选择自己的后端进行编译, 目前已经支持Paddle Inference、ONNXRuntime、TensorRT(加载ONNX格式)。FastDeploy已支持的模型已完成在不同后端上的验证工作会自动根据编译时支持的后端进行选择如若无可用后端则会给出相应提示(如YOLOv7目前仅支持ONNXRuntime/TensorRT后端如若编译时未开启这两个后端则推理时会提示无可用后端)。