mirror of
https://github.com/PaddlePaddle/FastDeploy.git
synced 2025-10-06 00:57:33 +08:00
26 lines
1.9 KiB
Markdown
26 lines
1.9 KiB
Markdown
# FastDeploy编译
|
||
|
||
本文档说明编译C++预测库、Python预测库两种编译过程,根据编译的平台参考如下文档
|
||
|
||
- [Linux & Mac 编译](how_to_build_linux_and_mac.md)
|
||
- [Windows编译](how_to_build_windows.md)
|
||
|
||
其中编译过程中,各平台上编译选项如下表所示
|
||
|
||
| 选项 | 作用 | 备注 |
|
||
|:---- | :--- | :--- |
|
||
| ENABLE_ORT_BACKEND | 启用ONNXRuntime推理后端,默认ON | 默认支持CPU,开启WITH_GPU后,同时支持GPU |
|
||
| ENABLE_PADDLE_BACKEND | 启用Paddle Inference推理后端,默认OFF | 默认支持CPU,开启WITH_GPU后,同时支持GPU |
|
||
| ENABLE_OPENVINO_BACKEND | 启用OpenVINO推理后端,默认OFF | 仅支持 CPU |
|
||
| ENABLE_TRT_BACKEND | 启用TensorRT推理后端,默认OFF | 仅支持GPU |
|
||
| WITH_GPU | 是否开启GPU使用,默认OFF | 当设为TRUE,编译后将支持Nvidia GPU部署 |
|
||
| CUDA_DIRECTORY | 指定编译时的CUDA路径,默认为/usr/local/cuda | CUDA 11.2及以上 |
|
||
| TRT_DIRECTORY | 当启用TensorRT推理后端时,需通过此参数指定TensorRT路径 | TensorRT 8.4及以上 |
|
||
| ENABLE_VISION | 启用视觉模型模块,默认为ON | |
|
||
| ENABLE_TEXT | 启用文本模型模块,默认为ON | |
|
||
| OPENCV_DIRECTORY | 指定已安装OpenCV库的路径,默认为空| 若没指定OpenCV库路径,则会自动下载安装OpenCV |
|
||
| ORT_DIRECTORY | 指定已安装ONNXRuntime库的路径,默认为空| 若没指定ONNXRuntime库路径,则会自动下载安装ONNXRuntime |
|
||
|
||
|
||
FastDeploy支持在编译时,用户选择自己的后端进行编译, 目前已经支持Paddle Inference、ONNXRuntime、TensorRT(加载ONNX格式)。FastDeploy已支持的模型已完成在不同后端上的验证工作,会自动根据编译时支持的后端进行选择,如若无可用后端则会给出相应提示(如YOLOv7目前仅支持ONNXRuntime/TensorRT后端,如若编译时未开启这两个后端,则推理时会提示无可用后端)。
|