mirror of
https://github.com/PaddlePaddle/FastDeploy.git
synced 2025-10-05 08:37:06 +08:00
[Bug Fix] Fix bugs when deploy quantized YOLOv5/v6/v7 model. (#729)
* Improve the usage of fastdeploy tools * Fix quantized YOLOv5,v6 and v7 model deployment
This commit is contained in:
@@ -28,7 +28,7 @@ tar -xvf yolov5s_quant.tar
|
||||
wget https://gitee.com/paddlepaddle/PaddleDetection/raw/release/2.4/demo/000000014439.jpg
|
||||
|
||||
|
||||
# 在CPU上使用Paddle-Inference推理量化模型
|
||||
# 在CPU上使用ONNX Runtime推理量化模型
|
||||
./infer_demo yolov5s_quant 000000014439.jpg 0
|
||||
# 在GPU上使用TensorRT推理量化模型
|
||||
./infer_demo yolov5s_quant 000000014439.jpg 1
|
||||
|
@@ -64,7 +64,7 @@ int main(int argc, char* argv[]) {
|
||||
|
||||
if (flag == 0) {
|
||||
option.UseCpu();
|
||||
option.UsePaddleBackend();
|
||||
option.UseOrtBackend();
|
||||
} else if (flag == 1) {
|
||||
option.UseGpu();
|
||||
option.UseTrtBackend();
|
||||
|
@@ -22,8 +22,8 @@ wget https://bj.bcebos.com/paddlehub/fastdeploy/yolov5s_quant.tar
|
||||
tar -xvf yolov5s_quant.tar
|
||||
wget https://gitee.com/paddlepaddle/PaddleDetection/raw/release/2.4/demo/000000014439.jpg
|
||||
|
||||
# 在CPU上使用Paddle-Inference推理量化模型
|
||||
python infer.py --model yolov5s_quant --image 000000014439.jpg --device cpu --backend paddle
|
||||
# 在CPU上使用ONNX Runtime推理量化模型
|
||||
python infer.py --model yolov5s_quant --image 000000014439.jpg --device cpu --backend ort
|
||||
# 在GPU上使用TensorRT推理量化模型
|
||||
python infer.py --model yolov5s_quant --image 000000014439.jpg --device gpu --backend trt
|
||||
# 在GPU上使用Paddle-TensorRT推理量化模型
|
||||
|
@@ -54,12 +54,6 @@ def build_option(args):
|
||||
option.enable_paddle_to_trt()
|
||||
elif args.backend.lower() == "ort":
|
||||
option.use_ort_backend()
|
||||
elif args.backend.lower() == "paddle":
|
||||
option.use_paddle_backend()
|
||||
elif args.backend.lower() == "openvino":
|
||||
assert args.device.lower(
|
||||
) == "cpu", "OpenVINO backend require inference on device CPU."
|
||||
option.use_openvino_backend()
|
||||
return option
|
||||
|
||||
|
||||
|
@@ -28,7 +28,7 @@ tar -xvf yolov6s_qat_model.tar
|
||||
wget https://gitee.com/paddlepaddle/PaddleDetection/raw/release/2.4/demo/000000014439.jpg
|
||||
|
||||
|
||||
# 在CPU上使用Paddle-Inference推理量化模型
|
||||
# 在CPU上使用ONNX Runtime推理量化模型
|
||||
./infer_demo yolov6s_qat_model 000000014439.jpg 0
|
||||
# 在GPU上使用TensorRT推理量化模型
|
||||
./infer_demo yolov6s_qat_model 000000014439.jpg 1
|
||||
|
@@ -64,7 +64,7 @@ int main(int argc, char* argv[]) {
|
||||
|
||||
if (flag == 0) {
|
||||
option.UseCpu();
|
||||
option.UsePaddleBackend();
|
||||
option.UseOrtBackend();
|
||||
} else if (flag == 1) {
|
||||
option.UseGpu();
|
||||
option.UseTrtBackend();
|
||||
|
@@ -21,8 +21,8 @@ wget https://bj.bcebos.com/paddlehub/fastdeploy/yolov6s_qat_model.tar
|
||||
tar -xvf yolov6s_qat_model.tar
|
||||
wget https://gitee.com/paddlepaddle/PaddleDetection/raw/release/2.4/demo/000000014439.jpg
|
||||
|
||||
# 在CPU上使用Paddle-Inference推理量化模型
|
||||
python infer.py --model yolov6s_qat_model --image 000000014439.jpg --device cpu --backend paddle
|
||||
# 在CPU上使用ONNX Runtime推理量化模型
|
||||
python infer.py --model yolov6s_qat_model --image 000000014439.jpg --device cpu --backend ort
|
||||
# 在GPU上使用TensorRT推理量化模型
|
||||
python infer.py --model yolov6s_qat_model --image 000000014439.jpg --device gpu --backend trt
|
||||
# 在GPU上使用Paddle-TensorRT推理量化模型
|
||||
|
@@ -54,12 +54,6 @@ def build_option(args):
|
||||
option.enable_paddle_to_trt()
|
||||
elif args.backend.lower() == "ort":
|
||||
option.use_ort_backend()
|
||||
elif args.backend.lower() == "paddle":
|
||||
option.use_paddle_backend()
|
||||
elif args.backend.lower() == "openvino":
|
||||
assert args.device.lower(
|
||||
) == "cpu", "OpenVINO backend require inference on device CPU."
|
||||
option.use_openvino_backend()
|
||||
return option
|
||||
|
||||
|
||||
|
@@ -28,7 +28,7 @@ tar -xvf yolov7_quant.tar
|
||||
wget https://gitee.com/paddlepaddle/PaddleDetection/raw/release/2.4/demo/000000014439.jpg
|
||||
|
||||
|
||||
# 在CPU上使用Paddle-Inference推理量化模型
|
||||
# 在CPU上使用ONNX Runtime推理量化模型
|
||||
./infer_demo yolov7_quant 000000014439.jpg 0
|
||||
# 在GPU上使用TensorRT推理量化模型
|
||||
./infer_demo yolov7_quant 000000014439.jpg 1
|
||||
|
@@ -64,7 +64,7 @@ int main(int argc, char* argv[]) {
|
||||
|
||||
if (flag == 0) {
|
||||
option.UseCpu();
|
||||
option.UsePaddleBackend();
|
||||
option.UseOrtBackend();
|
||||
} else if (flag == 1) {
|
||||
option.UseGpu();
|
||||
option.UseTrtBackend();
|
||||
|
@@ -21,8 +21,8 @@ wget https://bj.bcebos.com/paddlehub/fastdeploy/yolov7_quant.tar
|
||||
tar -xvf yolov7_quant.tar
|
||||
wget https://gitee.com/paddlepaddle/PaddleDetection/raw/release/2.4/demo/000000014439.jpg
|
||||
|
||||
# 在CPU上使用Paddle-Inference推理量化模型
|
||||
python infer.py --model yolov7_quant --image 000000014439.jpg --device cpu --backend paddle
|
||||
# 在CPU上使用ONNX Runtime推理量化模型
|
||||
python infer.py --model yolov7_quant --image 000000014439.jpg --device cpu --backend ort
|
||||
# 在GPU上使用TensorRT推理量化模型
|
||||
python infer.py --model yolov7_quant --image 000000014439.jpg --device gpu --backend trt
|
||||
# 在GPU上使用Paddle-TensorRT推理量化模型
|
||||
|
@@ -54,12 +54,6 @@ def build_option(args):
|
||||
option.enable_paddle_to_trt()
|
||||
elif args.backend.lower() == "ort":
|
||||
option.use_ort_backend()
|
||||
elif args.backend.lower() == "paddle":
|
||||
option.use_paddle_backend()
|
||||
elif args.backend.lower() == "openvino":
|
||||
assert args.device.lower(
|
||||
) == "cpu", "OpenVINO backend require inference on device CPU."
|
||||
option.use_openvino_backend()
|
||||
return option
|
||||
|
||||
|
||||
|
Reference in New Issue
Block a user