‘fixed-yolov7-doc’ (#85)

‘’
This commit is contained in:
leiqing
2022-08-09 20:52:58 +08:00
committed by GitHub
parent 36a54f2955
commit 78b0cc56f2
4 changed files with 41 additions and 31 deletions

View File

@@ -3,11 +3,10 @@
本目录下提供了各类视觉模型的部署,主要涵盖以下任务类型
| 任务类型 | 说明 | 预测结果结构体 |
| :------- | :----| :------------- |
| Detection | 目标检测,输入图像,检测图像中物体位置,并返回检测框坐标及类别和置信度 | DetectionResult |
| Segmentation | 语义分割,输入图像,给出图像中每个像素的分类及置信度 | SegmentationResult |
| Classification | 图像分类,输入图像,给出图像的分类结果和置信度 | ClassifyResult |
|:-------------- |:----------------------------------- |:-------------------------------------------------------------------------------- |
| Detection | 目标检测,输入图像,检测图像中物体位置,并返回检测框坐标及类别和置信度 | [DetectionResult](../../../../docs/api/vision_results/detection_result.md) |
| Segmentation | 语义分割,输入图像,给出图像中每个像素的分类及置信度 | [SegmentationResult](../../../../docs/api/vision_results/segmentation_result.md) |
| Classification | 图像分类,输入图像,给出图像的分类结果和置信度 | [ClassifyResult](../../../../docs/api/vision_results/classification_result.md) |
## FastDeploy API设计

View File

@@ -1,9 +1,11 @@
# YOLOv7部署
# YOLOv7准备部署模型
## 版本依赖
## 模型版本说明
- [YOLOv7 0.1](https://github.com/WongKinYiu/yolov7/releases/tag/v0.1)
- 1[链接中](https://github.com/WongKinYiu/yolov7/releases/tag/v0.1)的*.pt通过[导出ONNX模型](#导出ONNX模型)操作后,可进行部署;
- 2[链接中](https://github.com/WongKinYiu/yolov7/releases/tag/v0.1)的*.onnx、*.trt和 *.pose模型不支持部署
- 3开发者基于自己数据训练的YOLOv7 0.1模型,可按照[导出ONNX模型](#%E5%AF%BC%E5%87%BAONNX%E6%A8%A1%E5%9E%8B)后,完成部署。
## 导出ONNX模型
@@ -15,23 +17,22 @@ wget https://github.com/WongKinYiu/yolov7/releases/download/v0.1/yolov7.pt
python models/export.py --grid --dynamic --weights PATH/TO/yolov7.pt
# 如果您的代码版本中有支持NMS的ONNX文件导出请使用如下命令导出ONNX文件(请暂时不要使用 "--end2end"我们后续将支持带有NMS的ONNX模型的部署)
python export.py --grid --dynamic --weights PATH/TO/yolov7.pt
python models/export.py --grid --dynamic --weights PATH/TO/yolov7.pt
# 移动onnx文件到demo目录
cp PATH/TO/yolov7.onnx PATH/TO/model_zoo/vision/yolov7/
```
## 预训练模型集合
## 下载预训练模型
为了方便开发者的测试下面提供了YOLOv7导出的各系列模型开发者可直接下载使用。
| 模型 | 大小 | 精度 |
| :--- | :--- | :--- |
|:---------------------------------------------------------------- |:----- |:----- |
| [YOLOv7](https://bj.bcebos.com/paddlehub/fastdeploy/yolov7.onnx) | 141MB | 51.4% |
| [YOLOv7-x] | 10MB | 51.4% |
## 其它文档
## 详细部署文档
- [Python部署](python)
- [C++部署](cpp)

View File

@@ -5,7 +5,7 @@
在部署前,需确认以下两个步骤
- 1. 软硬件环境满足要求,参考[FastDeploy环境要求](../../../../../docs/quick_start/requirements.md)
- 2. 根据开发环境,下载预编译部署库,参考[FastDeploy预编译库](../../../../../docs/compile/prebuild_libraries.md)
- 2. 根据开发环境,下载预编译部署库和samples代码,参考[FastDeploy预编译库](../../../../../docs/compile/prebuild_libraries.md)
以Linux上CPU推理为例在本目录执行如下命令即可完成编译测试
@@ -17,17 +17,23 @@ tar xvf fastdeploy-linux-x64-0.2.0.tgz
cmake .. -DFASTDEPLOY_INSTALL_DIR=${PWD}/fastdeploy-linux-x64-0.2.0
make -j
#下载官方转换好的yolov7模型文件和测试图片
wget https://bj.bcebos.com/paddlehub/fastdeploy/yolov7.onnx
wget https://gitee.com/paddlepaddle/PaddleDetection/raw/release/2.4/demo/000000087038.jpg
# CPU推理
./infer_demo yolov7.onnx 000001.jpg 0
./infer_demo yolov7.onnx 000000087038.jpg 0
# GPU推理
./infer_demo yolov7.onnx 000001.jpg 1
./infer_demo yolov7.onnx 000000087038.jpg 1
# GPU上TensorRT推理
./infer_demo yolov7.onnx 000001.jpg 2
./infer_demo yolov7.onnx 000000087038.jpg 2
```
## YOLOv7 C++接口
### YOLOv7类
```
fastdeploy::vision::wongkinyiu::YOLOv7(
const string& model_file,
@@ -35,6 +41,7 @@ fastdeploy::vision::wongkinyiu::YOLOv7(
const RuntimeOption& runtime_option = RuntimeOption(),
const Frontend& model_format = Frontend::ONNX)
```
YOLOv7模型加载和初始化其中model_file为导出的ONNX模型格式。
**参数**
@@ -45,11 +52,13 @@ YOLOv7模型加载和初始化其中model_file为导出的ONNX模型格式。
> * **model_format**(Frontend): 模型格式默认为ONNX格式
#### Predict函数
> ```
> YOLOv7::Predict(cv::Mat* im, DetectionResult* result,
> float conf_threshold = 0.25,
> float nms_iou_threshold = 0.5)
> ```
>
> 模型预测接口,输入图像直接输出检测结果。
>
> **参数**
@@ -59,12 +68,10 @@ YOLOv7模型加载和初始化其中model_file为导出的ONNX模型格式。
> > * **conf_threshold**: 检测框置信度过滤阈值
> > * **nms_iou_threshold**: NMS处理过程中iou阈值
### 类成员变量
> > * **size**(vector<int>): 通过此参数修改预处理过程中resize的大小包含两个整型元素表示[width, height], 默认值为[640, 640]
- [模型介绍](../../)
- [Python部署](../python)
- [视觉模型预测结果](../../../../../docs/api/vision_results/)

View File

@@ -3,7 +3,7 @@
在部署前,需确认以下两个步骤
- 1. 软硬件环境满足要求,参考[FastDeploy环境要求](../../../../../docs/quick_start/requirements.md)
- 2. FastDeploy Python安装参考[FastDeploy Python安装](../../../../../docs/quick_start/install.md)
- 2. FastDeploy Python whl包安装,参考[FastDeploy Python安装](../../../../../docs/quick_start/install.md)
本目录下提供`infer.py`快速完成YOLOv7在CPU/GPU以及GPU上通过TensorRT加速部署的示例。执行如下脚本即可完成
@@ -12,6 +12,10 @@
wget https://bj.bcebos.com/paddlehub/fastdeploy/yolov7.onnx
wget https://gitee.com/paddlepaddle/PaddleDetection/raw/release/2.4/demo/000000087038.jpg
#下载部署示例代码
git clone https://github.com/PaddlePaddle/FastDeploy.git
cd examples/vison/detection/yolov7/python/
# CPU推理
python infer.py --model yolov7.onnx --image 000000087038.jpg --device cpu
# GPU推理
@@ -22,7 +26,6 @@ python infer.py --model yolov7.onnx --image 000000087038.jpg --device gpu --use_
运行完成可视化结果如下图所示
## YOLOv7 Python接口
```
@@ -43,6 +46,7 @@ YOLOv7模型加载和初始化其中model_file为导出的ONNX模型格式
> ```
> YOLOv7.predict(image_data, conf_threshold=0.25, nms_iou_threshold=0.5)
> ```
>
> 模型预测结口,输入图像直接输出检测结果。
>
> **参数**
@@ -59,7 +63,6 @@ YOLOv7模型加载和初始化其中model_file为导出的ONNX模型格式
> > * **size**(list | tuple): 通过此参数修改预处理过程中resize的大小包含两个整型元素表示[width, height], 默认值为[640, 640]
## 其它文档
- [YOLOv7 模型介绍](..)