Files
FastDeploy/examples/vision/matting/modnet/python/README.md
WJJ1995 718698a32a [Model] add RobustVideoMatting model (#400)
* add yolov5cls

* fixed bugs

* fixed bugs

* fixed preprocess bug

* add yolov5cls readme

* deal with comments

* Add YOLOv5Cls Note

* add yolov5cls test

* add rvm support

* support rvm model

* add rvm demo

* fixed bugs

* add rvm readme

* add TRT support

* add trt support

* add rvm test

* add EXPORT.md

* rename export.md

* rm poros doxyen

* deal with comments

* deal with comments

* add rvm video_mode note

Co-authored-by: Jason <jiangjiajun@baidu.com>
Co-authored-by: DefTruth <31974251+DefTruth@users.noreply.github.com>
2022-10-26 14:30:04 +08:00

3.8 KiB
Executable File
Raw Blame History

MODNet Python部署示例

在部署前,需确认以下两个步骤

本目录下提供infer.py快速完成MODNet在CPU/GPU以及GPU上通过TensorRT加速部署的示例。执行如下脚本即可完成

#下载部署示例代码
git clone https://github.com/PaddlePaddle/FastDeploy.git
cd examples/vision/matting/modnet/python/

#下载modnet模型文件和测试图片
wget https://bj.bcebos.com/paddlehub/fastdeploy/modnet_photographic_portrait_matting.onnx
wget https://bj.bcebos.com/paddlehub/fastdeploy/matting_input.jpg
wget https://bj.bcebos.com/paddlehub/fastdeploy/matting_bgr.jpg

# CPU推理
python infer.py --model modnet_photographic_portrait_matting.onnx --image matting_input.jpg --bg matting_bgr.jpg --device cpu
# GPU推理
python infer.py --model modnet_photographic_portrait_matting.onnx --image matting_input.jpg --bg matting_bgr.jpg --device gpu
# GPU上使用TensorRT推理
python infer.py --model modnet_photographic_portrait_matting.onnx --image matting_input.jpg --bg matting_bgr.jpg --device gpu --use_trt True

运行完成可视化结果如下图所示

MODNet Python接口

fastdeploy.vision.matting.MODNet(model_file, params_file=None, runtime_option=None, model_format=ModelFormat.ONNX)

MODNet模型加载和初始化其中model_file为导出的ONNX模型格式

参数

  • model_file(str): 模型文件路径
  • params_file(str): 参数文件路径当模型格式为ONNX格式时此参数无需设定
  • runtime_option(RuntimeOption): 后端推理配置默认为None即采用默认配置
  • model_format(ModelFormat): 模型格式默认为ONNX

predict函数

MODNet.predict(image_data)

模型预测结口,输入图像直接输出抠图结果。

参数

  • image_data(np.ndarray): 输入数据注意需为HWCBGR格式

返回

返回fastdeploy.vision.MattingResult结构体,结构体说明参考文档视觉模型预测结果

类成员属性

预处理参数

用户可按照自己的实际需求,修改下列预处理参数,从而影响最终的推理和部署效果

  • size(list[int]): 通过此参数修改预处理过程中resize的大小包含两个整型元素表示[width, height], 默认值为[256, 256]
  • alpha(list[float]): 预处理归一化的alpha值计算公式为x'=x*alpha+betaalpha默认为[1. / 127.5, 1.f / 127.5, 1. / 127.5]
  • beta(list[float]): 预处理归一化的beta值计算公式为x'=x*alpha+betabeta默认为[-1.f, -1.f, -1.f]
  • swap_rb(bool): 预处理是否将BGR转换成RGB默认True

其它文档