mirror of
https://github.com/PaddlePaddle/FastDeploy.git
synced 2025-10-05 16:48:03 +08:00
English | 简体中文
PaddleSeg模型高性能全场景部署方案-FastDeploy
PaddleSeg支持利用FastDeploy在NVIDIA GPU、X86 CPU、飞腾CPU、ARM CPU、Intel GPU(独立显卡/集成显卡)硬件上部署Segmentation模型
模型版本说明
注意:支持PaddleSeg高于2.6版本的Segmentation模型
目前FastDeploy支持如下模型的部署
注意 如部署的为PP-Matting、PP-HumanMatting以及ModNet请参考Matting模型部署
准备PaddleSeg部署模型
PaddleSeg模型导出,请参考其文档说明模型导出
注意
- PaddleSeg导出的模型包含
model.pdmodel
、model.pdiparams
和deploy.yaml
三个文件,FastDeploy会从yaml文件中获取模型在推理时需要的预处理信息
预导出的推理模型
为了方便开发者的测试,下面提供了PaddleSeg导出的部分模型
- without-argmax导出方式为:不指定
--input_shape
,指定--output_op none
- with-argmax导出方式为:不指定
--input_shape
,指定--output_op argmax
开发者可直接下载使用。