Files
DefTruth 5b143219ce [Docs] Pick seg fastdeploy docs from PaddleSeg (#1482)
* [Docs] Pick seg fastdeploy docs from PaddleSeg

* [Docs] update seg docs

* [Docs] Add c&csharp examples for seg

* [Docs] Add c&csharp examples for seg

* [Doc] Update paddleseg README.md

* Update README.md
2023-03-17 11:22:46 +08:00
..

English | 简体中文

PaddleSeg 语义分割模瑞芯微NPU部署方案-FastDeploy

1. 说明

本示例基于RV1126来介绍如何使用FastDeploy部署PaddleSeg模型支持如下芯片的部署

  • Rockchip RV1109
  • Rockchip RV1126
  • Rockchip RK1808

2. 预导出的量化推理模型

为了方便开发者的测试下面提供了PaddleSeg导出的部分量化后的推理模型开发者可直接下载使用。

模型 参数文件大小 输入Shape mIoU mIoU (flip) mIoU (ms+flip)
PP-LiteSeg-T(STDC1)-cityscapes-without-argmax 31MB 1024x512 77.04% 77.73% 77.46%
注意
  • PaddleSeg量化模型包含model.pdmodelmodel.pdiparamsdeploy.yamlsubgraph.txt四个文件FastDeploy会从yaml文件中获取模型在推理时需要的预处理信息subgraph.txt是为了异构计算而存储的配置文件

3. 自行导出RV1126支持的INT8模型

3.1 模型版本

支持PaddleSeg高于2.6版本的Segmentation模型。目前FastDeploy测试过成功部署的模型:

3.2 模型导出

PaddleSeg模型导出请参考其文档说明模型导出注意PaddleSeg导出的模型包含model.pdmodelmodel.pdiparamsdeploy.yaml三个文件FastDeploy会从yaml文件中获取模型在推理时需要的预处理信息

3.3 导出须知

请参考模型导出output_op参数的说明,获取您部署所需的模型,比如是否带argmaxsoftmax算子

3.4 转换为为RV1126支持的INT8模型

瑞芯微RV1126仅支持INT8将推理模型量化压缩为INT8模型FastDeploy模型量化的方法及一键自动化压缩工具可以参考模型量化

4. 详细的部署示例

目前,瑞芯微 RV1126 上只支持C++的部署。