mirror of
https://github.com/PaddlePaddle/FastDeploy.git
synced 2025-11-03 02:53:26 +08:00
English | 简体中文
PaddleSeg利用FastDeploy在昆仑芯上部署模型
PaddleSeg支持部署的昆仑芯的芯片型号
支持如下芯片的部署
- 昆仑 818-100(推理芯片)
- 昆仑 818-300(训练芯片)
支持如下芯片的设备
- K100/K200 昆仑 AI 加速卡
- R200 昆仑芯 AI 加速卡
PaddleSeg支持利用FastDeploy在昆仑芯片上部署Segmentation模型
模型版本说明
注意:支持PaddleSeg高于2.6版本的Segmentation模型
目前FastDeploy支持如下模型的部署
注意 若需要在华为昇腾上部署PP-Matting、PP-HumanMatting请从Matting模型部署下载对应模型,部署过程与此文档一致
准备PaddleSeg部署模型
PaddleSeg模型导出,请参考其文档说明模型导出
注意
- PaddleSeg导出的模型包含
model.pdmodel、model.pdiparams和deploy.yaml三个文件,FastDeploy会从yaml文件中获取模型在推理时需要的预处理信息
预导出的推理模型
为了方便开发者的测试,下面提供了PaddleSeg导出的部分模型
- without-argmax导出方式为:不指定
--input_shape,指定--output_op none - with-argmax导出方式为:不指定
--input_shape,指定--output_op argmax
开发者可直接下载使用。