mirror of
https://github.com/PaddlePaddle/FastDeploy.git
synced 2025-10-16 13:41:30 +08:00

* [Docs] rename ppseg kunlun -> kunlunxin * [Docs] rename ppseg fastdeploy kunlun docs -> kunlunxin
English | 简体中文
PaddleSeg 语义分割模型在昆仑芯上部署方案-FastDeploy
1. 说明
PaddleSeg支持利用FastDeploy在昆仑芯片上部署Segmentation模型。
支持如下芯片的部署
- 昆仑 818-100(推理芯片)
- 昆仑 818-300(训练芯片)
支持如下芯片的设备
- K100/K200 昆仑 AI 加速卡
- R200 昆仑芯 AI 加速卡
2. 使用预导出的模型列表
补充说明:
- 文件名标记了
without-argmax
的模型,导出方式为:不指定--input_shape
,指定--output_op none
- 文件名标记了
with-argmax
的模型导出方式为:不指定--input_shape
,指定--output_op argmax
3. 自行导出PaddleSeg部署模型
3.1 模型版本
支持PaddleSeg高于2.6版本的Segmentation模型,如果部署的为PP-Matting、PP-HumanMatting以及ModNet请参考Matting模型部署。目前FastDeploy测试过成功部署的模型:
3.2 模型导出
PaddleSeg模型导出,请参考其文档说明模型导出,注意:PaddleSeg导出的模型包含model.pdmodel
、model.pdiparams
和deploy.yaml
三个文件,FastDeploy会从yaml文件中获取模型在推理时需要的预处理信息
3.3 导出须知
请参考模型导出中output_op
参数的说明,获取您部署所需的模型,比如是否带argmax
或softmax
算子