mirror of
https://github.com/PaddlePaddle/FastDeploy.git
synced 2025-10-29 02:52:55 +08:00
PaddleClas Ascend NPU C++ 部署示例
本目录下提供的 infer.cc,可以帮助用户快速完成 PaddleClas 模型在华为昇腾NPU上的部署.
本例在鲲鹏920+Atlas 300I Pro的硬件平台下完成测试.(目前暂不支持 X86 CPU的Linux系统部署)
部署准备
华为昇腾NPU 部署环境编译准备
-
- 软硬件环境满足要求,以及华为昇腾NPU的部署编译环境的准备,请参考:FastDeploy 华为昇腾NPU部署环境编译准备
在 华为昇腾NPU 上部署ResNet50_Vd分类模型
请按照以下步骤完成在 华为昇腾NPU 上部署 ResNet50_Vd 模型:
-
在当前路径下载部署所需的模型和示例图片:
mkdir models && mkdir images
# 下载模型,并放置于models目录下
wget https://bj.bcebos.com/paddlehub/fastdeploy/ResNet50_vd_infer.tgz
tar -xvf ResNet50_vd_infer.tgz
cp -r ResNet50_vd_infer models
# 下载图片,放置于images目录下
wget https://gitee.com/paddlepaddle/PaddleClas/raw/release/2.4/deploy/images/ImageNet/ILSVRC2012_val_00000010.jpeg
cp -r ILSVRC2012_val_00000010.jpeg images
- 编译部署示例,用户直接运行本目录下的
build.sh文件,或者使用如下命令:
mkdir build && cd build
cmake .. -DFASTDEPLOY_INSTALL_DIR=../../../../../../build/fastdeploy-cann/
make -j8
# 编译成功后,会在build目录下生成infer_demo
- 运行示例
用户直接运行
install文件夹下的run.sh脚本即可.
部署成功后输出结果如下:
ClassifyResult(
label_ids: 153,
scores: 0.685547,
)
#此结果出现后,还会出现一些华为昇腾自带的log信息,属正常现象.