Files
贝狄威尔 239ae0f671 update AnimeGAN/eval.py.
使用if替代assert,并添加错误提示

Signed-off-by: 贝狄威尔 <751387081@qq.com>
2022-09-26 08:11:26 +00:00
..
2022-09-13 03:22:29 +00:00
2022-09-26 08:11:26 +00:00
2022-09-21 09:21:54 +00:00
2022-09-26 01:33:17 +00:00

AnimeGAN图像风格转换

1 介绍

本样例基于MindX SDK开发可以实现从真实世界图片到动漫风格图片的风格转换,在昇腾芯片上对输入图片进行图像风格转换并将转换结果保存,支持多档次的动态分辨率输入。

本应用基于AnimeGAN模型。AnimeGAN是在2019年提出的用于图像风格迁移的模型该模型基于GAN模型可以快速地将真实世界的图像转换成高质量的动漫风格的图像。

主要处理流程为:输入图片 > 图像缩放 > 图像解码 > 风格迁移 > 推理结果后处理 > 结果保存。

1.1 支持的产品

Atlas 200DK

1.2 支持的版本

本样例配套的 CANN 版本为 5.1.RC2。支持的 SDK 版本为 3.0.RC2

1.3 软件方案介绍

基于MindX SDK的AnimeGAN风格转换模型的推理流程为

首先使用openCV将待转换图片缩放至合适的分辨率档位然后通过appsrc插件输入然后使用图像解码插件mxpi_imagedecoder对图片进行解码再通过图像标准化插件mxpi_imagenormalize将图片数据标准化到[-1,1],然后输入模型推理插件mxpi_tensorinfer最后通过自定义的后处理插件anmieganpostprocess得到对推理结果进行后处理并保存。本系统的各模块及功能如表1所示

表1 系统方案各模块功能描述:

序号 子系统 功能描述
1 图片输入 调用MindX SDK的appsrc输入图片
2 图片解码 调用MindX SDK的mxpi_imagedecoder解码图片为RGB数据
3 图片标准化 调用MindX SDK的mxpi_imagenormalize将图片数据标准化到[-1,1]
4 模型推理 调用MindX SDK的mxpi_tensorinfer对输入张量进行推理
5 后处理 调用自定义的后处理插件对模型推理输出映射回[0,255]转换成RBG数据并保存

1.4 代码目录结构与说明

项目名称为AnimeGAN项目目录如下图所示

│  README.md
│  main.py                  # 主程序
|  eval.py                  # 测量NPU生成的图片与Tensorflow框架生成的图片的SSIM
|  animegan.pipeline        # pipeline文件
├─dataset
├─results
├─models
│      AnimeGAN_FD.om       # 应用推理所需的om模型
├─plugins
│  ├─AnimeGANPostProcessor  # AnimeGAN后处理插件
│  │      build.sh          # 编译AnimeGAN后处理插件的脚本
│  │      CMakeLists.txt
│  │      AnimeGANPostProcessor.cpp
│  │      AnimeGANPostProcessor.h

1.5 技术实现流程图

pic

1.6 特性及适用场景

本案例可以满足图像风格迁移,但同时对输入的图像有以下限制:

  1. 输入图像要求为 jpg、jpeg、JPG、JPEG编码格式。
  2. 输入图像要求为彩色的现实图像。
  3. 当输入图片尺寸过大或过小,会进行放缩处理。

2 环境依赖

推荐系统为ubuntu 18.04,环境依赖软件和版本如下表:

软件名称 版本
cmake 3.5.+
mxVision 3.0.RC2
Python 3.9.12
CANN 5.1.RC1
gcc 7.5.0

在编译运行项目前,需要设置环境变量:

在CANN以及MindX SDK的安装目录找到set_env.sh,并运行脚本:

bash ${SDK安装路径}/set_env.sh
bash ${CANN安装路径}/set_env.sh

3 软件依赖

推理中涉及到Python第三方软件依赖如下表

软件名称 版本 说明
opencv-python 4.6.0.66
scikit-image 0.19.3 仅在eval.py中依赖用于测量GPU生成图片和NPU生成图片的SSIM

4 依赖安装

CANN的安装包可以在CANN 社区版获取。

CANN的安装教程可以查看CANN安装(命令行)

MindX SDK的安装包可以在mxVision 社区版获取。

MindX SDK的安装教程可以查看安装MindX SDK开发套件

对于Python依赖可以使用pip进行安装

pip3 install opencv-python==4.6.0.66 scikit-image==0.19.3

5 模型转换

MindX SDK支持的模型为离线om模型因此需进行模型转换使用ATC模型转换工具将pb模型转化为om模型。如果原始模型是ckpt模型还需要先转换成pb模型然后再转换成om模型。ckpt模型文件转换成pb文件的相关介绍参考此处。ATC模型转换工具相关介绍参考CANN文档。本项目模型参考链接为Tensorflow模型地址

首先通过模型OBS地址获取已经转换好的pb模型和支持动态分辨率的om模型。

下载pb模型之后将pb文件移至models目录下,并在终端执行如下命令:

atc  --output_type="generator/G_MODEL/output:0:FP32" --input_shape="test:1,-1,-1,3" --out_nodes="generator/G_MODEL/output:0" --input_format=NHWC --output="models/AnimeGAN_FD" --soc_version=Ascend310 --dynamic_image_size="384,384;384,512;384,640;384,768;384,896;384,1024;384,1152;384,1280;384,1408;384,1536;512,384;512,512;512,640;512,768;512,896;512,1024;512,1152;512,1280;512,1408;512,1536;640,384;640,512;640,640;640,768;640,896;640,1024;640,1152;640,1280;640,1408;640,1536;768,384;768,512;768,640;768,768;768,896;768,1024;768,1152;768,1280;768,1408;768,1536;896,384;896,512;896,640;896,768;896,896;896,1024;896,1152;896,1280;896,1408;896,1536;1024,384;1024,512;1024,640;1024,768;1024,896;1024,1024;1024,1152;1024,1280;1024,1408;1024,1536;1152,384;1152,512;1152,640;1152,768;1152,896;1152,1024;1152,1152;1152,1280;1152,1408;1152,1536;1280,384;1280,512;1280,640;1280,768;1280,896;1280,1024;1280,1152;1280,1280;1280,1408;1280,1536;1408,384;1408,512;1408,640;1408,768;1408,896;1408,1024;1408,1152;1408,1280;1408,1408;1408,1536;1536,384;1536,512;1536,640;1536,768;1536,896;1536,1024;1536,1152;1536,1280;1536,1408;1536,1536" --framework=3 --model="models/AnimeGAN.pb" --precision_mode=force_fp32

以上命令将模型转化为具有多档位的动态分辨率模型,转成单档位固定分辨率可使用如下命令:

atc  --output_type="generator/G_MODEL/output:0:FP32" --input_shape="test:1,864,864,3" --out_nodes="generator/G_MODEL/output:0"  --input_format=NHWC --output="models/AnimeGAN_864" --soc_version=Ascend310 --framework=3 --model="models/AnimeGAN.pb" --precision_mode=force_fp32

上述使用多档位动态分辨率模型转换命令的模型支持高从384以128为公差递增至1536宽从384以128为公差递增至1536的分辨率组合。 使用单档位固定分辨率模型转换命令的模型支持(864,864)的分辨率。

如果在转换时使用的档位与上述命令不同则需要对main.py的MAX_H,MIN_H,MAX_W,MIN_W,H_MULTIPLES,W_MULTIPLES参数进行修改。

对于单档位固定分辨率,可以给MAX_HMIN_H赋于同样的固定的高,给MAX_WMIN_W赋予同样的固定的宽,给H_MULTIPLES,W_MULTIPLES赋予1。

对于多档位动态分辨率比如使用高从256以64为公差递增至512宽从512以128为公差递增至1024的分辨率组合可以分别给上述参数赋512,256,1024,512,64,128。

但是如果是不能用等差公式枚举的多档位分辨率组合就需要用户自行重写main.py中的preprocess函数。

6 编译与运行

  • 编译插件

    bash plugins/AnimeGANPostProcessor/build.sh
    # 运行脚本后会在plugins/AnimeGANPostProcessor/lib/plugins下生成so文件
    

    将该文件拷贝至MindX SDK的plugins目录中注意插件文件权限应为640否则运行时会报权限错误

    cp plugins/AnimeGANPostProcessor/lib/plugins/libanimeganpostprocessor.so ${MX_SDK_HOME}/lib/plugins
    
  • 修改路径

    本应用使用的数据集是使用的是原模型数据集提供的数据集中的dataset/test/HR_photo。HR_photo中的图片都是较大分辨率的图片且分辨率不固定。将其拷贝进项目里的dataset/HR_photo并更改main.py中的DATA_PATH为图片所在的文件夹若要使用自定义数据集也可自行修改DATA_PATH。

    DATA_PATH = "dataset/HR_photo"
    

    更改animegan.pipeline中tensorinfer插件的modelPath为模型所在路径

      "mxpi_tensorinfer0": {
        "props": {
          "dataSource": "mxpi_imagenormalize0",
          "modelPath": "models/AnimeGAN_FD.om",
          "waitingTime": "8000"
        },
        "factory": "mxpi_tensorinfer",
        "next": "animeganpostprocessor0"
      }
    

    更改animegan.pipeline中animeganpostprocessor插件的outputPath为输出文件夹路径若该文件夹不存在请先创建文件夹。若该文件夹中已有图片请先清空。

        "animeganpostprocessor0": {
        "props": {
          "dataSource": "mxpi_tensorinfer0",
          "outputPath": "results/npu"
        },
        "factory": "animeganpostprocessor",
        "next": "appsink0"
      }
    
  • 运行

    运行前注意清空outputPath指定的输出路径里的图片因为在测试时需要保证输出路径里的图片与测试参照组有一一对应的关系。

    python main.py
    

    运行成功后会在animegan.pipeline中animeganpostprocessor插件的outputPath指定的输出路径生成对应输入的经过风格迁移的图片。

  • 测试

    此处提供GPU端Tensorflow版本模型生成的结果图片作为参考GPU推理结果下载

    下载GPU端的图片后将其中的HR_photo_eval放置于results下运行eval.py代码指定GPU端的图片路径和刚才运行成功得到的NPU端的图片路径即可计算出GPU端和NPU端对于HR_photo数据集推理结果的平均PSNR和SSIM。

    python eval.py --gpu_results_dir results/HR_photo_eval  --npu_results_dir results/npu
    

    提供的GPU端的推理结果还有另一个数据集的推理结果其来自于提供的原模型数据集数据集中的dataset/test/real与HR_photo不同的是该数据集的图片分辨率较小且固定为255*255。若还要另外测试对于此数据集GPU端与NPU端的平均PSNR和SSIM可按照上述步骤重复。

    将原模型数据集中的dataset/test/real拷贝至项目中的dataset/real并修改main.py中的DATA_PATH。

    DATA_PATH = "dataset/real"
    

    更改animegan.pipeline中animeganpostprocessor插件的outputPath以防HR_photo数据集的推理结果干扰。或者不更改路径再次将该文件夹清空亦可。总之要保证在运行前输出文件夹为空这样才可以保持测试参照组的数量和输出结果的数量对应可以进行测试。

    此处我们更改outputPath为npu_real。

        "animeganpostprocessor0": {
        "props": {
          "dataSource": "mxpi_tensorinfer0",
          "outputPath": "results/npu_real"
        },
        "factory": "animeganpostprocessor",
        "next": "appsink0"
      }
    

    运行主程序生成关于real数据集的风格迁移图片。

    python main.py
    

    将提供的GPU端图片中的real_eval放置于results下并再次运行测试代码注意指定的推理结果路径要根据上述的修改而变化。

    python eval.py --gpu_results_dir results/real_eval  --npu_results_dir results/npu_real
    
  • 注意事项

    1.先获取pb模型并使用命令转化成所需要的om模型并放置在models目录下。

    2.所需的环境变量推荐使用CANN和MindX SDK安装目录下的set_env.sh进行导入。

    3.运行时请准备图片按上述命令执行后风格转换结果会生成在results/npu路径下,该路径可以在pipeline中修改animeganpostprocessor的outputPath属性来变更。

7 常见问题

7.1 后处理库权限问题

问题描述:

提示Check Owner permission failed: Current permission is 7, but required no greater than 6.

解决方案:

后处理库so文件权限太高需要降低权限至640,参见6 编译与运行一节有关编译的内容。