乐趣区

关于深度学习:编译-ONNX-模型

本篇文章译自英文文档 Compile ONNX Models — tvm 0.13.dev0 documentation
作者是 Joshua Z. Zhang
更多 TVM 中文文档可拜访 →TVM 中文站。

本文将介绍如何用 Relay 部署 ONNX 模型。

首先装置 ONNX 包,最便捷的办法举荐装置 protobuf 编译器:

pip install --user onnx onnxoptimizer

或参考官方网站:https://github.com/onnx/onnx

import onnx
import numpy as np
import tvm
from tvm import te
import tvm.relay as relay
from tvm.contrib.download import download_testdata

加载预训练的 ONNX 模型

上面示例中的超分辨率模型与 ONNX 教程 中的模型完全相同,跳过 PyTorch 模型的构建局部,下载保留的 ONNX 模型:

model_url = "".join(
    [
        "https://gist.github.com/zhreshold/",
        "bcda4716699ac97ea44f791c24310193/raw/",
        "93672b029103648953c4e5ad3ac3aadf346a4cdc/",
        "super_resolution_0.2.onnx",
    ]
)
model_path = download_testdata(model_url, "super_resolution.onnx", module="onnx")


# 当初磁盘上有 super_resolution.onnx 模型
onnx_model = onnx.load(model_path)

加载测试图像

该模型接管大小为 224×224 的单个图像作为输出,输入沿每个轴放大 3 倍的图像(即大小为 672×672)。为适配输出的 shape,从新缩放猫图像,并转换为 YCbCr。而后超分辨率模型利用于亮度(Y)通道。

from PIL import Image

img_url = "https://github.com/dmlc/mxnet.js/blob/main/data/cat.png?raw=true"
img_path = download_testdata(img_url, "cat.png", module="data")
img = Image.open(img_path).resize((224, 224))
img_ycbcr = img.convert("YCbCr")  # convert to YCbCr
img_y, img_cb, img_cr = img_ycbcr.split()
x = np.array(img_y)[np.newaxis, np.newaxis, :, :]

应用 Relay 编译模型

通常 ONNX 模型将输出值与参数值混合在一起,输出名称为 1,具体要查看模型文档来确定残缺的输出和参数名称空间。

将 shape 字典传给 relay.frontend.from_onnx 办法,以便 Relay 晓得哪些 ONNX 参数是输出,哪些是参数,并提供输出尺寸的动态定义:

target = "llvm"

input_name = "1"
shape_dict = {input_name: x.shape}
mod, params = relay.frontend.from_onnx(onnx_model, shape_dict)

with tvm.transform.PassContext(opt_level=1):
    executor = relay.build_module.create_executor("graph", mod, tvm.cpu(0), target, params
    ).evaluate()

输入后果:

/workspace/python/tvm/relay/frontend/onnx.py:5785: UserWarning: Mismatched attribute type in ': kernel_shape'

==> Context: Bad node spec for node. Name:  OpType: Conv
  warnings.warn(str(e))
/workspace/python/tvm/driver/build_module.py:268: UserWarning: target_host parameter is going to be deprecated. Please pass in tvm.target.Target(target, host=target_host) instead.
  "target_host parameter is going to be deprecated."

在 TVM 上执行

dtype = "float32"
tvm_output = executor(tvm.nd.array(x.astype(dtype))).numpy()

查看后果

将输出和输入图像放在一起比对。亮度通道 Y 是模型的输入。将色度通道 Cb 和 Cr 调整到匹配简略的双三次算法,而后将图像重新组合,并转换回 RGB。

from matplotlib import pyplot as plt

out_y = Image.fromarray(np.uint8((tvm_output[0, 0]).clip(0, 255)), mode="L")
out_cb = img_cb.resize(out_y.size, Image.BICUBIC)
out_cr = img_cr.resize(out_y.size, Image.BICUBIC)
result = Image.merge("YCbCr", [out_y, out_cb, out_cr]).convert("RGB")
canvas = np.full((672, 672 * 2, 3), 255)
canvas[0:224, 0:224, :] = np.asarray(img)
canvas[:, 672:, :] = np.asarray(result)
plt.imshow(canvas.astype(np.uint8))
plt.show()

输入后果:

/workspace/gallery/how_to/compile_models/from_onnx.py:120: DeprecationWarning: BICUBIC is deprecated and will be removed in Pillow 10 (2023-07-01). Use Resampling.BICUBIC instead.
  out_cb = img_cb.resize(out_y.size, Image.BICUBIC)
/workspace/gallery/how_to/compile_models/from_onnx.py:121: DeprecationWarning: BICUBIC is deprecated and will be removed in Pillow 10 (2023-07-01). Use Resampling.BICUBIC instead.
  out_cr = img_cr.resize(out_y.size, Image.BICUBIC)

留神
ONNX 导入器在导入时默认依据动静 shape 定义模型,编译器在编译时将模型转换为动态 shape。如果失败,模型中可能仍存在动静操作。目前并非所有 TVM 内核都反对动静 shape,如果遇到动静内核谬误,请在 discuss.tvm.apache.org 上提交 issue。

这个特定的模型是用旧版本的 ONNX 构建的。在导入阶段,ONNX 导入器运行 ONNX 验证程序(可能抛出属性类型不匹配的正告)。因为 TVM 反对许多不同的 ONNX 版本,所以 Relay 模型依然无效。

下载 Python 源代码:from_onnx.py

下载 Jupyter Notebook:from_onnx.ipynb

退出移动版