关于人工智能:TensorFlow对象检测10和20训练导出优化TensorRT推断Jetson-Nano

60次阅读

共计 21292 个字符,预计需要花费 54 分钟才能阅读完成。

作者 |Abhishek
编译 |Flin
起源 |analyticsvidhya

第 1 局部

从在自定义数据集中训练检测器到应用 TensorFlow 1.15 在 Jetson 纳米板或云上进行推理的具体步骤

残缺代码可在 GitHub 上取得

  • TensorFlow 对象检测 API V2 的教程可作为 jupyter notebook 应用

    • https://github.com/Tessellate…
  • TensorFlow 对象检测 API V1 的教程可作为 jupyter notebook 应用

    • https://github.com/Tessellate…

一些常见的艰难包含

  • 应用对象检测 API 库查找兼容的 TensorFlow(和相干的 cuda)版本
  • 将自定义数据转换为 tf 记录格局
  • 混同了 tf1.0 和 tf2.0 的流程
  • 手动更新模型配置文件以进行训练
  • 运行训练过程并解决配置文件中的问题
  • 将模型从一种格局导出到另一种格局以进行推理
  • 混合了不同的模型格局类型——检查点、解冻图、saved_model (” .pb “)、tensorRT 推断图等等
  • 在训练模型上运行推理
  • 将训练后的模型转换为量化格局,以便部署在诸如 Jetson Nano 的板上
  • 构建引擎和部署引擎之间的 tensorRT 版本和 cuda 计算能力不匹配

这个清单永无止境……

为克服上述一些问题,咱们在 Monk Object Detection Toolkit 中的 Tensorflow 对象检测 API 的两个版本上增加了一个低代码的 pythonic 包装器

应用它,开发人员和钻研人员能够轻松地

  • 应用 TF 推送定制训练数据集
  • 应用 pythonic API 配置所有参数的模型文件
  • 依据应用的网络和 cuda 版本的可用性,在 TF1.0 和 TF2.0 之间进行抉择
  • 依据本人的数据集训练、导出、优化、推断
  • 应用 TensorRT 优化模型并导出到云服务器或 Jetson Nano 等嵌入式板

传统流程概述

上面提到的是应用 TF 训练和部署定制探测器的过程。在形容过程流程的同时,还强调了一个人在使一切正常工作时所面临的问题;还提到了 tf1.0 和 2.0 版本的对象检测库的区别

过程 A:TensorFlow 与指标检测安装的兼容性

  • 要应用对象检测 2.0,请应用 TensorFlow 2.3.0。版本 2.0.0 和 2.1.0 通常会导致“tensorflow_core.keras.utils”. 2.2.0 版在应用“CollectiveAllReduceExtended”模块进行训练时会导致谬误。
  • 应用 TensorFlow 2.3.0 时,须要 Cuda 10.1。
  • 要应用对象检测 1.0,请应用 TensorFlow 版本 1.15.0 或 1.15.2。
  • 应用 TensorFlow 1.15 时,须要 Cuda 10.0。
  • TFLite 转换依然存在某些谬误(将在当前的博客中探讨)

过程 B:设置数据集

  • TensorFlow 提供数据集工具以将数据转换为可承受的 TF 记录格局
  • 然而这些示例仅实用于最罕用的数据集,例如 COCO,Pascal VOC,OpenImages,Pets-Dataset 等。用户须要依据抉择的示例笔记本,依照 COCO、VOC、OID 等格局从新格式化和排列数据集
  • 另一种办法是更新示例代码以便提取自定义数据集,这自身就是一个艰巨的过程
  • 为了使自定义数据集的加载变得容易,咱们批改了示例并增加了进一步的解析器以反对多种数据正文类型,并将其间接转换为 TF-Records。

过程 C:更新配置并开始训练过程

  • Monk 的对象检测 API 1.0 包装器反对大概 23 个模型,对象检测 API 2.0 反对大概 26 个模型
  • 一旦抉择了模型并下载了权重,就必须手动更新配置文件。
  • API 1.0 和 2.0 的配置文件格式不同,须要以略微不同的形式进行手动更改
  • tf1.0 中的某些配置存在根本特征提取参数的问题。
  • 在对配置文件利用更新后,整个工作区必须依照 TF Obj github site 站点上的教程指定的形式进行安顿。

    • 站点:https://github.com/tensorflow…

  • 重新安排后,能够开始训练。同样,针对 TF 1.0 和 TF 2.0 模型的训练是不同的。
  • 通过“Monk 对象检测”,咱们增加了 pythonic 函数来更新配置文件,并且不再须要为工作空间应用严格的文件夹构造。两种 TF 版本的训练过程简直都与 Monk 的包装程序雷同。

过程 D:导出经过训练的模型以进行推理

  • 两种对象检测 API 均以检查点 (“.ckpt”) 格局提供训练有素的模型。
  • 为了在 TF 1.0 中进行推理,通常应用解冻图形格局。
  • 为了在 TF 2.0 中进行推理,通常应用保留的模型格局。
  • 特地是对于初学者来说,转换模型的过程在两个 API 中都不雷同,通常很难弄清楚
  • 为了简化流程,咱们增加了解析器,以使内部包装器格局放弃雷同,这意味着咱们能同时应用 TF 1.0 API 和 TF 2.0 API。

过程 E:TensorRT 推论的模型优化

  • 导出的模型最终应用 TensorRT 转换为优化版本。
  • 反对的优化包含浮点 32 位和 16 位(FP32,FP16)和整数 8 位(INT8)量化。
  • 从 tf1.0 和 tf2.0 转换导出模型的量化过程是齐全不同的。
  • TensorRT 的版本存在其余问题。这意味着,应用 TensorRT 版本 5.1.5 优化的模型无奈在应用 TensorRT 版本 5.1.6 的部署计算机上运行。一个十分具体的问题是应用 TensorFlow 1.15.0 的对象检测 1.0。这个 TensorFlow 带有 tensorRT 5.1.5,而 Jetpacks 中没有这样的版本。
  • TensorRT 的另一个问题是 cuda 计算性能。意思是,除非采取适当措施,否则在具备 7.0 版计算能力的 GPU(V100 Nvidia GPU)上优化的模型不能在具备 5.3 版计算能力的 GPU(Jetson 纳米板)上运行。
  • 此博客通过训练和优化对象检测模型廓清了所有疑难

过程 F:在 Jetson Nano 板上设置所有货色

  • 因为两个 API 都须要不同的 TensorFlow 版本,因而装置过程有所不同,Jetpack 版本,CUDA 版本以及 TF 1.0 在波及 tensorRT 版本时都须要进一步留神。

让咱们从版本 1.0 开始,每次应用一个对象检测 API 模块。

TF 对象检测 API 1.0

过程 A:在开发机器上装置

将要装置的库

  • 先决条件:numpy,scipy,pandas,pillow,OpenCV-python
  • 带 TensorRT 5.1.5 的 TensorFlow-GPU V1.15.0;如果在 Nano 板上部署则不须要
  • 带 TensorRT 6.0.1 的 TensorFlow-GPU V1.15.2;如果在 Nano 板上进行部署,则须要
  • 应用 Monk Object Detection Toolkit 的 TF 对象检测 API 1.0

(确保 CUDA 10.0 和 CUDNN 7 随零碎一起装置了 NVidia 驱动程序)

当模型要部署在 Jetson Nano 板上时,请依照以下阐明配置你的开发(训练)机器

装置必备的 Python 库

$ git clone https://github.com/Tessellate-Imaging/Monk_Object_Detection.git

$ cd Monk_Object_Detection/12_tf_obj_1/installation

$ chmod +x install_cuda10_tensorrt6_part1.sh && ./install_cuda10_tensorrt6_part1.sh

装置 TensorRT 6.0.1

# Go to https://developer.nvidia.com/tensorrt
# Download 
# - nv-tensorrt-repo-ubuntu1804-cuda10.0-trt6.0.1.5-ga-20190913_1-1_amd64.deb (For Ubuntu18.04)
# - nv-tensorrt-repo-ubuntu1604-cuda10.0-trt6.0.1.5-ga-20190913_1-1_amd64.deb (For Ubuntu16.04)

# Run the following commands to install trt (in a terminal)

$ sudo dpkg -i nv-tensorrt-repo-ubuntu1804-cuda10.0-trt6.0.1.5-ga-20190913_1-1_amd64.deb
$ sudo apt-key add <key value will be mentioned as the output of previous command>
$ sudo apt-get update
$ sudo apt-get install tensorrt
$ sudo apt-get install uff-converter-tf
$ sudo apt-get install python3-libnvinfer-dev

装置 Bazel 0.26.1 并从 GitHub 克隆 TensorFlow

# Install bazel version 0.26.1
# Download bazel deb package from https://github.com/bazelbuild/bazel/releases/tag/0.26.1

$ sudo dpkg -i bazel_0.26.1-linux-x86_64.deb

# Clone Tensorflow and switch to tensorflow 1.15.2

$ git clone https://github.com/tensorflow/tensorflow.git
$ cd tensorflow
$ git checkout v1.15.2

配置 TensorFlow

# Configure tensorflow

$ ./configure

    - Do you wish to build TensorFlow with XLA JIT support? [Y/n]: Y

    - Do you wish to build TensorFlow with OpenCL SYCL support? [y/N]: N

    - Do you wish to build TensorFlow with ROCm support? [y/N]: N

    - Do you wish to build TensorFlow with CUDA support? [y/N]: Y      

    - Do you wish to build TensorFlow with TensorRT support? [y/N]: Y

    - And press enter (set default) for all other config questions asked by the setup

构建并装置 TensorFlow(在 AWS P3.2x 实例上大概须要 5 个小时)

# Build tensorflow using bazel

$ bazel build --config=opt --config=cuda //tensorflow/tools/pip_package:build_pip_package


# Once built create a wheel file for python installation and run pip installer

$ bazel-bin/tensorflow/tools/pip_package/build_pip_package tensorflow_pkg

$ cd tensorflow_pkg && pip install tensorflow*.whl

最初构建对象检测 API 1.0

# Compile Object Detection API v1

$ cd Monk_Object_Detection/12_tf_obj_1/installation

$ chmod +x install_cuda10_tensorrt6_part2.sh && ./install_cuda10_tensorrt6_part2.sh

当不打算在 Jetson Nano Board 上部署模型时,请依照以下阐明配置你的开发(训练)机器

装置所有必须的库并编译对象检测 API 1.0

$ git clone https://github.com/Tessellate-Imaging/Monk_Object_Detection.git

$ cd Monk_Object_Detection/12_tf_obj_1/installation

$ chmod +x install_cuda10.sh && ./install_cuda10.sh

装置 TensorRT 5.1.5 作为预构建的 TensorFlow 1.15.0 反对

# Go to https://developer.nvidia.com/tensorrt
# Download 
# - nv-tensorrt-repo-ubuntu1804-cuda10.0-trt5.1.5.0-ga-20190427_1-1_amd64.deb (For Ubuntu18.04)
# - nv-tensorrt-repo-ubuntu1604-cuda10.0-trt5.1.5.0-ga-20190427_1-1_amd64.deb(For Ubuntu16.04)

# Run the following commands to install trt (in a terminal)

$ sudo dpkg -i nv-tensorrt-repo-ubuntu1804-cuda10.0-trt5.1.5.0-ga-20190427_1-1_amd64.deb
$ sudo apt-key add <key value will be mentioned as the output of previous command>
$ sudo apt-get update
$ sudo apt-get install tensorrt
$ sudo apt-get install uff-converter-tf
$ sudo apt-get install python3-libnvinfer-dev

应用 google colab 时,请遵循以下阐明(TensorRT 在 colab 上可能无奈失常运行)

# Switch to TF 1.0 version (Run the following line)
$ %tensorflow_version 1.x
# Now reset the runetime if prompted by colab

# Run the following commands
$ git clone https://github.com/Tessellate-Imaging/Monk_Object_Detection.git
$ cd Monk_Object_Detection/12_tf_obj_1/installation
$ chmod +x install_colab.sh && ./install_colab.sh

过程 B:建设数据集

Monk 对象检测解析器要求数据集采纳 COCO 或 Pascal VOC 格局。对于本教程,让咱们保持应用 Pascal VOC 格局

要将数据集从任何格局转换为 Pascal VOC,请查看以下具体教程

  • https://github.com/Tessellate…

在这个例子中,船检测数据集取自一个对于应用 retinanet 进行对象检测的旧博客

  • 船检测数据集:https://www.tejashwi.io/objec…
  • 博客:https://www.tejashwi.io/objec…

在这个 jupyter notebook 中提到了应用这些数据的步骤

  • https://github.com/Tessellate…

过程 C:更新配置并启动训练过程

加载训练引擎

from train_detector import Detector

gtf = Detector();

在 TF 1.15 模型库中加载所有可用模型

目前,它反对 24 种不同型号的 SSD 和 Faster RCNN

加载训练验证数据集

将正文转换为 VOC 格局后加载数据集

依据可用的 GPU 设置批次大小。在本教程中,应用了带 v100gpu(16gbvram)的 AWS ec2p3.2x 计算机,批次大小为 24 非常适合。

train_img_dir = "ship/images/Train";
train_anno_dir = "ship/voc/";
class_list_file = "ship/classes.txt";

gtf.set_train_dataset(train_img_dir, train_anno_dir, class_list_file, batch_size=24)

运行解析器将数据集转换为 tfrecords

Tf Record 文件将存储在 data_tfrecord 文件夹中

gtf.create_tfrecord(data_output_dir="data_tfrecord")

抉择并加载模型

下载模型后,Monk 会依据所选参数自动更新配置文件

在本教程中,咱们应用了 SSD MobileNet V1,它能够接管形态为 320x320x3 RGB 图像的输出图像

gtf.set_model_params(model_name="ssd_mobilenet_v1")

设置其余训练和优化器参数

set_hyper_params(num_train_steps=10000,
lr=0.004,
lr_decay_rate=0.945,
output_dir="output_dir/",
sample_1_of_n_eval_examples=1,
sample_1_of_n_eval_on_train_examples=5,
checkpoint_dir=False,
run_once=False,
max_eval_retries=0,
num_workers=4,
checkpoint_after_every=500)

设置存储导出参数的目录

gtf.export_params(output_directory="export_dir");

设置 tensorRT 优化参数

TensorRT 优化器创立一个打算,而后构建它。构建打算是为了优化它正在构建的 GPU 的模型。

如前所述,在具备不同 cuda 计算能力的 GPU 上优化的模型无奈在 jetson nano 上运行,因而 Monk 库确保该打算在开发机(云或 colab)上编译,而该打算则在运行时在部署机(jetson nano)上构建

应用 INT8 优化时,无奈执行此性能,打算的编制和构建都必须在同一台机器上,并且 Jetson 纳米板与 8 位整数运算不太兼容

gtf.TensorRT_Optimization_Params(conversion_type="FP16", trt_dir="trt_fp16_dir")

训练探测器

检测器训练运行一个执行 sys.exit() 函数的会话,因而在其上运行的包装程序将敞开 python 零碎。

为了解决此问题,提供了一个名为 train.py 的脚本,该脚本能够在 jupyter notebook 或终端命令上运行

依据参数设置,训练好的模型将保留在名为“output_dir”的文件夹中。

# Run in a terminal
$ python Monk_Object_Detection/12_tf_obj_1/lib/train.py

# or run this command on a jupyter notebook
%run Monk_Object_Detection/12_tf_obj_1/lib/train.py

过程 D:导出经过训练的模型以进行推理

导出训练有素的检查点模型

export 函数运行一个执行 sys.exit() 函数的会话,因而在其上运行的包装器将敞开 python 零碎。

为了解决此问题,提供了一个名为 export.py 的脚本,该脚本能够在 jupyter notebook 或终端命令上运行

依据参数设置,导出的模型将保留在名为“export_dir”的文件夹中。

# Run in a terminal
$ python Monk_Object_Detection/12_tf_obj_1/lib/export.py

# or run this command on a jupyter notebook
%run Monk_Object_Detection/12_tf_obj_1/lib/export.py

过程 E:TensorRT 推论的模型优化

优化导出模型

优化函数运行一个执行 sys.exit() 函数的会话,因而在其上运行的包装程序将敞开 python 零碎。

为了解决此问题,提供了一个名为 optimize.py 的脚本,该脚本能够在 jupyter notebook 电脑或终端命令上运行

依据参数设置,优化的模型将保留在名为“trt_fp16_dir”的文件夹中。

# Run in a terminal
$ python Monk_Object_Detection/12_tf_obj_1/lib/optimize.py

# or run this command on a jupyter notebook
%run Monk_Object_Detection/12_tf_obj_1/lib/optimize.py

过程 F -1:在开发机器上运行推理

加载推理机

from infer_detector import Infer
gtf = Infer();

载入模型

首先加载导出的模型并运行步骤,而后通过加载优化的模型反复雷同的步骤(步骤放弃不变)

# To load exported model
gtf.set_model_params('export_dir/frozen_inference_graph.pb', "ship/classes.txt")

# To load optimized model
gtf.set_model_params('trt_fp16_dir/trt_graph.pb', "ship/classes.txt")

对单个图像进行推断

scores, bboxes, labels = gtf.infer_on_image('ship/test/img1.jpg', thresh=0.1);

应用两个模型运行速度测试剖析

gtf.benchmark_for_speed('ship/test/img1.jpg')

在 AWS P3.2x V100 GPU 上应用导出的模型(未优化)进行剖析

Average Image loading time : 0.0091 sec
Average Inference time     : 0.0103 sec
Result extraction time     : 0.0801 sec
total_repetitions          : 100
total_time                 : 1.0321 sec
images_per_sec             : 96
latency_mean               : 10.3218 ms
latency_median             : 10.3234 ms
latency_min                : 9.4773 ms

在 AWS P3.2x V100 GPU 上应用优化模型进行剖析

解决后优化使速度进步约 2.5 倍

Average Image loading time : 0.0092 sec
Average Inference time     : 0.0042 sec
Result extraction time     : 0.0807 sec
total_repetitions          : 100
total_time                 : 0.4241 sec
images_per_sec             : 235
latency_mean               : 4.2412 ms
latency_median             : 4.2438 ms
latency_min                : 4.0156 ms

过程 F -3:在 Jetson Nano 板上装置步骤

步骤 1:更新 Apt

$ sudo apt-get update
$ sudo apt-get upgrade

步骤 2:装置零碎库

$ sudo apt-get install nano git cmake libatlas-base-dev gfortran libhdf5-serial-dev hdf5-tools nano locate libfreetype6-dev python3-setuptools protobuf-compiler libprotobuf-dev openssl libssl-dev libcurl4-openssl-dev cython3 libxml2-dev libxslt1-dev python3-pip

$ sudo apt-get install libopenblas-dev libprotobuf-dev libleveldb-dev libsnappy-dev libhdf5-serial-dev protobuf-compiler libgflags-dev libgoogle-glog-dev liblmdb-dev

$ sudo pip3 install virtualenv virtualenvwrapper

步骤 3:更新 bashrc 文件

将这些行增加到〜/ .bashrc 文件

export VIRTUALENVWRAPPER_PYTHON=/usr/bin/python3
export WORKON_HOME=$HOME/.virtualenvs
export VIRTUALENVWRAPPER_VIRTUALENV=/usr/local/bin/virtualenv
source /usr/local/bin/virtualenvwrapper.sh

export PATH=/usr/local/cuda-10.0/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda-10.0/lib64\
${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}

运行以下命令

$ source ~/.bashrc

步骤 4:创立虚拟环境并装置所有必须的 python 库,装置 numpy 大概须要 15 分钟

$ mkvirtualenv -p /usr/bin/python3.6 tf2

$ pip install numpy==1.19.1

装置 scipy 大概须要 40 分钟

$ pip install scipy==1.5.1

装置 Jetson Nano TensorFlow-1.15。再花 15 分钟

$ pip install scikit-build protobuf cython -vvvv

$ pip install grpcio absl-py py-cpuinfo psutil portpicker six mock requests gast h5py astor termcolor protobuf keras-applications keras-preprocessing wrapt google-pasta -vvvv

$ pip install https://developer.download.nvidia.com/compute/redist/jp/v43/tensorflow-gpu/tensorflow_gpu-1.15.0+nv19.12-cp36-cp36m-linux_aarch64.whl -vvvv

装置 OpenCV 须要 1.5 个小时

$ mkdir opencv && cd opencv
$ wget -O opencv.zip https://github.com/opencv/opencv/archive/4.1.2.zip
$ unzip opencv.zip
$ mv opencv-4.1.2 opencv
$ cd opencv && mkdir build && cd build

$ cmake -D CMAKE_BUILD_TYPE=RELEASE -D WITH_CUDA=OFF -D WITH_CUBLAS=OFF -D WITH_LIBV4L=ON -D BUILD_opencv_python3=ON -D BUILD_opencv_python2=OFF -D BUILD_opencv_java=OFF -D WITH_GSTREAMER=ON -D WITH_GTK=ON -D BUILD_TESTS=OFF -D BUILD_PERF_TESTS=OFF -D BUILD_EXAMPLES=OFF -D OPENCV_ENABLE_NONFREE=OFF ..

$ make -j3
$ sudo make install

$ cd ~/.virtualenvs/tf2/lib/python3.6/site-packages
$ ln -s /usr/local/lib/python3.6/site-packages/cv2/python-3.6/cv2.cpython-36m-aarch64-linux-gnu.so cv2.so

最初克隆 Monk 对象检测库并装置 TF 对象检测 API

$ git clone https://github.com/Tessellate-Imaging/Monk_Object_Detection.git

$ cd Monk_Object_Detection/12_tf_obj_1/installation/

$ chmod +x install_nano.sh && ./install_nano.sh

过程 F -4:对于 Jetson Nano 的推论

将优化的权重文件夹复制 / 下载到 jetson nano 工作目录(克隆 Monk 库)

从 Monk_Object_Detection 库复制示例图像

$ cp -r Monk_Object_Detection/example_notebooks/sample_dataset/ship .

加载推理引擎和模型(此步骤大概须要 4 到 5 分钟)

from infer_detector import Infer

gtf = Infer();

gtf.set_model_params('trt_fp16_dir/trt_graph.pb', "ship/classes.txt")

当初,如前所述,TensorRT 负责打算并在运行时构建(优化)打算,因而第一次运行大概须要 3 - 4 分钟

scores, bboxes, labels = gtf.infer_on_image('ship/test/img5.jpg', thresh=0.5, img_size=300);

突出显示的区域显示了 Jetson Nano 的 TesnorRT 建设(优化)打算(模型)(作者领有的图像)

再次运行它不会破费太多工夫。

Benchmark 板基准剖析

gtf.benchmark_for_speed('ship/test/img1.jpg')
# With Jetson Nano power mode - 5W ModeAverage Image loading time : 0.0275 sec
Average Inference time     : 0.0621 sec
total_repetitions          : 100
total_time                 : 6.2172sec
images_per_sec             : 16
latency_mean               : 67.1722 ms
latency_median             : 60.7875 ms
latency_min                : 57.4391 ms
# With Jetson Nano power mode - MAXN ModeAverage Image loading time : 0.0173 sec
Average Inference time     : 0.0426 sec
total_repetitions          : 100
total_time                 : 4.2624 sec
images_per_sec             : 23
latency_mean               : 42.6243 ms
latency_median             : 41.9758 ms
latency_min                : 40.9001 ms

jupyter notebook 提供 TensorFlow 对象检测 API 1.0 的残缺代码

从谷歌驱动器下载所有事后训练的权重

  • https://drive.google.com/file…

第 2 局部

从在自定义数据集上训练检测器到在 Jetson 纳米板或云上应用 TensorFlow 2.3 进行推理的具体步骤

TF 对象检测 API 2.0

过程 A:在开发机器上装置

要装置的库

前提条件:numpy,scipy,pandas,pandas,pillow,OpenCV-python

带 TensorRT 6.0.1 的 TensorFlow-GPU V2.3.0

应用 Monk Object Detection Toolkit 的 TF Object Detection API 2.0

将进行 TensorRT 装置

后续局部(确保 CUDA 10.0 和 CUDNN 7 随零碎一起装置了 NVidia 驱动程序)

在开发(训练)机器中运行以下步骤

$ git clone https://github.com/Tessellate-Imaging/Monk_Object_Detection.git

#For Cuda 10 systems
$ cd Monk_Object_Detection/13_tf_obj_1/installation && chmod +x install_cuda10.sh && ./install_cuda10.sh

#For Google colab
$ cd Monk_Object_Detection/13_tf_obj_1/installation && chmod +x install_colab.sh && ./install_colab.sh

过程 B:建设数据集

这与第 1 局部中的雷同。Monk 对象检测解析器要求数据集采纳 COCO 或 Pascal VOC 格局。对于本教程,让咱们保持应用 Pascal VOC 格局

要将你的数据集从任何格局转换为 Pascal VOC,请查看以下具体教程

  • https://github.com/Tessellate…

在此示例中,船检测数据集是从一篇对象检测的旧博客中获取的

  • https://www.tejashwi.io/objec…

此 jupyter notebook 中提到了应用数据的步骤

  • https://github.com/Tessellate…

过程 C:更新配置并开始训练过程

加载训练引擎

from train_detector import Detector

gtf = Detector();

在 TF 2.0 Model Zoo 中加载所有可用的模型

目前,它反对 26 种 SSD,Faster RCNN 和 EfficientDet 不同的型号

行将增加对 Centernet 模型的反对,原始管道在训练中有谬误

加载训练和验证数据集

将正文转换为 VOC 格局后加载数据集

依据可用的 GPU 设置批处理大小。在本教程中,应用了具备 V100 GPU(16 GB VRAM)的 AWS EC2 P3.2x 计算机,批次大小为 24 非常适合。

train_img_dir = "ship/images/Train";
train_anno_dir = "ship/voc/";
class_list_file = "ship/classes.txt";

gtf.set_train_dataset(train_img_dir, train_anno_dir, class_list_file, batch_size=24)

运行解析器将数据集转换为 tfrecords

Tf Record 文件将存储在 data_tfrecord 文件夹中

gtf.create_tfrecord(data_output_dir="data_tfrecord")

抉择并加载模型

下载模型后,Monk 会依据所选参数自动更新配置文件

在本教程中,咱们应用了 SSD MobileNet V2,它能够接管形态为 320x320x3 RGB 图像的输出图像

  • SSD MobileNet V2:https://resources.wolframclou…
gtf.set_model_params(model_name="ssd_mobilenet_v2_320")

设置其余训练和优化器参数

set_hyper_params(num_train_steps=10000,
lr=0.004,
lr_decay_rate=0.945,
output_dir="output_dir/",
sample_1_of_n_eval_examples=1,
sample_1_of_n_eval_on_train_examples=5,
checkpoint_dir=False,
run_once=False,
max_eval_retries=0,
num_workers=4,
checkpoint_after_every=500)

设置目录,将存储导出的参数

gtf.export_params(output_directory="export_dir");

设置 tensorRT 优化参数

TensorRT 优化器创立一个打算,而后构建它。构建打算是为了优化它正在构建的 GPU 的模型。

如前所述,在具备不同 cuda 计算能力的 GPU 上优化的模型无奈在 jetson nano 上运行,因而 Monk 库确保该打算在开发机(云或 colab)上编译,而该打算则在运行时在部署机(jetson nano)上构建

应用 INT8 优化时,无奈执行此性能,打算的编制和构建都必须在同一台机器上,并且 Jetson 纳米板与 8 位整数运算不太兼容

gtf.TensorRT_Optimization_Params(conversion_type="FP16", trt_dir="trt_fp16_dir")

训练探测器

检测器训练运行一个执行 sys.exit() 函数的会话,因而在其上运行的包装程序将敞开 python 零碎。

为了解决此问题,提供了一个名为 train.py 的脚本,该脚本能够在 jupyter notebook 或终端命令上运行

依据参数设置,训练好的模型将保留在名为“output_dir”的文件夹中。

# For terminal users
$ python Monk_Object_Detection/13_tf_obj_2/lib/train.py

# For jupyter notebook or colab users
%run Monk_Object_Detection/13_tf_obj_2/lib/train.py

过程 D:导出经过训练的模型以进行推理

导出训练有素的检查点模型

export 函数运行一个执行 sys.exit() 函数的会话,因而在其上运行的包装器将敞开 python 零碎。

为了解决此问题,提供了一个名为 export.py 的脚本,该脚本能够在 jupyter notebook 或终端命令上运行

依据参数设置,导出的模型将保留在名为“export_dir”的文件夹中。

# For terminal users
$ python Monk_Object_Detection/13_tf_obj_2/lib/export.py

# For jupyter notebook and colab users
%run Monk_Object_Detection/13_tf_obj_2/lib/export.py

过程 E:TensorRT 推论的模型优化

装置 TensorRT 版本 6.0.1

转到 Nvidia TensorRT 页面并下载基于 OS 和 CUDA 的 TRT6 软件包。

上面提到的是实用于 Ubuntu OS 和 Cuda 10.1 的步骤

# Optimizing For TensorRT - Feature Not tested on colab
# This requires TensorRT 6.0.1 to be installed
# Go to https://developer.nvidia.com/tensorrt

# Download 
# - nv-tensorrt-repo-ubuntu1804-cuda10.1-trt6.0.1.5-ga-20190913_1-1_amd64.deb (For Ubuntu18.04)
# - nv-tensorrt-repo-ubuntu1604-cuda10.1-trt6.0.1.5-ga-20190913_1-1_amd64.deb (For Ubuntu16.04)
# Run the following commands to install trt (in a terminal)

$ sudo dpkg -i nv-tensorrt-repo-ubuntu1804-cuda10.1-trt6.0.1.5-ga-20190913_1-1_amd64.deb
$ sudo apt-key add /var/nv-tensorrt-repo-cuda10.1-trt6.0.1.5-ga-20190913/7fa2af80.pub
$ sudo apt-get update
$ sudo apt-get install tensorrt
$ sudo apt-get install uff-converter-tf
$ sudo apt-get install python3-libnvinfer-dev

优化导出模型

优化函数运行一个执行 sys.exit() 函数的会话,因而在其上运行的包装程序将敞开 python 零碎。

为了解决此问题,提供了一个名为 optimize.py 的脚本,该脚本能够在 jupyter notebook 电脑或终端命令上运行

依据参数设置,优化的模型将保留在名为“trt_fp16_dir”的文件夹中。

# For terminal users
$ python Monk_Object_Detection/13_tf_obj_2/lib/optimize.py

# For jupyter notebook and colab users
%run Monk_Object_Detection/13_tf_obj_2/lib/optimize.py

过程 F -1:在开发机器上运行推理

加载推理机

from infer_detector import Infer

gtf = Infer();

载入模型

首先加载导出的模型并运行步骤;稍后通过加载优化的模型反复雷同的步骤(步骤放弃不变)

# To load exported model
gtf.set_model_params(exported_model_dir = 'export_dir')

# To load optimized model
gtf.set_model_params(exported_model_dir = 'trt_fp16_dir')

对单个图像进行推断

scores, bboxes, labels = gtf.infer_on_image('ship/test/img1.jpg', thresh=0.1);

样本推断后果

应用两个模型运行速度测试剖析

gtf.benchmark_for_speed('ship/test/img1.jpg')

在 AWS P3.2x V100 GPU 上应用导出的模型(未优化)进行剖析

Average Image loading time : 0.0110 sec
Average Inference time     : 0.0097 sec
Result extraction time     : 0.0352 sec
total_repetitions          : 100
total_time                 : 0.9794 sec
images_per_sec             : 102
latency_mean               : 9.7949 ms
latency_median             : 9.7095 ms
latency_min                : 9.1238 ms

在 AWS P3.2x V100 GPU 上应用优化模型进行剖析

约 1.5 倍的速度放慢解决前期优化

Average Image loading time : 0.0108 sec
Average Inference time     : 0.0062 sec
Result extraction time     : 0.0350 sec
total_repetitions          : 100
total_time                 : 0.6241 sec
images_per_sec             : 160
latency_mean               : 6.2422 ms
latency_median             : 6.2302 ms
latency_min                : 5.9401 ms  

过程 F -2:在 Jetson Nano 板上设置所有货色

步骤 1:下载 Jetpack 4.3 SD 卡映像 https://developer.nvidia.com/…

步骤 2:将此图片写入 SD 卡。你能够应用 https://www.balena.io/etcher/

步骤 3:将你的 SD 卡插入 Nano 板并启动零碎,而后实现装置步骤

获取无关 Nvidia 的“Jetson Nano 入门”页面的更多详细信息

  • https://developer.nvidia.com/…

过程 F -3:在 Jetson Nano 板上装置步骤

步骤 1:更新 Apt

$ sudo apt-get update
$ sudo apt-get upgrade

步骤 2:装置零碎库

$ sudo apt-get install nano git cmake libatlas-base-dev gfortran libhdf5-serial-dev hdf5-tools nano locate libfreetype6-dev python3-setuptools protobuf-compiler libprotobuf-dev openssl libssl-dev libcurl4-openssl-dev cython3 libxml2-dev libxslt1-dev python3-pip

$ sudo apt-get install libopenblas-dev libprotobuf-dev libleveldb-dev libsnappy-dev libhdf5-serial-dev protobuf-compiler libgflags-dev libgoogle-glog-dev liblmdb-dev

$ sudo pip3 install virtualenv virtualenvwrapper

步骤 3:更新 bashrc 文件

将这些行增加到〜/ .bashrc 文件

export VIRTUALENVWRAPPER_PYTHON=/usr/bin/python3
export WORKON_HOME=$HOME/.virtualenvs
export VIRTUALENVWRAPPER_VIRTUALENV=/usr/local/bin/virtualenv
source /usr/local/bin/virtualenvwrapper.sh

export PATH=/usr/local/cuda-10.0/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda-10.0/lib64\
${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}

运行以下命令

$ source ~/.bashrc

步骤 4:创立虚拟环境并装置所有必须的 python 库

装置 numpy 大概须要 15 分钟

$ mkvirtualenv -p /usr/bin/python3.6 tf2

$ pip install numpy==1.19.1

装置 scipy 大概须要 40 分钟

$ pip install scipy==1.5.1

装置 Jetson Nano TensorFlow-2.0.0 需再破费 15 分钟

$ pip install scikit-build protobuf cython -vvvv

$ pip install grpcio absl-py py-cpuinfo psutil portpicker six mock requests gast h5py astor termcolor protobuf keras-applications keras-preprocessing wrapt google-pasta -vvvv

$ pip install https://developer.download.nvidia.com/compute/redist/jp/v43/tensorflow-gpu/tensorflow_gpu-2.0.0+nv19.12-cp36-cp36m-linux_aarch64.whl -vvvv

装置 OpenCV 须要 1.5 个小时

$ mkdir opencv && cd opencv
$ wget -O opencv.zip https://github.com/opencv/opencv/archive/4.1.2.zip
$ unzip opencv.zip
$ mv opencv-4.1.2 opencv
$ cd opencv && mkdir build && cd build

$ cmake -D CMAKE_BUILD_TYPE=RELEASE -D WITH_CUDA=OFF -D WITH_CUBLAS=OFF -D WITH_LIBV4L=ON -D BUILD_opencv_python3=ON -D BUILD_opencv_python2=OFF -D BUILD_opencv_java=OFF -D WITH_GSTREAMER=ON -D WITH_GTK=ON -D BUILD_TESTS=OFF -D BUILD_PERF_TESTS=OFF -D BUILD_EXAMPLES=OFF -D OPENCV_ENABLE_NONFREE=OFF ..

$ make -j3
$ sudo make install

$ cd ~/.virtualenvs/tf2/lib/python3.6/site-packages
$ ln -s /usr/local/lib/python3.6/site-packages/cv2/python-3.6/cv2.cpython-36m-aarch64-linux-gnu.so cv2.so

最初克隆 Monk Object Detection 库

留神:不要像在开发机器中那样运行 13_tf_obj_2 的装置。用 tf2.0 装置 tf 对象检测有一些问题。推理代码不须要对象检测 API 工具。

$ git clone https://github.com/Tessellate-Imaging/Monk_Object_Detection.git

过程 F -4:对于 Jetson Nano 的推论

将优化的权重文件夹复制 / 下载到 jetson nano 工作目录(Monk 库为克隆目录)

从 Monk_Object_Detection 库复制示例图像

$ cp -r Monk_Object_Detection/example_notebooks/sample_dataset/ship .

加载推理引擎和模型(此步骤大概须要 4 到 5 分钟)

from infer_detector_nano import Infer
gtf = Infer();

gtf.set_model_params(exported_model_dir = 'trt_fp16_dir')

当初,如前所述,TensorRT 采纳打算并在运行时构建(优化)它,因而第一次运行大概须要 3 - 4 分钟

scores, bboxes, labels = gtf.infer_on_image('ship/test/img1.jpg', thresh=0.1);

# Oputput will be saved as output.jpg
gtf.draw_on_image(self, bbox_thickness=3, text_size=1, text_thickness=2)

突出显示的区域显示了 Jetson Nano 的 TesnorRT 建设(优化)打算(模型)(作者领有的图像)

再次运行它不会破费太多工夫。

Benchmark 板基准剖析

gtf.benchmark_for_speed('ship/test/img1.jpg')
# With Jetson Nano power mode - 5W ModeAverage Image loading time : 0.0486 sec
Average Inference time     : 0.1182 sec
total_repetitions          : 100
total_time                 : 11.8244 sec
images_per_sec             : 8
latency_mean               : 118.2443 ms
latency_median             : 117.8019 ms
latency_min                : 111.0002 ms
# With Jetson Nano power mode - MAXN ModeAverage Image loading time : 0.0319 sec
Average Inference time     : 0.0785 sec
total_repetitions          : 100
total_time                 : 7.853 sec
images_per_sec             : 12
latency_mean               : 78.5399 ms
latency_median             : 78.1973 ms
latency_min                : 76.2658 ms

jupyter notebook 提供 TensorFlow 对象检测 API 2.0 的残缺代码

  • https://github.com/Tessellate…

从谷歌驱动器下载所有事后训练的权重

  • https://drive.google.com/file…

TensorFlow 对象检测 API V 2.0 的所有工作到此结束

感激浏览!祝你编码欢快!!

原文链接:https://www.analyticsvidhya.c…

欢送关注磐创 AI 博客站:
http://panchuang.net/

sklearn 机器学习中文官网文档:
http://sklearn123.com/

欢送关注磐创博客资源汇总站:
http://docs.panchuang.net/

正文完
 0