关于机器学习:YOLOv5LabVIEWOpenVINO让你的YOLOv5在CPU上飞起来

0次阅读

共计 1424 个字符,预计需要花费 4 分钟才能阅读完成。

前言

上一篇博客给大家介绍了应用 opencv 加载 YOLOv5 的 onnx 模型,但咱们发现应用 CPU 进行推理检测的确有些慢,那难道在 CPU 上就不能欢快地进行物体辨认了吗?当然能够啦,这不 LabVIEW 和 OpenVINO 就来了嘛!明天就和大家一起看一下如何在 CPU 上也能感触丝滑的实时物体辨认。

一、OpenVINO 是什么

OpenVINO 是英特尔针对自家硬件平台开发的一套深度学习工具库,用于疾速部署利用和解决方案,蕴含推断库,模型优化等等一系列与深度学习模型部署相干的性能。

特点:

  1. 在边缘启用基于 CNN 的深度学习推理
  2. 反对通过英特尔®Movidius™VPU 在英特尔®CPU,英特尔®集成显卡,英特尔®神经计算棒 2 和英特尔®视觉加速器设计之间进行异构执行
  3. 通过易于应用的计算机视觉性能库和事后优化的内核放慢上市工夫
  4. 包含对计算机视觉规范(包含 OpenCV * 和 OpenCL™)的优化调用
  5. 通俗易懂点说 想要在 intel-cpu 或者嵌入式上部署深度学习模型,能够思考思考 openvino

二、LabVIEW 视觉工具包下载与配置

1、视觉工具包的下载安装

可在如下链接中下载并装置工具包:https://segmentfault.com/a/1190000042225535

2、OpenVINO toolkit 下载安装

下载地址:英特尔® Distribution of OpenVINO™ 工具套件
1)点击 Dev Tools

2)抉择版本,抉择如下版本,并 DownLoad:

3)下载后,运行装置即可!

4)能够抉择装置门路,具体装置能够参考官网文档:https://docs.openvino.ai/cn/latest/openvino_docs_install_guides_installing_openvino_windows.html

三、模型获取

openvino 工作流程,和其余的部署工具都差不多,训练好模型,解析成 openvino 专用的.xml 和.bin,随后传入 Inference Engine 中进行推理。这里和上一篇博客一样能够应用 export.py 导出 openvino 模型:python export.py –weights yolov5s.pt –include openvino
当然这里曾经为大家转换好了模型,大家能够间接下载,下载链接:

四、LabVIEW+OpenVINO 调用 Yolov5 进行实时物体辨认

1、实现过程

  • dnn 模块调用 IR 模型(模型优化器)
  • 设置计算后盾与计算指标设施(推理引擎减速)
  • 获取输入端的 LayerName
  • 图像预处理
  • 推理
  • 后处理
  • 绘制检测出的对象

2、程序源码

3、辨认后果

CPU 模式下,应用 openvino 进行推理减速,实时检测推理用时仅 95ms/frame,是之前加载速度的三分之一

留神:

  • readNetFromModelOptimizer.vi 中 IR 模型 门路不能够蕴含中文

附加阐明:计算机环境

  • 操作系统:Windows10
  • python:3.6 及以上
  • LabVIEW:2018 及以上 64 位版本
  • 视觉工具包:techforce_lib_opencv_cpu-1.0.0.73.vip
  • OpenVINO:2021.4.2

总结

以上就是明天要给大家分享的内容。

如需源码,请关注微信公众号 VIRobotics, 回复关键词:yolov5_openvino。

如您想要探讨更多对于 LabVIEW 与人工智能技术,欢送退出咱们的技术交换群:705637299,进群请备注暗号:LabVIEW 机器学习

正文完
 0