一文带你学会使用YOLO及Opencv完成图像及视频流目标检测(上)|附源码

41次阅读

共计 8028 个字符,预计需要花费 21 分钟才能阅读完成。

摘要:本文介绍使用 opencv 和 yolo 完成图像目标检测,代码解释详细,附源码,上手快。
计算机视觉领域中,目标检测一直是工业应用上比较热门且成熟的应用领域,比如人脸识别、行人检测等,国内的旷视科技、商汤科技等公司在该领域占据行业领先地位。相对于图像分类任务而言,目标检测会更加复杂一些,不仅需要知道这是哪一类图像,而且要知道图像中所包含的内容有什么及其在图像中的位置,因此,其工业应用比较广泛。那么,今天将向读者介绍该领域中表现优异的一种算算法——“你只需要看一次”(you only look once,yolo),提出该算法的作者风趣幽默可爱,其个人主页及论文风格显示了其性情,目前该算法已是第三个版本,简称 YoLo V3。闲话少叙,下面进入教程的主要内容。在本教程中,将学习如何使用 YOLO、OpenCV 和 Python 检测图像和视频流中的对象。主要内容有:

简要讨论 YOLO 算法;
使用 YOLO、OpenCV、Python 进行图像检测;
使用 YOLO、OpenCV、Python 进行视频流检测;
讨论 YOLO 算法的优点和缺点;

什么是 YOLO?

当涉及基于深度学习的对象检测时,常用的三类算法有:

R-CNN 家族系列算法:R-CNN、fast R-CNN 以及 faster R-CNN;
单发检测器(SSD);
YOLO 算法;R-CNN 算法是最早的基于深度学习的目标检测器之一,其结构是两级网络:
首先需要诸如选择性搜索之类的算法来提出可能包含对象的候选边界框;
然后将这些区域传递到 CNN 算法进行分类;

R-CNN 算法存在的问题在于其仿真很慢,并且不是完整的端到端的目标检测器。Fast R-CNN 算法对原始 R -CNN 进行了相当大的改进,即提高准确度并减少执行正向传递所花费的时间,但是,该模型仍然依赖于外部区域搜索算法。直到 2015 年,[faster R-CNN]() 才成为真正的端到端深度学习目标检测器,删除了选择性搜索的要求,而是依赖于(1)完全卷积的区域提议网络(RPN)和(2)可以预测对象边界框和“对象”分数(量化它是一个区域的可能性的分数)。然后将 RPN 的输出传递到 R -CNN 组件以进行最终分类和标记。R-CNN 系列算法的检测结果一般都非常准确,但 R -CNN 系列算法最大的问题在仿真速度——非常慢,即使是在 GPU 上也仅获得 5 FPS。为了提高基于深度学习的目标检测器的速度,单次检测器(SSD)和 YOLO 都使用单级检测器策略(one stage)。这类算法将对象检测视为回归问题,获取给定的输入图像并同时学习边界框坐标和相应的类标签概率。通常,单级检测器往往不如两级检测器准确,但其速度明显更快。YOLO 是单级检测器中一个很好的算法。YOLO 算法于 2015 年提出,在 GPU 上获得了  45 FPS 性能,此外,同时也提出了一个较小的变体称为“Fast YOLO”,在 GPU 上达到 155 FPS 的性能。YOLO 经历了许多次的迭代,包括 YOLOv2,能够检测超过 9,000 个目标。直到最近提出的 YOLOv3 算法,YOLOv3 模型比之前的版本要复杂得多,但它是 YOLO 系列目标检测器中最好的一款。本文使用 YOLOv3,并在 COCO 数据集上进行训练。COCO 数据集由 80 个标签组成,可以使用此链接找到 YOLO 在 COCO 数据集上训练的内容的完整列表。
项目结构
在终端中使用 tree 命令,可以很方便快捷地生成目标树:
$ tree
.
├── images
│ ├── baggage_claim.jpg
│ ├── dining_table.jpg
│ ├── living_room.jpg
│ └── soccer.jpg
├── output
│ ├── airport_output.avi
│ ├── car_chase_01_output.avi
│ ├── car_chase_02_output.avi
│ └── overpass_output.avi
├── videos
│ ├── airport.mp4
│ ├── car_chase_01.mp4
│ ├── car_chase_02.mp4
│ └── overpass.mp4
├── yolo-coco
│ ├── coco.names
│ ├── yolov3.cfg
│ └── yolov3.weights
├── yolo.py
└── yolo_video.py
从上面可以看出,项目包括 4 个文件夹和 2 个 Python 脚本。目录(按重要性顺序)是:

yolo – coco /:YOLOv3 对象检测器预先(在 COCO 数据集上)训练得到最终的权重文件,可以在 Darknet 团队主页找到对应的文件;

images /:此文件夹包含四个静态图像,之后将执行对象检测以进行测试和评估;

videos/:使用 YOLO 对图像进行目标检测器后,将实时处理视频。该文件夹中包含四个示例视频可供测试;

输出 /:输出已由 YOLO 处理并带有边界框和类名称注释的视频可以放在此文件夹中;

此外还有两个 Python 脚本——yolo .py 和 yolo_video.py,第一个脚本用于图像处理,第二个脚本用于视频处理。下面进入实战内容,你准备好了吗?
将 YOLO 应用于图像对象检测
首先将 YOLO 目标检测器应用于图像中,首先打开项目中的 yolo .py 并插入以下代码:
# import the necessary packages
import numpy as np
import argparse
import time
import cv2
import os

# construct the argument parse and parse the arguments
ap = argparse.ArgumentParser()
ap.add_argument(“-i”, “–image”, required=True,
help=”path to input image”)
ap.add_argument(“-y”, “–yolo”, required=True,
help=”base path to YOLO directory”)
ap.add_argument(“-c”, “–confidence”, type=float, default=0.5,
help=”minimum probability to filter weak detections”)
ap.add_argument(“-t”, “–threshold”, type=float, default=0.3,
help=”threshold when applying non-maxima suppression”)
args = vars(ap.parse_args())
在使用之前,需要为此脚本安装 3.4.2+ 版本以上的 OpenCV,可以直接使用 pip install opencv-python==3.4.2 安装,你也可以在这里找到 OpenCV 安装教程,这里注意一点,OpenCV 4 目前处于测试阶段,这里建议去安装 OpenCV 3.4.2+。首先,导入所需的数据包——OpenCV 和 NumPy。现在解析四个命令行参数,命令行参数在运行时处理,允许我们从终端更改脚本的输入。如果你对其不熟悉,建议阅读相关的内容。命令行参数包括:

— image:输入图像的路径;

— yolo:YOLO 文件路径,脚本将加载所需的 YOLO 文件,以便在图像上执行对象检测;

— confidence:过滤弱检测的最小概率,默认值设置为 0.5,但该值也可以随意设置;

— threshold:非最大值抑制阈值,默认值设置为 0.3,可以在此处阅读有关非最大值抑制的更多信息。

解析之后,args 变量是一个包含命令行参数的键值对的字典。下面为每个标签设置随机颜色:
# load the COCO class labels our YOLO model was trained on
labelsPath = os.path.sep.join([args[“yolo”], “coco.names”])
LABELS = open(labelsPath).read().strip().split(“\n”)

# initialize a list of colors to represent each possible class label
np.random.seed(42)
COLORS = np.random.randint(0, 255, size=(len(LABELS), 3),
dtype=”uint8″)
上述加载所有类 LABELS,其类型是列表,保存的是类别名称,然后将随机颜色分配给每个标签。下面设置 YOLO 权重和配置文件的路径,然后从磁盘加载 YOLO 文件:
# derive the paths to the YOLO weights and model configuration
weightsPath = os.path.sep.join([args[“yolo”], “yolov3.weights”])
configPath = os.path.sep.join([args[“yolo”], “yolov3.cfg”])

# load our YOLO object detector trained on COCO dataset (80 classes)
print(“[INFO] loading YOLO from disk…”)
net = cv2.dnn.readNetFromDarknet(configPath, weightsPath)
从磁盘加载 YOLO 文件后,并利用 OpenCV 中的 cv2.dnn.readNetFromDarknet 函数从中读取网络文件及权重参数,此函数需要两个参数 configPath 和 weightsPath,这里再次强调,:OpenCV 的版本至少是 3.4.2 及以上才能运行此代码,因为它需要加载 YOLO 所需的更新的 dnn 模块。下面加载图像并处理:
# load our input image and grab its spatial dimensions
image = cv2.imread(args[“image”])
(H, W) = image.shape[:2]

# determine only the *output* layer names that we need from YOLO
ln = net.getLayerNames()
ln = [ln[i[0] – 1] for i in net.getUnconnectedOutLayers()]

# construct a blob from the input image and then perform a forward
# pass of the YOLO object detector, giving us our bounding boxes and
# associated probabilities
blob = cv2.dnn.blobFromImage(image, 1 / 255.0, (416, 416),
swapRB=True, crop=False)
net.setInput(blob)
start = time.time()
layerOutputs = net.forward(ln)
end = time.time()

# show timing information on YOLO
print(“[INFO] YOLO took {:.6f} seconds”.format(end – start))
在该代码中:

加载输入 图像并获得其尺寸;
确定 YOLO 模型中的输出图层名称;
从图像构造一个 blob 结构;

如果你对 blob 和 cv2.dnn.blobFromImage 有疑问,可以看这篇博客进一步的了解。当 blob 准备好了后,我们就会

通过 YOLO 网络进行前向传递;
显示 YOLO 的推理时间;现在采取措施来过滤和可视化最终的结果。首先,让我们初步化一些处理过程中需要的列表:

# initialize our lists of detected bounding boxes, confidences, and
# class IDs, respectively
boxes = []
confidences = []
classIDs = []
这些列表包括:

boxes:对象的边界框。

confidences:YOLO 分配给对象的置信度值,较低的置信度值表示该对象可能不是网络认为的对象。上面的命令行参数中将过滤掉不大于 0.5 阈值的对象。

classIDs:检测到的对象的类标签。

下面用 YOLO layerOutputs 中的数据填充这些列表:
# loop over each of the layer outputs
for output in layerOutputs:
# loop over each of the detections
for detection in output:
# extract the class ID and confidence (i.e., probability) of
# the current object detection
scores = detection[5:]
classID = np.argmax(scores)
confidence = scores[classID]

# filter out weak predictions by ensuring the detected
# probability is greater than the minimum probability
if confidence > args[“confidence”]:
# scale the bounding box coordinates back relative to the
# size of the image, keeping in mind that YOLO actually
# returns the center (x, y)-coordinates of the bounding
# box followed by the boxes’ width and height
box = detection[0:4] * np.array([W, H, W, H])
(centerX, centerY, width, height) = box.astype(“int”)

# use the center (x, y)-coordinates to derive the top and
# and left corner of the bounding box
x = int(centerX – (width / 2))
y = int(centerY – (height / 2))

# update our list of bounding box coordinates, confidences,
# and class IDs
boxes.append([x, y, int(width), int(height)])
confidences.append(float(confidence))
classIDs.append(classID)
在这个块中:

循环遍历每个 layerOutputs;
循环每个 detection 中 output;
提取 classID 和 confidence;
使用 confidence 滤除弱检测;

过滤掉了不需要的检测结果后,我们将:

缩放边界框坐标,以便我们可以在原始图像上正确显示它们;
提取边界框的坐标和尺寸,YOLO 返回边界框坐标形式:(centerX,centerY,width,height);
使用此信息导出边界框的左上角(x,y)坐标;
更新 boxes,confidences,classIDs 列表。有了这些数据后,将应用“非最大值抑制”(non-maxima suppression,nms):

# apply non-maxima suppression to suppress weak, overlapping bounding
# boxes
idxs = cv2.dnn.NMSBoxes(boxes, confidences, args[“confidence”],
args[“threshold”])
YOLO 算法并没有应用非最大值抑制,这里需要说明一下。应用非最大值抑制可以抑制明显重叠的边界框,只保留最自信的边界框,NMS 还确保我们没有任何冗余或无关的边界框。利用 OpenCV 内置的 NMS DNN 模块实现即可实现非最大值抑制,所需要的参数是边界 框、置信度、以及置信度阈值和 NMS 阈值。最后在图像上绘制检测框和类文本:
# ensure at least one detection exists
if len(idxs) > 0:
# loop over the indexes we are keeping
for i in idxs.flatten():
# extract the bounding box coordinates
(x, y) = (boxes[i][0], boxes[i][1])
(w, h) = (boxes[i][2], boxes[i][3])

# draw a bounding box rectangle and label on the image
color = [int(c) for c in COLORS[classIDs[i]]]
cv2.rectangle(image, (x, y), (x + w, y + h), color, 2)
text = “{}: {:.4f}”.format(LABELS[classIDs[i]], confidences[i])
cv2.putText(image, text, (x, y – 5), cv2.FONT_HERSHEY_SIMPLEX,
0.5, color, 2)

# show the output image
cv2.imshow(“Image”, image)
cv2.waitKey(0)
假设存在至少一个检测结果,就循环用非最大值抑制确定 idx。然后,我们使用随机类颜色在图像上绘制边界框和文本。最后,显示结果图像,直到用户按下键盘上的任意键。下面进入测试环节,打开一个终端并执行以下命令:
$ python yolo.py –image images/baggage_claim.jpg –yolo yolo-coco
[INFO] loading YOLO from disk…
[INFO] YOLO took 0.347815 seconds

从上图可以看到,YOLO 不仅检测了输入图像中的每个人,还检测了手提箱。此外,可以从图像的右上角看到,YOLO 还检测到女士肩上的手提包。我们试试另一个例子:
$ python yolo.py –image images/living_room.jpg –yolo yolo-coco
[INFO] loading YOLO from disk…
[INFO] YOLO took 0.340221 seconds

YOLO 还可以检测电视显示器和椅子,令我惊讶的是 YOLO 能够检测到椅子,因为它是手工制作的老式“婴儿高脚椅”。有趣的是,YOLO 认为我手中有一个遥控器,它实际上不是遥控器——玻璃反射的 VHS 录,仔细盯着这个地方看,它实际上看起来非常像遥控器。以下示例图像演示了 YOLO 对象检测器的局限性和弱点:
$ python yolo.py –image images/dining_table.jpg –yolo yolo-coco
[INFO] loading YOLO from disk…
[INFO] YOLO took 0.362369 seconds

虽然 YOLO 正确检测到葡萄酒瓶、餐桌和花瓶,但只有两个酒杯中的一个被正确检测到。下面尝试最后一幅图像:
$ python yolo.py –image images/soccer.jpg –yolo yolo-coco
[INFO] loading YOLO from disk…
[INFO] YOLO took 0.345656 seconds

YOLO 能够正确地检测球场上的每个球员,包括足球本身。请注意,尽管区域高度模糊且部分遮挡,但仍会检测到背景中的人。以上内容就是图像检测部分的全部内容,下一节将介绍视频流中对象检测以及 YOLO 算法的总结。

本文作者:【方向】阅读原文
本文为云栖社区原创内容,未经允许不得转载。

正文完
 0