yolov5-简单教程

123次阅读

共计 2898 个字符,预计需要花费 8 分钟才能阅读完成。

该库代表 Ultralytics 对将来对象检测办法的开源钻研,并联合了以前的 YOLO 库 https://github.com/ultralytic…。所有代码和模型都在踊跃的开发中,如有批改或删除,恕不另行通知。如果应用,危险自负。


GPU 速度测量:应用 V100 的 GPU 在超过 5000 张 COCO val2017 图像上测量批处理大小为 8 的均匀每张图像的端到端工夫,包含图像预处理,PyTorch FP16 推断,后处理和 NMS。

  • 2020 年 6 月 22 日:PANet 更新:新的个性,更少的参数,更快的推理和改良的 mAP 364fcfd。
  • 2020 年 6 月 19 日:FP16 作为新的默认设置,可用于更小的检查点和更快的推断 d4c6674。
  • 2020 年 6 月 9 日:CSP 更新:改良了速度,大小和准确性(归功于 @WongKinYiu)。
  • 2020 年 5 月 27 日 :公开公布库。YOLOv5 模型是所有已知 YOLO 实现中最先进(SOTA) 的。
  • 2020 年 4 月 1 日:将来开始倒退基于 YOLOv3 / YOLOv4 的一系列 PyTorch 模型。

预训练的检查点(checkpoints)

Model APval APtest AP50 SpeedGPU FPSGPU params FLOPS
YOLOv5s 36.6 36.6 55.8 2.1ms 476 7.5M 13.2B
YOLOv5m 43.4 43.4 62.4 3.0ms 333 21.8M 39.4B
YOLOv5l 46.6 46.7 65.4 3.9ms 256 47.8M 88.1B
YOLOv5x 48.4 48.4 66.9 6.1ms 164 89.0M 166.4B
YOLOv3-SPP 45.6 45.5 65.2 4.5ms 222 63.0M 118.0B

** AP 测试示意 COCOtest-dev2017 服务器后果,表中所有其余 AP 后果示意 val2017 准确性。
** 所有 AP 编号均实用于单模型单尺度,而没有集成或测试工夫减少。通过 python test.py --img 736 --conf 0.001 进行应用。
** 速度 GPU 测量:进行再现应用一个 V100 的 GPU 和一个 GCPn1-standard-16 实例在超过 5000 张 COCO val2017 图像上测量每张图像的端到端工夫,包含图像预处理,PyTorch FP16 图像推断(批量大小 32 –img-size 640),后处理和 NMS。此图表中包含的均匀 NMS 工夫为 1 -2ms / img。通过 python test.py --img 640 --conf 0.1 进行测试。
** 所有检查点均应用默认的设置和超参数训练到 300 个 epochs(无主动加强)。

要求

Python 3.7 或更高版本,装置了 requirements.txt 要求的所有的库和torch >= 1.5,运行上面命令进行装置:

$ pip install -U -r requirements.txt

教程

  • Notebook
  • Kaggle
  • Train Custom Data
  • PyTorch Hub
  • ONNX and TorchScript Export
  • Test-Time Augmentation (TTA)
  • Google Cloud Quickstart
  • Docker Quickstart

推断

能够在大多数常见的媒体格式上进行推断。模型检查点(在网上如果有对应的检查点的话)会主动下载。后果保留到./inference/output

$ python detect.py --source file.jpg  # image 
                            file.mp4  # video
                            ./dir  # directory
                            0  # webcam
                            rtsp://170.93.143.139/rtplive/470011e600ef003a004ee33696235daa  # rtsp stream
                            http://112.50.243.8/PLTV/88888888/224/3221225900/1.m3u8  # http stream

要对 ./inference/images 文件夹中的示例进行推断,请执行以下操作:

$ python detect.py --source ./inference/images/ --weights yolov5s.pt --conf 0.4

Namespace(agnostic_nms=False, augment=False, classes=None, conf_thres=0.4, device='', fourcc='mp4v', half=False, img_size=640, iou_thres=0.5, output='inference/output', save_txt=False, source='./inference/images/', view_img=False, weights='yolov5s.pt')
Using CUDA device0 _CudaDeviceProperties(name='Tesla P100-PCIE-16GB', total_memory=16280MB)

Downloading https://drive.google.com/uc?export=download&id=1R5T6rIyy3lLwgFXNms8whc-387H0tMQO as yolov5s.pt... Done (2.6s)

image 1/2 inference/images/bus.jpg: 640x512 3 persons, 1 buss, Done. (0.009s)
image 2/2 inference/images/zidane.jpg: 384x640 2 persons, 2 ties, Done. (0.009s)
Results saved to /content/yolov5/inference/output

复现咱们的训练

下载 COCO,装置 Apex 并在运行上面命令。在一台有 V100 的 GPU 上,YOLOv5s / m / l / x 的训练工夫为 2 /4/6/ 8 天(多个 GPU 的训练速度更快)。应用您的 GPU 容许的最大 --batch-size 容量(上面的 batchsize 是为 16 GB 设施而设置的)。

$ python train.py --data coco.yaml --cfg yolov5s.yaml --weights '' --batch-size 64
                                         yolov5m                                48
                                         yolov5l                                32
                                         yolov5x                                16

复现咱们的环境

要拜访最新的工作环境(已预装置所有库,包含 CUDA / CUDNN,Python 和 PyTorch),请思考以下网站:

  • Google Cloud 深度学习 VM,提供 $300 的收费赠金:请参阅咱们的 GCP 疾速入门指南
  • Google Colab Notebook 具备 12 小时的收费 GPU 工夫。
  • Docker Image https://hub.docker.com/r/ultr… . 请参阅 Docker 疾速入门指南

援用

原文链接:https://github.com/ultralytic…

欢送关注磐创 AI 博客站:
http://panchuang.net/

sklearn 机器学习中文官网文档:
http://sklearn123.com/

欢送关注磐创博客资源汇总站:
http://docs.panchuang.net/

正文完
 0