该库代表Ultralytics对将来对象检测办法的开源钻研,并联合了以前的YOLO库https://github.com/ultralytic...。所有代码和模型都在踊跃的开发中,如有批改或删除,恕不另行通知。如果应用,危险自负。


GPU速度测量:应用V100的GPU在超过5000张COCO val2017图像上测量批处理大小为8的均匀每张图像的端到端工夫,包含图像预处理,PyTorch FP16推断,后处理和NMS。

  • 2020年6月22日:PANet更新:新的个性,更少的参数,更快的推理和改良的mAP 364fcfd。
  • 2020年6月19日:FP16作为新的默认设置,可用于更小的检查点和更快的推断d4c6674。
  • 2020年6月9日:CSP更新:改良了速度,大小和准确性(归功于@WongKinYiu)。
  • 2020年5月27日:公开公布库。YOLOv5模型是所有已知YOLO实现中最先进(SOTA)的。
  • 2020年4月1日:将来开始倒退基于YOLOv3 / YOLOv4的一系列PyTorch模型。

预训练的检查点(checkpoints)

ModelAPvalAPtestAP50SpeedGPUFPSGPUparamsFLOPS
YOLOv5s36.636.655.82.1ms4767.5M13.2B
YOLOv5m43.443.462.43.0ms33321.8M39.4B
YOLOv5l46.646.765.43.9ms25647.8M88.1B
YOLOv5x48.448.466.96.1ms16489.0M166.4B
YOLOv3-SPP45.645.565.24.5ms22263.0M118.0B

** AP测试示意COCOtest-dev2017服务器后果,表中所有其余AP后果示意val2017准确性。
**所有AP编号均实用于单模型单尺度,而没有集成或测试工夫减少。通过python test.py --img 736 --conf 0.001进行应用。
**速度GPU测量:进行再现应用一个V100的GPU和一个GCPn1-standard-16实例在超过5000张COCO val2017图像上测量每张图像的端到端工夫,包含图像预处理,PyTorch FP16图像推断(批量大小 32 --img-size 640),后处理和NMS。此图表中包含的均匀NMS工夫为1-2ms / img。通过python test.py --img 640 --conf 0.1进行测试。
**所有检查点均应用默认的设置和超参数训练到300个epochs(无主动加强)。

要求

Python 3.7或更高版本,装置了requirements.txt要求的所有的库和torch >= 1.5,运行上面命令进行装置:

$ pip install -U -r requirements.txt

教程

  • Notebook
  • Kaggle
  • Train Custom Data
  • PyTorch Hub
  • ONNX and TorchScript Export
  • Test-Time Augmentation (TTA)
  • Google Cloud Quickstart
  • Docker Quickstart

推断

能够在大多数常见的媒体格式上进行推断。模型检查点(在网上如果有对应的检查点的话)会主动下载。后果保留到./inference/output

$ python detect.py --source file.jpg  # image                             file.mp4  # video                            ./dir  # directory                            0  # webcam                            rtsp://170.93.143.139/rtplive/470011e600ef003a004ee33696235daa  # rtsp stream                            http://112.50.243.8/PLTV/88888888/224/3221225900/1.m3u8  # http stream

要对./inference/images文件夹中的示例进行推断,请执行以下操作:

$ python detect.py --source ./inference/images/ --weights yolov5s.pt --conf 0.4Namespace(agnostic_nms=False, augment=False, classes=None, conf_thres=0.4, device='', fourcc='mp4v', half=False, img_size=640, iou_thres=0.5, output='inference/output', save_txt=False, source='./inference/images/', view_img=False, weights='yolov5s.pt')Using CUDA device0 _CudaDeviceProperties(name='Tesla P100-PCIE-16GB', total_memory=16280MB)Downloading https://drive.google.com/uc?export=download&id=1R5T6rIyy3lLwgFXNms8whc-387H0tMQO as yolov5s.pt... Done (2.6s)image 1/2 inference/images/bus.jpg: 640x512 3 persons, 1 buss, Done. (0.009s)image 2/2 inference/images/zidane.jpg: 384x640 2 persons, 2 ties, Done. (0.009s)Results saved to /content/yolov5/inference/output

复现咱们的训练

下载COCO,装置Apex并在运行上面命令。在一台有V100的GPU上,YOLOv5s / m / l / x的训练工夫为2/4/6/8天(多个GPU的训练速度更快)。应用您的GPU容许的最大--batch-size容量(上面的batchsize是为16 GB设施而设置的)。

$ python train.py --data coco.yaml --cfg yolov5s.yaml --weights '' --batch-size 64                                         yolov5m                                48                                         yolov5l                                32                                         yolov5x                                16

复现咱们的环境

要拜访最新的工作环境(已预装置所有库,包含CUDA / CUDNN,Python和PyTorch),请思考以下网站:

  • Google Cloud 深度学习VM,提供$300的收费赠金:请参阅咱们的GCP疾速入门指南
  • Google Colab Notebook 具备12小时的收费GPU工夫。
  • Docker Image https://hub.docker.com/r/ultr... .请参阅 Docker疾速入门指南

援用

原文链接:https://github.com/ultralytic...

欢送关注磐创AI博客站:
http://panchuang.net/

sklearn机器学习中文官网文档:
http://sklearn123.com/

欢送关注磐创博客资源汇总站:
http://docs.panchuang.net/