该库代表 Ultralytics 对将来对象检测办法的开源钻研,并联合了以前的 YOLO 库 https://github.com/ultralytic…。所有代码和模型都在踊跃的开发中,如有批改或删除,恕不另行通知。如果应用,危险自负。
GPU 速度测量:应用 V100 的 GPU 在超过 5000 张 COCO val2017 图像上测量批处理大小为 8 的均匀每张图像的端到端工夫,包含图像预处理,PyTorch FP16 推断,后处理和 NMS。
- 2020 年 6 月 22 日:PANet 更新:新的个性,更少的参数,更快的推理和改良的 mAP 364fcfd。
- 2020 年 6 月 19 日:FP16 作为新的默认设置,可用于更小的检查点和更快的推断 d4c6674。
- 2020 年 6 月 9 日:CSP 更新:改良了速度,大小和准确性(归功于 @WongKinYiu)。
- 2020 年 5 月 27 日 :公开公布库。YOLOv5 模型是所有已知 YOLO 实现中最先进(SOTA) 的。
- 2020 年 4 月 1 日:将来开始倒退基于 YOLOv3 / YOLOv4 的一系列 PyTorch 模型。
预训练的检查点(checkpoints)
Model | APval | APtest | AP50 | SpeedGPU | FPSGPU | params | FLOPS | |
---|---|---|---|---|---|---|---|---|
YOLOv5s | 36.6 | 36.6 | 55.8 | 2.1ms | 476 | 7.5M | 13.2B | |
YOLOv5m | 43.4 | 43.4 | 62.4 | 3.0ms | 333 | 21.8M | 39.4B | |
YOLOv5l | 46.6 | 46.7 | 65.4 | 3.9ms | 256 | 47.8M | 88.1B | |
YOLOv5x | 48.4 | 48.4 | 66.9 | 6.1ms | 164 | 89.0M | 166.4B | |
YOLOv3-SPP | 45.6 | 45.5 | 65.2 | 4.5ms | 222 | 63.0M | 118.0B |
** AP 测试示意 COCOtest-dev2017 服务器后果,表中所有其余 AP 后果示意 val2017 准确性。
** 所有 AP 编号均实用于单模型单尺度,而没有集成或测试工夫减少。通过 python test.py --img 736 --conf 0.001
进行应用。
** 速度 GPU 测量:进行再现应用一个 V100 的 GPU 和一个 GCPn1-standard-16 实例在超过 5000 张 COCO val2017 图像上测量每张图像的端到端工夫,包含图像预处理,PyTorch FP16 图像推断(批量大小 32 –img-size 640),后处理和 NMS。此图表中包含的均匀 NMS 工夫为 1 -2ms / img。通过 python test.py --img 640 --conf 0.1
进行测试。
** 所有检查点均应用默认的设置和超参数训练到 300 个 epochs(无主动加强)。
要求
Python 3.7 或更高版本,装置了 requirements.txt
要求的所有的库和torch >= 1.5
,运行上面命令进行装置:
$ pip install -U -r requirements.txt
教程
- Notebook
- Kaggle
- Train Custom Data
- PyTorch Hub
- ONNX and TorchScript Export
- Test-Time Augmentation (TTA)
- Google Cloud Quickstart
- Docker Quickstart
推断
能够在大多数常见的媒体格式上进行推断。模型检查点(在网上如果有对应的检查点的话)会主动下载。后果保留到./inference/output
。
$ python detect.py --source file.jpg # image
file.mp4 # video
./dir # directory
0 # webcam
rtsp://170.93.143.139/rtplive/470011e600ef003a004ee33696235daa # rtsp stream
http://112.50.243.8/PLTV/88888888/224/3221225900/1.m3u8 # http stream
要对 ./inference/images
文件夹中的示例进行推断,请执行以下操作:
$ python detect.py --source ./inference/images/ --weights yolov5s.pt --conf 0.4
Namespace(agnostic_nms=False, augment=False, classes=None, conf_thres=0.4, device='', fourcc='mp4v', half=False, img_size=640, iou_thres=0.5, output='inference/output', save_txt=False, source='./inference/images/', view_img=False, weights='yolov5s.pt')
Using CUDA device0 _CudaDeviceProperties(name='Tesla P100-PCIE-16GB', total_memory=16280MB)
Downloading https://drive.google.com/uc?export=download&id=1R5T6rIyy3lLwgFXNms8whc-387H0tMQO as yolov5s.pt... Done (2.6s)
image 1/2 inference/images/bus.jpg: 640x512 3 persons, 1 buss, Done. (0.009s)
image 2/2 inference/images/zidane.jpg: 384x640 2 persons, 2 ties, Done. (0.009s)
Results saved to /content/yolov5/inference/output
复现咱们的训练
下载 COCO,装置 Apex 并在运行上面命令。在一台有 V100 的 GPU 上,YOLOv5s / m / l / x 的训练工夫为 2 /4/6/ 8 天(多个 GPU 的训练速度更快)。应用您的 GPU 容许的最大 --batch-size
容量(上面的 batchsize 是为 16 GB 设施而设置的)。
$ python train.py --data coco.yaml --cfg yolov5s.yaml --weights '' --batch-size 64
yolov5m 48
yolov5l 32
yolov5x 16
复现咱们的环境
要拜访最新的工作环境(已预装置所有库,包含 CUDA / CUDNN,Python 和 PyTorch),请思考以下网站:
- Google Cloud 深度学习 VM,提供 $300 的收费赠金:请参阅咱们的 GCP 疾速入门指南
- Google Colab Notebook 具备 12 小时的收费 GPU 工夫。
- Docker Image https://hub.docker.com/r/ultr… . 请参阅 Docker 疾速入门指南
援用
原文链接:https://github.com/ultralytic…
欢送关注磐创 AI 博客站:
http://panchuang.net/
sklearn 机器学习中文官网文档:
http://sklearn123.com/
欢送关注磐创博客资源汇总站:
http://docs.panchuang.net/