我们已经为您准备好复现该模型所需的环境,您可以创建实例、一键复用哦!

模型的使用文档涵盖模型所需环境、模型简介以及复现模型的具体步骤。模型效果和模型详细来源可以点击论文地址和模型来源链接查看哦~

YOLOV5

2022-01-25 yolov5:ubuntu18.04-cuda10.2-cudnn7-python3.7-pytorch1.7.0

模型标签
目标检测智慧交通/自动驾驶安防监控

模型简介

YOLOv5是一个在COCO数据集上预先训练的目标检测体系结构和模型家族,代表了Ultralytics对未来视觉人工智能方法的开源研究,结合了在数千小时的研究和开发过程中积累的经验教训和最佳实践。



1. 使用方法

1.1. 预训练模型推断

在终端中,在/root/yolov5(默认)路径下,运行以下命令:

python detect.py --source data/images --weights /modelsets/yolov5/yolov5x.pt
# 数据输入:在--source后注明待检测的视频、图像、文件夹路径、YouTube视频网址、RTSP/RTMP/HTTP stream。
# 数据输出:推断运行结束后,会在/root/yolov5/runs/detect/路径下输出运行结果。
参数 说明
source SOURCE 待检测文件来源
weights WEIGHTS [WEIGHTS …] 模型权重文件路径

1.2. 预训练权重简介

在路径/modelsets/yolov5下,有权重文件:yolov5l.pt、yolov5m.pt、yolov5s.pt、yolov5x.pt。可按需更改文件进行推断 。

1.3. 准备数据集

该模型训练使用的是coco128数据集,执行训练命令,即可自动下载数据集。

1.4. 模型训练

在终端中,在/root/yolov5(默认)路径下,运行以下命令:

python train.py --data coco128.yaml --cfg yolov5s.yaml --weights '' --batch-size 16
# 上述命令是指用单卡GPU在COCO128数据集上运行yolov5训练任务。 
# 数据输出:推断运行结束后,在/root/yolov5/runs/train/路径下,会输出运行结果。
# 权重文件路径:/modelsets/yolov5,有权重文件:yolov5l.pt、yolov5m.pt、yolov5s.pt、yolov5x.pt。
参数 说明
cfg CFG model.yaml文件的路径
data DATA dataset.yaml文件路径
weights WEIGHTS 模型权重文件路径
batch-size BATCH_SIZE 指定数据的大小

提示 :单卡2080TI需要约10分钟完成上述任务,可根据需求调整GPU数量或参考下文调整训练参数。

2. 模型来源

https://github.com/ultralytics/yolov5