我们已经为您准备好复现该模型所需的环境,您可以创建实例、一键复用哦!

模型的使用文档涵盖模型所需环境、模型简介以及复现模型的具体步骤。模型效果和模型详细来源可以点击论文地址和模型来源链接查看哦~

YOLOV3

2022-06-11 yolov3:ubuntu18.04-cuda10.2-cudnn7-python3.7-pytorch1.7.0

模型标签
目标检测智慧交通/自动驾驶安防监控

模型简介

YOLOv3模型于2018年由开发者Joseph Redmon,Ali Farhadi在《YOLOv3: An Incremental Improvement》首次提出。YOLOv3主要的改进有:调整了网络结构;利用多尺度特征进行对象检测;对象分类用Logistic取代了softmax。在基本的图像特征提取方面,YOLO3采用了称之为Darknet-53的网络结构(含有53个卷积层),它借鉴了残差网络residual network的做法,在一些层之间设置了快捷链路(shortcut connections)。提升了mAP及小物体检测效果。官方论文:https://arxiv.org/pdf/1804.02767v1.pdf


1. 使用方法

由于cuda版本低于11.0,故仅支持2080 Ti/P40/V100机器进行复现

1.1. 预训练模型推断

进入终端中,在/root/yolov3(默认)路径下,输入:

python detect.py --source data/images --weights /modelsets/yolov3/yolov3.pt --conf 0.25
# 数据输入:在--source后注明待检测的视频、图像、文件夹路径、YouTube视频网址、RTSP/RTMP/HTTP stream。
# 数据输出:推断运行结束后,在/root/yolov3/runs/detect/路径下,会输出运行结果。
# 权重文件路径:/modelsets/yolov3,有权重文件:yolov3.pt、yolov3-spp.pt、yolov3-tiny.pt。
参数 说明
h 寻求帮助信息
source SOURCE 待检测文件路径
weights WEIGHTS [WEIGHTS …] 预训练权重文件路径
conf-thres CONF_THRES 置信阈值

1.2. 预训练权重简介

在/modelsets/yolov3下。有yolov3.pt、yolov3-spp.pt、yolov3-tiny.pt这三个权重文件。

1.3. 准备数据集

该模型训练使用的是coco128数据集,执行训练命令,即可自动下载数据集。

1.4. 模型训练

进入终端中,在/root/yolov3(默认)路径下,输入:

python train.py --img 640 --batch 4 --epochs 5 --data /data/coco128.yaml --weights /modelsets/yolov3/yolov3.pt
# 上述命令含义是指用单卡GPU在COCO128数据集上运行yolov3训练任务。
# 数据输出:训练结束后,会在/root/yolov3/runs/train/路径下输出结果。
# 权重文件路径:/modelsets/yolov3,有权重文件:yolov3.pt、yolov3-spp.pt、yolov3-tiny.pt。
参数 说明
h 寻求帮助信息
img-size IMGSIZE [IMGSIZE …] 待检测照片尺寸
batch-size BATCH_SIZE 指定数据大小
epochs EPOCHS 训练批次
data DATA 数据配置文件路径
weights WEIGHTS [WEIGHTS …] 预训练权重文件路径

提示 :单卡2080TI需要约10分钟完成上述任务,可根据需求调整GPU数量或参考下文调整训练参数。

2. 模型来源

https://github.com/ultralytics/yolov3