我们已经为您准备好复现该模型所需的环境,您可以创建实例、一键复用哦!

模型的使用文档涵盖模型所需环境、模型简介以及复现模型的具体步骤。模型效果和模型详细来源可以点击论文地址和模型来源链接查看哦~

CenterNet

2022-04-11 model:centernet-ubuntu18.04-cuda11.1.1-cudnn8-python3.8-pytorch1.8.0-new

模型标签
目标检测

模型简介

模型介绍: 图像检测中的检测框默认是轴对称的,大多数比较成功的检测方法都是要列举很大数量的候选框,再进一步进行定位和分类。但是这样的做法往往是多余而又低效率的。本文中我们提出了一种对物体的中心点进行定位的方法,并且在此基础上回归出物体的其他属性,比如尺寸、3D位置、方向甚至是姿态。我们提出的网络称之为CenterNet,它是一个端到端可微分,更简化快捷精度更高的方法。官方论文:https://arxiv.org/abs/1904.08189v3


  1. 使用方法

  2. 模型来源


1. 使用方法

1.1. 准备数据集

在终端,在root/centernet(默认)路径下,运行以下命令:

cd ../..
# 进入根目录
cp -r /datasets/voc2007/VOCdevkit ../../../user-data
# 将复现所需的公开数据集复制到指定文件夹下
python voc_annotation.py
# 生成路径文件2007_train.txt和2007_val.txt

1.1. 模型推断

在终端,进入root/centernet(默认)路径下,运行以下命令:

python predict.py
# 默认输入的检测图为img/street.jpg,可按需更改

1.2. 模型训练

在终端,进入root/centernet(默认)路径下,运行以下命令:

python train.py

1.3. 模型测试

在终端,进入root/centernet(默认)路径下,运行以下命令:

python get_map.py

2. 模型来源

https://github.com/bubbliiiing/centernet-pytorch