我们已经为您准备好复现该模型所需的环境,您可以创建实例、一键复用哦!

模型的使用文档涵盖模型所需环境、模型简介以及复现模型的具体步骤。模型效果和模型详细来源可以点击论文地址和模型来源链接查看哦~

VGG(Torchvision)

2022-09-01 model:torchvision-ubuntu20.04-cuda11.1-cudnn8-python3.8-pytorch1.9.1-new

模型标签
图像分类

模型简介

本文研究了在大规模图像识别环境中卷积网络深度对其准确性的影响,主要贡献是使用具有非常小(3x3)卷积滤波器的架构对深度不断增加的网络进行彻底评估。这表明通过将深度推至16-19权重层,可以实现对现有技术配置的显著改进。这些发现是作者2014年ImageNet挑战赛提交的基础,我们的团队在本地化和分类方面分别获得了第一名和第二名。我们还表明,我们的表示可以很好地推广到其他数据集,在这些数据集中,它们可以获得最先进的结果。我们已经公开了两个性能最好的ConvNet模型,以促进在计算机视觉中使用深度视觉表示的进一步研究。 论文地址:https://arxiv.org/pdf/1409.1556v6.pdf


1. 使用方法

1.1. 预训练模型推断

进入终端中,在root/vision/references/classification(默认)路径下,输入:

python train.py --model vgg11 --test-only --pretrained
# model后的参数可按需指定vgg11,vgg13,vgg16 或 vgg19

1.2. 模型训练

进入终端中,在root/vision/references/classification(默认)路径下,输入:

python train.py --model vgg11
# model后的参数可按需指定vgg11,vgg13,vgg16 或 vgg19

2. 模型来源

https://github.com/pytorch/vision/tree/main/references/classification