YOLOv5 实现目标检测(训练自己的数据集实现猫猫识别)

目前YOLOv5已经更新到v3.1版本了,相对于之前的v1.0,YOLOv5更小更精简(只有不到1M),同时训练的模型也更加轻量化,所以特地更新此文章,以适应v3.1版本的各种配置和YOLOv5的使用说明。

———————————————————————————————————
因YOLOv5的官方源码7月份进行了一次更新,有些模块比如apex可能在新的源码中已不再适用,所以我将6月份的一份源码放到了github上,并且在源码的基础上增加了标记和处理数据集的功能,其中含有makeTxt.py和voc_label.py文件和data目录下的各种文件夹,大家可以拿过来按照说明配置好数据集后直接使用。
github:https://github.com/jiwuxuan/yolov5-master0
喜欢的话顺手点个star,谢谢支持!**

———————————————————————————————————

一、概要

2020年6月10日,Ultralytics在github上正式发布了YOLOv5。YOLO系列可以说是单机目标检测框架中的潮流前线了,YOLOv5并不是一个单独的模型,而是一个模型家族,包括了YOLOv5s(最小)、YOLOv5m、YOLOv5l、YOLOv5x(最大)。
在这里插入图片描述
由于YOLOv5是在PyTorch中实现的,它受益于成熟的PyTorch生态系统,支持更简单,部署更容易,相对于YOLOv4,YOLOv5具有以下优点:

  1. 速度更快。在YOLOv5 Colab notebook上,运行Tesla
    P100,我们看到每张图像的推理时间仅需0.007秒,这意味着每秒140帧(FPS),速度是YOLOv4的2倍还多。
  2. 精度更高。在Roboflow对血细胞计数和检测(BCCD)数据集的测试中,只训练了100个epochs就达到了大约0.895的平均精度(mAP)。诚然EfficientDet和YOLOv4的性能相当,但在准确率没有任何损失的情况下,看到如此全面的性能提升是非常罕见的。
  3. 体积更小。YOLOv5的权重文件是27兆字节。YOLOv4(采用Darknet架构)的权重文件是244兆。YOLOv5比YOLOv4小了近90%!这意味着YOLOv5可以更容易地部署到嵌入式设备上。

既然YOLOv5如此之棒,那我们就体验以下大神们的开源成果吧!

github地址:https://github.com/ultralytics/yolov5 [不到1M]

大神们还很贴心的把官方模型放到了网上,如果有梯子,可以下载下来直接测试一下,v3.1版本的官方模型的下载地址:https://github.com/ultralytics/yolov5/releases/tag/v3.1。博主这边没梯子,不过也无关紧要啦,毕竟我们用YOLOv5是识别具体的某项东西,需要自己用数据集来训练模型,官方给的模型也不一定适合我们的业务场景。

至于YOLOv5的原理这里就不多讲了(其实是讲不清),感兴趣的可以自行搜索。话不多说,直接上干货!
在这里插入图片描述

二、环境配置

2.1 基本配置

首先将YOLOv5项目下载到本地,然后配置虚拟环境conda create -n yolov5 python==3.7,在YOLOv5中尽量使用python3.7。项目的测试平台为:
操作系统:windows10
IDE:Pycharm
python版本:anaconda Pyhon3.7
pytorch版本:torch 1.7.1
cuda版本:11.0
显卡:RTX 2060

cuda和pytorch的安装这里不再阐述,国内的话建议下载下来torch和torchvision的whl再进行安装,防止网速不稳定出现安装错误。本文所用到的cuda和pytorch的具体版本如下所示。
在这里插入图片描述

接着进入虚拟环境,使用pip安装必要模块(建议换成国内的源后进行安装):

pip install numpy
pip install matplotlib
pip install pandas
pip install scipy
pip install seaborn
pip install opencv-python
pip install tqdm
pip install pillow
pip install tensorboard
pip install pyyaml
pip install pandas
pip install scikit-image
pip install Cython
pip install thop
pip install pycocotools

2.2 pycocotools安装

本项目需要pycocotools模块,COCO是一个大型的图像数据集,用于目标检测、分割、人的关键点检测、素材分割和标题生成,在python中用COCO数据集需要安装pycocotools。但是在windows环境下无法直接通过pip安装pycocotools,安装方法如下:
先安装Visual C++ 2015 build tools:Microsoft Visual C++ Build Tools 2015,安装好后,在Terminal中执行下面命令:

pip install git+https://github.com/philferriere/cocoapi.git#subdirectory=PythonAPI

执行后即可安装完毕。

2.3 apex安装(v3.1版本暂不需要安装apex)

apex是一款基于 PyTorch 的混合精度训练加速神器,单纯的inference实际上不需要apex模块,如果还要训练自己的数据集,就需要安装这个模块,安装方法如下:
在github上把apex项目下载或者git到本地,链接为:https://github.com/NVIDIA/apex
在terminal中激活pytorch的环境,并且进入到apex的文件夹下,在terminal中执行:

python setup.py install

执行之后即安装完毕。~~
具体安装教程可以参考该博文:https://s618dr.shenbo8885.com/mrjkzhangma/article/details/100704397

执行后可以执行pip list命令查看当前环境下的所有模块,如果看到环境中有刚才安装的的模块,则环境已经配置完毕!

三、YOLOv5 实现训练

3.1 准备工作

首先从github上下载下来YOLOv5,楼主这里改名为yolov5-master-cat,因为是识别小猫猫的。然后在data目录下新建Annotations, images, ImageSets, labels 四个文件夹。
其中images存放的是原始的图片数据集,Annotations存放的是标记后生成的xml文件,labels存放的是保存标记内容的txt文件,ImageSets存放的是训练数据集和测试数据集的分类情况。

├── data
│   ├── Annotations  进行 detection 任务时的标签文件,xml 形式,文件名与图片名一一对应
│   ├── images  存放 .jpg 格式的图片文件
│   ├── ImageSets  存放的是分类和检测的数据集分割文件,包含train.txt, val.txt,trainval.txt,test.txt
│   ├── labels  存放label标注信息的txt文件,与图片一一对应


├── ImageSets(train,val,test建议按照8:1:1比例划分)
│   ├── train.txt  写着用于训练的图片名称
│   ├── val.txt  写着用于验证的图片名称
│   ├── trainval.txt  train与val的合集
│   ├── test.txt  写着用于测试的图片名称

在这里插入图片描述

3.2 标记数据集

工欲善其事必先利其器,没有合适的训练数据集去训练模型,哪怕YOLOv5这个目标识别框架再优秀那也只是个花架子啊。所以第一步我们要去准备我们的训练数据集,楼主这里要识别的是家里的两只活泼可爱黏人乖巧听话的小猫猫,所以准备了五六十张猫猫的照片。制作数据集时,通常使用labelImge标注工具,具体用法这里不多做阐述,因为楼主用了另一种感觉更好用的标记工具:精灵标记助手。使用起来那是相当的顺手啊,不仅操作简单上手快,还可以保存之前标注的数据集,方便后续对数据集标注内容的修改,而且相比于labelImge,RectLabel这些标注工具,精灵标记助手除了支持图片标注外,还支持文本标注,视频标注,而且还免费,真的算是业界良心了。

下载地址:http://s618dr.shenbo8885.com/

参考博文:https://s618dr.shenbo8885.com/youmumzcs/article/details/79657132

精灵标记助手标记界面如图所示:
在这里插入图片描述
数据集标记好后,将原始图片数据集放到images文件夹中,如图所示。
在这里插入图片描述
将精灵标记助手所生成的xml文件全部放入到Annotations文件夹中,如图所示。
在这里插入图片描述

3.3 构建数据集

在yolov5-master-cat的根目录下新建一个文件makeTxt.py,代码如下:

import os
import random


trainval_percent = 0.9
train_percent = 0.9
xmlfilepath = 'data/Annotations'
txtsavepath = 'data/ImageSets'
total_xml = os.listdir(xmlfilepath)

num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)

ftrainval = open('data/ImageSets/trainval.txt', 'w')
ftest = open('data/ImageSets/test.txt', 'w')
ftrain = open('data/ImageSets/train.txt', 'w')
fval = open('data/ImageSets/val.txt', 'w')

for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftrain.write(name)
        else:
            fval.write(name)
    else:
        ftest.write(name)

ftrainval.close()
ftrain.close()
fval.close()
ftest.close()

接着再新建另一个文件voc_label.py,切记,classes=[……] 中填入的一定要是自己在数据集中所标注的类别名称,标记了几个类别就填写几个类别名,填写错误的话会造成读取不出xml文件里的标注信息。代码如下:

# xml解析包
import xml.etree.ElementTree as ET
import pickle
import os
# os.listdir() 方法用于返回指定的文件夹包含的文件或文件夹的名字的列表
from os import listdir, getcwd
from os.path import join


sets = ['train', 'test', 'val']
classes = ['Gingerbread', 'Coconut-milk']


# 进行归一化操作
def convert(size, box): # size:(原图w,原图h) , box:(xmin,xmax,ymin,ymax)
    dw = 1./size[0]     # 1/w
    dh = 1./size[1]     # 1/h
    x = (box[0] + box[1])/2.0   # 物体在图中的中心点x坐标
    y = (box[2] + box[3])/2.0   # 物体在图中的中心点y坐标
    w = box[1] - box[0]         # 物体实际像素宽度
    h = box[3] - box[2]         # 物体实际像素高度
    x = x*dw    # 物体中心点x的坐标比(相当于 x/原图w)
    w = w*dw    # 物体宽度的宽度比(相当于 w/原图w)
    y = y*dh    # 物体中心点y的坐标比(相当于 y/原图h)
    h = h*dh    # 物体宽度的宽度比(相当于 h/原图h)
    return (x, y, w, h)    # 返回 相对于原图的物体中心点的x坐标比,y坐标比,宽度比,高度比,取值范围[0-1]


# year ='2012', 对应图片的id(文件名)
def convert_annotation(image_id):
    '''
    将对应文件名的xml文件转化为label文件,xml文件包含了对应的bunding框以及图片长款大小等信息,
    通过对其解析,然后进行归一化最终读到label文件中去,也就是说
    一张图片文件对应一个xml文件,然后通过解析和归一化,能够将对应的信息保存到唯一一个label文件中去
    labal文件中的格式:calss x y w h  同时,一张图片对应的类别有多个,所以对应的bunding的信息也有多个
    '''
    # 对应的通过year 找到相应的文件夹,并且打开相应image_id的xml文件,其对应bund文件
    in_file = open('data/Annotations/%s.xml' % (image_id), encoding='utf-8')
    # 准备在对应的image_id 中写入对应的label,分别为
    # <object-class> <x> <y> <width> <height>
    out_file = open('data/labels/%s.txt' % (image_id), 'w', encoding='utf-8')
    # 解析xml文件
    tree = ET.parse(in_file)
    # 获得对应的键值对
    root = tree.getroot()
    # 获得图片的尺寸大小
    size = root.find('size')
    # 如果xml内的标记为空,增加判断条件
    if size != None:
        # 获得宽
        w = int(size.find('width').text)
        # 获得高
        h = int(size.find('height').text)
        # 遍历目标obj
        for obj in root.iter('object'):
            # 获得difficult ??
            difficult = obj.find('difficult').text
            # 获得类别 =string 类型
            cls = obj.find('name').text
            # 如果类别不是对应在我们预定好的class文件中,或difficult==1则跳过
            if cls not in classes or int(difficult) == 1:
                continue
            # 通过类别名称找到id
            cls_id = classes.index(cls)
            # 找到bndbox 对象
            xmlbox = obj.find('bndbox')
            # 获取对应的bndbox的数组 = ['xmin','xmax','ymin','ymax']
            b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
                 float(xmlbox.find('ymax').text))
            print(image_id, cls, b)
            # 带入进行归一化操作
            # w = 宽, h = 高, b= bndbox的数组 = ['xmin','xmax','ymin','ymax']
            bb = convert((w, h), b)
            # bb 对应的是归一化后的(x,y,w,h)
            # 生成 calss x y w h 在label文件中
            out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')


# 返回当前工作目录
wd = getcwd()
print(wd)


for image_set in sets:
    '''
    对所有的文件数据集进行遍历
    做了两个工作:
    1.将所有图片文件都遍历一遍,并且将其所有的全路径都写在对应的txt文件中去,方便定位
    2.同时对所有的图片文件进行解析和转化,将其对应的bundingbox 以及类别的信息全部解析写到label 文件中去
         最后再通过直接读取文件,就能找到对应的label 信息
    '''
    # 先找labels文件夹如果不存在则创建
    if not os.path.exists('data/labels/'):
        os.makedirs('data/labels/')
    # 读取在ImageSets/Main 中的train、test..等文件的内容
    # 包含对应的文件名称
    image_ids = open('data/ImageSets/%s.txt' % (image_set)).read().strip().split()
    # 打开对应的2012_train.txt 文件对其进行写入准备
    list_file = open('data/%s.txt' % (image_set), 'w')
    # 将对应的文件_id以及全路径写进去并换行
    for image_id in image_ids:
        list_file.write('data/images/%s.jpg\n' % (image_id))
        # 调用  year = 年份  image_id = 对应的文件名_id
        convert_annotation(image_id)
    # 关闭文件
    list_file.close()

# os.system(‘comand’) 会执行括号中的命令,如果命令成功执行,这条语句返回0,否则返回1
# os.system("cat 2007_train.txt 2007_val.txt 2012_train.txt 2012_val.txt > train.txt")
# os.system("cat 2007_train.txt 2007_val.txt 2007_test.txt 2012_train.txt 2012_val.txt > train.all.txt")

分别运行makeTxt.py和voc_label.py。

makeTxt.py主要是将数据集分类成训练数据集和测试数据集,默认train,val,test按照8:1:1的比例进行随机分类,运行后ImagesSets文件夹中会出现四个文件,主要是生成的训练数据集和测试数据集的图片名称,如下图。同时data目录下也会出现这四个文件,内容是训练数据集和测试数据集的图片路径。
在这里插入图片描述

voc_label.py主要是将图片数据集标注后的xml文件中的标注信息读取出来并写入txt文件,运行后在labels文件夹中出现所有图片数据集的标注信息,如下图:
在这里插入图片描述

到此,本次训练所需的数据集已经全部准备好了。

3.4 文件修改

3.4.1 数据集方面的yaml文件修改

首先在data目录下,复制一份coco.yaml文件并将其重命名为cat.yaml,放在data目录下,并对cat.yaml中的参数进行配置。其中train,val,test后面分别为训练集和测试集图片的路径, nc为数据集的类别数,我这里只分了两类,names为类别的名称。这几个参数均按照自己的实际需求来修改。代码如下:

# COCO 2017 dataset http://s618dr.shenbo8885.com
# Download command: bash yolov5/data/get_coco2017.sh
# Train command: python train.py --data ./data/coco.yaml
# Dataset should be placed next to yolov5 folder:
#   /parent_folder
#     /coco
#     /yolov5


# train and val datasets (image directory or *.txt file with image paths)
train: data/train.txt  # 118k images
val: data/val.txt  # 5k images
test: data/test.txt  # 20k images for submission to https://competitions.codalab.org/competitions/20794

# number of classes
nc: 2

# class names
names: ['Gingerbread', 'Coconut-milk']

# Print classes
# with open('data/coco.yaml') as f:
#   d = yaml.load(f, Loader=yaml.FullLoader)  # dict
#   for i, x in enumerate(d['names']):
#     print(i, x)

3.4.2 网络参数方面的yaml文件修改

接着在models目录下的yolov5s.yaml文件进行修改,这里取决于你使用了哪个模型就去修改对于的文件,该项目中使用的是yolov5s模型。需要修改的代码如下:

# parameters
nc: 2  # number of classes
depth_multiple: 0.33  # model depth multiple
width_multiple: 0.50  # layer channel multiple

3.4.3 train.py中的一些参数修改

最后,在根目录中对train.py中的一些参数进行修改,主要参数解释如下。我们平时训练的话,主要用到的只有这几个参数而已:–weights,–cfg,–data,–epochs,–batch-size,–img-size,–project。

parser = argparse.ArgumentParser()
# 加载的权重文件
parser.add_argument('--weights', type=str, default='yolov5s.pt', help='initial weights path')
# 模型配置文件,网络结构,使用修改好的yolov5m.yaml文件
parser.add_argument('--cfg', type=str, default='models/yolov5s.yaml', help='model.yaml path')
# 数据集配置文件,数据集路径,类名等,使用数据集方面的cat.yaml文件
parser.add_argument('--data', type=str, default='data/cat.yaml', help='data.yaml path')
# 超参数文件
parser.add_argument('--hyp', type=str, default='data/hyp.scratch.yaml', help='hyperparameters path')
# 训练总轮次,1个epoch等于使用训练集中的全部样本训练一次,值越大模型越精确,训练时间也越长。
parser.add_argument('--epochs', type=int, default=300)
# 批次大小,一次训练所选取的样本数,显卡垃圾的话,就调小点
parser.add_argument('--batch-size', type=int, default=16, help='total batch size for all GPUs')
# 输入图片分辨率大小,nargs='+'表示参数可设置一个或多个
parser.add_argument('--img-size', nargs='+', type=int, default=[640, 640], help='[train, test] image sizes')
# 是否采用矩形训练,默认False,开启后可显著的减少推理时间
parser.add_argument('--rect', action='store_true', help='rectangular training')
# 接着打断训练上次的结果接着训练
parser.add_argument('--resume', nargs='?', const=True, default=False, help='resume most recent training')
# 不保存模型,默认False
parser.add_argument('--nosave', action='store_true', help='only save final checkpoint')
# 不进行test,默认False
parser.add_argument('--notest', action='store_true', help='only test final epoch')
# 不自动调整anchor,默认False
parser.add_argument('--noautoanchor', action='store_true', help='disable autoanchor check')
# 是否进行超参数进化,默认False
parser.add_argument('--evolve', action='store_true', help='evolve hyperparameters')
# 谷歌云盘bucket,一般不会用到
parser.add_argument('--bucket', type=str, default='', help='gsutil bucket')
# 是否提前缓存图片到内存,以加快训练速度,默认False
parser.add_argument('--cache-images', action='store_true', help='cache images for faster training')
# 选用加权图像进行训练
parser.add_argument('--image-weights', action='store_true', help='use weighted image selection for training')
# 训练的设备,cpu;0(表示一个gpu设备cuda:0);0,1,2,3(多个gpu设备)。值为空时,训练时默认使用计算机自带的显卡或CPU
parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
# 是否进行多尺度训练,默认False
parser.add_argument('--multi-scale', action='store_true', help='vary img-size +/- 50%%')
# 数据集是否只有一个类别,默认False
parser.add_argument('--single-cls', action='store_true', help='train multi-class data as single-class')
# 是否使用adam优化器
parser.add_argument('--adam', action='store_true', help='use torch.optim.Adam() optimizer')
# 是否使用跨卡同步BN,在DDP模式使用
parser.add_argument('--sync-bn', action='store_true', help='use SyncBatchNorm, only available in DDP mode')
# gpu编号
parser.add_argument('--local_rank', type=int, default=-1, help='DDP parameter, do not modify')
# W&B记录的图像数,最大为100
parser.add_argument('--log-imgs', type=int, default=16, help='number of images for W&B logging, max 100')
# 记录最终训练的模型,即last.pt
parser.add_argument('--log-artifacts', action='store_true', help='log artifacts, i.e. final trained model')
# dataloader的最大worker数量
parser.add_argument('--workers', type=int, default=4, help='maximum number of dataloader workers')
# 训练结果所存放的路径,默认为runs/train
parser.add_argument('--project', default='runs/train', help='save to project/name')
# 训练结果所在文件夹的名称,默认为exp
parser.add_argument('--name', default='exp', help='save to project/name')
# 若现有的project/name存在,则不进行递增
parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')
opt = parser.parse_args()

3.5 训练模型

全部配置好后,直接执行train.py文件开始训练,这时候就到了考验显卡的时候,可以耐心的等上一两个小时,可以吃个瓜,看个小电影啥的,千万别手痒玩什么3A大作,否则电脑爆炸还得重新训练。
当程序运行界面出现如下所示并后续不报错的情况下,说明开始训练。

Using torch 1.7.1+cu110 CUDA:0 (GeForce RTX 2060, 6144MB)

Namespace(adam=False, batch_size=16, bucket='', cache_images=False, cfg='', data='data/cat.yaml', device='', epochs=300, evolve=False, exist_ok=False, global_rank=-1, hyp='data/hyp.scratch.yaml', image_weights=False, img_size=[640, 640], local_rank=-1, log_artifacts=False, log_imgs=16, multi_scale=False, name='exp', noautoanchor=False, nosave=False, notest=False, project='runs/train', rect=False, resume=False, save_dir='runs\\train\\exp', single_cls=False, sync_bn=False, total_batch_size=16, weights='yolov5s.pt', workers=8, world_size=1)
Start Tensorboard with "tensorboard --logdir runs/train", view at http://localhost:6006/
Hyperparameters {'lr0': 0.01, 'lrf': 0.2, 'momentum': 0.937, 'weight_decay': 0.0005, 'warmup_epochs': 3.0, 'warmup_momentum': 0.8, 'warmup_bias_lr': 0.1, 'box': 0.05, 'cls': 0.5, 'cls_pw': 1.0, 'obj': 1.0, 'obj_pw': 1.0, 'iou_t': 0.2, 'anchor_t': 4.0, 'fl_gamma': 0.0, 'hsv_h': 0.015, 'hsv_s': 0.7, 'hsv_v': 0.4, 'degrees': 0.0, 'translate': 0.1, 'scale': 0.5, 'shear': 0.0, 'perspective': 0.0, 'flipud': 0.0, 'fliplr': 0.5, 'mosaic': 1.0, 'mixup': 0.0}
Analyzing anchors... anchors/target = 5.31, Best Possible Recall (BPR) = 1.0000
Image sizes 640 train, 640 test
Using 6 dataloader workers
Logging results to runs\train\exp
Starting training for 300 epochs...

Epoch   gpu_mem       box       obj       cls     total   targets  img_size
     0/299      2.2G    0.1117   0.03632   0.02687    0.1749         2       640: 100%|██████████| 4/4 [00:17<00:00,  4.35s/it]
               Class      Images     Targets           P           R      mAP@.5  mAP@.5:.95: 100%|██████████| 1/1 [00:01<00:00,  1.12s/it]
                 all           6           0           0           0           0           0

在训练中,也可以随时查看每一轮次训练的结果,可利用tensorboard可视化训练过程,训练开始时会在runs/train/exp文件夹中产生一个“events.out.tfevents.1608924773.JWX.5276.0”文件,利用tensorboard打开即可查看训练日志。首先我们通过cmd进去该YOLOv5所在的项目文件夹,然后激活所用的虚拟环境,输入如下命令行:

tensorboard --logdir runs/train/exp

命令行输入信息的整体显示如下所示:

E:\SG\yolov5目标监测\yolov5-master-catnew>activate yolov5

(yolov5) E:\SG\yolov5目标监测\yolov5-master-catnew>tensorboard --logdir runs/train/exp
TensorFlow installation not found - running with reduced feature set.
Serving TensorBoard on localhost; to expose to the network, use a proxy or pass --bind_all
TensorBoard 2.4.0 at http://localhost:6006/ (Press CTRL+C to quit)

到这一步后,我们就可打开 http://localhost:6006/ 网页查看每一轮次训练的结果,如图所示。我这里由于数据过少(只有62张)的原因,所有模型训练的很不精准。如果是用于正常工作的情况下,所需的数据集至少要上千张图片。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

如果不更改训练结果所产生的路径的话,训练好后会在runs/train/exp文件夹得到如下文件,其中,我们训练好的权重为weights文件夹中的best.pt和last.pt文件,顾名思义,best.pt是训练300轮后所得到的最好的权重,last.pt是最后一轮训练所得到的权重。

在这里插入图片描述

四、YOLOv5 实现检测

有了训练好的权重后,就可以就行目标检测测试了。直接在根目录的detect.py中进行调试,主要参数解释如下。我们平时用的话,主要用到的只有这几个参数而已:–weights,–source,–conf-thres,–project。

parser = argparse.ArgumentParser()
# 选用训练的权重,可用根目录下的yolov5s.pt,也可用runs/train/exp/weights/best.pt
parser.add_argument('--weights', nargs='+', type=str, default='yolov5s.pt', help='model.pt path(s)')
# 检测数据,可以是图片/视频路径,也可以是'0'(电脑自带摄像头),也可以是rtsp等视频流
parser.add_argument('--source', type=str, default='inference/videos/猫猫识别.mp4', help='source')  # file/folder, 0 for webcam
# 网络输入图片大小
parser.add_argument('--img-size', type=int, default=640, help='inference size (pixels)')
# 置信度阈值,检测到的对象属于特定类(狗,猫,香蕉,汽车等)的概率
parser.add_argument('--conf-thres', type=float, default=0.25, help='object confidence threshold')
# 做nms的iou阈值
parser.add_argument('--iou-thres', type=float, default=0.45, help='IOU threshold for NMS')
# 检测的设备,cpu;0(表示一个gpu设备cuda:0);0,1,2,3(多个gpu设备)。值为空时,训练时默认使用计算机自带的显卡或CPU
parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
# 是否展示检测之后的图片/视频,默认False
parser.add_argument('--view-img', action='store_true', help='display results')
# 是否将检测的框坐标以txt文件形式保存,默认False
parser.add_argument('--save-txt', action='store_true', help='save results to *.txt')
# 是否将检测的labels以txt文件形式保存,默认False
parser.add_argument('--save-conf', action='store_true', help='save confidences in --save-txt labels')
# 设置只保留某一部分类别,如0或者0 2 3
parser.add_argument('--classes', nargs='+', type=int, help='filter by class: --class 0, or --class 0 2 3')
# 进行nms是否也去除不同类别之间的框,默认False
parser.add_argument('--agnostic-nms', action='store_true', help='class-agnostic NMS')
# 推理的时候进行多尺度,翻转等操作(TTA)推理
parser.add_argument('--augment', action='store_true', help='augmented inference')
# 如果为True,则对所有模型进行strip_optimizer操作,去除pt文件中的优化器等信息,默认为False
parser.add_argument('--update', action='store_true', help='update all models')
# 检测结果所存放的路径,默认为runs/detect
parser.add_argument('--project', default='runs/detect', help='save results to project/name')
# 检测结果所在文件夹的名称,默认为exp
parser.add_argument('--name', default='exp', help='save results to project/name')
# 若现有的project/name存在,则不进行递增
parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')
opt = parser.parse_args()

修改好参数后,直接执行detect.py文件,如果不更改检测结果所产生的路径的话,检测完成后会在runs/detect/exp文件夹得到检测后的视频。下面是输出视频的截图,可能是小猫的特征不是很明显,尤其是侧脸的识别效果并不是很好,训练数据集如果量大一点应该会有更好的效果。
在这里插入图片描述

已标记关键词 清除标记
相关推荐
<p class="MsoNormal"><span style="font-family: 微软雅黑, sans-serif;">YOLO系列是基于深度学习的端到端实时目标检测方法。 PyTorch版的YOLOv5轻量而性能高,更加灵活和便利。 </span></p> <p class="MsoNormal"><span style="font-family: 微软雅黑, sans-serif;">本课程将手把手地教大家使用labelImg标注和使用YOLOv5训练自己的数据集。课程实战分为两个项目:单目标检测(足球目标检测)和多目标检测(足球和梅西同时检测)。 </span></p> <p class="MsoNormal"><span style="font-family: 微软雅黑, sans-serif;">本课程的YOLOv5使用ultralytics/yolov5,在<strong><span style="color: #e03e2d;">Ubuntu</span></strong>系统上做项目演示。包括:安装YOLOv5、标注自己的数据集、准备自己的数据集、修改配置文件、训练自己的数据集、测试训练出的网络模型和性能统计。 </span></p> <p class="MsoNormal"><span style="font-family: 微软雅黑, sans-serif;">希望学习在Windows系统上演示的学员,请前往《YOLOv5(PyTorch)实战:训练自己的数据集(Windows)》</span><span style="font-family: 微软雅黑, sans-serif;">课程链接:https://edu.csdn.net/course/detail/30923</span></p> <p class="MsoNormal"><span style="font-family: 微软雅黑, sans-serif;">除本课程《YOLOv5(PyTorch)实战:训练自己的数据集(Ubuntu)》外,本人将推出有关YOLOv5目标检测的系列课程。请持续关注该系列的其它视频课程,包括:</span></p> <p class="MsoNormal"><span style="font-family: 微软雅黑, sans-serif;">《YOLOv5(PyTorch)目标检测:原理与源码解析》</span></p> <p class="MsoNormal"><span style="font-family: 微软雅黑, sans-serif;">《YOLOv5(PyTorch)目标检测实战:Flask Web部署》</span></p> <p><img src="https://img-bss.csdnimg.cn/202010090632026212.jpg" alt="课程内容" width="880" height="356" /></p> <p class="MsoNormal"><img src="https://img-bss.csdnimg.cn/202010090632284127.jpg" alt="技巧" width="880" height="706" /></p> <p class="MsoNormal"><img src="https://img-bss.csdnimg.cn/202010090633275608.jpg" alt="功能" width="880" height="913" /></p>
<p>需要学习Windows系统YOLOv4的同学请前往《Windows版YOLOv4目标检测实战:原理与源码解析》,</p> <p>课程链接 https://edu.csdn.net/course/detail/29865</p> <h3><span style="color: #3598db;">【为什么要学习这门课】</span></h3> <p><span lang="EN-US">Linux</span>创始人<span lang="EN-US">Linus Torvalds</span>有一句名言:<span lang="EN-US">Talk is cheap. Show me the code. </span><strong><span style="color: #ba372a;">冗谈不够,放码过来!</span></strong></p> <p><span lang="EN-US"> </span>代码阅读是从基础到提高的必由之路。尤其对深度学习,许多框架隐藏了神经网络底层的实现,只能在上层调包使用,对其内部原理很难认识清晰,不利于进一步优化和创新。</p> <p>YOLOv4是最近推出的基于深度学习的端到端实时目标检测方法。</p> <p>YOLOv4的实现darknet是使用C语言开发的轻型开源深度学习框架,依赖少,可移植性好,可以作为很好的代码阅读案例,让我们深入探究其实现原理。</p> <h3><span style="color: #3598db;">【课程内容与收获】</span></h3> <p>本课程将解析YOLOv4的实现原理和源码,具体内容包括:</p> <p>- YOLOv4目标检测原理<br />- 神经网络及darknet的C语言实现,尤其是反向传播的梯度求解和误差计算<br />- 代码阅读工具及方法<br />- 深度学习计算的利器:BLAS和GEMM<br />- GPU的CUDA编程方法及在darknet的应用<br />- YOLOv4的程序流程</p> <p>- YOLOv4各层及关键技术的源码解析</p> <p>本课程将提供注释后的darknet的源码程序文件。</p> <h3><strong><span style="color: #3598db;">【相关课程】</span></strong></h3> <p>除本课程《YOLOv4目标检测:原理与源码解析》外,本人推出了有关YOLOv4目标检测的系列课程,包括:</p> <p>《YOLOv4目标检测实战:训练自己的数据集》</p> <p>《YOLOv4-tiny目标检测实战:训练自己的数据集》</p> <p>《YOLOv4目标检测实战:人脸口罩佩戴检测》<br />《YOLOv4目标检测实战:中国交通标志识别》</p> <p>建议先学习一门YOLOv4实战课程,对YOLOv4的使用方法了解以后再学习本课程。</p> <h3><span style="color: #3598db;">【YOLOv4网络模型架构图】</span></h3> <p>下图由白勇老师绘制</p> <p><img src="https://img-bss.csdnimg.cn/202006291526195469.jpg" alt="" /></p> <p> </p> <p><img src="https://img-bss.csdnimg.cn/202007011518185782.jpg" alt="" /></p>
<p> <span style="font-size:18px;color:#E53333;"><strong><span style="color:#000000;">课程演示环境:Ubuntu</span><br /><br /><span style="color:#000000;">需要学习Windows系统YOLOv4的同学请前往《Windows版YOLOv4目标检测实战:训练自己的数据集》,课程链接https://edu.csdn.net/course/detail/28748</span><br /><br /> YOLOv4</strong></span><span style="font-size:18px;color:#E53333;"><strong>来了!速度和精度双提升!</strong></span> </p> <p> <span style="font-size:16px;"> </span> </p> <p> <span style="font-size:16px;">与</span><span style="font-size:16px;"> YOLOv3 </span><span style="font-size:16px;">相比,新版本的</span><span style="font-size:16px;"> AP(精度) </span><span style="font-size:16px;">和</span><span style="font-size:16px;"> FPS </span><span style="font-size:16px;">(每秒帧率)分别提高了</span><span style="font-size:16px;"> 10% </span><span style="font-size:16px;">和</span><span style="font-size:16px;"> 12%</span><span style="font-size:16px;">。</span><span></span> </p> <p> <span style="font-size:16px;"> </span> </p> <p> <span style="font-size:16px;">YOLO系列是基于深度学习的端到端实时目标检测方法。本课程将手把手地教大家使用</span><span style="font-size:16px;">labelImg</span><span style="font-size:16px;">标注和使用</span><span style="font-size:16px;">YOLOv4</span><span style="font-size:16px;">训练自己的数据集。课程实战分为两个项目:单目标检测(足球目标检测)和多目标检测(足球和梅西同时检测)。</span><span></span> </p> <p> <span style="font-size:16px;"> </span> </p> <p> <span style="font-size:16px;">本课程的</span><span style="font-size:16px;">YOLOv4</span><span style="font-size:16px;">使用</span><span style="font-size:16px;">AlexAB/darknet</span><span style="font-size:16px;">,在</span><span style="font-size:16px;">Ubuntu</span><span style="font-size:16px;">系统上做项目演示。包括:安装</span><span style="font-size:16px;">YOLOv4、</span><span style="font-size:16px;">标注自己的数据集、整理自己的数据集、修改配置文件、训练自己的数据集、测试训练出的网络模型、性能统计</span><span style="font-size:16px;">(mAP</span><span style="font-size:16px;">计算和画出</span><span style="font-size:16px;">PR</span><span style="font-size:16px;">曲线</span><span style="font-size:16px;">)</span><span style="font-size:16px;">和先验框聚类分析。还将介绍改善</span><span style="font-size:16px;">YOLOv4</span><span style="font-size:16px;">目标训练性能的技巧。</span><span></span> </p> <p> <span style="font-size:16px;"> </span> </p> <p> <span style="font-size:16px;">除本课程《</span><span style="font-size:16px;">YOLOv4</span><span style="font-size:16px;">目标检测实战:训练自己的数据集》外,本人将推出有关</span><span style="font-size:16px;">YOLOv4</span><span style="font-size:16px;">目标检测的系列课程。请持续关注该系列的其它视频课程,包括:</span><span></span> </p> <p> <span style="font-size:16px;">《</span><span style="font-size:16px;">YOLOv4</span><span style="font-size:16px;">目标检测实战:人脸口罩佩戴识别》</span><br /><span style="font-size:16px;">《</span><span style="font-size:16px;">YOLOv4</span><span style="font-size:16px;">目标检测实战:中国交通标志识别》</span><br /><span style="font-size:16px;">《</span><span style="font-size:16px;">YOLOv4</span><span style="font-size:16px;">目标检测:原理与源码解析》</span> </p> <p> <br /></p> <p> <span style="font-size:16px;"><br /></span> </p> <p> <span style="font-size:16px;"><img src="https://img-bss.csdn.net/202004260858382698.jpg" alt="" /><br /></span> </p> <p> <span style="font-size:16px;"><br /></span> </p> <p> <span style="font-size:16px;"><img src="https://img-bss.csdn.net/202004260858535136.jpg" alt="" /><br /></span> </p> <p> <span style="font-size:16px;"><img src="https://img-bss.csdn.net/202004260859074920.jpg" alt="" /><br /></span> </p> <p> <span></span> </p> <p> <span></span> </p>
<p class="MsoNormal"><span lang="EN-US" style="font-family: '微软雅黑',sans-serif;">YOLO</span><span style="font-family: '微软雅黑',sans-serif;">系列是基于深度学习的端到端实时目标检测方法。 <span lang="EN-US">PyTorch</span>版的<span lang="EN-US">YOLOv5</span>轻量而性能高,更加灵活和便利。</span><span style="font-family: 微软雅黑, sans-serif;"> </span></p> <p class="MsoNormal"><span style="font-family: '微软雅黑',sans-serif;">本课程将手把手地教大家使用<span lang="EN-US">labelImg</span>标注和使用<span lang="EN-US">YOLOv5</span>训练自己的数据集。课程实战分为两个项目:单目标检测(足球目标检测)和多目标检测(足球和梅西同时检测)。</span><span style="font-family: 微软雅黑, sans-serif;"> </span></p> <p class="MsoNormal"><span style="font-family: '微软雅黑',sans-serif;">本课程的<span lang="EN-US">YOLOv5</span>使用<span lang="EN-US">ultralytics/yolov5</span>,在<span style="color: #e03e2d;"><strong><span lang="EN-US">Windows</span></strong></span>系统上做项目演示。包括:安装<span lang="EN-US">YOLOv5</span>、标注自己的数据集、准备自己的数据集、修改配置文件、训练自己的数据集、测试训练出的网络模型和性能统计。</span><span style="font-family: 微软雅黑, sans-serif;"> </span></p> <p class="MsoNormal"><span style="font-family: 微软雅黑, sans-serif;">希望学习Ubuntu上演示的同学,请前往 </span><span style="font-family: 微软雅黑, sans-serif;">《</span><span lang="EN-US" style="font-family: 微软雅黑, sans-serif;">YOLOv5(PyTorch)</span><span style="font-family: 微软雅黑, sans-serif;">实战:训练自己的数据集(Ubuntu)》课程链接:https://edu.csdn.net/course/detail/30793</span><span style="font-family: 宋体;"><span style="font-size: 14px;"> </span></span></p> <p class="MsoNormal"> </p> <p class="MsoNormal"><span style="font-family: '微软雅黑',sans-serif;">除本课程《<span lang="EN-US">YOLOv5(PyTorch)</span>实战:训练自己的数据集(Windows)》外,本人将推出有关<span lang="EN-US">YOLOv5</span>目标检测的系列课程。请持续关注该系列的其它视频课程,包括:</span></p> <p class="MsoNormal"><span style="font-family: '微软雅黑',sans-serif;">《<span lang="EN-US">YOLOv5</span>目标检测:原理与源码解析》</span></p> <p class="MsoNormal"><span style="font-family: '微软雅黑',sans-serif;">《<span lang="EN-US">YOLOv5</span>目标检测实战:<span lang="EN-US">Flask Web</span>部署》</span></p> <p><img src="https://img-bss.csdnimg.cn/202010090636458614.jpg" alt="课程内容" width="880" height="356" /></p> <p><img src="https://img-bss.csdnimg.cn/202010090637068681.jpg" alt="技巧" width="880" height="706" /></p> <p><img src="https://img-bss.csdnimg.cn/202010090637267536.jpg" alt="功能" width="880" height="913" /></p>
<p class="MsoNormal" style="text-align: left; mso-pagination: widow-orphan; mso-outline-level: 3; background: white;" align="left"><span style="font-size: 13.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #3598db; mso-font-kerning: 0pt;">【为什么要学习这门课】</span></p> <p class="MsoNormal" style="text-align: left; mso-pagination: widow-orphan; background: white;" align="left"><span lang="EN-US" style="mso-bidi-font-size: 10.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #222226; mso-font-kerning: 0pt;">Linux</span><span style="mso-bidi-font-size: 10.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #222226; mso-font-kerning: 0pt;">创始人<span lang="EN-US">Linus Torvalds</span>有一句名言:<span lang="EN-US">Talk is cheap. Show me the code. </span></span><span style="mso-bidi-font-size: 10.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #ba372a; mso-font-kerning: 0pt;">冗谈不够,放码过来!</span><span style="mso-bidi-font-size: 10.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #222226; mso-font-kerning: 0pt;">代码阅读是从基础到提高的必由之路。 </span></p> <p class="MsoNormal" style="text-align: left; mso-pagination: widow-orphan; background: white;" align="left"><span lang="EN-US" style="mso-bidi-font-size: 10.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #222226; mso-font-kerning: 0pt;">YOLOv5</span><span style="mso-bidi-font-size: 10.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #222226; mso-font-kerning: 0pt;">是最近推出的轻量且高性能的实时目标检测方法。<span lang="EN-US">YOLOv5</span>使用<span lang="EN-US">PyTorch</span>实现,含有很多业界前沿和常用的技巧,可以作为很好的代码阅读案例,让我们深入探究其实现原理,其中不少知识点的代码可以作为相关项目的借鉴。</span></p> <p class="MsoNormal" style="text-align: left; mso-pagination: widow-orphan; mso-outline-level: 3; background: white;" align="left"><span style="font-size: 13.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #3598db; mso-font-kerning: 0pt;">【课程内容与收获】</span></p> <p class="MsoNormal" style="text-align: left; mso-pagination: widow-orphan; background: white;" align="left"><span style="mso-bidi-font-size: 10.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #222226; mso-font-kerning: 0pt;">本课程将详细解析<span lang="EN-US">YOLOv5</span>的实现原理和源码,对关键代码使用<span lang="EN-US">PyCharm</span>的<span lang="EN-US">debug</span>模式逐行分析解读。 本课程将提供注释后的<span lang="EN-US">YOLOv5</span>的源码程序文件。</span></p> <p class="MsoNormal" style="text-align: left; mso-pagination: widow-orphan; background: white;" align="left"><span lang="EN-US" style="mso-bidi-font-size: 10.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #222226; mso-font-kerning: 0pt;"> <img src="https://img-bss.csdnimg.cn/202012061533559839.jpg" alt="课程内容" /></span></p> <p class="MsoNormal" style="text-align: left; mso-pagination: widow-orphan; mso-outline-level: 3; background: white;" align="left"><span style="font-size: 13.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #3598db; mso-font-kerning: 0pt;">【相关课程】</span></p> <p class="MsoNormal" style="text-align: left; mso-pagination: widow-orphan; background: white;" align="left"><span style="mso-bidi-font-size: 10.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #222226; mso-font-kerning: 0pt;">除本课程《<span lang="EN-US">YOLOv5(PyTorch)</span>目标检测:原理与源码解析》外,请关注该系列的其它视频课程,包括:</span></p> <p class="MsoNormal" style="text-align: left; mso-pagination: widow-orphan; background: white;" align="left"><span style="mso-bidi-font-size: 10.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #222226; mso-font-kerning: 0pt;">《<span lang="EN-US">YOLOv5(PyTorch)</span>目标检测实战:训练自己的数据集(<span lang="EN-US">Ubuntu</span>)》</span></p> <p class="MsoNormal" style="text-align: left; mso-pagination: widow-orphan; background: white;" align="left"><span style="mso-bidi-font-size: 10.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #222226; mso-font-kerning: 0pt;">《<span lang="EN-US">YOLOv5(PyTorch)</span>目标检测实战:训练自己的数据集(<span lang="EN-US">Windows</span>)》</span></p> <p class="MsoNormal" style="text-align: left; mso-pagination: widow-orphan; background: white;" align="left"><span style="mso-bidi-font-size: 10.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #222226; mso-font-kerning: 0pt;">《<span lang="EN-US">YOLOv5(PyTorch)</span>目标检测:原理与源码解析》</span></p> <p class="MsoNormal" style="text-align: left; mso-pagination: widow-orphan; background: white;" align="left"><span style="mso-bidi-font-size: 10.5pt; font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Arial; color: #222226; mso-font-kerning: 0pt;">《<span lang="EN-US">YOLOv5(PyTorch)</span>目标检测实战:<span lang="EN-US">Flask Web</span>部署》 </span></p>
<p style="margin: 0cm; background: white;"><span lang="EN-US" style="font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Helvetica; color: #313d54;">PyTorch</span><span style="font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Helvetica; color: #313d54;">版的<span lang="EN-US">YOLOv5</span>是轻量而高性能的实时目标检测方法。利用<span lang="EN-US">YOLOv5</span>训练完自己的数据集后,如何向大众展示并提供落地的服务呢?<span lang="EN-US"> </span></span></p> <p style="margin: 0cm; background: white;"> </p> <p style="margin: 0cm; background: white; font-variant-ligatures: normal; font-variant-caps: normal; orphans: 2; widows: 2; -webkit-text-stroke-width: 0px; text-decoration-style: initial; text-decoration-color: initial; word-spacing: 0px;"><span style="font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Helvetica; color: #313d54;">本课程将提供相应的解决方案,具体讲述如何使用<span lang="EN-US">Web</span>应用程序框架<span lang="EN-US">Flask</span>进行<span lang="EN-US">YOLOv5</span>的<span lang="EN-US">Web</span>应用部署。用户可通过客户端浏览器上传图片,经服务器处理后返回图片检测数据并在浏览器中绘制检测结果。<span lang="EN-US"> </span></span></p> <p style="margin: 0cm; background: white; font-variant-ligatures: normal; font-variant-caps: normal; orphans: 2; widows: 2; -webkit-text-stroke-width: 0px; text-decoration-style: initial; text-decoration-color: initial; word-spacing: 0px;"> </p> <p style="margin: 0cm; background: white; font-variant-ligatures: normal; font-variant-caps: normal; orphans: 2; widows: 2; -webkit-text-stroke-width: 0px; text-decoration-style: initial; text-decoration-color: initial; word-spacing: 0px;"><span style="font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Helvetica; color: #313d54;">本课程的<span lang="EN-US">YOLOv5</span>使用<span lang="EN-US">ultralytics/yolov5</span>,在</span><strong><span lang="EN-US" style="font-family: 'Helvetica',sans-serif; mso-fareast-font-family: 微软雅黑; color: #c00000;">Ubuntu</span></strong><span style="font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Helvetica; color: #313d54;">系统上做项目演示,并提供在</span><strong><span lang="EN-US" style="font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Helvetica; color: #c00000;">Windows</span></strong><span style="font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Helvetica; color: #313d54;">系统上的部署方式文档。</span></p> <p style="margin: 0cm; background: white;"><span style="font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Helvetica; color: #313d54;">本项目采取前后端分离的系统架构和开发方式,减少前后端的耦合。课程包括:<span lang="EN-US">YOLOv5</span>的安装、 <span lang="EN-US">Flask</span>的安装、<span lang="EN-US">YOLOv5</span>的检测<span lang="EN-US">API</span>接口python代码、 <span lang="EN-US">Flask</span>的服务程序的python代码、前端<span lang="EN-US">html</span>代码、<span lang="EN-US">CSS</span>代码、<span lang="EN-US">Javascript</span>代码、系统部署演示、生产系统部署建议等。</span></p> <p style="margin: 0cm; background: white; font-variant-ligatures: normal; font-variant-caps: normal; orphans: 2; widows: 2; -webkit-text-stroke-width: 0px; text-decoration-style: initial; text-decoration-color: initial; word-spacing: 0px;"><span lang="EN-US" style="font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Helvetica; color: #313d54;"> </span></p> <p style="margin: 0cm; background: white; font-variant-ligatures: normal; font-variant-caps: normal; orphans: 2; widows: 2; -webkit-text-stroke-width: 0px; text-decoration-style: initial; text-decoration-color: initial; word-spacing: 0px;"><span style="font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Helvetica; color: #313d54;">除本课程《<span lang="EN-US">YOLOv5(PyTorch)</span>目标检测实战:<span lang="EN-US">Flask Web</span>部署》外,本人推出了有关<span lang="EN-US">YOLOv5</span>目标检测的系列课程。请关注该系列的其它视频课程,包括:</span></p> <p style="margin: 0cm; background: white;"><span style="font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Helvetica; color: #313d54;">《<span lang="EN-US">YOLOv5(PyTorch)</span>目标检测实战:训练自己的数据集》</span></p> <p style="margin: 0cm; background: white; font-variant-ligatures: normal; font-variant-caps: normal; orphans: 2; widows: 2; -webkit-text-stroke-width: 0px; text-decoration-style: initial; text-decoration-color: initial; word-spacing: 0px;"><span style="font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Helvetica; color: #313d54;">《<span lang="EN-US">YOLOv5(PyTorch)</span>目标检测:原理与源码解析》</span></p> <p style="margin: 0cm; background: white; font-variant-ligatures: normal; font-variant-caps: normal; orphans: 2; widows: 2; -webkit-text-stroke-width: 0px; text-decoration-style: initial; text-decoration-color: initial; word-spacing: 0px;"><span style="font-family: '微软雅黑',sans-serif; mso-bidi-font-family: Helvetica; color: #313d54;">《<span lang="EN-US">YOLOv5(PyTorch)</span>目标检测实战:<span lang="EN-US">Flask Web</span>部署》</span></p> <p><img src="https://img-bss.csdnimg.cn/202010271340349334.jpg" alt="yolov5部署演示" /></p> <p><img src="https://img-bss.csdnimg.cn/202010271340598046.jpg" alt="系统架构" /></p>
??2020 CSDN 皮肤主题: 大白 设计师:CSDN官方博客 首页
网站地图 申博娱乐注册 申博游戏平台 太阳城亚洲注册 申博现金百家乐
申博游戏端登入 申博太阳城手机版下载 www.88tyc.com 申博太阳城网址
盛618官网 盛618登入 申博游戏注册 申博电子游戏
申博棋牌游戏 申博直营现金网 捕鱼游戏 申博游戏登入不了
申博 申博太阳城现金网 申博百家乐 申博游戏网址