YOLOv7训练自己的数据集

目录

第一步:验证

第二步:制作自己的数据集

第三步:修改代码

第四步:训练


这里使用的YOLOv7是WongKinYiu/yolov7版本,

github地址:WongKinYiu/yolov7: Implementation of paper – YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors (github.com)

直接进入主题:YOLOv7官方提供的coco格式,这里使用VOC格式,从v5,v6转过来比较容易。

第一步:验证

下载代码:

git clone https://github.com/WongKinYiu/yolov7.git
cd yolov7
pip install -r requirements.txt

首先可以验证一下安装是否成功,使用预训练的权重yolov7.pt,这里提供百度网盘地址:

链接:https://pan.baidu.com/s/14cBNdSQtCC1AXCcsy4vyJg 
提取码:4g9v

创建文件夹weights,将权重文件放入,运行代码:

python detect.py --weights weights/yolov7.pt --conf 0.25 --img-size 640 --source inference/images/horses.jpg

在 runs/detect/exp 下有生成的图片:

表示代码运行成功。

第二步:制作自己的数据集

首先,确定有labelme等其他软件标注的数据,这里使用的是本人之前在v5,v6训练过的吸烟数据集,文件格式如下:

├─Annotations #标注的含有矩形框的xml
    ├─xx.xml
    ├─xx.xml
    └─xx.xml
├─images #原图
    ├─xx.jpg
    ├─xx.jpg
    └─xx.jpg

 创建标准VOC格式数据集,这里只要创建文件夹即可,文件格式如下:

├─data
│ ├─Annotations #标注的含有矩形框的xml
│ │    ├─xx.xml
│ │    ├─xx.xml
│ │    └─xx.xml
│ ├─images #原图
│ │    ├─xx.jpg
│ │    ├─xx.jpg
│ │    └─xx.jpg
│ ├─ImageSets
│ │   └─Main
│ │      ├─test.txt
│ │      └─train.txt
│ ├─labels
│ │   ├─xx.txt
│ │   └─xx.txt
│ ├─test.txt
│ └─train.txt

使用如下代码生成test.txt和train.txt:

# *coding:utf-8 *
import os
import random

trainval_percent = 0.2  # 可自行进行调节(设置训练和测试的比例是8:2)
train_percent = 1
xmlfilepath = 'data/Annotations'
txtsavepath = 'data/ImageSets/Main'
total_xml = os.listdir(xmlfilepath)

num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)

# ftrainval = open('ImageSets/Main/trainval.txt', 'w')
ftest = open('data/ImageSets/Main/test.txt', 'w')
ftrain = open('data/ImageSets/Main/train.txt', 'w')
# fval = open('ImageSets/Main/val.txt', 'w')

for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        # ftrainval.write(name)
        if i in train:
            ftest.write(name)
        # else:
        # fval.write(name)
    else:
        ftrain.write(name)

# ftrainval.close()
ftrain.close()
# fval.close()
ftest.close()

再使用如下代码将xml转换成yolov7训练的txt格式,txt存储在labels文件夹下:

# *coding:utf-8 *
import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join
import cv2

sets = ['train', 'test']
classes = ["xy" ]

def convert(size, box):
    dw = 1. / size[0]
    dh = 1. / size[1]
    x = (box[0] + box[1]) / 2.0
    y = (box[2] + box[3]) / 2.0
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return (x, y, w, h)


def convert_annotation(image_id):

    in_file = open('data/Annotations/%s.xml' % (image_id))  # 修改路径(最好使用绝对路径)
    img_file = cv2.imread('data/images/%s.jpg' % (image_id))
    out_file = open('data/labels/%s.txt' % (image_id), 'w+')  # 修改路径(最好使用绝对路径)
    tree = ET.parse(in_file)
    root = tree.getroot()
    # size = root.find('size')
    assert img_file is not None
    size = img_file.shape[0:-1]
    h = int(size[0])
    w = int(size[1])


    for obj in root.iter('object'):
        # difficult = obj.find('difficult').text
        cls = obj.find('name').text
        if cls not in classes : # or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        ZIP_ONE = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in ZIP_ONE]) + '\n')


wd = getcwd()
for image_set in sets:
    if not os.path.exists('data/labels'):
        os.makedirs('data/labels/')
    image_ids = open('data/ImageSets/Main/%s.txt' % (image_set)).read().split()  # 修改路径(最好使用绝对路径)
    list_file = open('data/%s.txt' % (image_set), 'w+')  # 修改路径(最好使用绝对路径)
    # print(image_ids)
    for image_id in image_ids:
        try:
            print(image_id)
            list_file.write('data/images/%s.jpg\n' % (image_id))  # 修改路径(最好使用绝对路径)
            convert_annotation(image_id)
        except:
            print('error img:', image_id)
    list_file.close()

这里就生成了训练所需数据集。

第三步:修改代码

在data文件夹下创建smoke.yaml,内容如下:

# COCO 2017 dataset http://cocodataset.org
train: data/train.txt # 118287 images
val: data/test.txt # 5000 images

# number of classes
nc: 1

# class names
names: ['xy']

 修改cfg/training/yolov7.yaml,nc:80改成nc:1即可:

# parameters
nc: 1  # number of classes 
depth_multiple: 1.0  # model depth multiple
width_multiple: 1.0  # layer channel multiple

第四步:训练

运行如下代码进行训练,这里使用两张v100,没有使用预训练模型:

python train.py --workers 8 --device 0,1 --batch-size 32 ---data data/smoke.yaml --cfg cfg/training/yolov7.yaml --name yolov7

最后输出如下表示正常训练:

来源:我劲歌

物联沃分享整理
物联沃-IOTWORD物联网 » YOLOv7训练自己的数据集

发表评论