yolov5 训练自己的数据集
本文将介绍如何使用yolov5训练自己的数据集以及使用自己训练的模型。
-
配置yolov5环境
- 首先下载yolov5项目源码
进入项目地址:https://github.com/ultralytics/yolov5下载或者 - 然后使用您的python编译器(我用的是pycharm)打开yolov5项目源码,我们可以安装anaconda来创建新的conda环境,具体安装方式本文不细讲。安装好之后点开这个文件。
输入 - 在项目中打开终端,使用pip下载依赖库。
- 网络速度慢,使用清华镜像源,使用方法:
- 版本问题,解决方法:哪个下载失败就重新下载哪个依赖库,不加上版本或者找到你python对应的版本。例如:
- 当依赖库下载完成后我们要先开始制作自己的数据集
- 安装labelimg
-
使用yolov5训练自己的数据集
-
File -> Settings -> Project:yolov5 -> Python Interpreter -> add -> Conda Enviroment -> Existing Enviroment -> 选择你的虚拟环境路径 -> ok
-
制作自己的数据集将图片和标注数据按9:1或8:2的比例按如下格式放置:
- 在yolov5的data文件夹下创建 数据集名.yaml
- 下载一个预训练模型,https://link.zhihu.com/?target=https%3A//github.com/ultralytics/yolov5/releases,然后将模型放到yolov5文件夹下。
- 开始训练,点击右上角train -> Edit Configurations:
-
用训练的数据集进行预测
- 模型训练完成后,将runs/exp/weights下的模型(best.pt)复制在yolov5文件夹下。如下图所示:
- weights:
- source:
git clone https://github.com/ultralytics/yolov5
conda create -n your_env_name python=x.x #填入你的创建的环境名和python版本
activate your_env_name #激活你创建的环境。
anaconda创建的环境会新创建一个python解释器,如果要用编辑器请先更换到对应的python环境中,例如pycharm。打开file->sitting->project->interpreter,选择你要用的环境,如果没有就点+号新建一个。
pip install -r requirements.txt
如果出现下载失败的问题有两种情况:
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install numpy -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install labelimg
或者去这个地址下载https://github.com/tzutalin/labelImg
打开labelimg opendir 打开自己要训练数据用的文件夹,将标注格式选为yolo格式(原版标注的数据是xml,yolo格式是txt,可以用标注出的文件来区分)
dataset #(自己数据集的名字)
├── images
├── train
├── xx.jpg
├── val
├── xx.jpg
├── labels
├── train
├── xx.txt
├── val
├── xx.txt
# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]
path: E:\for_test_proj\yolov5_ncnn\datasets\fire # dataset root dir
train: images/train # train images (relative to 'path')
val: images/val # val images (relative to 'path')
test: # test images (optional)
# Classes
nc: 1 # number of classes
#names: ['fire'] # class names
#path:数据集的根目录
#train:训练集与path的相对路径
#val:验证集与path的相对路径
#nc:类别数量,因为这个数据集只有一个类别(fire),nc即为1。
#names:类别名字。
--weights yolov5s.pt --data data/fire.yaml --workers 1 --batch-size 8
python detect.py --weights best.pt --source ../datasets/数据集名/images/val #根据自己的路径写。
Usage - formats:
$ python path/to/detect.py --weights yolov5s.pt # PyTorch
yolov5s.torchscript # TorchScript
yolov5s.onnx # ONNX Runtime or OpenCV DNN with --dnn
yolov5s.xml # OpenVINO
yolov5s.engine # TensorRT
yolov5s.mlmodel # CoreML (macOS-only)
yolov5s_saved_model # TensorFlow SavedModel
yolov5s.pb # TensorFlow GraphDef
yolov5s.tflite # TensorFlow Lite
yolov5s_edgetpu.tflite # TensorFlow Edge TPU
Usage - sources:
$ python path/to/detect.py --weights yolov5s.pt --source 0 # webcam
img.jpg # image
vid.mp4 # video
path/ # directory
path/*.jpg # glob
'https://youtu.be/Zgi9g1ksQHc' # YouTube
'rtsp://example.com/media.mp4' # RTSP, RTMP, HTTP stream
测试结果放在runs/detect/exp*中.