训练自己的yolov5样本, 并部署到rv1126 <一>

大家购买rv1126的开发板, 相信很大程度上希望能使用它的npu做边缘计算, 而不是简单当作一个IPC使用, 当你已经跑过了rknn的几个例程之后, 肯定想试试训练自己的样本,并部署到rv1126.
首先我的训练环境是Windows10+MiniConda,
直接去google一下mini conda, 并安装, 这部分没啥可说的.
打开mini conda的命令行

没有设置环境的情况下, 前面是(base)
创建一个python 3.8的环境并激活

conda create -name py38 python=3.8
conda activate py38

然后从github下载yolov5, 点这里

在conda的命令行下面, 进入yolov5的目录,有个requirements.txt

pip install -r requirements.txt

使用pip安装需要的依赖包.

我想做的demo是一个监控驾驶行为的目标检测系统, 对司机进行驾驶违规行为的判断, 标签class分别为5种
驾驶中, 低头, 打电话, 打哈欠, 闭眼

准备好自己的训练图集, 这里我用了一个简单的usb摄像头, 对自己进行拍照, 并故意做一些违规行为.

然后下载lableImg, 对图片进行标记
先在github下载源码: 这里>>>>
根据readme的介绍, 使用pip 安装PyQt5 跟 lxml.
然后在conda里面, 进入labelImg的环境

pyrcc5 -o libs/resources.py resources.qrc
python labelImg.py

就可以看到labelImg的界面了.

打开目录就是你的训练集的目录
存放目录就是xml文件的目录, 记得点击左边的文件保存格式, 直接将标签指定为yolo格式.

使用快捷键W添加标签, 这样标记大概200张图片左右, 可能花费了大约30分钟.
检查一下发现, 在存放目录里面, 就有每个图片同名的txt文件, 标示了class在图片的位置.
样图片集:

标注:

标注的方法就是画框框, 把你认为的物体类别位置指示出来就行.

最好使用pycharm来当作python的ide, 免费的.

在yolov5的data目录下面新建一个用于训练配置的yaml文件,
path就指向你的训练集的目录, val跟train使用同一个图片集, 注意这里的val跟train都是path的子目录, 机构大致如下:

把类别记录到这个yaml中

在conda里面进入yolo的目录, 开始我们的训练.
我这里使用了cuda版本的pytorch, 具体安装的方法, 可以参考pytorch的官网, 先安装cuda, 跟cuda-tools, 啥? 你还没显卡, 赶紧买一个吧…矿难了, 显卡很便宜.

python train.py --img 640 --batch 16 --epochs 300 --data driving_behavior_detect.yaml --weights yolov5s.pt

–epochs表示训练轮数, 最少200吧.
–weights表示使用yolo5s模型, 简单点的模型训练速度会快一些.
–data就是刚才的yaml文件
–batch就是同时训练的样本数量, 设置大一点也可以加快训练速度, 不过要看你显卡的显存大小了.


出现这个, 表示训练开始了.右边的百分比要是这一轮的进度, 乘以epoch, 就是总时长.

我是1050的显卡, 样本是200个左右, class是5个, 300轮大概是12秒每轮*300轮, 1小时多点吧.

完成之后, 就会在yolov5的runs/train/expX 目录下面出现权重以及各种训练log, X就是一个递增的数字, 找最大的那个就是最新的训练结果.


这个best.py就是我们需要的权重结果.

先拿这个, 使用我pc上的usb摄像头, 做个实时的predict吧

python detect.py --source 0 --weights runs/train/exp15/weights/best.pt


可以看到它已经可以识别出我的一些不安全行为了.

下一步, 就是移植这个权重到rv1126上去了.

物联沃分享整理
物联沃-IOTWORD物联网 » 训练自己的yolov5样本, 并部署到rv1126 <一>

发表评论