YOLOv5中detect.py代码解读

import argparse
import os
import sys
from pathlib import Path

import torch
import torch.backends.cudnn as cudnn

这段代码是导入一些常用的Python库,用于深度学习应用中使用PyTorch库:

  • argparse:这个库允许用户为Python脚本指定命令行参数。它简化了处理命令行输入的过程。
  • os:这个库提供了一种与操作系统交互的方式,比如创建和删除目录,列出文件等等。
  • sys:这个库提供了访问解释器使用或维护的一些变量(如传递给Python脚本的命令行参数),以及与解释器强烈交互的函数。
  • pathlib:这个库提供了一种面向对象的方式来与文件系统交互,可以让代码更简洁、更易读。
  • torch:这是主要的PyTorch库。它提供了构建、训练和评估神经网络的工具。
  • 最后,代码还导入了torch.backends.cudnn库,它提供了一个接口,用于使用cuDNN库,在NVIDIA GPU上高效地进行深度学习。cudnn模块是一个PyTorch库的扩展。

    FILE = Path(__file__).resolve()
    ROOT = FILE.parents[0]  # YOLOv5 root directory
    if str(ROOT) not in sys.path:
        sys.path.append(str(ROOT))  # add ROOT to PATH
    ROOT = Path(os.path.relpath(ROOT, Path.cwd()))  # relative

    这段代码会获取当前文件的绝对路径,并使用Path库将其转换为Path对象。

    接下来,使用parents[0]属性获取该文件的父级目录,即YOLOv5根目录,并将其赋值给变量ROOT。

    如果ROOT不在sys.path中,就将其添加到该列表中,以便Python能够找到该目录中的其他模块。

    然后,将ROOT路径对象相对于当前工作目录转换为一个相对路径,并将结果赋值给ROOT变量。这样做的原因是,在不同的操作系统和环境下,路径的表示方式可能有所不同。将路径表示为相对路径可以确保代码在不同的环境中具有相同的行为。

    from models.common import DetectMultiBackend
    from utils.dataloaders import IMG_FORMATS, VID_FORMATS, LoadImages, LoadStreams
    from utils.general import (LOGGER, check_file, check_img_size, check_imshow, check_requirements, colorstr, cv2,
                               increment_path, non_max_suppression, print_args, scale_coords, strip_optimizer, xyxy2xywh)
    from utils.plots import Annotator, colors, save_one_box
    from utils.torch_utils import select_device, time_sync

    这段代码导入了YOLOv5的许多辅助模块,以便进行物体检测和识别的相关任务。具体来说,代码从如下几个文件中导入了部分函数和类:

  • models/common.py:这个文件定义了一些通用的函数和类,比如图像的处理、非极大值抑制等等。
  • utils/dataloaders.py:这个文件定义了两个类,LoadImages和LoadStreams,它们可以加载图像或视频帧,并对它们进行一些预处理,以便进行物体检测或识别。
  • utils/general.py:这个文件定义了一些常用的工具函数,比如检查文件是否存在、检查图像大小是否符合要求、打印命令行参数等等。
  • utils/plots.py:这个文件定义了Annotator类,可以在图像上绘制矩形框和标注信息。
  • utils/torch_utils.py:这个文件定义了一些与PyTorch有关的工具函数,比如选择设备、同步时间等等。
  • 通过导入这些模块,可以更方便地进行物体检测和识别的相关任务,并且减少了代码的复杂度和冗余。

    @torch.no_grad()
    @torch.no_grad()
    def run(
            weights=ROOT / 'yolov5s.pt',  # model.pt path(s)
            source=ROOT / 'data/images',  # file/dir/URL/glob, 0 for webcam
            data=ROOT / 'data/coco128.yaml',  # dataset.yaml path
            imgsz=(640, 640),  # inference size (height, width)
            conf_thres=0.25,  # confidence threshold
            iou_thres=0.45,  # NMS IOU threshold
            max_det=1000,  # maximum detections per image
            device='',  # cuda device, i.e. 0 or 0,1,2,3 or cpu
            view_img=False,  # show results
            save_txt=False,  # save results to *.txt
            save_conf=False,  # save confidences in --save-txt labels
            save_crop=False,  # save cropped prediction boxes
            nosave=False,  # do not save images/videos
            classes=None,  # filter by class: --class 0, or --class 0 2 3
            agnostic_nms=False,  # class-agnostic NMS
            augment=False,  # augmented inference
            visualize=False,  # visualize features
            update=False,  # update all models
            project=ROOT / 'runs/detect',  # save results to project/name
            name='exp',  # save results to project/name
            exist_ok=False,  # existing project/name ok, do not increment
            line_thickness=3,  # bounding box thickness (pixels)
            hide_labels=False,  # hide labels
            hide_conf=False,  # hide confidences
            half=False,  # use FP16 half-precision inference
            dnn=False,  # use OpenCV DNN for ONNX inference
    ):

    这段代码定义了一个名为“run”的函数,并设置了一系列参数,用于指定物体检测或识别的相关参数。这些参数包括:

  • weights:模型权重文件的路径,默认为YOLOv5s的权重文件路径。
  • source:输入图像或视频的路径或URL,或者使用数字0指代摄像头,默认为YOLOv5自带的测试图像文件夹。
  • data:数据集文件的路径,默认为COCO128数据集的配置文件路径。
  • imgsz:输入图像的大小,默认为640×640。
  • conf_thres:置信度阈值,默认为0.25。
  • iou_thres:非极大值抑制的IoU阈值,默认为0.45。
  • max_det:每张图像的最大检测框数,默认为1000。
  • device:使用的设备类型,默认为空,表示自动选择最合适的设备。
  • view_img:是否在屏幕上显示检测结果,默认为False。
  • save_txt:是否将检测结果保存为文本文件,默认为False。
  • save_conf:是否在保存的文本文件中包含置信度信息,默认为False。
  • save_crop:是否将检测出的目标区域保存为图像文件,默认为False。
  • nosave:是否不保存检测结果的图像或视频,默认为False。
  • classes:指定要检测的目标类别,默认为None,表示检测所有类别。
  • agnostic_nms:是否使用类别无关的非极大值抑制,默认为False。
  • augment:是否使用数据增强的方式进行检测,默认为False。
  • visualize:是否可视化模型中的特征图,默认为False。
  • update:是否自动更新模型权重文件,默认为False。
  • project:结果保存的项目文件夹路径,默认为“runs/detect”。
  • name:结果保存的文件名,默认为“exp”。
  • exist_ok:如果结果保存的文件夹已存在,是否覆盖,默认为False,即不覆盖。
  • line_thickness:检测框的线条宽度,默认为3。
  • hide_labels:是否隐藏标签信息,默认为False,即显示标签信息。
  • hide_conf:是否隐藏置信度信息,默认为False,即显示置信度信息。
  • half:是否使用FP16的半精度推理模式,默认为False。
  • dnn:是否使用OpenCV DNN作为ONNX推理的后端,默认为False。
  •     source = str(source)
        save_img = not nosave and not source.endswith('.txt')  # save inference images
        is_file = Path(source).suffix[1:] in (IMG_FORMATS + VID_FORMATS)
        is_url = source.lower().startswith(('rtsp://', 'rtmp://', 'http://', 'https://'))
        webcam = source.isnumeric() or source.endswith('.txt') or (is_url and not is_file)
        if is_url and is_file:
            source = check_file(source)  # download

    这段代码主要用于根据输入的source确定输入数据的类型,以及是否需要保存输出结果。

    首先将source转换为字符串类型,然后判断是否需要保存输出结果。如果nosavesource的后缀不是.txt,则会保存输出结果。

    接着根据source的类型,确定输入数据的类型。如果source的后缀是图像或视频格式之一,那么将is_file设置为True;如果sourcertsp://rtmp://http://https://开头,那么将is_url设置为True;如果source是数字或以.txt结尾或是一个URL,那么将webcam设置为True。如果source既是文件又是URL,那么会调用check_file函数下载文件。

        # Directories
        save_dir = increment_path(Path(project) / name, exist_ok=exist_ok)  # increment run
        (save_dir / 'labels' if save_txt else save_dir).mkdir(parents=True, exist_ok=True)  # make dir

    这段代码主要是用于创建保存输出结果的目录。

    首先将projectname拼接成完整路径,并且使用increment_path函数来确保目录不存在,如果存在,则在名称后面添加递增的数字。然后在这个目录下创建labels子目录(如果save_txt为True),用于保存输出结果的标签文件,否则创建一个空的目录用于保存输出结果。这个过程中,如果目录已经存在,而exist_ok为False,那么会抛出一个异常,指示目录已存在。如果exist_ok为True,则不会抛出异常,而是直接使用已经存在的目录。

        # Load model
        device = select_device(device)
        model = DetectMultiBackend(weights, device=device, dnn=dnn, data=data, fp16=half)
        stride, names, pt = model.stride, model.names, model.pt
        imgsz = check_img_size(imgsz, s=stride)  # check image size

    这段代码主要是用于选择设备、初始化模型和检查图像大小。

    首先调用select_device函数选择设备,如果device为空,则使用默认设备。然后使用DetectMultiBackend类来初始化模型,其中weights是指模型的权重路径,device是指设备,dnn是指是否使用OpenCV DNN,data是指数据集配置文件的路径,fp16是指是否使用半精度浮点数进行推理。接着从模型中获取stridenamespt等参数,其中stride是指下采样率,names是指模型预测的类别名称,pt是指PyTorch模型对象。最后调用check_img_size函数检查图像大小是否符合要求,如果不符合则进行调整。

        # Dataloader
        if webcam:
            view_img = check_imshow()
            cudnn.benchmark = True  # set True to speed up constant image size inference
            dataset = LoadStreams(source, img_size=imgsz, stride=stride, auto=pt)
            bs = len(dataset)  # batch_size
        else:
            dataset = LoadImages(source, img_size=imgsz, stride=stride, auto=pt)
            bs = 1  # batch_size
            vid_path, vid_writer = [None] * bs, [None] * bs

    这里是根据输入的 source 参数来判断是否是通过 webcam 摄像头捕捉视频流,如果是则使用 LoadStreams 加载视频流,否则使用 LoadImages 加载图像。如果是 webcam 模式,则设置 cudnn.benchmark = True 以加速常量图像大小的推理bs 表示 batch_size(批量大小),这里是 1 或视频流中的帧数。vid_pathvid_writer 分别是视频路径和视频编写器,初始化为长度为 batch_size 的空列表。

        # Run inference
        model.warmup(imgsz=(1 if pt else bs, 3, *imgsz))  # warmup
        seen, windows, dt = 0, [], [0.0, 0.0, 0.0]
        for path, im, im0s, vid_cap, s in dataset:
            t1 = time_sync()
            im = torch.from_numpy(im).to(device)
            im = im.half() if model.fp16 else im.float()  # uint8 to fp16/32
            im /= 255  # 0 - 255 to 0.0 - 1.0
            if len(im.shape) == 3:
                im = im[None]  # expand for batch dim
            t2 = time_sync()
            dt[0] += t2 - t1

    这段代码进行了模型的热身(warmup)操作,即对模型进行一些预处理以加速后续的推理过程。代码中首先定义了一些变量,包括seenwindowsdt,分别表示已处理的图片数量、窗口列表和时间消耗列表。接着对数据集中的每张图片进行处理,首先将图片转换为Tensor格式,并根据需要将其转换为FP16或FP32格式。然后将像素值从0-255转换为0.0-1.0,并为批处理增加一维。最后记录时间消耗并更新dt列表。

            # Inference
            visualize = increment_path(save_dir / Path(path).stem, mkdir=True) if visualize else False
            pred = model(im, augment=augment, visualize=visualize)
            t3 = time_sync()
            dt[1] += t3 - t2

    这段代码似乎与使用计算机视觉模型进行预测有关。

    第一行代码创建了一个名为“visualize”的变量,如果需要可视化,则将其设置为保存可视化结果的路径,否则将其设置为False。使用increment_path函数创建路径,如果文件名已存在,则将数字附加到文件名后面以避免覆盖已有文件。

    第二行代码使用model函数对图像im进行预测,augmentvisualize参数用于指示是否应该在预测时使用数据增强和可视化。

    第三行代码记录了当前时间,并计算从上一个时间点到这个时间点的时间差,然后将这个时间差加到一个名为dt的时间差列表中的第二个元素上

            # NMS
            pred = non_max_suppression(pred, conf_thres, iou_thres, classes, agnostic_nms, max_det=max_det)
            dt[2] += time_sync() - t3
    

    这段代码似乎是执行非最大值抑制(NMS)的步骤,用于筛选预测结果。

    non_max_suppression函数的输入参数包括预测结果pred、置信度阈值conf_thres、IOU(交并比)阈值iou_thres、类别classes、是否进行类别无关的NMSagnostic_nms,以及最大检测数max_det。该函数的输出是经过NMS筛选后的预测结果。

    第二行代码更新了计时器,记录了NMS操作所用的时间。

    补充一下:agnosticnms是跨类别nms,比如待检测图像中有一个长得很像排球的足球,pt文件的分类中有足球和排球两种,那在识别时这个足球可能会被同时框上2个框:一个是足球,一个是排球。

    agnostic-nms:是否使用类别不敏感的非极大抑制(即不考虑类别信息),默认为 False。

            for i, det in enumerate(pred):  # per image
                seen += 1
                if webcam:  # batch_size >= 1
                    p, im0, frame = path[i], im0s[i].copy(), dataset.count
                    s += f'{i}: '
                else:
                    p, im0, frame = path, im0s.copy(), getattr(dataset, 'frame', 0)

    这段代码使用了一个循环来遍历检测结果列表中的每个物体,并对每个物体进行处理。循环中的变量"i"是一个索引变量,表示当前正在处理第几个物体,而变量"det"则表示当前物体的检测结果。循环体中的第一行代码 "seen += 1" 用于增加一个计数器,记录已处理的物体数量。

    接下来,代码会根据是否使用网络摄像头来判断处理单张图像还是批量图像。如果使用的是网络摄像头,则代码会遍历每个图像并复制一份备份到变量"im0"中,同时将当前图像的路径和计数器记录到变量"p"和"frame"中。最后,代码会将当前处理的物体索引和相关信息记录到字符串变量"s"中。

    如果没有使用网络摄像头,则代码会直接使用"im0s"变量中的图像,将图像路径和计数器记录到变量"p"和"frame"中。同时,代码还会检查数据集中是否有"frame"属性,如果有,则将其值记录到变量"frame"中。

                p = Path(p)  # to Path
                save_path = str(save_dir / p.name)  # im.jpg
                txt_path = str(save_dir / 'labels' / p.stem) + ('' if dataset.mode == 'image' else f'_{frame}')  # im.txt
                s += '%gx%g ' % im.shape[2:]  # print string
                gn = torch.tensor(im0.shape)[[1, 0, 1, 0]]  # normalization gain whwh
                imc = im0.copy() if save_crop else im0  # for save_crop
                annotator = Annotator(im0, line_width=line_thickness, example=str(names))

    这段代码中,首先将图像路径转换为"Path"对象。接下来,代码使用"save_dir"变量中的路径和图像文件名来构建保存检测结果图像的完整路径,并将其保存在变量"save_path"中。代码还会根据数据集的模式("image"或"video")来构建保存检测结果标签的文件路径,并将其保存在变量"txt_path"中。

    在处理图像路径和文件路径之后,代码会将图像的尺寸信息添加到字符串变量"s"中,以便于打印。接着,代码会计算归一化增益"gn",并将其保存在变量中,以便后续使用。接下来,代码会根据是否需要保存截取图像的标志"save_crop"来选择是否要对原始图像进行复制,以备保存截取图像时使用。最后,代码创建了一个"Annotator"对象,以便于在图像上绘制检测结果。

                if len(det):
                    # Rescale boxes from img_size to im0 size
                    det[:, :4] = scale_coords(im.shape[2:], det[:, :4], im0.shape).round()
    
                    # Print results
                    for c in det[:, -1].unique():
                        n = (det[:, -1] == c).sum()  # detections per class
                        s += f"{n} {names[int(c)]}{'s' * (n > 1)}, "  # add to string

    如果检测结果列表中存在物体,则代码会执行一些操作。首先,代码将检测结果中的物体坐标从缩放后的图像大小还原回原始图像的大小。这里使用了一个名为"scale_coords"的函数来进行缩放,该函数的作用是将物体坐标从缩放前的大小变换到缩放后的大小。

    接着,代码会遍历每个物体,将其类别和数量添加到字符串变量"s"中。具体来说,代码会计算当前类别下检测到的物体数量"n",然后根据数量和类别名字构建一段字符串,并将其添加到变量"s"中。代码中的"names"变量包含了数据集中所有类别的名称。

    最后,代码会返回字符串变量"s",并结束当前代码块。

                    # Write results
                    for *xyxy, conf, cls in reversed(det):
                        if save_txt:  # Write to file
                            xywh = (xyxy2xywh(torch.tensor(xyxy).view(1, 4)) / gn).view(-1).tolist()  # normalized xywh
                            line = (cls, *xywh, conf) if save_conf else (cls, *xywh)  # label format
                            with open(f'{txt_path}.txt', 'a') as f:
                                f.write(('%g ' * len(line)).rstrip() % line + '\n')
    
                        if save_img or save_crop or view_img:  # Add bbox to image
                            c = int(cls)  # integer class
                            label = None if hide_labels else (names[c] if hide_conf else f'{names[c]} {conf:.2f}')
                            annotator.box_label(xyxy, label, color=colors(c, True))
                        if save_crop:
                            save_one_box(xyxy, imc, file=save_dir / 'crops' / names[c] / f'{p.stem}.jpg', BGR=True)
    
    

    如果存在物体检测结果,则代码会执行下一步操作,这里是将检测结果写入文件或在图像上添加框并保存。

    如果需要将检测结果写入文件,则代码会将检测结果中的物体坐标转换为相对于原始图像的归一化坐标,并将其写入到以图像文件名命名的".txt"文件中。在写入文件时,代码将包含类别、位置和可选置信度等信息。文件的保存路径是变量"txt_path"。

    如果需要保存检测结果图像或者在图像上绘制框,代码会为每个物体添加一个边界框,并将其标记在图像上。具体来说,代码会为边界框选择一个颜色,并在边界框周围添加标签(可选)。

    如果需要将边界框截取出来保存,则代码会调用名为"save_one_box"的函数,将边界框从图像中截取出来,并将其保存到特定的文件夹中。

    这些操作都是基于一些设置变量(如"save_txt"、"save_img"等)来控制的,这些变量决定了检测结果是否应该写入文件或图像。最后,如果需要在窗口中查看检测结果,则代码会在图像上绘制边界框并显示图像。

                # Stream results
                im0 = annotator.result()
                if view_img:
                    if p not in windows:
                        windows.append(p)
                        cv2.namedWindow(str(p), cv2.WINDOW_NORMAL | cv2.WINDOW_KEEPRATIO)  # allow window resize (Linux)
                        cv2.resizeWindow(str(p), im0.shape[1], im0.shape[0])
                    cv2.imshow(str(p), im0)
                    cv2.waitKey(1)  # 1 millisecond

    如果需要在窗口中实时查看检测结果,则代码会使用OpenCV库中的函数将图像显示在窗口中,并等待1毫秒以便继续下一帧的检测。代码会检查是否已经为当前图像创建了窗口(if p not in windows),并在必要时创建窗口,并使用图像名称来命名该窗口。窗口的名称是由变量"p"指定的图像路径名。如果检测到图像尚未在窗口中打开,则代码会创建一个新窗口并将图像显示在窗口中。如果图像已经在窗口中打开,则代码会直接更新窗口中的图像。

    
                # Save results (image with detections)
                if save_img:
                    if dataset.mode == 'image':
                        cv2.imwrite(save_path, im0)
                    else:  # 'video' or 'stream'
                        if vid_path[i] != save_path:  # new video
                            vid_path[i] = save_path
                            if isinstance(vid_writer[i], cv2.VideoWriter):
                                vid_writer[i].release()  # release previous video writer
                            if vid_cap:  # video
                                fps = vid_cap.get(cv2.CAP_PROP_FPS)
                                w = int(vid_cap.get(cv2.CAP_PROP_FRAME_WIDTH))
                                h = int(vid_cap.get(cv2.CAP_PROP_FRAME_HEIGHT))
                            else:  # stream
                                fps, w, h = 30, im0.shape[1], im0.shape[0]
                            save_path = str(Path(save_path).with_suffix('.mp4'))  # force *.mp4 suffix on results videos
                            vid_writer[i] = cv2.VideoWriter(save_path, cv2.VideoWriter_fourcc(*'mp4v'), fps, (w, h))
                        vid_writer[i].write(im0)
    
            # Print time (inference-only)
            LOGGER.info(f'{s}Done. ({t3 - t2:.3f}s)')

    这一段代码是一个目标检测算法中的推理过程,通过对一张或多张图片中的物体进行检测,输出检测结果,并将检测结果保存到文件或显示在窗口中。以下是每个步骤的详细说明:

  • 对于每个输入图片,将其路径、原始图像和当前帧数(如果存在)分别赋值给p、im0和frame变量;
  • 如果webcam为True,则将输出信息字符串s初始化为空,否则将其初始化为该数据集的“frame”属性;
  • 将p转换为Path类型,并生成保存检测结果的路径save_path和文本文件路径txt_path;
  • 将im0大小与目标检测的输入大小匹配,将检测结果det中的边界框坐标从img_size缩放到im0大小,然后将结果打印在输出字符串s中;
  • 如果save_txt为True,则将结果写入文本文件中;
  • 如果save_img、save_crop或view_img中任意一个为True,则将检测结果添加到图像中,并在窗口中显示结果;
  • 如果save_img为True,则保存结果图像;
  • 如果是视频数据集,则将结果写入视频文件中;
  • 最后,打印每个图片的检测时间。
  •     # Print results
        t = tuple(x / seen * 1E3 for x in dt)  # speeds per image
        LOGGER.info(f'Speed: %.1fms pre-process, %.1fms inference, %.1fms NMS per image at shape {(1, 3, *imgsz)}' % t)
        if save_txt or save_img:
            s = f"\n{len(list(save_dir.glob('labels/*.txt')))} labels saved to {save_dir / 'labels'}" if save_txt else ''
            LOGGER.info(f"Results saved to {colorstr('bold', save_dir)}{s}")
        if update:
            strip_optimizer(weights)  # update model (to fix SourceChangeWarning)
    

    这部分代码用于输出检测结果和计算检测速度。

    首先,将检测得到的边界框(det)从img_size大小缩放到im0大小。然后,对于每个类别c,统计检测到的框的个数n,将其加入输出字符串s。

    接着,对于每个框,可以选择将其保存到txt文件中(若save_txt=True),并将其在图像中绘制出来。如果save_crop为True,则将该框对应的图像裁剪出来并保存。如果view_img为True,则在窗口中显示检测结果。最后,如果save_img为True,则将检测结果保存到文件中(可以是图片或视频)。

    输出结果包括每张图片的预处理、推理和NMS时间,以及结果保存的路径。如果update为True,则将模型更新,以修复SourceChangeWarning。

    def parse_opt():
        parser = argparse.ArgumentParser()
        parser.add_argument('--weights', nargs='+', type=str, default=ROOT /'runs/train/exp/weights/last.pt', help='model path(s)')  # 修改处 权重文件
        parser.add_argument('--source', type=str, default=ROOT /'wzry/datasets/images/test/SVID_20210726_111258_1.mp4', help='file/dir/URL/glob, 0 for webcam')# 修改处 图像、视频或摄像头
        parser.add_argument('--data', type=str, default=ROOT / 'wzry/wzry_parameter.yaml', help='(optional) dataset.yaml path')  # 修改处 参数文件
        parser.add_argument('--imgsz', '--img', '--img-size', nargs='+', type=int, default=[640], help='inference size h,w')  # 修改处 高 宽
        parser.add_argument('--conf-thres', type=float, default=0.50, help='confidence threshold')  # 置信度
        parser.add_argument('--iou-thres', type=float, default=0.45, help='NMS IoU threshold')# 非极大抑制
        parser.add_argument('--max-det', type=int, default=1000, help='maximum detections per image')
        parser.add_argument('--device', default='0', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')  # 修改处
        parser.add_argument('--view-img', action='store_true', help='show results')
        parser.add_argument('--save-txt', action='store_true', help='save results to *.txt')
        parser.add_argument('--save-conf', action='store_true', help='save confidences in --save-txt labels')
        parser.add_argument('--save-crop', action='store_true', help='save cropped prediction boxes')
        parser.add_argument('--nosave', action='store_true', help='do not save images/videos')
        parser.add_argument('--classes', nargs='+', type=int, help='filter by class: --classes 0, or --classes 0 2 3')
        parser.add_argument('--agnostic-nms', action='store_true', help='class-agnostic NMS')
        parser.add_argument('--augment', action='store_true', help='augmented inference')
        parser.add_argument('--visualize', action='store_true', help='visualize features')
        parser.add_argument('--update', action='store_true', help='update all models')
        parser.add_argument('--project', default=ROOT / 'runs/detect', help='save results to project/name')
        parser.add_argument('--name', default='exp', help='save results to project/name')
        parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')
        parser.add_argument('--line-thickness', default=3, type=int, help='bounding box thickness (pixels)')
        parser.add_argument('--hide-labels', default=False, action='store_true', help='hide labels')
        parser.add_argument('--hide-conf', default=False, action='store_true', help='hide confidences')
        parser.add_argument('--half', action='store_true', help='use FP16 half-precision inference')
        parser.add_argument('--dnn', action='store_true', help='use OpenCV DNN for ONNX inference')
        opt = parser.parse_args()
        opt.imgsz *= 2 if len(opt.imgsz) == 1 else 1  # expand
        print_args(vars(opt))
        return opt
    

    这段代码是一个 Python 脚本中的一个函数,用于解析命令行参数并返回这些参数的值。主要功能是为模型进行推理时提供参数。下面是每个参数的作用和默认值:

  • --weights:模型权重文件的路径,默认值为 'ROOT/runs/train/exp/weights/last.pt'。
  • --source:输入图像、视频或摄像头的路径或 URL,默认为 'ROOT/wzry/datasets/images/test/SVID_20210726_111258_1.mp4'。
  • --data:数据集的配置文件路径,用于加载类别标签等信息,默认为 'ROOT/wzry/wzry_parameter.yaml'。
  • --imgsz:推理时输入图片的尺寸,默认值为 [640]。
  • --conf-thres:置信度阈值,默认为 0.50。
  • --iou-thres:非极大抑制时的 IoU 阈值,默认为 0.45。
  • --max-det:每张图片最多检测出的物体数,默认为 1000。
  • --device:使用的设备,可以是 cuda 设备的 ID(例如 0、0,1,2,3)或者是 'cpu',默认为 '0'。
  • --view-img:是否在推理时显示结果,默认为 False
  • --save-txt:是否保存检测结果到 TXT 文件,默认为 False。
  • --save-conf:是否保存检测结果的置信度到 TXT 文件,默认为 False。
  • --save-crop:是否保存检测结果中的物体裁剪图像,默认为 False。
  • --nosave:是否保存结果图像或视频,默认为 False。
  • --classes:仅检测指定类别,默认为 None。
  • --agnostic-nms:是否使用类别不敏感的非极大抑制(即不考虑类别信息),默认为 False。
  • --augment:是否使用数据增强进行推理,默认为 False。
  • --visualize:是否可视化特征图,默认为 False。
  • --update:是否更新所有模型,默认为 False。
  • --project:结果保存的项目目录路径,默认为 'ROOT/runs/detect'。
  • --name:结果保存的子目录名称,默认为 'exp'。
  • --exist-ok:是否覆盖已有结果,默认为 False。
  • --line-thickness:画 bounding box 时的线条宽度,默认为 3。
  • --hide-labels:是否隐藏标签信息,默认为 False。
  • --hide-conf:是否隐藏置信度信息,默认为 False。
  • --half:是否使用 FP16 半精度进行推理,默认为 False。
  • --dnn:是否使用 OpenCV DNN 进行 ONNX 推理,默认为 False。
  • 这个函数的实现使用了 Python 内置的 argparse 模块,该模块用于解析命令行参数。函数的返回值是一个包含所有解析参数的对象,可以通过调用对象的属性获取参数的值。

    def main(opt):
        check_requirements(exclude=('tensorboard', 'thop'))
        run(**vars(opt))
    
    if __name__ == "__main__":
        opt = parse_opt()
        main(opt)
    

    这是程序的主函数。它调用了 check_requirements() 函数和 run() 函数,并将命令行参数 opt 转换为字典作为参数传递给 run() 函数。以下是对该代码的一些解释:

  • check_requirements(exclude=('tensorboard', 'thop')) 检查程序所需的依赖项是否已安装。
  • run(**vars(opt)) 将 opt 变量的属性和属性值作为关键字参数传递给 run() 函数。
  • opt = parse_opt() 解析命令行参数并将其存储在 opt 变量中。
  • main(opt) 调用主函数,并将 opt 变量作为参数传递给它
  • 安全验证 – 知乎

    物联沃分享整理
    物联沃-IOTWORD物联网 » YOLOv5中detect.py代码解读

    发表评论