news 2026/4/1 15:10:15

YOLO11+自定义数据集:打造专属检测模型

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
YOLO11+自定义数据集:打造专属检测模型

YOLO11+自定义数据集:打造专属检测模型

在计算机视觉领域,目标检测是核心任务之一。随着YOLO系列算法的持续演进,YOLO11作为最新一代版本,在精度、速度和灵活性方面实现了显著提升。本文将围绕如何使用YOLO11结合自定义数据集训练专属目标检测模型展开,涵盖从数据标注、格式转换、环境配置到模型训练与推理的完整流程。

通过本教程,你将掌握构建一个高精度定制化检测系统的全流程方法,并可将其应用于工业质检、智能监控、自动驾驶等实际场景。


1. 数据准备与标注

1.1 使用Labelme进行图像标注

高质量的数据是模型性能的基础。我们推荐使用开源工具Labelme进行手动标注。

操作步骤如下:

  1. 安装Labelme:
    pip install labelme
  2. 启动工具并加载图像目录。
  3. 选择“创建矩形”模式,框选目标物体。
  4. 每个标注需指定类别名称(如carbus)。
  5. 保存后生成与图片同名的JSON文件。

提示:确保所有图像尺寸一致或相近,避免极端缩放影响模型学习效果。

1.2 标注结果示例

Labelme生成的JSON文件包含图像元信息和多边形/矩形坐标。例如:

{ "imageWidth": 640, "imageHeight": 480, "shapes": [ { "label": "car", "points": [[100, 150], [300, 350]], "shape_type": "rectangle" } ] }

该结构记录了每个对象的位置和类别,但YOLO11需要特定格式的文本标签。


2. Labelme JSON转YOLO TXT格式

2.1 YOLO11标签格式规范

YOLO系列统一采用归一化的边界框表示法。每张图对应一个.txt标签文件,内容格式为:

<class_id> <x_center> <y_center> <width> <height>

其中:

  • class_id:类别索引(从0开始)
  • 坐标与尺寸均相对于图像宽高的比例值(0~1)

例如:

0 0.5192 0.4512 0.3985 0.7572 3 0.5061 0.5921 0.2631 0.4561

2.2 转换脚本实现

以下Python代码可批量将Labelme的JSON标注转换为YOLO兼容格式:

import json import os # 类别映射表(根据实际项目修改) label_map = { "car": 0, "bus": 1, "person": 2 } def convert_labelme_to_yolo(json_path, output_dir): with open(json_path, 'r') as f: data = json.load(f) img_w = data['imageWidth'] img_h = data['imageHeight'] annotations = [] for shape in data['shapes']: label_name = shape['label'] if label_name not in label_map: continue class_id = label_map[label_name] points = shape['points'] if shape['shape_type'] == 'rectangle': (x1, y1), (x2, y2) = points elif shape['shape_type'] == 'polygon': x1 = min(p[0] for p in points) y1 = min(p[1] for p in points) x2 = max(p[0] for p in points) y2 = max(p[1] for p in points) else: continue # 归一化计算 xc = ((x1 + x2) / 2) / img_w yc = ((y1 + y2) / 2) / img_h w = (x2 - x1) / img_w h = (y2 - y1) / img_h annotations.append(f"{class_id} {xc:.6f} {yc:.6f} {w:.6f} {h:.6f}") # 写入输出文件 base_name = os.path.splitext(os.path.basename(json_path))[0] output_file = os.path.join(output_dir, base_name + '.txt') os.makedirs(output_dir, exist_ok=True) with open(output_file, 'w') as f: f.write('\n'.join(annotations)) def process_folder(input_folder, output_folder): for file_name in os.listdir(input_folder): if file_name.endswith('.json'): json_path = os.path.join(input_folder, file_name) convert_labelme_to_yolo(json_path, output_folder) # 执行转换 input_folder = "/mnt/data/json_labels" output_folder = "/mnt/data/yolo11_txt_labels" process_folder(input_folder, output_folder)

运行后将在指定路径下生成对应的.txt标签文件,供后续训练使用。


3. 配置YOLO11工程环境

3.1 获取YOLO11源码

YOLO11由Ultralytics团队维护,可通过GitHub获取最新代码:

git clone https://github.com/ultralytics/ultralytics.git cd ultralytics pip install -e .

或者直接下载ZIP包解压使用。

3.2 项目目录结构规划

建议组织如下目录结构以保持清晰:

ultralytics-8.3.9/ ├── datasets/ │ ├── train/images/ │ ├── train/labels/ │ ├── val/images/ │ └── val/labels/ ├── weights/ # 存放预训练权重 ├── runs/ # 训练输出目录 ├── ultralytics/ # 核心库 ├── train.py # 自定义训练脚本 └── infer.py # 推理脚本

将转换后的图像和标签分别放入datasets/traindatasets/val中。


4. 数据集配置文件(YAML)

ultralytics/cfg/datasets/目录下新建自定义数据集配置文件,如auto-parts-det.yaml

# 数据集根路径 path: ./datasets/det_auto_parts_20241020 # 训练集与验证集路径(相对于path) train: train/images val: val/images # 类别名称列表 names: 0: car 1: bus 2: person

⚠️ 注意:path应指向包含trainval子目录的根目录,路径支持相对或绝对形式。

此文件将在训练时被模型加载器读取,用于定位数据和解析类别。


5. YOLO11模型结构配置

5.1 模型配置文件位置

YOLO11的网络架构定义位于:

ultralytics/cfg/models/11/yolo11.yaml

该文件描述了Backbone、Neck和Head的完整结构,包括卷积层、CSP模块、上采样与拼接操作等。

5.2 关键参数说明

参数含义
nc类别数量(需根据数据集调整)
scales不同规模模型(n/s/m/l/x)的深度与宽度系数
backbone主干网络结构
head检测头结构,含FPN/PAN结构

若新增类别,务必更新nc字段。例如三分类任务应设为:

nc: 3

也可基于此文件创建自定义变体,如yolo11-custom.yaml


6. 编写训练脚本

6.1 加载模型与预训练权重

使用YOLO类初始化模型,并加载官方提供的预训练权重以加速收敛:

from ultralytics import YOLO # 加载模型配置并注入预训练权重 model = YOLO("yolo11m.yaml").load("weights/yolo11m.pt")

✅ 推荐使用中等规模模型(如yolo11m),兼顾性能与效率。

6.2 设置训练参数

通过字典方式传入训练超参数,便于管理和复现:

train_params = { 'data': 'auto-parts-det.yaml', # 数据集配置 'epochs': 100, # 总训练轮数 'imgsz': 640, # 输入图像大小 'batch': 8, # 批次大小 'device': 0, # GPU设备ID(None自动选择) 'workers': 8, # 数据加载线程数 'optimizer': 'AdamW', # 优化器类型 'lr0': 0.001, # 初始学习率 'weight_decay': 0.0005, 'warmup_epochs': 3.0, 'box': 7.5, 'cls': 0.5, 'dfl': 1.5, 'save': True, 'save_period': -1, 'project': 'runs/train', 'name': 'exp_auto_parts', 'exist_ok': False, 'resume': False, 'amp': True, # 启用混合精度 'verbose': True, 'seed': 42, 'plots': True, # 数据增强 'hsv_h': 0.015, 'hsv_s': 0.7, 'hsv_v': 0.4, 'degrees': 10.0, 'translate': 0.1, 'scale': 0.5, 'flipud': 0.0, 'fliplr': 0.5, 'mosaic': 1.0, 'mixup': 0.1, 'copy_paste': 0.0, }

6.3 开始训练

调用train()方法启动训练过程:

results = model.train(**train_params)

训练日志将实时显示损失、mAP等指标,最佳模型自动保存至runs/train/exp_auto_parts/weights/best.pt


7. 模型训练执行与监控

7.1 启动训练命令

进入项目根目录后运行:

cd ultralytics-8.3.9/ python train.py

7.2 训练输出示例

Ultralytics 8.3.7 🚀 Python-3.9.16 torch-1.13.1 CUDA:0 (NVIDIA A30, 24062MiB) Starting training for 100 epochs... Epoch GPU_mem box_loss cls_loss dfl_loss Instances Size 1/100 4.68G 2.238 1.691 2.426 80 640: 100%|███████| 16/16 [00:02<00:00, 5.91it/s] Class Images Instances Box(P R mAP50 mAP50-95): 100%|███████| 8/8 [00:00<00:00, 12.18it/s] all 128 929 0.77 0.728 0.798 0.615 ... 100/100 4.49G 1.171 0.7135 1.319 41 640: 100%|███████| 16/16 [00:01<00:00, 8.80it/s] Class Images Instances Box(P R mAP50 mAP50-95): 100%|███████| 8/8 [00:00<00:00, 13.42it/s] all 128 929 0.847 0.845 0.891 0.577

最终模型在验证集上达到较高mAP50值,表明具备良好检测能力。


8. 模型推理与结果可视化

8.1 加载训练好的模型

使用保存的最佳权重进行推理:

from ultralytics import YOLO model = YOLO("runs/detect/train5/weights/best.pt")

8.2 执行预测

支持图像、视频、摄像头等多种输入源:

results = model.predict( source="datasets/test_images/", conf=0.45, iou=0.6, imgsz=640, device=0, save=True, save_txt=True, show_labels=True, show_conf=True )

8.3 输出内容

  • 检测框图像(带标签与置信度)
  • 文本格式的检测结果(.txt
  • 可视化分析图表(PR曲线、混淆矩阵等)

可在runs/detect/predict/目录查看输出结果。


9. 总结

本文系统介绍了基于YOLO11构建自定义目标检测模型的全流程:

  1. 数据标注:使用Labelme完成高质量人工标注;
  2. 格式转换:编写脚本将JSON转为YOLO标准TXT格式;
  3. 环境搭建:配置Ultralytics开发环境及项目结构;
  4. 数据集定义:编写YAML配置文件明确路径与类别;
  5. 模型配置:选用合适规模的YOLO11架构;
  6. 训练脚本:设置合理超参数并启动训练;
  7. 模型评估:观察训练日志与验证指标;
  8. 推理应用:部署模型于新数据进行检测。

通过这一完整流程,你可以快速构建适用于特定场景的高性能检测系统。YOLO11凭借其简洁API和强大性能,极大降低了深度学习落地门槛。

未来可进一步探索自动标注、增量学习、ONNX导出与边缘部署等进阶方向,持续优化模型实用性。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/1 6:02:05

BGE-Reranker-v2-m3部署指南:高可用方案

BGE-Reranker-v2-m3部署指南&#xff1a;高可用方案 1. 引言 在当前检索增强生成&#xff08;RAG&#xff09;系统中&#xff0c;向量数据库的近似搜索虽然高效&#xff0c;但常因语义鸿沟导致召回结果存在“关键词匹配但语义无关”的噪音问题。为解决这一瓶颈&#xff0c;智…

作者头像 李华
网站建设 2026/3/31 3:01:37

ST7789V多设备共用SPI引脚设计方案

如何让 ST7789V 与其他外设优雅共享 SPI 总线&#xff1f;实战避坑指南你有没有遇到过这样的窘境&#xff1a;MCU 的引脚快被占完了&#xff0c;但项目里还要接显示屏、Flash、传感器……尤其是那块漂亮的ST7789V小彩屏&#xff0c;明明功能强大&#xff0c;却因为“太能吃引脚…

作者头像 李华
网站建设 2026/3/30 5:56:46

AI智能二维码工坊部署优势:比调用云服务快3倍的响应速度

AI智能二维码工坊部署优势&#xff1a;比调用云服务快3倍的响应速度 1. 引言 1.1 业务场景描述 在现代企业级应用中&#xff0c;二维码已广泛应用于支付、身份认证、产品溯源、营销推广等多个领域。传统方案多依赖第三方云服务进行二维码生成与识别&#xff0c;虽然集成简单…

作者头像 李华
网站建设 2026/3/31 9:34:26

避坑指南:Qwen3-Embedding-4B部署常见问题全解析

避坑指南&#xff1a;Qwen3-Embedding-4B部署常见问题全解析 1. 背景与挑战概述 随着大模型在检索、分类、聚类等任务中的广泛应用&#xff0c;高质量的文本嵌入&#xff08;Text Embedding&#xff09;服务已成为构建智能系统的核心组件之一。Qwen3-Embeding-4B作为通义千问…

作者头像 李华
网站建设 2026/3/31 20:11:13

Fun-ASR支持MP3/WAV/FLAC?格式兼容实测

Fun-ASR支持MP3/WAV/FLAC&#xff1f;格式兼容实测 在语音识别技术日益普及的今天&#xff0c;一个高效、稳定且易于部署的本地化 ASR 系统成为开发者和企业用户的刚需。Fun-ASR 作为钉钉与通义实验室联合推出的轻量级语音识别大模型&#xff0c;凭借其出色的中文识别能力、低…

作者头像 李华