news 2025/12/27 17:16:33

基于深度学习的螺栓螺母检测系统演示与介绍(YOLOv12/v11/v8/v5模型+Pyqt5界面+训练代码+数据集)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
基于深度学习的螺栓螺母检测系统演示与介绍(YOLOv12/v11/v8/v5模型+Pyqt5界面+训练代码+数据集)

视频演示

基于深度学习的螺栓螺母检测系统

目录

视频演示

1. 前言​

2. 项目演示

2.1 用户登录界面

2.2 新用户注册

2.3 主界面布局

2.4 个人信息管理

2.5 多模态检测展示

2.6 多模型切换

3.模型训练核心代码

4. 技术栈

5. YOLO模型对比与识别效果解析

5.1 YOLOv5/YOLOv8/YOLOv11/YOLOv12模型对比

5.2 数据集分析

5.3 训练结果

6. 源码获取方式


1. 前言​

大家好,欢迎来到 Coding 茶水间。

在工业质检、设备维护等场景中,螺栓、螺母这类小零件的检测往往费时费力,还容易因漏检留下安全隐患。今天我们带来的项目,就是基于YOLO 算法​ 的螺栓螺母检测系统,它能精准识别图片与视频中的螺栓螺母,还能细分到螺丝的杆部与头部,把原本靠肉眼完成的细碎检查,变成高效、可复现的智能流程。

这套系统的主界面分成左、中、右三大区域:左侧是功能入口,支持单图、视频、批量图片、摄像头实时检测以及模型切换;中间是检测区,可调节置信度与交并比,实时显示检测耗时与目标数量,并在下方用表格列出每个目标的详细信息;右侧负责统计与过滤,既能按类别汇总数量,又能聚焦某一类目标查看置信度与坐标。

除了可视化操作,我们还做了登录与个人中心,支持头像、密码等信息的管理;同时提供脚本化检测方式,无需界面就能批量跑图片、视频或摄像头;更有训练脚本,可按需配置模型数量、批次大小与训练轮次,用自己的数据训练出更贴合业务的检测模型。训练完成后,结果会保存在指定目录,包含最佳权重、评估曲线与混淆矩阵,方便回溯与分析。

接下来,我们会从界面布局讲到功能演示,再到脚本检测与模型训练,完整呈现这套“能看、能用、能改”的螺栓螺母检测系统,希望它能让你对 YOLO 在工业细节检测上的落地,有更直观的认识与启发。

2. 项目演示

2.1用户登录界面

登录界面布局简洁清晰,左侧展示系统主题,用户需输入用户名、密码及验证码完成身份验证后登录系统。

2.2新用户注册

注册时可自定义用户名与密码,支持上传个人头像;如未上传,系统将自动使用默认头像完成账号创建。

2.3主界面布局

主界面采用三栏结构,左侧为功能操作区,中间用于展示检测画面,右侧呈现目标详细信息,布局合理,交互流畅。

2.4个人信息管理

用户可在此模块中修改密码或更换头像,个人信息支持随时更新与保存。

2.5多模态检测展示

系统支持图片、视频及摄像头实时画面的目标检测。识别结果将在画面中标注显示,并在下方列表中逐项列出。点击具体目标可查看其类别、置信度及位置坐标等详细信息。

2.6多模型切换

系统内置多种已训练模型,用户可根据实际需求灵活切换,以适应不同检测场景或对比识别效果。

3.模型训练核心代码

本脚本是YOLO模型批量训练工具,可自动修正数据集路径为绝对路径,从pretrained文件夹加载预训练模型,按设定参数(100轮/640尺寸/批次8)一键批量训练YOLOv5nu/v8n/v11n/v12n模型。

# -*- coding: utf-8 -*- """ 该脚本用于执行YOLO模型的训练。 它会自动处理以下任务: 1. 动态修改数据集配置文件 (data.yaml),将相对路径更新为绝对路径,以确保训练时能正确找到数据。 2. 从 'pretrained' 文件夹加载指定的预训练模型。 3. 使用预设的参数(如epochs, imgsz, batch)启动训练过程。 要开始训练,只需直接运行此脚本。 """ import os import yaml from pathlib import Path from ultralytics import YOLO def main(): """ 主训练函数。 该函数负责执行YOLO模型的训练流程,包括: 1. 配置预训练模型。 2. 动态修改数据集的YAML配置文件,确保路径为绝对路径。 3. 加载预训练模型。 4. 使用指定参数开始训练。 """ # --- 1. 配置模型和路径 --- # 要训练的模型列表 models_to_train = [ {'name': 'yolov5nu.pt', 'train_name': 'train_yolov5nu'}, {'name': 'yolov8n.pt', 'train_name': 'train_yolov8n'}, {'name': 'yolo11n.pt', 'train_name': 'train_yolo11n'}, {'name': 'yolo12n.pt', 'train_name': 'train_yolo12n'} ] # 获取当前工作目录的绝对路径,以避免相对路径带来的问题 current_dir = os.path.abspath(os.getcwd()) # --- 2. 动态配置数据集YAML文件 --- # 构建数据集yaml文件的绝对路径 data_yaml_path = os.path.join(current_dir, 'train_data', 'data.yaml') # 读取原始yaml文件内容 with open(data_yaml_path, 'r', encoding='utf-8') as f: data_config = yaml.safe_load(f) # 将yaml文件中的 'path' 字段修改为数据集目录的绝对路径 # 这是为了确保ultralytics库能正确定位到训练、验证和测试集 data_config['path'] = os.path.join(current_dir, 'train_data') # 将修改后的配置写回yaml文件 with open(data_yaml_path, 'w', encoding='utf-8') as f: yaml.dump(data_config, f, default_flow_style=False, allow_unicode=True) # --- 3. 循环训练每个模型 --- for model_info in models_to_train: model_name = model_info['name'] train_name = model_info['train_name'] print(f"\n{'='*60}") print(f"开始训练模型: {model_name}") print(f"训练名称: {train_name}") print(f"{'='*60}") # 构建预训练模型的完整路径 pretrained_model_path = os.path.join(current_dir, 'pretrained', model_name) if not os.path.exists(pretrained_model_path): print(f"警告: 预训练模型文件不存在: {pretrained_model_path}") print(f"跳过模型 {model_name} 的训练") continue try: # 加载指定的预训练模型 model = YOLO(pretrained_model_path) # --- 4. 开始训练 --- print(f"开始训练 {model_name}...") # 调用train方法开始训练 model.train( data=data_yaml_path, # 数据集配置文件 epochs=100, # 训练轮次 imgsz=640, # 输入图像尺寸 batch=8, # 每批次的图像数量 name=train_name, # 模型名称 ) print(f"{model_name} 训练完成!") except Exception as e: print(f"训练 {model_name} 时出现错误: {str(e)}") print(f"跳过模型 {model_name},继续训练下一个模型") continue print(f"\n{'='*60}") print("所有模型训练完成!") print(f"{'='*60}") if __name__ == "__main__": # 当该脚本被直接执行时,调用main函数 main()

4. 技术栈

  • 语言:Python 3.10

  • 前端界面:PyQt5

  • 数据库:SQLite(存储用户信息)

  • 模型:YOLOv5、YOLOv8、YOLOv11、YOLOv12

5. YOLO模型对比与识别效果解析

5.1 YOLOv5/YOLOv8/YOLOv11/YOLOv12模型对比

基于Ultralytics官方COCO数据集训练结果:

模型

尺寸(像素)

mAPval 50-95

速度(CPU ONNX/毫秒)

参数(M)

FLOPs(B)

YOLO12n

640

40.6

-

2.6

6.5

YOLO11n

640

39.5

56.1 ± 0.8

2.6

6.5

YOLOv8n

640

37.3

80.4

3.2

8.7

YOLOv5nu

640

34.3

73.6

2.6

7.7

关键结论

  1. 精度最高:YOLO12n(mAP 40.6%),显著领先其他模型(较YOLOv5nu高约6.3个百分点);

  2. 速度最优:YOLO11n(CPU推理56.1ms),比YOLOv8n快42%,适合实时轻量部署;

  3. 效率均衡:YOLO12n/YOLO11n/YOLOv8n/YOLOv5nu参数量均为2.6M,FLOPs较低(YOLO12n/11n仅6.5B);YOLOv8n参数量(3.2M)与计算量(8.7B)最高,但精度优势不明显。

综合推荐

  • 追求高精度:优先选YOLO12n(精度与效率兼顾);

  • 需高速低耗:选YOLO11n(速度最快且精度接近YOLO12n);

  • YOLOv5nu/YOLOv8n因性能劣势,无特殊需求时不建议首选。

5.2 数据集分析

数据集中训练集和验证集一共8800张图片,数据集目标类别两种:正常肾脏,肾结石,数据集配置代码如下:

names: - bolt - nut - screw_body - screw_head nc: 4 path: D:\project\python\yolo_Bolts_and_Nuts\train_data test: ../test/images train: ../train/images val: ../valid/images

上面的图片就是部分样本集训练中经过数据增强后的效果标注。

5.3 训练结果

混淆矩阵显示中识别精准度显示是一条对角线,方块颜色越深代表对应的类别识别的精准度越高。

F1指数(F1 Score)是统计学和机器学习中用于评估分类模型性能的核心指标,综合了模型的精确率(Precision)和召回率(Recall),通过调和平均数平衡两者的表现。

当置信度为0.621时,所有类别的综合F1值达到了0.96(蓝色曲线)。

mAP@0.5:是目标检测任务中常用的评估指标,表示在交并比(IoU)阈值为0.5时计算的平均精度均值(mAP)。其核心含义是:只有当预测框与真实框的重叠面积(IoU)≥50%时,才认为检测结果正确。

图中可以看到综合mAP@0.5达到了0.973(97.3%),准确率非常高。

6. 源码获取方式

源码获取方式:https://www.bilibili.com/video/BV1eqSyBzEyw

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2025/12/24 18:26:19

Linly-Talker如何避免生成歧视性言论?伦理设计原则

Linly-Talker如何避免生成歧视性言论?伦理设计原则 在虚拟主播直播带货、AI客服全天候应答、数字员工讲解企业年报的今天,我们越来越难分辨屏幕对面是“人”还是“模型”。Linly-Talker 正是这样一套能“看照片说话”的实时数字人系统——输入一张人脸图…

作者头像 李华
网站建设 2025/12/24 6:54:15

Linly-Talker与HeyGen等商业平台对比优劣分析

Linly-Talker与HeyGen等商业平台对比优劣分析 在数字人技术加速落地的今天,企业与开发者正面临一个关键选择:是采用开箱即用但封闭昂贵的商业平台(如HeyGen),还是拥抱开源、灵活可控的本地化方案?这一抉择背…

作者头像 李华
网站建设 2025/12/21 4:13:10

Linly-Talker如何防止生成虚假信息?内容审核机制介绍

Linly-Talker如何防止生成虚假信息?内容审核机制介绍 在数字人逐渐走进直播间、课堂和客服中心的今天,一个关键问题浮出水面:我们该如何相信AI说的每一句话? Linly-Talker作为一款集成了大语言模型(LLM)、语…

作者头像 李华
网站建设 2025/12/26 12:39:03

Linly-Talker支持语音事件驱动机制

Linly-Talker支持语音事件驱动机制 在虚拟主播深夜直播时突然收到观众提问,系统却要等她说完一整段话才能开始回应——这种“你说我听、我说你听”的机械轮询模式,早已无法满足用户对自然对话的期待。真正的数字人不该是录音机,而应像真人一样…

作者头像 李华
网站建设 2025/12/22 5:30:19

Ring-mini-linear-2.0:混合架构高效推理

Ring-mini-linear-2.0:混合架构高效推理 【免费下载链接】Ring-mini-linear-2.0 项目地址: https://ai.gitcode.com/hf_mirrors/inclusionAI/Ring-mini-linear-2.0 大语言模型(LLM)领域再添新成员——inclusionAI团队正式开源Ring-mi…

作者头像 李华
网站建设 2025/12/22 7:49:47

DeepSeek-VL2-small:MoE多模态智能新突破

DeepSeek-VL2-small:MoE多模态智能新突破 【免费下载链接】deepseek-vl2-small 融合视觉与语言的DeepSeek-VL2-small模型,采用MoE技术,参数高效,表现卓越,轻松应对视觉问答等多元任务,开启智能多模态理解新…

作者头像 李华