news 2026/2/17 15:17:20

YOLOv9推理结果保存在哪?runs/detect路径详解教程

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
YOLOv9推理结果保存在哪?runs/detect路径详解教程

YOLOv9推理结果保存在哪?runs/detect路径详解教程

1. 镜像环境说明

本镜像基于 YOLOv9 官方代码库构建,预装了完整的深度学习开发环境,集成了训练、推理及评估所需的所有依赖,开箱即用。用户无需手动配置复杂的依赖关系,可直接进入/root/yolov9目录进行模型训练与推理任务。

  • 核心框架: pytorch==1.10.0
  • CUDA版本: 12.1
  • Python版本: 3.8.5
  • 主要依赖: torchvision==0.11.0,torchaudio==0.10.0,cudatoolkit=11.3,numpy,opencv-python,pandas,matplotlib,tqdm,seaborn 等。
  • 代码位置:/root/yolov9

该环境适用于大多数目标检测场景下的快速实验和部署需求,尤其适合希望专注于模型调优而非环境搭建的研究者和开发者。


2. 快速上手

2.1 激活环境

启动容器后,默认处于base环境中,需先激活yolov9专用 Conda 环境:

conda activate yolov9

此环境已预装所有必要的 Python 包和 CUDA 支持,确保 PyTorch 能正确调用 GPU 进行加速计算。


2.2 模型推理 (Inference)

进入 YOLOv9 项目主目录:

cd /root/yolov9

使用以下命令执行图像推理示例:

python detect_dual.py --source './data/images/horses.jpg' --img 640 --device 0 --weights './yolov9-s.pt' --name yolov9_s_640_detect

参数说明

  • --source:输入源路径,支持图片、视频或摄像头设备。
  • --img:推理时的输入图像尺寸(默认为 640×640)。
  • --device:指定运行设备,0表示使用第一块 GPU;若使用 CPU 可设为-1
  • --weights:模型权重文件路径,此处使用预下载的yolov9-s.pt
  • --name:输出结果子目录名称,将决定保存路径中的文件夹名。

2.3 推理结果保存路径解析

YOLOv9 的推理结果默认保存在项目根目录下的runs/detect/路径中,具体结构如下:

/root/yolov9/ └── runs/ └── detect/ └── yolov9_s_640_detect/ ├── horses.jpg # 原图(如有) ├── predictions.jpg # 可视化标注图 └── labels/ # 检测框标签(可选生成) └── horses.txt
关键点说明:
  • runs/detect/是默认输出根目录
    所有通过detect_dual.pydetect.py生成的结果均会存放在该目录下,系统会自动创建该路径。

  • 子目录由--name参数控制
    上述命令中--name yolov9_s_640_detect明确指定了输出子目录名。如果不设置--name,程序将自动生成类似exp,exp2的递增命名目录。

  • 可视化结果文件
    输出图像包含边界框、类别标签和置信度分数,通常命名为predictions.jpg或与原图同名但带标注。

  • 检测结果文本文件(可选)
    若启用保存标签功能(如修改代码或添加参数),每个检测对象的信息将以 YOLO 格式存储于labels/子目录中,每行格式为:

    class_id center_x center_y width height confidence

重要提示:如果需要批量处理多张图像或视频流,建议显式设置--name以避免结果被覆盖。


2.4 自定义保存路径

虽然默认路径是runs/detect/,但可通过修改detect_dual.py中的save_dir参数来自定义输出位置。例如:

from utils.general import increment_path save_dir = increment_path(Path('custom_output') / 'exp', exist_ok=False) # 自定义路径

或者在命令行中扩展脚本支持--project--name组合参数(部分版本支持):

python detect_dual.py \ --source ./data/images/test.jpg \ --weights yolov9-s.pt \ --project custom_results \ --name my_detection \ --device 0

此时输出路径变为:custom_results/my_detection/


3. 模型训练流程简要说明

除了推理外,该镜像也支持完整训练流程。以下是单卡训练示例:

python train_dual.py \ --workers 8 \ --device 0 \ --batch 64 \ --data data.yaml \ --img 640 \ --cfg models/detect/yolov9-s.yaml \ --weights '' \ --name yolov9-s \ --hyp hyp.scratch-high.yaml \ --min-items 0 \ --epochs 20 \ --close-mosaic 15

训练过程中,日志、权重和可视化图表将保存在runs/train/yolov9-s/目录下,包括:

  • weights/best.pt:最佳模型权重
  • weights/last.pt:最终轮次权重
  • results.csv:各 epoch 的 mAP、precision、recall 等指标
  • val_batch*.jpg:验证集预测效果图

4. 已包含权重文件说明

镜像内已预下载轻量级模型权重yolov9-s.pt,位于/root/yolov9/yolov9-s.pt,可直接用于推理或作为微调起点。

模型类型参数量(约)推理速度(FPS, Tesla T4)下载来源
YOLOv9-s7.2M180GitHub Release

如需其他变体(如yolov9-m,yolov9-c,yolov9-e),可手动下载并放入项目目录,再通过--weights指定路径。


5. 常见问题与解决方案

5.1 结果未生成或路径为空?

请检查以下几点:

  • 是否成功激活yolov9环境?
  • 输入图像路径是否正确?建议使用绝对路径测试。
  • 权重文件是否存在且可读?运行ls ./yolov9-s.pt验证。
  • GPU 是否可用?执行nvidia-smi查看状态。

5.2 如何查看保存的检测结果?

对于图像输入,可在 Jupyter Notebook 或本地下载后查看:

from IPython.display import Image Image('runs/detect/yolov9_s_640_detect/predictions.jpg')

对于视频输入,输出为.mp4文件,可用 VLC 或 OpenCV 播放验证。

5.3 多次运行导致结果覆盖?

YOLOv9 默认行为是递增创建新目录(如 exp, exp2, exp3...),但如果指定了相同的--name,则会被覆盖(除非设置exist_ok=True)。建议:

  • 每次实验使用唯一名称;
  • 或定期备份重要结果。

5.4 如何导出为 JSON 或 CSV 格式?

YOLO 原生不直接输出结构化数据,但可通过后处理提取信息。示例代码如下:

import cv2 import torch # 加载模型 model = torch.hub.load('/root/yolov9', 'custom', path='./yolov9-s.pt', source='local') # 推理 results = model('./data/images/horses.jpg') df = results.pandas().xyxy[0] # 转为 Pandas DataFrame print(df[['xmin', 'ymin', 'xmax', 'ymax', 'confidence', 'name']]) # 保存为 CSV df.to_csv('detection_results.csv', index=False)

输出字段说明:

  • xmin,ymin,xmax,ymax:检测框坐标
  • confidence:置信度
  • name:类别名称(如 horse, person)

6. 总结

YOLOv9 的推理结果默认保存在项目目录下的runs/detect/文件夹中,具体路径由--name参数决定。本文详细解析了该路径的生成逻辑、内容组成以及如何自定义输出位置。

关键要点回顾:

  1. 默认路径结构runs/detect/<name>/,其中<name>来自--name参数。
  2. 结果内容:包含可视化图像、原始数据及可选的标签文本。
  3. 路径可定制:通过--project--name实现灵活组织。
  4. 训练结果独立存放:位于runs/train/,避免混淆。
  5. 实用技巧:结合 Pandas 导出结构化结果,便于后续分析。

掌握这些路径管理机制,有助于高效组织实验数据、提升开发效率,并为自动化流水线提供清晰的数据接口。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/14 4:14:20

BGE-M3开箱即用:快速搭建多语言检索服务

BGE-M3开箱即用&#xff1a;快速搭建多语言检索服务 1. 引言 1.1 多语言检索的现实挑战 在当今全球化信息环境中&#xff0c;跨语言、多语种内容检索已成为企业级应用和智能系统的刚需。传统文本嵌入模型往往受限于语言覆盖范围窄、检索模式单一、长文档处理能力弱等问题&am…

作者头像 李华
网站建设 2026/2/9 14:32:13

5分钟搞定语音情绪分析,科哥打包的Emotion2Vec+真香体验

5分钟搞定语音情绪分析&#xff0c;科哥打包的Emotion2Vec真香体验 1. 引言&#xff1a;为什么语音情绪识别正在变得重要 在智能客服、心理评估、车载交互和在线教育等场景中&#xff0c;理解用户的情绪状态已成为提升服务质量和用户体验的关键环节。传统的文本情感分析已无法…

作者头像 李华
网站建设 2026/2/11 11:14:22

SGLang教育应用案例:智能答题系统搭建教程

SGLang教育应用案例&#xff1a;智能答题系统搭建教程 SGLang-v0.5.6 是当前较为稳定且功能完善的版本&#xff0c;适用于构建高效、低延迟的大语言模型&#xff08;LLM&#xff09;推理系统。本文将基于该版本&#xff0c;结合其核心特性&#xff0c;手把手带你搭建一个面向教…

作者头像 李华
网站建设 2026/2/17 6:34:52

B站直播弹幕管理终极指南:从零开始掌握智能场控神器

B站直播弹幕管理终极指南&#xff1a;从零开始掌握智能场控神器 【免费下载链接】Bilibili-MagicalDanmaku 【神奇弹幕】哔哩哔哩直播万能场控机器人&#xff0c;弹幕姬答谢姬回复姬点歌姬各种小骚操作&#xff0c;目前唯一可编程机器人 项目地址: https://gitcode.com/gh_mi…

作者头像 李华
网站建设 2026/2/16 8:03:34

OpenCore Simplify:黑苹果EFI配置的革命性突破,5分钟轻松搞定

OpenCore Simplify&#xff1a;黑苹果EFI配置的革命性突破&#xff0c;5分钟轻松搞定 【免费下载链接】OpCore-Simplify A tool designed to simplify the creation of OpenCore EFI 项目地址: https://gitcode.com/GitHub_Trending/op/OpCore-Simplify 还在为复杂的黑苹…

作者头像 李华
网站建设 2026/2/4 0:21:30

Glyph模型亲测:单卡即可运行的轻量级方案

Glyph模型亲测&#xff1a;单卡即可运行的轻量级方案 1. 背景与技术动机 在当前大模型快速发展的背景下&#xff0c;长文本上下文处理已成为自然语言理解任务中的关键挑战。传统基于Token的上下文扩展方法&#xff08;如RoPE外推、ALiBi等&#xff09;虽然有效&#xff0c;但…

作者头像 李华