YOLOv9官方仓库怎么用?GitHub README结合镜像实操
1. 镜像环境说明
本镜像基于 YOLOv9 官方代码库构建,预装了完整的深度学习开发环境,集成了训练、推理及评估所需的所有依赖,开箱即用。适用于快速开展目标检测任务的科研与工程实践,避免繁琐的环境配置过程。
- 核心框架: pytorch==1.10.0
- CUDA版本: 12.1
- Python版本: 3.8.5
- 主要依赖: torchvision==0.11.0,torchaudio==0.10.0,cudatoolkit=11.3, numpy, opencv-python, pandas, matplotlib, tqdm, seaborn 等常用科学计算和视觉处理库
- 代码位置:
/root/yolov9(镜像中已克隆官方仓库并完成初始化)
该环境已在 GPU 实例上完成验证,支持单卡与多卡训练,兼容主流 YOLO 数据格式,可直接用于自定义数据集的迁移学习或从头训练。
2. 快速上手
2.1 激活环境
镜像启动后,默认进入 Conda 的base环境。为确保所有依赖正确加载,请先激活专用的yolov9虚拟环境:
conda activate yolov9提示:若提示环境不存在,请检查镜像是否完整加载,或手动创建环境并安装 requirements.txt 中的依赖。
2.2 模型推理 (Inference)
进入 YOLOv9 项目根目录:
cd /root/yolov9使用以下命令进行图像推理测试:
python detect_dual.py --source './data/images/horses.jpg' --img 640 --device 0 --weights './yolov9-s.pt' --name yolov9_s_640_detect参数说明:
--source:输入源路径,支持图片、视频或摄像头设备编号--img:推理时输入图像尺寸(默认 640×640)--device:指定 GPU 设备编号(0 表示第一块 GPU)--weights:模型权重文件路径--name:结果保存子目录名称
推理结果将保存在runs/detect/yolov9_s_640_detect/目录下,包含标注框可视化图像及置信度信息。
扩展建议:可替换
--source为本地视频路径(如./data/videos/test.mp4)以实现视频目标检测。
2.3 模型训练 (Training)
使用单卡训练 YOLOv9-small 模型的完整命令如下:
python train_dual.py \ --workers 8 \ --device 0 \ --batch 64 \ --data data.yaml \ --img 640 \ --cfg models/detect/yolov9-s.yaml \ --weights '' \ --name yolov9-s \ --hyp hyp.scratch-high.yaml \ --min-items 0 \ --epochs 20 \ --close-mosaic 15关键参数解析:
--workers:数据加载线程数,根据 CPU 核心数调整--batch:每批次样本数量,需根据显存大小调整(64 需 ≥24GB 显存)--data:数据配置文件路径,定义类别数、训练/验证集路径等--cfg:网络结构配置文件,决定模型规模(s/m/c/e/t)--weights:预训练权重路径,空字符串表示从头训练--hyp:超参数配置文件,控制学习率、数据增强强度等--close-mosaic:在最后 N 个 epoch 关闭 Mosaic 增强,提升收敛稳定性
训练过程中,日志和权重会自动保存至runs/train/yolov9-s/目录,包含 loss 曲线、mAP 指标图、best.pt 和 last.pt 权重文件。
多卡训练提示:如需使用多 GPU 训练,可将
--device改为0,1,2,3并适当增大 batch size。
3. 已包含权重文件
镜像内已预下载轻量级模型权重yolov9-s.pt,位于/root/yolov9根目录下,可直接用于推理或作为微调起点。
| 模型类型 | 文件名 | 参数量(约) | 推理速度(FPS @T4) |
|---|---|---|---|
| YOLOv9-s | yolov9-s.pt | 7.5M | 180 |
注意:其他更大模型(如 yolov9-c.pt、yolov9-e.pt)未内置,可通过官方 HuggingFace 或 Google Drive 链接自行下载,并放入对应目录。
推荐下载地址(来自官方 README):
- YOLOv9-C
- YOLOv9-E (GS)
4. 常见问题
4.1 数据集准备
YOLOv9 要求数据集遵循标准 YOLO 格式组织:
dataset/ ├── images/ │ ├── train/ │ └── val/ ├── labels/ │ ├── train/ │ └── val/ └── data.yaml其中data.yaml内容示例如下:
train: ./dataset/images/train val: ./dataset/images/val nc: 80 names: ['person', 'bicycle', 'car', ...]请根据实际路径修改train和val字段,并确保标签文件.txt与图像一一对应。
4.2 环境激活失败
若执行conda activate yolov9报错:
Could not find conda environment: yolov9请尝试以下修复步骤:
查看已有环境列表:
conda env list若显示
yolov9存在但路径异常,可重新链接:conda activate /opt/conda/envs/yolov9如环境丢失,可重建:
conda create -n yolov9 python=3.8 -y conda activate yolov9 cd /root/yolov9 && pip install -r requirements.txt
4.3 显存不足(Out of Memory)
当出现 CUDA OOM 错误时,建议采取以下措施:
- 降低
--batch大小(如从 64 → 32 → 16) - 减小
--img分辨率(如 640 → 320) - 使用更小模型(如
yolov9-tiny替代yolov9-s) - 启用梯度累积(添加
--accumulate 2参数)
5. 参考资料
官方仓库: WongKinYiu/yolov9
包含最新代码更新、训练脚本、模型结构定义及高级功能(如 EMA、Dual Assigner、PGI 等)详解。文档说明: 详细用法请参考官方库中的
README.md文件,涵盖:- 多种模型变体介绍(s/c/e/t)
- 自定义数据集训练指南
- ONNX 导出与部署方法
- 性能 benchmark 对比表
论文原文:
- YOLOv9: Learning What You Want to Learn Using Programmable Gradient Information
6. 引用
@article{wang2024yolov9, title={{YOLOv9}: Learning What You Want to Learn Using Programmable Gradient Information}, author={Wang, Chien-Yao and Liao, Hong-Yuan Mark}, journal={arXiv preprint arXiv:2402.13616}, year={2024} }@article{chang2023yolor, title={{YOLOR}-Based Multi-Task Learning}, author={Chang, Hung-Shuo and Wang, Chien-Yao and Wang, Richard Robert and Chou, Gene and Liao, Hong-Yuan Mark}, journal={arXiv preprint arXiv:2309.16921}, year={2023} }获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。