YOLO26 predict参数怎么设?source输入详解教程
最新 YOLO26 官方版训练与推理镜像
本镜像基于YOLO26 官方代码库构建,预装了完整的深度学习开发环境,集成了训练、推理及评估所需的所有依赖,开箱即用。
1. 镜像环境说明
- 核心框架:
pytorch == 1.10.0 - CUDA版本:
12.1 - Python版本:
3.9.5 - 主要依赖:
torchvision==0.11.0,torchaudio==0.10.0,cudatoolkit=11.3,numpy,opencv-python,pandas,matplotlib,tqdm,seaborn等。
该镜像为YOLO26的完整运行环境提供了无缝支持,无需手动配置复杂的依赖关系。无论是本地部署还是云端使用,都能快速进入开发状态,尤其适合刚接触目标检测的新手和希望高效落地模型的开发者。
2. 快速上手
启动完是这样的
2.1 激活环境与切换工作目录
在使用前,请先激活 Conda 环境,命令如下:
conda activate yolo镜像启动后,默认代码存放在系统盘。为了方便修改和调试,建议将代码复制到数据盘进行操作。执行以下命令完成复制:
cp -r /root/ultralytics-8.4.2 /root/workspace/随后进入新目录:
cd /root/workspace/ultralytics-8.4.2这样可以避免因系统盘空间不足或权限问题导致后续训练中断,也更利于长期项目管理。
3. 模型推理:predict参数详解
3.1 基础推理代码结构
YOLO26 的推理过程非常简洁,核心是调用model.predict()方法。以下是标准示例代码:
from ultralytics import YOLO if __name__ == '__main__': # 加载模型 model = YOLO(model=r'yolo26n-pose.pt') # 执行推理 model.predict(source=r'./ultralytics/assets/zidane.jpg', save=True, show=False)这段代码完成了从模型加载到结果输出的全流程。下面我们重点解析predict()中的关键参数。
3.2 model 参数:如何指定模型
model参数用于指定你要加载的模型文件路径,支持多种格式:
.pt文件:PyTorch 训练好的权重文件(推荐).yaml文件:仅定义网络结构,通常配合预训练权重使用- 模型名称字符串:如
'yolov8n.pt',会自动下载官方预训练模型
示例:
# 方式一:本地权重文件 model = YOLO('yolo26n.pt') # 方式二:远程自动下载(首次运行会缓存) model = YOLO('yolo26s.pt') # 方式三:自定义结构 + 预训练权重 model = YOLO('/path/to/yolo26.yaml') model.load('yolo26n.pt') # 加载已有权重注意:如果只传入
.yaml文件而不调用.load(),则模型将以随机初始化权重运行,效果极差。
3.3 source 参数:输入源设置全解
source是最常用也是最关键的参数,决定了你的推理数据来源。它支持多种类型输入,灵活适配不同场景。
支持的输入类型
| 输入类型 | 示例值 | 说明 |
|---|---|---|
| 单张图片路径 | './data/images/test.jpg' | 推理单个图像 |
| 图片文件夹 | './ultralytics/assets/' | 自动遍历文件夹内所有图片 |
| 视频文件路径 | './videos/cars.mp4' | 对视频逐帧检测 |
| 摄像头设备号 | 0或'0' | 调用本地摄像头实时检测 |
| RTSP 流地址 | 'rtsp://example.com/live' | 网络摄像头或直播流 |
| 图像列表 | ['img1.jpg', 'img2.jpg'] | 批量处理多个文件 |
实际应用示例
# 示例1:使用摄像头实时检测 model.predict(source=0, show=True) # 示例2:处理整个图片文件夹 model.predict(source='./my_dataset/images/', save=True) # 示例3:分析一段监控视频 model.predict(source='surveillance_001.mp4', save=True, imgsz=640) # 示例4:接入网络摄像头 model.predict(source='rtsp://admin:password@192.168.1.100:554/stream1')小贴士:当
source指向文件夹时,YOLO26 会自动识别其中的图像文件(如 jpg、png、jpeg),无需额外配置。
3.4 save 参数:是否保存结果
save=True:将推理结果(带框标注的图像或视频)保存到默认路径runs/detect/predict/save=False:不保存,仅显示或返回结果对象
保存路径可通过project和name参数自定义:
model.predict(source='test.jpg', save=True, project='my_results', name='exp1') # 结果将保存在 my_results/exp1 目录下3.5 show 参数:是否可视化显示
show=True:弹出窗口实时显示检测结果(适用于本地调试)show=False:不显示窗口(推荐用于服务器或批量处理)
在无图形界面的服务器上运行时,务必设置show=False,否则程序可能报错或卡死。
3.6 其他常用参数
除了上述四个基础参数外,还有几个实用选项值得掌握:
| 参数 | 可选值 | 作用说明 |
|---|---|---|
imgsz | 整数(如 640) | 输入图像尺寸,影响速度与精度平衡 |
conf | 0~1 之间浮点数 | 置信度阈值,过滤低置信度预测框 |
iou | 0~1 之间浮点数 | NMS 非极大值抑制阈值 |
classes | 列表,如[0, 1] | 只检测指定类别(COCO中0为人,1为车) |
verbose | True/False | 是否打印详细日志信息 |
示例:只检测人和车,且置信度高于0.5
model.predict(source=0, classes=[0, 1], conf=0.5, save=True, show=False)4. 模型训练流程简要说明
虽然本文重点在推理,但了解训练流程有助于更好地理解模型使用逻辑。
4.1 数据集配置:data.yaml
YOLO26 要求数据集遵循特定格式,并通过data.yaml文件声明路径和类别信息:
train: ./dataset/images/train val: ./dataset/images/val nc: 80 # 类别数量 names: ['person', 'bicycle', 'car', ...] # COCO 80类确保你上传的数据集符合 YOLO 格式(每张图对应一个.txt标注文件),并在data.yaml中正确填写路径。
4.2 训练脚本配置
参考train.py示例:
model = YOLO('/root/workspace/ultralytics-8.4.2/ultralytics/cfg/models/26/yolo26.yaml') model.load('yolo26n.pt') # 加载预训练权重 model.train(data='data.yaml', imgsz=640, epochs=200, batch=128, device='0')关键参数解释:
epochs:训练轮数,一般设为100~300batch:每批处理图像数量,根据显存调整device:指定GPU设备,'0'表示第一块GPUresume:若中断训练,设为True可继续
训练完成后,最佳模型会自动保存在runs/train/exp/weights/best.pt。
5. 推理结果查看与数据下载
5.1 查看推理输出
运行python detect.py后,终端会输出类似以下信息:
image 1/1 zidane.jpg: 640x480 2 persons, 1 tie, Done. (0.023s) Results saved to runs/detect/predict检测结果(带边界框的图像)已保存至指定目录,可通过 JupyterLab 或文件浏览器查看。
5.2 使用 Xftp 下载模型与数据
训练结束后,可通过 Xftp 工具将模型文件下载到本地:
- 打开 Xftp 连接当前实例
- 左侧为本地电脑,右侧为服务器
- 导航至
runs/train/exp/weights/目录 - 双击
best.pt或拖拽整个文件夹到左侧
📦 提示:大文件建议先压缩再传输,节省时间。例如:
zip -r best_model.zip runs/train/exp/
6. 已包含权重文件说明
镜像内置了常用预训练模型,位于代码根目录:
包括但不限于:
yolo26n.pt:轻量级模型,速度快yolo26s.pt:小规模模型,平衡性能yolo26n-pose.pt:姿态估计专用模型
这些模型可直接用于推理或作为迁移学习起点,省去手动下载的麻烦。
7. 常见问题与解决方案
7.1 环境未激活导致导入失败
现象:运行时报错ModuleNotFoundError: No module named 'ultralytics'
解决方法:确认是否执行了环境激活命令:
conda activate yolo镜像默认进入torch25环境,必须手动切换。
7.2 显存不足(CUDA Out of Memory)
现象:训练或推理时崩溃,提示显存溢出
解决方案:
- 减小
batch大小 - 降低
imgsz分辨率(如从640降到320) - 使用更小的模型(如
yolo26n而非yolo26x)
7.3 摄像头无法打开
现象:source=0报错无法访问设备
检查项:
- 本地是否有摄像头?
- 是否在远程服务器上误用了
source=0? - 若为云主机,应使用视频文件或RTSP流替代
7.4 图像保存路径混乱
建议做法:始终明确设置project和name参数,便于管理不同实验的结果:
model.predict(source='test.mp4', project='video_results', name='traffic_analysis_20240405')8. 总结
本文详细讲解了 YOLO26 模型推理中predict()方法的核心参数设置,特别是source输入源的多种用法,覆盖图片、视频、摄像头及网络流等实际场景。同时梳理了从环境激活、代码修改到结果下载的完整流程。
通过本教程,你应该已经掌握了:
- 如何正确加载模型(
.ptvs.yaml) source参数支持哪些输入形式及其适用场景save和show的合理搭配使用- 常见训练与推理问题的应对策略
现在你可以根据自己的需求,灵活配置参数,快速实现目标检测任务。无论是做个人项目、学术研究还是工业应用,这套流程都具备良好的可扩展性和实用性。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。