X
Ultralytics YOLOv8.2 发布Ultralytics YOLOv8.2 发布手机Ultralytics YOLOv8.2 释放箭头
绿色检查
链接复制到剪贴板

YOLOv5 v7.0 中的实例分割介绍

探索YOLOv5 v7.0,了解全新实例分割模型,超越 SOTA 基准的顶级人工智能准确性和速度。加入我们的社区。

YOLOv5 我们的人工智能架构的最新版本v7.0 已经发布,我们非常高兴地介绍我们的新实例分割模型!

在最新版本的开发过程中,我们始终将两个目标放在首位。第一个目标是让人工智能变得简单,第二个目标是重新定义 "最先进 "的真正含义。

因此,通过重大改进、修复和升级,我们做到了这一点。YOLOv5 v7.0 与我们现有的YOLOv5 物体检测模型保持相同的简单工作流程,现在比以往任何时候都更容易训练、验证和部署您的模型。此外,我们还超越了所有SOTA 基准,从而使YOLOv5 成为世界上速度最快、精度最高的产品。

由于这是我们首次发布分割模型,我们对这一里程碑感到无比自豪。我们非常感谢我们的热心社区和贡献者,是他们帮助我们发布了这一版本。  

Ultralytics YOLOv5 v7.0 SOTA 实时实例分割

那么,让我们从YOLOv5 v7.0发布说明开始吧!

重要YOLOv5 更新

以下是YOLOv5 自 2022 年 8 月发布YOLOv5 v6 .2以来的更新内容。

  • 分割模型 ⭐ 新内容:SOTAYOLOv5-seg COCO 预训练分割模型现已首次推出(#9052,作者:@glenn-jocher、@AyushExel 和 @Laughing-q)
  • PaddlePaddle 导出:使用python export.py --include paddle#9459将任何YOLOv5 模型(cls、seg、det)导出为 Paddle 格式,作者 @glenn-jocher)
  • YOLOv5 自动缓存:使用python train.py --cache ram 现在会扫描可用内存,并与预测的数据集内存使用情况进行比较。这将降低缓存风险,有助于提高数据集缓存功能的采用率,从而显著加快训练速度。(#10027由 @glenn-jocher 提供)
  • Comet 日志和可视化集成:永久免费、 Comet可让您保存YOLOv5 模型、恢复训练并交互式可视化和调试预测。(#9232by @DN6)

新的分段检查点

我们使用 A100 GPU 在 COCO 上对YOLOv5 分割模型进行了 300 次训练,图像大小为 640。我们将所有模型导出到ONNX FP32 以进行CPU 速度测试,并导出到TensorRT FP16 以进行GPU 速度测试。我们在Google Colab Pro笔记本电脑上进行了所有速度测试,以方便重现。

  • 所有检查点均使用 SGD 优化器进行了 300 次历时训练,lr0=0.01,weight_decay=5e-5,图像大小为 640,所有设置均为默认。所有运行都记录在此
  • 准确度值为 COCO 数据集上的单模型单尺度准确度。复制方法:python segment/val.py --data coco.yaml --weights yolov5s-seg.pt
  • 使用 Colab Pro A100 High-RAM 实例对 100 个推理图像的平均速度。数值仅表示推理速度(NMS 为每个图像增加约 1 毫秒)。复制方法:python segment/val.py --data coco.yaml --weights yolov5s-seg.pt --batch 1
  • 使用 export.py 在 FP32 上导出到ONNX ,在 FP16 上导出到TensorRT 。复制方法:python export.py --weights yolov5s-seg.pt --include engine --device 0 --half

新分类使用示例

火车

YOLOv5 分段训练支持使用 --data coco128-seg.yaml 参数自动下载 COCO128-seg 分段数据集,以及使用bash data/scripts/get_coco.sh --train --val --segments 手动下载 COCO-segments 数据集,然后使用python train.py --data coco.yaml。

单人GPU

python segment/train.py --model yolov5s-seg.pt --data coco128-seg.yaml --epochs 5 --img 640

多个GPU DDP

python torch.distributed.run --nproc_per_node 4 --master_port 1 segment/train.py --model yolov5s-seg.pt --data coco128-seg.yaml --epochs 5 --img 640 --device 0,1,2,3

瓦尔

在 ImageNet-1k 数据集上验证 YOLOv5m-seg 的准确性:

bash data/scripts/get_coco.sh --val --segments # 下载 COCO val 分割片段(780MB,5000 幅图像)python segment/val.py --weights yolov5s-seg.pt --data coco.yaml --img 640 # 验证

预测

使用预训练的 YOLOv5m-seg 预测 bus.jpg:

python segment/predict.py --weights yolov5m-seg.pt --data data/images/bus.jpg

model =torch.hub.load('ultralytics/yolov5', 'custom', 'yolov5m-seg.pt') # 从PyTorch Hub 加载(警告:尚不支持推理)。

Ultralytics YOLOv5 v7.0 实例分割


出口

将 YOLOv5s-seg 模型导出到ONNX 和TensorRT :

python export.py --weights yolov5s-seg.pt --includeonnx engine --img 640 --device 0

Ultralytics YOLOv5 v7.0 实例分割

有任何问题?在Ultralytics 论坛提问,提出问题,或在软件仓库中提交 PR。您还可以从我们的YOLOv5 segmentation Colab notebook快速入门教程开始学习。

Facebook 徽标Twitter 徽标LinkedIn 徽标复制链接符号

在此类别中阅读更多内容

让我们共同打造人工智能的未来

开始您的未来机器学习之旅