探索YOLOv5 v7.0,了解全新实例分割模型,超越 SOTA 基准的顶级人工智能准确性和速度。加入我们的社区。
YOLOv5 我们的人工智能架构的最新版本v7.0 已经发布,我们非常高兴地介绍我们的新实例分割模型!
在最新版本的开发过程中,我们始终将两个目标放在首位。第一个目标是让人工智能变得简单,第二个目标是重新定义 "最先进 "的真正含义。
因此,通过重大改进、修复和升级,我们做到了这一点。YOLOv5 v7.0 与我们现有的YOLOv5 物体检测模型保持相同的简单工作流程,现在比以往任何时候都更容易训练、验证和部署您的模型。此外,我们还超越了所有SOTA 基准,从而使YOLOv5 成为世界上速度最快、精度最高的产品。
由于这是我们首次发布分割模型,我们对这一里程碑感到无比自豪。我们非常感谢我们的热心社区和贡献者,是他们帮助我们发布了这一版本。
那么,让我们从YOLOv5 v7.0发布说明开始吧!
以下是YOLOv5 自 2022 年 8 月发布YOLOv5 v6 .2以来的更新内容。
我们使用 A100 GPU 在 COCO 上对YOLOv5 分割模型进行了 300 次训练,图像大小为 640。我们将所有模型导出到ONNX FP32 以进行CPU 速度测试,并导出到TensorRT FP16 以进行GPU 速度测试。我们在Google Colab Pro笔记本电脑上进行了所有速度测试,以方便重现。
YOLOv5 分段训练支持使用 --data coco128-seg.yaml 参数自动下载 COCO128-seg 分段数据集,以及使用bash data/scripts/get_coco.sh --train --val --segments 手动下载 COCO-segments 数据集,然后使用python train.py --data coco.yaml。
python segment/train.py --model yolov5s-seg.pt --data coco128-seg.yaml --epochs 5 --img 640
python torch.distributed.run --nproc_per_node 4 --master_port 1 segment/train.py --model yolov5s-seg.pt --data coco128-seg.yaml --epochs 5 --img 640 --device 0,1,2,3
在 ImageNet-1k 数据集上验证 YOLOv5m-seg 的准确性:
bash data/scripts/get_coco.sh --val --segments # 下载 COCO val 分割片段(780MB,5000 幅图像)python segment/val.py --weights yolov5s-seg.pt --data coco.yaml --img 640 # 验证
使用预训练的 YOLOv5m-seg 预测 bus.jpg:
python segment/predict.py --weights yolov5m-seg.pt --data data/images/bus.jpg
model =torch.hub.load('ultralytics/yolov5', 'custom', 'yolov5m-seg.pt') # 从PyTorch Hub 加载(警告:尚不支持推理)。
将 YOLOv5s-seg 模型导出到ONNX 和TensorRT :
python export.py --weights yolov5s-seg.pt --includeonnx engine --img 640 --device 0
有任何问题?在Ultralytics 论坛提问,提出问题,或在软件仓库中提交 PR。您还可以从我们的YOLOv5 segmentation Colab notebook快速入门教程开始学习。