Découvre YOLOv5 v7.0 avec de nouveaux modèles de segmentation d'instances, surpassant les benchmarks SOTA pour une précision et une vitesse d'IA de haut niveau. Rejoins notre communauté.
YOLOv5 Lav7.0, la dernière version de notre architecture d'IA, est sortie, et nous sommes ravis de vous présenter nos nouveaux modèles de segmentation des instances !
En travaillant sur cette dernière version, nous avons gardé deux objectifs en tête. Le premier était notre mission de rendre l'IA facile, et le second était notre objectif de redéfinir ce que signifie vraiment "l'état de l'art".
C'est ce que nous avons fait en apportant des améliorations, des corrections et des mises à niveau significatives. En conservant les mêmes flux de travail simples que nos modèles de détection d'objets existants sur YOLOv5 , il est maintenant plus facile que jamais d'entraîner, de valider et de déployer vos modèles avec YOLOv5 v7.0. De plus, nous avons dépassé toutes les références SOTA, ce qui fait de YOLOv5 le modèle le plus rapide et le plus précis au monde.
Comme il s'agit de notre première version de modèles de segmentation, nous sommes immensément fiers de cette étape. Nous devons de nombreux remerciements à notre communauté dévouée et à nos contributeurs, qui nous ont aidés à rendre cette version possible.
Commençons donc par les notes de mise à jour de YOLOv5 v7.0 !
Voici ce qui a été mis à jour dans YOLOv5 depuis notre dernière version de YOLOv5 v6 .2 en août 2022.
Nous avons entraîné YOLOv5 modèles de segmentation sur COCO pendant 300 époques à la taille d'image 640 en utilisant les GPU A100. Nous avons exporté tous les modèles vers ONNX FP32 pour les tests de vitesse de CPU et vers TensorRT FP16 pour les tests de vitesse de GPU . Nous avons effectué tous les tests de vitesse sur les ordinateurs portables Google Colab Pro pour faciliter la reproductibilité.
YOLOv5 La formation à la segmentation prend en charge le téléchargement automatique de l'ensemble de données de segmentation COCO128-seg avec l'argument --data coco128-seg.yaml et le téléchargement manuel de l'ensemble de données COCO-segments avec bash data/scripts/get_coco.sh --train --val --segments et ensuite python train.py --data coco.yaml.
python segment/train.py --model yolov5s-seg.pt --data coco128-seg.yaml --epochs 5 --img 640
python -m torch.distributed.run --nproc_per_node 4 --master_port 1 segment/train.py --model yolov5s-seg.pt --data coco128-seg.yaml --epochs 5 --img 640 --device 0,1,2,3
Valider la précision de YOLOv5m-seg sur l'ensemble de données ImageNet-1k :
bash data/scripts/get_coco.sh --val --segments # download COCO val segments split (780MB, 5000 images) python segment/val.py --weights yolov5s-seg.pt --data coco.yaml --img 640 # validate
Utilise YOLOv5m-seg pour prédire bus.jpg :
python segment/predict.py --weights yolov5m-seg.pt --data data/images/bus.jpg
model = torch.hub.load('ultralytics/yolov5', 'custom', 'yolov5m-seg.pt') # load from PyTorch Hub (WARNING : inference not yet supported)
Exporte le modèle YOLOv5s-seg vers ONNX et TensorRT:
python export.py --weights yolov5s-seg.pt --include onnx engine --img 640 --device 0
Tu as des questions ? Pose-les sur le forumUltralytics , soulève un problème ou soumets un PR sur le repo. Tu peux aussi commencer avec notre carnet de notesYOLOv5 segmentation Colab pour des tutoriels de démarrage rapide.
Commence ton voyage avec le futur de l'apprentissage automatique.