Descubre YOLOv5 v7.0 con nuevos modelos de segmentación de instancias, que superan las pruebas de referencia SOTA en cuanto a precisión y velocidad de la IA. Únete a nuestra comunidad.
YOLOv5 v7.0, la última versión de nuestra arquitectura de IA, ya está disponible, ¡y estamos encantados de presentar nuestros nuevos modelos de segmentación de instancias!
Mientras trabajábamos en esta última versión, hemos mantenido dos objetivos en primer plano. El primero era nuestra misión de hacer que la IA sea fácil, y el segundo era nuestro objetivo de redefinir lo que significa realmente "de vanguardia".
Así que, con importantes mejoras, correcciones y actualizaciones, lo hemos conseguido. Manteniendo los mismos flujos de trabajo sencillos que nuestros actuales modelos de detección de objetos YOLOv5 , ahora es más fácil que nunca entrenar, validar y desplegar tus modelos con YOLOv5 v7.0. Además, hemos superado todos los puntos de referencia de la SOTA, lo que convierte a YOLOv5 en el más rápido y preciso del mundo.
Como se trata de nuestra primera versión de modelos de segmentación, estamos inmensamente orgullosos de este hito. Debemos muchas gracias a nuestra dedicada comunidad y a nuestros colaboradores, que han contribuido a hacer posible esta versión.
Así que, ¡comencemos con las notas de la versión YOLOv5 v7.0!
Esto es lo que se ha actualizado en YOLOv5 desde nuestro último lanzamiento de YOLOv5 v6 .2 en agosto de 2022.
Entrenamos modelos de segmentación YOLOv5 en COCO durante 300 épocas con un tamaño de imagen de 640 utilizando GPUs A100. Exportamos todos los modelos a ONNX FP32 para las pruebas de velocidad de CPU y a TensorRT FP16 para las pruebas de velocidad de GPU . Ejecutamos todas las pruebas de velocidad en los portátiles Google Colab Pro para facilitar la reproducibilidad.
YOLOv5 El entrenamiento de segmentación admite la descarga automática del conjunto de datos de segmentación COCO128-seg con el argumento --data coco128-seg.yaml y la descarga manual del conjunto de datos COCO-segments con bash data/scripts/get_coco.sh --train --val --segments y, a continuación, python train.py --data coco.yaml.
python segmento/entrenamiento.py --modelo yolov5s-seg.pt --datos coco128-seg.yaml --epocs 5 --img 640
python -m torch.distributed.run --nproc_per_node 4 --master_port 1 segment/train.py --model yolov5s-seg.pt --data coco128-seg.yaml --epochs 5 --img 640 --device 0,1,2,3
Validar la precisión de YOLOv5m-seg en el conjunto de datos ImageNet-1k:
bash data/scripts/get_coco.sh --val --segmentos # descargar segmentos val COCO divididos (780MB, 5000 imágenes) python segment/val.py --weights yolov5s-seg.pt --data coco.yaml --img 640 # validar
Utiliza YOLOv5m-seg preentrenado para predecir bus.jpg:
python segment/predict.py --weights yolov5m-seg.pt --data data/images/bus.jpg
model = torch.hub.load('ultralytics/yolov5', 'custom', 'yolov5m-seg.pt') # load from PyTorch Hub (ATENCIÓN: aún no se admite la inferencia)
Exporta el modelo YOLOv5s-seg a ONNX y TensorRT:
python export.py --weights yolov5s-seg.pt --include onnx engine --img 640 --device 0
¿Tienes alguna duda? Pregunta en el foroUltralytics , plantea un problema o envía un PR al repositorio. También puedes empezar con nuestro cuaderno Colab de segmentaciónYOLOv5 para obtener tutoriales de inicio rápido.
Comienza tu viaje con el futuro del aprendizaje automático