Открой для себя YOLOv5 v7.0 с новыми моделями сегментации экземпляров, превосходящими эталоны SOTA по точности и скорости работы ИИ. Присоединяйся к нашему сообществу.
YOLOv5 Вышлаv7.0, последняя версия нашей архитектуры искусственного интеллекта, и мы с радостью представляем тебе наши новые модели сегментации экземпляров!
Работая над этой последней версией, мы ставили перед собой две цели. Первая заключалась в том, чтобы сделать ИИ простым, а вторая - в том, чтобы переосмыслить, что же на самом деле означает слово "современный".
Так что, внеся значительные улучшения, исправления и обновления, мы сделали именно это. Сохранив те же простые рабочие процессы, что и в наших существующих моделях обнаружения объектов YOLOv5 , теперь обучать, проверять и внедрять свои модели с помощью YOLOv5 v7.0 проще, чем когда-либо. Кроме того, мы превзошли все контрольные показатели SOTA, сделав YOLOv5 самой быстрой и точной в мире.
Поскольку это наш первый релиз моделей сегментации, мы безмерно гордимся этой вехой. Мы обязаны выразить огромную благодарность нашему преданному сообществу и контрибьюторам, которые помогли сделать этот релиз возможным.
Итак, давай начнем знакомиться с заметками о релизе YOLOv5 v7.0!
Вот что было обновлено в YOLOv5 с момента нашего последнего выпуска YOLOv5 v6 .2 в августе 2022 года.
Мы обучили YOLOv5 модели сегментации на COCO в течение 300 эпох при размере изображения 640, используя графические процессоры A100. Мы экспортировали все модели в ONNX FP32 для тестов скорости CPU и в TensorRT FP16 для тестов скорости GPU . Все тесты на скорость мы проводили на ноутбуках Google Colab Pro для удобства воспроизведения.
YOLOv5 Обучение сегментации поддерживает автозагрузку набора данных сегментации COCO128-seg с аргументом --data coco128-seg.yaml и ручную загрузку набора данных COCO-segments с помощью bash data/scripts/get_coco.sh --train --val --segments и затем python train.py --data coco.yaml.
python segment/train.py --model yolov5s-seg.pt --data coco128-seg.yaml --epochs 5 --img 640
python -m torch.distributed.run --nproc_per_node 4 --master_port 1 segment/train.py --model yolov5s-seg.pt --data coco128-seg.yaml --epochs 5 --img 640 --device 0,1,2,3
Проверь точность YOLOv5m-seg на наборе данных ImageNet-1k:
bash data/scripts/get_coco.sh --val --segments # скачать сплит сегментов COCO val (780 МБ, 5000 изображений) python segment/val.py --weights yolov5s-seg.pt --data coco.yaml --img 640 # валидация
Используй предварительно обученный YOLOv5m-seg для предсказания bus.jpg:
python segment/predict.py --weights yolov5m-seg.pt --data data data/images/bus.jpg
model = torch.hub.load('ultralytics/yolov5', 'custom', 'yolov5m-seg.pt') # load from PyTorch Hub (WARNING: inference not yet supported)
Экспортируй модель YOLOv5s-seg на ONNX и TensorRT:
python export.py --weights yolov5s-seg.pt --include onnx engine --img 640 --device 0
Есть вопросы? Спроси на форумеUltralytics , подними вопрос или отправь PR на репо. Ты также можешь начать работу с нашего колабораторного блокнотаYOLOv5 по сегментации, где собраны обучающие материалы для быстрого старта.
Начни свое путешествие с будущим машинного обучения