Descobre o YOLOv5 v7.0 com novos modelos de segmentação de instâncias, superando os benchmarks SOTA para uma precisão e velocidade de IA de topo. Junta-te à nossa comunidade.
YOLOv5 Av7.0, a versão mais recente da nossa arquitetura de IA, foi lançada e estamos entusiasmados por apresentar os nossos novos modelos de segmentação de instâncias!
Enquanto trabalhávamos nesta última versão, mantivemos dois objectivos em primeiro plano. O primeiro era a nossa missão de tornar a IA fácil, e o segundo era o nosso objetivo de redefinir o verdadeiro significado de "topo de gama".
Por isso, com melhorias significativas, correcções e actualizações, fizemos exatamente isso. Mantendo os mesmos fluxos de trabalho simples dos nossos modelos de deteção de objectos existentes em YOLOv5 , agora é mais fácil do que nunca treinar, validar e implementar os teus modelos com YOLOv5 v7.0. Além disso, superamos todos os benchmarks SOTA, tornando o YOLOv5 o mais rápido e preciso do mundo.
Como este é o nosso primeiro lançamento de modelos de segmentação, estamos imensamente orgulhosos deste marco. Devemos muitos agradecimentos à nossa comunidade dedicada e aos nossos colaboradores, que ajudaram a tornar este lançamento possível.
Por isso, começa a ler as notas de lançamento de YOLOv5 v7.0!
Eis o que foi atualizado em YOLOv5 desde o nosso último lançamento de YOLOv5 v6 .2 em agosto de 2022.
Treinámos os modelos de segmentação YOLOv5 no COCO durante 300 épocas com o tamanho de imagem 640 utilizando GPUs A100. Exportámos todos os modelos para ONNX FP32 para testes de velocidade em CPU e para TensorRT FP16 para testes de velocidade em GPU . Executámos todos os testes de velocidade em computadores portáteis Google Colab Pro para facilitar a reprodução.
YOLOv5 O treino de segmentação suporta o descarregamento automático do conjunto de dados de segmentação COCO128-seg com o argumento --data coco128-seg.yaml e o descarregamento manual do conjunto de dados COCO-segments com bash data/scripts/get_coco.sh --train --val --segments e depois python train.py --data coco.yaml.
python segment/train.py --model yolov5s-seg.pt --data coco128-seg.yaml --epochs 5 --img 640
python -m torch.distributed.run --nproc_per_node 4 --master_port 1 segment/train.py --model yolov5s-seg.pt --data coco128-seg.yaml --epochs 5 --img 640 --device 0,1,2,3
Valida a precisão do YOLOv5m-seg no conjunto de dados ImageNet-1k:
bash data/scripts/get_coco.sh --val --segments # descarrega COCO val segments split (780MB, 5000 imagens) python segment/val.py --weights yolov5s-seg.pt --data coco.yaml --img 640 # valida
Utiliza o YOLOv5m-seg pré-treinado para prever bus.jpg:
python segment/predict.py --weights yolov5m-seg.pt --data data/images/bus.jpg
model = torch.hub.load('ultralytics/yolov5', 'custom', 'yolov5m-seg.pt') # carrega a partir de PyTorch Hub (AVISO: inferência ainda não suportada)
Exporta o modelo YOLOv5s-seg para ONNX e TensorRT:
python export.py --weights yolov5s-seg.pt --include onnx engine --img 640 --device 0
Tens alguma dúvida? Pergunta no fórumUltralytics , levanta um problema ou envia um PR no repositório. Também podes começar com o nosso bloco de notas Colab de segmentaçãoYOLOv5 para tutoriais de início rápido.
Começa a tua viagem com o futuro da aprendizagem automática