Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Precisão média médiamAP)

Saiba como a Precisão Média (mAP) avalia modelos de visão computacional. Explore IoU, precisão e recall, e calcule mAP Ultralytics hoje mesmo.

A precisão média (mAP) é uma métrica abrangente amplamente utilizada para avaliar o desempenho de modelos de visão computacional, especificamente em tarefas como deteção de objetos e segmentação de instâncias. Ao contrário da precisão simples, que apenas verifica se uma imagem está classificada corretamente, mAP a eficácia com que um modelo encontra objetos e a precisão com que posiciona a caixa delimitadora em torno deles. Isso torna-a a principal referência para comparar arquiteturas de última geração, como YOLO26, com gerações anteriores. Ao resumir o equilíbrio entre precisão e recuperação em todas as classes, mAP uma pontuação única que reflete a robustez de um modelo em cenários do mundo real.

Os componentes do mAP

Para calcular mAP, é necessário primeiro compreender três conceitos subjacentes que definem a qualidade da deteção:

  • Intersecção sobre União (IoU): mede a sobreposição espacial entre a caixa prevista e a anotação da verdade fundamental. É uma razão que varia de 0 a 1. Uma previsão é frequentemente considerada um «Verdadeiro Positivo» apenas se a IoU um limite específico, como 0,5 ou 0,75.
  • Precisão: esta métrica responde à pergunta: «De todos os objetos que o modelo alegou ter detect, que fração estava realmente correta?» Alta precisão significa que o modelo produz muito poucos falsos positivos.
  • Recall: esta métrica pergunta: «De todos os objetos que realmente existem na imagem, que fração o modelo encontrou?» Um recall elevado indica que o modelo evita falsos negativos e raramente perde um objeto.

Metodologia de cálculo

O cálculo começa pela determinação da Precisão Média (AP) para cada classe específica (por exemplo, «pessoa», "carro", "cão"). Isso é feito encontrando a área sob a Curva de Precisão-Recall, que traça a precisão em relação ao recall em vários limiares de confiança. A "Média" na Precisão Média simplesmente se refere à média dessas AP em todas as categorias nos dados de treinamento.

Os padrões de referência de pesquisa, como o COCO , frequentemente relatam duas variações principais:

  1. mAP: Considera uma deteção correta se o IoU pelo menos 0,50. É uma métrica tolerante.
  2. mAP: Esta é a média do mAP em IoU de 0,50 a 0,95 em incrementos de 0,05. Esta métrica rigorosa recompensa modelos que alcançam alta precisão de localização.

mAP . Métricas relacionadas

É importante distinguir mAP Precisão. A precisão é adequada para a classificação de imagens em que o resultado é um único rótulo para toda a imagem, mas falha na deteção de objetos porque não leva em consideração a posição espacial do objeto ou a classe de fundo. Da mesma forma, enquanto o F1-Score fornece uma média harmónica de precisão e recuperação em um único limiar de confiança, mAP o desempenho em todos os níveis de confiança, oferecendo uma visão mais holística da estabilidade do modelo.

Aplicações no Mundo Real

mAP elevadas são fundamentais em ambientes onde a segurança e a eficiência são primordiais.

  • Veículos autónomos: Na tecnologia de condução autónoma, a segurança depende da deteção de peões e sinais de trânsito com alta recuperação (sem perder nada) e alta precisão (evitando travagens fantasmas). mAP o sistema de perceção equilibra essas necessidades de forma eficaz.
  • Análise de imagens médicas: Ao identificar tumores ou fraturas em raios-X, os radiologistas contam com a IA na área da saúde para sinalizar possíveis problemas. Uma mAP elevada indica que o modelo destaca anomalias de forma fiável, sem sobrecarregar o médico com falsos alarmes, facilitando um diagnóstico preciso.

Medindo mAP Ultralytics

As estruturas modernas simplificam o cálculo dessas métricas durante o validação fase. O exemplo seguinte demonstra como carregar um modelo e calcular mAP o ultralytics Pacote Python .

from ultralytics import YOLO

# Load the YOLO26 model (recommended for new projects)
model = YOLO("yolo26n.pt")

# Validate the model on a dataset to compute mAP
# This runs inference and compares predictions to ground truth
metrics = model.val(data="coco8.yaml")

# Print mAP@50-95 (map) and mAP@50 (map50)
print(f"mAP@50-95: {metrics.box.map:.3f}")
print(f"mAP@50: {metrics.box.map50:.3f}")

mAP fundamental compreender e otimizar o mAP antes da implantação do modelo. Para agilizar esse processo, a Ultralytics oferece rastreamento automatizado de mAP, curvas de perda e outros KPIs durante o treinamento, permitindo que os desenvolvedores visualizem o progresso e selecionem o melhor ponto de verificação do modelo para produção.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora