Glosario

Precisión media (mAP)

Descubre la importancia de la Precisión Media Promedio (mAP) en la evaluación de modelos de detección de objetos para aplicaciones de IA como la conducción autónoma y la asistencia sanitaria.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

La Precisión Media Promedio (mAP) es una métrica muy utilizada para evaluar el rendimiento de los modelos de detección de objetos, como los del popular Ultralytics YOLO de Ultralytics. Proporciona una puntuación única y completa que resume la capacidad de un modelo para identificar y localizar objetos correctamente en varias clases y niveles de confianza. A diferencia de otras métricas más sencillas, el mAP equilibra eficazmente la compensación entre encontrar todos los objetos relevantes(recall) y garantizar que los objetos encontrados son realmente correctos(precisión), lo que lo hace crucial para evaluar los modelos utilizados en aplicaciones complejas como los sistemas autónomos y los diagnósticos médicos. Comprender el mAP es esencial para cualquiera que participe en el desarrollo o despliegue de modelos de visión por ordenador (VC).

Comprender lo básico: Precisión y recuperación

Para entender el mAP, es esencial comprender primero la Precisión y el Recall. En el contexto de la detección de objetos

  • Precisión: Mide cuántos de los objetos identificados eran realmente correctos. Una precisión alta significa que el modelo hace pocas predicciones falsas positivas.
  • Recuerdo: Mide cuántos de los objetos reales presentes fueron identificados correctamente por el modelo. Una recuperación alta significa que el modelo encuentra la mayoría de los objetos relevantes (pocos falsos negativos).

Estas dos métricas suelen tener una relación inversa; mejorar una a veces puede disminuir la otra. mAP proporciona una forma de evaluar el modelo a través de diferentes puntos de esta compensación, ofreciendo una visión más equilibrada del rendimiento. Puedes obtener más información sobre los fundamentos de Precision y Recall en Wikipedia.

Cómo se calcula el mAP

El cálculo del mAP implica varios pasos, lo que proporciona una evaluación sólida del rendimiento de un modelo en diferentes clases de objetos y umbrales de detección:

  1. Clasificación por confianza: Para cada clase de objeto, las predicciones del modelo ( cuadros delimitadores detectados) se ordenan en función de sus puntuaciones de confianza, de mayor a menor.
  2. Curva Precisión-Recuperación: Se genera una curva Precisión-Recuperación para cada clase. Esta curva representa la precisión frente a los valores de recuperación calculados con distintos umbrales de confianza. A medida que disminuye el umbral, la recuperación suele aumentar (se detectan más objetos), mientras que la precisión puede disminuir (se incluyen más falsos positivos).
  3. Precisión media (PA): La Precisión media (PA) de una sola clase se calcula como el área bajo su curva Precisión-Recuperación. Esto proporciona un único número que resume el rendimiento del modelo para esa clase concreta en todos los niveles de recuperación. Existen distintos métodos para aproximar esta área.
  4. Precisión media media (mAP): Por último, la mAP se calcula promediando los valores AP de todas las clases de objetos del conjunto de datos. Así se obtiene una puntuación global del rendimiento del modelo en todo el conjunto de datos.

A menudo, el mAP se notifica en umbrales específicos de Intersección sobre Unión (IoU ). IoU mide el solapamiento entre el cuadro delimitador previsto y el cuadro delimitador real. Las variantes comunes de mAP son:

  • mAP@0.5 (o mAP50): Calculado utilizando un umbral de IoU fijo de 0,5. Se trata de una métrica estándar utilizada en pruebas comparativas como el reto PASCAL VOC. Una detección sólo se considera correcta si su IoU con la verdad sobre el terreno es de 0,5 o superior.
  • mAP@.5:.95 (o mAP[.5:.95]): Se calcula promediando el mAP en varios umbrales de IoU, normalmente de 0,5 a 0,95 con un paso de 0,05. Esta métrica, utilizada habitualmente en la evaluación del conjunto de datos COCO, proporciona una evaluación más exhaustiva al tener en cuenta el rendimiento con distintos requisitos de precisión de localización.

Para ver en detalle cómo se aplican estas métricas específicamente a los modelos YOLO , consulta la guía Métricas de rendimientoYOLO Ultralytics .

Por qué es importante el mAP

La Precisión Media Promedio es vital porque ofrece una visión holística del rendimiento de un modelo de detección de objetos. Tiene en cuenta simultáneamente la precisión de la clasificación (¿es correcta la clase de objeto?) y la precisión de la localización (¿se ha colocado correctamente el cuadro delimitador?) en todas las clases definidas en los datos de entrenamiento. Esto hace que sea más informativo que considerar la precisión o la recuperación de forma aislada, especialmente en conjuntos de datos con múltiples categorías de objetos o distribuciones de clases desequilibradas. Una puntuación mAP más alta suele indicar un modelo de detección de objetos más robusto y fiable. Técnicas como el aumento cuidadoso de los datos, el ajuste de hiperparámetros y la elección de una arquitectura de modelo adecuada (como YOLO11) son estrategias habituales para mejorar el mAP.

Aplicaciones en el mundo real

El mAP es fundamental a la hora de evaluar modelos para tareas del mundo real en las que la precisión y la fiabilidad son primordiales:

Otras aplicaciones son la vigilancia de la seguridad, la robótica(integración de la visión por ordenador en la robótica), la analítica del comercio minorista(IA para una gestión más inteligente del inventario minorista) y la agricultura.

mAP frente a otras métricas

Es importante distinguir el mAP de las métricas de evaluación relacionadas que se utilizan en el aprendizaje automático (AM):

  • Precisión: Utilizada principalmente en tareas de clasificación, la precisión mide la proporción global de predicciones correctas (tanto verdaderos positivos como verdaderos negativos) entre el número total de instancias. No evalúa directamente la calidad de la localización y puede ser engañosa en la detección de objetos, especialmente con conjuntos de datos desequilibrados en los que domina la clase de fondo.
  • Intersección sobre Unión (IOU): Mide el solapamiento espacial entre un cuadro delimitador previsto y un cuadro delimitador real. Mientras que el IoU evalúa la calidad de la localización para detecciones individuales, el mAP incorpora umbrales de IoU (como 0,5 o el intervalo 0,5:0,95) para determinar si una detección se considera un verdadero positivo, y luego agrega el rendimiento entre clases y niveles de confianza. El IoU en sí es un componente utilizado dentro del cálculo del mAP, no un sustituto del mismo.

Comprender estas diferencias es crucial para seleccionar la métrica adecuada en función de la tarea específica y los objetivos de la evaluación. Para más información, consulta la guía Evaluación y ajuste del modelo.

Herramientas y referencias

Herramientas como Ultralytics HUB permiten a los usuarios entrenar, seguir y evaluar modelos, destacando el mAP como indicador clave de rendimiento durante los procesos de entrenamiento y validación de modelos. Marcos de ML como PyTorch y TensorFlow proporcionan los componentes básicos para construir y entrenar estos modelos de detección de objetos. Los conjuntos de datos estandarizados como COCO y PASCAL VOC utilizan mAP como métrica principal para comparar modelos de detección de objetos en tablas de clasificación públicas y artículos de investigación, impulsando el progreso en este campo. Puedes explorar y comparar diversos rendimientos de modelos, a menudo medidos por mAP, en las páginas de Comparación de modelosUltralytics .

Leer todo