Glosario

Área bajo la curva (AUC)

Aprende la importancia del Área Bajo la Curva (AUC) en la evaluación de modelos ML. Descubre sus ventajas, las perspectivas de la curva ROC y sus aplicaciones en el mundo real.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

El Área Bajo la Curva (AUC) es una métrica de rendimiento fundamental que se utiliza principalmente en el aprendizaje automático (AM) para evaluar modelos de clasificación binaria. Cuantifica la capacidad de un modelo para distinguir entre clases positivas y negativas en todos los umbrales de clasificación posibles. Las puntuaciones AUC van de 0 a 1, y los valores más altos indican un mejor rendimiento del modelo. Un modelo con una puntuación de 0,5 no obtiene mejores resultados que el azar, mientras que un modelo perfecto que separa las clases de forma impecable alcanza un AUC de 1,0. Esta métrica proporciona una medida única y agregada del rendimiento de la clasificación, independiente de cualquier elección específica de umbral.

Comprender la curva ROC

El valor AUC se obtiene directamente de la curva Receiver Operating Characteristic (ROC). La curva ROC es un gráfico que ilustra la capacidad de diagnóstico de un clasificador binario a medida que varía su umbral de discriminación. Traza la Tasa de Verdaderos Positivos (TPR), también conocida como sensibilidad o Recall, en el eje y frente a la Tasa de Falsos Positivos (FPR) en el eje x en varios ajustes de umbral. El AUC representa toda el área bidimensional bajo esta curva ROC. Puedes encontrar una visión general de las curvas ROC en Wikipedia.

Interpretación del AUC

El AUC se interpreta como la probabilidad de que un modelo clasifique una instancia positiva elegida al azar más alto que una instancia negativa elegida al azar. Esto lo convierte en una medida del poder discriminatorio global del modelo. Una de las principales ventajas del AUC es su relativa insensibilidad al desequilibrio de clases, en comparación con métricas como la Precisión. En los conjuntos de datos en los que una clase supera ampliamente a la otra (un escenario común en los problemas del mundo real), la precisión puede ser engañosa, mientras que el AUC proporciona una medida más sólida de lo bien que el modelo separa las clases. Un AUC cercano a 1 indica un modelo con una excelente capacidad de separación, mientras que un AUC cercano a 0,5 sugiere una capacidad de discriminación deficiente, similar a la adivinación aleatoria. Comprender estas interpretaciones es crucial para una evaluación eficaz del modelo.

Aplicaciones en IA y ML

El AUC se emplea ampliamente en varios dominios en los que las tareas de clasificación binaria son críticas. He aquí dos ejemplos:

  1. Diagnóstico médico: En el análisis de imágenes médicas, a menudo se entrenan modelos para detectar la presencia o ausencia de enfermedades (por ejemplo, tumores, retinopatía diabética). El AUC se utiliza para evaluar lo bien que estos modelos de IA en sanidad pueden distinguir entre pacientes sanos y enfermos basándose en imágenes, a través de diferentes umbrales de diagnóstico. La importancia del AUC en la investigación médica está bien documentada.
  2. Detección de fraudes: Las instituciones financieras utilizan modelos ML para identificar transacciones fraudulentas. Se trata de un problema clásico de clasificación binaria (fraudulento frente a no fraudulento). El AUC ayuda a evaluar la eficacia general del modelo a la hora de señalar actividades potencialmente fraudulentas, minimizando al mismo tiempo las falsas alarmas, lo que es vital para la IA en las finanzas.

Muchos marcos y bibliotecas de aprendizaje profundo (AD), como PyTorch y TensorFlowse utilizan para construir estos clasificadores. Herramientas como Scikit-learn ofrecen cómodas funciones para calcular las puntuaciones ROC AUC, simplificando el proceso de evaluación. Plataformas como Ultralytics HUB también facilitan el entrenamiento y la evaluación de modelos en los que tales métricas son relevantes.

AUC frente a otras métricas

Aunque el AUC es una métrica valiosa, es importante entender en qué se diferencia de otras medidas de evaluación utilizadas en visión por ordenador (VC ) y ML:

  • AUC vs. Precisión: La exactitud mide la corrección general de las predicciones, pero puede ser engañosa en conjuntos de datos desequilibrados. El AUC proporciona una medida de separabilidad independiente del umbral, por lo que es más fiable en esos casos.
  • AUC frente a Precisión-Recuperación: Para los conjuntos de datos desequilibrados en los que la clase positiva es rara y de interés primordial (por ejemplo, detectar enfermedades raras), la curva Precisión-Recuperación y su área correspondiente (AUC-PR) pueden ser más informativas que la AUC ROC. Métricas como la Precisión y el Recall se centran específicamente en el rendimiento relativo a la clase positiva. La puntuación F1 también equilibra la precisión y la recuperación.
  • AUC frente a mAP/IoU: El AUC se utiliza principalmente para tareas de clasificación binaria. Para tareas de detección de objetos comunes con modelos como Ultralytics YOLOel estándar son métricas como la Precisión Media (mAP) y la Intersección sobre Unión (IoU). Estas métricas evalúan tanto la precisión de la clasificación como la precisión de la localización de los objetos detectados mediante cuadros delimitadores. Puedes obtener más información sobre las métricas de rendimientoYOLO aquí. Comparar diferentes modelos a menudo implica analizar estas métricas específicas, como se ve en las comparaciones de modelosUltralytics .

Elegir la métrica adecuada depende del problema específico, de las características del conjunto de datos (como el equilibrio de clases) y de los objetivos del proyecto de IA. El AUC sigue siendo una piedra angular para evaluar el rendimiento de la clasificación binaria debido a su solidez e interpretabilidad.

Leer todo