Aprende qué es la Recuperación en el aprendizaje automático, por qué es importante y cómo garantiza que los modelos de IA capturen eficazmente las instancias positivas críticas.
La recuperación es una métrica de rendimiento crucial en el aprendizaje automático (AM) y la clasificación estadística, que mide la capacidad de un modelo para identificar todos los casos relevantes dentro de un conjunto de datos. En concreto, cuantifica la proporción de casos positivos reales que el modelo predijo correctamente como positivos. También conocido como sensibilidad o tasa de verdaderos positivos (TPR), el Recall es especialmente importante en escenarios en los que no detectar una instancia positiva (un Falso Negativo) conlleva consecuencias significativas. Ayuda a responder a la pregunta "De todas las instancias positivas reales, ¿cuántas identificó correctamente el modelo?". La evaluación de los modelos requiere conocer varias métricas, y Recall proporciona una perspectiva vital sobre la exhaustividad.
La recuperación se calcula dividiendo el número de Verdaderos Positivos (TP) por la suma de Verdaderos Positivos y Falsos Negativos (FN). Los Verdaderos Positivos son las instancias identificadas correctamente como positivas, mientras que los Falsos Negativos son las instancias positivas que el modelo clasificó incorrectamente como negativas. Una puntuación de Recall alta indica que el modelo es eficaz a la hora de encontrar la mayoría de las instancias positivas de los datos. Esta métrica es fundamental para evaluar el rendimiento del modelo, especialmente en tareas como la detección de objetos y la clasificación de imágenes. Herramientas y plataformas como Ultralytics HUB suelen mostrar Recall junto a otras métricas durante la evaluación de modelos.
Comprender el Recall a menudo implica compararlo con otras métricas de evaluación habituales:
Una alta recuperación es fundamental en aplicaciones en las que omitir casos positivos es costoso o peligroso. El objetivo es minimizar los Falsos Negativos.
En el contexto de la visión por ordenador (VC ) y de modelos como Ultralytics YOLOel Recall es una métrica clave que se utiliza junto con la Precisión y la Precisión Media (mAP) para evaluar el rendimiento en tareas como la detección de objetos y la segmentación de instancias. Conseguir un buen equilibrio entre Recall y Precision suele ser esencial para un rendimiento sólido en el mundo real. Por ejemplo, al comparar modelos como YOLOv8 frente a YOLO11, Recall ayuda a comprender lo bien que cada modelo identifica todos los objetos objetivo. Los usuarios pueden entrenar modelos personalizados utilizando marcos como PyTorch o TensorFlow y hacer un seguimiento de Recall con herramientas como Weights & Biases o las funciones integradas en Ultralytics HUB. Comprender la recuperación ayuda a optimizar los modelos para casos de uso específicos, lo que puede implicar el ajuste de hiperparámetros o la exploración de diferentes arquitecturas de modelos, como YOLOv10 o la más reciente YOLO11. Recursos como la documentación de Ultralytics ofrecen guías completas sobre formación y evaluación.