Explora la importancia de la recuperación en el aprendizaje automático. Aprende a medir y mejorar la sensibilidad de los modelos Ultralytics para garantizar altas tasas de detección.
La recuperación, también conocida como sensibilidad o tasa de verdaderos positivos, es una métrica de rendimiento fundamental en el aprendizaje automático que mide la capacidad de un modelo para identificar todas las instancias relevantes dentro de un conjunto de datos. En el contexto de la detección o clasificación de objetos, responde específicamente a la pregunta: «De todos los casos positivos reales, ¿cuántos encontró correctamente el modelo ?» Lograr un alto recuerdo es fundamental en escenarios en los que pasar por alto una instancia positiva, a menudo denominada falso negativo, tiene consecuencias significativas. A diferencia de la precisión, que puede ser engañosa cuando se trata de datos desequilibrados, el recuerdo ofrece una visión centrada en la eficacia del modelo para «capturar» la clase objetivo .
En muchas aplicaciones de inteligencia artificial, el coste de no detect objeto es mucho mayor que el coste de una falsa alarma. Un modelo optimizado para la recuperación minimiza los falsos negativos, lo que garantiza que el sistema lance una red lo suficientemente amplia como para detectar posibles amenazas, anomalías o condiciones críticas. Esto a menudo implica una compensación, ya que aumentar la recuperación a veces puede conducir a una menor puntuación de precisión, lo que significa que el modelo podría marcar más elementos no relevantes como positivos. Comprender este equilibrio es clave para desarrollar soluciones robustas de aprendizaje automático.
La recuperación es la métrica impulsora detrás de muchas soluciones de IA críticas para la seguridad . A continuación se presentan dos ejemplos destacados en los que la sensibilidad tiene prioridad:
Es esencial distinguir la recuperación de su contraparte, la precisión. Mientras que la recuperación mide la cantidad de casos relevantes encontrados (exhaustividad), la precisión mide la calidad de las predicciones positivas (exactitud).
Estas dos métricas suelen compartir una relación inversa, que se visualiza a través de una curva de precisión-recuerdo. Para evaluar el equilibrio general entre ellas, los desarrolladores suelen fijarse en la puntuación F1, que es la media armónica de ambas. En conjuntos de datos desequilibrados, observar el recuerdo junto con la matriz de confusión ofrece una imagen mucho más clara del rendimiento que la precisión por sí sola.
Al entrenar modelos como el innovador YOLO26, la recuperación se calcula automáticamente durante la fase de validación. El marco calcula la recuperación para cada clase y la precisión media (mAP), lo que ayuda a los desarrolladores a evaluar la capacidad del modelo para encontrar objetos.
Puede validar fácilmente un modelo entrenado y ver sus métricas de recuperación utilizando Python. Este fragmento de código muestra cómo cargar un modelo y comprobar su rendimiento en un conjunto de datos estándar:
from ultralytics import YOLO
# Load a pretrained YOLO26 model
model = YOLO("yolo26n.pt")
# Validate the model on the COCO8 dataset
# The results object contains metrics like Precision, Recall, and mAP
metrics = model.val(data="coco8.yaml")
# Access and print the mean recall score for box detection
print(f"Mean Recall: {metrics.results_dict['metrics/recall(B)']:.4f}")
Este código utiliza la Ultralytics para ejecutar la validación. Si la recuperación es inferior a la requerida para su proyecto, puede considerar técnicas como el aumento de datos para crear ejemplos de entrenamiento más variados o el ajuste de hiperparámetros para ajustar la sensibilidad del modelo. El uso de Ultralytics también puede agilizar el proceso de gestión de conjuntos de datos y el seguimiento de estas métricas en múltiples ejecuciones de entrenamiento.
Para aumentar la recuperación de un modelo, los científicos de datos suelen ajustar el umbral de confianza utilizado durante la inferencia. Al reducir el umbral, el modelo se vuelve más «optimista» y acepta más predicciones como positivas, lo que aumenta la recuperación, pero puede disminuir la precisión. Además, recopilar datos de entrenamiento más diversos ayuda al modelo a aprender a reconocer negativos difíciles e instancias oscuras. Para tareas complejas, el empleo de arquitecturas avanzadas como bloques Transformer o la exploración de métodos de conjunto también puede mejorar la capacidad del sistema para detect características detect que los modelos más simples podrían pasar por alto.