Découvrez l'importance de la mémorisation dans l'apprentissage automatique. Apprenez à mesurer et à améliorer la sensibilité des modèles Ultralytics afin de garantir des taux de détection élevés.
Le rappel, également appelé sensibilité ou taux de vrais positifs, est un indicateur de performance fondamental dans l'apprentissage automatique qui mesure la capacité d'un modèle à identifier toutes les instances pertinentes dans un ensemble de données. Dans le contexte de la détection ou de la classification d'objets, il répond spécifiquement à la question suivante : « Parmi tous les cas positifs réels, combien le modèle a-t-il correctement trouvés ? » Il est essentiel d'obtenir un rappel élevé dans les scénarios où le fait de manquer une instance positive, souvent appelée faux négatif, a des conséquences importantes. Contrairement à la précision, qui peut être trompeuse lorsqu'il s'agit de données déséquilibrées, le rappel offre une vision ciblée de l'efficacité du modèle à « capturer » la classe cible .
Dans de nombreuses applications d'intelligence artificielle, le coût lié à detect objet est bien plus élevé que celui d'une fausse alerte. Un modèle optimisé pour le rappel minimise les faux négatifs, garantissant que le système couvre un champ suffisamment large pour détecter les menaces potentielles, les anomalies ou les conditions critiques. Cela implique souvent un compromis, car l'augmentation du rappel peut parfois entraîner une baisse du score de précision, ce qui signifie que le modèle pourrait signaler davantage d' éléments non pertinents comme positifs. Comprendre cet équilibre est essentiel pour développer des solutions robustes d' apprentissage automatique.
Le rappel est l'indicateur clé qui sous-tend de nombreuses solutions d'IA critiques pour la sécurité . Voici deux exemples marquants où la sensibilité prime :
Il est essentiel de distinguer le rappel de son pendant, la précision. Alors que le rappel mesure la quantité de cas pertinents trouvés (exhaustivité), la précision mesure la qualité des prédictions positives (exactitude).
Ces deux mesures ont souvent une relation inverse, illustrée par une courbe précision-rappel. Pour évaluer l'équilibre global entre elles, les développeurs se basent souvent sur le score F1, qui est la moyenne harmonique des deux. Dans les ensembles de données déséquilibrés, l'examen du rappel parallèlement à la matrice de confusion donne une image beaucoup plus claire des performances que la précision seule.
Lors de l'entraînement de modèles tels que le modèle de pointe YOLO26, le rappel est automatiquement calculé pendant la phase de validation. Le framework calcule le rappel pour chaque classe et la précision moyenne (mAP), aidant ainsi les développeurs à évaluer la capacité du modèle à trouver des objets.
Vous pouvez facilement valider un modèle entraîné et afficher ses mesures de rappel à l'aide de Python. Cet extrait de code montre comment charger un modèle et vérifier ses performances sur un ensemble de données standard :
from ultralytics import YOLO
# Load a pretrained YOLO26 model
model = YOLO("yolo26n.pt")
# Validate the model on the COCO8 dataset
# The results object contains metrics like Precision, Recall, and mAP
metrics = model.val(data="coco8.yaml")
# Access and print the mean recall score for box detection
print(f"Mean Recall: {metrics.results_dict['metrics/recall(B)']:.4f}")
Ce code utilise Ultralytics pour effectuer la validation. Si le rappel est inférieur à celui requis pour votre projet, vous pouvez envisager des techniques telles que l' augmentation des données pour créer des exemples d'entraînement plus variés ou le réglage des hyperparamètres pour ajuster la sensibilité du modèle. L'utilisation de Ultralytics peut également rationaliser le processus de gestion des ensembles de données et de suivi de ces métriques sur plusieurs cycles d'entraînement.
Pour améliorer le rappel d'un modèle, les scientifiques des données ajustent souvent le seuil de confiance utilisé lors de l' inférence. L'abaissement du seuil rend le modèle plus « optimiste », acceptant davantage de prédictions comme positives, ce qui augmente le rappel mais peut diminuer la précision. De plus, la collecte de données d'entraînement plus diversifiées aide le modèle à apprendre à reconnaître les négatifs difficiles et les instances obscures. Pour les tâches complexes, l'utilisation d'architectures avancées telles que les blocs Transformer ou l'exploration de méthodes d'ensemble peut également améliorer la capacité du système à detect des caractéristiques detect que des modèles plus simples pourraient manquer.