Glossaire

Données de test

Découvre l'importance des données de test dans l'IA, leur rôle dans l'évaluation des performances des modèles, la détection du surajustement et la garantie de la fiabilité dans le monde réel.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Les données de test sont un élément crucial du cycle de développement de l'apprentissage automatique (Machine Learning, ML). Elles désignent un ensemble de données indépendant, distinct des ensembles de formation et de validation, utilisé exclusivement pour l'évaluation finale des performances d'un modèle une fois les phases de formation et de réglage terminées. Cet ensemble de données contient des points de données que le modèle n'a jamais rencontrés auparavant, fournissant une évaluation impartiale de la façon dont le modèle est susceptible de fonctionner sur de nouvelles données du monde réel. L'objectif principal de l'utilisation des données de test est d'estimer la capacité de généralisation du modèle, c'est-à-dire sa capacité à fonctionner avec précision sur des données inédites.

Importance des données de test

La véritable mesure du succès d'un modèle ML réside dans sa capacité à traiter des données sur lesquelles il n'a pas été explicitement formé. Les données de test servent de point de contrôle final, offrant une évaluation objective des performances du modèle. Sans un ensemble de test dédié, le risque d'overfitting est élevé : un modèle apprend trop bien les données d'entraînement, y compris son bruit et ses modèles spécifiques, mais ne parvient pas à se généraliser à de nouvelles données. L'utilisation de données de test permet de s'assurer que les mesures de performance rapportées reflètent les capacités attendues du modèle dans le monde réel, ce qui renforce la confiance avant le déploiement du modèle. Cette dernière étape d'évaluation est essentielle pour comparer de manière fiable différents modèles ou approches, comme par exemple YOLOv8 par rapport à YOLOv9. Elle s'aligne sur les meilleures pratiques telles que celles décrites dans les ML Rules deGoogle.

Caractéristiques principales

Pour être efficaces, les données de test doivent posséder certaines caractéristiques :

  • Représentativité : Il doit refléter avec précision les caractéristiques des données du monde réel que le modèle rencontrera après son déploiement. Cela inclut des distributions similaires de caractéristiques, de classes et de variations potentielles. De bonnes pratiques de collecte et d'annotation des données sont essentielles.
  • Indépendance : Les données de test doivent être strictement séparées des ensembles de formation et de validation. Elles ne doivent jamais être utilisées pour entraîner le modèle ou régler ses hyperparamètres. Tout chevauchement ou fuite peut conduire à des estimations de performances trop optimistes.
  • Taille suffisante : L'ensemble de test doit être suffisamment grand pour fournir des résultats statistiquement significatifs et estimer de façon fiable les performances du modèle.

Données de test vs. données de formation et de validation

Il est essentiel de distinguer les données de test des autres fractionnements de données utilisés en ML :

  • Données de formation: Il s'agit de la plus grande partie de l'ensemble de données, utilisée directement pour former le modèle. Le modèle apprend des modèles et des relations à partir de ces données grâce à des algorithmes tels que l'apprentissage supervisé.
  • Données de validation: Cet ensemble de données distinct est utilisé pendant la phase de formation pour régler les hyperparamètres du modèle (comme les choix d'architecture ou les paramètres d'optimisation) et prendre des décisions sur le processus de formation (par exemple, l'arrêt précoce). Il fournit un retour d'information sur le degré de généralisation du modèle pendant la formation, en guidant l'évaluation du modèle et le processus de réglage fin sans utiliser l'ensemble de test final.
  • Données de test : Utilisées une seule fois après que toute la formation et la validation sont terminées pour fournir une évaluation finale et impartiale de la performance du modèle sur des données non vues.

Séparer correctement ces ensembles de données à l'aide de stratégies telles que le fractionnement minutieux des données est crucial pour développer des modèles fiables et évaluer avec précision leurs capacités dans le monde réel.

Exemples concrets

  1. La conduite autonome : Une Ultralytics YOLO modèle formé pour la détection d'objets dans les voitures autonomes serait évalué sur un ensemble de tests contenant divers scénarios de conduite inédits (par exemple, conduite de nuit, forte pluie, intersections inconnues). Cela permet de s'assurer que le modèle détecte de manière fiable les piétons, les cyclistes et les autres véhicules(la technologie de Waymo s'appuie fortement sur ce type de tests) avant d'être déployé dans de véritables véhicules.
  2. Diagnostic médical : Dans l'analyse d'images médicales, un modèle entraîné à détecter des tumeurs à l'aide de données telles que le Brain Tumor Detection Dataset doit être évalué sur un ensemble de tests de scans provenant de différents hôpitaux, machines et populations de patients qui n'ont pas fait partie de la formation ou de la validation. Cela permet de confirmer la précision du diagnostic et la robustesse du modèle dans des contextes cliniques réels.

Évaluation et gestion

Les performances sur l'ensemble de test sont généralement mesurées à l'aide de paramètres pertinents pour la tâche, tels que l'exactitude, la précision moyenne (mAP) ou d'autres paramètres détaillés dans des guides tels que la documentation sur les paramètres de performance deYOLO . Souvent, les modèles sont évalués par rapport à des ensembles de données de référence établis tels que COCO afin de garantir des comparaisons équitables et de promouvoir la reproductibilité. La gestion de ces ensembles de données distincts tout au long du cycle de vie du projet est facilitée par des plateformes comme Ultralytics HUB, qui permet d'organiser le fractionnement des données et de suivre les expériences de manière efficace.

Tout lire