Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Validation croisée

Découvrez comment la validation croisée améliore la généralisation des modèles et empêche le surapprentissage. Découvrez comment mettre en œuvre l'évaluation K-Fold avec Ultralytics pour un ML robuste.

La validation croisée est une procédure de rééchantillonnage statistique robuste utilisée pour évaluer les performances des modèles d'apprentissage automatique (ML) sur un échantillon de données limité . Contrairement à une méthode standard de mise en réserve, qui divise les données en un seul ensemble d'apprentissage et de test, la validation croisée consiste à partitionner l'ensemble de données en plusieurs sous-ensembles afin de garantir que chaque point de données est utilisé à la fois pour l'apprentissage et la validation. Cette technique est essentielle pour évaluer comment les résultats d'une analyse statistique se généraliseront à un ensemble de données indépendant, ce qui permet de detect le surajustement lorsqu'un modèle mémorise des exemples d'entraînement plutôt que d'apprendre des modèles généralisables.

Le mécanisme de la validation croisée K-Fold

La variante la plus couramment utilisée de cette technique est la validation croisée K-Fold. Dans ce processus, l' ensemble des données est divisé de manière aléatoire en k groupes de taille égale, ou « plis ». Le processus d'apprentissage est ensuite répété k fois. À chaque itération, un seul pli sert de données de validation pour tester le modèle, tandis que les k-1 plis restants servent de données d'apprentissage.

La mesure de performance finale est généralement calculée en faisant la moyenne des scores (tels que la précision, la précision ou la précision moyenne moyenne (mAP)) obtenus à partir de chaque boucle. Cette approche réduit considérablement la variance associée à un seul essai d'une division train-test, fournissant une estimation plus fiable de l' erreur de généralisation. Elle garantit que l'évaluation n'est pas biaisée par une sélection arbitraire des données de test.

Mise en œuvre avec Ultralytics

La validation croisée est particulièrement utile lorsque l'on travaille avec des ensembles de données plus petits ou lorsque l'on effectue un réglage rigoureux des hyperparamètres. Alors que les cadres d'apprentissage profond modernes tels que PyTorch facilitent la boucle d'apprentissage , la gestion des plis nécessite une préparation minutieuse des données.

L'exemple suivant montre comment parcourir des fichiers de configuration YAML pré-générés pour une expérience de validation croisée à 5 volets utilisant le modèle YOLO26. Cela suppose que vous ayez déjà divisé votre ensemble de données en cinq fichiers de configuration distincts.

from ultralytics import YOLO

# List of dataset configuration files representing 5 folds
fold_yamls = [f"dataset_fold_{i}.yaml" for i in range(5)]

for i, yaml_file in enumerate(fold_yamls):
    # Load a fresh YOLO26 Nano model for each fold
    model = YOLO("yolo26n.pt")

    # Train the model, saving results to a unique project directory
    results = model.train(data=yaml_file, epochs=20, project="cv_experiment", name=f"fold_{i}")

Pour en savoir plus sur l'automatisation de la génération de fractionnement, consultez le guide sur la validation croisée K-Fold.

Applications concrètes

La validation croisée est indispensable dans les secteurs où les données sont rares, coûteuses à collecter ou lorsque la fiabilité est essentielle à la sécurité .

  • Diagnostic médical : dans le domaine de l' analyse d'images médicales, les ensembles de données relatifs à des maladies rares sont souvent limités. Une seule validation peut accidentellement exclure des cas difficiles ou des pathologies rares. En utilisant la validation croisée, les chercheurs qui développent l' IA dans le domaine de la santé s'assurent que leurs modèles de diagnostic sont testés sur tous les scans de patients disponibles, validant ainsi le fonctionnement du système pour différents types de populations et d'équipements.
  • Agriculture de précision : les conditions environnementales varient considérablement en extérieur. Un modèle entraîné à la détection des maladies des cultures peut fonctionner correctement par temps ensoleillé, mais échouer par temps couvert si ces images ne figuraient que dans l'ensemble d'entraînement. La validation croisée garantit que le modèle est robuste face à de telles variations, aidant ainsi les agriculteurs à s'appuyer sur des outils d'apprentissage automatique (AutoML) pour une surveillance cohérente, quelles que soient les conditions météorologiques.

Avantages stratégiques dans le développement de modèles

L'intégration de la validation croisée dans le cycle de vie du développement de l'IA fournit des informations cruciales sur le compromis biais-variance.

  1. Évaluation de la stabilité : si les mesures de performance varient considérablement d'un pli à l'autre, cela indique que le modèle est très sensible aux points de données spécifiques utilisés pour l'entraînement, ce qui suggère une variance élevée.
  2. Efficacité des données : elle maximise l'utilité des données limitées, car chaque observation est finalement utilisée à la fois pour l'entraînement et la validation.
  3. Optimisation des hyperparamètres : elle fournit un critère de référence fiable pour sélectionner le meilleur taux d'apprentissage, la taille de lot ou les stratégies d'augmentation des données sans « jeter un œil » à l'ensemble de test final.

Différencier des concepts connexes

Il est important de distinguer la validation croisée d'autres termes d'évaluation :

  • vs. Validation par retrait : le retrait implique une seule division (par exemple, 80/20). Bien que plus rapide et adapté aux ensembles de données volumineux tels que ImageNet, elle est moins robuste statistiquement que la validation croisée pour les ensembles de données plus petits.
  • vs. Bootstrapping : Le bootstrapping implique un échantillonnage aléatoire avec remplacement, tandis que la validation croisée K-Fold partitionne les données sans remplacement (chaque échantillon se trouve dans exactement un pli).

La gestion des artefacts, des métriques et des modèles provenant de plusieurs plis peut s'avérer complexe. Ultralytics simplifie cette tâche en proposant un suivi centralisé des expériences , ce qui permet aux équipes de comparer les performances entre différents plis et de visualiser facilement les informations issues de l'évaluation des modèles.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant