Glossaire

Validation croisée

Découvre la puissance de la validation croisée dans l'apprentissage automatique ! Apprends comment elle empêche le surajustement, garantit la précision et facilite la sélection des modèles.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

La validation croisée est une technique statistique utilisée en apprentissage automatique et en intelligence artificielle pour évaluer les performances d'un modèle en le testant sur des sous-ensembles de données qui n'ont pas été utilisés pendant la formation. Elle permet de s'assurer que le modèle se généralise bien à de nouvelles données inédites et aide à prévenir le surajustement. En divisant l'ensemble de données en plusieurs parties ou "plis", la validation croisée teste systématiquement le modèle sur différentes parties des données, fournissant ainsi une mesure robuste de son efficacité.

Comment fonctionne la validation croisée

L'idée centrale de la validation croisée est de diviser l'ensemble de données en sous-ensembles de formation et de test plusieurs fois. Le modèle est formé sur un sous-ensemble et testé sur un autre, en faisant tourner l'ensemble de données pour s'assurer que chaque point de données est utilisé au moins une fois pour la formation et la validation. La technique la plus couramment utilisée est Validation croisée K-Foldoù l'ensemble des données est divisé en K Des plis de taille égale :

  • Le modèle est formé sur K-1 plis et testé sur le pli restant.
  • Ce processus est répété K fois, en utilisant à chaque fois un pli différent comme ensemble de test.
  • La moyenne des résultats est calculée pour toutes les itérations afin de produire une mesure de performance finale.

Parmi les autres variantes, on trouve la validation croisée Leave-One-Out (LOOCV), où chaque point de données est utilisé une fois comme ensemble de test, et la validation croisée K-Fold stratifiée, qui maintient la distribution des classes à travers les plis, ce qui la rend idéale pour les ensembles de données déséquilibrés.

Avantages de la validation croisée

La validation croisée offre plusieurs avantages dans l'évaluation des modèles :

  • Meilleure généralisation: En testant sur des données inédites, la validation croisée permet de s'assurer que le modèle n'est pas surajouté à l'ensemble des données d'apprentissage.
  • Des mesures fiables: La moyenne des résultats de plusieurs plis fournit une estimation plus précise et plus stable de la performance du modèle.
  • Sélection de modèles: La validation croisée permet de comparer différents modèles ou paramètres hyperparamétriques afin de choisir le plus performant.

Tu peux en savoir plus sur la prévention du surajustement et de la généralisation dans l'apprentissage automatique en consultant la page de glossaire sur le surajustement.

Applications dans le domaine de l'IA et de la ML

La validation croisée est largement utilisée dans diverses applications d'IA et de ML pour s'assurer que les modèles sont robustes et fiables :

1. Réglage des hyperparamètres

La validation croisée joue un rôle essentiel dans l'optimisation des hyperparamètres grâce à des techniques telles que la recherche par grille ou la recherche aléatoire. En évaluant plusieurs combinaisons de paramètres sur différents plis, les praticiens peuvent identifier la meilleure configuration. Explore plus en détail le réglage des hyperparamètres pour améliorer les performances du modèle.

2. Comparaison des modèles

Lors du choix entre différents algorithmes tels que les machines à vecteurs de support (SVM) ou les forêts aléatoires, la validation croisée permet une comparaison équitable en évaluant chaque modèle dans des conditions identiques. En savoir plus sur les forêts aléatoires et les machines à vecteurs de support (SVM).

3. Applications dans le monde réel

Validation croisée et concepts connexes

Validation croisée et données de validation

Alors que la validation croisée implique un partitionnement dynamique de l'ensemble de données, les données de validation font référence à un sous-ensemble fixe réservé à l'évaluation des performances pendant la formation. Pour en savoir plus, consulte la page du glossaire sur les données de validation.

Validation croisée et données de test

Les données de test sont utilisées pour l'évaluation finale après la formation et la validation du modèle, tandis que la validation croisée divise les données de formation en plusieurs sous-ensembles pour une évaluation intermédiaire. Pour plus de détails, visite la page du glossaire sur les données de test.

Validation croisée et prévention du surajustement

La validation croisée est une stratégie clé pour identifier et atténuer le surajustement. Bien que des techniques telles que les couches d'abandon ou la régularisation soient également utiles, la validation croisée fournit une preuve empirique de la performance du modèle. Pour en savoir plus, consulte la page du glossaire consacrée à la régularisation.

Conclusion

La validation croisée est un outil indispensable à l'apprentissage automatique, car elle garantit que les modèles sont à la fois précis et généralisables. En testant rigoureusement sur des données inédites et en faisant la moyenne des résultats, elle fournit des mesures de performance fiables qui guident la sélection et le réglage des modèles. Pour une mise en œuvre pratique de la validation croisée dans la détection d'objets, explore la validation croisée K-Fold pour la détection d'objets à l'aide de Ultralytics YOLO sur le HUB Ultralytics .

Pour commencer avec des projets d'IA ou la formation de modèles, visite Ultralytics HUB pour des outils et des ressources intuitifs.

Tout lire