Glossaire

Ensemble

Augmente la précision des prédictions avec les méthodes d'ensemble ! Apprends comment la combinaison de plusieurs modèles améliore les performances en matière de détection d'objets, de NLP, et bien plus encore.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Dans le domaine de l'apprentissage automatique, une méthode d'ensemble est une technique qui combine les prédictions de plusieurs modèles individuels pour produire une prédiction plus précise et plus robuste que celle qu'un seul modèle pourrait réaliser seul. Elle fonctionne selon le principe souvent décrit comme la"sagesse de la foule", où la décision collective de plusieurs modèles divers est généralement supérieure à la décision d'un seul modèle spécialisé. Cette approche est particulièrement puissante dans les tâches complexes de l'intelligence artificielle (IA), telles que la détection d'objets, la classification d'images et le traitement du langage naturel, où le fait de se fier à un seul point de vue peut entraîner des erreurs ou des limitations.

Concepts fondamentaux des méthodes d'ensemble

Les méthodes d'ensemble tirent parti de la diversité de plusieurs modèles (souvent appelés apprenants de base ou apprenants faibles) pour réduire les erreurs de prédiction et améliorer les performances globales. L'idée de base est que différents modèles peuvent commettre différents types d'erreurs sur différents sous-ensembles de données. En combinant leurs prédictions, il est souvent possible de faire la moyenne de ces erreurs ou de les annuler, ce qui permet d'obtenir un modèle final plus stable et plus généralisé qui donne de bons résultats sur des données inédites. La clé du succès des méthodes d'ensemble est d'assurer une diversité suffisante parmi les modèles de base. Cette diversité peut être obtenue grâce à diverses stratégies, telles que l'utilisation de différents algorithmes d'apprentissage (par exemple, la combinaison d'arbres de décision et de SVM), la formation de modèles sur différents sous-ensembles de données de formation (comme dans le Bagging), ou l'utilisation de différents hyperparamètres pour le même algorithme.

Avantages de l'utilisation des méthodes d'ensemble

L'utilisation de méthodes d'ensemble offre plusieurs avantages significatifs dans le domaine de l'apprentissage machine (ML) :

  • Amélioration de la précision des prévisions : Les ensembles atteignent souvent une plus grande précision que n'importe quel modèle individuel.
  • Robustesse et stabilité accrues : La prédiction finale est moins sensible aux particularités d'un seul modèle ou aux variations des données d'entraînement.
  • Réduction du risque de surajustement : En calculant la moyenne des prédictions, les ensembles peuvent atténuer la tendance des modèles complexes à suradapter les données d'apprentissage.

Types de méthodes d'ensemble

Il existe plusieurs techniques d'ensemble populaires, chacune ayant une approche distincte pour combiner les modèles :

  • Bagging (Bootstrap Aggregating): Entraîne plusieurs instances du même algorithme de base sur différents sous-ensembles aléatoires des données d'entraînement (tirés avec remplacement) et fait la moyenne de leurs prédictions. Random Forest est un exemple bien connu.
  • Renforcement: Construit des modèles de manière séquentielle, chaque nouveau modèle s'attachant à corriger les erreurs commises par les précédents. Parmi les exemples, on peut citer AdaBoost, Gradient Boosting Machines (GBM), XGBoost et LightGBM.
  • Empilement (généralisation par empilement): Combine les prédictions de plusieurs modèles de base différents (apprenants hétérogènes) en formant un méta-modèle (par exemple, régression logistique) pour apprendre à combiner au mieux leurs résultats.

Le terme "Ensemble de modèles" est souvent utilisé de manière interchangeable avec "Ensemble" et fait référence au même concept de combinaison de plusieurs modèles. Tu peux explorer les stratégies d'assemblage de modèles avec YOLOv5.

Applications des méthodes d'ensemble dans le monde réel

Les méthodes d'ensemble sont largement utilisées dans divers domaines pour améliorer les performances des systèmes d'intelligence artificielle :

  1. Vision par ordinateur : Dans des tâches telles que la détection d'objets à l'aide de modèles tels que Ultralytics YOLOl'assemblage peut impliquer la combinaison de prédictions provenant de modèles formés avec différentes augmentations ou à différentes étapes(points de contrôle). Cela améliore la robustesse de la détection dans des scénarios difficiles tels que des conditions météorologiques variables ou des occlusions d'objets, ce qui est crucial pour des applications telles que les véhicules autonomes et les systèmes de sécurité.
  2. Diagnostic médical : Les ensembles sont utilisés dans l'analyse d'images médicales pour combiner les diagnostics de différents algorithmes ou modèles formés sur diverses données de patients. Par exemple, la combinaison des sorties d'un CNN et d'un transformateur de vision (ViT) pourrait fournir une prédiction plus fiable pour détecter les anomalies dans les scanners, réduisant ainsi le risque d'erreur de diagnostic.

Bien que puissants, les ensembles augmentent la complexité et les besoins en calcul pour la formation et le déploiement des modèles. Cependant, les gains significatifs en termes de performance justifient souvent ces coûts dans les applications critiques. Des plateformes comme Ultralytics HUB peuvent simplifier la gestion et l'entraînement de plusieurs modèles, facilitant ainsi la création d'ensembles efficaces.

Tout lire