Glossaire

Arbre de décision

Découvre la puissance des arbres de décision dans l'apprentissage automatique pour la classification, la régression et les applications du monde réel comme la santé et la finance.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Un arbre de décision est un algorithme d'apprentissage machine (ML) polyvalent et largement utilisé qui entre dans la catégorie de l'apprentissage supervisé. Il utilise une structure arborescente pour modéliser les décisions et leurs conséquences possibles, à l'instar d'un organigramme. Chaque nœud interne représente un test sur un attribut (ou une caractéristique), chaque branche représente le résultat du test, et chaque nœud feuille représente une étiquette de classe (dans les tâches de classification) ou une valeur continue (dans les tâches de régression). Grâce à leur structure intuitive, les arbres de décision sont connus pour être relativement faciles à comprendre et à interpréter, ce qui les rend précieux pour l'IA explicable (XAI).

Comment fonctionnent les arbres de décision

L'idée de base est de diviser l'ensemble de données en sous-ensembles de plus en plus petits en fonction des valeurs des caractéristiques d'entrée, en créant une structure arborescente. Le processus commence au nœud racine, qui représente l'ensemble des données. À chaque nœud, l'algorithme sélectionne la meilleure caractéristique et le meilleur seuil pour diviser les données de manière à augmenter la pureté ou l'homogénéité des sous-ensembles résultants par rapport à la variable cible. Les critères courants pour trouver la meilleure division comprennent l'impureté de Gini et le gain d'information (basé sur l'entropie), qui mesurent le désordre ou le caractère aléatoire d'un ensemble. Ce processus de fractionnement se poursuit de manière récursive jusqu'à ce qu'un critère d'arrêt soit rempli, comme atteindre une profondeur maximale, avoir un nombre minimum d'échantillons dans un nœud ou obtenir des nœuds feuilles purs (nœuds contenant des échantillons d'une seule classe). Pour faire une prédiction pour un nouveau point de données, l'arbre est parcouru de la racine jusqu'à un nœud feuille en fonction des résultats des tests de caractéristiques, et la prédiction est la classe majoritaire ou la valeur moyenne dans cette feuille. Un prétraitement soigneux des données et une ingénierie des caractéristiques peuvent avoir un impact significatif sur les performances d'un arbre de décision.

Types d'arbres de décision

Les arbres de décision peuvent être classés en deux catégories principales :

  • Arbres de classification : Utilisés lorsque la variable cible est catégorique (par exemple, prédire "spam" ou "non spam"). Les nœuds des feuilles représentent les étiquettes des classes.
  • Arbres de régression : Utilisés lorsque la variable cible est continue (par exemple, prédire les prix des maisons). Les nœuds feuilles représentent une valeur numérique prédite, souvent la moyenne des valeurs cibles des échantillons d'apprentissage qui atteignent cette feuille.

Avantages et inconvénients

Les arbres de décision offrent plusieurs avantages :

  • Interprétabilité : Leur structure graphique les rend faciles à visualiser et à comprendre.
  • Préparation minimale des données : Ils nécessitent souvent moins de nettoyage des données par rapport à d'autres algorithmes, par exemple en ayant besoin de moins de normalisation des données.
  • Traite les données non linéaires : Ils peuvent capturer les relations non linéaires entre les caractéristiques et la variable cible.
  • Importance des caractéristiques : Ils fournissent intrinsèquement une mesure de l'importance de la caractéristique en fonction de la précocité ou de la fréquence d'utilisation d'une caractéristique pour le fractionnement.

Cependant, ils présentent aussi des inconvénients :

  • Ajustement excessif : Les arbres de décision peuvent facilement devenir trop complexes et capturer le bruit dans les données d'apprentissage, ce qui entraîne une mauvaise généralisation sur des données de test inédites. Des techniques telles que l'élagage ou l'établissement de contraintes sur la croissance de l'arbre permettent d'atténuer l'ajustement excessif.
  • Instabilité : De petites variations dans les données peuvent entraîner la génération d'un arbre complètement différent.
  • Biais : les arbres peuvent être biaisés en faveur des caractéristiques ayant plus de niveaux ou des classes dominantes si l'ensemble de données est déséquilibré.

Applications dans le monde réel

Les arbres de décision sont utilisés dans divers domaines :

  1. Diagnostic médical : Aider les médecins en créant des modèles qui suggèrent des diagnostics en fonction des symptômes du patient et des résultats des tests. Par exemple, un arbre pourrait guider le diagnostic en posant des questions sur les symptômes de façon séquentielle(IA dans les applications de santé).
  2. Prédiction du désabonnement des clients : Les entreprises utilisent des arbres de décision pour identifier les clients susceptibles d'arrêter d'utiliser leur service en fonction des habitudes d'utilisation, des données démographiques et de l'historique des interactions, ce qui permet de cibler les efforts de fidélisation(Predicting Customer Churn).
  3. Évaluation des risques financiers : Évaluer la solvabilité en analysant des facteurs tels que le revenu, la dette et les antécédents de crédit(Computer vision models in finance).
  4. Contrôle de la qualité de la fabrication : Identifier les défauts potentiels des produits en fonction des lectures des capteurs ou des paramètres du processus(Improving Manufacturing with Computer Vision).

Relations avec d'autres modèles

Les arbres de décision constituent la base de méthodes d'ensemble plus complexes telles que les forêts aléatoires et les arbres boostés par le gradient (comme XGBoost ou LightGBM). Les forêts aléatoires, par exemple, construisent plusieurs arbres de décision sur différents sous-ensembles de données et de caractéristiques et regroupent leurs prédictions, ce qui permet souvent d'obtenir une meilleure précision et une plus grande robustesse contre le surajustement par rapport à un arbre unique. Bien qu'ils soient puissants pour de nombreux problèmes de données tabulaires, les arbres de décision diffèrent considérablement des modèles tels que les réseaux neuronaux convolutifs (CNN) ou les transformateurs de vision (ViT) utilisés dans la vision par ordinateur. Des modèles comme Ultralytics YOLO11 tirent parti d'architectures d'apprentissage profond optimisées pour des tâches telles que la détection d'objets, la classification d'images et la segmentation d'instances, qui impliquent le traitement de données complexes et à haute dimension comme les images, un domaine où les arbres de décision simples sont moins efficaces. Comprendre les modèles fondamentaux comme les arbres de décision fournit un contexte précieux dans le paysage plus large de l'IA et de la modélisation prédictive. Des outils comme Scikit-learn fournissent des implémentations populaires pour les arbres de décision, tandis que des plateformes comme Ultralytics HUB rationalisent le développement et le déploiement de modèles de vision avancés.

Tout lire