Apprends ce qu'est le surajustement dans la vision par ordinateur et comment l'éviter en utilisant l'augmentation des données, la régularisation et les modèles pré-entraînés.
Les modèles de vision par ordinateur sont conçus pour reconnaître des modèles, détecter des objets et analyser des images. Cependant, leurs performances dépendent de leur capacité à se généraliser à des données inédites. La généralisation est la capacité du modèle à fonctionner correctement sur de nouvelles images, et pas seulement sur celles sur lesquelles il a été formé. Un problème courant dans la formation de ces modèles est l'ajustement excessif, dans lequel un modèle apprend trop de ses données de formation, y compris des bruits inutiles, au lieu d'identifier des modèles significatifs.
Lorsque cela se produit, le modèle donne de bons résultats avec les données d'entraînement, mais il a du mal avec les nouvelles images. Par exemple, un modèle de détection d'objets formé uniquement sur des images haute résolution et bien éclairées peut échouer lorsqu'on lui présente des images floues ou ombrées dans des conditions réelles. Le surajustement limite l'adaptabilité d'un modèle, ce qui restreint son utilisation dans des applications réelles telles que la conduite autonome, l'imagerie médicale et les systèmes de sécurité.
Dans cet article, nous allons explorer ce qu'est le surajustement, pourquoi il se produit et comment l'éviter. Nous verrons également comment les modèles de vision artificielle comme Ultralytics YOLO11 permettent de réduire le surajustement et d'améliorer la généralisation.
Le surajustement se produit lorsqu'un modèle mémorise des données d'apprentissage au lieu d'apprendre des modèles qui s'appliquent largement à de nouvelles données. Le modèle se concentre trop sur les données d'apprentissage et a du mal à gérer les nouvelles images ou les situations qu'il n'a jamais vues auparavant.
Dans le domaine de la vision par ordinateur, le surajustement peut affecter différentes tâches. Un modèle de classification formé uniquement sur des images claires et lumineuses peut s'avérer difficile dans des conditions de faible luminosité. Un modèle de détection d'objets qui apprend à partir d'images parfaites peut échouer dans des scènes encombrées ou désordonnées. De même, un modèle de segmentation d'instance peut fonctionner correctement dans des environnements contrôlés, mais avoir des difficultés avec les ombres ou les objets qui se chevauchent.
Cela devient un problème dans les applications d'IA du monde réel, où les modèles doivent être capables de se généraliser au-delà des conditions de formation contrôlées. Les voitures auto-conduites, par exemple, doivent être capables de détecter les piétons dans des conditions d'éclairage, de météo et d'environnement différentes. Un modèle qui s'adapte trop à son ensemble de formation ne fonctionnera pas de manière fiable dans des scénarios aussi imprévisibles.
Le surajustement se produit généralement en raison d'ensembles de données déséquilibrés, d'une complexité excessive du modèle et d'un surentraînement. En voici les principales causes :
Une approche bien équilibrée de la complexité du modèle, de la qualité du jeu de données et des techniques de formation garantit une meilleure généralisation.
L'overfitting et l'underfitting sont deux problèmes complètement polaires dans l'apprentissage profond.
Le surajustement se produit lorsqu'un modèle est trop complexe, ce qui le rend trop axé sur les données d'apprentissage. Au lieu d'apprendre des modèles généraux, il mémorise de petits détails, même ceux qui ne sont pas pertinents, comme le bruit de fond. Le modèle obtient alors de bons résultats avec les données d'entraînement mais a du mal avec les nouvelles images, ce qui signifie qu'il n'a pas vraiment appris à reconnaître les schémas qui s'appliquent à différentes situations.
Le sous-ajustement se produit lorsqu'un modèle est trop basique et qu'il ne tient pas compte des schémas importants dans les données. Cela peut se produire lorsque le modèle comporte trop peu de couches, que le temps d'apprentissage est insuffisant ou que les données sont limitées. Par conséquent, il ne parvient pas à reconnaître les schémas importants et fait des prédictions inexactes. Cela entraîne de mauvaises performances sur les données d'entraînement et de test, car le modèle n'a pas suffisamment appris pour comprendre correctement la tâche.
Un modèle bien entraîné trouve l'équilibre entre la complexité et la généralisation. Il doit être suffisamment complexe pour apprendre des modèles pertinents, mais pas au point de mémoriser les données au lieu de reconnaître les relations sous-jacentes.
Le surajustement n'est pas inévitable et peut être évité. Avec les bonnes techniques, les modèles de vision artificielle peuvent apprendre des modèles généraux au lieu de mémoriser des données d'entraînement, ce qui les rend plus fiables dans les applications du monde réel.
Voici cinq stratégies clés pour empêcher le surajustement dans la vision par ordinateur.
La meilleure façon d'aider un modèle à bien fonctionner sur de nouvelles données est d'élargir l'ensemble de données en utilisant l'augmentation des données et les données synthétiques. Les données synthétiques sont générées par ordinateur au lieu d'être collectées à partir d'images du monde réel. Elles permettent de combler les lacunes lorsqu'il n'y a pas assez de données réelles.
L'augmentation des données modifie légèrement les images existantes en les retournant, en les faisant pivoter, en les recadrant ou en ajustant la luminosité, de sorte que le modèle ne se contente pas de mémoriser des détails mais apprend à reconnaître des objets dans différentes situations.
Les données synthétiques sont utiles lorsque les images réelles sont difficiles à obtenir. Par exemple, les modèles de voitures auto-conduites peuvent s'entraîner sur des scènes de route générées par ordinateur pour apprendre à détecter des objets dans différentes conditions météorologiques et d'éclairage. Cela rend le modèle plus flexible et plus fiable sans avoir besoin de milliers d'images du monde réel.
Un réseau neuronal profond, qui est un type de modèle d'apprentissage automatique comportant de nombreuses couches qui traitent les données au lieu d'une seule couche, n'est pas toujours meilleur. Lorsqu'un modèle a trop de couches ou de paramètres, il mémorise les données d'entraînement au lieu de reconnaître des modèles plus larges. Réduire la complexité inutile peut aider à prévenir l'adaptation excessive.
Pour y parvenir, une approche est l'élagage, qui supprime les neurones et les connexions redondants, ce qui rend le modèle plus léger et plus efficace.
Une autre consiste à simplifier l'architecture en réduisant le nombre de couches ou de neurones. Les modèles pré-entraînés comme YOLO11 sont conçus pour bien se généraliser à travers les tâches avec moins de paramètres, ce qui les rend plus résistants à l'overfitting que la formation d'un modèle profond à partir de zéro.
Trouver le bon équilibre entre la profondeur du modèle et son efficacité l'aide à apprendre des modèles utiles sans se contenter de mémoriser les données d'entraînement.
Les techniques de régularisation empêchent les modèles de devenir trop dépendants de caractéristiques spécifiques dans les données d'apprentissage. Voici quelques techniques couramment utilisées :
Ces techniques permettent de maintenir la flexibilité et l'adaptabilité d'un modèle, réduisant ainsi le risque de surajustement tout en préservant la précision.
Pour éviter le surajustement, il est important de suivre la façon dont le modèle apprend et de s'assurer qu'il se généralise bien à de nouvelles données. Voici quelques techniques pour t'aider dans cette tâche :
Ces techniques aident le modèle à rester équilibré afin qu'il apprenne suffisamment pour être précis sans devenir trop concentré sur les seules données d'apprentissage.
Au lieu de former à partir de zéro, l'utilisation de modèles préformés comme YOLO11 peut réduire le surajustement. YOLO11 est formé sur des ensembles de données à grande échelle, ce qui lui permet de bien se généraliser dans différentes conditions.
La mise au point d'un modèle pré-entraîné l'aide à conserver ce qu'il sait déjà tout en apprenant de nouvelles tâches, de sorte qu'il ne se contente pas de mémoriser les données d'entraînement.
En outre, il est essentiel de garantir un étiquetage de haute qualité des ensembles de données. Les données mal étiquetées ou déséquilibrées peuvent induire les modèles en erreur et les amener à apprendre des modèles incorrects. Le nettoyage des ensembles de données, la correction des images mal étiquetées et l'équilibrage des classes améliorent la précision et réduisent le risque de surajustement. Une autre approche efficace est l'entraînement contradictoire, où le modèle est exposé à des exemples légèrement modifiés ou plus difficiles, conçus pour tester ses limites.
Le surajustement est un problème courant dans le domaine de la vision artificielle. Un modèle peut bien fonctionner sur les données d'entraînement mais avoir du mal avec les images du monde réel. Pour éviter ce problème, des techniques comme l'augmentation des données, la régularisation et l'utilisation de modèles pré-entraînés comme YOLO11 permettent d'améliorer la précision et l'adaptabilité.
En appliquant ces méthodes, les modèles d'IA peuvent rester fiables et donner de bons résultats dans différents environnements. À mesure que l'apprentissage profond s'améliore, s'assurer que les modèles se généralisent correctement sera la clé du succès de l'IA dans le monde réel.
Rejoins notre communauté grandissante ! Explore notre dépôt GitHub pour en savoir plus sur l'intelligence artificielle. Prêt à lancer tes propres projets de vision par ordinateur ? Jette un coup d'œil à nos options de licence. Découvre l'IA de vision dans la conduite autonome et l'IA dans les soins de santé en visitant nos pages de solutions !
Commence ton voyage avec le futur de l'apprentissage automatique.
Comment identifier le surajustement
Voici quelques signes qui indiquent qu'un modèle est surajouté :
Pour s'assurer qu'un modèle se généralise bien, il doit être testé sur divers ensembles de données qui reflètent les conditions du monde réel.