Glossaire

Autoencodeur

Découvrez comment les autoencodeurs compressent les données, réduisent le bruit et permettent la détection d'anomalies, l'extraction de caractéristiques et bien d'autres choses encore grâce à des techniques d'IA avancées.

Un autoencodeur est un type de réseau neuronal artificiel utilisé pour l'apprentissage non supervisé. Son objectif principal est d'apprendre une représentation comprimée et efficace (encodage) d'un ensemble de données, généralement dans le but de réduire la dimensionnalité ou d'extraire des caractéristiques. Le réseau y parvient en apprenant à reconstruire sa propre entrée. Il se compose de deux parties principales : un encodeur, qui comprime les données d'entrée dans un espace latent de faible dimension, et un décodeur, qui reconstruit les données d'origine à partir de cette représentation comprimée. En forçant les données à passer par ce "goulot d'étranglement", le réseau doit apprendre à identifier et à préserver les caractéristiques les plus saillantes tout en éliminant le bruit et la redondance.

Fonctionnement des autoencodeurs

L'architecture d'un autoencodeur est composée d'une fonction d'encodage et d'une fonction de décodage, qui peuvent être de simples réseaux de type feed-forward ou des structures plus complexes comme les réseaux neuronaux convolutifs (CNN).

  1. Encodeur : Cette partie du réseau prend les données d'entrée à haute dimension et les met en correspondance avec une représentation latente à basse dimension. Ce vecteur compressé capture l'essence même des données d'entrée.
  2. Goulot d'étranglement : Il s'agit de la couche qui contient la représentation comprimée de l'espace latent de l'entrée. C'est le cœur de l'autoencodeur et la raison pour laquelle il est efficace pour la réduction de la dimensionnalité.
  3. Décodeur : Cette partie prend la représentation comprimée du goulot d'étranglement et tente de reconstruire les données d'entrée originales à haute dimension.

Le processus d'apprentissage du modèle consiste à minimiser une fonction de perte, souvent appelée erreur de reconstruction, qui mesure la différence entre l'entrée originale et la sortie reconstruite. Ce processus est une forme d'apprentissage auto-supervisé, car le modèle apprend à partir des données elles-mêmes sans avoir besoin d'étiquettes explicites.

Applications IA/ML dans le monde réel

Les autoencodeurs sont polyvalents et ont plusieurs applications pratiques dans l'apprentissage automatique et l'apprentissage profond.

  1. Détection d'anomalies: Les autoencodeurs sont très efficaces pour la détection des anomalies. Un modèle est formé sur un ensemble de données ne contenant que des points de données "normaux". Lorsqu'un nouveau point de données anormal (par exemple, un défaut de fabrication ou une transaction financière frauduleuse) est introduit dans le codeur, le décodeur ne parvient pas à le reconstruire avec précision. Il en résulte une erreur de reconstruction élevée, qui peut être utilisée comme un signal pour signaler l'anomalie. Il s'agit d'une technique essentielle de l'IA pour les systèmes de fabrication et de sécurité financière, un sujet étudié par des institutions telles que l'Alan Turing Institute.
  2. Débruitage d'images: Un autoencodeur de débruitage peut être formé pour éliminer le bruit des images. Le modèle est alimenté en images bruitées et entraîné à produire les versions originales et propres. Cette capacité est précieuse dans l'analyse d'images médicales pour améliorer la qualité des IRM ou des tomodensitogrammes, ou pour restaurer de vieilles photographies granuleuses. Cette approche de débruitage par apprentissage est plus sophistiquée que les filtres de traitement d'image traditionnels.

Il existe de nombreux types d'autoencodeurs, notamment les autoencodeurs épars, les autoencodeurs de débruitage et les autoencodeurs convolutifs. L'une des variantes les plus importantes est l'autoencodeur variationnel (VAE), qui est un modèle génératif capable de produire de nouveaux échantillons de données similaires à ceux sur lesquels il a été entraîné. Un aperçu complet des VAE est disponible sur arXiv.

Autoencodeurs et concepts connexes

  • ACP : Bien que les deux réduisent la dimensionnalité, l'analyse en composantes principales (ACP) est limitée aux transformations linéaires. Les autoencodeurs, qui sont des réseaux neuronaux, peuvent apprendre des mappages non linéaires complexes, ce qui permet souvent d'obtenir de meilleures représentations pour des ensembles de données complexes.
  • GANs : Les réseaux adverbiaux génératifs (GAN) sont principalement conçus pour générer de nouvelles données très réalistes. Si les VAE peuvent également générer des données, ils se concentrent souvent sur l'apprentissage d'un espace latent bien structuré, tandis que les GAN excellent dans la fidélité des résultats, parfois au détriment de l'interprétabilité de l'espace latent.
  • CNN et transformateurs : Les autoencodeurs définissent un modèle architectural (codeur-décodeur). Ils utilisent souvent d'autres types de réseaux comme les CNN pour les données d'image ou les Transformers pour les données séquentielles en tant que blocs de construction. Cela diffère des modèles comme Ultralytics YOLO, qui sont des modèles supervisés conçus pour des tâches telles que la détection d'objets ou la segmentation d'images.

Outils et mise en œuvre

Les autoencodeurs peuvent être mis en œuvre à l'aide de cadres populaires d'apprentissage profond (DL) :

Des plateformes comme Ultralytics HUB facilitent le flux de travail global de ML, y compris la gestion des données et l'entraînement des modèles, bien qu'elles soient principalement axées sur des tâches supervisées telles que la détection et la segmentation plutôt que sur l'entraînement d'autoencodeurs non supervisés.

Rejoindre la communauté Ultralytics

Rejoignez l'avenir de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

S'inscrire
Lien copié dans le presse-papiers