Glossaire

Emboîtements

Apprends ce que sont les embeddings et comment ils alimentent l'IA en capturant les relations sémantiques dans les données pour le NLP, les recommandations et la vision par ordinateur.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Dans le domaine de l'apprentissage machine (ML) et de l'intelligence artificielle, les embeddings sont une technique puissante pour représenter des données - telles que des mots, des phrases, des images ou d'autres éléments - sous forme de vecteurs numériques denses dans un espace multidimensionnel. Cette transformation est apprise à partir des données, ce qui permet aux algorithmes de saisir la signification sémantique, le contexte ou les caractéristiques de l'entrée. Le principal avantage est que les éléments similaires sont mis en correspondance avec des points proches dans cet "espace d'intégration", ce qui permet aux machines de comprendre des relations et des modèles complexes plus efficacement que les représentations éparses traditionnelles.

Qu'est-ce qu'un emboîtement ?

Les embeddings sont essentiellement des représentations vectorielles denses, à faible dimension, de variables discrètes (comme les mots) ou d'objets complexes (comme les images). Contrairement aux méthodes telles que l'encodage à une touche qui crée des vecteurs épars à haute dimension où chaque élément est indépendant, les encastrements capturent des relations nuancées. Par exemple, dans les encodages de mots, les mots ayant des significations similaires ou utilisés dans des contextes similaires, comme "chien" et "chiot", auront des vecteurs qui sont proches mathématiquement (par exemple, en utilisant la similarité cosinus). Cette proximité dans l'espace d'intégration reflète la similarité sémantique. Ces vecteurs sont généralement constitués de nombres réels et peuvent aller de quelques dizaines à des milliers de dimensions, en fonction de la complexité des données et du modèle.

Comment fonctionne l'intégration

Les encastrements sont généralement générés à l'aide de modèles de réseaux neuronaux (NN) entraînés sur de grands ensembles de données. Par exemple, une technique courante d'intégration de mots consiste à former un modèle pour prédire un mot en fonction des mots qui l'entourent (son contexte) dans les phrases. Au cours de ce processus de formation, le réseau ajuste ses paramètres internes, y compris les vecteurs d'intégration pour chaque mot, afin de minimiser les erreurs de prédiction. Les vecteurs résultants encodent implicitement les informations syntaxiques et sémantiques apprises à partir du vaste corpus de textes. Le nombre de dimensions dans l'espace d'intégration est un hyperparamètre crucial, qui influe sur la capacité du modèle à saisir les détails par rapport à son coût de calcul. La visualisation de ces espaces à haute dimension nécessite souvent des techniques de réduction de la dimensionnalité telles que t-SNE ou PCA, qui peuvent être visualisées à l'aide d'outils tels que le projecteurTensorFlow .

Applications des emboîtements

Les emboîtements sont fondamentaux pour de nombreuses applications modernes de l'intelligence artificielle :

  • Traitement du langage naturel (NLP): Les enchâssements de mots et de phrases alimentent des tâches telles que l'analyse des sentiments, la traduction automatique et la classification des textes. Ils permettent aux modèles de comprendre les analogies (par exemple, "roi" - "homme" + "femme" ≈ "reine") en effectuant une arithmétique vectorielle. Les modèles classiques comprennent Word2Vec et GloVe, tandis que les approches modernes comme BERT génèrent des enchâssements dépendants du contexte en utilisant des architectures de transformateurs.
  • Systèmes de recommandation: Les utilisateurs et les articles (comme les films ou les produits) sont intégrés dans le même espace. Les recommandations sont faites en trouvant des éléments dont l'intégration est proche de l'intégration d'un utilisateur, ce qui reflète ses préférences. Des entreprises comme Netflix s'appuient fortement sur les techniques d'intégration.
  • Vision par ordinateur (VA): Les images ou les patchs d'images peuvent être convertis en embeddings pour des tâches telles que la recherche d'images (trouver des images visuellement similaires) ou le clustering. Des modèles comme Ultralytics YOLO peuvent être utilisés non seulement pour la détection d'objets ou la segmentation d'images, mais leurs couches internes peuvent également servir d'extracteurs de caractéristiques puissants pour générer des encastrements représentant le contenu de l'image.

Embeddings vs. autres techniques de représentation

Les emboîtements offrent des avantages par rapport aux méthodes de représentation plus simples :

  • Encodage One-Hot : Représente les catégories sous forme de vecteurs binaires épars. Ces vecteurs sont orthogonaux (dissemblables) et ne capturent aucune relation sémantique entre les catégories. La dimensionnalité croît également de façon linéaire avec le nombre d'éléments uniques, ce qui devient inefficace pour les grands vocabulaires.
  • Sac de mots (BoW) : Représente le texte en fonction de la fréquence des mots, en ignorant la grammaire et l'ordre des mots. Bien que simple, il ne parvient pas à capturer le sens sémantique de manière efficace par rapport aux enchâssements.
  • TF(Term Frequency-Inverse Document Frequency): Pondère les mots en fonction de leur fréquence dans un document par rapport à leur fréquence dans un corpus. Il mesure l'importance des mots mais ne capture pas intrinsèquement la similarité sémantique comme le font les enchâssements.

Conclusion

Les embeddings représentent une avancée significative dans la façon dont les machines traitent et comprennent les données complexes. En associant des éléments à des représentations vectorielles significatives, ils permettent des analyses sophistiquées et alimentent un large éventail d'applications d'intelligence artificielle, en particulier dans les systèmes de NLP et de recommandation. À mesure que les modèles et les techniques de formation continuent d'évoluer, les embeddings deviendront probablement encore plus centraux dans la construction de systèmes intelligents. Les plateformes comme Ultralytics HUB facilitent la formation et le déploiement de modèles qui s'appuient souvent sur ces puissantes représentations, rendant ainsi l'IA avancée plus accessible. Pour en savoir plus, explore la documentation d'Ultralytics .

Tout lire