Découvrez les principes fondamentaux des grands modèles linguistiques (LLM). Apprenez-en davantage sur l'architecture Transformer, la tokenisation et comment combiner les LLM avec Ultralytics .
Un modèle linguistique à grande échelle (LLM) est un type sophistiqué d' intelligence artificielle (IA) entraîné sur des ensembles de données massifs afin de comprendre, générer et manipuler le langage humain. Ces modèles représentent une évolution significative dans le domaine du Deep Learning (DL), utilisant des réseaux neuronaux avec des milliards de paramètres pour capturer des modèles linguistiques complexes, la grammaire et les relations sémantiques. À la base, la plupart des LLM modernes s'appuient sur l' architecture Transformer, qui leur permet de traiter des séquences de données en parallèle plutôt que séquentiellement. Cette architecture utilise un mécanisme d'auto-attention, qui permet au modèle de pondérer l'importance des différents mots d'une phrase les uns par rapport aux autres, quelle que soit leur distance dans le texte.
La fonctionnalité d'un LLM commence par la tokenisation, un processus qui consiste à décomposer le texte brut en unités plus petites appelées tokens (mots ou sous-mots). Pendant la phase d'entraînement du modèle, le système analyse des pétaoctets de texte provenant d'Internet, de livres et d'articles. Il procède à un apprentissage non supervisé pour prédire le prochain token d'une séquence, apprenant ainsi efficacement la structure statistique du langage.
Après cette formation initiale, les développeurs procèdent souvent à des ajustements afin de spécialiser le modèle pour des tâches distinctes, telles que l'analyse médicale ou l'aide au codage. C'est cette adaptabilité qui explique pourquoi des organisations telles que le Stanford Center for Research on Foundation Models classify comme des « modèles de base », c'est-à-dire des bases larges sur lesquelles s'appuient des applications spécifiques.
Les LLM ont dépassé le stade de la recherche théorique pour trouver des applications pratiques à fort impact dans divers secteurs :
Alors que les LLM standard traitent le texte, l'industrie s'oriente vers l' IA multimodale. L'exemple suivant montre comment les invites linguistiques peuvent contrôler les tâches de vision par ordinateur à l'aide de YOLO, un modèle qui comprend les descripteurs textuels pour la détection à vocabulaire ouvert.
from ultralytics import YOLOWorld
# Load a model capable of understanding natural language prompts
model = YOLOWorld("yolov8s-world.pt")
# Define custom classes using text descriptions rather than fixed labels
model.set_classes(["person wearing a red helmet", "blue industrial machine"])
# Run inference to detect these specific text-defined objects
results = model.predict("https://ultralytics.com/images/bus.jpg")
# Show results
results[0].show()
Il est important de différencier les LLM des termes plus généraux ou parallèles :
Malgré leurs capacités, les LLM sont confrontés à des défis liés aux biais dans l'IA, car ils peuvent reproduire involontairement les préjugés présents dans leurs données d'entraînement. En outre, la puissance de calcul massive nécessaire pour entraîner des modèles tels que GPT-4 ou Google soulève des préoccupations en matière de consommation d'énergie. La recherche se concentre actuellement sur la quantification des modèles afin de rendre ces systèmes suffisamment efficaces pour fonctionner sur du matériel de pointe.
Pour approfondir vos connaissances techniques, l'article original Attention Is All You Need fournit la théorie fondamentale des Transformers. Vous pouvez également découvrir comment NVIDIA optimise le matériel pour ces charges de travail massives.