Glossaire

GPT-3

Découvre les capacités NLP révolutionnaires de GPT-3 : génération de texte, chatbots d'IA, assistance au code, et bien plus encore. Explore dès maintenant ses applications dans le monde réel !

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

GPT-3, qui signifie Generative Pre-trained Transformer 3, est un grand modèle de langage (LLM) très influent développé par OpenAI. Sorti en 2020, il a marqué une avancée significative dans les capacités de traitement du langage naturel (NLP). Le GPT-3 est conçu pour comprendre et générer des textes de type humain en fonction des entrées qu'il reçoit, ce qui le rend polyvalent pour un large éventail de tâches basées sur le langage dans le domaine de l'intelligence artificielle (IA).

Architecture et formation

Le GPT-3 utilise l'architecture Transformer, en particulier la partie décodeur, qui s'appuie fortement sur des mécanismes d'auto-attention pour évaluer l'importance des différents mots (représentés par des jetons) dans la séquence d'entrée. Sa nature "pré-entraînée" signifie qu'il a été entraîné sur un ensemble massif de données comprenant des textes provenant d'Internet et de livres numérisés avant d'être mis sur le marché. Cet entraînement intensif sur des données diverses permet au modèle d'apprendre la grammaire, les faits, les capacités de raisonnement et les différents styles d'écriture. La plus grande version de GPT-3 compte 175 milliards de paramètres, qui sont les variables que le modèle apprend au cours de l'entraînement. Cette échelle était sans précédent à l'époque de sa sortie et a contribué de manière significative à ses performances, comme l'indique le document de recherche original de GPT-3.

Capacités et applications

GPT-3 excelle dans la génération de textes cohérents et contextuellement pertinents. Ses capacités s'étendent à diverses tâches NLP, nécessitant souvent un minimum d'exemples spécifiques à la tâche, un concept connu sous le nom d'apprentissage à quelques coups ou même d'apprentissage à zéro coup. Les principales applications sont les suivantes :

  • Génération de texte: Création d'articles, d'histoires, de courriels et d'autres contenus écrits.
  • Traduction automatique: Traduire un texte entre différentes langues.
  • Résumés de textes: Condenser de longs documents en résumés plus courts.
  • Réponse aux questions: Fournir des réponses aux questions en se basant sur le contexte d'entrée ou sur les connaissances acquises.
  • Génération de code : Aider les développeurs en écrivant des extraits de code dans divers langages de programmation.
  • Chatbots et assistants virtuels : Alimenter des agents conversationnels capables d'engager le dialogue.

Deux exemples concrets de l'application de GPT-3 comprennent l'alimentation des premières versions de l'IA conversationnelle comme ChatGPT pour les dialogues engageants et les outils d'aide au codage tels que GitHub Copilot, qui suggère aux développeurs de compléter leur code.

GPT-3 en contexte

GPT-3 fait partie de la série Generative Pre-trained Transformer (GPT) et a servi de précurseur à des modèles comme GPT-4, qui offrent généralement des capacités améliorées et des fonctions d'apprentissage potentiellement multimodales. Alors que les modèles GPT sont principalement génératifs, d'autres LLM comme BERT sont souvent optimisés pour des tâches nécessitant une compréhension bidirectionnelle profonde du langage, comme la classification ou la reconnaissance d'entités.

Il est également important de distinguer les LLM comme le GPT-3, qui traitent le texte, des modèles axés sur la vision par ordinateur (VA). Les modèles CV, tels que le modèle Ultralytics YOLO d'Ultralytics (par ex, YOLOv8 ou YOLO11), analysent les données visuelles telles que les images et les vidéos pour effectuer des tâches telles que la détection d'objets, la classification d'images ou la segmentation d'instances. Bien que distincts, le NLP et le CV peuvent être combinés dans des systèmes d'IA complexes, gérés et déployés par le biais de plateformes comme Ultralytics HUB. Le GPT-3 reste un modèle de base de référence dans l'évolution de l'apprentissage automatique.

Tout lire