Glossaire

BERT (Bidirectional Encoder Representations from Transformers)

Découvre BERT, le modèle NLP révolutionnaire de Google. Apprends comment sa compréhension bidirectionnelle du contexte transforme les tâches d'IA comme la recherche et les chatbots.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

BERT, qui signifie Bidirectional Encoder Representations from Transformers, est une technique historique de pré-entraînement du traitement du langage naturel (NLP) développée par les chercheurs de Google AI Language. Introduite en 2018, BERT a révolutionné la façon dont les machines comprennent le langage humain en étant la première représentation du langage profondément bidirectionnelle et non supervisée, pré-entraînée en utilisant uniquement un corpus de texte brut. Il tire parti de la puissante architecture Transformer, plus précisément de la partie encodeur, pour traiter les mots en relation avec tous les autres mots d'une phrase, plutôt que de manière séquentielle.

Comment fonctionne Bert

Contrairement aux modèles précédents qui traitaient le texte dans une seule direction (soit de gauche à droite, soit de droite à gauche), BERT traite toute la séquence de mots à la fois. Cette approche bidirectionnelle lui permet de saisir le contexte d'un mot en fonction des mots qui l'entourent, qu'ils le précèdent ou le suivent. Imagine que tu essaies de comprendre la signification du mot "banque" dans "Je suis allé à la banque pour déposer de l'argent" par rapport à "Je me suis assis sur la berge de la rivière". La bidirectionnalité de BERT l'aide à différencier efficacement ces significations. Il apprend ces relations en étant pré-entraîné sur de grandes quantités de données textuelles, comme Wikipedia, en utilisant des techniques telles que la modélisation du langage masqué (prédiction des mots cachés) et la prédiction de la phrase suivante. Le modèle pré-entraîné qui en résulte, contenant de riches enchâssements linguistiques, peut ensuite être rapidement adapté ou"affiné" pour des tâches NLP spécifiques en aval avec des ensembles de données plus petits et spécifiques à la tâche.

Principales caractéristiques et avantages

  • Contexte bidirectionnel : Comprend le sens des mots en fonction du contexte de la phrase complète, ce qui améliore la précision des tâches nécessitant une compréhension approfondie de la langue.
  • Pré-entraînement et mise au point : Offre de puissants modèles pré-entraînés qui capturent la compréhension générale du langage et qui peuvent être facilement adaptés à des applications spécifiques comme l'analyse des sentiments ou la réponse aux questions. Cela réduit considérablement le besoin de grands ensembles de données étiquetées pour chaque tâche.
  • Des performances de pointe : A obtenu des résultats révolutionnaires dans un large éventail de tests de référence NLP dès sa sortie, établissant ainsi une nouvelle norme pour les modèles de langage. Tu peux explorer la recherche originale dans l'article ArXiv de BERT.
  • Polyvalence : Peut être appliqué à diverses tâches NLP, notamment la classification de textes, la reconnaissance d'entités nommées et l'inférence du langage naturel.

Applications dans le monde réel

La capacité de BERT à comprendre les nuances de la langue a conduit à des améliorations significatives dans diverses applications :

  1. Moteurs de recherche : Google a intégré BERT à son moteur de recherche pour mieux comprendre les requêtes des utilisateurs. Comme le détaille le billet duGoogle AI Blog sur BERT dans la recherche, cela permet de fournir des résultats de recherche plus pertinents en saisissant le contexte et l'intention qui se cachent derrière les requêtes complexes ou conversationnelles.
  2. IA conversationnelle : BERT améliore les chatbots et les assistants virtuels en leur permettant de mieux comprendre les demandes des utilisateurs, de maintenir le contexte pendant les conversations et de fournir des réponses plus précises et plus utiles. Cela conduit à des interactions homme-machine plus naturelles et plus efficaces.

D'autres applications comprennent l'amélioration des outils de résumé de texte et des systèmes de traduction automatique.

Bert et les modèles similaires

BERT se concentre principalement sur l'encodage de texte pour des tâches de compréhension. Sa nature bidirectionnelle contraste avec les modèles unidirectionnels antérieurs tels que les réseaux neuronaux récurrents de base (RNN). Bien qu'il soit également basé sur l'architecture Transformer, BERT diffère des modèles tels que GPT (Generative Pre-trained Transformer), qui sont généralement optimisés pour générer du texte plutôt que de simplement l'encoder. L'architecture Transformer elle-même a également été adaptée à des tâches de vision par ordinateur, comme le montrent des modèles tels que Vision Transformer (ViT), ce qui démontre la flexibilité de l'architecture au-delà du NLP. De nombreux modèles BERT pré-entraînés sont facilement disponibles sur des plateformes telles que Hugging Face et peuvent être intégrés dans des flux de travail à l'aide d'outils comme Ultralytics HUB.

Tout lire