Glossaire

Fenêtre contextuelle

Découvre comment les fenêtres contextuelles améliorent les modèles d'IA/ML dans le domaine du NLP, de l'analyse des séries temporelles et de l'IA de la vision, en améliorant les prédictions et la précision.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Une fenêtre contextuelle désigne l'étendue finie des informations précédentes (et parfois suivantes) qu'un modèle d'apprentissage automatique prend en compte lorsqu'il traite des données séquentielles, telles que du texte ou des informations de séries temporelles. Considère-la comme le centre d'intérêt ou la mémoire à court terme du modèle à un moment donné de la séquence. Ce concept est crucial car il définit la quantité de contexte que le modèle peut exploiter pour comprendre les relations, faire des prédictions ou générer des sorties pertinentes. La taille de la fenêtre contextuelle a un impact direct sur la capacité d'un modèle à saisir les dépendances au sein des données, ce qui influe à la fois sur ses performances et sur les exigences en matière de calcul.

Fenêtre contextuelle dans le traitement du langage naturel (NLP)

La fenêtre contextuelle est un concept fondamental dans le traitement du langage naturel (NLP). Les modèles tels que les transformateurs, qui sont à la base d'architectures telles que BERT et GPT, s'appuient fortement sur les fenêtres contextuelles. Dans ces modèles, la fenêtre contextuelle détermine combien de tokens précédents (mots ou sous-mots) sont pris en compte lors du traitement d'un token spécifique. Une fenêtre de contexte plus large permet au modèle de comprendre les dépendances à plus long terme dans le texte, ce qui peut conduire à des résultats plus cohérents et plus sensibles au contexte, comme on le voit dans les modèles avancés tels que GPT-4 d'OpenAI. Cependant, les fenêtres plus larges augmentent également la charge de calcul et l'utilisation de la mémoire pendant la formation et l'inférence.

Fenêtre contextuelle dans l'IA de la vision

Bien qu'elle soit surtout discutée dans le cadre du NLP, l'idée d'une fenêtre contextuelle s'applique également à la vision artificielle (CV), en particulier lors de l'analyse de flux vidéo ou de séquences d'images. Par exemple, dans le suivi d'objets, un modèle peut utiliser une fenêtre contextuelle de plusieurs images consécutives pour mieux prédire la trajectoire d'un objet et gérer les occlusions. Ce contexte temporel aide à maintenir la cohérence du suivi. Les modèlesYOLO d'Ultralytics , principalement connus pour la détection d'objets en temps réel, peuvent être intégrés dans des systèmes qui utilisent des fenêtres contextuelles pour des tâches telles que l'analyse vidéo, améliorant ainsi leurs capacités au-delà du traitement d'une seule image. Explore les solutionsUltralytics pour obtenir des exemples d'applications de vision avancées.

Exemples de fenêtres contextuelles dans les applications IA/ML du monde réel

  • Chatbots et assistants virtuels : Les systèmes tels que les chatbots et les assistants virtuels utilisent des fenêtres contextuelles pour se souvenir des derniers tours de parole d'une conversation. Cela leur permet de comprendre les questions de suivi et de fournir des réponses pertinentes, créant ainsi une interaction plus naturelle. Sans contexte suffisant, l'assistant risque de traiter chaque requête indépendamment, ce qui conduit à des conversations décousues. Tu peux explorer des plateformes comme Ultralytics HUB pour construire et déployer des modèles d'IA.
  • Texte prédictif et autocomplétion : Lorsque tu tapes sur ton téléphone ou que tu utilises un moteur de recherche, les algorithmes de texte prédictif analysent la fenêtre de contexte des mots récemment tapés pour suggérer le mot suivant ou compléter ta phrase. Ces algorithmes s'appuient sur des modèles statistiques appris à partir de grandes quantités de données textuelles, en tenant compte du contexte qui précède immédiatement pour proposer des suites probables. Des outils comme PyTorch et TensorFlow sont souvent utilisés pour construire de tels modèles.

Fenêtre contextuelle et autres termes connexes

  • Fenêtre contextuelle et longueur de la séquence : La longueur de la séquence fait référence au nombre total de tokens dans une séquence d'entrée entière fournie au modèle. La fenêtre contextuelle, quant à elle, est la partie spécifique (souvent plus petite) de cette séquence que le modèle utilise activement pour faire une prédiction pour un élément particulier. Par exemple, un document peut avoir une longueur de séquence de 1000 tokens, mais le modèle peut n'utiliser qu'une fenêtre de contexte de 128 tokens autour d'un mot cible. La bibliothèque Hugging Face Transformers fournit des outils pour gérer les séquences et les fenêtres contextuelles.
  • Fenêtre contextuelle et champ réceptif : Dans les réseaux neuronaux convolutionnels (CNN), le champ réceptif décrit l'étendue spatiale de l'image d'entrée qui influence l'activation d'un neurone particulier. Bien que les deux termes se rapportent à l'étendue de l'entrée prise en compte, le champ réceptif est spécifique au domaine spatial dans les CNN, tandis que la fenêtre contextuelle se réfère généralement au domaine séquentiel (comme le temps ou la position du texte) dans diverses architectures de modèles, y compris les réseaux neuronaux récurrents (RNN) et les transformateurs. Pour plus de détails sur les architectures de modèles, voir la documentation sur les modèlesUltralytics .
Tout lire