Glossar

Kontext-Fenster

Entdecke, wie Kontextfenster KI/ML-Modelle in NLP, Zeitreihenanalyse und Vision AI verbessern und so Vorhersagen und Genauigkeit steigern.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Ein Kontextfenster bezieht sich auf die begrenzte Spanne vorhergehender (und manchmal auch nachfolgender) Informationen, die ein maschinelles Lernmodell bei der Verarbeitung von sequentiellen Daten wie Text oder Zeitreiheninformationen berücksichtigt. Man kann es sich als den Fokus oder das Kurzzeitgedächtnis des Modells zu einem bestimmten Zeitpunkt in der Sequenz vorstellen. Dieses Konzept ist entscheidend, denn es legt fest, wie viel Kontext das Modell nutzen kann, um Zusammenhänge zu verstehen, Vorhersagen zu treffen oder relevante Ergebnisse zu erzeugen. Die Größe des Kontextfensters wirkt sich direkt auf die Fähigkeit eines Modells aus, Abhängigkeiten innerhalb der Daten zu erfassen, und beeinflusst sowohl seine Leistung als auch seinen Rechenaufwand.

Kontextfenster in der natürlichen Sprachverarbeitung (NLP)

Das Kontextfenster ist ein grundlegendes Konzept in der natürlichen Sprachverarbeitung (NLP). Modelle wie Transformers, die Architekturen wie BERT und GPT zugrunde liegen, stützen sich stark auf Kontextfenster. Bei diesen Modellen bestimmt das Kontextfenster, wie viele vorangehende Token (Wörter oder Teilwörter) bei der Verarbeitung eines bestimmten Tokens berücksichtigt werden. Ein größeres Kontextfenster ermöglicht es dem Modell, längerfristige Abhängigkeiten im Text zu verstehen, was zu kohärenteren und kontextbewussteren Ergebnissen führen kann, wie bei fortschrittlichen Modellen wie dem GPT-4 von OpenAI zu sehen ist. Größere Fenster erhöhen jedoch auch die Rechenlast und den Speicherbedarf beim Training und bei der Inferenz.

Kontextfenster in Vision AI

Auch wenn die Idee des Kontextfensters vor allem in der NLP diskutiert wird, ist sie auch in der Computer Vision (CV) anwendbar, insbesondere bei der Analyse von Videoströmen oder Bildsequenzen. Bei der Objektverfolgung kann ein Modell zum Beispiel ein Kontextfenster aus mehreren aufeinanderfolgenden Bildern verwenden, um die Flugbahn eines Objekts besser vorherzusagen und Verdeckungen zu erkennen. Dieser zeitliche Kontext trägt dazu bei, dass die Verfolgung konsistent bleibt. DieYOLO Ultralytics , die in erster Linie für die Objekterkennung in Echtzeit bekannt sind, können in Systeme integriert werden, die Kontextfenster für Aufgaben wie die Videoanalyse nutzen, und so ihre Fähigkeiten über die Verarbeitung von Einzelbildern hinaus erweitern. Erkunde die Ultralytics Lösungen für Beispiele fortschrittlicher Bildverarbeitungsanwendungen.

Beispiele für Kontextfenster in KI/ML-Anwendungen der realen Welt

  • Chatbots und virtuelle Assistenten: Systeme wie Chatbots und virtuelle Assistenten nutzen Kontextfenster, um sich an die letzten Runden eines Gesprächs zu erinnern. So können sie Folgefragen verstehen und relevante Antworten geben, was eine natürlichere Interaktion ermöglicht. Ohne ausreichenden Kontext könnte der Assistent jede Anfrage unabhängig voneinander behandeln, was zu unzusammenhängenden Gesprächen führt. Du kannst Plattformen wie Ultralytics HUB für die Erstellung und den Einsatz von KI-Modellen nutzen.
  • Prädiktiver Text und automatische Vervollständigung: Wenn du auf deinem Handy tippst oder eine Suchmaschine benutzt, analysieren Predictive-Text-Algorithmen das Kontextfenster der zuletzt getippten Wörter, um das nächste Wort vorzuschlagen oder deinen Satz zu vervollständigen. Dies beruht auf statistischen Mustern, die aus riesigen Mengen von Textdaten gelernt wurden, und berücksichtigt den unmittelbaren vorangegangenen Kontext, um wahrscheinliche Fortsetzungen anzubieten. Frameworks wie PyTorch und TensorFlow werden oft verwendet, um solche Modelle zu erstellen.

Kontextfenster vs. andere verwandte Begriffe

  • Kontextfenster vs. Sequenzlänge: Die Sequenzlänge bezieht sich auf die Gesamtzahl der Token in der gesamten Eingabesequenz, die dem Modell zur Verfügung gestellt wird. Das Kontextfenster hingegen ist der spezifische (oft kleinere) Teil der Sequenz, den das Modell aktiv nutzt, um eine Vorhersage für ein bestimmtes Element zu treffen. Ein Dokument kann z. B. eine Sequenzlänge von 1000 Token haben, aber das Modell kann nur ein Kontextfenster von 128 Token um ein Zielwort herum verwenden. Die Bibliothek Hugging Face Transformers bietet Werkzeuge für den Umgang mit Sequenzen und Kontextfenstern.
  • Kontextfenster vs. rezeptives Feld: In Convolutional Neural Networks (CNNs) beschreibt das rezeptive Feld die räumliche Ausdehnung des Eingangsbildes, die die Aktivierung eines bestimmten Neurons beeinflusst. Während sich beide Begriffe auf den Umfang der berücksichtigten Eingaben beziehen, ist das rezeptive Feld bei CNNs spezifisch für den räumlichen Bereich, während sich das Kontextfenster typischerweise auf den sequenziellen Bereich (wie Zeit oder Textposition) in verschiedenen Modellarchitekturen, einschließlich rekurrenter neuronaler Netze (RNNs) und Transformers, bezieht. Weitere Einzelheiten zu den Modellarchitekturen findest du in der Dokumentation derUltralytics Modelle.
Alles lesen