Glossar

Token

Lerne, wie Tokens, die Bausteine von KI-Modellen, NLP, Computer Vision und Aufgaben wie Sentimentanalyse und Objekterkennung unterstützen.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Im Bereich der künstlichen Intelligenz und des maschinellen Lernens, insbesondere bei der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) und zunehmend auch bei der Computer Vision, stellt ein "Token" die kleinste Einheit von Daten dar, die ein Modell verarbeitet. Token sind die grundlegenden Bausteine, die KI-Modelle verwenden, um Informationen zu verstehen und zu analysieren, egal ob es sich um Text, Bilder oder andere Daten handelt.

Token verstehen

Bei der Tokenisierung werden die Rohdaten in diese kleineren, verdaulichen Teile zerlegt. Im NLP wird Text zum Beispiel in Wörter, Unterwörter oder sogar Zeichen zerlegt. Dieser Prozess verwandelt kontinuierlichen Text in diskrete Einheiten, die von maschinellen Lernmodellen effektiv verarbeitet werden können. Die Art und Weise, wie die Daten tokenisiert werden, kann die Leistung und Effizienz der Modelle erheblich beeinflussen.

Tokens sind wichtig, weil maschinelle Lernmodelle, insbesondere Deep-Learning-Modelle, wie sie in Ultralytics YOLO verwendet werden, rohe, unstrukturierte Daten nicht direkt verarbeiten können. Sie benötigen Daten in einem numerischen oder diskreten Format. Die Tokenisierung dient als Brücke und wandelt komplexe Eingaben in ein Format um, das Algorithmen verstehen und daraus lernen können. Diese Umwandlung ist für Aufgaben wie die Texterstellung, die Stimmungsanalyse und die Objekterkennung unerlässlich.

Anwendungen von Token

Tokens werden für verschiedene KI- und ML-Aufgaben eingesetzt. Hier sind ein paar konkrete Beispiele:

  • Natürliche Sprachverarbeitung (NLP): In der NLP sind Token die Arbeitspferde der Sprachmodelle. Bei der Sentiment-Analyse kann ein Satz wie "Dieser Film war fantastisch!" zum Beispiel in ["Dieser", "Film", "war", "fantastisch", "!"] tokenisiert werden. Jedes dieser Token wird dann in eine numerische Darstellung umgewandelt, wie z. B. Worteinbettungen, die das Modell verwendet, um die Stimmung zu verstehen. Große Sprachmodelle wie GPT-4 und GPT-3 verlassen sich bei der Verarbeitung und Generierung von Text stark auf Token. Techniken wie Prompt Chaining und Prompt Tuning zielen darauf ab, Sequenzen von Token zu manipulieren und zu optimieren, um die gewünschten Ergebnisse dieser Modelle zu erzielen.

  • Computer Vision: Obwohl sie traditionell mit NLP in Verbindung gebracht werden, spielen Tokens in modernen Computer Vision Modellen eine immer wichtigere Rolle, insbesondere mit dem Aufkommen von Vision Transformers (ViT). In Modellen wie dem Segment Anything Model (SAM) werden Bilder oft in Bereiche unterteilt, die als visuelle Token betrachtet werden können. Diese visuellen Token werden dann von Transformator-Netzwerken verarbeitet, die Aufmerksamkeitsmechanismen nutzen, um Beziehungen zwischen verschiedenen Teilen des Bildes für Aufgaben wie Bildsegmentierung und Objekterkennung zu verstehen. Selbst in Objekterkennungsmodellen wie Ultralytics YOLOv8wird zwar nicht explizit mit "visuellen Token" gearbeitet, aber das Konzept, ein Bild in ein Raster aufzuteilen und jede Rasterzelle zu verarbeiten, kann als eine Form der impliziten Tokenisierung angesehen werden, bei der jede Rasterzelle zu einer Analyseeinheit wird.

Das Verständnis von Token ist grundlegend, um zu verstehen, wie KI-Modelle Informationen verarbeiten. Mit der Weiterentwicklung der KI wird das Konzept der Token und der Tokenisierung wahrscheinlich noch zentraler für den Umgang mit verschiedenen Datentypen und den Aufbau anspruchsvoller und effizienter Modelle werden.

Alles lesen