Glossar

Zero-Shot Learning

Entdecke Zero-Shot Learning: ein innovativer KI-Ansatz, der es Modellen ermöglicht, ungesehene Daten zu klassifizieren und damit die Objekterkennung, NLP und vieles mehr zu revolutionieren.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Zero-Shot Learning (ZSL) ist ein faszinierender Bereich des maschinellen Lernens (ML), bei dem ein Modell darauf trainiert wird, Datenkategorien zu erkennen und zu klassifizieren, die es während der Trainingsphase nie explizit gesehen hat. Im Gegensatz zu traditionellen überwachten Lernansätzen, die für jede mögliche Kategorie markierte Beispiele benötigen, zielt ZSL darauf ab, Wissen von gesehenen Klassen auf ungesehene Klassen zu verallgemeinern, indem gemeinsame Hilfsinformationen genutzt werden. Diese Fähigkeit ist besonders wertvoll in realen Szenarien, in denen es unpraktisch oder unmöglich ist, beschriftete Daten für jede denkbare Kategorie zu sammeln.

Wie Zero-Shot Learning funktioniert

Die Kernidee hinter ZSL ist es, eine Abbildung zwischen dem Raum der Eingangsmerkmale (z. B. Bild- oder Textmerkmale) und einem semantischen Einbettungsraum zu lernen. Dieser semantische Raum kodiert in der Regel übergeordnete beschreibende Eigenschaften oder Attribute, die sowohl von gesehenen als auch von ungesehenen Klassen geteilt werden. In der Computer Vision können dies zum Beispiel visuelle Attribute wie "hat Streifen", "hat Fell", "hat Flügel" oder textbasierte Beschreibungen sein. In der natürlichen Sprachverarbeitung (NLP) dienen Worteinbettungen oft als dieser semantische Raum.

Während des Trainings lernt das Modell, die Merkmale der gesehenen Klassen mit den entsprechenden semantischen Repräsentationen (z. B. Attribute oder Einbettungen) zu verbinden. Zum Zeitpunkt der Inferenz extrahiert das Modell die Merkmale einer ungesehenen Klasse und ordnet sie dem gelernten semantischen Raum zu. Durch den Vergleich dieser Zuordnung mit den bekannten semantischen Repräsentationen der unbekannten Klassen (die separat bereitgestellt werden) kann das Modell die Klassenbezeichnung auch ohne vorherige Beispiele vorhersagen. Deep-Learning-Modelle, insbesondere solche, die Techniken wie das kontrastive Lernen (CLIP) verwenden, werden häufig für ZSL-Aufgaben eingesetzt, da sie in der Lage sind, umfangreiche Merkmalsrepräsentationen zu lernen. Du kannst verschiedene Datensätze untersuchen, die für solche Aufgaben geeignet sind, z. B. die in der Ultralytics Datasets-Dokumentation aufgeführten.

Anwendungen in der realen Welt

Zero-Shot Learning ermöglicht leistungsstarke Anwendungen in verschiedenen Bereichen:

  1. Neuartige Objekterkennung: Bei der Bildklassifizierung oder Objekterkennung ermöglicht ZSL Systemen, Objekte zu identifizieren, die in den ursprünglichen Trainingsdaten nicht vorhanden sind. Ein System zur Überwachung von Wildtieren, das auf gewöhnliche Tiere trainiert wurde, könnte zum Beispiel eine seltene oder neu entdeckte Art auf der Grundlage einer Textbeschreibung oder einer Reihe semantischer Attribute identifizieren, die von Experten bereitgestellt werden. Modelle wie Ultralytics YOLO nutzen diese Fähigkeit zur Erkennung von offenem Vokabular.
  2. Dynamische Kategorisierung von Inhalten: ZSL kann Dokumente, Nachrichtenartikel oder nutzergenerierte Inhalte in aufkommende Themen kategorisieren, für die noch keine beschrifteten Daten existieren. Ein System könnte auf bestehende Kategorien trainiert werden und dann Worteinbettungen oder Themenbeschreibungen verwenden, um Inhalte zu klassifizieren, die sich auf unvorhergesehene Ereignisse oder Trends beziehen.

ZSL vs. verwandte Lernparadigmen

Es ist wichtig, ZSL von verwandten Konzepten zu unterscheiden:

  • Few-Shot Learning: Ziel ist es, neue Klassen aus einer sehr kleinen Anzahl von markierten Beispielen (mehr als Null) zu lernen.
  • One-Shot-Lernen: Ein Sonderfall des One-Shot-Learnings, bei dem für jede neue Klasse nur ein beschriftetes Beispiel zur Verfügung steht.
  • Transfer-Lernen: Hierbei wird das Wissen aus einer Aufgabe oder einem Bereich genutzt, um die Leistung in einer anderen, aber verwandten Aufgabe oder einem anderen Bereich zu verbessern. Oft geht es um die Feinabstimmung eines vorab trainierten Modells auf Zieldaten, die in der Regel Beispiele für die Zielklassen enthalten.

Der Hauptunterschied besteht darin, dass ZSL unter der strikten Bedingung arbeitet, dass es während des Trainings oder der Anpassung keine gelabelten Beispiele für die Zielklassen gibt. Einen vergleichenden Überblick findest du in der Diskussion über das Verständnis von Few-Shot, Zero-Shot und Transfer Learning.

Bedeutung in der KI

Zero-Shot Learning verbessert die Skalierbarkeit und Anpassungsfähigkeit von KI-Systemen erheblich. Es verringert die Abhängigkeit von einer umfassenden Datensammlung und -kommentierung, die oft ein Engpass bei der Entwicklung großer ML-Anwendungen ist. Indem ZSL die Modelle in die Lage versetzt, auf unbekannte Konzepte zu schließen, verschiebt es die Grenzen der Verallgemeinerung in der Künstlichen Intelligenz (KI) und macht die Systeme robuster und fähig, mit der offenen Natur der realen Welt umzugehen. Plattformen wie Ultralytics HUB erleichtern das Training und den Einsatz von Modellen, einschließlich solcher, die möglicherweise in Zukunft die ZSL-Prinzipien nutzen werden. Weitere Details zur ZSL-Forschung findest du auf der ZSL-Seite von Wikipedia oder in wissenschaftlichen Studien auf Plattformen wie arXiv.

Alles lesen