Semi-Supervised Learning (Teilüberwachtes Lernen)
Entdecken Sie, wie semi-überwachtes Lernen beschriftete und unbeschriftete Daten kombiniert, um die Modellgenauigkeit zu verbessern. Lernen Sie, SSL-Workflows mit Ultralytics zu implementieren.
Halbüberwachtes Lernen (SSL) ist ein strategisches Paradigma im
maschinellen Lernen (ML), das als Brücke
zwischen zwei traditionellen Trainingsmethoden fungiert. Während
überwachtes Lernen vollständig auf vollständig
annotierten Datensätzen basiert und
unüberwachtes Lernen versucht,
Muster in Daten ohne Tags zu finden, kombiniert SSL eine kleine Menge
beschrifteter Daten mit einem deutlich größeren Pool
unbeschrifteter Daten. Dieser Ansatz ist besonders
wertvoll in realen
Computer-Vision-Szenarien (CV), in denen das Sammeln
von Rohbildmaterial – wie Videoaufnahmen von Überwachungskameras oder Satelliten – relativ kostengünstig ist, aber der Prozess der
Datenkennzeichnung durch menschliche Experten kostspielig, langsam und
arbeitsintensiv ist. Durch die effektive Nutzung der in den unbeschrifteten Beispielen verborgenen Struktur kann SSL die
Modellgenauigkeit und Generalisierung erheblich verbessern, ohne dass
ein umfangreiches Budget für Annotationen erforderlich ist.
Kernmechanismen des semi-überwachten Lernens
Das primäre Ziel von SSL besteht darin, die Informationen aus dem kleinen Satz beschrifteter Beispiele auf den größeren
unbeschrifteten Satz zu übertragen. Dadurch kann das neuronale Netzwerk
Entscheidungsgrenzen lernen, die durch Regionen mit geringer Dichte der Daten verlaufen, was zu einer robusteren Klassifizierung
oder Erkennung führt.
Zwei beliebte Techniken treiben die meisten halbüberwachten Arbeitsabläufe voran:
-
Pseudo-Labeling: Bei dieser Methode wird zunächst ein Modell anhand der begrenzten beschrifteten Daten trainiert. Anschließend wird es
verwendet, um eine Inferenz für die unbeschrifteten Daten durchzuführen. Vorhersagen, die einen bestimmten
Konfidenzschwellenwert überschreiten, werden als
„Pseudo-Labels” oder Ground Truth behandelt. Diese zuverlässigen
Vorhersagen werden zu den Trainingsdaten hinzugefügt, und das
Modell wird erneut trainiert, wodurch seine Leistung iterativ verbessert wird.
-
Konsistenzregulierung: Diese Technik basiert auf
Datenvergrößerung. Die Idee dahinter ist, dass ein Modell
ähnliche Vorhersagen für ein Bild und eine leicht modifizierte (vergrößerte) Version desselben Bildes ausgeben sollte. Durch die
Minimierung der Unterschiede in den Vorhersagen zwischen der Originalversion und der vergrößerten Version lernt das Modell, sich
auf die Kernmerkmale des Objekts statt auf Störsignale zu konzentrieren, wodurch seine Fähigkeit zur Bewältigung von
Überanpassung verbessert wird.
Praktische Umsetzung mit YOLO
Das folgende Python veranschaulicht einen einfachen Pseudo-Labeling-Workflow unter Verwendung von
ultralytics . Hier trainieren wir ein
YOLO26- Modell auf einem kleinen Datensatz und verwenden es dann, um
Labels für ein Verzeichnis unbeschrifteter Bilder zu generieren.
from ultralytics import YOLO
# Load the latest YOLO26 model
model = YOLO("yolo26n.pt")
# Train initially on a small available labeled dataset
model.train(data="coco8.yaml", epochs=10)
# Run inference on unlabeled data to generate pseudo-labels
# Setting save_txt=True saves the detections as text files for future training
results = model.predict(source="./unlabeled_images", save_txt=True, conf=0.85)
Anwendungsfälle in der Praxis
Das halbüberwachte Lernen verändert Branchen, in denen Daten im Überfluss vorhanden sind, Fachwissen jedoch Mangelware ist.
-
Medizinische Bildgebung: In der
Gesundheits-KI ist die Aufnahme von Scans (Röntgenbilder, MRTs)
ein Standardverfahren, aber es ist unerschwinglich teuer, jeden Pixel von einem staatlich geprüften Radiologen für die
Tumorerkennung
annotieren zu lassen. SSL ermöglicht es Forschern, Hochleistungsmodelle zu trainieren, indem sie nur einen Bruchteil der
von Experten annotierten Fälle verwenden und Tausende von archivierten Scans nutzen, um das Verständnis des Modells für biologische
Strukturen zu verfeinern.
-
Autonomes Fahren: Hersteller selbstfahrender Autos sammeln täglich Petabytes an Videodaten aus ihrer Fahrzeugflotte.
Es ist unmöglich, jedes einzelne Bild für die
Objekterkennung und
semantische Segmentierung zu kennzeichnen.
Durch SSL kann das System aus der überwiegenden Mehrheit der nicht gekennzeichneten Fahrstunden lernen, um komplexe
Straßenumgebungen, Wetterbedingungen und seltene Randfälle besser zu verstehen.
Unterscheidung von verwandten Konzepten
Um KI-Lösungen effektiv einzusetzen, ist es entscheidend zu verstehen, wie sich SSL von ähnlichen Strategien unterscheidet:
-
vs. Aktives Lernen: Beide
befassen sich mit unbeschrifteten Daten, unterscheiden sich jedoch in ihrer Herangehensweise an die Beschriftung. SSL weist automatisch Beschriftungen auf der Grundlage von Modellvorhersagen zu
. Im Gegensatz dazu identifiziert aktives Lernen die „verwirrendsten” oder unsichersten Datenpunkte und
fordert explizit einen
Menschen im Regelkreis auf, diese zu beschriften,
wodurch die Zeit des Menschen optimiert wird, anstatt sie vollständig zu entfernen.
-
vs. Transferlernen:
Beim Transferlernen wird ein Modell verwendet, das auf einem umfangreichen externen Datensatz (wie
ImageNet) verwendet und für Ihre spezifische
Aufgabe feinabgestimmt wird. SSL konzentriert sich hingegen darauf, den unbeschrifteten Teil Ihrer spezifischen Datensatzverteilung
während des Trainingsprozesses selbst zu nutzen.
-
vs. Selbstüberwachtes Lernen:
Obwohl die Namen ähnlich sind, bezieht sich selbstüberwachtes Lernen oft auf „Vorwandaufgaben” (wie das Lösen eines
Puzzles aus Bildausschnitten), bei denen die Daten ihre eigenen Überwachungssignale ohne externe Beschriftungen generieren.
SSL impliziert speziell die Verwendung einer kleineren Menge verifizierter Beschriftungen, um den Prozess zu steuern.
Werkzeuge und Zukunftsaussichten
Da Deep-Learning-Modelle (DL) immer größer werden, wird die
Effizienz der Datennutzung immer wichtiger. Moderne Frameworks wie PyTorch und
TensorFlow bieten das rechnerische Backend für diese fortschrittlichen Trainingsschleifen
. Darüber hinaus vereinfachen Tools wie Ultralytics
den Lebenszyklus der Datenverwaltung. Durch die Nutzung von Funktionen wie der
automatischen Annotation können Teams
halbüberwachte Workflows einfacher implementieren und Rohdaten schnell in produktionsreife
Modellgewichte umwandeln. Diese Entwicklung im Bereich
MLOps sorgt dafür, dass die Einstiegshürden für die
Erstellung hochpräziser Bildverarbeitungssysteme weiter sinken.