Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Semi-Supervised Learning (Teilüberwachtes Lernen)

Entdecken Sie, wie semi-überwachtes Lernen beschriftete und unbeschriftete Daten kombiniert, um die Modellgenauigkeit zu verbessern. Lernen Sie, SSL-Workflows mit Ultralytics zu implementieren.

Halbüberwachtes Lernen (SSL) ist ein strategisches Paradigma im maschinellen Lernen (ML), das als Brücke zwischen zwei traditionellen Trainingsmethoden fungiert. Während überwachtes Lernen vollständig auf vollständig annotierten Datensätzen basiert und unüberwachtes Lernen versucht, Muster in Daten ohne Tags zu finden, kombiniert SSL eine kleine Menge beschrifteter Daten mit einem deutlich größeren Pool unbeschrifteter Daten. Dieser Ansatz ist besonders wertvoll in realen Computer-Vision-Szenarien (CV), in denen das Sammeln von Rohbildmaterial – wie Videoaufnahmen von Überwachungskameras oder Satelliten – relativ kostengünstig ist, aber der Prozess der Datenkennzeichnung durch menschliche Experten kostspielig, langsam und arbeitsintensiv ist. Durch die effektive Nutzung der in den unbeschrifteten Beispielen verborgenen Struktur kann SSL die Modellgenauigkeit und Generalisierung erheblich verbessern, ohne dass ein umfangreiches Budget für Annotationen erforderlich ist.

Kernmechanismen des semi-überwachten Lernens

Das primäre Ziel von SSL besteht darin, die Informationen aus dem kleinen Satz beschrifteter Beispiele auf den größeren unbeschrifteten Satz zu übertragen. Dadurch kann das neuronale Netzwerk Entscheidungsgrenzen lernen, die durch Regionen mit geringer Dichte der Daten verlaufen, was zu einer robusteren Klassifizierung oder Erkennung führt.

Zwei beliebte Techniken treiben die meisten halbüberwachten Arbeitsabläufe voran:

  • Pseudo-Labeling: Bei dieser Methode wird zunächst ein Modell anhand der begrenzten beschrifteten Daten trainiert. Anschließend wird es verwendet, um eine Inferenz für die unbeschrifteten Daten durchzuführen. Vorhersagen, die einen bestimmten Konfidenzschwellenwert überschreiten, werden als „Pseudo-Labels” oder Ground Truth behandelt. Diese zuverlässigen Vorhersagen werden zu den Trainingsdaten hinzugefügt, und das Modell wird erneut trainiert, wodurch seine Leistung iterativ verbessert wird.
  • Konsistenzregulierung: Diese Technik basiert auf Datenvergrößerung. Die Idee dahinter ist, dass ein Modell ähnliche Vorhersagen für ein Bild und eine leicht modifizierte (vergrößerte) Version desselben Bildes ausgeben sollte. Durch die Minimierung der Unterschiede in den Vorhersagen zwischen der Originalversion und der vergrößerten Version lernt das Modell, sich auf die Kernmerkmale des Objekts statt auf Störsignale zu konzentrieren, wodurch seine Fähigkeit zur Bewältigung von Überanpassung verbessert wird.

Praktische Umsetzung mit YOLO

Das folgende Python veranschaulicht einen einfachen Pseudo-Labeling-Workflow unter Verwendung von ultralytics . Hier trainieren wir ein YOLO26- Modell auf einem kleinen Datensatz und verwenden es dann, um Labels für ein Verzeichnis unbeschrifteter Bilder zu generieren.

from ultralytics import YOLO

# Load the latest YOLO26 model
model = YOLO("yolo26n.pt")

# Train initially on a small available labeled dataset
model.train(data="coco8.yaml", epochs=10)

# Run inference on unlabeled data to generate pseudo-labels
# Setting save_txt=True saves the detections as text files for future training
results = model.predict(source="./unlabeled_images", save_txt=True, conf=0.85)

Anwendungsfälle in der Praxis

Das halbüberwachte Lernen verändert Branchen, in denen Daten im Überfluss vorhanden sind, Fachwissen jedoch Mangelware ist.

  • Medizinische Bildgebung: In der Gesundheits-KI ist die Aufnahme von Scans (Röntgenbilder, MRTs) ein Standardverfahren, aber es ist unerschwinglich teuer, jeden Pixel von einem staatlich geprüften Radiologen für die Tumorerkennung annotieren zu lassen. SSL ermöglicht es Forschern, Hochleistungsmodelle zu trainieren, indem sie nur einen Bruchteil der von Experten annotierten Fälle verwenden und Tausende von archivierten Scans nutzen, um das Verständnis des Modells für biologische Strukturen zu verfeinern.
  • Autonomes Fahren: Hersteller selbstfahrender Autos sammeln täglich Petabytes an Videodaten aus ihrer Fahrzeugflotte. Es ist unmöglich, jedes einzelne Bild für die Objekterkennung und semantische Segmentierung zu kennzeichnen. Durch SSL kann das System aus der überwiegenden Mehrheit der nicht gekennzeichneten Fahrstunden lernen, um komplexe Straßenumgebungen, Wetterbedingungen und seltene Randfälle besser zu verstehen.

Unterscheidung von verwandten Konzepten

Um KI-Lösungen effektiv einzusetzen, ist es entscheidend zu verstehen, wie sich SSL von ähnlichen Strategien unterscheidet:

  • vs. Aktives Lernen: Beide befassen sich mit unbeschrifteten Daten, unterscheiden sich jedoch in ihrer Herangehensweise an die Beschriftung. SSL weist automatisch Beschriftungen auf der Grundlage von Modellvorhersagen zu . Im Gegensatz dazu identifiziert aktives Lernen die „verwirrendsten” oder unsichersten Datenpunkte und fordert explizit einen Menschen im Regelkreis auf, diese zu beschriften, wodurch die Zeit des Menschen optimiert wird, anstatt sie vollständig zu entfernen.
  • vs. Transferlernen: Beim Transferlernen wird ein Modell verwendet, das auf einem umfangreichen externen Datensatz (wie ImageNet) verwendet und für Ihre spezifische Aufgabe feinabgestimmt wird. SSL konzentriert sich hingegen darauf, den unbeschrifteten Teil Ihrer spezifischen Datensatzverteilung während des Trainingsprozesses selbst zu nutzen.
  • vs. Selbstüberwachtes Lernen: Obwohl die Namen ähnlich sind, bezieht sich selbstüberwachtes Lernen oft auf „Vorwandaufgaben” (wie das Lösen eines Puzzles aus Bildausschnitten), bei denen die Daten ihre eigenen Überwachungssignale ohne externe Beschriftungen generieren. SSL impliziert speziell die Verwendung einer kleineren Menge verifizierter Beschriftungen, um den Prozess zu steuern.

Werkzeuge und Zukunftsaussichten

Da Deep-Learning-Modelle (DL) immer größer werden, wird die Effizienz der Datennutzung immer wichtiger. Moderne Frameworks wie PyTorch und TensorFlow bieten das rechnerische Backend für diese fortschrittlichen Trainingsschleifen . Darüber hinaus vereinfachen Tools wie Ultralytics den Lebenszyklus der Datenverwaltung. Durch die Nutzung von Funktionen wie der automatischen Annotation können Teams halbüberwachte Workflows einfacher implementieren und Rohdaten schnell in produktionsreife Modellgewichte umwandeln. Diese Entwicklung im Bereich MLOps sorgt dafür, dass die Einstiegshürden für die Erstellung hochpräziser Bildverarbeitungssysteme weiter sinken.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten