Aktives Lernen ist ein spezieller Teilbereich des maschinellen Lernens (ML), bei dem der Lernalgorithmus in der Lage ist, interaktiv einen Nutzer, der oft als "Orakel" oder menschlicher Annotator bezeichnet wird, um Kennzeichnungen für neue Datenpunkte zu bitten. Im Gegensatz zum traditionellen überwachten Lernen, das sich auf einen großen, vorab beschrifteten Datensatz stützt, zielt Active Learning darauf ab, eine hohe Modellleistung bei minimalem Beschriftungsaufwand zu erreichen, indem es strategisch die informativsten unbeschrifteten Instanzen für die Beschriftung auswählt. Dieser Ansatz ist besonders wertvoll in Bereichen, in denen die Beschaffung von beschrifteten Daten teuer und zeitaufwändig ist oder Expertenwissen erfordert.
Wie aktives Lernen funktioniert
Der Prozess des aktiven Lernens folgt in der Regel einem iterativen Zyklus:
- Erstausbildung: Ein Modell, wie z.B. ein Ultralytics YOLO Modell zur Objekterkennung, wird auf einem kleinen, anfänglich beschrifteten Datensatz trainiert.
- Abfragen: Das aktuell trainierte Modell analysiert einen Pool von unbeschrifteten Daten und wählt mit einer bestimmten Abfragestrategie die Datenpunkte aus, die es für besonders informativ oder unsicher hält.
- Beschriftung: Diese ausgewählten Datenpunkte werden einem menschlichen Annotator (dem Orakel) zur Beschriftung vorgelegt. Effektive Verfahren zur Datenerfassung und -beschriftung sind hier entscheidend.
- Umlernen: Die neu beschrifteten Instanzen werden der Trainingsmenge hinzugefügt.
- Iteration: Das Modell wird mit dem erweiterten Datensatz neu trainiert, und der Zyklus (Schritte 2-5) wird so lange wiederholt, bis ein Abbruchkriterium erfüllt ist, z. B. das Erreichen eines gewünschten Genauigkeitsniveaus, das Ausschöpfen des Beschriftungsbudgets oder die Beobachtung, dass die Leistungsverbesserung abnimmt.
Abfragestrategien
Der Kern von Active Learning liegt in der Abfragestrategie - der Methode, mit der ausgewählt wird, welche unbeschrifteten Datenpunkte als Nächstes abgefragt werden sollen. Zu den gängigen Strategien gehören:
- Uncertainty Sampling: Auswahl von Fällen, in denen das Modell am wenigsten Vertrauen in seine Vorhersage hat. Dies ist vielleicht die am häufigsten verwendete Strategie. Weitere Details findest du in wissenschaftlichen Studien wie dieser von Burr Settles.
- Query-by-Committee (QBC): Training mehrerer Modelle (eines Ausschusses) und Auswahl der Fälle, in denen die Ausschussmitglieder bei der Vorhersage am uneinigsten sind.
- Erwartete Modelländerung: Auswahl der Instanzen, die die größte Veränderung der Modellparameter verursachen würden, wenn ihre Bezeichnungen bekannt wären.
Relevanz und Nutzen
Active Learning reduziert den Aufwand für die Datenbeschriftung, die oft ein großer Engpass bei der Entwicklung von ML-Modellen ist, erheblich. Durch die Konzentration der Beschriftung auf die wichtigsten Datenpunkte können die Teams:
- Erreiche eine vergleichbare oder sogar bessere Modellleistung mit deutlich weniger Etiketten.
- Reduziere die Kosten, die mit der Expertenkommentierung verbunden sind.
- Beschleunige den Lebenszyklus der Modellentwicklung.
- Entwickle robustere Modelle, indem du dich auf schwierige oder mehrdeutige Beispiele konzentrierst.
Anwendungen in der realen Welt
Aktives Lernen findet in verschiedenen Bereichen Anwendung:
- Medizinische Bildanalyse: Bei Aufgaben wie der Tumorerkennung in der medizinischen Bildgebung kann ein Active Learning-System Radiologen die mehrdeutigsten Röntgenbilder oder MRT-Scans vorlegen und so den Wert ihrer Expertenzeit maximieren und die Entwicklung von Diagnose-KI beschleunigen. Dies ist entscheidend für die Verbesserung von KI-Lösungen im Gesundheitswesen.
- Natürliche Sprachverarbeitung (NLP): Bei Aufgaben wie der Stimmungsanalyse oder der Erkennung von benannten Entitäten kann Active Learning unsichere Textausschnitte (z. B. Beiträge in sozialen Medien, Kundenrezensionen) für eine menschliche Überprüfung auswählen und so die Leistung des Modells mit weniger manuellen Beschriftungen im Vergleich zu zufällig ausgewählten Daten schnell verbessern.
Aktives Lernen vs. verwandte Konzepte
- Überwachtes Lernen: Verlässt sich vollständig auf einen bereits vorhandenen, vollständig beschrifteten Datensatz. Beim Training werden die Daten nicht interaktiv für die Beschriftung ausgewählt.
- Semi-Supervised Learning: Auch hier werden sowohl beschriftete als auch unbeschriftete Daten verwendet, aber in der Regel werden die unbeschrifteten Daten automatisch auf der Grundlage von Annahmen über die Struktur der Daten (z. B. Clustering, vielfältige Annahmen) genutzt, anstatt aktiv nach bestimmten Beschriftungen zu fragen. Weitere Informationen findest du in unserem Glossareintrag über Semi-Supervised Learning.
- Verstärkungslernen: Lernt durch Versuch-und-Irrtum-Interaktionen mit der Umgebung und erhält Belohnungen oder Bestrafungen. Es konzentriert sich auf das Erlernen optimaler Aktionen und nicht auf die effiziente Kennzeichnung von Daten wie beim Active Learning. Erfahre mehr über Reinforcement Learning in unserem Glossar.