Optimiere Modelle für maschinelles Lernen mit Validierungsdaten, um eine Überanpassung zu verhindern, Hyperparameter abzustimmen und eine robuste, reale Leistung sicherzustellen.
Validierungsdaten sind eine wichtige Komponente im Entwicklungszyklus des Maschinellen Lernens (ML). Sie sind eine separate Untergruppe des ursprünglichen Datensatzes und unterscheiden sich von den Trainingsdaten, die zur Anpassung des Modells verwendet werden, und den Testdaten, die für die abschließende Bewertung verwendet werden. Der Hauptzweck der Validierungsdaten besteht darin, eine unvoreingenommene Bewertung der Anpassung des Modells an den Trainingsdatensatz vorzunehmen, während die Hyperparameter des Modells abgestimmt und Entscheidungen über die Architektur des Modells getroffen werden. Dieser Prozess hilft dabei, die beste Modellkonfiguration auszuwählen, bevor die endgültige Leistung des Modells auf ungesehenen Daten bewertet wird.
Während des Modelltrainings lernt ein ML-Modell Muster aus den Trainingsdaten. Die Bewertung des Modells allein anhand dieser Daten kann jedoch irreführend sein, da sich das Modell die Trainingsbeispiele einfach merken könnte - ein Phänomen, das als Overfitting bekannt ist. Validierungsdaten dienen als Kontrollpunkt. Indem sie die Leistung des Modells während des Trainings regelmäßig an diesem separaten Datensatz überprüfen, können Entwickler/innen:
Die Unterscheidung zwischen Trainings-, Validierungs- und Testdatensätzen ist für eine robuste Modellentwicklung unerlässlich:
Eine ordnungsgemäße Trennung, die oft mit Tools wie Ultralytics HUB für die Versionierung und Verwaltung von Datensätzen verwaltet wird, stellt sicher, dass die Informationen aus dem Testsatz nicht in den Trainings- oder Modellauswahlprozess "durchsickern", was zu allzu optimistischen Leistungsschätzungen führen würde.
Validierungsdaten sind für die Abstimmung der Hyperparameter unerlässlich. Hyperparameter sind Konfigurationseinstellungen außerhalb des Modells selbst, die vor Beginn des Lernprozesses festgelegt werden. Beispiele dafür sind die Lernrate, die Anzahl der Schichten in einem neuronalen Netz oder die Art des verwendeten Optimierungsalgorithmus. Die Entwickler/innen trainieren mehrere Modellversionen mit verschiedenen Hyperparameterkombinationen, bewerten jede davon auf der Validierungsmenge und wählen dann die Kombination aus, die die beste Leistung erbringt. Diese systematische Suche kann mit Methoden wie der Rastersuche oder der Bayes'schen Optimierung automatisiert werden und wird oft durch Plattformen erleichtert, die in MLOps-Tools integriert sind.
Wenn die Menge der verfügbaren Daten begrenzt ist, wird oft eine Technik namens Kreuzvalidierung (speziell K-Fold Cross-Validation) eingesetzt. Dabei werden die Trainingsdaten in "K" Teilmengen (Fold) aufgeteilt. Das Modell wird K-mal trainiert, wobei jedes Mal K-1 Fold für das Training und der verbleibende Fold als Validierungsset verwendet wird. Die Leistung wird dann über alle K Durchläufe gemittelt. So erhältst du eine robustere Schätzung der Modellleistung und kannst begrenzte Daten besser nutzen, wie in der Ultralytics Anleitung zur K-Fold Cross-Validation erklärt wird.
Zusammenfassend lässt sich sagen, dass Validierungsdaten ein Eckpfeiler für den Aufbau zuverlässiger und leistungsstarker Modelle der Künstlichen Intelligenz (KI) sind. Sie ermöglichen ein effektives Hyperparameter-Tuning, die Modellauswahl und die Vermeidung von Overfitting und stellen sicher, dass die Modelle weit über die Daten hinaus verallgemeinert werden, auf denen sie trainiert wurden.