Glossar

Kreuzvalidierung

Entdecke die Macht der Kreuzvalidierung beim maschinellen Lernen, um die Modellgenauigkeit zu verbessern, eine Überanpassung zu verhindern und eine robuste Leistung sicherzustellen.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Die Kreuzvalidierung ist eine wichtige statistische Technik, die beim maschinellen Lernen (ML) eingesetzt wird, um zu beurteilen, wie gut ein Modell auf einen unabhängigen Datensatz verallgemeinert werden kann. Anstatt die Daten in einen Trainings- und einen Testdatensatz aufzuteilen, werden sie bei der Kreuzvalidierung in mehrere Teilmengen, sogenannte Folds, aufgeteilt. Das Modell wird iterativ auf einigen Fold-Sets trainiert und auf den restlichen Fold-Sets evaluiert. Im Vergleich zu einer einfachen Aufteilung in Trainings- und Testdaten liefert dieses Verfahren eine verlässlichere Einschätzung der Leistung des Modells bei ungesehenen Daten und verringert das Risiko einer Überanpassung, bei der ein Modell die Trainingsdaten einschließlich des Rauschens zu gut lernt.

Wie die Kreuzvalidierung funktioniert

Die am häufigsten verwendete Methode ist die K-Fold Cross-Validation. Das Verfahren umfasst diese Schritte:

  1. Shuffle und Split: Der gesamte Datensatz wird nach dem Zufallsprinzip gemischt und in "K" gleich große Folds (Teilmengen) aufgeteilt.
  2. Iteratives Training und Validierung: Das Modell wird K-mal trainiert. In jeder Iteration "i" (von 1 bis K):
  3. Leistungsaggregation: Die in jeder der K Iterationen erfasste Leistungskennzahl wird gemittelt, um eine einzige, robustere Schätzung der Generalisierungsfähigkeit des Modells zu erhalten.

Viele beliebte ML-Bibliotheken wie Scikit-learn bieten effiziente Implementierungen verschiedener Cross-Validation-Strategien, darunter Stratified K-Fold (wichtig für unausgewogene Datensätze) und Leave-One-Out CV.

Warum eine Kreuzvalidierung?

Die Kreuzvalidierung ist aus mehreren Gründen ein Eckpfeiler einer zuverlässigen Modellbewertung:

  • Zuverlässigere Leistungseinschätzungen: Indem die Ergebnisse über mehrere Validierungssätze gemittelt werden, reduziert CV die Varianz, die mit einer einzigen Zug/Test-Aufteilung verbunden ist, und liefert ein stabileres Maß dafür, wie das Modell in der Praxis abschneiden könnte. Dies fördert die Reproduzierbarkeit in der Forschung.
  • Effiziente Datennutzung: Es nutzt begrenzte Datensätze besser aus, da jeder Datenpunkt sowohl als Trainings- als auch als Validierungsdaten für die verschiedenen Faltungen dient. Das ist besonders vorteilhaft, wenn die Datenerhebung teuer oder schwierig ist.
  • Erkennung von Overfitting/Underfitting: Es hilft dabei, Modelle zu identifizieren, die zu komplex (Overfitting) oder zu einfach(Underfitting) sind, indem es Diskrepanzen zwischen der Trainingsleistung und der durchschnittlichen Validierungsleistung aufdeckt.
  • Robustes Hyperparameter-Tuning: CV bietet eine zuverlässigere Grundlage für die Auswahl optimaler Hyperparameter. Verschiedene Hyperparametersätze können auf der Grundlage ihrer durchschnittlichen kreuzvalidierten Leistung bewertet werden, was zu Modellen mit besserer Generalisierung führt. Ultralytics bietet Tools für das Hyperparameter-Tuning an, die CV-Prinzipien einbeziehen können.

Kreuzvalidierung vs. einfache Train/Validierung Aufteilung

Bei einer einfachen Aufteilung in Training und Validierung werden die Daten einmal geteilt: ein Teil für das Training, einer für die Validierung. Sie ist zwar einfach zu implementieren, hat aber den großen Nachteil, dass die Leistungsbewertung stark davon abhängt, welche Datenpunkte zufällig in die Validierungsmenge fallen. Ein besonders "einfaches" oder "schweres" Validierungsset kann zu übermäßig optimistischen oder pessimistischen Leistungsschätzungen führen.

Die Kreuzvalidierung überwindet dieses Problem, indem sie systematisch verschiedene Teilmengen für die Validierung verwendet und so sicherstellt, dass jeder Datenpunkt genau einmal in den Bewertungsprozess einfließt. Dies führt zu einer stabileren und zuverlässigeren Bewertung der Robustheit des Modells. Es ist wichtig zu beachten, dass ein abschließender Testdatensatz, der sowohl beim Training als auch bei der CV-basierten Abstimmung ungesehen bleibt, für die endgültige Bewertung des gewählten Modells reserviert werden sollte. Ultralytics bietet eine ausführliche Anleitung zur Durchführung der K-Fold Cross Validation mit Ultralytics YOLO.

Anwendungen in der realen Welt

Die Kreuzvalidierung ist für den Aufbau zuverlässiger KI-Systeme in verschiedenen Bereichen unerlässlich:

  1. Medizinische Bildanalyse: Bei der Entwicklung eines Convolutional Neural Network (CNN) für die medizinische Bildanalyse, z. B. für die Erkennung von Tumoren in Hirnscans mit Hilfe von Datensätzen wie dem Brain Tumor Dataset, wird CV verwendet, um die diagnostische Genauigkeit und die Generalisierung des Modells über verschiedene Patientendaten hinweg genau zu bewerten, bevor klinische Studien in Betracht gezogen oder eine behördliche Zulassung (z. B. durch die FDA) beantragt wird.
  2. Autonome Fahrzeuge: Für Objekterkennungsmodelle wie Ultralytics YOLO die in autonomen Fahrzeugen eingesetzt werden, hilft CV dabei, eine zuverlässige Leistung bei der Erkennung von Fußgängern, Radfahrern und anderen Fahrzeugen unter verschiedenen Umgebungsbedingungen (Beleuchtung, Wetter, Straßentypen) zu gewährleisten, die oft in komplexen Datensätzen wie Argoverse vorkommen. Diese robuste Bewertung, die oft anhand von Kennzahlen wie der mittleren durchschnittlichen Genauigkeit (mAP) gemessen wird, ist entscheidend für den Einsatz von Modellen in sicherheitskritischen Systemen, wie sie in KI-Lösungen für die Automobilindustrie verwendet werden.

Andere Anwendungen umfassen die Bewertung von Modellen für die Bildsegmentierung, Aufgaben der natürlichen Sprachverarbeitung (NLP) wie die Sentimentanalyse und die Risikobewertung bei der Finanzmodellierung. Plattformen wie Ultralytics HUB integrieren oder erleichtern oft solche Bewertungstechniken, um den Entwicklungszyklus zu rationalisieren.

Alles lesen