Erfahre mehr über Epochen beim maschinellen Lernen - wie sie sich auf das Modelltraining auswirken, Overfitting verhindern und die Leistung optimieren mit Ultralytics YOLO .
Beim maschinellen Lernen (ML), insbesondere beim Training von Deep Learning-Modellen (DL), steht eine Epoche für einen vollständigen Durchlauf durch den gesamten Trainingsdatensatz. Es ist ein grundlegendes Konzept, das einen vollständigen Zyklus bezeichnet, in dem das Modell jedes Trainingsbeispiel einmal gesehen und daraus gelernt hat. Das Training umfasst in der Regel mehrere Epochen, damit das Modell seine internen Parameter(Modellgewichte) iterativ verfeinern und seine Leistung für die Aufgabe, für die es trainiert wird, verbessern kann.
Während der Modellschulung ist der Datensatz in der Regel zu groß, um ihn auf einmal zu verarbeiten, da der Speicherplatz begrenzt ist. Deshalb wird er in kleinere Teile, sogenannte Batches, aufgeteilt. Das Modell verarbeitet einen Stapel nach dem anderen, berechnet den Fehler (Verlust) und aktualisiert seine Gewichte mithilfe eines Optimierungsalgorithmus wie dem Gradientenabstieg. Eine Epoche ist erst abgeschlossen, wenn das Modell alle Stapel verarbeitet hat, die den gesamten Trainingsdatensatz abdecken. Durch die Wiederholung dieses Prozesses über mehrere Epochen hinweg kann das Modell komplexe Muster und Beziehungen innerhalb der Daten effektiver lernen.
Es ist wichtig, eine Epoche von verwandten Begriffen zu unterscheiden:
Die Beziehung ist einfach: Wenn ein Trainingsdatensatz 10.000 Proben enthält und die Stapelgröße 100 beträgt, besteht eine Epoche aus 100 Iterationen (10.000 Proben / 100 Proben pro Stapel).
Das Training eines Modells über mehrere Epochen ist entscheidend für die Konvergenz, d.h. das Modell erreicht einen stabilen Zustand, in dem seine Leistung optimal oder nahezu optimal ist. Jede Epoche gibt dem Modell eine weitere Chance, aus den Datenmustern zu lernen. Die Anzahl der Epochen ist jedoch ein kritischer Hyperparameter.
Die Überwachung der Leistungskennzahlen auf einem separaten Validierungsset während des Trainings hilft dabei, die optimale Anzahl von Epochen zu bestimmen, wobei oft Techniken wie das frühe Stoppen verwendet werden, um das Training zu beenden, wenn sich die Validierungsleistung nicht mehr verbessert.
Epochen sind ein Eckpfeiler des iterativen Lernens in der ML, da sie einen Ausgleich zwischen der Notwendigkeit einer ausreichenden Datenexposition und den Risiken einer Überanpassung schaffen. Die Auswahl der richtigen Anzahl von Epochen, oft durch sorgfältiges Experimentieren und Beobachten, ist der Schlüssel zum Aufbau effektiver Modelle. Weitere Definitionen findest du in Ressourcen wie dem Google Machine Learning Glossary.