Erfahre mehr über Epochen beim maschinellen Lernen - wie sie sich auf das Modelltraining auswirken, Overfitting verhindern und die Leistung optimieren mit Ultralytics YOLO .
Beim maschinellen Lernen (ML), insbesondere beim Training von Deep Learning-Modellen, stellt eine Epoche einen vollständigen Durchlauf des gesamten Trainingsdatensatzes durch den Lernalgorithmus dar. Das Training von Modellen ist ein iterativer Prozess, bei dem das Modell durch wiederholte Verarbeitung der Daten Muster lernt. Epochen sind ein grundlegender Hyperparameter, der festlegt, wie oft der Algorithmus den gesamten Datensatz durchläuft, damit das Modell aus jedem Beispiel in den Daten mehrmals lernen kann.
Während des Trainingsprozesses werden die internen Parameter oder Gewichte eines Modells auf der Grundlage der Fehler, die es bei seinen Vorhersagen macht, angepasst. Diese Anpassung erfolgt in der Regel mithilfe eines Optimierungsalgorithmus wie Gradient Descent oder seiner Varianten (z. B. Adam Optimizer). Eine Epoche bedeutet, dass jede Probe im Trainingsdatensatz die Möglichkeit hatte, die internen Parameter des Modells einmal zu aktualisieren. Bei großen Datensätzen ist die Verarbeitung des gesamten Datensatzes auf einmal sehr rechenintensiv, daher werden die Daten oft in kleinere Teile, sogenannte Batches, aufgeteilt.
Es ist wichtig, eine Epoche von verwandten Begriffen zu unterscheiden:
Stell dir das wie das Lesen eines Buches vor: Das gesamte Buch ist der Datensatz, ein Kapitel ist ein Stapel, das Lesen eines Kapitels ist eine Iteration und das Lesen des gesamten Buches von vorne bis hinten ist eine Epoche.
Die Anzahl der Epochen ist ein wichtiger Hyperparameter, da er bestimmt, wie oft das Modell aus dem gesamten Datensatz lernt.
Das richtige Gleichgewicht zu finden, ist der Schlüssel zu einer guten Modellleistung und Generalisierung. Dazu ist es oft notwendig, die Leistung des Modells während des Trainings an einem separaten Validierungsdatensatz zu überprüfen.
Es gibt nicht die eine "richtige" Anzahl von Epochen; der optimale Wert hängt von der Komplexität der Daten, der Größe des Datensatzes, der Modellarchitektur und der Lernrate ab. Zu den gängigen Ansätzen gehören:
Epochen sind ein Standardparameter in den meisten Deep Learning-Frameworks:
fit
Methode.Epochen sind ein Eckpfeiler des iterativen Lernens beim maschinellen Lernen, bei dem es darum geht, die Notwendigkeit einer ausreichenden Datenexposition gegen das Risiko einer Überanpassung abzuwägen. Die Auswahl der richtigen Anzahl von Epochen, oft durch sorgfältiges Experimentieren und Überwachen, wie es in Ressourcen wie dem CS231n-Kurs in Stanford oder dem Machine Learning Mastery Blog besprochen wird, ist der Schlüssel zum Aufbau effektiver Modelle. Weitere Definitionen findest du in Ressourcen wie dem Google Machine Learning Glossary.