Impara a conoscere le epoche nell'apprendimento automatico: come influiscono sull'addestramento dei modelli, prevengono l'overfitting e ottimizzano le prestazioni con Ultralytics YOLO .
Nell'apprendimento automatico (ML), in particolare nell'addestramento dei modelli di deep learning (DL), un'epoca rappresenta un passaggio completo attraverso l'intero set di dati di addestramento. È un concetto fondamentale che indica un ciclo completo in cui il modello ha visto e imparato da ogni esempio di addestramento una volta. L'addestramento di solito prevede più epoche, consentendo al modello di perfezionare iterativamente i suoi parametri interni(pesi del modello) e di migliorare le sue prestazioni nel compito per cui viene addestrato.
Durante l'addestramento del modello, il set di dati è solitamente troppo grande per essere elaborato tutto in una volta a causa dei limiti di memoria. Pertanto, viene suddiviso in parti più piccole, chiamate batch. Il modello elabora un lotto alla volta, calcola l'errore (perdita) e aggiorna i suoi pesi utilizzando un algoritmo di ottimizzazione come la discesa del gradiente. Un'epoca viene completata solo dopo che il modello ha elaborato tutti i batch che coprono l'intero set di dati di addestramento. Ripetere questo processo in più epoche permette al modello di apprendere in modo più efficace modelli e relazioni complesse all'interno dei dati.
È importante distinguere un'epoca dai termini correlati:
La relazione è semplice: se un set di dati di allenamento ha 10.000 campioni e la dimensione del batch è di 100, allora un'epoca consiste in 100 iterazioni (10.000 campioni / 100 campioni per batch).
L'addestramento di un modello per più epoche è fondamentale per la convergenza, ovvero il modello raggiunge uno stato stabile in cui le sue prestazioni sono ottimali o quasi. Ogni epoca dà al modello un'altra possibilità di imparare dai modelli di dati. Tuttavia, il numero di epoche è un iperparametro critico.
Il monitoraggio delle metriche delle prestazioni su un set di validazione separato durante l'addestramento aiuta a determinare il numero ottimale di epoche, spesso utilizzando tecniche come l'arresto anticipato per interrompere l'addestramento quando le prestazioni della validazione smettono di migliorare.
Le epoche sono una pietra miliare dell'apprendimento iterativo nel ML, che bilancia la necessità di un'esposizione sufficiente ai dati con i rischi di overfitting. La selezione del giusto numero di epoche, spesso attraverso un'attenta sperimentazione e monitoraggio, è fondamentale per costruire modelli efficaci. Puoi trovare altre definizioni in risorse come il Glossario di Machine LearningGoogle .