Apprends ce que sont les époques dans l'apprentissage automatique - comment elles influencent la formation des modèles, empêchent le surajustement et optimisent les performances avec Ultralytics YOLO .
Dans l'apprentissage automatique (ML), en particulier dans la formation des modèles d'apprentissage profond (DL), une époque représente un passage complet à travers l'ensemble des données de formation. C'est un concept fondamental signifiant un cycle complet où le modèle a vu et appris de chaque exemple d'entraînement une fois. La formation comporte généralement plusieurs époques, ce qui permet au modèle d'affiner de manière itérative ses paramètres internes(poids du modèle) et d'améliorer ses performances sur la tâche pour laquelle il est formé.
Il est important de distinguer une époque des termes apparentés :
La relation est simple : si un ensemble de données d'apprentissage comporte 10 000 échantillons et que la taille du lot est de 100, alors une époque consiste en 100 itérations (10 000 échantillons / 100 échantillons par lot).
L'entraînement d'un modèle pendant plusieurs époques est crucial pour la convergence, c'est-à-dire que le modèle atteint un état stable où ses performances sont optimales ou quasi optimales. Chaque époque donne au modèle une nouvelle chance d'apprendre à partir des modèles de données. Cependant, le nombre d'époques est un hyperparamètre critique.
Le suivi des mesures de performance sur un ensemble de validation séparé pendant la formation permet de déterminer le nombre optimal d'époques, en utilisant souvent des techniques telles que l'arrêt précoce pour interrompre la formation lorsque les performances de validation cessent de s'améliorer.
Les époques sont la pierre angulaire de l'apprentissage itératif en ML, car elles permettent d'équilibrer le besoin d'une exposition suffisante aux données et les risques de surajustement. La sélection du bon nombre d'époques, souvent par le biais d'une expérimentation et d'un suivi minutieux, est essentielle à la construction de modèles efficaces. Tu peux trouver d'autres définitions dans des ressources telles que le glossaire de l'apprentissage automatique deGoogle .
Comment fonctionnent les époques
Pendant la formation du modèle, l'ensemble des données est généralement trop important pour être traité en une seule fois en raison des contraintes de mémoire. Il est donc divisé en plus petits morceaux appelés lots. Le modèle traite un lot à la fois, calcule l'erreur (perte) et met à jour ses poids à l'aide d'un algorithme d'optimisation tel que la descente de gradient. Une époque n'est terminée que lorsque le modèle a traité tous les lots couvrant l'ensemble des données d'apprentissage. La répétition de ce processus sur plusieurs époques permet au modèle d'apprendre plus efficacement des modèles et des relations complexes au sein des données.