Glossaire

Époque

Apprends ce que sont les époques dans l'apprentissage automatique - comment elles influencent la formation des modèles, empêchent le surajustement et optimisent les performances avec Ultralytics YOLO .

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Dans l'apprentissage automatique (ML), en particulier dans la formation des modèles d'apprentissage profond (DL), une époque représente un passage complet à travers l'ensemble des données de formation. C'est un concept fondamental signifiant un cycle complet où le modèle a vu et appris de chaque exemple d'entraînement une fois. La formation comporte généralement plusieurs époques, ce qui permet au modèle d'affiner de manière itérative ses paramètres internes(poids du modèle) et d'améliorer ses performances sur la tâche pour laquelle il est formé.

Comment fonctionnent les époques

Pendant la formation du modèle, l'ensemble des données est généralement trop important pour être traité en une seule fois en raison des contraintes de mémoire. Il est donc divisé en plus petits morceaux appelés lots. Le modèle traite un lot à la fois, calcule l'erreur (perte) et met à jour ses poids à l'aide d'un algorithme d'optimisation tel que la descente de gradient. Une époque n'est terminée que lorsque le modèle a traité tous les lots couvrant l'ensemble des données d'apprentissage. La répétition de ce processus sur plusieurs époques permet au modèle d'apprendre plus efficacement des modèles et des relations complexes au sein des données.

Époque Vs. itération Vs. taille du lot

Il est important de distinguer une époque des termes apparentés :

  • Époque : Un cycle complet sur l'ensemble des données de formation.
  • Taille du lot: Le nombre d'échantillons d'apprentissage traités avant que les poids du modèle ne soient mis à jour.
  • Itération : Une seule mise à jour des poids du modèle. Une itération implique le traitement d'un lot de données.

La relation est simple : si un ensemble de données d'apprentissage comporte 10 000 échantillons et que la taille du lot est de 100, alors une époque consiste en 100 itérations (10 000 échantillons / 100 échantillons par lot).

Importance des époques dans la formation

L'entraînement d'un modèle pendant plusieurs époques est crucial pour la convergence, c'est-à-dire que le modèle atteint un état stable où ses performances sont optimales ou quasi optimales. Chaque époque donne au modèle une nouvelle chance d'apprendre à partir des modèles de données. Cependant, le nombre d'époques est un hyperparamètre critique.

  • Trop peu d'époques : le modèle risque de ne pas apprendre suffisamment, ce qui entraîne un sous-ajustement, c'est-à-dire qu'il donne des résultats médiocres même sur les données d'apprentissage.
  • Trop d'époques : le modèle peut apprendre trop bien les données d'entraînement, y compris le bruit et les détails spécifiques, ce qui conduit à un surajustement. Un modèle surajusté donne de bons résultats sur les données d'apprentissage mais de mauvais résultats sur les données non vues(données de validation ou exemples du monde réel).

Le suivi des mesures de performance sur un ensemble de validation séparé pendant la formation permet de déterminer le nombre optimal d'époques, en utilisant souvent des techniques telles que l'arrêt précoce pour interrompre la formation lorsque les performances de validation cessent de s'améliorer.

Exemples concrets

  1. Détection d'objets avec Ultralytics YOLO: Lors de la formation d'un système de détection d'objets, il est important de prendre en compte les besoins de l'utilisateur. Ultralytics YOLO comme YOLOv8 ou YOLO11Pour un jeu de données tel que COCO, tu peux spécifier un entraînement de 100 époques. À chaque époque, le modèle traite l'ensemble des images d'entraînement COCO (divisées en lots), en ajustant ses poids pour mieux identifier et localiser les objets. Des plateformes comme Ultralytics HUB fournissent des outils pour gérer ce processus de formation et suivre les progrès réalisés au fil des époques.
  2. Traitement du langage naturel (NLP): L'entraînement d'un modèle comme BERT pour l'analyse des sentiments sur un ensemble de données d'avis de clients implique plusieurs époques. Par exemple, l'entraînement pour 5 époques signifie que le modèle lit toutes les critiques cinq fois. À chaque passage (époque), l'utilisation de bibliothèques telles que Hugging Face Transformers souvent via des frameworks tels que PyTorch ou TensorFlowle modèle améliore sa capacité à classer les avis comme positifs, négatifs ou neutres.

Les époques sont la pierre angulaire de l'apprentissage itératif en ML, car elles permettent d'équilibrer le besoin d'une exposition suffisante aux données et les risques de surajustement. La sélection du bon nombre d'époques, souvent par le biais d'une expérimentation et d'un suivi minutieux, est essentielle à la construction de modèles efficaces. Tu peux trouver d'autres définitions dans des ressources telles que le glossaire de l'apprentissage automatique deGoogle .

Tout lire