Glossaire

Époque

Comprendre le rôle des époques dans l'apprentissage automatique, leur impact sur l'entraînement des modèles et comment les optimiser pour une meilleure précision et de meilleures performances.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Dans le contexte de l'apprentissage automatique, une époque fait référence à un passage complet dans l'ensemble des données d'apprentissage pendant l'apprentissage d'un modèle. Au cours d'une époque, le modèle voit et apprend de chaque point de données de l'ensemble de données exactement une fois. Le nombre d'époques est un hyperparamètre qui définit combien de fois l'algorithme d'apprentissage travaillera sur l'ensemble des données d'apprentissage. Comprendre les époques est crucial pour former des modèles d'apprentissage automatique efficaces, car cela a un impact direct sur la capacité du modèle à apprendre et à généraliser à partir des données d'apprentissage.

Importance des époques dans la formation des modèles

Les époques sont fondamentales pour la nature itérative de la formation des modèles d'apprentissage automatique, en particulier ceux basés sur les réseaux neuronaux. Chaque époque se compose d'une passe avant et d'une passe arrière. Dans la passe avant, le modèle fait des prédictions sur les données d'entrée, et dans la passe arrière, les paramètres internes du modèle sont mis à jour en fonction des erreurs de prédiction à l'aide d'un algorithme d'optimisation comme la descente stochastique de gradient (SGD) ou Adam. Ce processus itératif permet au modèle d'améliorer progressivement ses performances sur plusieurs époques.

Epochs vs. autres paramètres de formation

Il est important de distinguer les époques des autres paramètres de formation connexes :

  • Taille des lots : Une époque est souvent divisée en plusieurs lots. La taille du lot détermine le nombre d'échantillons de données traités dans une passe avant et arrière avant que les paramètres internes du modèle ne soient mis à jour. Une taille de lot plus petite signifie des mises à jour plus fréquentes au sein d'une époque, tandis qu'une taille de lot plus importante nécessite plus de mémoire mais peut conduire à une formation plus rapide. En savoir plus sur l'optimisation de la taille des lots dans l'apprentissage automatique.
  • Itérations : Les itérations font référence au nombre de lots nécessaires pour compléter une époque. Par exemple, si un ensemble de données comporte 1 000 échantillons et que la taille des lots est de 100, il faudra 10 itérations pour compléter une époque.

Déterminer le nombre optimal d'époques

Le choix du bon nombre d'époques est crucial. Un nombre d'époques trop faible peut entraîner un sous-ajustement, c'est-à-dire que le modèle ne parvient pas à capturer les modèles sous-jacents dans les données. À l'inverse, un nombre trop élevé d'époques peut entraîner un surajustement, c'est-à-dire que le modèle commence à mémoriser les données d'entraînement et donne de mauvais résultats sur les données non vues.

Le nombre optimal d'époques dépend souvent de facteurs tels que la complexité de l'ensemble de données, l'architecture du modèle et le taux d'apprentissage. Des techniques telles que l'arrêt anticipé, où la formation est interrompue lorsque les performances du modèle sur un ensemble de données de validation cessent de s'améliorer, peuvent aider à prévenir le surajustement et à trouver un nombre approprié d'époques.

Applications dans le monde réel

  1. Classification d'images : Lors de l'entraînement d'un modèle de classification d'images, comme l'identification d'objets sur des photos, plusieurs époques sont utilisées pour affiner la capacité du modèle à reconnaître différentes caractéristiques et différents modèles. Par exemple, les modèles Ultralytics YOLO (You Only Look Once) peuvent être entraînés pendant plusieurs centaines d'époques sur un grand ensemble de données comme ImageNet pour obtenir une grande précision dans la classification des images. Explore comment Ultralytics YOLO11 peut être utilisé pour des tâches de classification d'images.
  2. Traitement du langage naturel : Dans les tâches de traitement du langage naturel (NLP), telles que l'analyse des sentiments ou la traduction automatique, des modèles comme Transformers peuvent être formés sur de nombreuses époques pour comprendre les nuances du langage humain. Chaque époque aide le modèle à améliorer sa compréhension du contexte, de la grammaire et de la sémantique, ce qui lui permet d'être plus performant dans des tâches telles que la génération de texte ou la traduction. En savoir plus sur l'IA dans le traitement du langage naturel et ses applications.

Suivi des époques pendant la formation

Il est essentiel de surveiller les performances du modèle au fil des époques. Des mesures clés telles que la perte, l'exactitude, la précision, le rappel et le score F1 sont généralement suivies. Des outils comme TensorBoard et Weights & Biases fournissent des visualisations qui aident à comprendre comment ces mesures évoluent au fil des époques, ce qui permet d'identifier des problèmes tels que le surajustement ou le sous-ajustement.

En comprenant et en gérant efficacement les époques, les praticiens peuvent former des modèles d'apprentissage automatique plus robustes et plus précis, ce qui permet d'obtenir de meilleures performances dans diverses applications, de la vision par ordinateur au traitement du langage naturel et au-delà. Apprends-en plus sur la surveillance et la maintenance de ton modèle de vision par ordinateur.

Tout lire