Glossaire

Époque

Apprends ce que sont les époques dans l'apprentissage automatique - comment elles influencent la formation des modèles, empêchent le surajustement et optimisent les performances avec Ultralytics YOLO .

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Dans le domaine de l'apprentissage automatique, en particulier dans la formation des réseaux neuronaux, une époque est un concept fondamental qui marque un passage complet à travers l'ensemble des données de formation. Il est essentiel de comprendre les époques pour saisir comment les modèles apprennent et s'améliorent au fil du temps. C'est un hyperparamètre clé qui dicte la durée du processus de formation et qui a un impact significatif sur les performances du modèle.

Comprendre les époques dans l'apprentissage automatique

Une époque représente un cycle complet de formation d'un réseau neuronal sur l'ensemble des données de formation. Au cours d'une époque, le modèle voit chaque point de données de l'ensemble de données de formation une fois. Par exemple, si ton ensemble de données de formation contient 1 000 images, une époque signifie que le modèle traitera les 1 000 images une fois au cours du processus de formation.

Les époques sont essentielles car elles permettent au modèle d'apprendre de façon itérative à partir des données. À chaque époque, le modèle ajuste ses paramètres internes (weights and biases) en fonction des erreurs commises lors du passage précédent. Ce processus d'ajustement, souvent piloté par des algorithmes d'optimisation comme l'optimiseur Adam ou la descente stochastique de gradient (SGD), aide le modèle à minimiser la fonction de perte et à améliorer progressivement sa précision.

Importance des époques dans la formation des modèles

Le nombre d'époques utilisé pour former un modèle est un hyperparamètre critique qui affecte directement la courbe d'apprentissage du modèle et ses performances finales. Une formation trop courte peut entraîner un sous-ajustement, c'est-à-dire que le modèle ne parvient pas à apprendre les modèles sous-jacents dans les données, ce qui se traduit par de mauvaises performances à la fois sur les données de formation et de validation. À l'inverse, un entraînement pendant trop d'époques peut entraîner un surajustement, c'est-à-dire que le modèle devient trop spécialisé par rapport aux données d'entraînement et donne de mauvais résultats sur les données non vues, ce qui l'empêche de se généraliser de manière efficace.

Trouver le bon nombre d'époques implique souvent de surveiller les performances du modèle sur un ensemble de validation pendant la formation. Des techniques comme la validation croisée K-Fold peuvent également aider à évaluer le nombre optimal d'époques en fournissant une estimation plus robuste des performances du modèle sur différents sous-ensembles de données. Des outils comme TensorBoard ou Weights & Biases peuvent être d'une aide précieuse pour visualiser la progression de la formation et déterminer quand arrêter la formation afin d'éviter un surajustement ou un sous-ajustement.

Epoques, itérations et taille des lots

Il est important de distinguer les époques des termes connexes tels que les itérations et la taille des lots. Alors qu'une époque correspond à un passage complet sur l'ensemble des données de formation, une itération correspond à un passage sur un lot d' exemples de formation. La taille du lot détermine le nombre d'exemples de formation traités à chaque itération.

Par exemple, si tu disposes d'un ensemble de données de 1 000 images et que tu définis une taille de lot de 10, chaque époque comprendra 100 itérations (1 000 images / 10 images par lot = 100 itérations). À chaque itération, le modèle traite 10 images, calcule l'erreur et met à jour les paramètres du modèle. Après 100 itérations, le modèle a terminé une époque, c'est-à-dire qu'il a vu les 1 000 images une fois.

La compréhension de cette relation est cruciale pour une formation efficace, en particulier lorsqu'il s'agit d'ensembles de données volumineux qui ne peuvent pas tenir dans la mémoire en une seule fois. La taille des lots et le nombre d'itérations par époque sont des paramètres configurables dans les cadres d'apprentissage tels que PyTorchsur lequel Ultralytics YOLO est construit.

Applications des époques dans le monde réel

Les époques sont fondamentales pour la formation de tout modèle d'apprentissage profond, et leur application s'étend à divers domaines. Voici quelques exemples :

  1. Ultralytics YOLO Détection d'objets : Lors de l'entraînement d'un Ultralytics YOLOv8 pour la détection d'objets, tu définis le nombre d'époques pour former le modèle sur ton ensemble de données. Par exemple, dans des scénarios tels que la vision par ordinateur en agriculture pour la détection de fruits, tu peux former un modèle YOLO pour 100 époques. Cela signifie que le modèle parcourra 100 fois l'ensemble de ton jeu de données d'images de fruits, apprenant ainsi à identifier et à localiser avec précision les fruits dans les images. La plateforme Ultralytics HUB simplifie ce processus en permettant aux utilisateurs de définir et de gérer facilement les époques pendant la formation.

  2. Analyse d'images médicales : Dans l'analyse d'images médicales, les époques sont essentielles pour former des modèles permettant de détecter des maladies ou des anomalies à partir de scanners médicaux. Par exemple, l'entraînement d'un modèle pour détecter les tumeurs dans les images IRM de tumeurs cérébrales impliquerait de définir un certain nombre d'époques. Chaque époque permet au modèle d'affiner sa capacité à reconnaître des motifs subtils indiquant la présence de tumeurs dans l'ensemble du jeu de données d'IRM, améliorant ainsi la précision du diagnostic au fil des époques successives.

En conclusion, les époques sont une pierre angulaire du processus de formation de l'apprentissage profond. Elles représentent des cycles d'apprentissage complets sur les données d'entraînement, et il est essentiel de gérer soigneusement leur nombre pour obtenir des performances optimales du modèle et éviter les écueils courants tels que l'overfitting et l'underfitting. En comprenant les époques, les praticiens peuvent mieux contrôler et optimiser la formation de leurs modèles d'IA pour diverses applications du monde réel.

Tout lire