Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Fonction de perte

Découvrez comment une fonction de perte guide l'entraînement des modèles. Apprenez à minimiser les erreurs pour des tâches telles que la détection d'objets avec Ultralytics et à optimiser les performances de l'IA.

Une fonction de perte sert de boussole mathématique qui guide l'entraînement des réseaux neuronaux artificiels et d'autres algorithmes d'apprentissage automatique . Fondamentalement, elle quantifie l'erreur entre les résultats prédits par le modèle et les étiquettes réelles « ground truth » trouvées dans les données d'entraînement. Vous pouvez la visualiser comme un système de notation où un score plus faible indique une performance supérieure. Au cours du processus d'entraînement, l'objectif principal est de minimiser cette valeur de perte de manière itérative. Cette minimisation permet au modèle d'ajuster ses paramètres internes afin d'aligner ses prédictions plus étroitement avec la réalité, un processus piloté par un algorithme d'optimisation tel que Adam Stochastic Gradient Descent (SGD).

Le rôle de la perte dans l'entraînement des modèles

Le mécanisme d'apprentissage de l'IA repose en grande partie sur la boucle de rétroaction générée par la fonction de perte. Une fois qu'un modèle a traité un lot de données, la fonction de perte calcule une valeur d'erreur numérique représentant la distance entre la prédiction et la cible. Grâce à une technique appelée rétropropagation, le système calcule le gradient de la perte par rapport à chacun des poids du modèle. Ces gradients agissent comme une carte, indiquant la direction et l'ampleur des ajustements nécessaires pour réduire l'erreur. Le taux d'apprentissage contrôle ensuite la taille des étapes effectuées lors de ces mises à jour, garantissant que le modèle converge vers une solution optimale sans dépassement.

Différentes tâches d'apprentissage automatique nécessitent des types spécifiques de fonctions de perte. Pour l' analyse de régression, dont l'objectif est de prédire des valeurs continues telles que les prix de l'immobilier, l'erreur quadratique moyenne (MSE) est un choix standard. À l'inverse, pour les tâches de classification d'images impliquant des données catégorielles, la perte d'entropie croisée est généralement utilisée pour mesurer la divergence entre les probabilités prédites et la classe réelle. Les modèles avancés de détection d'objets, tels que YOLO26, utilisent des fonctions de perte composites qui optimisent simultanément plusieurs objectifs, en combinant des mesures telles que l' intersection sur l'union (IoU) pour la localisation et des formules spécialisées telles que la perte focale de distribution (DFL) ou la perte varifocale pour la confiance de classe.

Applications concrètes

Les fonctions de perte sont le moteur qui garantit la fiabilité de pratiquement toutes les applications d'IA, en veillant à ce que les systèmes puissent fonctionner en toute sécurité dans des environnements complexes.

  • Conduite autonome : dans le domaine des véhicules autonomes, la sécurité repose sur une perception précise . Une fonction de perte soigneusement réglée aide le système à faire la distinction entre les piétons, les autres voitures et les obstacles statiques . En minimisant les erreurs de localisation lors de l'entraînement sur des ensembles de données tels que nuScenes ou KITTI, le véhicule apprend à prédire la position exacte des objets, ce qui est essentiel pour éviter les collisions dans le cadre de l' IA dans les solutions automobiles.
  • Diagnostic médical : dans l' analyse d'images médicales, l'identification des pathologies nécessite souvent de segmenter de minuscules anomalies à partir de tissus sains. Des fonctions spécialisées telles que la méthode de Dice Loss sont utilisées dans les tâches de segmentation, comme la détection de tumeurs dans les IRM. Ces fonctions gèrent le déséquilibre des classes en pénalisant fortement le modèle lorsqu'il manque la petite zone d'intérêt, améliorant ainsi la sensibilité de l'IA dans les outils de santé.

Python : calcul de la perte d'entropie croisée

Bien que les frameworks de haut niveau tels que la Ultralytics gèrent automatiquement le calcul des pertes pendant l'entraînement, il est utile de comprendre les mathématiques sous-jacentes pour le débogage. L'exemple suivant utilise PyTorch, le backend des Ultralytics , pour calculer la perte entre une prédiction et une cible.

import torch
import torch.nn as nn

# Define the loss function (CrossEntropyLoss includes Softmax)
loss_fn = nn.CrossEntropyLoss()

# Mock model output (logits) for 3 classes and the true class (Class 0)
# A high score for index 0 indicates a correct prediction
predictions = torch.tensor([[2.5, 0.1, -1.2]])
ground_truth = torch.tensor([0])

# Calculate the numerical loss value
loss = loss_fn(predictions, ground_truth)
print(f"Calculated Loss: {loss.item():.4f}")

Différencier des concepts connexes

Il est important de distinguer la fonction de perte des autres mesures utilisées tout au long du processus d'apprentissage automatique.

  • Fonction de perte vs. métriques d'évaluation : une fonction de perte est différentiable et utilisée pendant l'entraînement pour mettre à jour les poids. En revanche, les métriques d'évaluation telles que l'exactitude, la précision et la précision moyenne (mAP) sont utilisées après l'entraînement pour évaluer les performances en termes lisibles par l'homme. Un modèle peut minimiser efficacement les pertes, mais souffrir néanmoins d'une faible précision si la fonction de perte ne correspond pas parfaitement à l'objectif réel.
  • Fonction de perte vs régularisation : alors que la fonction de perte guide le modèle vers la prédiction correcte , des techniques de régularisation (telles que les pénalités L1 ou L2) sont ajoutées à l'équation de perte afin d'éviter le surajustement. La régularisation décourage les modèles trop complexes en pénalisant les poids importants, aidant ainsi le système à mieux généraliser les données de test invisibles .
  • Fonction de perte vs fonction de récompense : dans l' apprentissage par renforcement, un agent apprend en maximisant une « récompense » cumulative plutôt qu'en minimisant une perte. Bien qu'elles soient conceptuellement inverses, les deux servent de fonction objective qui guide le processus d'optimisation.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant