Glossaire

Algorithme d'optimisation

Découvre comment les algorithmes d'optimisation améliorent les performances de l'IA et de la ML, de l'entraînement des réseaux neuronaux aux applications réelles dans les domaines de la santé et de l'agriculture.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Dans le domaine de l'intelligence artificielle (IA) et de l'apprentissage automatique (ML), les algorithmes d'optimisation sont des méthodes essentielles utilisées pour affiner les modèles et améliorer leurs performances. Ces algorithmes ajustent de façon itérative les paramètres (comme les weights and biases) d'un modèle afin de minimiser une fonction de perte prédéfinie, qui mesure la différence entre les prédictions du modèle et les valeurs cibles réelles. Ce processus est fondamental pour la formation de modèles complexes tels que les réseaux neuronaux, ce qui leur permet d'apprendre efficacement à partir des données et d'améliorer leur précision et leur fiabilité dans des tâches allant de la reconnaissance d'images au traitement du langage naturel.

Pertinence en matière d'IA et d'apprentissage automatique

Les algorithmes d'optimisation sont les moteurs qui alimentent le processus d'apprentissage dans la plupart des modèles ML, en particulier dans l'apprentissage profond (DL). Les modèles tels que les réseaux neuronaux convolutifs (CNN) et les réseaux neuronaux récurrents (RNN) s'appuient fortement sur ces algorithmes pour naviguer dans de vastes espaces de paramètres et trouver des configurations qui produisent de bonnes performances. Sans optimisation efficace, les modèles auraient du mal à converger vers des solutions optimales, ce qui se traduirait par des prédictions médiocres. Par exemple , Ultralytics YOLO d'Ultralytics utilisent des algorithmes d'optimisation sophistiqués pendant la formation pour atteindre une grande précision dans la détection d'objets en temps réel. Ces algorithmes sont également essentiels à la formation de modèles de pointe tels que le GPT-4 et d'autres grands modèles de langage (LLM), ce qui leur confère des capacités impressionnantes. Le choix de l'optimiseur peut avoir un impact significatif sur la vitesse de formation et les performances finales du modèle, comme l'expliquent les guides sur les astuces de formation des modèles.

Concepts et algorithmes clés

Plusieurs algorithmes d'optimisation sont largement utilisés dans l'apprentissage automatique, chacun offrant des stratégies différentes pour naviguer dans le paysage des pertes. Voici quelques exemples courants :

  • Descente en gradient: L'algorithme de base qui déplace itérativement les paramètres dans la direction opposée du gradient de la fonction de perte.
  • Descente stochastique de gradient (SGD): Une variante de la descente de gradient qui met à jour les paramètres en utilisant seulement un petit lot ou un seul échantillon à chaque étape, ce qui la rend plus rapide et adaptée aux grands ensembles de données.
  • Adam Optimizer: Une méthode de taux d'apprentissage adaptatif qui calcule des taux d'apprentissage individuels pour différents paramètres, ce qui conduit souvent à une convergence plus rapide. Elle combine les idées de RMSprop et d'AdaGrad.
  • RMSprop: Un autre algorithme de taux d'apprentissage adaptatif qui divise le taux d'apprentissage par une moyenne des gradients au carré en décroissance exponentielle.

Ces optimiseurs sont souvent des paramètres configurables dans les cadres et plateformes ML comme Ultralytics HUB, ce qui permet aux utilisateurs de sélectionner ce qui convient le mieux à leur tâche spécifique et à leur ensemble de données.

Différences par rapport aux concepts apparentés

Les algorithmes d'optimisation sont parfois confondus avec des concepts connexes tels que le réglage des hyperparamètres et la régularisation, mais ils servent des objectifs distincts :

  • Algorithmes d'optimisation et réglage des hyperparamètres: Les algorithmes d'optimisation ajustent les paramètres du modèleweights and biases) pour minimiser la fonction de perte pendant la formation. L'ajustement des hyperparamètres, quant à lui, se concentre sur la recherche des meilleurs hyperparamètres (par exemple, le taux d'apprentissage, la taille du lot, les choix d'architecture du réseau) qui définissent le processus de formation lui-même. Des outils comme Ray Tune peuvent être intégrés pour des recherches systématiques d'hyperparamètres.
  • Algorithmes d'optimisation et régularisation: L'optimisation vise à trouver le minimum de la fonction de perte. Les techniques de régularisation (comme les pénalités L1/L2 ou les couches d'abandon) sont ajoutées à la fonction de perte ou à l'architecture du modèle pour empêcher l'ajustement excessif et améliorer la capacité du modèle à se généraliser à des données inédites. Bien que liée, la régularisation modifie l'objectif que l'algorithme d'optimisation cherche à minimiser.

Applications dans le monde réel

Les algorithmes d'optimisation sont indispensables dans de nombreuses industries, car ils favorisent l'efficacité et permettent des applications complexes de l'IA.

Exemple 1 : Diagnostic médical

Dans le domaine de l'IA pour la santé, les algorithmes d'optimisation sont essentiels pour former les modèles utilisés dans l'analyse des images médicales. Par exemple, lors de l'entraînement d'un CNN pour détecter les tumeurs cancéreuses dans les IRM ou les tomodensitogrammes à l'aide d'ensembles de données comme celui des tumeurs cérébrales, les algorithmes d'optimisation comme Adam aident le modèle à apprendre à distinguer avec précision les tissus malins des tissus bénins en minimisant les erreurs de classification. Cela conduit à des outils de diagnostic plus fiables qui soutiennent les radiologues, améliorant potentiellement les résultats pour les patients grâce à une détection plus précoce, comme l'explorent les applications de l'IA en radiologie.

Exemple 2 : Logistique et optimisation des itinéraires

Les entreprises impliquées dans le transport et la logistique utilisent beaucoup les algorithmes d'optimisation. Pour les problèmes d'acheminement des véhicules, les algorithmes visent à trouver les itinéraires les plus courts ou les plus rentables pour les flottes de livraison. S'ils sont traditionnellement résolus avec des méthodes de recherche opérationnelle comme celles que l'on trouve dans Google OR-Tools, les modèles d'apprentissage automatique formés avec des algorithmes d'optimisation peuvent également prédire les schémas de circulation ou les délais de livraison afin d'ajuster dynamiquement les itinéraires, en minimisant la consommation de carburant et le temps de livraison. Cela permet d'améliorer l'efficacité de la gestion de la chaîne d'approvisionnement.

Tout lire