Glossaire

GPU (Unité de traitement graphique)

Découvre comment les GPU révolutionnent l'IA et l'apprentissage automatique en accélérant l'apprentissage profond, en optimisant les flux de travail et en permettant des applications réelles.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Une unité de traitement graphiqueGPU est un circuit électronique spécialisé initialement conçu pour accélérer la création et le rendu d'images, de vidéos et d'animations. Si les GPU ont vu le jour dans les industries du jeu et de la conception graphique, leur architecture unique en a fait des outils indispensables à l'intelligence artificielle (IA) moderne et à l'apprentissage automatique (ML). Les GPU possèdent des milliers de cœurs de traitement qui travaillent en parallèle, ce qui leur permet de traiter simultanément des quantités massives de calculs. Cette capacité est exceptionnellement bien adaptée aux tâches exigeantes en termes de calcul que l'on trouve dans les algorithmes d'apprentissage profond, ce qui permet d'accélérer la formation des modèles et de réaliser une inférence efficace en temps réel. Comprendre l'évolution du GPU permet de mettre en contexte son rôle actuel dans l'IA.

Importance dans le domaine de l'IA et de l'apprentissage automatique

Les capacités de traitement parallèle des GPU sont l'un des principaux catalyseurs des récentes percées dans le domaine de l'IA. La formation de réseaux neuronaux profonds implique le traitement d'énormes ensembles de données et la réalisation d'innombrables opérations mathématiques complexes, telles que les multiplications de matrices. Les GPU excellent dans ces opérations, réduisant drastiquement le temps nécessaire à la formation des modèles par rapport aux unités centrales de traitement (CPU) traditionnelles. Cette accélération permet aux chercheurs et aux développeurs dans le domaine du développement de l'IA d'itérer plus rapidement, d'expérimenter des modèles plus grands et plus complexes, et d'atteindre une plus grande précision dans des tâches telles que la détection d'objets et la segmentation d'images.

Voici deux exemples de GPU dans des applications IA/ML du monde réel :

  1. Détection d'objets en temps réel : Les modèlesYOLO 'Ultralytics , connus pour leur rapidité et leur efficacité, s'appuient fortement sur les GPU pour effectuer la détection d'objets en temps réel pour des applications telles que la conduite autonome, la surveillance de la sécurité(amélioration des systèmes de sécurité) et la robotique. La nature parallèle des GPU permet à ces modèles de traiter rapidement les images vidéo et d'identifier avec précision plusieurs objets simultanément. Explore les diverses applications deYOLO11 rendues possibles par l'accélération GPU .
  2. Formation de grands modèles : La formation de grands modèles de langage (LLM) ou de modèles complexes de vision par ordinateur nécessite souvent une puissance de calcul importante, fréquemment accessible via des plateformes de cloud computing. Des services comme Ultralytics HUB Cloud Training exploitent de puissants clusters de GPU de fournisseurs comme AWS, Google Cloud et Azure pour former des modèles sur de vastes ensembles de données pour des tâches allant du traitement du langage naturel (NLP) à l'analyse avancée d'images médicales.

Principales différences entre les CPU et les TPU

Si les GPU, les CPU et les Tensor Processing Units (TPU) sont tous des types de processeurs, ils ont des atouts différents et sont optimisés pour des tâches différentes :

  • CPU (Central Processing Unit) : Conçue pour l'informatique générale, elle excelle dans les tâches séquentielles et la gestion des opérations du système. Les unités centrales de traitement ont quelques cœurs puissants optimisés pour une faible latence. Voir une vue d'ensembleCPU vs GPU .
  • GPU (unité de traitement graphique) : Optimisé pour les opérations parallèles avec des milliers de cœurs plus simples. Idéal pour les tâches qui peuvent être décomposées et traitées simultanément, comme le rendu des graphiques et l'entraînement des modèles d'apprentissage profond. Les performances mesurées impliquent souvent des mesures telles que les FLOPS.
  • TPU (Tensor Processing Unit) : Circuit intégré spécifique à l'application (ASIC) conçu sur mesure par Google et spécialement conçu pour accélérer les charges de travail d'apprentissage automatique à l'aide de la technologie TensorFlow TensorFlow. Ils sont hautement optimisés pour les opérations matricielles à grande échelle courantes dans les réseaux neuronaux. Pour en savoir plus, consulte les détails de la TPU deGoogle.

Les GPU trouvent un équilibre entre les hautes performances pour les tâches de traitement parallèle et la polyvalence dans diverses applications, ce qui en fait un choix populaire pour de nombreuses charges de travail d'IA et de calcul à haute performance (HPC).

Ecosystème et utilisation

L'adoption généralisée des GPU dans l'IA est soutenue par des écosystèmes logiciels robustes. Les principaux fabricants comme NVIDIA et AMD fournissent des GPU adaptés aux tâches d'IA. NVIDIA programme CUDA (Compute Unified Device Architecture) de NVIDIA est une plateforme de calcul parallèle et un modèle de programmation largement utilisés pour les GPU NVIDIA . Les cadres d'apprentissage profond tels que PyTorch et TensorFlow sont optimisés pour tirer parti de l'accélération GPU . La mise en place d'environnements pour le développement GPU peut être rationalisée à l'aide d'outils de conteneurisation comme Docker ; consulte leguide Ultralytics Docker Quickstart pour obtenir des instructions de configuration. Un déploiement efficace des modèles implique souvent d'optimiser les modèles pour qu'ils s'exécutent efficacement sur le matériel GPU cible. Explore diverses solutionsUltralytics qui tirent parti de la puissance du GPU .

Tout lire