Glossaire

TPU (Tensor Processing Unit)

Découvre comment les TPU de Google's accélèrent l'apprentissage automatique avec une vitesse inégalée, une efficacité énergétique et des performances optimisées TensorFlow .

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Une Tensor Processing Unit (TPU) est un circuit intégré spécifique à l'application (ASIC) développé sur mesure et créé par Google spécifiquement pour accélérer les charges de travail liées à l'apprentissage automatique. Les TPU sont conçues pour effectuer les calculs rapides et de grand volume requis par les réseaux neuronaux, en particulier pour les tâches impliquant des tenseurs, qui sont des tableaux de données multidimensionnels. Ces processeurs excellent dans le traitement des opérations matricielles qui sont fondamentales pour la formation et l'inférence dans les modèles d'apprentissage profond, ce qui les rend nettement plus rapides et plus économes en énergie que les CPU à usage général ou même les GPU pour ces tâches spécifiques.

Principales caractéristiques et avantages des TPU

Les TPU sont optimisées pour un débit de calcul élevé et une arithmétique de précision réduite, ce qui signifie qu'elles peuvent effectuer des calculs à une précision moindre sans perte significative de précision pour de nombreuses applications d'apprentissage automatique. Cette approche permet aux TPU de traiter plus d'opérations par seconde tout en consommant moins d'énergie. L'architecture des TPU est spécialement conçue pour accélérer les performances de TensorFlow, le cadre d'apprentissage machine open-source de Google, bien qu'elles puissent également être utilisées avec d'autres cadres par le biais d'interfaces logicielles appropriées.

  • Matériel spécialisé: Les TPU sont construites pour gérer les types de calculs spécifiques courants dans l'apprentissage automatique, tels que les multiplications et les additions de matrices.
  • Haut débit: Ils peuvent traiter de grandes quantités de données très rapidement, ce qui les rend idéaux pour former de grands modèles ou traiter des demandes d'inférence à l'échelle.
  • Efficacité énergétique: Les TPU sont conçues pour être plus économes en énergie que les processeurs traditionnels pour les charges de travail d'apprentissage automatique, ce qui permet de réduire les coûts opérationnels et l'impact sur l'environnement.

TPUs vs. CPUs et GPUs

Alors que les CPU sont des processeurs polyvalents capables de gérer un large éventail de tâches, et que les GPU sont spécialisés dans le traitement parallèle, notamment dans le graphisme et les jeux, les TPU sont uniquement optimisées pour les tâches d'apprentissage automatique. Par rapport aux GPU, les TPU offrent un débit de calcul plus élevé pour des types spécifiques de calculs d'apprentissage automatique. Cela les rend particulièrement utiles pour les applications qui nécessitent d'entraîner des modèles complexes et de grande taille ou d'effectuer des inférences sur de grands ensembles de données. Cependant, les GPU restent plus polyvalents pour une gamme plus large d'applications au-delà de l'apprentissage automatique. En savoir plus sur TensorFlowL'apprentissage automatique, un cadre souvent utilisé avec les TPU.

Applications des TPU

Les TPU ont trouvé des applications dans divers domaines, démontrant leur efficacité dans l'accélération des tâches d'apprentissage automatique. Deux exemples notables sont :

  1. Google Recherche: Google utilise les TPU pour améliorer la vitesse et la précision des résultats de recherche en traitant et en classant les pages web plus efficacement. Cela implique des tâches complexes de traitement et de compréhension du langage naturel qui bénéficient des capacités de traitement accéléré des TPU.
  2. AlphaGo: Dans le développement d'AlphaGo, le premier programme informatique à vaincre un joueur de Go humain professionnel, les TPU ont joué un rôle crucial dans la formation des réseaux neuronaux profonds utilisés par le programme. La capacité des TPU à accélérer le processus de formation a joué un rôle déterminant dans la réalisation de cette étape importante de l'intelligence artificielle.

Accès et utilisation des TPU

Google fournit un accès aux TPU par le biais de Google Cloud, ce qui permet aux chercheurs, aux développeurs et aux entreprises d'exploiter leurs capacités pour leurs projets d'apprentissage automatique. Les utilisateurs peuvent utiliser les TPU par le biais de divers services, tels que Google Colab, qui offre un accès gratuit aux TPU à des fins éducatives et de recherche, et Google Cloud's AI Platform, qui fournit des ressources évolutives sur TPU pour des applications commerciales.

TPU et Ultralytics

Alors que Ultralytics se concentre sur le développement de modèles de détection d'objets de pointe comme Ultralytics YOLO , le matériel sous-jacent qui accélère la formation et l'inférence de ces modèles est crucial. Bien que les modèles Ultralytics soient conçus pour être polyvalents et puissent fonctionner efficacement sur les CPU et les GPU, l'utilisation des TPU peut améliorer considérablement les performances pour certaines tâches. Par exemple, l'entraînement de grands modèles sur des ensembles de données étendus ou le déploiement de modèles pour une inférence à haut débit peuvent bénéficier des capacités de traitement spécialisées des TPU. Tu peux explorer les options de déploiement de tes modèles YOLO , y compris les formats tels que ONNX, OpenVINO, et TensorRT, avec les avantages et les inconvénients de chacun d'entre eux pour informer ta stratégie de déploiement.

En outre, tu peux apprendre à exporter les modèles Ultralytics YOLO au format TensorFlow SavedModel pour faciliter leur déploiement sur diverses plates-formes et dans divers environnements.

Tout lire