Glossar

TPU (Tensor Processing Unit)

Entdecke, wie Tensor Processing Units (TPUs) maschinelle Lernaufgaben wie Training, Inferenz und Objekterkennung mit unübertroffener Effizienz beschleunigen.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Eine Tensor Processing UnitTPU) ist ein speziell entwickelter Beschleuniger für maschinelles Lernen, der von Google speziell für neuronale Netzwerke entwickelt wurde. Diese spezialisierten Prozessoren, eine Art anwendungsspezifischer integrierter Schaltkreis (ASIC), wurden entwickelt, um maschinelle Lernvorgänge drastisch zu beschleunigen und zu skalieren, insbesondere für Inferenz- und Trainingsaufgaben. TPUs sind für die komplexen mathematischen Berechnungen im Bereich der künstlichen Intelligenz (KI) konzipiert und bieten für bestimmte Arten von maschinellen Lernmodellen erhebliche Leistungsverbesserungen gegenüber Central Processing Units (CPUs) und oft auch Graphics Processing Units (GPUs). Sie sind besonders effektiv bei umfangreichen Berechnungen, wie sie beim Deep Learning üblich sind.

Was ist ein TPU?

Eine TPU wurde von Grund auf für die besonderen Anforderungen des maschinellen Lernens (ML) entwickelt. Im Gegensatz zu Allzweckprozessoren wie CPUs oder sogar GPUs, die ein breiteres Spektrum an Aufgaben bewältigen können, wurden TPUs speziell für tensor entwickelt - die grundlegenden mathematischen Operationen in neuronalen Netzen (NNs). Tensoren sind mehrdimensionale Arrays, die Daten in ML-Modellen darstellen, und TPUs sind darauf optimiert, große Matrixmultiplikationen und andere tensor mit hoher Geschwindigkeit und Energieeffizienz durchzuführen. Dank dieser Spezialisierung können TPUs ML-Aufgaben viel schneller als CPUs und in vielen Szenarien auch effizienter als GPUs ausführen, vor allem wenn sie mit Frameworks wie TensorFlow arbeiten, für die sie ursprünglich optimiert wurden. Unterstützung für andere Frameworks wie PyTorch ist ebenfalls verfügbar, was ihre Einsatzmöglichkeiten erweitert. Mehr über die Einzelheiten erfährst du in der Google Cloud TPU Einführung.

Anwendungen von TPUs

TPUs werden in zahlreichen Anwendungen eingesetzt, vor allem in den Google und zunehmend auch in breiteren KI- und ML-Bereichen, die über Plattformen wie Google Cloud zugänglich sind. Zu den wichtigsten Anwendungen gehören:

  • Training von Modellen in großem Maßstab: TPUs eignen sich hervorragend für das Training großer Deep-Learning-Modelle, die eine enorme Rechenleistung und verteilte Trainingsaufbauten erfordern. Google nutzt TPUs zum Beispiel intern, um anspruchsvolle Modelle für Dienste wie Google Search und Google Translate zu trainieren und dabei riesige Datensätze und komplexe Architekturen zu verarbeiten.
  • Inferenz für große Datenmengen: Für Anwendungen, die eine schnelle und effiziente Inferenz auf große Datenmengen erfordern, bieten TPUs eine erhebliche Beschleunigung. Dies ist entscheidend für Echtzeitdienste wie die Verarbeitung natürlicher Sprache (NLP) in Chatbots oder Computer-Vision-Aufgaben (CV) wie die groß angelegte Objekterkennung in Google Photos.
  • Forschung und Entwicklung: Forscher nutzen TPUs über Cloud-Plattformen und Umgebungen wie Kaggle (siehe den Ultralytics Kaggle-Integrationsleitfaden), um Experimente zu beschleunigen und innovative KI-Modelle zu entwickeln, die z. B. in der medizinischen Bildanalyse oder bei wissenschaftlichen Simulationen eingesetzt werden.
  • Edge Computing: Kleinere Versionen, bekannt als Edge TPUs, bringen ML-Inferenzfunktionen direkt auf Geräte und ermöglichen Anwendungen im IoT und in der Robotik, die eine geringe Latenz und Offline-Verarbeitung erfordern. Erfahre mehr über die Prinzipien des Edge Computing.

TPUs vs. GPUs vs. CPUs

TPUs, GPUs und CPUs können zwar alle Berechnungen durchführen, aber sie sind für unterschiedliche Zwecke konzipiert und eignen sich für unterschiedliche Aufgaben:

  • CPU (Central Processing Unit): Das Gehirn eines Standardcomputers, das für allgemeine Rechenaufgaben konzipiert ist. Sie wickelt Systemoperationen ab, führt Programmbefehle sequentiell aus und verwaltet verschiedene Arbeitslasten, ist aber relativ langsam für die massiven parallelen Berechnungen, die beim Deep Learning benötigt werden. Lies mehr über den Vergleich zwischenCPU und GPU .
  • GPU (Graphics Processing Unit): Ursprünglich für das Rendern von Grafiken entwickelt, verfügen GPUs über Tausende von Kernen, die für die parallele Verarbeitung optimiert sind. Dadurch sind sie sehr effektiv für das Training und die Ausführung vieler ML-Modelle und bieten ein gutes Gleichgewicht zwischen Leistung und Flexibilität für verschiedene Aufgaben wie die Objekterkennung mit Ultralytics YOLO . Zu den wichtigsten Anbietern gehören NVIDIA und AMD.
  • TPU (Tensor Processing Unit): Speziell als Matrixprozessor für neuronale Netzwerke entwickelt. TPUs bieten Spitzenleistung und Energieeffizienz für groß angelegte tensor , insbesondere innerhalb des Google(TensorFlow, PyTorch auf Google Cloud). Für allgemeines paralleles Rechnen sind sie zwar weniger flexibel als GPUs, aber für spezielle, groß angelegte ML-Aufgaben, die auf Plattformen wie Google Cloud Platform gehostet werden, können sie erhebliche Kosten- und Geschwindigkeitsvorteile bieten.

Zusammenfassend lässt sich sagen, dass TPUs einen bedeutenden Fortschritt bei der Hardware darstellen, die speziell für die Anforderungen des modernen maschinellen Lernens entwickelt wurde und mehr Leistung und Effizienz für bestimmte KI-Anwendungen bietet, insbesondere für umfangreiche Trainings- und Inferenzaufgaben. Sie ergänzen andere Beschleuniger wie z. B. GPUs und bieten Optionen, die von der jeweiligen Arbeitslast, dem Umfang und dem Software-Ökosystem abhängen. Über Plattformen wie Ultralytics HUB, die eine optimierte Modellschulung und -verwaltung bieten, kannst du Schulungsoptionen, einschließlich Cloud-Ressourcen, erkunden. Weitere Informationen zu KI-Trends findest du im Ultralytics Blog.

Alles lesen