Glossar

TPU (Tensor Processing Unit)

Entdecke, wie die TPUs von Google das maschinelle Lernen mit unübertroffener Geschwindigkeit, Energieeffizienz und optimierter TensorFlow Leistung beschleunigen.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Eine Tensor Processing Unit (TPU) ist ein anwendungsspezifischer integrierter Schaltkreis (ASIC), der von Google speziell für die Beschleunigung von maschinellen Lernaufgaben entwickelt wurde. TPUs wurden entwickelt, um die schnellen und großvolumigen Berechnungen durchzuführen, die für neuronale Netze erforderlich sind, insbesondere für Aufgaben, die Tensoren, also mehrdimensionale Datenfelder, beinhalten. Diese Prozessoren sind hervorragend in der Lage, die Matrixoperationen zu verarbeiten, die für das Training und die Schlussfolgerungen in Deep-Learning-Modellen von grundlegender Bedeutung sind. Dadurch sind sie für diese speziellen Aufgaben deutlich schneller und energieeffizienter als Allzweck-CPUs oder sogar GPUs.

Hauptmerkmale und Vorteile von TPUs

TPUs sind für einen hohen Rechendurchsatz und Arithmetik mit reduzierter Genauigkeit optimiert. Das bedeutet, dass sie für viele Anwendungen des maschinellen Lernens Berechnungen mit einer geringeren Genauigkeit durchführen können, ohne dass die Genauigkeit signifikant abnimmt. Dieser Ansatz ermöglicht es den TPUs, mehr Operationen pro Sekunde zu verarbeiten und dabei weniger Strom zu verbrauchen. Die Architektur der TPUs ist speziell darauf zugeschnitten, die Leistung von TensorFlow, dem Open-Source-Framework für maschinelles Lernen von Google, zu beschleunigen, obwohl sie über entsprechende Software-Schnittstellen auch mit anderen Frameworks verwendet werden können.

  • Spezialisierte Hardware: TPUs sind so gebaut, dass sie die speziellen Berechnungen, die beim maschinellen Lernen anfallen, wie z.B. Matrixmultiplikationen und -additionen, ausführen können.
  • Hoher Durchsatz: Sie können große Datenmengen sehr schnell verarbeiten und sind daher ideal für das Training großer Modelle oder die Bearbeitung von Inferenzanfragen in großem Umfang.
  • Energieeffizienz: TPUs sind so konzipiert, dass sie für maschinelles Lernen energieeffizienter sind als herkömmliche Prozessoren und so die Betriebskosten und die Umweltbelastung senken.

TPUs vs. CPUs und GPUs

Während CPUs Allzweckprozessoren sind, die eine Vielzahl von Aufgaben bewältigen können, und GPUs auf parallele Verarbeitung spezialisiert sind, vor allem in den Bereichen Grafik und Spiele, sind TPUs in einzigartiger Weise für Aufgaben des maschinellen Lernens optimiert. Im Vergleich zu GPUs bieten TPUs einen höheren Rechendurchsatz für bestimmte Arten von Machine-Learning-Berechnungen. Das macht sie besonders nützlich für Anwendungen, die das Trainieren großer, komplexer Modelle oder die Durchführung von Schlussfolgerungen aus großen Datensätzen erfordern. GPUs sind jedoch vielseitiger für ein breiteres Spektrum von Anwendungen jenseits des maschinellen Lernens. Erfahre mehr über TensorFlowein Framework, das häufig mit TPUs verwendet wird.

Anwendungen von TPUs

TPUs werden in verschiedenen Bereichen eingesetzt und haben ihre Effektivität bei der Beschleunigung von maschinellen Lernaufgaben bewiesen. Zwei bemerkenswerte Beispiele sind:

  1. Google Suche: Google nutzt TPUs, um die Geschwindigkeit und Genauigkeit von Suchergebnissen zu verbessern, indem Webseiten effizienter verarbeitet und bewertet werden. Dabei geht es um komplexe Aufgaben der natürlichen Sprachverarbeitung und des Sprachverständnisses, die von den beschleunigten Verarbeitungsfunktionen der TPUs profitieren.
  2. AlphaGo: Bei der Entwicklung von AlphaGo, dem ersten Computerprogramm, das einen professionellen menschlichen Go-Spieler besiegt hat, spielten TPUs eine entscheidende Rolle beim Training der tiefen neuronalen Netze, die das Programm verwendet. Die Fähigkeit der TPUs, den Trainingsprozess zu beschleunigen, war entscheidend für diesen Meilenstein der künstlichen Intelligenz.

Zugriff auf und Verwendung von TPUs

Google bietet über die Google Cloud Zugang zu TPUs und ermöglicht es Forschern, Entwicklern und Unternehmen, deren Fähigkeiten für ihre Machine-Learning-Projekte zu nutzen. Die Nutzer können die TPUs über verschiedene Dienste nutzen, z. B. Google Colab, das kostenlosen Zugang zu TPUs für Bildungs- und Forschungszwecke bietet, und Google Cloud's AI Platform, die skalierbare TPU Ressourcen für kommerzielle Anwendungen bereitstellt.

TPUs und Ultralytics

Während Ultralytics sich auf die Entwicklung von hochmodernen Objekterkennungsmodellen wie Ultralytics YOLO konzentriert, ist die zugrunde liegende Hardware, die das Training und die Inferenz dieser Modelle beschleunigt, von entscheidender Bedeutung. Obwohl die Modelle von Ultralytics so konzipiert sind, dass sie vielseitig einsetzbar sind und effizient auf CPUs und GPUs laufen, kann der Einsatz von TPUs die Leistung bei bestimmten Aufgaben erheblich steigern. Zum Beispiel kann das Training großer Modelle auf umfangreichen Datensätzen oder der Einsatz von Modellen für Inferenzen mit hohem Durchsatz von den speziellen Verarbeitungsmöglichkeiten der TPUs profitieren. Du kannst die Einsatzoptionen für deine YOLO Modelle erkunden, einschließlich der Formate ONNX, OpenVINO und TensorRT, mit den jeweiligen Vor- und Nachteilen, um deine Einsatzstrategie festzulegen.

Außerdem erfährst du, wie du Ultralytics YOLO Modelle in das Format TensorFlow SavedModel exportieren kannst, um sie auf verschiedenen Plattformen und in verschiedenen Umgebungen einfach einzusetzen.

Alles lesen