Glossar

GPU (Graphics Processing Unit)

Entdecke, wie GPUs KI und maschinelles Lernen revolutionieren, indem sie Deep Learning beschleunigen, Workflows optimieren und reale Anwendungen ermöglichen.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Ein GrafikprozessorGPU) ist ein spezieller elektronischer Schaltkreis, der ursprünglich entwickelt wurde, um die Erstellung und Wiedergabe von Bildern, Videos und Animationen zu beschleunigen. Ursprünglich wurden GPUs in der Spiele- und Grafikdesignbranche eingesetzt, aber ihre einzigartige Architektur hat sie zu einem unverzichtbaren Werkzeug in der modernen Künstlichen Intelligenz (KI) und im Maschinellen Lernen (ML) gemacht. GPUs verfügen über Tausende von Rechenkernen, die parallel arbeiten und so große Mengen an Berechnungen gleichzeitig durchführen können. Diese Fähigkeit eignet sich hervorragend für die rechenintensiven Aufgaben von Deep-Learning-Algorithmen und ermöglicht ein schnelleres Modelltraining und effiziente Schlussfolgerungen in Echtzeit. Wenn du die Entwicklung der GPU verstehst, kannst du ihre aktuelle Rolle in der KI nachvollziehen.

Bedeutung für KI und maschinelles Lernen

Die parallelen Verarbeitungsmöglichkeiten von Grafikprozessoren sind ein wichtiger Katalysator für die jüngsten Durchbrüche in der KI. Das Training tiefer neuronaler Netze erfordert die Verarbeitung riesiger Datensätze und die Durchführung unzähliger komplexer mathematischer Operationen, wie z. B. Matrixmultiplikationen. GPUs beherrschen diese Operationen hervorragend und verkürzen die Zeit, die zum Trainieren von Modellen benötigt wird, im Vergleich zu herkömmlichen Zentraleinheiten (CPUs) drastisch. Diese Beschleunigung ermöglicht es Forschern und Entwicklern im Bereich der KI-Entwicklung, schneller zu iterieren, mit größeren und komplexeren Modellen zu experimentieren und eine höhere Genauigkeit bei Aufgaben wie Objekterkennung und Bildsegmentierung zu erreichen.

Hier sind zwei Beispiele für GPUs in realen KI/ML-Anwendungen:

  1. Objektdetektion in Echtzeit: Die YOLO Ultralytics , die für ihre Geschwindigkeit und Effizienz bekannt sind, nutzen GPUs für die Objekterkennung in Echtzeit für Anwendungen wie autonomes Fahren, Sicherheitsüberwachung(Verbesserung der Sicherheitssysteme) und Robotik. Die Parallelität von Grafikprozessoren ermöglicht es diesen Modellen, Videobilder schnell zu verarbeiten und mehrere Objekte gleichzeitig genau zu erkennen. Entdecke die verschiedenen YOLO11 , die durch die GPU ermöglicht werden.
  2. Training großer Modelle: Das Training großer Sprachmodelle (LLMs) oder komplexer Computer-Vision-Modelle erfordert oft eine erhebliche Rechenleistung, auf die häufig über Cloud-Computing-Plattformen zugegriffen wird. Dienste wie Ultralytics HUB Cloud Training nutzen leistungsstarke GPU von Anbietern wie AWS, Google Cloud und Azure, um Modelle auf riesigen Datensätzen für Aufgaben zu trainieren, die von der Verarbeitung natürlicher Sprache (NLP) bis zur fortschrittlichen medizinischen Bildanalyse reichen.

Hauptunterschiede zu CPUs und TPUs

GPUs, CPUs und Tensor Processing Units (TPUs) sind zwar alle Arten von Prozessoren, aber sie haben unterschiedliche Stärken und sind für verschiedene Aufgaben optimiert:

  • CPU (Central Processing Unit): Sie ist für allgemeine Rechenaufgaben konzipiert und eignet sich besonders gut für sequentielle Aufgaben und die Verwaltung von Systemoperationen. CPUs haben ein paar leistungsstarke Kerne, die für eine niedrige Latenzzeit optimiert sind. Hier findest du einen Überblick überCPU und GPU .
  • GPU (Graphics Processing Unit): Optimiert für parallele Operationen mit Tausenden von einfacheren Rechenkernen. Ideal für Aufgaben, die aufgeteilt und gleichzeitig verarbeitet werden können, wie das Rendern von Grafiken und das Trainieren von Deep-Learning-Modellen. Die Leistung wird oft anhand von Kennzahlen wie FLOPS gemessen.
  • TPU (Tensor Processing Unit): Google anwendungsspezifischer integrierter Schaltkreis (ASIC), der speziell für die Beschleunigung von maschinellen Lernprozessen mit der TensorFlow Framework. Sie sind für große Matrixoperationen optimiert, die in neuronalen Netzwerken üblich sind. Erfahre mehr über die TPU vonGoogle.

GPUs bieten ein ausgewogenes Verhältnis zwischen hoher Leistung für parallele Verarbeitungsaufgaben und Vielseitigkeit für verschiedene Anwendungen, was sie zu einer beliebten Wahl für viele KI- und HPC-Arbeitslasten macht.

Ökosystem und Nutzung

Die weite Verbreitung von Grafikprozessoren in der KI wird durch robuste Software-Ökosysteme unterstützt. Große Hersteller wie NVIDIA und AMD bieten GPUs an, die für KI-Aufgaben geeignet sind. NVIDIACUDA (Compute Unified Device Architecture) von NVIDIA ist eine weit verbreitete Plattform für parallele Berechnungen und ein Programmiermodell für NVIDIA . Deep Learning-Frameworks wie PyTorch und TensorFlow sind für die Nutzung der GPU optimiert. Die Einrichtung von Umgebungen für die GPU Entwicklung kann mit Containerisierungstools wie Docker vereinfacht werden; Anweisungen zur Einrichtung findest du im Ultralytics Docker Quickstart Guide. Für eine effiziente Modellbereitstellung müssen die Modelle oft so optimiert werden, dass sie auf der GPU effektiv laufen. Entdecke verschiedene Ultralytics , die die GPU nutzen.

Alles lesen