Glossar

Gemischte Präzision

Beschleunige Deep Learning mit Mixed Precision Training. Reduziere den Speicherbedarf, erhöhe die Geschwindigkeit und behalte die Genauigkeit bei, indem du FP16- und FP32-Formate verwendest.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Mixed Precision ist eine Trainingsmethode beim Deep Learning, die mehrere numerische Genauigkeiten verwendet, um den Trainingsprozess zu beschleunigen und gleichzeitig die Modellgenauigkeit zu erhalten. Normalerweise verwenden Deep Learning-Modelle 32-Bit-Gleitkommazahlen (FP32), um Gewichte, Aktivierungen und Gradienten darzustellen. Bei der gemischten Präzision werden neben der 32-Bit-Gleitkommazahl auch 16-Bit-Gleitkommazahlen (FP16) verwendet, um die Vorteile beider Formate zu nutzen und die Recheneffizienz zu erhöhen.

Vorteile der gemischten Präzision

Gemischte Präzision bietet mehrere entscheidende Vorteile beim Training von Deep Learning-Modellen:

  • Geringerer Speicherbedarf: Die Verwendung von FP16 reduziert den Speicherbedarf des Modells um die Hälfte im Vergleich zur ausschließlichen Verwendung von FP32. Diese Verringerung ermöglicht das Training größerer Modelle oder die Verwendung größerer Stapelgrößen, was zu einer besseren Modellleistung führen kann. Erfahre mehr über die Optimierung von Stapelgrößen und ihre Auswirkungen auf die Trainingseffizienz.
  • Höhere Lerngeschwindigkeit: Operationen mit FP16-Zahlen sind in der Regel schneller als FP32, vor allem auf modernen Grafikprozessoren, die über spezielle Hardware für 16-Bit-Berechnungen verfügen. Diese Beschleunigung kann die Zeit, die zum Trainieren eines Modells benötigt wird, erheblich reduzieren. Erfahre, wie GPUs KI- und ML-Berechnungen beschleunigen.
  • Energieeffizient: Eine geringere Speicherbandbreite und schnellere Berechnungen führen auch zu einem geringeren Stromverbrauch, wodurch das Mixed-Precision-Training energieeffizienter wird, was besonders wichtig für den Einsatz auf Edge-Geräten oder in großen Rechenzentren ist. Erfahre mehr über Edge Computing und seine Vorteile.

So funktioniert gemischte Präzision

Beim Training mit gemischter Genauigkeit werden die Gewichte und Aktivierungen im FP16-Format gespeichert, um Speicherplatz zu sparen und die Berechnungen zu beschleunigen. Um die Genauigkeit beizubehalten, wird jedoch eine Master-Kopie der Gewichte im FP32-Format gespeichert. Bei jeder Trainingsiteration werden die Vorwärts- und Rückwärtsdurchläufe im FP16-Format durchgeführt, aber die Aktualisierung der Gewichte erfolgt im FP32-Format. Dieser Ansatz kombiniert die Geschwindigkeits- und Speichervorteile von FP16 mit der Genauigkeit und Stabilität von FP32.

Schlüsselkonzepte der gemischten Präzision

Um die gemischte Präzision zu verstehen, musst du ein paar Schlüsselbegriffe kennen:

  • FP32 (Single Precision): Das standardmäßige 32-Bit-Gleitkommaformat, das in den meisten Deep Learning-Modellen verwendet wird. Es bietet eine hohe Genauigkeit, benötigt aber mehr Speicher und Rechenressourcen.
  • FP16 (Half Precision): Ein 16-Bit-Gleitkommaformat, das den Speicherbedarf reduziert und die Rechengeschwindigkeit erhöht. Es hat jedoch einen geringeren dynamischen Bereich und eine geringere Genauigkeit, was zu Problemen wie verschwindenden Gradienten beim Training führen kann.
  • Verlustskalierung: Eine Technik, die verwendet wird, um Unterlaufprobleme zu vermeiden, die bei FP16 auftreten können. Der Verlust wird vor der Backpropagation um einen Faktor nach oben skaliert, und die resultierenden Gradienten werden vor der Aktualisierung der Gewichte wieder nach unten skaliert. Auf diese Weise wird die Größe kleiner Gradienten beibehalten, die in FP16 sonst auf Null gerundet werden könnten.

Anwendungen und Beispiele aus der Praxis

Mixed-Precision-Training ist in verschiedenen Deep-Learning-Anwendungen weit verbreitet, z. B:

  • Computer Vision: Das Training großer Computer-Vision-Modelle, wie sie bei der Objekterkennung, Bildklassifizierung und Bildsegmentierung verwendet werden, profitiert erheblich von der gemischten Präzision. So können z. B. Ultralytics YOLO (You Only Look Once) Modelle mit gemischter Präzision schneller und mit größeren Losgrößen trainiert werden, was zu schnelleren Experimenten und Modelliterationen führt. Erfahre mehr über Ultralytics YOLO Weiterentwicklungen.
  • Verarbeitung natürlicher Sprache (NLP): Modelle wie BERT und andere Transformer-Architekturen können die gemischte Präzision nutzen, um die Trainingszeit und den Speicherbedarf zu reduzieren. Das ist besonders nützlich, wenn du mit großen Textdatensätzen und komplexen Modellen arbeitest. Erfahre mehr über Anwendungen zur Verarbeitung natürlicher Sprache (NLP).
  • Gesundheitswesen: In der medizinischen Bildgebung kann die gemischte Präzision das Training von Modellen für Aufgaben wie die Tumorerkennung und die Segmentierung von Organen beschleunigen. Dies ermöglicht eine schnellere Entwicklung von Diagnoseinstrumenten und unterstützt rechtzeitige medizinische Eingriffe. Entdecke die Rolle der KI im Gesundheitswesen.
  • Autonome Fahrzeuge: Um Modelle für autonome Fahrzeuge zu trainieren, müssen große Mengen an Sensordaten verarbeitet werden. Mixed Precision hilft dabei, die Rechenlast zu bewältigen und ermöglicht so ein effizienteres Training von Modellen für die Objekterkennung, das Halten der Fahrspur und andere wichtige Aufgaben.

Gemischte Präzision vs. andere Techniken

Obwohl die gemischte Präzision eine leistungsstarke Technik ist, ist es wichtig zu verstehen, wie sie sich von anderen Optimierungsmethoden unterscheidet:

  • Modellquantisierung: Bei dieser Technik wird die Genauigkeit der Gewichte und Aktivierungen auf 8-Bit-Ganzzahlen (INT8) oder noch niedriger reduziert. Die Modellquantisierung kann die Speichernutzung weiter reduzieren und die Geschwindigkeit erhöhen, kann aber im Vergleich zur gemischten Genauigkeit zu einem größeren Verlust an Genauigkeit führen.
  • Model Pruning: Beim Model Pruning werden unnötige Verbindungen oder Neuronen aus einem neuronalen Netz entfernt, um dessen Größe und Rechenkomplexität zu reduzieren. Obwohl es eine Ergänzung zur gemischten Präzision ist, konzentriert sich das Model Pruning auf die Reduzierung der Modellgröße und nicht auf die Verwaltung der numerischen Präzision beim Training.

Durch die Kombination von Mixed Precision mit anderen Optimierungstechniken können Entwickler noch mehr Effizienz und Leistung in ihren Deep Learning-Modellen erreichen. Zum Beispiel kann die Integration von Mixed Precision mit Tools wie Weights & Biases kann die Experimentverfolgung und Modelloptimierung weiter verbessern.

Schlussfolgerung

Das Training mit gemischter Genauigkeit ist eine wertvolle Technik, um das Training von Deep Learning-Modellen zu beschleunigen und gleichzeitig Rechenressourcen zu sparen. Durch den gezielten Einsatz von FP16 und FP32 können Entwickler die Trainingszeit und den Speicherbedarf erheblich reduzieren, ohne die Modellgenauigkeit zu beeinträchtigen. Das macht sie zu einem unverzichtbaren Werkzeug für eine Vielzahl von Anwendungen, von Computer Vision und NLP bis hin zum Gesundheitswesen und autonomen Fahren. Da die Hardwareunterstützung für 16-Bit-Berechnungen immer besser wird, wird sich die gemischte Genauigkeit im Bereich des Deep Learning wahrscheinlich noch weiter durchsetzen.

Alles lesen