Optimiere KI mit gemischter Präzision für schnelleres, effizientes Deep Learning. Reduziere den Speicher, erhöhe die Geschwindigkeit und spare Energie, ohne die Genauigkeit zu beeinträchtigen.
Gemischte Genauigkeit ist eine Technik des maschinellen Lernens, bei der sowohl 16-Bit- als auch 32-Bit-Gleitkommaberechnungen verwendet werden, um die Effizienz beim Training von Deep-Learning-Modellen zu verbessern. Indem die Stärken der einzelnen Genauigkeitstypen genutzt werden, ermöglicht die gemischte Genauigkeit schnellere Berechnungen und einen geringeren Speicherbedarf, ohne die Modellgenauigkeit wesentlich zu beeinträchtigen.
Die Hauptmotivation für die Verwendung von gemischter Präzision ist es, schnellere Trainings- und Inferenzprozesse zu erreichen. Deep-Learning-Modelle, insbesondere große neuronale Netze, benötigen umfangreiche Rechenressourcen. Gemischte Präzision kann:
Reduziere den Speicherbedarf: Die Speicherung von Daten als 16-Bit-Fließkommazahlen benötigt nur die Hälfte des Platzes im Vergleich zu 32-Bit-Fließkommazahlen. Dadurch kann der Speicherbedarf erheblich reduziert werden, so dass größere Stapel oder komplexere Modelle auf der gleichen Hardware trainiert werden können.
Beschleunige die Berechnungen: Viele moderne Grafikprozessoren, wie z. B. NVIDIA's Tensor Cores, sind für 16-Bit-Operationen optimiert. Durch die Nutzung dieser Hardware-Optimierung können mit gemischter Genauigkeit schnellere Berechnungen durchgeführt werden.
Energieeffizient: Die Verwendung von gemischter Präzision kann auch zu einem geringeren Stromverbrauch führen, was sowohl für die Umwelt als auch für die Langlebigkeit der Geräte von Vorteil ist.
In der Praxis bedeutet gemischte Präzision, dass die Gewichte eines Modells in voller 32-Bit-Präzision beibehalten werden, um die Genauigkeit des Modells zu erhalten, während bestimmte Berechnungsaspekte wie Aktivierungen und Gradienten auf 16-Bit-Präzision umgestellt werden. Die Verlustskalierung wird in der Regel verwendet, um Unterläufe zu verhindern, die aufgrund der geringeren Genauigkeit auftreten könnten.
Gemischte Präzision ist in verschiedenen Bereichen, in denen große Modelle und Datensätze verwendet werden, wie z. B. bei der Verarbeitung natürlicher Sprache und beim Computersehen, von großer Bedeutung. Zum Beispiel:
Natürliche Sprachverarbeitung (NLP): Große Sprachmodelle wie die GPT-3- und Transformer-Architekturen können erheblich von der gemischten Präzision profitieren, die ein effizienteres Training ermöglicht, ohne die hohe Genauigkeit zu beeinträchtigen, die für das Sprachverständnis und die Sprachgenerierung erforderlich ist.
Computer Vision: Bei Anwendungen wie der Objekterkennung mit Ultralytics YOLOkann die gemischte Präzision die Inferenzphase beschleunigen, was in Echtzeitszenarien wie autonomen Fahrzeugen oder Überwachungssystemen entscheidend ist.
Der Begriff "gemischte Präzision" wird oft in Verbindung mit Begriffen wie Modellquantisierung und Modellbeschneidung verwendet. Alle drei zielen darauf ab, Modelle zu optimieren, aber sie unterscheiden sich in ihren Ansätzen:
Modellquantisierung: Konvertiert Modellgewichte und -berechnungen in Darstellungen mit geringerer Bitbreite (z. B. 8 Bit), um den Speicher- und Rechenaufwand weiter zu verringern, was sich in der Regel auf die Genauigkeit auswirkt.
Model Pruning: Dabei werden überflüssige Teile eines neuronalen Netzes entfernt, um dessen Größe zu verringern und die Geschwindigkeit zu erhöhen.
Selbstfahrende Fahrzeuge: In autonomen Fahrzeugen ermöglicht die gemischte Präzision schnellere Berechnungen in bildverarbeitungsbasierten Anwendungen. So nutzt die KI beim autonomen Fahren die gemischte Präzision, um komplexe Umgebungswahrnehmungen effizient zu verarbeiten und damit sowohl die Sicherheit als auch die Entscheidungsprozesse zu verbessern.
Bildsegmentierung im Gesundheitswesen: Gemischte Präzision wird auch bei KI-Anwendungen im Gesundheitswesen für medizinische Bildgebungsaufgaben wie CT-Scans und MRTs eingesetzt. Sie ermöglicht die schnelle Verarbeitung großer Datensätze und hilft bei der Diagnose und Behandlungsplanung in Echtzeit.
Die Umsetzung der gemischten Präzision erfordert Änderungen in den Arbeitsabläufen der Modellschulung, oft durch den Einsatz von Bibliotheken und Tools, die dafür entwickelt wurden. Frameworks wie TensorFlow und PyTorch bieten eine eingebaute Unterstützung für gemischte Präzision und erleichtern so die Integration in bestehende Projekte.
Einen praktischen Leitfaden für den Einsatz von Modellen mit Optimierungen wie der gemischten Genauigkeit findest du in unserem Ultralytics HUB mit Tools und Ressourcen, die auf die nahtlose Modellentwicklung zugeschnitten sind.