Glossar

Beschneiden

Optimiere KI-Modelle mit Pruning - reduziere die Komplexität, steigere die Effizienz und stelle sie schneller auf Edge-Geräten bereit, ohne die Leistung zu beeinträchtigen.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Im Zusammenhang mit künstlicher Intelligenz und maschinellem Lernen bezieht sich Pruning auf Techniken, mit denen die Komplexität eines Modells reduziert wird, indem weniger wichtige Verbindungen oder Parameter entfernt werden. Dieses Verfahren zielt darauf ab, das Modell zu verschlanken und es in Bezug auf Berechnungen und Speichernutzung effizienter zu machen, ohne seine Genauigkeit wesentlich zu beeinträchtigen. Pruning ist besonders wertvoll, wenn Modelle auf ressourcenbeschränkten Geräten eingesetzt werden oder wenn es darum geht, die Inferenzgeschwindigkeit zu erhöhen.

Die Bedeutung des Beschneidens

Die wichtigste Bedeutung des Pruning liegt in der Modelloptimierung. Da Deep Learning-Modelle immer größer und komplexer werden, um eine höhere Genauigkeit zu erreichen, werden sie rechen- und speicherintensiv. Dies stellt eine Herausforderung für den Einsatz dar, insbesondere auf Endgeräten wie Smartphones oder eingebetteten Systemen, die nur über begrenzte Ressourcen verfügen. Pruning schafft hier Abhilfe, indem es kleinere, schnellere Modelle erstellt, die einfacher einzusetzen sind und weniger Rechenleistung benötigen, so dass Echtzeit-Inferenzen in verschiedenen Anwendungen möglich sind. Es ist ein entscheidender Schritt bei der Optimierung von Modellen für den Einsatz und macht KI auf verschiedenen Plattformen zugänglicher und praktischer.

Anwendungen des Beschneidens

Pruning-Techniken werden in verschiedenen Bereichen der KI und des maschinellen Lernens eingesetzt. Hier sind ein paar konkrete Beispiele:

  • Mobile Computer Vision: Betrachten Sie Ultralytics YOLO Modelle, die in mobilen Anwendungen für Aufgaben wie die Objekterkennung verwendet werden. Durch Pruning kann die Größe dieser Modelle erheblich reduziert werden, so dass sie auf Smartphones effizient laufen, ohne die Akkulaufzeit zu verkürzen oder die Leistung zu beeinträchtigen. Das ist wichtig für Echtzeitanwendungen wie mobile Sicherheitssysteme oder Augmented-Reality-Apps. Der Einsatz eines beschnittenen YOLO Modells auf einem Edge TPU auf dem Raspberry Pi kann zum Beispiel zu schnelleren Schlussfolgerungen und geringerem Stromverbrauch führen.

  • Autonome Fahrsysteme: Bei selbstfahrenden Autos kommt es auf eine schnelle und genaue Objekterkennung an. Autonome Fahrzeuge sind auf komplexe Modelle angewiesen, um Sensordaten in Echtzeit zu verarbeiten. Das Pruning dieser Modelle kann die Inferenzlatenz verringern und so eine schnellere Entscheidungsfindung durch das KI-System des Fahrzeugs gewährleisten. Dies ist entscheidend für die Sicherheit und Reaktionsfähigkeit in dynamischen Fahrumgebungen. Die durch Pruning optimierten Modelle können auch mit TensorRT verwendet werden, um die Leistung auf NVIDIA GPUs, die häufig in autonomen Systemen eingesetzt werden, weiter zu beschleunigen.

Arten und Techniken

Es gibt verschiedene Ansätze für den Baumschnitt, die sich grob in folgende Kategorien einteilen lassen:

  • Weight Pruning: Dabei werden einzelne Gewichte oder Verbindungen in einem neuronalen Netz entfernt, die einen minimalen Einfluss auf die Leistung des Modells haben. Techniken wie das magnitudenbasierte Pruning entfernen die Gewichte mit den kleinsten absoluten Werten.
  • Filter Pruning: Bei diesem strukturierteren Ansatz werden ganze Filter (und die dazugehörigen Feature Maps) aus den Faltungsschichten entfernt. Filter Pruning führt oft zu einer deutlicheren Reduzierung der Modellgröße und zu einer Beschleunigung im Vergleich zum Weight Pruning, da es die Anzahl der Berechnungen direkt reduziert.

Das Pruning kann auch in verschiedenen Phasen des Modellentwicklungsprozesses angewendet werden:

  • Pre-training Pruning: Das Pruning wird an einem vortrainierten Modell durchgeführt. Dies ist ein gängiger Ansatz, da vortrainierte Modelle oft überflüssige Parameter haben.
  • Beschneidung während des Trainings: Das Pruning wird in den Trainingsprozess selbst integriert. Dies kann zu einem effizienteren Training und einer potenziell besseren Modellleistung nach dem Pruning führen.
  • Post-Training Pruning: Das Pruning wird angewendet, nachdem das Modell vollständig trainiert wurde. Dies ist der einfachste Ansatz und beinhaltet oft Techniken wie die Quantisierung, um die Modellgröße weiter zu reduzieren und die Inferenz zu beschleunigen, manchmal in Verbindung mit Formaten wie ONNX.

Zusammenfassend lässt sich sagen, dass Pruning eine wichtige Modelloptimierungstechnik ist, die den Einsatz effizienter und leistungsfähiger KI-Modelle in ressourcenbeschränkten Umgebungen und latenzempfindlichen Anwendungen ermöglicht. Durch die Reduzierung der Modellkomplexität trägt Pruning dazu bei, KI praktischer und breiter einsetzbar zu machen.

Alles lesen