Glossar

Beschneiden

Entdecke, wie Pruning die KI-Modelle optimiert, indem es die Größe reduziert und gleichzeitig die Genauigkeit beibehält, was eine schnellere und effizientere Leistung für reale Anwendungen ermöglicht.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Pruning ist eine Technik des maschinellen Lernens, mit der neuronale Netze verkleinert werden, indem unnötige Gewichte oder ganze Neuronen entfernt werden, die nur minimal zur Leistung des Modells beitragen. Dieser Prozess hilft dabei, das Modell zu verschlanken und effizienter zu machen, was den Rechen-, Speicher- und Energieverbrauch angeht, während gleichzeitig eine akzeptable Genauigkeit beibehalten wird.

Warum ist Beschneiden wichtig?

Pruning ist in Szenarien wichtig, in denen die Rechenressourcen begrenzt sind, z. B. bei Edge Devices, mobilen Anwendungen oder eingebetteten Systemen. Durch die Konzentration auf die wichtigsten Komponenten eines Modells ermöglicht Pruning schnellere Schlussfolgerungen, reduziert den Speicherbedarf und minimiert den Stromverbrauch. Diese Vorteile sind besonders wertvoll für den Einsatz von Modellen in Echtzeitanwendungen, wie sie von Ultralytics YOLO zur Objekterkennung.

Pruning spielt auch bei der Modelloptimierung eine wichtige Rolle, da es Techniken wie die Modellquantisierung und das Tuning von Hyperparametern ergänzen kann, um die Leistung zu verbessern, ohne dass zusätzliche Daten oder ein erneutes Training von Grund auf erforderlich sind.

Wie das Beschneiden funktioniert

Beim Pruning wird in der Regel die Bedeutung von Gewichten, Neuronen oder Schichten innerhalb eines neuronalen Netzes bewertet. Kriterien wie die Größe der Gewichte, der Beitrag zum Output oder die Empfindlichkeit gegenüber Verlusten werden verwendet, um Komponenten zu identifizieren, die sicher entfernt werden können. Sobald das Pruning abgeschlossen ist, kann das Modell feinabgestimmt werden, um kleinere Genauigkeitsverluste, die durch das Entfernen von Elementen entstanden sind, auszugleichen.

Es gibt drei gängige Vorgehensweisen beim Beschneiden:

  • Weight Pruning: Entfernt einzelne Gewichte innerhalb der Schichten, die einen minimalen Einfluss auf die Vorhersagen des Modells haben. Diese Methode ist sehr granular und kann auf das gesamte Netzwerk angewendet werden.
  • Neuronales Pruning: Eliminiert ganze Neuronen oder Kanäle, indem ihr Beitrag zum Output des Netzwerks analysiert wird. Dieser Ansatz ist weniger granular, vereinfacht aber die Netzwerkstruktur.
  • Strukturiertes Pruning: Konzentriert sich auf das Entfernen größerer Komponenten, z. B. ganzer Ebenen oder Feature Maps, um die Modellgröße deutlich zu verringern und gleichzeitig die Interpretierbarkeit zu erhalten.

Anwendungen des Beschneidens

Pruning findet in verschiedenen Branchen und Anwendungsfällen Anwendung, z. B:

  1. Selbstfahrende Autos: Pruned-Modelle werden in Echtzeit-Objekterkennungs- und -verfolgungssystemen eingesetzt und sorgen für schnelle und genaue Entscheidungen in autonomen Fahrzeugen. Erfahre mehr über KI in selbstfahrenden Autos.

  2. Gesundheitswesen: Pruned-Modelle werden in medizinischen Bildgebungsprogrammen für Aufgaben wie die Tumorerkennung eingesetzt, bei denen die Effizienz der Berechnungen entscheidend ist, um zeitnahe Diagnosen zu stellen. Erforsche dies in KI im Gesundheitswesen.

  3. Intelligente Landwirtschaft: Pruning ermöglicht es, leichtgewichtige Modelle auf Drohnen oder IoT-Geräten zur Ernteüberwachung und Schädlingserkennung einzusetzen. Erfahre, wie das mit KI in der Landwirtschaft funktioniert.

  4. Unterhaltungselektronik: Geräte wie Smartphones nutzen beschnittene Modelle für Funktionen wie Gesichtserkennung oder Sprachassistenten, die eine schnelle Verarbeitung auf dem Gerät erfordern.

Pruning in KI/ML-Anwendungen der realen Welt

Beispiel 1: Verbesserung der KI-Leistung am Rand

In Edge-Computing-Umgebungen, wie bei Drohnen oder Überwachungssystemen, sind beschnittene Modelle von unschätzbarem Wert. Die Anwendung von Pruning-Techniken auf Ultralytics YOLO Modelle kann beispielsweise die Modellgröße erheblich reduzieren und gleichzeitig die Genauigkeit beibehalten, was eine schnellere Objekterkennung direkt auf den Geräten ermöglicht, ohne auf Cloud-Ressourcen angewiesen zu sein.

Beispiel 2: Mobile Anwendungen

Pruned-Modelle werden häufig in mobilen Anwendungen eingesetzt, bei denen Energieeffizienz und schnelle Benutzerinteraktionen im Vordergrund stehen. Mobile Apps, die KI für Augmented Reality oder Echtzeitübersetzung nutzen, verwenden beispielsweise beschnittene Versionen von Deep-Learning-Modellen, um eine reibungslose Leistung zu gewährleisten.

Beschneiden vs. verwandte Techniken

Das Pruning konzentriert sich auf die Reduzierung der Größe eines trainierten Modells und unterscheidet sich von verwandten Techniken wie der Modellquantisierung oder der Wissensdestillation. Bei der Quantisierung wird die Genauigkeit der Modellgewichte reduziert (z. B. von 32-Bit auf 8-Bit), während bei der Wissensdestillation Wissen von einem großen Modell auf ein kleineres übertragen wird. Diese Techniken können mit Pruning kombiniert werden, um die Effizienz zu maximieren.

Erste Schritte beim Beschneiden

Das Pruning kann manuell oder mit automatisierten Tools durchgeführt werden, die in Frameworks für maschinelles Lernen wie PyTorch. Für Nutzer/innen, die mit Pruning experimentieren möchten, bieten Plattformen wie Ultralytics HUB intuitive Tools zum Trainieren und Optimieren von Modellen, die es einfacher machen, Arbeitsabläufe zu optimieren.

Wenn du Pruning in deine Pipeline für maschinelles Lernen integrierst, kannst du das Potenzial für den Einsatz leistungsstarker, ressourceneffizienter KI-Modelle für verschiedene Anwendungen erschließen.

Alles lesen