Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Hyperparameter-Optimierung

Entdecken Sie die Hyperparameter-Optimierung, um die Modellleistung zu optimieren. Lernen Sie Techniken wie die Bayessche Optimierung kennen und erfahren Sie, wie Sie Ultralytics für die automatisierte Optimierung einsetzen können.

Hyperparameter-Tuning ist der iterative Prozess der Optimierung der externen Konfigurationsvariablen, die den Trainingsprozess eines Modells für maschinelles Lernen (ML) steuern. Im Gegensatz zu internen Parametern – wie weights and biases während des Trainings aus Daten gelernt werden – werden Hyperparameter vom Datenwissenschaftler oder Ingenieur vor Beginn des Lernprozesses festgelegt. Diese Einstellungen steuern die Struktur des Modells und das Verhalten des Algorithmus und fungieren als „Regler und Knöpfe“, mit denen die Leistung feinabgestimmt wird. Die ideale Kombination dieser Werte zu finden, ist entscheidend für die Maximierung von Metriken wie Genauigkeit und Effizienz und macht oft den Unterschied zwischen einem mittelmäßigen Modell und einer hochmodernen Lösung aus.

Kernkonzepte und Techniken

Die Sammlung aller möglichen Hyperparameterkombinationen schafft einen hochdimensionalen Suchraum. Praktiker verwenden verschiedene Strategien, um diesen Raum zu navigieren und die optimale Konfiguration zu finden, die die Verlustfunktion minimiert.

  • Rastersuche: Diese erschöpfende Methode bewertet das Modell für jede angegebene Kombination von Parametern in einem Raster. Sie ist zwar gründlich, aber rechenintensiv und leidet unter dem Fluch der Dimensionalität, wenn viele Variablen zu berücksichtigen sind.
  • Zufällige Suche: Anstatt jede Kombination zu testen, wählt diese Technik zufällige Kombinationen von Hyperparametern aus. Untersuchungen zeigen, dass dies oft effizienter ist als die Rastersuche, da der Suchraum effektiver nach den wirkungsvollsten Parametern abgesucht wird.
  • Bayesianische Optimierung: Dieser probabilistische Ansatz erstellt ein Ersatzmodell, um vorherzusagen, welche Hyperparameter auf der Grundlage früherer Bewertungen die besten Ergebnisse liefern werden , wobei die Suche auf die vielversprechendsten Bereiche konzentriert wird.
  • Evolutionäre Algorithmen: Inspiriert von der biologischen Evolution nutzt diese Methode Mechanismen wie Mutation und Crossover, um eine Population von Konfigurationen über Generationen hinweg weiterzuentwickeln. Dies ist die primäre Methode, die von der ultralytics Bibliothek zur Optimierung moderner Architekturen wie YOLO26.

Hyperparameter-Tuning vs. Modelltraining

Es ist wichtig, zwischen Tuning und Training zu unterscheiden, da sie unterschiedliche Phasen im MLOps-Lebenszyklus darstellen:

Anwendungsfälle in der Praxis

Effektiv abgestimmte Modelle sind entscheidend für die Bereitstellung robuster Lösungen in komplexen Umgebungen.

Präzisionslandwirtschaft

In der KI in der Landwirtschaft verwenden autonome Drohnen Computervision, um Unkraut und Pflanzenkrankheiten zu identifizieren . Diese Modelle laufen oft auf Edge-Geräten mit begrenzter Akkulaufzeit. Ingenieure nutzen Hyperparameter-Tuning, um die Datenvergrößerungspipeline und die Eingabeauflösung zu optimieren und sicherzustellen, dass das Modell ein Gleichgewicht zwischen hohen Inferenzgeschwindigkeiten und der erforderlichen Präzision herstellt, um nur das Unkraut zu besprühen und so den Chemikalienverbrauch zu reduzieren.

Medizinische Diagnostik

Im Bereich der KI im Gesundheitswesen, insbesondere bei der medizinischen Bildanalyse, kann ein falsch negatives Ergebnis schwerwiegende Folgen haben. Beim Training von Modellen zur detect in MRT-Scans optimieren die Anwender intensiv die Hyperparameter in Bezug auf Klassengewichtung und fokalen Verlust. Diese Optimierung maximiert die Erinnerungsrate und stellt sicher, dass selbst subtile Anzeichen einer Pathologie zur Überprüfung durch den Menschen markiert werden, was die Früherkennung erheblich erleichtert.

Automatisierte Abstimmung mit Ultralytics

Die ultralytics Die Bibliothek vereinfacht die Optimierung durch die Integration einer integrierten Funktion. Tuner die genetische Algorithmen nutzt. Dadurch können Benutzer automatisch nach den besten Hyperparametern für ihre benutzerdefinierten Datensätze suchen, ohne manuelle Versuche und Fehler. Für groß angelegte Operationen können Teams die Ultralytics zur Verwaltung von Datensätzen und zur Visualisierung dieser Tuning-Experimente in der Cloud.

Das folgende Beispiel zeigt, wie die Hyperparameteroptimierung für ein YOLO26-Modell initiiert wird. Der Tuner mutiert die Hyperparameter über mehrere Iterationen hinweg, um die mittlere durchschnittliche Präzision (mAP) zu maximieren.

from ultralytics import YOLO

# Initialize a YOLO26 model (using the 'nano' weight for speed)
model = YOLO("yolo26n.pt")

# Start tuning hyperparameters on the COCO8 dataset
# The tuner runs for 30 epochs per iteration, evolving parameters like lr0 and momentum
model.tune(data="coco8.yaml", epochs=30, iterations=100, optimizer="AdamW", plots=False)

Durch die Automatisierung dieses Prozesses können Entwickler dem Konzept des automatisierten maschinellen Lernens (AutoML) näher kommen, bei dem sich das System selbst optimiert, um die bestmögliche Leistung für eine bestimmte Aufgabe zu erzielen.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten