Entdecken Sie die Hyperparameter-Optimierung, um die Modellleistung zu optimieren. Lernen Sie Techniken wie die Bayessche Optimierung kennen und erfahren Sie, wie Sie Ultralytics für die automatisierte Optimierung einsetzen können.
Hyperparameter-Tuning ist der iterative Prozess der Optimierung der externen Konfigurationsvariablen, die den Trainingsprozess eines Modells für maschinelles Lernen (ML) steuern. Im Gegensatz zu internen Parametern – wie weights and biases während des Trainings aus Daten gelernt werden – werden Hyperparameter vom Datenwissenschaftler oder Ingenieur vor Beginn des Lernprozesses festgelegt. Diese Einstellungen steuern die Struktur des Modells und das Verhalten des Algorithmus und fungieren als „Regler und Knöpfe“, mit denen die Leistung feinabgestimmt wird. Die ideale Kombination dieser Werte zu finden, ist entscheidend für die Maximierung von Metriken wie Genauigkeit und Effizienz und macht oft den Unterschied zwischen einem mittelmäßigen Modell und einer hochmodernen Lösung aus.
Die Sammlung aller möglichen Hyperparameterkombinationen schafft einen hochdimensionalen Suchraum. Praktiker verwenden verschiedene Strategien, um diesen Raum zu navigieren und die optimale Konfiguration zu finden, die die Verlustfunktion minimiert.
ultralytics Bibliothek zur Optimierung
moderner Architekturen wie YOLO26.
Es ist wichtig, zwischen Tuning und Training zu unterscheiden, da sie unterschiedliche Phasen im MLOps-Lebenszyklus darstellen:
Effektiv abgestimmte Modelle sind entscheidend für die Bereitstellung robuster Lösungen in komplexen Umgebungen.
In der KI in der Landwirtschaft verwenden autonome Drohnen Computervision, um Unkraut und Pflanzenkrankheiten zu identifizieren . Diese Modelle laufen oft auf Edge-Geräten mit begrenzter Akkulaufzeit. Ingenieure nutzen Hyperparameter-Tuning, um die Datenvergrößerungspipeline und die Eingabeauflösung zu optimieren und sicherzustellen, dass das Modell ein Gleichgewicht zwischen hohen Inferenzgeschwindigkeiten und der erforderlichen Präzision herstellt, um nur das Unkraut zu besprühen und so den Chemikalienverbrauch zu reduzieren.
Im Bereich der KI im Gesundheitswesen, insbesondere bei der medizinischen Bildanalyse, kann ein falsch negatives Ergebnis schwerwiegende Folgen haben. Beim Training von Modellen zur detect in MRT-Scans optimieren die Anwender intensiv die Hyperparameter in Bezug auf Klassengewichtung und fokalen Verlust. Diese Optimierung maximiert die Erinnerungsrate und stellt sicher, dass selbst subtile Anzeichen einer Pathologie zur Überprüfung durch den Menschen markiert werden, was die Früherkennung erheblich erleichtert.
Die ultralytics Die Bibliothek vereinfacht die Optimierung durch die Integration einer integrierten Funktion.
Tuner die genetische Algorithmen nutzt. Dadurch können
Benutzer automatisch nach den besten Hyperparametern für ihre benutzerdefinierten Datensätze suchen, ohne manuelle Versuche und Fehler.
Für groß angelegte Operationen können Teams die
Ultralytics zur Verwaltung von Datensätzen und zur Visualisierung dieser Tuning-Experimente
in der Cloud.
Das folgende Beispiel zeigt, wie die Hyperparameteroptimierung für ein YOLO26-Modell initiiert wird. Der Tuner mutiert die Hyperparameter über mehrere Iterationen hinweg, um die mittlere durchschnittliche Präzision (mAP) zu maximieren.
from ultralytics import YOLO
# Initialize a YOLO26 model (using the 'nano' weight for speed)
model = YOLO("yolo26n.pt")
# Start tuning hyperparameters on the COCO8 dataset
# The tuner runs for 30 epochs per iteration, evolving parameters like lr0 and momentum
model.tune(data="coco8.yaml", epochs=30, iterations=100, optimizer="AdamW", plots=False)
Durch die Automatisierung dieses Prozesses können Entwickler dem Konzept des automatisierten maschinellen Lernens (AutoML) näher kommen, bei dem sich das System selbst optimiert, um die bestmögliche Leistung für eine bestimmte Aufgabe zu erzielen.