Découvrez le réglage des hyperparamètres pour optimiser les performances des modèles. Apprenez des techniques telles que l'optimisation bayésienne et comment utiliser Ultralytics pour un réglage automatisé.
Le réglage des hyperparamètres est le processus itératif d'optimisation des variables de configuration externes qui régissent le processus d'apprentissage d'un modèle d'apprentissage automatique (ML). Contrairement aux paramètres internes , tels que weights and biases sont appris à partir des données pendant l'apprentissage, les hyperparamètres sont définis par le scientifique ou l'ingénieur des données avant le début du processus d'apprentissage. Ces paramètres contrôlent la structure du modèle et le comportement de l'algorithme, agissant comme des « boutons et molettes » qui ajustent les performances. Trouver la combinaison idéale de ces valeurs est essentiel pour maximiser des métriques telles que la précision et l'efficacité, ce qui fait souvent la différence entre un modèle médiocre et une solution de pointe.
La collecte de toutes les combinaisons d'hyperparamètres possibles crée un espace de recherche à haute dimension. Les praticiens utilisent diverses stratégies pour naviguer dans cet espace afin de trouver la configuration optimale qui minimise la fonction de perte.
ultralytics bibliothèque pour optimiser
les architectures modernes telles que YOLO26.
Il est essentiel de distinguer le réglage de la formation, car ils représentent des phases distinctes du cycle de vie MLOps:
Des modèles efficacement ajustés sont essentiels pour déployer des solutions robustes dans des environnements complexes.
Dans le domaine de l'IA appliquée à l'agriculture, des drones autonomes utilisent la vision par ordinateur pour identifier les mauvaises herbes et les maladies des cultures . Ces modèles fonctionnent souvent sur des appareils périphériques dont l'autonomie est limitée. Les ingénieurs utilisent le réglage des hyperparamètres pour optimiser le pipeline d'augmentation des données et la résolution des entrées , garantissant ainsi que le modèle équilibre des vitesses d'inférence élevées avec la précision nécessaire pour pulvériser uniquement les mauvaises herbes, réduisant ainsi l'utilisation de produits chimiques.
Dans le domaine de l'IA appliquée à la santé, en particulier à l' analyse d'images médicales, un faux négatif peut avoir de graves conséquences. Lorsqu'ils entraînent des modèles à detect dans les IRM, les praticiens ajustent de manière agressive les hyperparamètres liés à la pondération des classes et à la perte focale. Cet ajustement maximise le rappel, garantissant que même les signes subtils de pathologie sont signalés pour être examinés par un humain, ce qui facilite considérablement le diagnostic précoce.
Le ultralytics La bibliothèque simplifie l'optimisation en incluant une fonction intégrée.
tuner qui utilise des algorithmes génétiques. Cela permet aux
utilisateurs de rechercher automatiquement les meilleurs hyperparamètres pour leurs ensembles de données personnalisés sans avoir à procéder à des essais et erreurs manuels.
Pour les opérations à grande échelle, les équipes peuvent tirer parti du
Plate-forme Ultralytics pour gérer les ensembles de données et visualiser ces expériences de réglage
dans le cloud.
L'exemple suivant montre comment lancer le réglage des hyperparamètres pour un modèle YOLO26. Le tuner modifiera les hyperparamètres au cours de plusieurs itérations afin de maximiser la précision moyenne (mAP).
from ultralytics import YOLO
# Initialize a YOLO26 model (using the 'nano' weight for speed)
model = YOLO("yolo26n.pt")
# Start tuning hyperparameters on the COCO8 dataset
# The tuner runs for 30 epochs per iteration, evolving parameters like lr0 and momentum
model.tune(data="coco8.yaml", epochs=30, iterations=100, optimizer="AdamW", plots=False)
En automatisant ce processus, les développeurs peuvent se rapprocher du concept d' apprentissage automatique (AutoML), où le système s'auto-optimise pour atteindre les meilleures performances possibles pour une tâche spécifique.