Explora el ajuste de hiperparámetros para optimizar el rendimiento del modelo. Aprende técnicas como la optimización bayesiana y cómo utilizar Ultralytics para el ajuste automatizado.
El ajuste de hiperparámetros es el proceso iterativo de optimización de las variables de configuración externas que rigen el proceso de entrenamiento de un modelo de aprendizaje automático (ML). A diferencia de los parámetros internos , como weights and biases se aprenden a partir de los datos durante el entrenamiento, los hiperparámetros son establecidos por el científico o ingeniero de datos antes de que comience el proceso de aprendizaje. Estos ajustes controlan la estructura del modelo y el comportamiento del algoritmo, actuando como los «mandos y diales» que ajustan el rendimiento. Encontrar la combinación ideal de estos valores es fundamental para maximizar métricas como la precisión y la eficiencia, lo que a menudo marca la diferencia entre un modelo mediocre y una solución de vanguardia.
La recopilación de todas las combinaciones posibles de hiperparámetros crea un espacio de búsqueda de alta dimensión. Los profesionales utilizan diversas estrategias para navegar por este espacio y encontrar la configuración óptima que minimice la función de pérdida.
ultralytics biblioteca para optimizar
arquitecturas modernas como YOLO26.
Es esencial distinguir entre ajuste y entrenamiento, ya que representan fases distintas en el ciclo de vida de MLOps:
Los modelos ajustados de manera eficaz son fundamentales para implementar soluciones robustas en entornos complejos.
En IA en agricultura, los drones autónomos utilizan la visión por computadora para identificar malezas y enfermedades de los cultivos . Estos modelos a menudo se ejecutan en dispositivos periféricos con una duración de batería limitada. Los ingenieros utilizan el ajuste de hiperparámetros para optimizar el proceso de aumento de datos y la resolución de entrada , lo que garantiza que el modelo equilibre altas velocidades de inferencia con la precisión necesaria para rociar solo las malezas, lo que reduce el uso de productos químicos.
En el caso de la IA en el ámbito sanitario, concretamente en el análisis de imágenes médicas, un falso negativo puede tener graves consecuencias. Al entrenar modelos para detect en resonancias magnéticas, los profesionales ajustan de forma agresiva los hiperparámetros relacionados con la ponderación de clases y la pérdida focal. Este ajuste maximiza la recuperación, lo que garantiza que incluso los signos más sutiles de patología se marquen para su revisión humana, lo que ayuda significativamente al diagnóstico precoz.
En ultralytics La biblioteca simplifica la optimización al incluir una función integrada.
sintonizador que utiliza algoritmos genéticos. Esto permite a
los usuarios buscar automáticamente los mejores hiperparámetros para sus conjuntos de datos personalizados sin necesidad de realizar pruebas manuales por ensayo y error.
Para operaciones a gran escala, los equipos pueden aprovechar el
Plataforma Ultralytics para gestionar conjuntos de datos y visualizar estos experimentos de ajuste
en la nube.
El siguiente ejemplo muestra cómo iniciar el ajuste de hiperparámetros para un modelo YOLO26. El sintonizador mutará los hiperparámetros a lo largo de varias iteraciones para maximizar la precisión media (mAP).
from ultralytics import YOLO
# Initialize a YOLO26 model (using the 'nano' weight for speed)
model = YOLO("yolo26n.pt")
# Start tuning hyperparameters on the COCO8 dataset
# The tuner runs for 30 epochs per iteration, evolving parameters like lr0 and momentum
model.tune(data="coco8.yaml", epochs=30, iterations=100, optimizer="AdamW", plots=False)
Al automatizar este proceso, los desarrolladores pueden acercarse al concepto de aprendizaje automático (AutoML), en el que el sistema se autoptimiza para lograr el mejor rendimiento posible en una tarea específica.