Glosario

Ajuste de hiperparámetros

Domina el ajuste de hiperparámetros para optimizar modelos ML como Ultralytics YOLO . Aumenta la precisión, la velocidad y el rendimiento con técnicas expertas.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

El ajuste de hiperparámetros, también conocido como optimización de hiperparámetros, es un proceso fundamental en el aprendizaje automático (AM) cuyo objetivo es encontrar la mejor combinación de hiperparámetros para maximizar el rendimiento de un modelo. Los hiperparámetros son ajustes de configuración establecidos antes de que comience el proceso de entrenamiento, a diferencia de los parámetros del modelo (como weights and biases en una red neuronal) que se aprenden durante el entrenamiento mediante técnicas como la retropropagación. Ajustar estos parámetros externos es crucial porque controlan el propio proceso de aprendizaje, influyendo en la eficacia con la que un modelo aprende de los datos y generaliza a nuevos ejemplos no vistos.

Comprender los hiperparámetros

Los hiperparámetros definen propiedades de nivel superior del modelo, como su complejidad o la velocidad a la que debe aprender. Algunos ejemplos comunes son la tasa de aprendizaje utilizada en los algoritmos de optimización, el tamaño del lote que determina cuántas muestras se procesan antes de actualizar los parámetros del modelo, el número de capas de una red neuronal o la fuerza de las técnicas de regularización, como el uso de capas de abandono. La elección de los hiperparámetros influye significativamente en los resultados del modelo. Una mala elección puede conducir a un ajuste insuficiente, en el que el modelo es demasiado simple para captar los patrones de los datos, o a un ajuste excesivo, en el que el modelo aprende demasiado bien los datos de entrenamiento, incluido el ruido, y no consigue generalizar a los datos de prueba.

Por qué es importante ajustar los hiperparámetros

El ajuste eficaz de los hiperparámetros es esencial para construir modelos ML de alto rendimiento. Un modelo bien ajustado consigue una mayor precisión, una convergencia más rápida durante el entrenamiento y una mejor generalización en datos no vistos. Para tareas complejas como la detección de objetos utilizando modelos como Ultralytics YOLOencontrar los hiperparámetros óptimos puede mejorar drásticamente las métricas de rendimiento, como la precisión media media (mAP) y la velocidad de inferencia, que son fundamentales para las aplicaciones que exigen inferencia en tiempo real. El objetivo es navegar por las compensaciones, como la compensación sesgo-varianza, para encontrar el punto óptimo para un problema y un conjunto de datos determinados, a menudo evaluados mediante datos de validación.

Técnicas de ajuste de hiperparámetros

Existen varias estrategias para buscar los mejores valores de los hiperparámetros:

  • Búsqueda en cuadrícula: Prueba exhaustivamente todas las combinaciones posibles de valores de hiperparámetros especificados. Sencillo pero costoso computacionalmente.
  • Búsqueda aleatoria: Toma muestras de combinaciones de hiperparámetros aleatoriamente a partir de distribuciones especificadas. Suele ser más eficaz que la Búsqueda en Cuadrícula.
  • Optimización bayesiana: Construye un modelo probabilístico de la función objetivo (por ejemplo, la precisión del modelo) y lo utiliza para seleccionar hiperparámetros prometedores que evaluar a continuación. Herramientas como Optuna implementan esto.
  • Algoritmos evolutivos: Utiliza conceptos inspirados en la evolución biológica, como la mutación y el cruce, para refinar iterativamente poblaciones de conjuntos de hiperparámetros. Los modelosYOLO Ultralytics aprovechan esto para la evolución de hiperparámetros.

Herramientas como Barridos deWeights & Biases , ClearML, Comety KerasTuner ayudan a automatizar y gestionar estos procesos de ajuste, a menudo integrándose con marcos como PyTorch y TensorFlow.

Ajuste de hiperparámetros vs. conceptos relacionados

Es importante distinguir el ajuste de hiperparámetros de los conceptos de ML relacionados:

  • Entrenamiento del modelo: El ajuste de hiperparámetros establece las condiciones para el entrenamiento (por ejemplo, velocidad de aprendizaje, tamaño del lote). El entrenamiento del modelo es el proceso de aprendizaje de los parámetros del modeloweights and biases) basado en los datos, utilizando los hiperparámetros elegidos y un algoritmo de optimización.
  • Algoritmos de optimización (Adam, SGD): Estos algoritmos actualizan los parámetros del modelo durante el entrenamiento basándose en la función de pérdida. Los hiperparámetros controlan estos algoritmos (por ejemplo, la tasa de aprendizaje), pero el proceso de ajuste en sí es independiente del funcionamiento del algoritmo.
  • Regularización: Técnicas como la regularización L1/L2 o el abandono ayudan a evitar el sobreajuste. La fuerza o el índice de estas técnicas son en sí mismos hiperparámetros que hay que ajustar.
  • Aprendizaje Automático de Máquinas (AutoML): Un campo más amplio cuyo objetivo es automatizar todo el proceso de ML, incluida la ingeniería de características, la selección de modelos y el ajuste de hiperparámetros. La HPT suele ser un componente clave de los sistemas AutoML.

Aplicaciones en el mundo real

El ajuste de hiperparámetros se aplica en varios dominios:

Ajuste de hiperparámetros con Ultralytics

Ultralytics proporciona herramientas para simplificar el ajuste de los hiperparámetros de los modelos YOLO . El sitio Ultralytics Tuner clasedocumentado en el Guía de ajuste de hiperparámetros, automatiza el proceso mediante algoritmos evolutivos. Integración con plataformas como Ray Tune ofrece más capacidades para estrategias de búsqueda distribuida y avanzada, ayudando a los usuarios a optimizar sus modelos de forma eficiente para conjuntos de datos específicos (como COCO) y tareas que utilizan recursos como Ultralytics HUB para el seguimiento y la gestión de los experimentos. Sigue consejos para el entrenamiento de modelos a menudo implica un ajuste eficaz de los hiperparámetros.

Leer todo