Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Ajuste de hiperparámetros

Explora el ajuste de hiperparámetros para optimizar el rendimiento del modelo. Aprende técnicas como la optimización bayesiana y cómo utilizar Ultralytics para el ajuste automatizado.

El ajuste de hiperparámetros es el proceso iterativo de optimización de las variables de configuración externas que rigen el proceso de entrenamiento de un modelo de aprendizaje automático (ML). A diferencia de los parámetros internos , como weights and biases se aprenden a partir de los datos durante el entrenamiento, los hiperparámetros son establecidos por el científico o ingeniero de datos antes de que comience el proceso de aprendizaje. Estos ajustes controlan la estructura del modelo y el comportamiento del algoritmo, actuando como los «mandos y diales» que ajustan el rendimiento. Encontrar la combinación ideal de estos valores es fundamental para maximizar métricas como la precisión y la eficiencia, lo que a menudo marca la diferencia entre un modelo mediocre y una solución de vanguardia.

Conceptos y técnicas fundamentales

La recopilación de todas las combinaciones posibles de hiperparámetros crea un espacio de búsqueda de alta dimensión. Los profesionales utilizan diversas estrategias para navegar por este espacio y encontrar la configuración óptima que minimice la función de pérdida.

  • Búsqueda por cuadrícula: Este método exhaustivo evalúa el modelo para cada combinación especificada de parámetros en una cuadrícula. Aunque es minucioso, es computacionalmente costoso y sufre la maldición de la dimensionalidad cuando se trata de muchas variables.
  • Búsqueda aleatoria: en lugar de probar todas las combinaciones, esta técnica selecciona combinaciones aleatorias de hiperparámetros. Las investigaciones sugieren que esto suele ser más eficiente que la búsqueda por cuadrícula, ya que explora el espacio de búsqueda de manera más eficaz para encontrar los parámetros más impactantes.
  • Optimización bayesiana: Este enfoque probabilístico construye un modelo sustituto para predecir qué hiperparámetros producirán los mejores resultados basándose en evaluaciones pasadas, centrando la búsqueda en las áreas más prometedoras.
  • Algoritmos evolutivos: Inspirado en la evolución biológica, este método utiliza mecanismos como la mutación y el cruce para hacer evolucionar una población de configuraciones a lo largo de generaciones. Este es el método principal utilizado por el ultralytics biblioteca para optimizar arquitecturas modernas como YOLO26.

Ajuste de hiperparámetros frente a entrenamiento de modelos

Es esencial distinguir entre ajuste y entrenamiento, ya que representan fases distintas en el ciclo de vida de MLOps:

Aplicaciones en el mundo real

Los modelos ajustados de manera eficaz son fundamentales para implementar soluciones robustas en entornos complejos.

Agricultura de precisión

En IA en agricultura, los drones autónomos utilizan la visión por computadora para identificar malezas y enfermedades de los cultivos . Estos modelos a menudo se ejecutan en dispositivos periféricos con una duración de batería limitada. Los ingenieros utilizan el ajuste de hiperparámetros para optimizar el proceso de aumento de datos y la resolución de entrada , lo que garantiza que el modelo equilibre altas velocidades de inferencia con la precisión necesaria para rociar solo las malezas, lo que reduce el uso de productos químicos.

Diagnóstico médico

En el caso de la IA en el ámbito sanitario, concretamente en el análisis de imágenes médicas, un falso negativo puede tener graves consecuencias. Al entrenar modelos para detect en resonancias magnéticas, los profesionales ajustan de forma agresiva los hiperparámetros relacionados con la ponderación de clases y la pérdida focal. Este ajuste maximiza la recuperación, lo que garantiza que incluso los signos más sutiles de patología se marquen para su revisión humana, lo que ayuda significativamente al diagnóstico precoz.

Ajuste automático con Ultralytics

En ultralytics La biblioteca simplifica la optimización al incluir una función integrada. sintonizador que utiliza algoritmos genéticos. Esto permite a los usuarios buscar automáticamente los mejores hiperparámetros para sus conjuntos de datos personalizados sin necesidad de realizar pruebas manuales por ensayo y error. Para operaciones a gran escala, los equipos pueden aprovechar el Plataforma Ultralytics para gestionar conjuntos de datos y visualizar estos experimentos de ajuste en la nube.

El siguiente ejemplo muestra cómo iniciar el ajuste de hiperparámetros para un modelo YOLO26. El sintonizador mutará los hiperparámetros a lo largo de varias iteraciones para maximizar la precisión media (mAP).

from ultralytics import YOLO

# Initialize a YOLO26 model (using the 'nano' weight for speed)
model = YOLO("yolo26n.pt")

# Start tuning hyperparameters on the COCO8 dataset
# The tuner runs for 30 epochs per iteration, evolving parameters like lr0 and momentum
model.tune(data="coco8.yaml", epochs=30, iterations=100, optimizer="AdamW", plots=False)

Al automatizar este proceso, los desarrolladores pueden acercarse al concepto de aprendizaje automático (AutoML), en el que el sistema se autoptimiza para lograr el mejor rendimiento posible en una tarea específica.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora