Glosario

Ajuste fino

Afina los modelos de aprendizaje automático como Ultralytics YOLO para tareas específicas. ¡Aprende aquí métodos, aplicaciones y buenas prácticas!

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

El ajuste fino es una técnica popular en el aprendizaje automático (AM) que consiste en tomar un modelo ya entrenado en un gran conjunto de datos (un modelo preentrenado) y seguir entrenándolo en un conjunto de datos más pequeño y específico relevante para una tarea concreta. Este enfoque aprovecha el conocimiento general aprendido por el modelo durante su entrenamiento inicial, adaptándolo para sobresalir en un dominio más especializado sin necesidad de entrenar un modelo desde cero. Esto ahorra mucho tiempo y recursos informáticos, por lo que es una práctica habitual en campos como la visión por ordenador (VC) y el procesamiento del lenguaje natural (PLN). Frameworks como PyTorch y TensorFlow proporcionan las herramientas necesarias para aplicar el ajuste fino.

Cómo funciona el ajuste fino

El proceso suele comenzar con la selección de un modelo preentrenado, como un Ultralytics YOLO entrenado en un amplio conjunto de datos como COCO o ImageNet. Estos modelos, a menudo Redes Neuronales Convolucionales (CNN) para visión o Transformadores para PNL, ya han aprendido a reconocer características generales a partir de sus datos de entrenamiento iniciales. Durante el ajuste fino, los pesos del modelo -parámetrosaprendidos durante el entrenamiento- se ajustan en función del nuevo conjunto de datos, más pequeño. A menudo, las capas iniciales de la red (que aprenden características generales como bordes o texturas) se mantienen "congeladas" (sus pesos no se actualizan), mientras que las capas posteriores, más específicas de la tarea, se vuelven a entrenar. Este reentrenamiento suele implicar el uso de una tasa de aprendizaje menor que la utilizada en el entrenamiento original para realizar ajustes más pequeños en los pesos, preservando el conocimiento aprendido previamente mientras se adapta a los matices de la nueva tarea. Puedes encontrar más detalles sobre la mecánica en recursos como el curso fast.ai.

¿Por qué utilizar el ajuste fino?

El ajuste fino ofrece varias ventajas clave:

  • Reducción del tiempo de entrenamiento: Empezar con un modelo preentrenado reduce significativamente el tiempo necesario en comparación con el entrenamiento desde cero, ya que el modelo ya entiende los patrones básicos.
  • Menores requisitos de datos: El ajuste fino a menudo puede lograr buenos resultados incluso con datos limitados específicos de la tarea, ya que se basa en los amplios conocimientos adquiridos a partir del gran conjunto de datos inicial. Plataformas como Kaggle organizan a menudo concursos en los que el ajuste fino es una estrategia clave.
  • Mejora del rendimiento: Al aprovechar las características aprendidas de grandes conjuntos de datos, el ajuste fino puede conducir a una mayor precisión y una mejor generalización en la tarea objetivo, especialmente cuando el conjunto de datos objetivo es pequeño.
  • Accesibilidad: Pone los modelos más avanzados al alcance de los profesionales que no dispongan de los ingentes recursos informáticos necesarios para el preentrenamiento inicial. Hugging Face proporciona un amplio repositorio de modelos preentrenados listos para su ajuste.

Explora otros consejos de entrenamiento de modelos para optimizar el proceso.

Ajuste fino frente a conceptos afines

Es importante distinguir el ajuste fino de conceptos similares de ML:

  • Aprendizaje por transferencia: Se trata de un concepto amplio en el que los conocimientos adquiridos en una tarea se aplican a otra diferente pero relacionada. El ajuste fino es un método específico de aprendizaje por transferencia, en el que los pesos de un modelo preentrenado se vuelven a entrenar (ajustar) con los datos de la nueva tarea. Otros métodos de aprendizaje por transferencia pueden implicar el uso del modelo exclusivamente para la extracción de características. Aprende más con recursos como el Curso de Aprendizaje Automático de Andrew Ng.
  • Extracción de rasgos: En este enfoque, el modelo preentrenado (a menudo con sus capas finales eliminadas) se utiliza como un extractor de características fijo. A continuación, las salidas (características) se introducen en un nuevo modelo, normalmente más sencillo (como una SVM o una pequeña red neuronal), que se entrena desde cero en el nuevo conjunto de datos. A diferencia del ajuste fino, los pesos del modelo principal preentrenado no suelen actualizarse.
  • Ajuste de hiperparámetros: Consiste en encontrar el conjunto óptimo de hiperparámetros (por ejemplo, velocidad de aprendizaje, tamaño del lote, número de épocas, opciones de arquitectura de red) antes de que comience el proceso de entrenamiento o ajuste fino. Optimiza la configuración del proceso de aprendizaje, mientras que el ajuste fino optimiza los pesos del modelo basándose en los datos. Herramientas como el AfinadorUltralytics automatizan la búsqueda de hiperparámetros.

Aplicaciones en el mundo real

El ajuste fino se utiliza mucho en diversos ámbitos:

  • Análisis de imágenes médicas: Un modelo de visión preentrenado en ImageNet puede afinarse en un conjunto de datos más pequeño de radiografías o tomografías computarizadas para detectar afecciones específicas como neumonía o tumores cerebrales. Esto aprovecha la capacidad aprendida del modelo para reconocer formas y texturas con fines de diagnóstico médico. La investigación en este campo se publica a menudo en plataformas como arXiv.
  • Detección de Objetos Especializados: Un detector de objetos general como YOLO, preentrenado en COCO, puede afinarse para identificar objetos específicos en entornos especializados, como tipos concretos de defectos en la IA en el control de calidad de la fabricación, o especies animales específicas para la conservación de la fauna.
  • Chatbots personalizados y análisis de texto: Los grandes modelos lingüísticos como BERT (explicado en el Blog de IA deGoogle ) o GPT-3 de OpenAI pueden ajustarse con documentos específicos de la empresa o registros de atención al cliente para crear sistemas especializados de respuesta a preguntas o realizar análisis de sentimientos muy precisos para sectores específicos. El Grupo de PNL de Stanford es un contribuyente clave a la investigación en PNL.

Explora más aplicaciones dentro de la comunidad de visión por ordenador.

Ajuste de los modelosYOLO Ultralytics

Ultralytics proporciona un sólido soporte para el ajuste fino de sus modelos YOLO . Los usuarios pueden cargar fácilmente pesos preentrenados (por ejemplo, de modelos entrenados en COCO) y continuar el entrenamiento en su propio conjunto de datos personalizado para tareas como la detección, la segmentación o la clasificación. La documentaciónUltralytics ofrece guías detalladas sobre el proceso de entrenamiento, que permiten a los usuarios adaptar modelos de última generación como YOLO11 para sus retos específicos de visión por ordenador. Plataformas como Ultralytics HUB agilizan aún más el proceso de entrenamiento personalizado. Esta adaptabilidad es clave para conseguir un rendimiento óptimo en diversas aplicaciones, desde la IA en la agricultura hasta la robótica. Puedes encontrar más información sobre las técnicas de aprendizaje por transferencia en plataformas educativas como la Especialización en Aprendizaje Profundo de Coursera y en sitios como Papers with Code o Distill.pub para obtener información sobre investigación.

Leer todo