Cheque verde
Enlace copiado en el portapapeles

¿Qué es la optimización de modelos? Guía rápida

Aprende cómo las técnicas de optimización de modelos, como el ajuste de hiperparámetros, la poda de modelos y la cuantización de modelos, pueden ayudar a que los modelos de visión por ordenador funcionen con mayor eficacia.

La optimización de modelos es un proceso cuyo objetivo es mejorar la eficacia y el rendimiento de los modelos de aprendizaje automático. Al refinar la estructura y la función de un modelo, la optimización hace posible que los modelos ofrezcan mejores resultados con un mínimo de recursos informáticos y un tiempo reducido de entrenamiento y evaluación.

Este proceso es especialmente importante en campos como la visión por ordenador, donde los modelos suelen requerir recursos considerables para analizar imágenes complejas. En entornos con recursos limitados, como los dispositivos móviles o los sistemas de borde, los modelos optimizados pueden funcionar bien con recursos limitados sin dejar de ser precisos.

Se suelen utilizar varias técnicas para conseguir la optimización de modelos, como el ajuste de hiperparámetros, la poda de modelos, la cuantización de modelos y la precisión mixta. En este artículo, exploraremos estas técnicas y las ventajas que aportan a las aplicaciones de visión por ordenador. ¡Empecemos ya!

Comprender la optimización de modelos

Los modelos de visión por ordenador suelen tener capas profundas y estructuras complejas que son estupendas para reconocer patrones intrincados en las imágenes, pero también pueden ser bastante exigentes en cuanto a potencia de procesamiento. Cuando estos modelos se despliegan en dispositivos con hardware limitado, como teléfonos móviles o dispositivos de borde, pueden enfrentarse a ciertos retos o limitaciones. 

La potencia de procesamiento, la memoria y la energía limitadas de estos dispositivos pueden provocar notables caídas de rendimiento, ya que los modelos luchan por mantener el ritmo. Las técnicas de optimización de modelos son fundamentales para resolver estos problemas. Ayudan a racionalizar el modelo, reducir sus necesidades computacionales y garantizar que pueda seguir funcionando eficazmente, incluso con recursos limitados. La optimización del modelo puede hacerse simplificando la arquitectura del modelo, reduciendo la precisión de los cálculos o eliminando componentes innecesarios para que el modelo sea más ligero y rápido.

Fig. 1. Razones para optimizar tus modelos (Imagen del autor).

He aquí algunas de las técnicas de optimización de modelos más comunes, que exploraremos con más detalle en las secciones siguientes:

  • Sintonización de hiperparámetros: Consiste en ajustar sistemáticamente los hiperparámetros, como la tasa de aprendizaje y el tamaño del lote, para mejorar el rendimiento del modelo.
  • Poda de modelos: Esta técnica elimina los pesos y conexiones innecesarios de la red neuronal, reduciendo su complejidad y coste computacional.
  • Cuantización del modelo: La cuantización consiste en reducir la precisión de los pesos y activaciones del modelo, normalmente de 32 bits a 16 bits u 8 bits, lo que reduce significativamente la huella de memoria y los requisitos computacionales.
  • Ajustes de precisión: También conocido como entrenamiento de precisión mixta, consiste en utilizar diferentes formatos de precisión para distintas partes del modelo y optimizar el uso de recursos sin comprometer la precisión.

Explicado: Los hiperparámetros en los modelos de aprendizaje automático

Puedes ayudar a que un modelo aprenda y funcione mejor ajustando sus hiperparámetros, es decir, los ajustes que determinan cómo aprende el modelo a partir de los datos. El ajuste de hiperparámetros es una técnica para optimizar estos ajustes, mejorando la eficacia y precisión del modelo. A diferencia de los parámetros que el modelo aprende durante el entrenamiento, los hiperparámetros son valores preestablecidos que guían el proceso de entrenamiento.

Veamos algunos ejemplos de hiperparámetros que pueden ajustarse:

  • Tasa de aprendizaje: Este parámetro controla el tamaño del paso que da el modelo para ajustar sus pesos internos. Una tasa de aprendizaje más alta puede acelerar el aprendizaje, pero se corre el riesgo de pasar por alto la solución óptima, mientras que una tasa más baja puede ser más precisa pero más lenta.
  • Tamaño del lote: Define cuántas muestras de datos se procesan en cada paso de entrenamiento. Los lotes de mayor tamaño ofrecen un aprendizaje más estable, pero necesitan más memoria. Los lotes más pequeños entrenan más rápido pero pueden ser menos estables.
  • Épocas: Puedes determinar cuántas veces ve el modelo el conjunto de datos completo utilizando este parámetro. Más épocas pueden mejorar la precisión, pero se corre el riesgo de sobreajustar.
  • Tamaño del núcleo: Define el tamaño del filtro en las Redes Neuronales Convolucionales (CNN). Los núcleos más grandes capturan patrones más amplios pero necesitan más procesamiento; los núcleos más pequeños se centran en detalles más finos.

Cómo funciona el ajuste de hiperparámetros

El ajuste de hiperparámetros suele empezar por definir un rango de valores posibles para cada hiperparámetro. A continuación, un algoritmo de búsqueda explora diferentes combinaciones dentro de estos rangos para identificar los ajustes que producen el mejor rendimiento

Los métodos de ajuste habituales son la búsqueda en cuadrícula, la búsqueda aleatoria y la optimización bayesiana. La búsqueda en cuadrícula prueba todas las combinaciones posibles de valores dentro de los rangos especificados. La búsqueda aleatoria selecciona combinaciones al azar, y a menudo encuentra ajustes efectivos más rápidamente. La optimización bayesiana utiliza un modelo probabilístico para predecir valores de hiperparámetros prometedores basándose en resultados anteriores. Este enfoque suele reducir el número de ensayos necesarios. 

Finalmente, para cada combinación de hiperparámetros, se evalúa el rendimiento del modelo. El proceso se repite hasta obtener los resultados deseados.

Hiperparámetros frente a parámetros del modelo

Mientras trabajas en el ajuste de hiperparámetros, puede que te preguntes cuál es la diferencia entre hiperparámetros y parámetros del modelo

Los hiperparámetros son valores fijados antes del entrenamiento que controlan cómo aprende el modelo, como la tasa de aprendizaje o el tamaño del lote. Estos ajustes se fijan durante el entrenamiento e influyen directamente en el proceso de aprendizaje. Los parámetros del modelo, en cambio, los aprende el propio modelo durante el entrenamiento. Incluyen los pesos y los sesgos, que se ajustan a medida que el modelo se entrena y, en última instancia, guían sus predicciones. En esencia, los hiperparámetros dan forma al viaje de aprendizaje, mientras que los parámetros del modelo son los resultados de ese proceso de aprendizaje.

Fig. 2. Comparación de parámetros e hiperparámetros. 

Por qué es importante la poda de modelos en el aprendizaje profundo

La poda de modelos es una técnica de reducción de tamaño que elimina los pesos y parámetros innecesarios de un modelo, haciéndolo más eficiente. En visión por ordenador, especialmente con redes neuronales profundas, un gran número de parámetros, como pesos y activaciones (salidas intermedias que ayudan a calcular la salida final), puede aumentar tanto la complejidad como las demandas computacionales. La poda ayuda a racionalizar el modelo identificando y eliminando los parámetros que contribuyen mínimamente al rendimiento, lo que da lugar a un modelo más ligero y eficiente.

Fig3. Antes y después de la poda del modelo.

Una vez entrenado el modelo, técnicas como la poda basada en la magnitud o el análisis de sensibilidad pueden evaluar la importancia de cada parámetro. A continuación, se podan los parámetros de baja importancia, utilizando una de las tres técnicas principales: poda de pesos, poda de neuronas o poda estructurada. 

La poda de pesos elimina conexiones individuales con un impacto mínimo en la salida. La poda de neuronas elimina neuronas enteras cuyas salidas contribuyen poco a la función del modelo. La poda estructurada elimina secciones más grandes, como filtros convolucionales o neuronas en capas totalmente conectadas, optimizando la eficacia del modelo. Una vez completada la poda, se vuelve a entrenar el modelo para afinar los parámetros restantes, asegurando que conserva una alta precisión en una forma reducida.

Reducir la latencia en los modelos de IA con la cuantización

La cuantización del modelo reduce el número de bits utilizados para representar los pesos y las activaciones de un modelo. Suele convertir valores de coma flotante de 32 bits de alta precisión en valores de menor precisión, como enteros de 16 u 8 bits. Al reducir la precisión de los bits, la cuantización disminuye significativamente el tamaño del modelo, la huella de memoria y el coste computacional.

En visión por ordenador, los flotantes de 32 bits son estándar, pero convertirlos a 16 u 8 bits puede mejorar la eficiencia. Hay dos tipos principales de cuantización: cuantización por peso y cuantización por activación. La cuantización del peso reduce la precisión de los pesos del modelo, equilibrando la reducción de tamaño con la precisión. La cuantización de la activación reduce la precisión de las activaciones, disminuyendo aún más la memoria y las demandas computacionales.

Fig. 4. Un ejemplo de cuantización de flotante de 32 bits a entero de 8 bits.

Cómo la precisión mixta acelera las inferencias de la IA

La precisión mixta es una técnica que utiliza diferentes precisiones numéricas para varias partes de una red neuronal. Al combinar valores de mayor precisión, como los flotantes de 32 bits, con valores de menor precisión, como los flotantes de 16 u 8 bits, la precisión mixta hace posible que los modelos de visión por ordenador aceleren el entrenamiento y reduzcan el uso de memoria sin sacrificar la precisión.

Durante el entrenamiento, la precisión mixta se consigue utilizando una precisión menor en capas específicas, mientras se mantiene una precisión mayor donde sea necesario en toda la red. Esto se hace mediante el moldeado y el escalado de pérdidas. El moldeado convierte los tipos de datos entre diferentes precisiones, según lo requiera el modelo. El escalado de pérdidas ajusta la precisión reducida para evitar el subdesbordamiento numérico, garantizando un entrenamiento estable. La precisión mixta es especialmente útil para modelos grandes y lotes de gran tamaño.

Fig. 5. El entrenamiento de precisión mixta utiliza tipos de coma flotante de 16 bits (FP16) y de 32 bits (FP32).

Equilibrar la precisión y la eficacia del modelo

Ahora que hemos cubierto varias técnicas de optimización de modelos, vamos a discutir cómo decidir cuál utilizar en función de tus necesidades específicas. La elección depende de factores como el hardware disponible, las limitaciones computacionales y de memoria del entorno de implantación, y el nivel de precisión requerido. 

Por ejemplo, los modelos más pequeños y rápidos son más adecuados para dispositivos móviles con recursos limitados, mientras que los modelos más grandes y precisos pueden utilizarse en sistemas de alto rendimiento. He aquí cómo se alinea cada técnica con los distintos objetivos:

  • Poda: Es ideal para reducir el tamaño del modelo sin afectar significativamente a la precisión, por lo que es perfecto para dispositivos con recursos limitados, como teléfonos móviles o dispositivos del Internet de las Cosas (IoT).
  • Cuantización: Una gran opción para reducir el tamaño del modelo y acelerar la inferencia, sobre todo en dispositivos móviles y sistemas integrados con memoria y potencia de procesamiento limitadas. Funciona bien para aplicaciones en las que son aceptables ligeras reducciones de precisión.
  • Precisión mixta: Diseñada para modelos a gran escala, esta técnica reduce el uso de memoria y acelera el entrenamiento en hardware como GPUs y TPUs que admiten operaciones de precisión mixta. Suele utilizarse en tareas de alto rendimiento en las que importa la eficiencia.
  • Ajuste de hiperparámetros: Aunque es intensivo desde el punto de vista computacional, es esencial para aplicaciones que requieren una gran precisión, como las imágenes médicas o la conducción autónoma.

Puntos clave

La optimización de modelos es una parte vital del aprendizaje automático, especialmente para desplegar la IA en aplicaciones del mundo real. Técnicas como el ajuste de hiperparámetros, la poda de modelos, la cuantización y la precisión mixta ayudan a mejorar el rendimiento, la eficacia y el uso de recursos de los modelos de visión por ordenador. Estas optimizaciones hacen que los modelos sean más rápidos y consuman menos recursos, lo que es ideal para dispositivos con memoria y potencia de procesamiento limitadas. Los modelos optimizados también son más fáciles de escalar y desplegar en distintas plataformas, lo que permite soluciones de IA eficaces y adaptables a una amplia gama de usos.

Visita elrepositorio GitHub de Ultralytics y únete a nuestra comunidad para saber más sobre las aplicaciones de la IA en la fabricación y la agricultura.

Logotipo de FacebookLogotipo de TwitterLogotipo de LinkedInSímbolo de enlace de copia

Leer más en esta categoría

¡Construyamos juntos el futuro
de la IA!

Comienza tu viaje con el futuro del aprendizaje automático