Aprende cómo las técnicas de optimización de modelos, como el ajuste de hiperparámetros, la poda de modelos y la cuantización de modelos, pueden ayudar a que los modelos de visión por ordenador funcionen con mayor eficacia.
La optimización de modelos es un proceso cuyo objetivo es mejorar la eficacia y el rendimiento de los modelos de aprendizaje automático. Al refinar la estructura y la función de un modelo, la optimización hace posible que los modelos ofrezcan mejores resultados con un mínimo de recursos informáticos y un tiempo reducido de entrenamiento y evaluación.
Este proceso es especialmente importante en campos como la visión por ordenador, donde los modelos suelen requerir recursos considerables para analizar imágenes complejas. En entornos con recursos limitados, como los dispositivos móviles o los sistemas de borde, los modelos optimizados pueden funcionar bien con recursos limitados sin dejar de ser precisos.
Se suelen utilizar varias técnicas para conseguir la optimización de modelos, como el ajuste de hiperparámetros, la poda de modelos, la cuantización de modelos y la precisión mixta. En este artículo, exploraremos estas técnicas y las ventajas que aportan a las aplicaciones de visión por ordenador. ¡Empecemos ya!
Los modelos de visión por ordenador suelen tener capas profundas y estructuras complejas que son estupendas para reconocer patrones intrincados en las imágenes, pero también pueden ser bastante exigentes en cuanto a potencia de procesamiento. Cuando estos modelos se despliegan en dispositivos con hardware limitado, como teléfonos móviles o dispositivos de borde, pueden enfrentarse a ciertos retos o limitaciones.
La potencia de procesamiento, la memoria y la energía limitadas de estos dispositivos pueden provocar notables caídas de rendimiento, ya que los modelos luchan por mantener el ritmo. Las técnicas de optimización de modelos son fundamentales para resolver estos problemas. Ayudan a racionalizar el modelo, reducir sus necesidades computacionales y garantizar que pueda seguir funcionando eficazmente, incluso con recursos limitados. La optimización del modelo puede hacerse simplificando la arquitectura del modelo, reduciendo la precisión de los cálculos o eliminando componentes innecesarios para que el modelo sea más ligero y rápido.
He aquí algunas de las técnicas de optimización de modelos más comunes, que exploraremos con más detalle en las secciones siguientes:
Puedes ayudar a que un modelo aprenda y funcione mejor ajustando sus hiperparámetros, es decir, los ajustes que determinan cómo aprende el modelo a partir de los datos. El ajuste de hiperparámetros es una técnica para optimizar estos ajustes, mejorando la eficacia y precisión del modelo. A diferencia de los parámetros que el modelo aprende durante el entrenamiento, los hiperparámetros son valores preestablecidos que guían el proceso de entrenamiento.
Veamos algunos ejemplos de hiperparámetros que pueden ajustarse:
El ajuste de hiperparámetros suele empezar por definir un rango de valores posibles para cada hiperparámetro. A continuación, un algoritmo de búsqueda explora diferentes combinaciones dentro de estos rangos para identificar los ajustes que producen el mejor rendimiento.
Los métodos de ajuste habituales son la búsqueda en cuadrícula, la búsqueda aleatoria y la optimización bayesiana. La búsqueda en cuadrícula prueba todas las combinaciones posibles de valores dentro de los rangos especificados. La búsqueda aleatoria selecciona combinaciones al azar, y a menudo encuentra ajustes efectivos más rápidamente. La optimización bayesiana utiliza un modelo probabilístico para predecir valores de hiperparámetros prometedores basándose en resultados anteriores. Este enfoque suele reducir el número de ensayos necesarios.
Finalmente, para cada combinación de hiperparámetros, se evalúa el rendimiento del modelo. El proceso se repite hasta obtener los resultados deseados.
Mientras trabajas en el ajuste de hiperparámetros, puede que te preguntes cuál es la diferencia entre hiperparámetros y parámetros del modelo.
Los hiperparámetros son valores fijados antes del entrenamiento que controlan cómo aprende el modelo, como la tasa de aprendizaje o el tamaño del lote. Estos ajustes se fijan durante el entrenamiento e influyen directamente en el proceso de aprendizaje. Los parámetros del modelo, en cambio, los aprende el propio modelo durante el entrenamiento. Incluyen los pesos y los sesgos, que se ajustan a medida que el modelo se entrena y, en última instancia, guían sus predicciones. En esencia, los hiperparámetros dan forma al viaje de aprendizaje, mientras que los parámetros del modelo son los resultados de ese proceso de aprendizaje.
La poda de modelos es una técnica de reducción de tamaño que elimina los pesos y parámetros innecesarios de un modelo, haciéndolo más eficiente. En visión por ordenador, especialmente con redes neuronales profundas, un gran número de parámetros, como pesos y activaciones (salidas intermedias que ayudan a calcular la salida final), puede aumentar tanto la complejidad como las demandas computacionales. La poda ayuda a racionalizar el modelo identificando y eliminando los parámetros que contribuyen mínimamente al rendimiento, lo que da lugar a un modelo más ligero y eficiente.
Una vez entrenado el modelo, técnicas como la poda basada en la magnitud o el análisis de sensibilidad pueden evaluar la importancia de cada parámetro. A continuación, se podan los parámetros de baja importancia, utilizando una de las tres técnicas principales: poda de pesos, poda de neuronas o poda estructurada.
La poda de pesos elimina conexiones individuales con un impacto mínimo en la salida. La poda de neuronas elimina neuronas enteras cuyas salidas contribuyen poco a la función del modelo. La poda estructurada elimina secciones más grandes, como filtros convolucionales o neuronas en capas totalmente conectadas, optimizando la eficacia del modelo. Una vez completada la poda, se vuelve a entrenar el modelo para afinar los parámetros restantes, asegurando que conserva una alta precisión en una forma reducida.
La cuantización del modelo reduce el número de bits utilizados para representar los pesos y las activaciones de un modelo. Suele convertir valores de coma flotante de 32 bits de alta precisión en valores de menor precisión, como enteros de 16 u 8 bits. Al reducir la precisión de los bits, la cuantización disminuye significativamente el tamaño del modelo, la huella de memoria y el coste computacional.
En visión por ordenador, los flotantes de 32 bits son estándar, pero convertirlos a 16 u 8 bits puede mejorar la eficiencia. Hay dos tipos principales de cuantización: cuantización por peso y cuantización por activación. La cuantización del peso reduce la precisión de los pesos del modelo, equilibrando la reducción de tamaño con la precisión. La cuantización de la activación reduce la precisión de las activaciones, disminuyendo aún más la memoria y las demandas computacionales.
La precisión mixta es una técnica que utiliza diferentes precisiones numéricas para varias partes de una red neuronal. Al combinar valores de mayor precisión, como los flotantes de 32 bits, con valores de menor precisión, como los flotantes de 16 u 8 bits, la precisión mixta hace posible que los modelos de visión por ordenador aceleren el entrenamiento y reduzcan el uso de memoria sin sacrificar la precisión.
Durante el entrenamiento, la precisión mixta se consigue utilizando una precisión menor en capas específicas, mientras se mantiene una precisión mayor donde sea necesario en toda la red. Esto se hace mediante el moldeado y el escalado de pérdidas. El moldeado convierte los tipos de datos entre diferentes precisiones, según lo requiera el modelo. El escalado de pérdidas ajusta la precisión reducida para evitar el subdesbordamiento numérico, garantizando un entrenamiento estable. La precisión mixta es especialmente útil para modelos grandes y lotes de gran tamaño.
Ahora que hemos cubierto varias técnicas de optimización de modelos, vamos a discutir cómo decidir cuál utilizar en función de tus necesidades específicas. La elección depende de factores como el hardware disponible, las limitaciones computacionales y de memoria del entorno de implantación, y el nivel de precisión requerido.
Por ejemplo, los modelos más pequeños y rápidos son más adecuados para dispositivos móviles con recursos limitados, mientras que los modelos más grandes y precisos pueden utilizarse en sistemas de alto rendimiento. He aquí cómo se alinea cada técnica con los distintos objetivos:
La optimización de modelos es una parte vital del aprendizaje automático, especialmente para desplegar la IA en aplicaciones del mundo real. Técnicas como el ajuste de hiperparámetros, la poda de modelos, la cuantización y la precisión mixta ayudan a mejorar el rendimiento, la eficacia y el uso de recursos de los modelos de visión por ordenador. Estas optimizaciones hacen que los modelos sean más rápidos y consuman menos recursos, lo que es ideal para dispositivos con memoria y potencia de procesamiento limitadas. Los modelos optimizados también son más fáciles de escalar y desplegar en distintas plataformas, lo que permite soluciones de IA eficaces y adaptables a una amplia gama de usos.
Visita elrepositorio GitHub de Ultralytics y únete a nuestra comunidad para saber más sobre las aplicaciones de la IA en la fabricación y la agricultura.
Comienza tu viaje con el futuro del aprendizaje automático