Optimiza los modelos de aprendizaje automático con datos de validación para evitar el sobreajuste, ajustar los hiperparámetros y garantizar un rendimiento sólido en el mundo real.
Los datos de validación son un componente crucial en el ciclo de desarrollo del Aprendizaje Automático (AM). Se trata de un subconjunto separado del conjunto de datos original, distinto de los datos de entrenamiento utilizados para ajustar el modelo y de los datos de prueba utilizados para la evaluación final. El objetivo principal de los datos de validación es proporcionar una evaluación imparcial del ajuste de un modelo en el conjunto de datos de entrenamiento mientras se ajustan los hiperparámetros del modelo y se toman decisiones sobre la arquitectura del modelo. Este proceso ayuda a seleccionar la mejor configuración del modelo antes de evaluar su rendimiento final en datos no vistos.
Durante el proceso de entrenamiento del modelo, un modelo ML aprende patrones a partir de los datos de entrenamiento. Sin embargo, evaluar el modelo únicamente a partir de estos datos puede ser engañoso, ya que el modelo podría limitarse a memorizar los ejemplos de entrenamiento, un fenómeno conocido como sobreajuste. Los datos de validación actúan como punto de control. Evaluando el rendimiento del modelo en este conjunto separado periódicamente durante el entrenamiento, los desarrolladores pueden:
Comprender la distinción entre conjuntos de datos de entrenamiento, validación y prueba es fundamental para el desarrollo de modelos sólidos:
Una separación adecuada, a menudo gestionada mediante herramientas como Ultralytics HUB para el versionado y la gestión de conjuntos de datos, garantiza que la información del conjunto de pruebas no se "filtre" en el proceso de entrenamiento o de selección de modelos, lo que llevaría a estimaciones de rendimiento demasiado optimistas.
Los datos de validación son indispensables para el ajuste de los hiperparámetros. Los hiperparámetros son ajustes de configuración externos al propio modelo, establecidos antes de que comience el proceso de aprendizaje. Algunos ejemplos son la velocidad de aprendizaje, el número de capas de una red neuronal o el tipo de algoritmo de optimización utilizado. Los desarrolladores entrenan varias versiones del modelo con distintas combinaciones de hiperparámetros, evalúan cada una de ellas en el conjunto de validación y seleccionan la combinación que produce el mejor rendimiento. Esta búsqueda sistemática puede automatizarse utilizando métodos como la Búsqueda en Cuadrícula o la Optimización Bayesiana, a menudo facilitada por plataformas integradas con herramientas MLOps.
Cuando la cantidad de datos disponibles es limitada, a menudo se emplea una técnica llamada Validación Cruzada (concretamente Validación Cruzada de K pliegues). Aquí, los datos de entrenamiento se dividen en "K" subconjuntos (pliegues). El modelo se entrena K veces, utilizando cada vez K-1 pliegues para el entrenamiento y el pliegue restante como conjunto de validación. A continuación, se calcula la media del rendimiento en todas las K ejecuciones. Esto proporciona una estimación más sólida del rendimiento del modelo y hace un mejor uso de los datos limitados, como se explica en la guía de validación cruzada de pliegues K deUltralytics .
En resumen, los datos de validación son una piedra angular para construir modelos de Inteligencia Artificial (IA) fiables y de alto rendimiento. Permiten un ajuste eficaz de los hiperparámetros, la selección de modelos y la prevención del sobreajuste, garantizando que los modelos generalicen mucho más allá de los datos en los que fueron entrenados.