Glosario

Validación cruzada

Descubra el poder de la validación cruzada en el aprendizaje automático para mejorar la precisión de los modelos, evitar el sobreajuste y garantizar un rendimiento sólido.

La validación cruzada es una potente técnica de evaluación de modelos en el aprendizaje automático (ML) que se utiliza para valorar cómo se generalizarán los resultados de un análisis estadístico a un conjunto de datos independiente. Se trata de un procedimiento de remuestreo utilizado para evaluar modelos de ML en una muestra de datos limitada. El objetivo principal es evitar el sobreajuste, es decir, que un modelo aprenda tan bien los datos de entrenamiento que su rendimiento sea deficiente con datos nuevos y desconocidos. Al simular cómo funcionaría un modelo en el mundo real, la validación cruzada proporciona una estimación más sólida y fiable del rendimiento del modelo.

Cómo funciona la validación cruzada

El método más común de validación cruzada es la validación cruzada K-Fold. Este proceso consiste en dividir un único conjunto de datos en varias partes:

  1. División de los datos: El conjunto completo de datos de entrenamiento se divide aleatoriamente en "k" subconjuntos de igual tamaño, o "pliegues".
  2. Entrenamiento y validación iterativos: El modelo se entrena "k" veces. En cada iteración, uno de los pliegues se mantiene como conjunto de validación y el modelo se entrena en los k-1 pliegues restantes.
  3. Evaluación del rendimiento: El rendimiento del modelo se evalúa en el pliegue retenido. En cada iteración se registran parámetros clave, como la precisión o la precisión media (mAP).
  4. Promedio de resultados: Una vez completadas las 'k' iteraciones, se promedian las métricas de rendimiento para obtener una estimación única y más estable de la eficacia del modelo.

Este enfoque garantiza que cada punto de datos esté en un conjunto de validación exactamente una vez y en un conjunto de entrenamiento k-1 veces. En la guía de validación cruzada K-Fold de Ultralytics encontrará información detallada sobre su aplicación.

Validación cruzada frente a división de validación simple

En un proyecto típico de ML, los datos se dividen en conjuntos de entrenamiento, validación y prueba.

  • Datos de validación: Utilizados durante la fase de entrenamiento para el ajuste de hiperparámetros y para tomar decisiones sobre la arquitectura del modelo.
  • Datos de prueba: Se utilizan sólo después de completar todo el entrenamiento y el ajuste para proporcionar una evaluación final e imparcial de la capacidad de generalización del modelo.

Una simple división entre entrenamiento y validación a veces puede ser engañosa si el conjunto de validación, por casualidad, contiene muestras que son particularmente fáciles o difíciles. La validación cruzada supera este problema utilizando cada parte del conjunto de datos tanto para el entrenamiento como para la validación, lo que proporciona una medida más fiable de la capacidad de generalización del modelo. Esto la hace especialmente útil cuando la cantidad de datos disponibles es limitada. Los marcos de trabajo más conocidos, como Scikit-learn, ofrecen sólidas implementaciones de técnicas de validación cruzada.

Aplicaciones reales

La validación cruzada es indispensable para crear sistemas de IA fiables en diversos ámbitos:

  1. Análisis de imágenes médicas: Cuando se desarrolla una red neuronal convolucional (CNN ) para el análisis de imágenes médicas, como la detección de tumores en escáneres cerebrales utilizando conjuntos de datos como el conjunto de datos de tumores cerebrales, la CV se utiliza para evaluar rigurosamente la precisión diagnóstica y la generalización del modelo en diversos datos de pacientes. Esta sólida evaluación es fundamental antes de considerar la posibilidad de realizar ensayos clínicos o solicitar la aprobación reglamentaria de organismos como la FDA.
  2. Vehículos autónomos: Para los modelos de detección de objetos como Ultralytics YOLO utilizados en vehículos autónomos, CV ayuda a garantizar un rendimiento fiable en la detección de peatones, ciclistas y otros vehículos en diversas condiciones ambientales. Esta validación en conjuntos de datos complejos como Argoverse es fundamental antes de implantar el modelo en sistemas críticos para la seguridad, como los de las soluciones de IA en automoción.

Otras aplicaciones incluyen la evaluación de modelos para la segmentación de imágenes, tareas de procesamiento del lenguaje natural (PLN ) como el análisis de sentimientos y la evaluación de riesgos en la modelización financiera. Plataformas como Ultralytics HUB pueden ayudar a gestionar los experimentos y artefactos producidos durante estas técnicas de evaluación, agilizando el ciclo de vida del desarrollo.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles