Descubre cómo el Aprendizaje Semisupervisado combina datos etiquetados y no etiquetados para mejorar los modelos de IA, reducir los costes de etiquetado y aumentar la precisión.
El Aprendizaje Semisupervisado (SSL) representa un poderoso término medio en el Aprendizaje Automático (AM), ya que combina una pequeña cantidad de datos etiquetados con una gran cantidad de datos sin etiquetar durante el entrenamiento. Este enfoque es especialmente valioso en situaciones en las que la adquisición de datos etiquetados es cara, requiere mucho tiempo o es poco práctica, pero los datos no etiquetados son abundantes. La SSL pretende aprovechar la estructura subyacente en los datos no etiquetados para mejorar el rendimiento del modelo más allá de lo que podría conseguirse utilizando sólo los limitados datos etiquetados, lo que la convierte en una técnica práctica para muchos problemas de Inteligencia Artificial (IA) del mundo real.
Los algoritmos SSL funcionan haciendo ciertas suposiciones sobre la relación entre los datos etiquetados y los no etiquetados. Entre las suposiciones más comunes están la "suposición de suavidad" (es probable que los puntos cercanos entre sí compartan una etiqueta) o la "suposición de conglomerados" (los datos tienden a formar conglomerados distintos, y es probable que los puntos de un mismo conglomerado compartan una etiqueta). Las técnicas suelen consistir en entrenar un modelo inicial con los datos etiquetados y luego utilizarlo para generar pseudoetiquetas para los datos sin etiquetar, basándose en predicciones de alta confianza. A continuación, se vuelve a entrenar el modelo tanto con los datos etiquetados originales como con los nuevos datos pseudoetiquetados. Otro enfoque es la regularización de la consistencia, en la que se anima al modelo a producir el mismo resultado para un ejemplo sin etiquetar incluso si su entrada está ligeramente perturbada, lo que a menudo se consigue aumentando los datos. Estos métodos permiten que el modelo aprenda de los patrones y la distribución inherentes al gran conjunto de muestras sin etiquetar. Se exploran técnicas más avanzadas en recursos como las entradas del Blog de IAGoogle sobre SSL.
El aprendizaje semisupervisado ocupa un espacio único entre otros tipos de aprendizaje primario:
SSL es muy eficaz en dominios donde el etiquetado es un cuello de botella:
La principal ventaja de la SSL es su capacidad para reducir la dependencia de grandes conjuntos de datos etiquetados, ahorrando tiempo y recursos asociados al etiquetado de datos. A menudo conduce a una mejor generalización del modelo en comparación con los modelos puramente supervisados entrenados con datos limitados, al explotar la información de las muestras no etiquetadas. Sin embargo, el éxito de la SSL depende en gran medida de que los supuestos subyacentes sobre los datos sean correctos. Si estos supuestos no se cumplen (por ejemplo, la distribución de los datos no etiquetados es muy diferente de la de los datos etiquetados), los métodos SSL podrían incluso degradar el rendimiento. La selección y aplicación cuidadosas de las técnicas SSL son cruciales, y a menudo requieren experiencia en las prácticas MLOps.
Muchos marcos modernos de Aprendizaje Profundo (AD ), incluyendo PyTorchPyTorch sitio oficialPyTorch ) y TensorFlowTensorFlow sitio oficialTensorFlow ), ofrecen funcionalidades o pueden adaptarse para implementar algoritmos SSL. Bibliotecas como Scikit-learn proporcionan algunos métodos SSL. Plataformas como Ultralytics HUB agilizan el proceso facilitando la gestión de conjuntos de datosUltralytics documentación deUltralytics HUB Datasets) que pueden contener mezclas de datos etiquetados y no etiquetados, simplificando el entrenamientoUltralytics HUB Cloud Training) y el despliegue(guía de opciones de despliegue de modelos) de modelos diseñados para aprovechar tales estructuras de datos. La investigación en SSL sigue evolucionando, y las contribuciones se presentan a menudo en las principales conferencias sobre IA, como NeurIPS e ICML.