Glosario

Aprendizaje con pocos disparos

Descubra cómo el aprendizaje de pocos datos permite a la IA adaptarse con datos mínimos, transformando campos como el diagnóstico médico y la conservación de la fauna salvaje.

El aprendizaje de pocos datos (FSL, por sus siglas en inglés) es un subcampo del aprendizaje automático que se centra en la creación de modelos capaces de generalizar nuevos conceptos a partir de un puñado de ejemplos. Los modelos tradicionales de aprendizaje profundo, especialmente en visión por ordenador, a menudo requieren grandes cantidades de datos de entrenamiento etiquetados para lograr un alto rendimiento. FSL aborda el reto de la escasez de datos mediante la creación de modelos que pueden aprender eficazmente en situaciones de pocos datos, imitando la capacidad humana de aprender nuevos objetos o categorías a partir de muy pocos casos. Esto lo hace muy valioso para aplicaciones en las que la recopilación y el etiquetado de datos son caros, llevan mucho tiempo o simplemente son imposibles.

Cómo funciona el aprendizaje con pocos disparos

La idea central de FSL es aprovechar el conocimiento previo de un conjunto de datos amplio y diverso para aprender rápidamente nuevas tareas relacionadas. En lugar de aprender a clasificar categorías específicas directamente, el modelo aprende una representación más general de los datos o aprende a comparar puntos de datos. Entre los enfoques más comunes se incluyen:

  • Aprendizaje basado en métricas: Estos métodos aprenden una función de distancia o métrica de similitud para comparar unas cuantas imágenes "de apoyo" etiquetadas con imágenes "de consulta" no etiquetadas. A continuación, se asigna a la imagen de consulta la clase de la imagen de apoyo más similar. Algunos ejemplos populares de este enfoque son las redes siamesas, que aprenden a determinar si dos imágenes pertenecen a la misma clase, y las redes prototípicas, que aprenden una representación prototipo para cada clase en el espacio métrico.
  • Aprendizaje basado en la optimización: A menudo asociado con el metaaprendizaje (o "aprender a aprender"), este enfoque entrena el propio proceso de optimización de un modelo. El objetivo es desarrollar un modelo que pueda adaptar rápidamente sus parámetros a una nueva tarea con sólo unos pocos pasos de descenso gradiente. Un algoritmo influyente en este ámbito es el Metaaprendizaje Diagnóstico de Modelos (MAML).
  • Aprendizaje basado en la memoria: Estos modelos utilizan un componente de memoria externa para almacenar la información de los pocos ejemplos disponibles. Cuando se presenta un nuevo ejemplo, el modelo recupera la información pertinente de su memoria para hacer una predicción. Esto es conceptualmente similar al funcionamiento de los algoritmos k-Nearest Neighbors (k-NN).

Aprendizaje a pocos vs. Conceptos afines

Es importante distinguir el FSL de otros paradigmas de aprendizaje que trabajan con datos limitados:

  • Aprendizaje de disparo cero (ZSL): El ZSL es más extremo que el FSL, ya que requiere que un modelo reconozca clases que nunca ha visto durante el entrenamiento, utilizando sólo descripciones semánticas de alto nivel o atributos. El FSL requiere al menos un ejemplo, mientras que el ZSL no requiere ninguno.
  • Aprendizaje único (OSL): OSL es una variante específica de FSL en la que se proporciona al modelo exactamente un ejemplo etiquetado para cada nueva clase. Representa el escenario más difícil dentro del marco de aprendizaje de pocos disparos.
  • Aprendizaje por transferencia: El FSL es una forma de aprendizaje por transferencia, pero ambos no son idénticos. El aprendizaje por transferencia tradicional suele consistir en tomar un modelo preentrenado en un gran conjunto de datos, como ImageNet, y perfeccionarlo en un nuevo conjunto de datos más pequeño. FSL está diseñado específicamente para situaciones en las que el nuevo conjunto de datos es extremadamente pequeño (por ejemplo, menos de 10 ejemplos por clase). En nuestra documentación sobre el entrenamiento de modelos puede ver cómo modelos como Ultralytics YOLO11 utilizan pesos preentrenados para el aprendizaje por transferencia.

Aplicaciones reales

La LSF es especialmente útil en ámbitos especializados en los que escasean los datos.

  1. Diagnóstico de enfermedades raras en imagen médica: En el caso de las enfermedades raras, a menudo no es factible recopilar miles de exploraciones de pacientes para el entrenamiento de modelos. Con FSL, un modelo preentrenado en un gran conjunto de datos de imágenes médicas comunes puede adaptarse para identificar signos de una enfermedad rara utilizando sólo un puñado de casos confirmados. Esto acelera el desarrollo de herramientas de diagnóstico para el análisis de imágenes médicas.
  2. Detección de defectos industriales: En la fabricación, una nueva línea de productos puede tener defectos únicos y poco frecuentes. En lugar de detener la producción para recopilar miles de ejemplos de defectos, un modelo FSL para la detección de objetos puede entrenarse rápidamente con unas pocas muestras para automatizar el control de calidad, mejorando la eficiencia y reduciendo los residuos. Plataformas como Ultralytics HUB pueden ayudar a gestionar estos conjuntos de datos especializados y acelerar la implantación de modelos.

Retos y perspectivas

A pesar de sus promesas, la SLF se enfrenta a importantes retos. El principal obstáculo es evitar el sobreajuste, ya que el modelo puede memorizar fácilmente los pocos ejemplos en lugar de aprender a generalizar. El rendimiento del modelo también puede ser muy sensible a la calidad y representatividad de los ejemplos de apoyo proporcionados.

La investigación en curso, impulsada por instituciones como la Universidad de Stanford, Google AI y Meta AI, se centra en la creación de algoritmos de metaaprendizaje más sólidos y en un mejor aprovechamiento de las técnicas de aprendizaje no supervisado o autosupervisado para el preentrenamiento. La combinación de estos enfoques tiene como objetivo crear sistemas de IA más flexibles y eficientes desde el punto de vista de los datos, ampliando los límites de lo que es posible en entornos con datos limitados. Marcos avanzados como PyTorch y TensorFlow proporcionan las herramientas necesarias para que los investigadores exploren estos métodos de vanguardia.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles