Glosario

Ventana Contexto

Descubre cómo las ventanas contextuales mejoran los modelos de IA/ML en PNL, análisis de series temporales e IA de visión, mejorando las predicciones y la precisión.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

Una ventana de contexto se refiere al intervalo finito de información precedente (y a veces sucesiva) que un modelo de aprendizaje automático tiene en cuenta al procesar datos secuenciales, como texto o información de series temporales. Piensa en ella como el foco de atención o la memoria a corto plazo del modelo en cualquier punto dado de la secuencia. Este concepto es crucial porque define cuánto contexto puede aprovechar el modelo para comprender las relaciones, hacer predicciones o generar resultados relevantes. El tamaño de la ventana de contexto afecta directamente a la capacidad de un modelo para captar las dependencias dentro de los datos, lo que influye tanto en su rendimiento como en sus requisitos computacionales.

Ventana de contexto en el Procesamiento del Lenguaje Natural (PLN)

La ventana de contexto es un concepto fundamental en el Procesamiento del Lenguaje Natural (PLN). Modelos como los Transformadores, en los que se basan arquitecturas como BERT y GPT, dependen en gran medida de las ventanas de contexto. En estos modelos, la ventana de contexto determina cuántos tokens precedentes (palabras o subpalabras) se tienen en cuenta al procesar un token concreto. Una ventana de contexto mayor permite al modelo comprender las dependencias de mayor alcance en el texto, lo que puede dar lugar a resultados más coherentes y conscientes del contexto, como se observa en modelos avanzados como el GPT-4 de OpenAI. Sin embargo, las ventanas más grandes también aumentan la carga computacional y el uso de memoria durante el entrenamiento y la inferencia.

Ventana de contexto en la IA de visión

Aunque se discute más en PNL, la idea de una ventana de contexto también es aplicable en visión por ordenador (VC), sobre todo al analizar secuencias de vídeo o secuencias de imágenes. Por ejemplo, en el seguimiento de objetos, un modelo puede utilizar una ventana de contexto de varios fotogramas consecutivos para predecir mejor la trayectoria de un objeto y manejar las oclusiones. Este contexto temporal ayuda a mantener la coherencia del seguimiento. Los modelosYOLO Ultralytics , conocidos principalmente por la detección de objetos en tiempo real, pueden integrarse en sistemas que utilizan ventanas de contexto para tareas como el análisis de vídeo, mejorando sus capacidades más allá del procesamiento de un solo fotograma. Explora las solucionesUltralytics para ver ejemplos de aplicaciones de visión avanzada.

Ejemplos de Ventana de Contexto en Aplicaciones AI/ML del Mundo Real

  • Chatbots y asistentes virtuales: Los sistemas como los chatbots y los asistentes virtuales utilizan ventanas contextuales para recordar los últimos turnos de una conversación. Esto les permite entender las preguntas de seguimiento y ofrecer respuestas relevantes, creando una interacción más natural. Sin un contexto suficiente, el asistente podría tratar cada consulta de forma independiente, lo que daría lugar a conversaciones inconexas. Puedes explorar plataformas como Ultralytics HUB para construir y desplegar modelos de IA.
  • Texto predictivo y autocompletado: Cuando escribes en tu teléfono o utilizas un motor de búsqueda, los algoritmos de texto predictivo analizan la ventana de contexto de las palabras escritas recientemente para sugerirte la siguiente palabra o completar tu frase. Esto se basa en patrones estadísticos aprendidos a partir de grandes cantidades de datos de texto, teniendo en cuenta el contexto inmediatamente anterior para ofrecer continuaciones probables. Frameworks como PyTorch y TensorFlow se utilizan a menudo para construir este tipo de modelos.

Ventana contextual frente a otros términos relacionados

  • Ventana de contexto frente a longitud de secuencia: La longitud de la secuencia se refiere al número total de tokens de toda una secuencia de entrada proporcionada al modelo. La ventana de contexto, sin embargo, es la porción específica (a menudo más pequeña) de esa secuencia que el modelo utiliza activamente para hacer una predicción de un elemento concreto. Por ejemplo, un documento puede tener una longitud de secuencia de 1000 tokens, pero el modelo puede utilizar sólo una ventana de contexto de 128 tokens alrededor de una palabra objetivo. La biblioteca Transformadores deHugging Face proporciona herramientas para manejar secuencias y ventanas de contexto.
  • Ventana contextual vs. Campo receptivo: En las Redes Neuronales Convolucionales (CNN), el campo receptivo describe la extensión espacial de la imagen de entrada que influye en la activación de una neurona concreta. Aunque ambos términos se refieren al alcance de la entrada considerada, el campo receptivo es específico del dominio espacial en las CNN, mientras que la ventana contextual suele referirse al dominio secuencial (como el tiempo o la posición del texto) en diversas arquitecturas de modelos, incluidas las Redes Neuronales Recurrentes (RNN) y los Transformadores. Para más detalles sobre las arquitecturas de los modelos, consulta la documentación de los modelosUltralytics .
Leer todo