Glosario

Retropropagación

Aprende cómo la retropropagación entrena redes neuronales, reduce las tasas de error y potencia eficazmente aplicaciones de IA como el reconocimiento de imágenes y la PNL.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

La retropropagación es un algoritmo fundamental en el campo del aprendizaje profundo (AD ) que se utiliza para entrenar redes neuronales (RN). Es el método de ajuste fino de los pesos de una red neuronal basado en la tasa de error obtenida en la época anterior (es decir, la iteración). Un ajuste adecuado de los pesos garantiza tasas de error más bajas, lo que hace que el modelo sea fiable al aumentar su generalización. Funciona calculando el gradiente de la función de pérdida con respecto a los pesos de la red. Esencialmente, después de cada pasada hacia delante a través de una red, la retropropagación realiza una pasada hacia atrás mientras ajusta los parámetros del modelo (weights and biases). Este proceso es crucial para que la red aprenda y mejore su rendimiento con el tiempo.

Cómo funciona la retropropagación

El algoritmo de retropropagación tiene dos fases principales: el paso hacia delante y el paso hacia atrás.

  1. Paso adelante: Durante el paso hacia delante, los datos de entrada se introducen en la red, y ésta produce una predicción de salida. A continuación, la función de pérdida compara esta predicción con el valor objetivo real, calculando el error.
  2. Paso hacia atrás: En el paso hacia atrás, el algoritmo calcula el gradiente de la función de pérdida con respecto a cada peso aplicando la regla de la cadena del cálculo. A continuación, los pesos se actualizan en la dirección opuesta al gradiente, normalmente utilizando un algoritmo de optimización como el descenso de gradiente o una de sus variantes. Este paso es crucial para minimizar el error en las predicciones posteriores.

Importancia de la retropropagación

La retropropagación es esencial para entrenar modelos de aprendizaje profundo porque proporciona una forma computacionalmente eficiente de calcular los gradientes necesarios para actualizar los pesos de una red neuronal. Sin la retropropagación, sería poco práctico entrenar redes profundas con múltiples capas, ya que el coste computacional de calcular gradientes sería prohibitivamente alto. Permite a la red aprender patrones y relaciones complejas en los datos ajustando iterativamente los pesos para minimizar el error.

Aplicaciones reales de la retropropagación

La retropropagación se utiliza en una amplia gama de aplicaciones en diversos ámbitos. Aquí tienes dos ejemplos:

  1. Reconocimiento de imágenes: En visión por ordenador (VC), la retropropagación se utiliza para entrenar redes neuronales convolucionales (CNN) para tareas como la clasificación de imágenes y la detección de objetos. Por ejemplo, en los vehículos autónomos, las CNN se entrenan para reconocer objetos como peatones, otros vehículos y señales de tráfico, lo que permite al vehículo tomar decisiones de conducción informadas. Más información sobre vehículos autónomos.
  2. Procesamiento del Lenguaje Natural (PLN): En PLN, la retropropagación entrena redes neuronales recurrentes (RNN) y modelos transformadores para tareas como la traducción de idiomas, el análisis de sentimientos y la generación de textos. Por ejemplo, la retropropagación ayuda a mejorar la precisión de asistentes virtuales como Siri y Alexa, permitiéndoles comprender y responder mejor a las órdenes del usuario. Más información sobre el procesamiento del lenguaje natural (PLN).

Términos relacionados

  • Descenso del gradiente: Algoritmo de optimización utilizado para minimizar la función de pérdida ajustando iterativamente los pesos en la dirección del descenso más pronunciado del gradiente. Más información sobre el descenso de gradiente.
  • Función de pérdida: Función que mide la diferencia entre la salida prevista y el valor objetivo real. El objetivo del entrenamiento de una red neuronal es minimizar esta función. Descubre más sobre las funciones de pérdida.
  • Red neuronal: Una red de nodos interconectados, o "neuronas", organizados en capas. Las redes neuronales están diseñadas para reconocer patrones y son un componente fundamental del aprendizaje profundo. Sumérgete en las redes neuronales.
  • Función de activación: Función que introduce no linealidad en la salida de una neurona. Las funciones de activación más comunes son ReLU, sigmoidea y tanh. Explora las funciones de activación.
  • Época: Una pasada completa por todo el conjunto de datos de entrenamiento durante el proceso de entrenamiento. A menudo se necesitan varias épocas para entrenar eficazmente una red neuronal. Más información sobre las épocas.

Estos términos están estrechamente relacionados con la retropropagación y son esenciales para comprender cómo se entrenan las redes neuronales. Si comprendes la retropropagación y sus conceptos relacionados, podrás profundizar en la mecánica del aprendizaje profundo y en cómo se entrenan modelos como Ultralytics YOLO para diversas tareas.

Leer todo