Glosario

Red neuronal recurrente (RNN)

Descubre el poder de las Redes Neuronales Recurrentes (RNN) para datos secuenciales, desde la PNL al análisis de series temporales. ¡Aprende hoy mismo conceptos y aplicaciones clave!

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

Las Redes Neuronales Recurrentes (RNN) son una clase de Redes Neuronales (NN) diseñadas específicamente para procesar datos secuenciales, donde el orden de la información importa. A diferencia de las redes feedforward estándar, que procesan las entradas de forma independiente, las RNN tienen bucles internos, lo que permite que la información de los pasos anteriores de la secuencia persista e influya en los pasos posteriores. Esta "memoria" las hace muy adecuadas para tareas que implican secuencias como texto, voz o datos de series temporales dentro de los campos de la Inteligencia Artificial (IA) y el Aprendizaje Automático (AM).

Cómo funcionan las redes neuronales recurrentes

La idea central de una RNN es el estado oculto, que actúa como memoria de la red. En cada paso de la secuencia, la RNN toma la entrada actual y el estado oculto del paso anterior para producir una salida y actualizar su estado oculto. Este estado oculto actualizado se pasa al paso siguiente. Esta conexión recurrente permite a la red mantener el contexto a lo largo del tiempo. El entrenamiento de las RNN suele implicar una variante de la retropropagación llamada Retropropagación a través del tiempo (BPTT), que despliega la red sobre la longitud de la secuencia para calcular los gradientes. Se desarrollaron variantes más avanzadas, como la Memoria a Corto Plazo Larga (LSTM) y la Unidad Recurrente Cerrada (GRU), para abordar algunas limitaciones de las RNN simples, en particular el problema del gradiente evanescente, permitiéndoles aprender dependencias a largo plazo de forma más eficaz. Puedes explorar y entrenar varios modelos, incluyendo potencialmente los basados en secuencias, utilizando plataformas como Ultralytics HUB.

Aplicaciones de las RNN

Las RNN han sido fundamentales en el avance de las tareas de modelado de secuencias en diversos dominios. He aquí un par de ejemplos:

Las RNN frente a otras arquitecturas de red

Comprender las RNN implica distinguirlas de otros tipos de redes neuronales:

  • Redes Feedforward (por ejemplo, MLP, CNN): Estas redes procesan entradas de tamaño fijo sin memoria inherente de entradas anteriores. La información fluye en una dirección, de la entrada a la salida. Mientras que las CNN destacan en jerarquías espaciales (por ejemplo, en clasificación de imágenes o detección de objetos), las RNN se construyen para secuencias temporales. Puedes obtener más información sobre modelos de detección de objetos como Ultralytics YOLO que utilizan principalmente arquitecturas CNN y Transformer.
  • Transformadores: Los transformadores, que utilizan mecanismos de atención, han superado ampliamente a las RNN en rendimiento de vanguardia para muchas tareas de PNL. Pueden modelar dependencias de largo alcance de forma más eficaz y permiten una mayor paralelización durante el entrenamiento, superando las limitaciones clave de las RNN. Lee sobre la evolución de la detección de objetos para ver cómo las diferentes arquitecturas han hecho avanzar las capacidades de la IA.
  • LSTM y GRU: Son tipos específicos de RNN diseñados con mecanismos de compuerta para controlar mejor el flujo de información y mitigar el problema del gradiente de fuga, lo que las hace más aptas para aprender secuencias largas en comparación con las RNN vainilla. Los materiales del curso CS230 de Stanford ofrecen una buena visión general de estas variantes.

Aunque las arquitecturas más nuevas, como los Transformadores, se han convertido en dominantes en muchas áreas, las RNN siguen siendo conceptos fundacionales importantes en el aprendizaje profundo y siguen siendo relevantes en aplicaciones específicas o como componentes dentro de modelos híbridos más amplios. Comprender sus mecanismos proporciona una valiosa visión de la evolución del modelado de secuencias en la IA. Para una exploración más profunda, recursos como la especialización DeepLearning.AI cubren las RNN en detalle.

Leer todo