Glosario

Tanh (Tangente hiperbólica)

Descubre la función de activación Tanh: centrada en cero, versátil e ideal para tareas de IA que necesitan salidas de -1 a 1. Más información

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

La función Tanh (tangente hiperbólica) es una función de activación muy utilizada en modelos de aprendizaje automático y aprendizaje profundo. Asigna valores de entrada a un rango entre -1 y 1, lo que la hace especialmente útil para tareas en las que las salidas deben representar valores tanto negativos como positivos. Tanh es matemáticamente similar a la función Sigmoide, pero proporciona un rango de salida más amplio, lo que la hace eficaz para ciertos tipos de redes neuronales.

Propiedades de Tanh

Tanh es una función en forma de S (sigmoidea) simétrica alrededor del origen. Sus propiedades clave son:

  • Rango de salida: Los valores están limitados entre -1 y 1.
  • Centrado en cero: A diferencia de la función Sigmoide, las salidas de Tanh están centradas en cero, lo que facilita la convergencia de los algoritmos de optimización basados en el gradiente.
  • Comportamiento del gradiente: Los gradientes son más fuertes cuando la entrada está cerca de cero, pero disminuyen a medida que la entrada se desplaza hacia valores extremos, lo que puede provocar el problema del gradiente evanescente en las redes profundas. Obtén más información sobre este problema en la entrada del glosario Gradiente evanescente.

Aplicaciones en IA y ML

Tanh se emplea a menudo en situaciones en las que hay que tener en cuenta valores negativos. A continuación se indican algunas de sus aplicaciones más destacadas:

1. Redes neuronales recurrentes (RNN)

El Tanh se utiliza con frecuencia en las Redes Neuronales Recurrentes (RNN ) para procesar datos secuenciales, como series temporales o lenguaje natural. Su capacidad para proporcionar un rango de valores negativos a positivos lo hace adecuado para capturar relaciones en puntos de datos a lo largo del tiempo.

2. Clasificación binaria

Para los modelos que predicen resultados binarios, Tanh puede utilizarse en las capas ocultas para transformar los datos de entrada en un rango que facilite las tareas posteriores de toma de decisiones. Por ejemplo, Tanh podría procesar las características de entrada antes de una capa final con una función de activación Softmax.

3. Procesamiento de imágenes

En tareas de visión por ordenador como la segmentación de imágenes, Tanh puede normalizar las intensidades de los píxeles a un rango que mejore la extracción de características. Esto es especialmente útil cuando se combina con modelos como las Redes Neuronales Convolucionales (CNN).

Ejemplos reales

Ejemplo 1: Análisis de Sentimiento

En el análisis de sentimientos textuales, Tanh se utiliza en RNNs o redes de memoria a largo plazo (LSTMs ) para modelar la polaridad de las emociones captando tanto los sentimientos positivos como los negativos. La naturaleza centrada en cero de la función ayuda a distinguir eficazmente entre sentimientos opuestos.

Ejemplo 2: Vehículos autónomos

En el contexto de los sistemas de vehículos autónomos, Tanh puede utilizarse en capas de redes neuronales que procesan datos de sensores. Por ejemplo, puede normalizar las lecturas de los sensores, como las señales LiDAR, para tener en cuenta las desviaciones tanto positivas como negativas respecto a un punto de referencia.

Tanh Vs. Sigmoide y ReLU

Aunque Tanh comparte similitudes con la función Sigmoide, ofrece un rango más amplio (-1 a 1) en comparación con el de Sigmoide (0 a 1). Esto hace que Tanh sea más adecuada para tareas que requieren salidas centradas en cero. Sin embargo, para las redes profundas, a menudo se prefiere la Unidad Lineal Rectificada (ReLU) debido a su simplicidad y a la ausencia de problemas de gradiente evanescente.

Diferencias clave:

  • Tanh vs. Sigmoide: Tanh está centrado en cero, mientras que Sigmoide no lo está. Esto puede hacer que Tanh sea más eficaz en redes en las que se necesitan gradientes equilibrados.
  • Tanh frente a ReLU: ReLU es eficiente computacionalmente y evita los gradientes evanescentes, pero no admite valores negativos, a diferencia de Tanh.

Retos y limitaciones

Uno de los principales retos de utilizar Tanh es el problema del gradiente evanescente, que puede producirse cuando la función se satura en valores de entrada extremos. Esto es especialmente problemático en las redes profundas, donde la optimización basada en el gradiente se vuelve menos eficaz. Para solucionarlo, se pueden emplear funciones de activación alternativas como ReLU o Leaky ReLU.

Conceptos relacionados

Tanh sigue siendo una función de activación versátil y eficaz para muchas aplicaciones de aprendizaje automático, en particular las que requieren salidas que abarcan rangos tanto negativos como positivos. Aunque las funciones de activación más recientes abordan algunas de sus limitaciones, no se puede subestimar su papel en el avance de las primeras arquitecturas de aprendizaje profundo. Para experimentar de forma fácil y práctica con funciones de activación como Tanh, explora Ultralytics HUB para entrenar y desplegar modelos sin problemas.

Leer todo