Glossário

Tanh (Tangente hiperbólica)

Descobre a função de ativação Tanh - centrada no zero, versátil e ideal para tarefas de IA que necessitem de resultados de -1 a 1. Aprende mais!

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

A função Tanh (Hyperbolic Tangent) é uma função de ativação muito utilizada em modelos de aprendizagem automática e aprendizagem profunda. Mapeia os valores de entrada para um intervalo entre -1 e 1, o que a torna particularmente útil para tarefas em que as saídas precisam representar valores negativos e positivos. Tanh é matematicamente semelhante à função Sigmoid, mas fornece um intervalo de saída mais amplo, o que a torna eficaz para determinados tipos de redes neurais.

Propriedades de Tanh

Tanh é uma função em forma de S (sigmoide) que é simétrica em torno da origem. As suas principais propriedades incluem:

  • Intervalo de saída: Os valores são limitados entre -1 e 1.
  • Centrado em zero: Ao contrário da função Sigmoide, as saídas Tanh são centradas no zero, facilitando a convergência dos algoritmos de otimização baseados no gradiente.
  • Comportamento do gradiente: Os gradientes são mais fortes quando a entrada está próxima de zero, mas diminuem à medida que a entrada se move em direção a valores extremos, potencialmente levando ao problema do gradiente de desaparecimento em redes profundas. Saiba mais sobre esse problema na entrada do glossário Gradiente de desaparecimento.

Aplicações em IA e ML

O Tanh é frequentemente utilizado em cenários em que é necessário ter em conta valores negativos. Abaixo estão algumas das suas aplicações notáveis:

1. Redes Neuronais Recorrentes (RNNs)

O Tanh é frequentemente utilizado em Redes Neuronais Recorrentes (RNN) para processar dados sequenciais, como séries temporais ou linguagem natural. A sua capacidade de fornecer uma gama de valores negativos a positivos torna-o adequado para captar relações em pontos de dados ao longo do tempo.

2. Classificação binária

Para modelos que prevêem resultados binários, o Tanh pode ser utilizado em camadas ocultas para transformar os dados de entrada num intervalo que facilite as tarefas de tomada de decisão a jusante. Por exemplo, a Tanh pode processar caraterísticas de entrada antes de uma camada final com uma função de ativação Softmax.

3. Processamento de imagens

Em tarefas de visão computacional, como a segmentação de imagens, o Tanh pode normalizar as intensidades dos pixels para um intervalo que melhora a extração de recursos. Isso é particularmente útil quando emparelhado com modelos como Redes Neurais Convolucionais (CNNs).

Exemplos do mundo real

Exemplo 1: Análise de sentimentos

Na análise de sentimentos de texto, a Tanh é utilizada em redes RNN ou redes de memória de curto prazo (LSTM) para modelar a polaridade das emoções, captando sentimentos positivos e negativos. A natureza centrada no zero da função ajuda a distinguir eficazmente entre sentimentos opostos.

Exemplo 2: Veículos autónomos

No contexto dos sistemas de veículos autónomos, a Tanh pode ser utilizada em camadas de redes neurais que processam dados de sensores. Por exemplo, pode normalizar as leituras dos sensores, como os sinais LiDAR, para ter em conta os desvios positivos e negativos de um ponto de referência.

Tanh Vs. Sigmoid e ReLU

Embora Tanh partilhe semelhanças com a função Sigmoide, oferece uma gama mais ampla (-1 a 1) em comparação com a Sigmoide (0 a 1). Isso torna a Tanh mais adequada para tarefas que exigem saídas centradas em zero. No entanto, para redes profundas, a Unidade Linear Retificada (ReLU) é frequentemente preferida devido à sua simplicidade e à ausência de problemas de gradiente de desaparecimento.

Principais diferenças:

  • Tanh vs. Sigmoide: Tanh é centrado em zero, enquanto Sigmoid não é. Isso pode tornar Tanh mais eficaz em redes em que são necessários gradientes equilibrados.
  • Tanh vs. ReLU: ReLU é computacionalmente eficiente e evita o desaparecimento de gradientes, mas não acomoda valores negativos, ao contrário de Tanh.

Desafios e limitações

Um dos principais desafios do uso de Tanh é o problema do gradiente de desaparecimento, que pode ocorrer quando a função satura em valores de entrada extremos. Isso é particularmente problemático em redes profundas, onde a otimização baseada em gradiente se torna menos eficaz. Para resolver esse problema, podem ser usadas funções de ativação alternativas, como ReLU ou Leaky ReLU.

Conceitos relacionados

A função Tanh continua a ser uma função de ativação versátil e eficaz para muitas aplicações de aprendizagem automática, em especial as que requerem resultados que abrangem intervalos negativos e positivos. Embora as funções de ativação mais recentes resolvam algumas das suas limitações, o seu papel no avanço das primeiras arquitecturas de aprendizagem profunda não pode ser subestimado. Para uma forma fácil e prática de experimentar funções de ativação como a Tanh, explora o Ultralytics HUB para treinar e implementar modelos sem problemas.

Lê tudo