探索神经网络中 Tanh 激活函数的强大功能。了解它如何使人工智能以零中心效率为复杂数据建模!
Tanh 或双曲切线是人工智能(AI)和机器学习(ML)中广泛使用的激活函数,尤其是在神经网络(NN)中。与Sigmoid 函数类似,Tanh 也呈 S 形(sigmoidal),但它将输入值映射到-1 和 1 之间的范围。与其他激活函数一样,Tanh 将非线性引入网络,使深度学习(DL)模型能够学习线性模型无法捕捉的数据中的复杂模式和关系。它源于数学中的双曲正切函数。
Tanh 函数接收任何实值输入,并将其压扁到(-1,1)的范围内。接近零的输入会产生接近零的输出。大的正输入会产生接近 1 的输出,而大的负输入则会产生接近 -1 的输出。与 Sigmoid 函数(输出介于 0 和 1 之间)相比,它以零为中心的特性通常被认为是一种优势,因为它可以帮助梯度下降等优化算法在模型训练过程中更快地收敛。这是因为在反向传播过程中传回的梯度更有可能具有平衡的正负值,从而可能导致模型权重的更新更加稳定。
优势
缺点
Tanh 在历史上一直很受欢迎,尤其是在以下地区:
虽然现代架构,如 Ultralytics YOLO等现代架构通常利用 SiLU 等函数来完成物体检测等任务,但了解 Tanh 仍然很有价值。它为激活函数的发展提供了背景,并可能仍然出现在特定的网络设计或传统系统中。像 PyTorch和 TensorFlow等框架提供了 Tanh 的实现。您可以使用Ultralytics HUB 等平台对不同的激活函数进行训练和实验。