术语表

激活功能

了解激活函数在神经网络中的作用、类型以及在人工智能和机器学习中的实际应用。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

在神经网络中,激活函数是将非线性引入模型输出的重要组成部分。这些函数根据神经元输入的加权和加上偏置来决定是否激活神经元。如果没有激活函数,神经网络将只是一个线性模型,无法完成复杂的任务,如图像识别、自然语言处理和其他高级人工智能应用。激活函数使网络能够学习数据中的复杂模式和关系,是深度学习模型的基本组成部分。

激活功能的类型

神经网络中使用的激活函数有多种类型,各有优缺点。最常用的激活函数包括

  • 西格码 sigmoid 激活函数的输出值介于 0 和 1 之间,因此适用于二元分类问题。不过,它可能会出现梯度消失问题,即梯度变得非常小,从而减慢深度网络的学习速度。
  • Tanh(双曲正切):与 sigmoid 函数类似,tanh的输出值介于 -1 和 1 之间。它以零为中心,与 sigmoid 函数相比有助于加快学习速度。不过,它也存在梯度消失问题。
  • ReLU(整流线性单元)ReLU因其简单有效而成为最受欢迎的激活函数之一。如果输入为正值,它将直接输出;反之,则输出为零。ReLU 有助于缓解梯度消失问题,并加快训练速度。
  • Leaky ReLULeaky ReLU是 ReLU 的一种变体,当输入为负值时,允许有一个非零的小梯度。这有助于解决 "垂死 ReLU "问题,即神经元被卡住并停止学习。
  • 软最大 软最大激活函数通常用于神经网络的输出层,以解决多类分类问题。它将任意实值向量转换为概率分布,其中每个元素代表一个特定类别的概率。
  • SiLU(西格玛线性单元)SiLU也被称为 Swish,是一种激活函数,由于其平滑、非单调的特性,在线性和非线性之间取得了平衡,因此广受欢迎。
  • GELU(高斯误差线性单元)GELU是另一种先进的激活函数,它引入了概率正则化,在各种深度学习任务中都很有效。

在神经网络中的作用

激活函数在帮助神经网络学习和模拟复杂的非线性关系方面发挥着至关重要的作用。通过引入非线性,激活函数允许网络逼近任何连续函数,这一特性被称为通用逼近定理。这种能力对于图像分类物体检测自然语言处理等任务至关重要,因为在这些任务中,输入和输出之间的关系往往非常复杂。

实际应用

激活函数广泛应用于现实世界的人工智能和机器学习应用中。下面是两个具体例子:

  1. 医疗保健中的图像识别:在医学成像中,卷积神经网络 (CNN)使用 ReLU 及其变体等激活函数来检测 X 射线、核磁共振成像和 CT 扫描中的异常并进行分类。例如,经过训练的 CNN 可以高精度地识别肿瘤或骨折。激活函数的非线性特性使网络能够学习医学图像中错综复杂的模式,从而进行精确诊断并改善患者的治疗效果。了解更多有关人工智能在医疗保健领域的应用
  2. 客户服务中的自然语言处理:Tanh和Softmax等激活函数用于递归神经网络(RNN)变压器,为聊天机器人和虚拟助理提供动力。这些模型可以理解和生成类似人类的文本,使它们能够处理客户咨询、提供支持和自动回复。激活函数为复杂语言模式建模的能力对于创建反应灵敏的智能对话代理至关重要。了解有关虚拟助理的更多信息。

与相关术语的比较

激活函数有时会与神经网络的其他组成部分相混淆。以下是一些主要区别:

  • 损失函数激活函数在网络中引入非线性,而损失函数则测量预测输出与实际目标之间的差异。损失函数可指导优化过程,帮助网络调整权重以提高准确性。
  • 优化算法梯度下降亚当优化算法用于通过更新网络权重来最小化损失函数。激活函数决定神经元的输出,而优化算法则决定网络如何从数据中学习。
  • 正常化:归一化技术(如批量归一化)用于规范网络内各层的输入,有助于稳定和加快训练速度。虽然归一化和激活函数都对层的输出进行操作,但归一化并不引入非线性,它只是对输入进行缩放和移动。

对于使用神经网络和深度学习模型的人来说,了解激活函数的作用和类型至关重要。通过适当选择和应用激活函数,从业人员可以在广泛的应用中提高人工智能模型的性能和能力。激活函数是深度学习工具包中的一个基本组成部分,使人工智能能够解决复杂问题并推动创新。有关人工智能和计算机视觉术语的更多信息,请访问Ultralytics 词汇表

阅读全部