深圳Yolo 视觉
深圳
立即加入
词汇表

反向传播

探索反向传播算法的基础原理。了解这一核心算法如何训练神经网络、Ultralytics ,并为现代人工智能系统提供强大支持。

反向传播(Backpropagation)是"误差反向传播"的简称,作为现代人工智能系统从数据中学习的核心算法,它在模型训练过程中扮演着数学信使的角色,精确计算神经网络中每个参数对错误预测的贡献程度。 通过计算损失函数对每个权重的梯度, 反向传播提供了必要的反馈机制,使网络能够自我调整 并逐步提升预测精度。若无这种高效的导数计算方法, 训练深度复杂模型在计算上将难以实现。

学习机制

要理解反向传播,将其视为循环过程的一部分会有所帮助。当神经网络处理图像或文本时,它会执行"前向传播"以生成预测结果。随后系统通过损失函数将该预测与正确答案进行比较,从而量化误差。

反向传播从输出层开始,逆向遍历网络各层。它运用微积分中的链式法则计算梯度。这些梯度实质上向系统传达指令:"为降低误差,需微调此权重"或"大幅降低该偏置"。此类信息对深度架构至关重要,例如卷积神经网络(CNNs)——该架构需同时精细调整数百万参数。 卷积神经网络(CNNs),这类网络中数百万参数需同时进行精细调整。

反向传播与优化

初学者常将反向传播与优化步骤混为一谈,但它们是训练循环中截然不同的过程。

  • 反向传播是一种诊断工具。它通过计算梯度,有效地绘制出一幅 图,显示误差景观的斜率。它能回答 "我们应该向哪个方向移动才能减少误差? 减少误差?
  • 优化就是行动。算法包括 随机梯度下降算法(SGDAdam 优化器等算法利用反向传播提供的梯度 并更新权重。如果说反向传播是一张地图,那么优化器就是一个徒步旅行者。 步。

人工智能在现实世界中的应用

反向传播是支撑几乎所有现代人工智能成就的核心机制,它使模型能够从训练数据中进行泛化,从而处理新的、未见过的输入。

  • 计算机视觉:使用YOLO26等模型的物体检测任务中, 反向传播使网络能够学习空间层次结构。 它帮助模型理解某些边缘构成形状, 而这些形状又形成物体—— 例如汽车或行人。展望未来, Ultralytics 将运用这些训练技术, 协助用户创建定制模型, 精准识别制造业中的缺陷, 或监测农业中的作物健康状况。
  • 自然语言处理(NLP):对于 大型语言模型(LLMs)——例如 OpenAI开发的模型——反向传播机制使系统能够学习 句子中下一个单词出现的概率。通过将错误从不准确的文本预测中传播,模型能够学习 微妙的语法和语境,这对机器翻译等应用至关重要。

深度网络中的挑战

尽管强大,该算法在深度网络中仍面临挑战。当梯度向后传播时变得过小,就会出现梯度消失问题,导致早期层停止学习。相反,梯度爆炸则涉及梯度累积至极不稳定的数值。通常采用批量归一化等技术以及ResNet等专用架构来缓解这些问题。

Python 代码示例

虽然高级库,如 ultralytics 在训练过程中抽象出这个过程,其底层机制 PyTorch 使您能够直接观察该机制。 .backward() 该方法触发反向传播过程,计算tensor 导数tensor requires_grad=True.

import torch

# Create a tensor that tracks operations for backpropagation
w = torch.tensor([2.0], requires_grad=True)
x = torch.tensor([3.0])

# Forward pass: compute prediction and loss (simple example)
# Let's assume the target value is 10.0
loss = (w * x - 10.0) ** 2

# Backward pass: This command executes backpropagation
loss.backward()

# The gradient is now stored in w.grad, showing how to adjust 'w'
# This tells us the slope of the loss with respect to w
print(f"Gradient (dL/dw): {w.grad.item()}")

更多阅读

要理解反向传播在人工智能发展大局中的定位,探索数据增强的概念大有裨益——它为算法有效泛化提供了必要的多元化样本。此外,掌握评估训练成效的具体指标均值平均mAP),有助于解读反向传播过程对模型优化的效果。 若需深入理论探讨, 斯坦福大学CS231n课程讲义提供了 相关微积分运算的精妙技术解析。

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入