术语表

量化感知训练(QAT)

利用量化感知训练(QAT)优化边缘设备的人工智能模型,确保在资源有限的环境中实现高精度和高效率。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

量化感知训练(QAT)是机器学习中的一项重要优化技术,它在高精度人工智能模型与在资源有限的设备上高效部署模型之间架起了一座桥梁。随着人工智能应用扩展到智能手机、物联网传感器和嵌入式系统等边缘设备,对既精确又具有计算效率的模型的需求变得至关重要。QAT 通过在模型训练阶段模拟量化的影响来应对这一挑战,从而建立稳健且针对低精度硬件进行了优化的模型。

量化感知训练的工作原理

量化感知训练(Quantization-Aware Training)可改进神经网络,使其能够承受部署环境中固有的数字精度降低。与在模型完全训练完成后进行的训练后量化不同,QAT 将量化整合到了训练循环本身。这是通过模拟量化过程(降低权重和激活的数值精度)来实现的。这样,模型就能学会补偿精度损失,从而在实际量化部署时保持更高的精度。这种方法包括使用 "假量化 "操作,模仿低精度算术(如 int8),同时仍以全精度执行梯度计算和权重更新。这种方法可以让模型适应量化效应,降低对量化效应的敏感度,从而提高量化推理的性能。

如需更广泛地了解优化技术,请参阅模型优化指南,其中快速概述了提高模型效率的方法。

与相关概念的区别

QAT 与模型量化

虽然 QAT 和模型量化的目的都是降低模型精度,但它们的方法和结果却大相径庭。模型量化通常是一种后训练过程,它将经过训练的全精度模型转换为较低精度格式(如 INT8),以减小模型大小并加快推理速度。这种方法简单直接,但有时会导致精确度大幅下降,尤其是对于复杂模型。相比之下,QAT 会在训练过程中主动为量化模型做好准备,从而减少精度损失,在低精度环境中往往能获得更出色的性能。

QAT 与混合精度

混合精度训练是另一种优化技术,主要用于加速训练过程和减少训练过程中的内存占用。它包括在网络中同时使用 16 位和 32 位浮点数。混合精度主要针对训练效率,而 QAT 则专门用于提高量化后模型的性能,重点关注低精度部署情况下的推理效率和准确性。

QAT 的实际应用

量化感知训练(Quantization-Aware Training)对于在资源效率至关重要的实际应用中部署人工智能模型至关重要。下面是几个例子:

示例 1:智能设备中的边缘人工智能

在智能手机和物联网设备等智能设备中,计算资源和功率是有限的。QAT 广泛用于优化边缘人工智能应用的模型,可直接在设备上进行实时处理。例如,最先进的物体检测模型Ultralytics YOLO 可通过 QAT 进行优化,以确保在智能家居安防系统或人工智能驱动的摄像头等应用中实现高效的实时物体检测。通过减少模型大小和计算需求,QAT 使得在处理能力有限的设备上运行复杂的人工智能任务变得可行。

示例 2:自动驾驶汽车和机器人技术

自动驾驶汽车和机器人技术要求人工智能系统能够在严格的延迟和功耗限制条件下快速做出决策。在这些应用中,QAT 在优化嵌入式系统部署模型方面发挥着至关重要的作用。例如,将 QAT 应用于 Ultralytics YOLOv8模型可以大大提高车辆检测和行人跟踪系统的效率,这对自动驾驶中的实时决策至关重要。这种优化可确保人工智能在车辆硬件的功率和计算限制范围内有效运行。

欲了解Ultralytics 解决方案如何应用于各行各业,请访问Ultralytics 解决方案

阅读全部