Glossário

Formação sensível à quantização (QAT)

Otimiza os modelos de IA para dispositivos de ponta com o treinamento com reconhecimento de quantização (QAT), garantindo alta precisão e eficiência em ambientes com recursos limitados.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

O treino sensível à quantização (QAT) é uma técnica de otimização crucial na aprendizagem automática que preenche a lacuna entre modelos de IA de elevada precisão e a sua implementação eficiente em dispositivos com recursos limitados. À medida que as aplicações de IA se expandem para dispositivos de ponta como smartphones, sensores IoT e sistemas incorporados, a necessidade de modelos que sejam precisos e computacionalmente eficientes torna-se fundamental. O QAT aborda esse desafio simulando os efeitos da quantização durante a fase de treinamento do modelo, levando a modelos que são robustos e otimizados para hardware de baixa precisão.

Como funciona o treino sensível à quantização

O treinamento com reconhecimento de quantização refina as redes neurais para tolerar a precisão numérica reduzida inerente aos ambientes de implantação. Ao contrário da quantização pós-treinamento, que é aplicada depois que um modelo é totalmente treinado, o QAT integra a quantização no próprio loop de treinamento. Isto é conseguido através da simulação do processo de quantização - reduzindo a precisão numérica dos pesos e activações - durante as passagens para a frente e para trás. Ao fazê-lo, o modelo aprende a compensar a perda de precisão, resultando num modelo que mantém uma maior precisão quando é efetivamente quantizado para implementação. Esse método envolve o uso de operações de "quantização falsa" que imitam a aritmética de baixa precisão, como int8, enquanto ainda realiza cálculos de gradiente e atualizações de peso com precisão total. Esta abordagem permite que o modelo se adapte e se torne menos sensível aos efeitos da quantização, levando a um melhor desempenho na inferência quantizada.

Para uma compreensão mais ampla das técnicas de otimização, consulta o guia sobre otimização de modelos, que fornece uma visão geral rápida dos métodos para melhorar a eficiência do modelo.

Distinção de conceitos relacionados

QAT vs. Quantização de modelos

Embora tanto a QAT como a quantização de modelos tenham como objetivo reduzir a precisão do modelo, as suas abordagens e resultados diferem significativamente. A quantização de modelos é normalmente um processo pós-treinamento que converte um modelo treinado de precisão total num formato de precisão inferior (como INT8) para diminuir o tamanho do modelo e acelerar a inferência. Esse método é simples, mas às vezes pode levar a uma queda considerável na precisão, especialmente para modelos complexos. O QAT, pelo contrário, prepara proactivamente o modelo para quantização durante o treino, atenuando assim a perda de precisão e obtendo frequentemente um desempenho superior em ambientes de baixa precisão.

QAT vs. Precisão mista

O treinamento de precisão mista é outra técnica de otimização focada na aceleração do processo de treinamento e na redução do espaço de memória durante o treinamento. Envolve o uso de números de ponto flutuante de 16 bits e 32 bits na rede. Enquanto a precisão mista visa principalmente a eficiência do treinamento, o QAT foi projetado especificamente para melhorar o desempenho dos modelos após a quantização, concentrando-se na eficiência e precisão da inferência em cenários de implantação de baixa precisão.

Aplicações reais do QAT

O treinamento com reconhecimento de quantização é essencial para implantar modelos de IA em aplicações do mundo real em que a eficiência de recursos é crítica. Aqui tens alguns exemplos:

Exemplo 1: IA de ponta em dispositivos inteligentes

Em dispositivos inteligentes, como smartphones e dispositivos IoT, os recursos computacionais e a potência são limitados. O QAT é amplamente utilizado para otimizar modelos para aplicações de IA de ponta, permitindo o processamento em tempo real diretamente no dispositivo. Por exemplo, Ultralytics YOLO , um modelo de deteção de objectos de última geração, pode ser optimizado utilizando o QAT para garantir uma deteção eficiente de objectos em tempo real em aplicações como sistemas de segurança domésticos inteligentes ou câmaras alimentadas por IA. Ao reduzir o tamanho do modelo e as exigências computacionais, o QAT torna viável a execução de tarefas complexas de IA em dispositivos com capacidades de processamento limitadas.

Exemplo 2: Veículos autónomos e robótica

Os veículos autónomos e a robótica requerem sistemas de IA que possam tomar decisões rápidas sob rigorosas restrições de latência e energia. O QAT desempenha um papel vital na otimização de modelos para implementação em sistemas incorporados nestas aplicações. Por exemplo, a aplicação de QAT a modelos Ultralytics YOLOv8 pode melhorar significativamente a eficiência dos sistemas de deteção de veículos e de localização de peões, que são cruciais para a tomada de decisões em tempo real na condução autónoma. Esta otimização garante que a IA pode funcionar eficazmente dentro das limitações de potência e computacionais do hardware do veículo.

Para explorar a forma como as soluções Ultralytics são aplicadas em vários sectores, visita Ultralytics Solutions.

Lê tudo