Glossário

Quantização do modelo

Otimiza modelos de aprendizagem profunda com quantização de modelos. Aumenta a eficiência, a velocidade e a economia de energia em dispositivos com recursos limitados. Aprende mais agora!

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

A quantização de modelos é uma técnica de otimização crucial no domínio da inteligência artificial e da aprendizagem automática, concebida para reduzir o tamanho e melhorar a eficiência dos modelos de aprendizagem profunda. Envolve a conversão dos pesos e activações de um modelo de alta precisão, normalmente ponto flutuante de 32 bits, para formatos de menor precisão, como inteiros de 16 bits ou mesmo de 8 bits.

Porque é que a quantização de modelos é importante

À medida que os modelos de IA crescem em complexidade e tamanho, exigem mais recursos computacionais e memória, o que coloca desafios significativos, especialmente em ambientes de computação de ponta, onde os recursos são limitados. A quantização de modelos ajuda a enfrentar esses desafios ao:

  • Reduz o tamanho do modelo: A quantização diminui significativamente o espaço de memória dos modelos, permitindo a implantação em dispositivos com memória restrita, como smartphones e dispositivos de borda. Esta eficiência é crucial para aplicações em veículos autónomos e dispositivos IoT, conforme discutido no nosso guia Edge Computing.

  • Aumenta a velocidade de inferência: Os cálculos de menor precisão requerem menos poder de processamento, resultando em tempos de inferência mais rápidos. Este aumento de velocidade é vital para aplicações em tempo real, como a vigilância por vídeo e a condução autónoma, conforme explorado em Condução Autónoma.

  • Aumenta a eficiência energética: Os dispositivos podem processar modelos quantizados com um consumo de energia reduzido, essencial para dispositivos que funcionam com bateria.

Técnicas de Quantização de Modelos

A quantização de modelos pode ser aplicada em diferentes níveis, incluindo:

  • Quantização de pesos: Converte os pesos do modelo para uma precisão menor, alcançando um equilíbrio entre o tamanho do modelo e a precisão.
  • Quantização da ativação: Reduzir a precisão das activações durante a inferência, o que é benéfico para a redução do tamanho e da computação.

Exemplos de Quantização de Modelos em Ação

  1. Aplicações móveis: Os modelos quantizados são utilizados em aplicações para smartphones para tradução de línguas em tempo real e processamento de imagens, onde é necessário efetuar operações rápidas e eficientes com recursos de hardware limitados.

  2. Veículos autónomos: Nos veículos autónomos, a tomada de decisões em tempo real é fundamental. A quantização permite que os modelos de IA sejam executados de forma eficiente em sistemas incorporados, facilitando tempos de reação mais rápidos e uma navegação mais segura. Saiba mais sobre essa aplicação em Carros autônomos.

Diferenciar a Quantização de Modelos dos Conceitos Relacionados

  • Poda de modelos: Enquanto a quantização se concentra na redução da precisão, o Model Pruning envolve a remoção de pesos ou neurónios desnecessários para simplificar um modelo.

  • Precisão mista: O conceito de precisão mista envolve a utilização de várias precisões num único modelo para melhorar o desempenho e a eficiência sem comprometer a exatidão.

Aplicações e benefícios no mundo real

  • Retalho: A implementação de modelos quantizados no retalho permite o reconhecimento eficiente de produtos e a gestão de inventários, proporcionando às empresas soluções de IA mais rápidas e escaláveis.

  • Cuidados de saúde: Na área da saúde, os modelos quantizados são utilizados para imagiologia e diagnóstico médico, em que a velocidade e a precisão são da maior importância.

No geral, a quantização de modelos é uma ferramenta essencial para o avanço das tecnologias de IA, permitindo que sejam mais acessíveis e eficientes em diversas plataformas e indústrias. Explora como os modelos Ultralytics YOLO incorporam técnicas de quantização para um desempenho optimizado no nosso guia.

Lê tudo