Optimiza os modelos de aprendizagem automática com a poda de modelos. Obtém inferência mais rápida, uso reduzido de memória e eficiência energética para implantações com recursos limitados.
A poda de modelos é uma técnica de aprendizagem automática (ML) utilizada para otimizar modelos treinados, reduzindo o seu tamanho e complexidade. Isto envolve a identificação e remoção de parâmetros menos importantes, tais como pesos de modelos ou ligações dentro de uma rede neural (NN), que contribuem minimamente para o desempenho global do modelo. O objetivo principal é criar modelos mais pequenos e mais rápidos que exijam menos potência computacional e memória, muitas vezes sem uma diminuição significativa da precisão. Este processo é uma aplicação específica do conceito mais amplo de poda aplicado diretamente aos modelos de ML, tornando-os mais eficientes para a implementação.
O principal fator para a poda de modelos é a eficiência. Os modelos modernos de aprendizagem profunda (DL), especialmente em domínios como a visão computacional (CV), podem ser extremamente grandes e computacionalmente intensivos. Isto coloca desafios à implementação de modelos, especialmente em dispositivos com recursos limitados, como smartphones, sistemas incorporados ou em cenários de computação de ponta. A poda de modelos ajuda a resolver esses problemas ao:
As técnicas de poda de modelos variam, mas geralmente dividem-se em categorias baseadas na granularidade do que é removido:
A poda pode ocorrer depois de o modelo estar totalmente treinado ou ser integrada no processo de treino. Após a poda, os modelos são normalmente submetidos a um ajuste fino (mais treino na arquitetura mais pequena) para recuperar qualquer desempenho perdido durante a remoção de parâmetros. Estruturas como PyTorch fornecem utilitários para implementar vários métodos de poda, como mostrado no Tutorial de podaPyTorch .
A poda de modelos é útil em muitos domínios da IA:
A poda de modelos é uma das várias técnicas utilizadas para a otimização de modelos. É diferente de, mas muitas vezes complementar a:
Estas técnicas podem ser combinadas; por exemplo, um modelo pode ser podado primeiro e depois quantizado para obter a máxima eficiência. Os modelos optimizados são frequentemente exportados para formatos padrão como ONNXUltralytics opções de exportaçãoUltralytics ) para ampla compatibilidade de implantação. Plataformas como o Ultralytics HUB fornecem ambientes para gerenciar modelos, conjuntos de dados(como COCO) e simplificar o caminho para a implantação otimizada.