Optimiza o teu modelo Ultralytics YOLOv8 para inferência utilizando OpenVINO. Segue o nosso guia para converter modelos PyTorch para ONNX e optimizá-los para aplicações em tempo real.
Neste post do blogue, vamos ver como podes exportar e otimizar o teu modelo pré-treinado ou personalizado Ultralytics YOLOv8 para inferência usando OpenVINO. Se estiveres a utilizar um sistema baseado em Intel, quer seja um CPU ou GPU, este guia mostrar-te-á como acelerar significativamente o teu modelo com um esforço mínimo.
A otimização do teu modelo YOLOv8 com OpenVINO pode proporcionar um aumento de velocidade de até 3x nas tarefas de inferência, especialmente se estiveres a executar um Intel CPU . Este aumento de desempenho pode fazer uma enorme diferença em aplicações em tempo real, desde a deteção de objectos à segmentação e sistemas de segurança.
Antes de mais nada, vamos analisar o processo. Vamos converter um modelo PyTorch para ONNX e depois optimizá-lo utilizando OpenVINO. Este processo envolve alguns passos simples e pode ser aplicado a vários modelos e formatos, incluindo TensorFlow, PyTorch, Caffe e ONNX.
Ao consultar adocumentação Ultralytics , descobrimos que a exportação de um modelo YOLOv8 envolve a utilização do método de exportação da estrutura Ultralytics . Este método permite-nos converter o nosso modelo de PyTorch para ONNXe, finalmente, otimiza-o para OpenVINO. O resultado é um modelo que roda significativamente mais rápido, aproveitando o poderoso hardware do Intel.
Antes de executar o script de exportação, tens de garantir que todas as dependências necessárias estão instaladas. Estas incluem a biblioteca Ultralytics , ONNX, e OpenVINO. Instalar estes pacotes é um processo simples que pode ser feito através do pip, o instalador de pacotes Python .
Quando o teu ambiente estiver configurado, podes executar o teu script de exportação. Esse script converterá o modelo PyTorch para ONNX e, em seguida, para OpenVINO. O processo é simples e envolve a chamada de uma única função para tratar da exportação. A estrutura Ultralytics facilita a conversão e a otimização dos modelos, garantindo o melhor desempenho com o mínimo de problemas.
Após a exportação, é essencial comparar o desempenho dos modelos original e optimizado. Ao comparar o tempo de inferência de ambos os modelos, podes ver claramente os ganhos de desempenho. Normalmente, o modelo OpenVINO mostrará uma redução significativa no tempo de inferência em comparação com o modelo PyTorch original. Isso é especialmente verdadeiro para modelos maiores, onde o aumento de desempenho é mais percetível.
A otimização dos modelos YOLOv8 com OpenVINO é particularmente vantajosa para as aplicações que requerem um processamento em tempo real. Eis alguns exemplos:
Ao implementar estas optimizações, não só melhora o desempenho, como também aumenta a fiabilidade e a eficiência das suas aplicações. Isto pode levar a melhores experiências de utilizador, maior produtividade e soluções mais inovadoras.
Exportar e otimizar um modelo YOLOv8 para OpenVINO é uma forma poderosa de tirar partido do hardware Intel para aplicações de IA mais rápidas e eficientes. Com apenas alguns passos simples, podes transformar o desempenho do teu modelo e aplicá-lo a cenários do mundo real de forma eficaz.
Não te esqueças de consultar mais tutoriais e guias de Ultralytics para continuares a melhorar os teus projectos de IA. Visita o nosso repositório GitHub e junta-te à comunidade Ultralytics para obteres mais informações e actualizações. Vamos inovar juntos!
Lembra-te, otimizar os teus modelos não tem apenas a ver com velocidade - tem a ver com desbloquear novas possibilidades e garantir que as tuas soluções de IA são robustas, eficientes e estão prontas para o futuro.
Começa a tua viagem com o futuro da aprendizagem automática