Glossário

GPU (Unidade de processamento gráfico)

Descobre como as GPUs revolucionam a IA e a aprendizagem automática, acelerando a aprendizagem profunda, optimizando os fluxos de trabalho e permitindo aplicações do mundo real.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

Uma Unidade de Processamento GráficoGPU) é um circuito eletrónico especializado, inicialmente concebido para acelerar a criação e a renderização de imagens, vídeos e animações. Embora as GPUs tenham tido origem nas indústrias dos jogos e do design gráfico, a sua arquitetura única tornou-as ferramentas indispensáveis na Inteligência Artificial (IA) e na Aprendizagem Automática (AM) modernas. As GPUs possuem milhares de núcleos de processamento que funcionam em paralelo, o que lhes permite processar grandes quantidades de cálculos em simultâneo. Esta capacidade é excecionalmente adequada para as tarefas computacionalmente exigentes encontradas nos algoritmos de aprendizagem profunda, permitindo uma formação de modelos mais rápida e uma inferência eficiente em tempo real. Compreender a evolução da GPU fornece um contexto para o seu papel atual na IA.

Importância da IA e da aprendizagem automática

As capacidades de processamento paralelo das GPUs são um catalisador primário para os recentes avanços na IA. O treino de redes neurais profundas envolve o processamento de enormes conjuntos de dados e a realização de inúmeras operações matemáticas complexas, como multiplicações de matrizes. As GPUs são excelentes nessas operações, reduzindo drasticamente o tempo necessário para treinar modelos em comparação com as Unidades Centrais de Processamento (CPUs) tradicionais. Esta aceleração permite aos investigadores e programadores na área do desenvolvimento de IA iterar mais rapidamente, experimentar modelos maiores e mais complexos e alcançar uma maior precisão em tarefas como a deteção de objectos e a segmentação de imagens.

Eis dois exemplos de GPUs em aplicações de IA/ML do mundo real:

  1. Deteção de objectos em tempo real: Os modelosYOLO Ultralytics , conhecidos pela sua velocidade e eficiência, dependem fortemente das GPUs para efetuar a deteção de objectos em tempo real para aplicações como a condução autónoma, a vigilância de segurança(melhorando os sistemas de segurança) e a robótica. A natureza paralela das GPUs permite que esses modelos processem quadros de vídeo rapidamente e identifiquem com precisão vários objetos simultaneamente. Explora as diversas aplicaçõesYOLO11 possibilitadas pela aceleração GPU .
  2. Treino de grandes modelos: O treinamento de grandes modelos de linguagem (LLMs) ou de modelos complexos de visão computacional geralmente requer um poder computacional significativo, frequentemente acessado por meio de plataformas de computação em nuvem. Serviços como o Ultralytics HUB Cloud Training utilizam poderosos clusters de GPU de fornecedores como AWS, Google Cloud e Azure para treinar modelos em vastos conjuntos de dados para tarefas que vão desde o processamento de linguagem natural (PNL) até à análise avançada de imagens médicas.

Principais diferenças em relação às CPUs e TPUs

Embora as GPUs, CPUs e Unidades de ProcessamentoTensor (TPUs) sejam todos tipos de processadores, eles têm diferentes pontos fortes e são otimizados para diferentes tarefas:

  • CPU (Unidade Central de Processamento): Concebida para computação de uso geral, destacando-se em tarefas sequenciais e na gestão de operações do sistema. As CPUs têm alguns núcleos poderosos otimizados para baixa latência. Vê uma visão geralCPU vs GPU .
  • GPU (Unidade de Processamento Gráfico): Otimizada para operações paralelas com milhares de núcleos mais simples. Ideal para tarefas que podem ser divididas e processadas simultaneamente, como renderização de gráficos e treinamento de modelos de aprendizagem profunda. O desempenho medido geralmente envolve métricas como FLOPS.
  • TPU (Unidade de ProcessamentoTensor ): O Circuito Integrado Específico de Aplicação (ASIC) personalizado da Google, criado especificamente para acelerar as cargas de trabalho de aprendizagem automática utilizando o TensorFlow TensorFlow. São altamente otimizados para operações de matriz em grande escala, comuns em redes neurais. Sabe mais nos detalhes da TPU daGoogle.

As GPUs conseguem um equilíbrio entre alto desempenho para tarefas de processamento paralelo e versatilidade em várias aplicações, tornando-as uma escolha popular para muitas cargas de trabalho de IA e computação de alto desempenho (HPC).

Ecossistema e utilização

A adoção generalizada de GPUs na IA é apoiada por ecossistemas de software robustos. Os principais fabricantes, como a NVIDIA e a AMD fornecem GPUs adequadas para tarefas de IA. NVIDIA tecnologia CUDA (Compute Unified Device Architecture) da NVIDIA é uma plataforma de computação paralela e um modelo de programação amplamente utilizados para GPUs NVIDIA . Estruturas de aprendizagem profunda, como o PyTorch e TensorFlow são otimizados para aproveitar a aceleração GPU . A configuração de ambientes para desenvolvimento GPU pode ser simplificada usando ferramentas de conteinerização como o Docker; consulta oguia de início rápido do Ultralytics Docker para obter instruções de configuração. A implantação eficiente de modelos geralmente envolve a otimização de modelos para serem executados com eficiência no hardware GPU de destino. Explora várias soluçõesUltralytics que aproveitam o poder GPU .

Lê tudo