Glossário

GPU (Unidade de processamento gráfico)

Descubra como as GPUs revolucionam a IA e a aprendizagem automática, acelerando a aprendizagem profunda, optimizando os fluxos de trabalho e permitindo aplicações do mundo real.

Uma unidade de processamento gráfico (GPU) é um circuito eletrónico especializado, originalmente concebido para acelerar a criação e a apresentação de imagens, vídeos e animações para visualização. No entanto, a sua arquitetura altamente paralela torna-a excecionalmente eficiente no processamento simultâneo de grandes blocos de dados. Esta capacidade fez das GPUs o cavalo de batalha da inteligência artificial (IA) e da aprendizagem automática (ML) modernas, acelerando drasticamente o tempo necessário para treinar modelos complexos e permitindo o desenvolvimento de soluções de IA mais sofisticadas.

O papel das Gpus na IA e na aprendizagem automática

O poder de uma GPU na IA deriva da sua capacidade de efetuar muitos milhares de cálculos ao mesmo tempo, um conceito conhecido como processamento paralelo. Os modelos de aprendizagem profunda, como as redes neurais convolucionais (CNN), são construídos com base em operações matemáticas que podem ser divididas em milhares de tarefas mais pequenas e independentes. A investigação seminal, como o documento sobre a arquitetura AlexNet, demonstrou a eficácia da formação de CNNs em GPUs.

Uma GPU, com os seus milhares de núcleos, pode executar estas tarefas em paralelo, reduzindo drasticamente o tempo de computação para o treino de modelos de semanas ou meses para apenas dias ou horas. Esta aceleração é crucial para a iteração de modelos, para a experimentação de diferentes arquitecturas e para a realização de uma extensa afinação de hiperparâmetros. O desempenho destes processadores é frequentemente medido em FLOPS (Floating-Point Operations Per Second).

Principais diferenças entre Cpus e Tpus

Embora GPUs, CPUs e Unidades de Processamento Tensorial (TPUs) sejam todos tipos de processadores, eles são otimizados para diferentes tipos de tarefas:

As GPUs oferecem um poderoso equilíbrio entre elevado desempenho para tarefas paralelas e flexibilidade para uma vasta gama de aplicações, tornando-as a escolha preferida de muitos programadores de IA.

Aplicações no mundo real

O impacto da aceleração da GPU é evidente em inúmeras aplicações de IA. Aqui estão dois exemplos proeminentes:

  1. Veículos autónomos: Os carros autónomos dependem de um conjunto de sensores para perceber o seu ambiente. As GPUs são essenciais para processar fluxos maciços de dados de câmaras e LiDAR em tempo real. Elas alimentam modelos de deteção de objetos, como o Ultralytics YOLO11, para identificar pedestres, outros veículos e sinais de trânsito, permitindo que o veículo tome decisões críticas de direção instantaneamente. Este é um componente essencial da IA moderna nas soluções para automóveis.
  2. Análise de imagens médicas: Nos cuidados de saúde, as GPUs aceleram a análise de exames médicos complexos, como ressonâncias magnéticas e tomografias computorizadas. Conforme detalhado em revistas como a Nature Reviews Clinical Oncology, o papel da IA na radiologia está a crescer. Os modelos executados em GPUs podem realizar tarefas como a segmentação de imagens para delinear tumores com alta precisão, ajudando os radiologistas a fazer diagnósticos mais rápidos e precisos. Esta tecnologia é uma pedra angular da IA moderna nos cuidados de saúde e é utilizada para aplicações como a deteção de tumores em imagens médicas.

Ecossistema e utilização

A ampla adoção de GPUs na IA é reforçada por um ecossistema maduro e robusto. A plataforma CUDA da NVIDIA é uma estrutura de computação paralela dominante e um modelo de programação que permite aos programadores desbloquear o poder das GPUs NVIDIA para computação de uso geral.

Estruturas de aprendizado profundo, como PyTorch e TensorFlow, são altamente otimizadas para alavancar a aceleração de GPU, tornando simples o treinamento de modelos nesse hardware. A configuração de um ambiente de desenvolvimento pode ser simplificada usando ferramentas de conteinerização como o Docker. Para obter orientação, consulte o guia de início rápido do Ultralytics Docker. A implantação eficiente de modelos geralmente envolve otimização adicional usando ferramentas como TensorRT ou OpenVINO para maximizar a velocidade de inferência em tempo real no hardware de destino. Pode explorar várias soluções Ultralytics concebidas para tirar partido das capacidades da GPU de forma eficaz. O gerenciamento de todo o fluxo de trabalho, desde os conjuntos de dados até a implantação, pode ser simplificado usando plataformas como o Ultralytics HUB.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência