Glossário

TPU (Unidade de Processamento Tensorial)

Descubra como as Unidades de Processamento Tensor (TPUs) aceleram as tarefas de aprendizagem automática, como formação, inferência e deteção de objectos, com uma eficiência inigualável.

Uma Unidade de Processamento Tensorial, ou TPU, é um tipo de acelerador de hardware personalizado desenvolvido pela Google especificamente para cargas de trabalho de aprendizagem automática (ML) e aprendizagem profunda. Estes circuitos integrados de aplicação específica (ASIC) foram concebidos para acelerar drasticamente os cálculos de tensores e matrizes que são fundamentais para treinar e executar redes neurais. As TPU foram concebidas para proporcionar um elevado desempenho e eficiência energética para tarefas de aprendizagem automática em grande escala, o que as torna um componente crucial da infraestrutura moderna de IA.

Como funcionam as TPUs

As TPUs foram concebidas para lidar com o enorme volume de cálculos exigido pelos modelos de IA. A sua arquitetura está altamente optimizada para a principal operação matemática das redes neuronais: a multiplicação de matrizes. Ao contrário dos processadores de uso geral, as TPUs concentram-se em aritmética de alta produtividade e baixa precisão, o que é adequado para a natureza dos modelos de aprendizagem profunda. Ao processar grandes lotes de dados em paralelo, podem reduzir significativamente o tempo necessário para a formação de modelos e a inferência em tempo real. São mais frequentemente acedidos através da Google Cloud Platform e estão estreitamente integrados com estruturas de ML como o TensorFlow e o PyTorch.

Aplicações no mundo real

As TPUs são fundamentais para alimentar algumas das aplicações de IA mais exigentes atualmente disponíveis.

  1. Treinar grandes modelos de linguagem (LLMs): A Google utiliza grandes clusters de TPUs, conhecidos como TPU Pods, para treinar os seus modelos de base mais avançados, incluindo os modelos subjacentes ao seu motor de pesquisa e à IA de conversação, como o Gemini. A enorme capacidade de computação paralela dos TPU Pods permite-lhes treinar modelos com triliões de parâmetros numa fração do tempo que seria necessário noutro hardware.
  2. Potencializando os serviços do Google: As TPUs são utilizadas para inferência em vários produtos Google. Por exemplo, no Google Fotos, permitem o reconhecimento rápido de imagens para procurar pessoas, objectos e cenas. Do mesmo modo, permitem a tradução em tempo real no Google Translate e são utilizadas para o reconhecimento de voz no Assistente Google. A DeepMind também utilizou TPUs para treinar o AlphaGo, a IA que derrotou o melhor jogador de Go do mundo.

TPUs vs GPUs vs CPUs

Embora TPUs, GPUs e CPUs sejam todos processadores, são concebidos para fins muito diferentes.

  • CPU (Unidade Central de Processamento): O "cérebro" de um computador, concebido para tarefas de carácter geral. Uma CPU é excelente no tratamento sequencial de uma grande variedade de instruções, o que a torna essencial para a execução de sistemas operativos e software normal, mas menos eficiente para os cálculos paralelos maciços em IA.
  • GPU (Unidade de processamento gráfico): Originalmente criada para a renderização de gráficos, a arquitetura de uma GPU contém milhares de núcleos, o que a torna altamente eficaz no processamento paralelo. As GPUs de empresas como a NVIDIA e a AMD oferecem um excelente equilíbrio entre desempenho e flexibilidade, tornando-as populares para modelos de formação como o Ultralytics YOLO11.
  • TPU: Um acelerador altamente especializado criado pela Google especificamente para cargas de trabalho de redes neurais. Embora menos flexível do que uma GPU para computação geral, uma TPU oferece um desempenho superior por watt para operações de tensor em grande escala. Isto torna-a uma excelente escolha para a implementação e formação de modelos em massa, especialmente quando se utiliza o ecossistema de nuvem da Google.

O papel das TPUs no ecossistema Ultralytics

Os utilizadores do Ultralytics podem tirar partido das TPUs para acelerar os seus projectos de visão computacional. Os modelos podem ser exportados para formatos compatíveis com TPU, como o TensorFlow Lite para o Edge TPU do Google. Isso permite a implantação altamente eficiente em dispositivos de ponta, como o Coral Dev Board. Para trabalhos de formação em grande escala, plataformas como o Ultralytics HUB podem orquestrar a formação em vários recursos de computação em nuvem, permitindo que os utilizadores aproveitem o poder das TPUs para os seus conjuntos de dados personalizados. Essa integração facilita todo o ciclo de vida dos MLOps, desde o treinamento até a implantação e o monitoramento.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência