Glossário

TPU (Tensor Processing Unit)

Descobre como as Tensor Processing Units (TPUs) aceleram as tarefas de aprendizagem automática, como formação, inferência e deteção de objectos, com uma eficiência inigualável.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

Uma Unidade de Processamento Tensor TPU) é um acelerador de aprendizagem automática personalizado desenvolvido pela Google especificamente para cargas de trabalho de redes neurais. Estes processadores especializados, um tipo de circuito integrado de aplicação específica (ASIC), foram concebidos para acelerar drasticamente e aumentar a escala das operações de aprendizagem automática, especialmente para tarefas de inferência e formação. As TPUs foram concebidas para lidar com os complexos cálculos matemáticos envolvidos na inteligência artificial (IA), oferecendo melhorias significativas de desempenho em relação às Unidades Centrais de Processamento (CPUs) e, frequentemente, às Unidades de Processamento Gráfico (GPUs) para determinados tipos de modelos de aprendizagem automática. São particularmente eficazes para cálculos em grande escala, comuns na aprendizagem profunda.

O que é um TPU?

Uma TPU é construída de raiz para as exigências únicas da aprendizagem automática (ML). Ao contrário dos processadores de uso geral, como CPUs ou até mesmo GPUs, que lidam com uma gama mais ampla de tarefas, as TPUs são criadas especificamente para se destacarem em cálculos tensor - as operações matemáticas fundamentais dentro das redes neurais (NNs). Tensores são matrizes multidimensionais que representam dados em modelos de ML, e as TPUs são otimizadas para realizar multiplicações de matrizes em larga escala e outras álgebras tensor com alta velocidade e eficiência energética. Essa especialização permite que as TPUs executem tarefas de ML muito mais rapidamente do que as CPUs e, em muitos cenários, de forma mais eficiente do que as GPUs, especialmente ao trabalhar com estruturas como TensorFlow para as quais foram inicialmente optimizadas. Suporte para outros frameworks como PyTorch também está disponível, ampliando sua usabilidade. Podes saber mais sobre as especificidades na Introdução aoGoogle Cloud TPU .

Aplicações das TPUs

As TPUs são utilizadas extensivamente em várias aplicações, em particular as que são alimentadas pelos serviços Google e, cada vez mais, em domínios mais vastos de IA e ML acessíveis através de plataformas como o Google Cloud. As principais aplicações incluem:

  • Treinamento de modelos em grande escala: As TPUs são excelentes para treinar modelos massivos de aprendizagem profunda que requerem imenso poder computacional e configurações de treino distribuídas. Por exemplo, Google utiliza TPUs internamente para treinar modelos sofisticados para serviços como a Pesquisa Google e Google Translate, lidando com vastos conjuntos de dados e arquitecturas complexas.
  • Inferência de grandes volumes: Para aplicações que requerem inferência rápida e eficiente em grandes volumes de dados, as TPUs proporcionam uma aceleração significativa. Isto é crucial para serviços em tempo real, como o processamento de linguagem natural (NLP) em chatbots ou tarefas de visão computacional (CV), como a deteção de objectos em grande escala no Google Photos.
  • Pesquisa e desenvolvimento: Os investigadores tiram partido das TPUs através de plataformas e ambientes na nuvem como o Kaggle (ver o guia de integração doUltralytics Kaggle) para acelerar experiências e desenvolver modelos de IA de ponta, como os utilizados na análise de imagens médicas ou em simulações científicas.
  • Computação de borda: Versões mais pequenas, conhecidas como Edge TPUs, trazem capacidades de inferência de ML diretamente para os dispositivos, permitindo aplicações em IoT e robótica que requerem baixa latência e processamento offline. Sabe mais sobre os princípios da computação periférica.

TPUs vs GPUs vs CPUs

Embora as TPUs, GPUs e CPUs possam todas processar cálculos, foram concebidas para fins diferentes e destacam-se em tarefas diferentes:

  • CPU (Unidade Central de Processamento): O cérebro de um computador normal, concebido para tarefas de computação de uso geral. Lida com operações do sistema, executa instruções de programa sequencialmente e gerencia diversas cargas de trabalho, mas é relativamente lenta para os cálculos paralelos massivos necessários na aprendizagem profunda. Lê mais sobre a comparação entreCPU e GPU .
  • GPU (Unidade de Processamento Gráfico): Originalmente concebidas para a renderização de gráficos, as GPUs possuem milhares de núcleos optimizados para processamento paralelo. Isto torna-as altamente eficazes para treinar e executar muitos modelos de ML, oferecendo um bom equilíbrio entre desempenho e flexibilidade em várias tarefas, como a deteção de objectos com os modelos Ultralytics YOLO . Os principais fornecedores incluem NVIDIA e AMD.
  • TPU (Unidade de ProcessamentoTensor ): Especificamente concebida como um processador de matriz para cargas de trabalho de redes neurais. As TPUs oferecem desempenho máximo e eficiência energética para operações tensor em grande escala, particularmente no ecossistema do Google(TensorFlowe PyTorch no Google Cloud). Podem ser menos flexíveis do que as GPUs para a computação paralela geral, mas podem proporcionar vantagens substanciais em termos de custo e velocidade para tarefas específicas de ML em grande escala alojadas em plataformas como a Google Cloud Platform.

Em suma, as TPUs representam um avanço significativo no hardware concebido especificamente para as exigências da aprendizagem automática moderna, oferecendo um desempenho e eficiência melhorados para aplicações de IA específicas, particularmente trabalhos de formação e inferência em grande escala. Complementam outros aceleradores como as GPUs, fornecendo opções dependendo da carga de trabalho específica, da escala e do ecossistema de software. Podes explorar opções de formação, incluindo recursos na nuvem, através de plataformas como o Ultralytics HUB, que oferece capacidades simplificadas de formação e gestão de modelos. Para ler mais sobre as tendências de IA, visita o BlogueUltralytics .

Lê tudo