Glossário

TPU (Tensor Processing Unit)

Descobre como as Tensor Processing Units (TPUs) aceleram as tarefas de aprendizagem automática, como formação, inferência e deteção de objectos, com uma eficiência inigualável.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

A Tensor Processing Unit (TPU) é um acelerador de aprendizagem automática personalizado, desenvolvido pela Google especificamente para cargas de trabalho de redes neurais. Estes processadores especializados foram concebidos para acelerar drasticamente e aumentar a escala das operações de aprendizagem automática, especialmente para tarefas de inferência e formação. As TPUs são concebidas para lidar com os complexos cálculos matemáticos envolvidos na inteligência artificial, oferecendo melhorias significativas de desempenho em relação às CPUs e GPUs para determinados tipos de modelos de aprendizagem automática.

O que é um TPU?

Um TPU é um circuito integrado de aplicação específica (ASIC) concebido de raiz para as exigências únicas da aprendizagem automática, especialmente da aprendizagem profunda. Ao contrário dos processadores de uso geral, como as CPUs ou mesmo as GPUs, que são versáteis e podem lidar com uma grande variedade de tarefas, as TPUs são construídas especificamente para se destacarem em tensor computações, as operações matemáticas fundamentais em redes neurais. Os tensores são matrizes multidimensionais que representam dados em modelos de aprendizagem automática, e as TPUs são optimizadas para executar tensor álgebra a alta velocidade e eficiência. Esta especialização permite que as TPUs executem tarefas de aprendizagem automática, como treinar modelos complexos ou efetuar inferências rápidas, muito mais rapidamente do que as CPUs e, em muitos casos, de forma mais eficiente do que as GPUs. Para saberes mais sobre os cálculos subjacentes, podes explorar recursos sobre aprendizagem profunda e redes neurais.

Aplicações das TPUs

As TPUs são utilizadas extensivamente em várias aplicações, em particular as alimentadas por serviços Google e cada vez mais em domínios mais amplos de IA e ML. Algumas das principais aplicações incluem:

  • Acelera os modelos Ultralytics YOLO : As TPUs podem acelerar significativamente o processo de inferência de Ultralytics YOLO modelos, permitindo uma deteção de objectos mais rápida e eficiente em aplicações em tempo real.
  • Potencializa os serviços Google : Muitos produtos Google , tais como Google Search, Google Translate e Google Photos, utilizam TPUs para fornecer funcionalidades rápidas e precisas baseadas em IA a milhares de milhões de utilizadores. Por exemplo, as TPUs desempenham um papel crucial na pesquisa semântica e melhoram a qualidade dos resultados de pesquisa.
  • Aprendizagem automática baseada na nuvem: Google A nuvem oferece TPUs como um serviço, permitindo que pesquisadores e desenvolvedores aproveitem seu poder para cargas de trabalho exigentes de aprendizado de máquina na nuvem. Isto é particularmente benéfico para tarefas como a afinação de hiperparâmetros e a formação distribuída de grandes modelos.
  • Computação de ponta: as TPUs de ponta da Google foram concebidas para serem implementadas em dispositivos de ponta, como o Raspberry Pi e outros sistemas incorporados. Permitem a execução de modelos de aprendizagem automática localmente nos dispositivos, facilitando o processamento em tempo real e reduzindo a latência, o que é crucial para aplicações como a automatização de processos robóticos (RPA) e o seguimento de objectos em tempo real.
  • Análise de imagens médicas: As TPUs aceleram o processamento de grandes tarefas de análise de imagens médicas, ajudando a acelerar o diagnóstico e o planeamento de tratamentos nos cuidados de saúde.

TPUs vs GPUs

Embora tanto as TPUs como as GPUs sejam utilizadas para acelerar as cargas de trabalho de aprendizagem automática, têm diferenças fundamentais:

  • Especialização: As TPUs são altamente especializadas em aprendizagem automática, em particular para cargas de trabalho TensorFlow , enquanto as GPUs são mais generalistas e destacam-se no processamento paralelo de gráficos e numa gama mais vasta de tarefas computacionais para além da aprendizagem automática.
  • Arquitetura: As TPUs têm uma arquitetura especificamente concebida para operações de multiplicação de matrizes e tensor , o que as torna excecionalmente eficientes para cálculos de redes neuronais. As GPUs, embora sejam também processadores paralelos, têm uma arquitetura mais flexível concebida para a renderização de gráficos, que é adaptada à aprendizagem automática.
  • Desempenho: Para tarefas de aprendizagem profunda, especialmente inferência, as TPUs muitas vezes superam as GPUs em termos de velocidade e eficiência energética. No entanto, as GPUs continuam a ser versáteis e poderosas para uma vasta gama de tarefas de computação e são suportadas por um ecossistema mais vasto de software e bibliotecas.
  • Acessibilidade: Inicialmente, o acesso às TPUs era mais restrito, mas agora está disponível através dos produtos Google Cloud e Edge TPU . As GPUs são amplamente acessíveis a partir de vários fornecedores e provedores de nuvem.

Em suma, as TPUs representam um avanço significativo no hardware concebido especificamente para as exigências da aprendizagem automática moderna, oferecendo um desempenho e uma eficiência melhorados para uma vasta gama de aplicações de IA, incluindo as que utilizam modelos topo de gama como Ultralytics YOLOv8.

Lê tudo