Glosario

TPU (Unidad de procesamiento de sensores)

Descubra cómo las unidades de procesamiento tensorial (TPU) aceleran las tareas de aprendizaje automático, como el entrenamiento, la inferencia y la detección de objetos, con una eficiencia inigualable.

Una unidad de procesamiento de tensor, o TPU, es un tipo de acelerador de hardware personalizado desarrollado por Google específicamente para cargas de trabajo de aprendizaje automático (ML) y aprendizaje profundo. Estos circuitos integrados de aplicación específica (ASIC) están diseñados para acelerar drásticamente los cálculos de tensor y matriz que son fundamentales para entrenar y ejecutar redes neuronales. Las TPU están diseñadas para ofrecer un alto rendimiento y eficiencia energética en tareas de aprendizaje automático a gran escala, lo que las convierte en un componente crucial de la infraestructura de IA moderna.

Cómo funcionan los TPU

Las TPU están diseñadas para manejar el enorme volumen de cálculos que requieren los modelos de IA. Su arquitectura está muy optimizada para la principal operación matemática de las redes neuronales: la multiplicación de matrices. A diferencia de los procesadores de propósito general, las TPU se centran en la aritmética de alto rendimiento y baja precisión, que se adapta bien a la naturaleza de los modelos de aprendizaje profundo. Al procesar enormes lotes de datos en paralelo, pueden reducir significativamente el tiempo necesario tanto para el entrenamiento del modelo como para la inferencia en tiempo real. Se suele acceder a ellos a través de Google Cloud Platform y están estrechamente integrados con marcos de ML como TensorFlow y PyTorch.

Aplicaciones reales

Las TPU son fundamentales para impulsar algunas de las aplicaciones de inteligencia artificial más exigentes de la actualidad.

  1. Entrenamiento de grandes modelos lingüísticos (LLM): Google utiliza grandes clústeres de TPU, conocidos como TPU Pods, para entrenar sus modelos básicos más avanzados, incluidos los modelos de su motor de búsqueda y la IA conversacional como Gemini. La enorme capacidad de computación paralela de los TPU Pods les permite entrenar modelos con billones de parámetros en una fracción del tiempo que tardarían con otro hardware.
  2. Alimentación de los servicios de Google: Las TPU se utilizan para la inferencia en numerosos productos de Google. Por ejemplo, en Google Fotos, permiten el reconocimiento rápido de imágenes para buscar personas, objetos y escenas. Del mismo modo, permiten la traducción en tiempo real en Google Translate y se utilizan para el reconocimiento de voz en el Asistente de Google. DeepMind también utilizó TPUs para entrenar a AlphaGo, la IA que derrotó al mejor jugador de Go del mundo.

TPUs vs GPUs vs CPUs

Aunque las TPU, las GPU y las CPU son todos procesadores, están diseñados para fines muy diferentes.

  • CPU (Unidad Central de Proceso): El "cerebro" de un ordenador, diseñado para tareas de propósito general. Una CPU destaca en el manejo secuencial de una amplia variedad de instrucciones, lo que la hace esencial para ejecutar sistemas operativos y software estándar, pero menos eficiente para los cálculos paralelos masivos de la IA.
  • GPU (Unidad de Procesamiento Gráfico): Creada originalmente para renderizar gráficos, la arquitectura de una GPU contiene miles de núcleos, lo que la hace muy eficaz en el procesamiento paralelo. Las GPU de empresas como NVIDIA y AMD ofrecen un gran equilibrio entre rendimiento y flexibilidad, lo que las hace muy populares para modelos de entrenamiento como Ultralytics YOLO11.
  • TPU: Acelerador altamente especializado creado por Google específicamente para cargas de trabajo de redes neuronales. Aunque es menos flexible que una GPU para la computación general, una TPU ofrece un rendimiento superior por vatio para operaciones tensoriales a gran escala. Esto la convierte en una opción excelente para el despliegue y entrenamiento masivo de modelos, especialmente cuando se utiliza el ecosistema de nube de Google.

El papel de las TPU en el ecosistema de Ultralytics

Los usuarios de Ultralytics pueden aprovechar las TPU para acelerar sus proyectos de visión por ordenador. Los modelos pueden exportarse a formatos compatibles con TPU, como TensorFlow Lite para la TPU Edge de Google. Esto permite un despliegue altamente eficiente en dispositivos edge como la Coral Dev Board. Para trabajos de formación a gran escala, plataformas como Ultralytics HUB pueden orquestar la formación en varios recursos de computación en la nube, lo que permite a los usuarios aprovechar la potencia de las TPU para sus conjuntos de datos personalizados. Esta integración facilita todo el ciclo de vida de MLOps, desde la formación hasta el despliegue y la supervisión.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles