Glosario

GPU (Unidad de procesamiento gráfico)

Descubre cómo las GPU revolucionan la IA y el aprendizaje automático acelerando el aprendizaje profundo, optimizando los flujos de trabajo y permitiendo aplicaciones en el mundo real.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

Una Unidad de Procesamiento GráficoGPU) es un circuito electrónico especializado diseñado inicialmente para acelerar la creación y renderización de imágenes, vídeo y animaciones. Aunque las GPU se originaron en las industrias de los juegos y el diseño gráfico, su arquitectura única las ha convertido en herramientas indispensables en la Inteligencia Artificial (IA) y el Aprendizaje Automático (AM) modernos. Las GPU poseen miles de núcleos de procesamiento que funcionan en paralelo, lo que les permite manejar grandes cantidades de cálculos simultáneamente. Esta capacidad es excepcionalmente adecuada para las tareas computacionalmente exigentes que se encuentran en los algoritmos de aprendizaje profundo, permitiendo un entrenamiento más rápido de los modelos y una inferencia eficiente en tiempo real. Comprender la evolución de la GPU proporciona un contexto para su papel actual en la IA.

Importancia en la IA y el Aprendizaje Automático

La capacidad de procesamiento paralelo de las GPU es uno de los principales catalizadores de los recientes avances en IA. Entrenar redes neuronales profund as implica procesar enormes conjuntos de datos y realizar innumerables operaciones matemáticas complejas, como multiplicaciones matriciales. Las GPU destacan en estas operaciones, reduciendo drásticamente el tiempo necesario para entrenar los modelos en comparación con las Unidades Centrales de Procesamiento (CPU) tradicionales. Esta aceleración permite a los investigadores y desarrolladores en el campo del desarrollo de la IA iterar con mayor rapidez, experimentar con modelos más grandes y complejos y lograr una mayor precisión en tareas como la detección de objetos y la segmentación de imágenes.

He aquí dos ejemplos de GPU en aplicaciones de IA/ML del mundo real:

  1. Detección de objetos en tiempo real: Los modelosYOLO Ultralytics , conocidos por su velocidad y eficacia, dependen en gran medida de las GPU para realizar la detección de objetos en tiempo real para aplicaciones como la conducción autónoma, la vigilancia(mejora de los sistemas de seguridad) y la robótica. La naturaleza paralela de las GPU permite a estos modelos procesar fotogramas de vídeo con rapidez e identificar con precisión varios objetos simultáneamente. Explora las diversas aplicacionesYOLO11 que permite la aceleración GPU .
  2. Entrenamiento de grandes modelos: El entrenamiento de grandes modelos lingüísticos (LLM) o de complejos modelos de visión por ordenador suele requerir una potencia computacional significativa, a la que se accede con frecuencia a través de plataformas de computación en la nube. Servicios como Ultralytics HUB Cloud Training aprovechan potentes clústeres de GPU de proveedores como AWS, Google Cloud y Azure para entrenar modelos en vastos conjuntos de datos para tareas que van desde el procesamiento del lenguaje natural (PLN) al análisis avanzado de imágenes médicas.

Principales diferencias con las CPU y las TPU

Aunque las GPU, las CPU y las Unidades de ProcesamientoTensor (TPU ) son todos tipos de procesadores, tienen diferentes puntos fuertes y están optimizados para diferentes tareas:

  • CPU (Unidad Central de Proceso): Diseñada para la informática de propósito general, destaca en las tareas secuenciales y en la gestión de las operaciones del sistema. Las CPU tienen unos pocos núcleos potentes optimizados para una baja latencia. Ver un resumen deCPU vs GPU .
  • GPU (Unidad de procesamiento gráfico): Optimizada para operaciones paralelas con miles de núcleos más simples. Ideal para tareas que se pueden descomponer y procesar simultáneamente, como renderizar gráficos y entrenar modelos de aprendizaje profundo. El rendimiento medido a menudo implica métricas como FLOPS.
  • TPU (Unidad de ProcesamientoTensor ): El Circuito Integrado de Aplicación Específica (ASIC) de Google diseñado específicamente para acelerar las cargas de trabajo de aprendizaje automático utilizando la tecnología TensorFlow de Google. Están altamente optimizados para las operaciones matriciales a gran escala habituales en las redes neuronales. Más información en los detalles de TPU deGoogle.

Las GPU logran un equilibrio entre alto rendimiento para tareas de procesamiento paralelo y versatilidad para diversas aplicaciones, lo que las convierte en una opción popular para muchas cargas de trabajo de IA y computación de alto rendimiento (HPC ).

Ecosistema y uso

La adopción generalizada de las GPU en la IA está respaldada por sólidos ecosistemas de software. Grandes fabricantes como NVIDIA y AMD proporcionan GPU adecuadas para tareas de IA. NVIDIA software CUDA (Compute Unified Device Architecture) de NVIDIA es una plataforma de cálculo paralelo ampliamente utilizada y un modelo de programación para las GPU NVIDIA . Marcos de aprendizaje profundo como PyTorch y TensorFlow están optimizados para aprovechar la aceleración de GPU . La configuración de entornos para el desarrollo GPU puede agilizarse utilizando herramientas de contenedorización como Docker; consulta laguía Ultralytics Docker Quickstart para obtener instrucciones de configuración. El despliegue eficiente de modelos a menudo implica optimizarlos para que se ejecuten eficazmente en el hardware de GPU de destino. Explora varias soluciones deUltralytics que aprovechan la potencia de GPU .

Leer todo