Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Precisión Mixta

Descubra cómo la precisión mixta acelera el entrenamiento y reduce la memoria para modelos como Ultralytics . Explore las ventajas de FP16 y FP32 para obtener información de IA más rápidamente.

La precisión mixta es una técnica fundamental en la optimización de modelos que se utiliza para acelerar el entrenamiento de modelos de aprendizaje profundo y reducir al mismo tiempo el consumo de memoria. Mediante la combinación estratégica de diferentes formatos numéricos, normalmente tipos de coma flotante de 16 y 32 bits, este método permite a los algoritmos de aprendizaje automático realizar cálculos más rápidamente sin sacrificar la precisión final del modelo. Se ha convertido en una práctica habitual en el desarrollo moderno de la IA , especialmente para tareas que requieren muchos recursos, como el entrenamiento de la arquitectura YOLO26 en conjuntos de datos masivos.

Cómo funciona la precisión mixta

En los flujos de trabajo tradicionales de aprendizaje profundo, los modelos suelen realizar cálculos utilizando el formato de coma flotante de precisión simple (FP32). Cada número en FP32 requiere 32 bits de memoria. Aunque es muy preciso, este formato puede ser computacionalmente costoso y requerir mucha memoria.

La precisión mixta introduce el uso de media precisión (FP16), que utiliza solo 16 bits. Sin embargo, el uso exclusivo de FP16 puede provocar inestabilidad numérica debido a un rango dinámico más pequeño. Para resolver esto, los métodos de precisión mixta mantienen una «copia maestra» de los pesos del modelo en FP32 para mayor estabilidad, mientras que utilizan FP16 para las operaciones matemáticas más pesadas, como convoluciones y multiplicaciones de matrices.

El proceso suele constar de tres pasos clave:

  1. Fundición: conversión de las entradas y activaciones del modelo a FP16 para acelerar la ejecución en hardware compatible , como NVIDIA Tensor .
  2. Escalado de pérdidas: Amplificación de los valores de la función de pérdida para evitar el «desbordamiento por debajo», donde las pequeñas actualizaciones de gradiente se convierten en ceros en FP16.
  3. Acumulación: Realizar las operaciones aritméticas en FP16, pero acumular los resultados en FP32 para conservar la información necesaria antes de actualizar los pesos maestros.

Ventajas de la formación en IA

La adopción de la precisión mixta ofrece ventajas significativas para los desarrolladores e investigadores que utilizan los recursos computacionales de manera eficaz:

  • Mayor velocidad de entrenamiento: Las operaciones en FP16 requieren menos ancho de banda de memoria y se procesan más rápido en las GPU modernas. Esto puede reducir el tiempo necesario para una época en márgenes sustanciales.
  • Reducción del uso de memoria: dado que los tensores FP16 ocupan la mitad de memoria que los FP32, los desarrolladores pueden duplicar esencialmente el tamaño de sus lotes. Los lotes de mayor tamaño suelen dar lugar a estimaciones de gradientes más estables y a una convergencia más rápida.
  • Eficiencia energética: La reducción de la carga computacional se traduce en un menor consumo de energía, lo cual es crucial para las operaciones de entrenamiento en la nube a gran escala .

Aplicaciones en el mundo real

La precisión mixta se utiliza en diversos sectores para gestionar de forma eficiente modelos complejos y grandes conjuntos de datos.

Conducción autónoma

Enel desarrollo de vehículos autónomos, los ingenieros deben entrenar modelos de detección de objetos en millones de fotogramas de vídeo de alta resolución. El uso de la precisión mixta les permite entrenar modelos de última generación como YOLO26 de manera eficiente. La reducción del consumo de memoria permite el procesamiento de entradas de mayor resolución, lo cual es fundamental para detectar objetos pequeños como señales de tráfico o peatones a distancia.

Análisis de imágenes médicas

El análisis de imágenes médicas a menudo implica datos volumétricos en 3D procedentes de resonancias magnéticas o tomografías computarizadas, que requieren una gran cantidad de memoria. El entrenamiento de modelos de segmentación con estos datos en precisión FP32 completa a menudo provoca errores de «memoria insuficiente» (OOM). La precisión mixta permite a los investigadores ajustar estos pesados modelos a GPU , lo que facilita el desarrollo de IA que puede ayudar a los médicos a diagnosticar enfermedades de forma más temprana.

Aplicación de la precisión mixta con Ultralytics

Los marcos modernos como PyTorch normalmente gestionan las complejidades de la precisión mixta automáticamente a través de una función llamada Precisión Mixta Automática (AMP). El ultralytics El paquete habilita AMP de forma predeterminada durante el entrenamiento para garantizar un rendimiento óptimo.

A continuación se muestra un ejemplo conciso de cómo iniciar el entrenamiento con YOLO26, donde la precisión mixta está activa por defecto (controlable a través del amp argumento):

from ultralytics import YOLO

# Load the latest YOLO26 model
model = YOLO("yolo26n.pt")

# Train the model on the COCO8 dataset
# amp=True is the default setting for mixed precision training
results = model.train(data="coco8.yaml", epochs=5, imgsz=640, amp=True)

Precisión mixta frente a conceptos relacionados

Es útil distinguir la precisión mixta de términos similares en el glosario para evitar confusiones:

  • Cuantificación de modelos: mientras que la precisión mixta utiliza números de coma flotante de menor precisión (FP16) durante el entrenamiento, la cuantificación suele convertir los pesos en números enteros (como INT8) después del entrenamiento para su implementación. La cuantificación se centra principalmente en la latencia de la inferencia en los dispositivos periféricos, mientras que la precisión mixta se centra en la velocidad y la estabilidad del entrenamiento.
  • Media precisión: se refiere específicamente al formato de datos FP16 en sí. La precisión mixta es la técnica de utilizar FP16 y FP32 juntos. El uso de media precisión pura sin la copia maestra FP32 «mixta» a menudo da como resultado modelos que no convergen debido a errores numéricos.

Conclusión

La precisión mixta ha revolucionado la forma en que se entrenan las redes neuronales, actuando como un factor fundamental para los modelos de base masivos y los sistemas de visión que vemos hoy en día. Al equilibrar la necesidad de precisión matemática con las limitaciones de velocidad y memoria del hardware, permite a los desarrolladores iterar más rápido y crear soluciones de IA más capaces.

Para aquellos que buscan gestionar conjuntos de datos y entrenar modelos optimizados a la perfección, la Ultralytics ofrece un entorno integral que aprovecha estas modernas técnicas de optimización de forma automática.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora