Glossaire

Demi-précision

Découvre comment la demi-précision (FP16) accélère l'IA grâce à des calculs plus rapides, une utilisation réduite de la mémoire et un déploiement efficace des modèles.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

En intelligence artificielle et en apprentissage automatique, la précision des données numériques a un impact significatif sur les performances des modèles et l'efficacité des calculs. La demi-précision, également connue sous le nom de FP16 (Floating-Point 16-bit) ou float16, est un format numérique qui utilise 16 bits pour représenter les nombres. Cela contraste avec la simple précision (FP32 ou float32), plus courante, qui utilise 32 bits, et la double précision (FP64 ou float64), qui utilise 64 bits. La réduction de la profondeur des bits offre des avantages en termes de vitesse et d'utilisation de la mémoire, mais nécessite également une attention particulière quant aux impacts potentiels sur la précision du modèle.

Comprendre la demi-précision

La demi-précision représente les nombres en utilisant moins de bits que la simple précision. Plus précisément, elle alloue des bits pour le signe, l'exposant et le significand (mantisse) conformément à des normes comme la norme IEEE 754 pour l'arithmétique à virgule flottante. Alors que FP32 offre une plage plus large et une précision plus élevée, ce qui en fait une valeur par défaut stable pour de nombreuses tâches d'apprentissage automatique (ML), FP16 offre un format plus compact. Dans l'apprentissage profond, cela affecte la façon dont les paramètres du modèleweights and biases) et les activations sont stockés et manipulés à la fois pendant la formation et l'inférence. Le matériel moderne, notamment les GPU comme ceux de NVIDIA avec les Tensor Cores, comprend souvent des unités spécialisées pour accélérer les calculs en FP16.

Avantages de la demi-précision

L'utilisation de la demi-précision offre plusieurs avantages convaincants pour les modèles d'IA comme... Ultralytics YOLO:

  • Calculs plus rapides : Les opérations sur les nombres de 16 bits sont généralement plus rapides que sur les nombres de 32 bits, en particulier sur le matériel optimisé pour FP16. Cela permet de réduire les temps de formation et d'accélérer l'inférence.
  • Utilisation réduite de la mémoire : Les nombres FP16 occupent la moitié de l'espace mémoire des nombres FP32. Cela permet de faire tenir des modèles plus grands ou des lots plus importants dans la mémoire de l'appareil, ce qui peut améliorer la dynamique et le débit de la formation. En savoir plus sur les conseils pour la formation des modèles.
  • Consommation d'énergie plus faible : Des calculs plus rapides et des mouvements de données réduits se traduisent souvent par une consommation d'énergie plus faible, ce qui est crucial pour le déploiement sur des appareils mobiles ou de périphérie. Des guides sont disponibles pour déployer des modèles sur des appareils tels que NVIDIA Jetson ou Raspberry Pi.
  • Bande passante améliorée : une utilisation moindre de la mémoire signifie une réduction des besoins en bande passante de la mémoire, ce qui atténue les goulots d'étranglement dans le transfert des données entre la mémoire et les unités de traitement.

Considérations et défis

Malgré ses avantages, l'utilisation exclusive de la demi-précision peut présenter des défis :

  • Plage et précision limitées : L'allocation de bits plus petite restreint la plage des nombres représentables et réduit la précision. Cela peut entraîner des problèmes tels que le débordement du gradient (qui devient nul) ou le débordement (qui devient infini) pendant l'apprentissage, ce qui peut entraver la convergence ou affecter la précision du modèle.
  • Stabilité numérique : Certaines opérations ou architectures de modèles pourraient être sensibles à la réduction de la précision, ce qui entraînerait une instabilité numérique ou une divergence pendant la formation.

Pour atténuer ces problèmes, une technique courante est la formation à la précision mixte. Contrairement à la formation en demi-précision pure (qui utilise le FP16 tout au long de la formation), la précision mixte utilise stratégiquement le FP16 pour les calculs plus rapides (par exemple, les multiplications de matrices, les convolutions) et le FP32 pour les opérations nécessitant une plus grande précision (par exemple, le calcul des pertes, les mises à jour de poids) afin de maintenir la stabilité et la précision tout en obtenant des avantages en termes de performances. Des cadres comme PyTorch et TensorFlow offrent une prise en charge intégrée de l'apprentissage à précision mixte.

Applications dans le monde réel

La demi-précision, souvent utilisée dans le cadre d'une stratégie de précision mixte, est largement adoptée lorsque la performance et l'efficacité sont essentielles :

  1. Accélérer les modèles de vision par ordinateur : Dans des tâches telles que la détection d'objets ou la segmentation d'instances, l'utilisation de FP16 (souvent par le biais d'une précision mixte) permet à des modèles tels que YOLOv8 ou YOLO11 de fonctionner plus rapidement, ce qui permet d'obtenir des performances en temps réel dans des applications telles que les véhicules autonomes ou les systèmes d'alarme de sécurité. Les performances peuvent être encore améliorées à l'aide d'outils tels que TensorRT pour une inférence optimisée.
  2. Formation de grands modèles linguistiques (LLM) : La formation de modèles tels que GPT-4 ou BERT implique des ensembles de données et des nombres de paramètres massifs. FP16 réduit considérablement l'empreinte mémoire, ce qui permet d'entraîner ces grands modèles sur le matériel disponible et d'accélérer des tâches telles que la génération de texte ou la traduction automatique. Des plateformes comme Ultralytics HUB peuvent simplifier le processus de formation et de déploiement.

En offrant un compromis entre la précision numérique, la vitesse de calcul et l'utilisation de la mémoire, la demi-précision est devenue un outil précieux dans l'écosystème de l'IA et de la ML, permettant le développement et le déploiement de modèles plus efficaces et plus puissants.

Tout lire