Découvre comment Edge AI permet un traitement de l'IA en temps réel, sécurisé et efficace sur les appareils, transformant ainsi des secteurs comme la santé et les véhicules autonomes.
L'Edge AI désigne la pratique consistant à exécuter des algorithmes d'intelligence artificielle (IA) directement sur des dispositifs matériels locaux, appelés dispositifs de périphérie, tels que des smartphones, des caméras, des capteurs ou des systèmes intégrés. Au lieu d'envoyer les données à des serveurs infonuagiques distants pour qu'elles soient traitées, l'Edge AI permet à l'analyse des données et à la prise de décision de se faire plus près de la source où les données sont générées. Cette approche tire parti des avancées en matière de matériel, comme les puces spécialisées dans l'IA, et des modèles efficaces d'apprentissage machine (ML) pour apporter l'intelligence à la périphérie du réseau. Elle permet aux appareils d'effectuer localement des tâches telles que la reconnaissance d'images, le traitement du langage naturel (NLP) et la détection d'anomalies.
La principale différence réside dans l'endroit où se produit le calcul de l'IA. L'IA en nuage traite les données sur des serveurs centralisés, offrant ainsi de vastes ressources de calcul adaptées aux modèles complexes et aux données d'entraînement à grande échelle. Cependant, elle introduit un temps de latence dû à la transmission des données et nécessite une connectivité internet fiable. L'Edge AI, à l'inverse, traite les données localement sur l'appareil. Cela minimise le temps de latence, améliore la confidentialité des données puisque les informations sensibles n'ont pas besoin de quitter l'appareil, et permet de fonctionner dans des environnements hors ligne ou à faible bande passante. La contrepartie est que les appareils périphériques ont des ressources limitées, ce qui restreint la complexité des modèles déployables. En savoir plus sur Edge AI vs Cloud AI.
L'IA périphérique est une application spécifique dans le domaine plus large de l'informatique périphérique. L'edge computing fait référence au paradigme général qui consiste à déplacer les tâches de calcul des centres de données centralisés vers la "périphérie" du réseau, au plus près des utilisateurs et des sources de données. L'Edge AI applique spécifiquement ce concept aux charges de travail d'IA et de ML, permettant un traitement intelligent directement sur les appareils de périphérie. Alors que l'edge computing peut impliquer différents types de traitement, l'Edge AI se concentre sur le déploiement et l'exécution de modèles d'IA au niveau local. Tu peux en savoir plus sur l'edge computing ici.
L'Edge AI est en train de transformer de nombreuses industries, notamment dans le domaine de la vision par ordinateur (VA). L'augmentation de la demande se reflète dans la taille croissante du marché de l'Edge AI.
Malgré ses avantages, l'Edge AI est confrontée à des défis, notamment les ressources de calcul limitées(impact de la puissance de calcul) des appareils périphériques, la nécessité de modèles hautement optimisés(comme l'efficacité de YOLOv9), la gestion du déploiement et des mises à jour des modèles sur de nombreux appareils distribués (souvent à l'aide d'outils comme Docker), et la garantie des performances des modèles dans des conditions variables du monde réel. Le matériel spécialisé comme le Google Edge TPU et les capteurs comme le Sony IMX500 permettent de remédier à certaines de ces limites matérielles. Des frameworks comme NVIDIA TensorRT facilitent également l'optimisation.
L'IA en périphérie représente un changement important dans la façon dont les capacités d'IA sont fournies, en déplaçant l'intelligence des nuages centralisés vers les appareils locaux. Cela permet une nouvelle génération d'applications d'IA réactives, privées et fiables qui peuvent fonctionner efficacement à la périphérie du réseau, impactant tout, de l'électronique grand public aux systèmes industriels critiques.
Comment fonctionne l'Edge AI
Le processus consiste généralement à former un modèle d'IA, souvent à l'aide de puissantes ressources cloud ou de serveurs locaux. Une fois formé, le modèle subit des techniques d'optimisation telles que la quantification ou l'élagage du modèle afin de réduire sa taille et ses besoins informatiques. Cette optimisation est cruciale pour exécuter efficacement les modèles sur des appareils périphériques aux ressources limitées, qui ont souvent une puissance de traitement limitée (CPU/GPU), de mémoire et de durée de vie de la batterie. Le modèle optimisé est ensuite déployé sur l'appareil périphérique à l'aide de cadres tels que TensorFlow Lite, PyTorch Mobile, ONNX Runtime, ou de SDK spécialisés tels que OpenVINO d'Intel. L'appareil peut alors effectuer une inférence en temps réel en utilisant ses capteurs locaux (par exemple, des caméras, des microphones) pour traiter les données et générer des idées ou des actions sans avoir besoin d'une connectivité Internet constante. La gestion de ces déploiements peut être rationalisée à l'aide de plateformes comme Ultralytics HUB.