Découvre comment la recherche d'architecture neuronale (NAS) automatise la conception de réseaux neuronaux pour des performances optimisées en matière de détection d'objets, d'IA, et plus encore.
La recherche d'architecture neuronale (NAS) est une technique automatisée dans le domaine de l'apprentissage automatique (ML) axée sur la conception de la structure optimale, ou architecture, des réseaux neuronaux (NN). Au lieu de s'appuyer sur des experts humains pour concevoir manuellement la disposition des réseaux par essais et erreurs, la RNA emploie des algorithmes pour explorer un vaste espace d'architectures possibles et identifier les plus efficaces pour une tâche et un ensemble de données donnés. Cette automatisation accélère le processus de développement et permet de découvrir de nouvelles architectures très performantes qui ne seraient pas intuitivement évidentes pour les concepteurs humains, en optimisant des paramètres tels que la précision, la vitesse(latence d'inférence) ou l'efficacité de calcul.
L'automatisation de la conception de l'architecture avec NAS offre des avantages significatifs :
Un exemple marquant est YOLO, développé par Deci AI à l'aide de la technologie NAS. Ce modèle a spécifiquement ciblé les limitations des versions précédentes deYOLO d'Ultralytics en incorporant des blocs favorables à la quantification trouvés grâce à NAS. Il en est résulté des modèles offrant un équilibre supérieur entre précision et latence, ce qui les rend très efficaces pour les applications en temps réel telles que l'IA dans les solutions automobiles et la gestion intelligente du trafic, même après la quantification du modèle dans des formats tels que INT8 pour un déploiement efficace. De plus amples informations sur les techniques de quantification sont disponibles dans des ressources telles que la documentation deNVIDIA TensorRT .
Dans le domaine de la santé, NAS est utilisé pour concevoir des réseaux neuronaux convolutifs (CNN) personnalisés pour l'analyse des images médicales. Par exemple, NAS peut optimiser les architectures pour des tâches telles que la détection de tumeurs dans les IRM ou la segmentation d'organes dans les images de tomodensitométrie, ce qui pourrait déboucher sur des outils de diagnostic plus rapides et plus précis pour aider les cliniciens. L'application de l'IA à l'analyse des images médicales est un domaine en pleine expansion, comme le soulignent des institutions telles que les National Institutes of Health (NIH). La gestion de ces modèles et ensembles de données spécialisés peut être rationalisée à l'aide de plateformes comme Ultralytics HUB.
NAS est un composant spécifique dans le domaine plus large de l'apprentissage automatique des machines (AutoML). Alors que le NAS se concentre uniquement sur la recherche de la meilleure architecture de réseau neuronal, l'AutoML vise à automatiser l'ensemble du pipeline d'apprentissage automatique, y compris les étapes telles que le prétraitement des données, l'ingénierie des caractéristiques, la sélection des modèles et l'ajustement des hyperparamètres. Il est essentiel de distinguer le RNA de l'ajustement des hyperparamètres : l'ajustement des hyperparamètres optimise les paramètres de configuration (comme le taux d'apprentissage ou la taille du lot) pour une architecture de modèle donnée et fixe, alors que le RNA recherche l'architecture elle-même. Les deux techniques sont souvent utilisées conjointement pour obtenir des performances optimales du modèle. Des outils comme Optuna ou Ray Tune sont populaires pour l'optimisation des hyperparamètres.
Comment fonctionne la recherche par architecture neuronale
Le processus fondamental des RNA comporte trois éléments principaux : un espace de recherche, une stratégie de recherche et une stratégie d'estimation des performances. L'espace de recherche définit l'ensemble des architectures de réseau possibles qui peuvent être conçues, en décrivant essentiellement les éléments constitutifs (comme les différents types de fonctions de convolution ou d'activation) et la façon dont ils peuvent être connectés. La stratégie de recherche guide l'exploration de cet espace, en utilisant des méthodes allant de la recherche aléatoire et de l'apprentissage par renforcement aux algorithmes évolutionnaires. Enfin, la stratégie d'estimation des performances évalue les performances d'une architecture candidate, ce qui implique souvent d'entraîner le réseau partiellement ou entièrement sur un ensemble de données et de mesurer ses performances, bien que des techniques telles que le partage des poids ou les prédicteurs de performance soient utilisées pour accélérer cette étape, comme l'explique en détail la recherche de Google AI.