Descubre cómo la Búsqueda de Arquitectura Neuronal (NAS) automatiza el diseño de redes neuronales para un rendimiento optimizado en la detección de objetos, IA y mucho más.
La Búsqueda de Arquitectura Neuronal (NAS) es una técnica automatizada dentro del campo del aprendizaje automático (ML) centrada en el diseño de la estructura, o arquitectura, óptima de las redes neuronales (NN). En lugar de depender de expertos humanos para diseñar manualmente diseños de red mediante ensayo y error, la NAS emplea algoritmos para explorar un vasto espacio de posibles arquitecturas e identificar las más eficaces para una tarea y un conjunto de datos determinados. Esta automatización acelera el proceso de desarrollo y puede descubrir arquitecturas novedosas y de alto rendimiento que podrían no ser intuitivamente obvias para los diseñadores humanos, optimizando métricas como la precisión, la velocidad(latencia de inferencia) o la eficiencia computacional.
El proceso fundamental de NAS implica tres componentes principales: un espacio de búsqueda, una estrategia de búsqueda y una estrategia de estimación del rendimiento. El espacio de búsqueda define el conjunto de posibles arquitecturas de red que pueden diseñarse, esbozando esencialmente los bloques de construcción (como distintos tipos de funciones de convolución o activación) y cómo pueden conectarse. La estrategia de búsqueda guía la exploración de este espacio, utilizando métodos que van desde la búsqueda aleatoria y el aprendizaje por refuerzo hasta los algoritmos evolutivos. Por último, la estrategia de estimación del rendimiento evalúa el rendimiento de una arquitectura candidata, lo que a menudo implica entrenar la red parcial o totalmente en un conjunto de datos y medir su rendimiento, aunque para acelerar este proceso se utilizan técnicas como el reparto de pesos o los predictores de rendimiento, como se detalla en una investigación de Google AI.
Automatizar el diseño de la arquitectura con NAS proporciona ventajas significativas:
Un ejemplo destacado es YOLO, desarrollado por Deci AI utilizando tecnología NAS. Este modelo se centró específicamente en las limitaciones de las versiones anteriores deYOLO Ultralytics , incorporando bloques que facilitan la cuantificación mediante NAS. Esto dio lugar a modelos que ofrecen un equilibrio superior entre precisión y latencia, haciéndolos muy eficaces para aplicaciones en tiempo real como la IA en soluciones de automoción y la gestión inteligente del tráfico, incluso después de la cuantización del modelo a formatos como INT8 para un despliegue eficaz. Puedes encontrar más información sobre las técnicas de cuantización en recursos como la documentación deNVIDIA TensorRT .
En sanidad, la NAS se utiliza para diseñar redes neuronales convolucionales (CNN ) personalizadas para analizar imágenes médicas. Por ejemplo, la NAS puede optimizar arquitecturas para tareas como la detección de tumores en resonancias magnéticas o la segmentación de órganos en imágenes de TC, lo que podría dar lugar a herramientas de diagnóstico más rápidas y precisas para ayudar a los médicos. La aplicación de la IA al análisis de imágenes médicas es un campo en rápido crecimiento, como ponen de relieve instituciones como los Institutos Nacionales de Salud (NIH). La gestión de modelos y conjuntos de datos tan especializados puede agilizarse utilizando plataformas como Ultralytics HUB.
La NAS es un componente específico dentro del campo más amplio del Aprendizaje Automático de Máquinas (AutoML). Mientras que la NAS se centra únicamente en encontrar la mejor arquitectura de red neuronal, AutoML pretende automatizar todo el proceso de ML, incluidos pasos como el preprocesamiento de datos, la ingeniería de características, la selección de modelos y el ajuste de hiperparámetros. Es crucial distinguir la NAS del ajuste de hiperparámetros: el ajuste de hiperparámetros optimiza los ajustes de configuración (como la tasa de aprendizaje o el tamaño del lote) para una arquitectura de modelo fija y determinada, mientras que la NAS busca la propia arquitectura. Ambas técnicas suelen utilizarse juntas para conseguir un rendimiento óptimo del modelo. Herramientas como Optuna o Ray Tune son populares para la optimización de hiperparámetros.