Descobre como a Pesquisa de Arquitetura Neural (NAS) automatiza a conceção de redes neurais para um desempenho optimizado na deteção de objectos, IA e muito mais.
A pesquisa de arquitetura neural (NAS) é uma técnica automatizada no domínio da aprendizagem automática (ML) centrada na conceção da estrutura, ou arquitetura, óptima das redes neurais (NN). Em vez de depender de especialistas humanos para conceber manualmente layouts de rede através de tentativa e erro, a NAS emprega algoritmos para explorar um vasto espaço de possíveis arquitecturas e identificar as mais eficazes para uma determinada tarefa e conjunto de dados. Esta automatização acelera o processo de desenvolvimento e pode revelar arquitecturas novas e de elevado desempenho que podem não ser intuitivamente óbvias para os projectistas humanos, optimizando métricas como a precisão, a velocidade(latência de inferência) ou a eficiência computacional.
O processo fundamental do NAS envolve três componentes principais: um espaço de pesquisa, uma estratégia de pesquisa e uma estratégia de estimativa do desempenho. O espaço de pesquisa define o conjunto de possíveis arquitecturas de rede que podem ser concebidas, delineando essencialmente os blocos de construção (como diferentes tipos de convolução ou funções de ativação) e a forma como podem ser ligados. A estratégia de pesquisa orienta a exploração deste espaço, utilizando métodos que vão desde a pesquisa aleatória e a aprendizagem por reforço até aos algoritmos evolutivos. Por fim, a estratégia de estimativa do desempenho avalia o desempenho de uma arquitetura candidata, envolvendo frequentemente o treino parcial ou total da rede num conjunto de dados e a medição do seu desempenho, embora se utilizem técnicas como a partilha de pesos ou preditores de desempenho para acelerar este processo, conforme detalhado na investigação da Google AI.
A automatização da conceção da arquitetura com o NAS oferece vantagens significativas:
Um exemplo proeminente é o YOLO, desenvolvido pela Deci AI utilizando a tecnologia NAS. Este modelo visava especificamente as limitações das versões anteriores Ultralytics YOLO , incorporando blocos de fácil quantização encontrados através do NAS. Isso resultou em modelos que oferecem um equilíbrio superior entre precisão e latência, tornando-os altamente eficazes para aplicações em tempo real, como IA em soluções automotivas e gerenciamento inteligente de tráfego, mesmo após a quantização do modelo em formatos como INT8 para implantação eficiente. Mais informações sobre técnicas de quantização podem ser encontradas em recursos como a documentação do NVIDIA TensorRT .
Na área da saúde, o NAS é utilizado para conceber Redes Neuronais Convolucionais (CNNs) personalizadas para analisar imagens médicas. Por exemplo, a NAS pode otimizar arquitecturas para tarefas como a deteção de tumores em exames de ressonância magnética ou a segmentação de órgãos em imagens de tomografia computorizada, o que pode levar a ferramentas de diagnóstico mais rápidas e precisas para ajudar os médicos. A aplicação da IA na análise de imagens médicas é um campo em rápido crescimento, conforme destacado por instituições como os Institutos Nacionais de Saúde (NIH). A gestão destes modelos e conjuntos de dados especializados pode ser simplificada utilizando plataformas como o Ultralytics HUB.
O NAS é um componente específico dentro do campo mais alargado da Aprendizagem Automática de Máquinas (AutoML). Enquanto o NAS se concentra apenas em encontrar a melhor arquitetura de rede neural, o AutoML pretende automatizar todo o pipeline de ML, incluindo passos como o pré-processamento de dados, engenharia de caraterísticas, seleção de modelos e afinação de hiperparâmetros. É crucial distinguir o NAS do ajuste de hiperparâmetros: o ajuste de hiperparâmetros optimiza as definições de configuração (como a taxa de aprendizagem ou o tamanho do lote) para uma determinada arquitetura de modelo fixa, enquanto o NAS procura a própria arquitetura. Ambas as técnicas são frequentemente utilizadas em conjunto para obter um desempenho ótimo do modelo. Ferramentas como Optuna ou Ray Tune são populares para a otimização de hiperparâmetros.