Glossário

Afinação de hiperparâmetros

Domina a afinação de hiperparâmetros para otimizar modelos ML como Ultralytics YOLO . Aumenta a precisão, a velocidade e o desempenho com técnicas especializadas.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

A afinação de hiperparâmetros, também conhecida como otimização de hiperparâmetros, é um processo fundamental na aprendizagem automática (ML) que visa encontrar a melhor combinação de hiperparâmetros para maximizar o desempenho de um modelo. Os hiperparâmetros são definições de configuração definidas antes do início do processo de treino, ao contrário dos parâmetros do modelo (como weights and biases numa rede neural) que são aprendidos durante o treino. O ajuste dessas configurações externas é crucial porque elas controlam o próprio processo de aprendizagem, influenciando a eficácia com que um modelo aprende com os dados e generaliza para exemplos novos e não vistos.

Compreender os hiperparâmetros

Os hiperparâmetros definem propriedades de nível superior do modelo, como a sua complexidade ou a rapidez com que deve aprender. Exemplos comuns incluem a taxa de aprendizagem utilizada em algoritmos de otimização, o tamanho do lote que determina quantas amostras são processadas antes de atualizar os parâmetros do modelo, o número de camadas numa rede neural ou a força das técnicas de regularização. A escolha dos hiperparâmetros tem um impacto significativo nos resultados do modelo. Uma má escolha pode levar a um subajuste, em que o modelo é demasiado simples para captar os padrões dos dados, ou a um sobreajuste, em que o modelo aprende demasiado bem os dados de treino, incluindo o ruído, e não consegue generalizar.

Porque é que a afinação de hiperparâmetros é importante

O ajuste eficaz de hiperparâmetros é essencial para a construção de modelos de ML de alto desempenho. Um modelo bem ajustado consegue uma melhor precisão, uma convergência mais rápida durante o treino e uma melhor generalização nos dados de teste. Para tarefas complexas, como a deteção de objectos, utilizando modelos como o Ultralytics YOLOencontrar hiperparâmetros óptimos pode melhorar drasticamente as métricas de desempenho, como a precisão média média (mAP) e a velocidade de inferência, que são críticas para aplicações que exigem inferência em tempo real. O objetivo é navegar pelas soluções de compromisso, como a solução de compromisso entre a polarização e a variância, para encontrar o ponto ideal para um determinado problema e conjunto de dados.

Técnicas de afinação de hiperparâmetros

Existem várias estratégias para procurar os melhores valores de hiperparâmetros:

  • Pesquisa em grade: Tenta exaustivamente todas as combinações possíveis de valores de hiperparâmetros especificados. Embora completa, pode ser computacionalmente cara, especialmente com muitos hiperparâmetros. Saiba mais sobre a Pesquisa de grade.
  • Pesquisa aleatória: Recolhe amostras de combinações de hiperparâmetros aleatoriamente a partir de distribuições especificadas. Muitas vezes, é mais eficiente do que a Pesquisa em grade, pois os bons parâmetros nem sempre são encontrados em uma grade uniforme. Explora os detalhes da Pesquisa aleatória.
  • Otimização Bayesiana: Usa modelos de probabilidade para prever quais hiperparâmetros podem produzir melhores resultados, concentrando a pesquisa em áreas promissoras. Geralmente, é mais eficiente do que a pesquisa aleatória ou em grelha. Frameworks como o Optuna fornecem implementações.
  • Algoritmos evolutivos: Usa conceitos inspirados na evolução biológica, como mutação e seleção, para refinar iterativamente os hiperparâmetros.YOLOv5 Ultralytics YOLOv5 inclui um guia sobre a evolução dos hiperparâmetros.

Ferramentas como Weights & Biases Sweeps e KerasTuner ajudam a automatizar e gerir estes processos de afinação.

Afinação de hiperparâmetros vs. conceitos relacionados

É importante distinguir a afinação de hiperparâmetros dos conceitos de ML relacionados:

  • Parâmetros do modelo vs. hiperparâmetros: Os parâmetros do modelo (por exemplo, pesos em uma CNN) são aprendidos com os dados durante o treinamento. Os hiperparâmetros (por exemplo, taxa de aprendizagem, número de filtros) são definidos antes do treino para configurar o processo de aprendizagem.
  • Algoritmos de otimização vs. ajuste de hiperparâmetros: Os algoritmos de otimização (como o Adam ou o SGD) ajustam os parâmetros do modelo para minimizar uma função de perda. O ajuste de hiperparâmetros encontra as configurações ideais para esses algoritmos e outros aspectos do treinamento, incluindo a escolha do otimizador ou sua taxa de aprendizado específica.
  • Regularização vs. Ajuste de hiperparâmetros: As técnicas de regularização (por exemplo, camadas de Dropout, penalizações L1/L2) ajudam a evitar o sobreajuste. A força ou a taxa dessas técnicas são elas próprias hiperparâmetros que precisam ser ajustados.

Aplicações no mundo real

A afinação de hiperparâmetros é aplicada em vários domínios:

  1. Análise de imagens médicas: Ao treinar um modelo Ultralytics YOLO para deteção de tumores, o ajuste de hiperparâmetros como taxa de aprendizagem, configurações de aumento de dados (por exemplo, faixa de rotação, ajustes de brilho) e escolhas de arquitetura de modelo (como profundidade de backbone) é crucial para maximizar a sensibilidade e a especificidade da identificação de tumores em exames como MRIs ou CTs. Isto garante que o modelo detecta anomalias de forma fiável, minimizando os falsos positivos.(Explora as soluções de IA nos cuidados de saúde).
  2. Condução autónoma: No desenvolvimento de sistemas de perceção para veículos autónomos, a afinação de hiperparâmetros optimiza os modelos de deteção de objectos para identificar com precisão peões, veículos e sinais de trânsito em diversas condições (dia, noite, chuva). O ajuste de parâmetros como limiares de confiança de deteção, definições de Supressão Não Máxima (NMS) e resolução de imagem de entrada ajuda a equilibrar a velocidade e a precisão da deteção, vitais para aplicações críticas de segurança.(Ver soluções de IA no sector automóvel).

Afinação de hiperparâmetros com Ultralytics

Ultralytics fornece ferramentas para simplificar a afinação de hiperparâmetros para modelos YOLO . O teu Ultralytics Tuner classedocumentado no Guia de afinação de hiperparâmetrosautomatiza o processo utilizando algoritmos evolutivos. Integração com plataformas como Ray Tune oferece mais capacidades para estratégias de pesquisa distribuídas e avançadas, ajudando os utilizadores a otimizar os seus modelos de forma eficiente para conjuntos de dados e tarefas específicos, utilizando recursos como Ultralytics HUB.

Lê tudo