Glossário

Afinação de hiperparâmetros

Domina a afinação de hiperparâmetros para otimizar modelos ML como Ultralytics YOLO . Aumenta a precisão, a velocidade e o desempenho com técnicas especializadas.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

A afinação de hiperparâmetros, também conhecida como otimização de hiperparâmetros, é um processo fundamental na aprendizagem automática (ML) que visa encontrar a melhor combinação de hiperparâmetros para maximizar o desempenho de um modelo. Os hiperparâmetros são definições de configuração definidas antes do início do processo de formação, ao contrário dos parâmetros do modelo (como weights and biases numa rede neural) que são aprendidos durante a formação através de técnicas como a retropropagação. O ajuste dessas configurações externas é crucial porque elas controlam o próprio processo de aprendizagem, influenciando a eficácia com que um modelo aprende com os dados e generaliza para exemplos novos e não vistos.

Compreender os hiperparâmetros

Os hiperparâmetros definem propriedades de nível superior do modelo, como a sua complexidade ou a rapidez com que deve aprender. Exemplos comuns incluem a taxa de aprendizagem utilizada em algoritmos de otimização, o tamanho do lote que determina quantas amostras são processadas antes de atualizar os parâmetros do modelo, o número de camadas numa rede neural ou a força das técnicas de regularização, como a utilização de camadas de abandono. A escolha dos hiperparâmetros tem um impacto significativo nos resultados do modelo. Uma má escolha pode levar a um subajuste, em que o modelo é demasiado simples para captar os padrões dos dados, ou a um sobreajuste, em que o modelo aprende demasiado bem os dados de treino, incluindo o ruído, e não consegue generalizar para os dados de teste.

Porque é que a afinação de hiperparâmetros é importante

O ajuste eficaz de hiperparâmetros é essencial para a construção de modelos de ML de alto desempenho. Um modelo bem ajustado consegue uma melhor precisão, uma convergência mais rápida durante o treino e uma melhor generalização em dados não vistos. Para tarefas complexas, como a deteção de objectos, utilizando modelos como o Ultralytics YOLOencontrar hiperparâmetros óptimos pode melhorar drasticamente as métricas de desempenho, como a precisão média média (mAP) e a velocidade de inferência, que são críticas para aplicações que exigem inferência em tempo real. O objetivo é navegar pelas soluções de compromisso, como a solução de compromisso entre a polarização e a variância, para encontrar o ponto ideal para um determinado problema e conjunto de dados, frequentemente avaliados com dados de validação.

Técnicas de afinação de hiperparâmetros

Existem várias estratégias para procurar os melhores valores de hiperparâmetros:

  • Pesquisa em grade: Tenta exaustivamente todas as combinações possíveis de valores de hiperparâmetros especificados. Simples mas computacionalmente dispendioso.
  • Pesquisa aleatória: Recolhe aleatoriamente amostras de combinações de hiperparâmetros a partir de distribuições especificadas. Muitas vezes, é mais eficiente do que a pesquisa em grelha.
  • Otimização Bayesiana: Constrói um modelo probabilístico da função objetivo (por exemplo, precisão do modelo) e o utiliza para selecionar hiperparâmetros promissores para avaliar em seguida. Ferramentas como Optuna implementam isso.
  • Algoritmos evolutivos: Utiliza conceitos inspirados na evolução biológica, como a mutação e o cruzamento, para refinar iterativamente populações de conjuntos de hiperparâmetros. Os modelosYOLO Ultralytics tiram partido disto para a evolução dos hiperparâmetros.

Ferramentas como Weights & Biases Sweeps, ClearML, Comete KerasTuner ajudam a automatizar e gerenciar esses processos de ajuste, muitas vezes integrando-se a estruturas como PyTorch e TensorFlow.

Afinação de hiperparâmetros vs. conceitos relacionados

É importante distinguir a afinação de hiperparâmetros dos conceitos de ML relacionados:

  • Treino do modelo: O ajuste dos hiperparâmetros define as condições para o treinamento (por exemplo, taxa de aprendizado, tamanho do lote). O treino do modelo é o processo de aprendizagem dos parâmetros do modeloweights and biases) com base nos dados, utilizando os hiperparâmetros escolhidos e um algoritmo de otimização.
  • Algoritmos de otimização (Adam, SGD): Estes algoritmos actualizam os parâmetros do modelo durante o treino com base na função de perda. Os hiperparâmetros controlam estes algoritmos (por exemplo, a taxa de aprendizagem), mas o processo de afinação em si é separado do funcionamento do algoritmo.
  • Regularização: Técnicas como a regularização L1/L2 ou o dropout ajudam a evitar o sobreajuste. A força ou a taxa destas técnicas são elas próprias hiperparâmetros que precisam de ser ajustados.
  • Aprendizagem automática de máquinas (AutoML): Um campo mais vasto que visa automatizar todo o pipeline de ML, incluindo engenharia de caraterísticas, seleção de modelos e afinação de hiperparâmetros. HPT é frequentemente um componente chave dos sistemas AutoML.

Aplicações no mundo real

A afinação de hiperparâmetros é aplicada em vários domínios:

Afinação de hiperparâmetros com Ultralytics

Ultralytics fornece ferramentas para simplificar a afinação de hiperparâmetros para modelos YOLO . O teu Ultralytics Tuner classedocumentado no Guia de afinação de hiperparâmetrosautomatiza o processo utilizando algoritmos evolutivos. Integração com plataformas como Ray Tune oferece mais capacidades para estratégias de pesquisa distribuídas e avançadas, ajudando os utilizadores a otimizar os seus modelos de forma eficiente para conjuntos de dados específicos (como COCO) e tarefas que utilizam recursos como Ultralytics HUB para o acompanhamento e gestão de experiências. Seguinte dicas de formação de modelos envolve frequentemente uma afinação eficaz dos hiperparâmetros.

Lê tudo