Explore o ajuste de hiperparâmetros para otimizar o desempenho do modelo. Aprenda técnicas como otimização bayesiana e como usar Ultralytics para ajuste automatizado.
O ajuste de hiperparâmetros é o processo iterativo de otimização das variáveis de configuração externas que governam o processo de treino de um modelo de aprendizagem automática (ML). Ao contrário dos parâmetros internos — como weights and biases são aprendidos a partir dos dados durante o treino — os hiperparâmetros são definidos pelo cientista de dados ou engenheiro antes do início do processo de aprendizagem. Essas configurações controlam a estrutura do modelo e o comportamento do algoritmo, atuando como os «botões e mostradores» que ajustam o desempenho. Encontrar a combinação ideal desses valores é fundamental para maximizar métricas como precisão e eficiência, muitas vezes fazendo a diferença entre um modelo medíocre e uma solução de última geração.
A coleção de todas as combinações possíveis de hiperparâmetros cria um espaço de pesquisa de alta dimensão. Os profissionais utilizam várias estratégias para navegar nesse espaço e encontrar a configuração ideal que minimize a função de perda.
ultralytics biblioteca para otimizar
arquiteturas modernas como YOLO26.
É essencial distinguir entre afinação e treino, pois representam fases distintas no ciclo de vida do MLOps:
Modelos ajustados de forma eficaz são essenciais para implementar soluções robustas em ambientes complexos.
Na IA na agricultura, drones autónomos utilizam visão computacional para identificar ervas daninhas e doenças nas culturas. Esses modelos geralmente são executados em dispositivos de ponta com bateria de duração limitada. Os engenheiros utilizam o ajuste de hiperparâmetros para otimizar o pipeline de aumento de dados e a resolução de entrada, garantindo que o modelo equilibre altas velocidades de inferência com a precisão necessária para pulverizar apenas as ervas daninhas, reduzindo o uso de produtos químicos.
Para a IA na área da saúde, especificamente na análise de imagens médicas, um falso negativo pode ter consequências graves. Ao treinar modelos para detect em exames de ressonância magnética, os profissionais ajustam agressivamente os hiperparâmetros relacionados com a ponderação de classes e a perda focal. Esse ajuste maximiza a recall, garantindo que mesmo sinais sutis de patologia sejam sinalizados para revisão humana, auxiliando significativamente no diagnóstico precoce.
O ultralytics A biblioteca simplifica a otimização ao incluir um
sintonizador que utiliza algoritmos genéticos. Isso permite que
os utilizadores pesquisem automaticamente os melhores hiperparâmetros para os seus conjuntos de dados personalizados, sem necessidade de tentativa e erro manual.
Para operações em grande escala, as equipas podem aproveitar o
Plataforma Ultralytics gerir conjuntos de dados e visualizar essas experiências de ajuste
na nuvem.
O exemplo a seguir demonstra como iniciar o ajuste de hiperparâmetros para um modelo YOLO26. O sintonizador irá alterar os hiperparâmetros ao longo de várias iterações para maximizar a Precisão Média (mAP).
from ultralytics import YOLO
# Initialize a YOLO26 model (using the 'nano' weight for speed)
model = YOLO("yolo26n.pt")
# Start tuning hyperparameters on the COCO8 dataset
# The tuner runs for 30 epochs per iteration, evolving parameters like lr0 and momentum
model.tune(data="coco8.yaml", epochs=30, iterations=100, optimizer="AdamW", plots=False)
Ao automatizar esse processo, os programadores podem se aproximar do conceito de Aprendizagem Automática (AutoML), em que o sistema se auto-otimiza para alcançar o melhor desempenho possível para uma tarefa específica.