Glossário

Afinação

Afina modelos de aprendizagem automática como Ultralytics YOLO para tarefas específicas. Aprende métodos, aplicações e melhores práticas aqui!

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

O ajuste fino é uma técnica crucial na aprendizagem automática que aperfeiçoa um modelo pré-treinado num conjunto de dados novo e específico para melhorar o seu desempenho numa determinada tarefa. Em vez de treinar um modelo a partir do zero, o que pode ser demorado e exigir grandes quantidades de dados, o ajuste fino aproveita o conhecimento já aprendido por um modelo num conjunto de dados grande e geral. Esta abordagem é particularmente eficaz quando a nova tarefa está relacionada com a tarefa para a qual o modelo foi originalmente treinado, permitindo uma convergência mais rápida, uma melhor generalização e uma maior precisão com menos dados.

O que é o Fine-tuning?

O ajuste fino envolve pegar num modelo que já foi treinado num conjunto de dados alargado, muitas vezes referido como o "modelo pré-treinado", e depois treiná-lo num conjunto de dados mais pequeno e específico da tarefa. Este processo envolve normalmente o descongelamento de algumas ou de todas as camadas do modelo pré-treinado e a continuação do processo de treino, muitas vezes com uma taxa de aprendizagem mais baixa. O objetivo é adaptar as caraterísticas aprendidas do modelo pré-treinado às nuances do novo conjunto de dados, melhorando assim o seu desempenho na tarefa pretendida. Isto é especialmente vantajoso em domínios como a visão por computador e o processamento de linguagem natural (PNL), em que os modelos pré-treinados captam caraterísticas gerais que podem ser eficazmente transferidas para aplicações mais específicas.

Porque é que o ajuste fino é importante?

O ajuste fino oferece várias vantagens importantes nos projectos de aprendizagem automática. Em primeiro lugar, reduz significativamente o tempo de formação e os recursos computacionais. Uma vez que o modelo começa a partir de um ponto de caraterísticas já aprendidas, converge muito mais rapidamente do que o treino a partir do zero. Isto é particularmente importante quando lida com modelos complexos como as Redes Neuronais Convolucionais (CNN) ou os Transformers. Em segundo lugar, o ajuste fino geralmente leva a uma maior precisão do modelo. Os modelos pré-treinados aprenderam caraterísticas robustas e generalizáveis a partir de grandes conjuntos de dados, que, quando adaptados a uma tarefa específica, podem superar os modelos treinados apenas com dados específicos da tarefa. Em terceiro lugar, alivia a necessidade de conjuntos de dados maciços. O ajuste fino permite uma formação eficaz mesmo com dados limitados, uma vez que o modelo pré-treinado já captou padrões essenciais de uma distribuição de dados mais ampla. Isto é especialmente útil em domínios em que a recolha de dados é difícil ou dispendiosa, como a análise de imagens médicas.

Como funciona o ajuste fino?

O processo de afinação começa normalmente com a seleção de um modelo pré-treinado adequado. Por exemplo, em tarefas de visão computacional como a deteção de objectos, são normalmente utilizados modelos pré-treinados no ImageNet. O passo seguinte envolve a substituição da camada de classificação final do modelo pré-treinado para corresponder ao número de classes da nova tarefa. Depois, o modelo é treinado no novo conjunto de dados. Muitas vezes, os profissionais utilizam técnicas como o congelamento das camadas iniciais do modelo pré-treinado, que captam caraterísticas gerais, e só treinam as camadas posteriores que aprendem caraterísticas específicas da tarefa. Em alternativa, todas as camadas podem ser descongeladas e treinadas com uma taxa de aprendizagem muito pequena para ajustar subtilmente todos os pesos. A experimentação de diferentes estratégias, como o congelamento de camadas e a afinação de hiperparâmetros, é essencial para obter um desempenho ótimo para a tarefa específica em causa. Plataformas como o Ultralytics HUB simplificam este processo, fornecendo ferramentas para gerir conjuntos de dados e treinar modelos Ultralytics YOLO de forma eficiente.

Aplicações da afinação

O ajuste fino é amplamente aplicado em vários domínios da IA. Eis alguns exemplos:

  • Imagiologia médica: Na IA nos cuidados de saúde, os modelos de classificação de imagens pré-treinados podem ser aperfeiçoados para detetar doenças específicas a partir de imagens médicas como raios X ou exames de ressonância magnética. Por exemplo, um modelo pré-treinado em imagens gerais pode ser adaptado para identificar com precisão tumores em exames de ressonância magnética do cérebro, ajudando significativamente o diagnóstico e o planeamento do tratamento. Esta aplicação tira partido da capacidade de afinação para transferir caraterísticas gerais de imagens para o contexto específico da análise de imagens médicas.
  • Deteção de objectos personalizada: Para aplicações como a IA na agricultura, os modelos Ultralytics YOLO pré-treinados em grandes conjuntos de dados podem ser ajustados para detetar objectos específicos, como diferentes tipos de culturas, pragas ou doenças em campos agrícolas. Isto permite uma monitorização precisa e automatizada da saúde e do rendimento das culturas, melhorando a eficiência da agricultura. Utilizando Ultralytics YOLOv8por exemplo, os agricultores podem treinar modelos personalizados nas imagens específicas das suas explorações agrícolas para detetar e gerir desafios agrícolas específicos.

Afinação vs. Aprendizagem por transferência

Embora seja frequentemente utilizada de forma indistinta, a afinação é uma técnica específica no âmbito do conceito mais vasto de aprendizagem por transferência. A aprendizagem por transferência engloba a ideia de aproveitar os conhecimentos adquiridos na resolução de um problema e aplicá-los a um problema diferente, mas relacionado. O ajuste fino é um método de aprendizagem por transferência em que pegamos num modelo pré-treinado e ajustamos os seus pesos num novo conjunto de dados. Outras técnicas de aprendizagem por transferência podem implicar a utilização de caraterísticas pré-treinadas numa nova arquitetura de modelo ou a utilização de um modelo pré-treinado como um extrator de caraterísticas sem treinar mais os seus pesos. Essencialmente, a afinação é uma abordagem mais prática da aprendizagem por transferência, centrada na formação contínua de um modelo pré-existente, ao passo que a aprendizagem por transferência é o princípio geral da transferência de conhecimentos entre tarefas.

Ferramentas e plataformas para afinação

Várias ferramentas e plataformas facilitam o processo de afinação. Estruturas de aprendizagem profunda como PyTorch e TensorFlow fornecem bibliotecas e funcionalidades extensas para carregar modelos pré-treinados, modificar camadas e realizar o ajuste fino. Ultralytics O HUB oferece um ambiente simplificado projetado especificamente para treinamento e ajuste fino dos modelos Ultralytics YOLO . Simplifica o fluxo de trabalho com funcionalidades para gestão de conjuntos de dados, formação de modelos e implementação, tornando o ajuste fino acessível mesmo a utilizadores com conhecimentos limitados de codificação. Plataformas de nuvem como Google Colab e Amazon SageMaker fornecem os recursos computacionais necessários, como GPUs, para realizar tarefas de ajuste fino de forma eficiente, especialmente para modelos e conjuntos de dados grandes.

Em conclusão, a afinação é uma técnica indispensável na aprendizagem automática moderna, permitindo uma adaptação eficiente de modelos pré-treinados poderosos a tarefas específicas. Ao tirar partido das caraterísticas aprendidas e ao ajustar os modelos a novos conjuntos de dados, o ajustamento fino poupa tempo, recursos e dados, ao mesmo tempo que obtém frequentemente um desempenho superior do modelo. A sua ampla aplicabilidade em vários domínios torna-o uma pedra angular do desenvolvimento prático da IA.

Lê tudo