Glossário

Afinação

Afinar modelos de aprendizagem automática como o Ultralytics YOLO para tarefas específicas. Aprenda métodos, aplicações e melhores práticas aqui!

O ajuste fino é uma técnica fundamental na aprendizagem automática (ML) que envolve a utilização de um modelo pré-treinado num conjunto de dados grande e geral e o seu posterior treino num conjunto de dados mais pequeno e especializado. Este processo, uma forma de aprendizagem por transferência, adapta o conhecimento aprendido do modelo para se destacar numa tarefa específica sem ter de treinar um modelo de raiz. Ao começar com um modelo de base potente, os programadores podem obter um elevado desempenho com muito menos dados e recursos computacionais, um conceito explorado por instituições como o Stanford AI Lab.

Como funciona o ajuste fino

O processo começa com um modelo cujos pesos já foram optimizados num conjunto de dados alargado, como o ImageNet para visão ou um corpus de texto massivo para Modelos de Linguagem Grandes (LLMs). Este modelo pré-treinado já compreende caraterísticas gerais - tais como arestas e texturas em imagens ou gramática e semântica em texto. Em seguida, o ajuste fino continua o processo de formação, normalmente utilizando uma taxa de aprendizagem mais baixa, num conjunto de dados personalizado e adaptado à aplicação alvo. Isto ajusta os parâmetros do modelo para se tornar especializado nas nuances específicas da nova tarefa. Estruturas como PyTorch e TensorFlow fornecem ferramentas extensivas para implementar fluxos de trabalho de ajuste fino.

Aplicações no mundo real

O ajuste fino é amplamente utilizado na visão computacional (CV) e no processamento de linguagem natural (PNL).

  • Análise de imagens médicas: Um modelo como o Ultralytics YOLO11, pré-treinado para deteção geral de objectos no conjunto de dados COCO, pode ser afinado numa coleção especializada de exames de ressonância magnética para detetar tumores com precisão. Esta personalização é fundamental para criar soluções fiáveis de IA nos cuidados de saúde.
  • Chatbots personalizados: Uma empresa pode aperfeiçoar um LLM poderoso como o BERT na sua documentação interna e nos registos de apoio ao cliente. O modelo resultante torna-se um especialista nos produtos da empresa, permitindo um chatbot altamente eficaz e contextualizado para o seu sítio Web. Muitos destes modelos estão disponíveis em plataformas como a Hugging Face.

Afinação vs. Conceitos relacionados

É importante distinguir a afinação fina de outras técnicas de adaptação de modelos:

  • Treinamento do zero: Isto envolve a inicialização de uma rede neural com pesos aleatórios e o seu treino num conjunto de dados. Requer grandes quantidades de dados e poder computacional (por exemplo, GPUs) e é geralmente menos eficiente do que o ajuste fino de um modelo pré-treinado.
  • Afinação eficiente de parâmetros (PEFT): O PEFT é um conjunto de métodos que representam uma evolução mais eficiente em termos de recursos do ajuste fino. Em vez de atualizar todos os pesos do modelo, as técnicas PEFT, como LoRA, congelam o modelo original e treinam apenas um pequeno número de novos parâmetros. Isto reduz drasticamente os requisitos de memória e armazenamento, facilitando a adaptação de modelos muito grandes de organizações como a Meta AI ou a Google.
  • Ajuste imediato: Um método PEFT específico em que todos os pesos originais do modelo são congelados. Em vez de ajustar o próprio modelo, este aprende "soft prompts" especiais (embeddings treináveis) que são adicionados à entrada para orientar a saída do modelo para uma tarefa específica.
  • Geração Aumentada por Recuperação (RAG): Esta técnica melhora o resultado do modelo fornecendo conhecimento externo no momento da inferência, em vez de alterar os pesos do modelo durante o treino. A RAG recupera informações relevantes de uma base de dados e adiciona-as ao prompt para produzir respostas mais precisas e actuais.

Ajuste fino com Ultralytics

A Ultralytics simplifica o processo de afinação dos seus modelos YOLO de última geração para aplicações personalizadas. Os utilizadores podem facilmente carregar pesos pré-treinados e começar a treinar nos seus próprios conjuntos de dados para tarefas como a classificação, deteção ou segmentação de imagens. A plataforma Ultralytics HUB simplifica ainda mais este fluxo de trabalho, fornecendo uma solução integrada para gerir conjuntos de dados, modelos de treino e eventual implementação. Para obter o melhor desempenho, o ajuste fino é frequentemente combinado com um ajuste cuidadoso dos hiperparâmetros.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência