Glossário

Aprendizagem Semi-Supervisionada

Descobre como a Aprendizagem Semi-Supervisionada combina dados etiquetados e não etiquetados para melhorar os modelos de IA, reduzir os custos de etiquetagem e aumentar a precisão.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

A Aprendizagem Semi-Supervisionada (SSL) é um tipo de técnica de Aprendizagem Automática (AM) que se situa entre a aprendizagem supervisionada e a aprendizagem não supervisionada. Utiliza uma combinação de uma pequena quantidade de dados etiquetados e uma grande quantidade de dados não etiquetados para treinar modelos. A principal motivação por detrás da SSL é o elevado custo e esforço frequentemente associados à rotulagem de dados, especialmente em domínios complexos. Ao aproveitar os dados não rotulados facilmente disponíveis, a SSL visa melhorar o desempenho e a generalização do modelo para além do que poderia ser alcançado utilizando apenas os dados rotulados limitados.

Como funciona a Aprendizagem Semi-Supervisionada

O princípio fundamental da Aprendizagem Semi-Supervisionada é que os dados não rotulados, apesar de não terem rótulos explícitos, contêm informações valiosas sobre a estrutura subjacente e a distribuição dos dados. Os algoritmos SSL tentam explorar esta estrutura para melhorar o processo de aprendizagem. As abordagens comuns implicam frequentemente a adoção de pressupostos sobre os dados, como o "pressuposto de agrupamento" (os pontos do mesmo agrupamento têm provavelmente a mesma etiqueta) ou o "pressuposto de coletor" (os pontos de dados situam-se num coletor de dimensão inferior).

As técnicas utilizadas na SSL incluem métodos como a pseudo-rotulagem, em que um modelo treinado nos dados iniciais rotulados é utilizado para prever rótulos para os dados não rotulados. As previsões de elevada confiança são então tratadas como "pseudo-rótulos" e adicionadas ao conjunto de treino. Outra abordagem envolve a regularização da consistência, que incentiva o modelo a produzir resultados semelhantes para versões perturbadas da mesma entrada não rotulada, muitas vezes conseguida através de técnicas como o aumento de dados. Estes métodos ajudam o modelo a aprender caraterísticas mais robustas, utilizando o vasto conjunto de dados não rotulados. Podes encontrar uma boa visão geral da SSL em Towards Data Science.

Aplicações e exemplos

A Aprendizagem Semi-Supervisionada é particularmente útil em cenários onde a obtenção de dados rotulados é um obstáculo. Algumas áreas de aplicação chave incluem:

  • Classificação de imagens: Treinar um modelo para classificar imagens (por exemplo, utilizando conjuntos de dados como o CIFAR-10) em que apenas uma pequena fração das imagens é rotulada manualmente, mas milhões de imagens não rotuladas estão disponíveis na Web.
  • Análise de imagens médicas: Melhoria dos modelos de diagnóstico através da formação em alguns exames médicos anotados por especialistas, juntamente com um conjunto maior de exames não anotados. Isto pode melhorar tarefas como a deteção de tumores.
  • Classificação de páginas Web: Categoriza páginas Web utilizando um pequeno conjunto de páginas classificadas manualmente e um vasto número de páginas não categorizadas retiradas da Internet. Vê um exemplo de investigação inicial sobre Classificação de conteúdos Web.
  • Reconhecimento de fala: Constrói sistemas utilizando uma quantidade limitada de dados de áudio transcritos combinados com grandes volumes de discurso não transcrito.
  • Processamento de linguagem natural (PNL): Melhora tarefas como a análise de sentimentos ou a classificação de textos, tirando partido de grandes corpora de textos não etiquetados juntamente com conjuntos de dados etiquetados mais pequenos.

Distinções de conceitos relacionados

É importante distinguir a Aprendizagem Semi-Supervisionada dos paradigmas de ML relacionados:

  • Aprendizagem supervisionada: Confia inteiramente em dados totalmente rotulados para treino. SSL utiliza dados rotulados e não rotulados.
  • Aprendizagem não supervisionada: Usa apenas dados não rotulados, normalmente para tarefas como agrupamento ou redução de dimensionalidade, sem prever rótulos predefinidos. A SSL utiliza dados não rotulados para melhorar uma tarefa supervisionada.
  • Aprendizagem auto-supervisionada: Também utiliza dados não rotulados, mas gera sinais de supervisão a partir dos próprios dados (por exemplo, prever uma palavra mascarada, colorir uma imagem). É frequentemente utilizada para modelos de pré-treino que são depois afinados com dados rotulados, enquanto a SSL incorpora normalmente ambos os tipos de dados durante a fase de treino principal.

Vantagens da Aprendizagem Semi-Supervisionada

  • Custo de rotulagem reduzido: Reduz significativamente a necessidade de anotação manual de dados dispendiosa e demorada.
  • Melhoria da precisão: Pode levar a uma maior precisão do modelo em comparação com o treino apenas em pequenos conjuntos de dados rotulados, aproveitando a informação de dados não rotulados.
  • Generalização aprimorada: Os modelos treinados com SSL geralmente generalizam melhor para dados novos e não vistos, aprendendo estruturas de dados subjacentes.
  • Aproveita a abundância de dados: Utiliza eficazmente as grandes quantidades de dados não rotulados disponíveis em muitas aplicações do mundo real.

A aprendizagem semi-supervisionada oferece uma abordagem prática e poderosa para a criação de sistemas eficazes de Inteligência Artificial (IA), particularmente em tarefas de visão computacional como a deteção de objectos, em que as imagens ou vídeos não rotulados são abundantes. Plataformas como o Ultralytics HUB facilitam a gestão de conjuntos de dados que podem incluir misturas de dados etiquetados e não etiquetados para modelos de treino como o Ultralytics YOLO. A exploração de técnicas SSL pode ser crucial para projectos que enfrentam limitações na disponibilidade de dados etiquetados, tal como salientado em recursos como as publicações do blogue de IAGoogle sobre SSL.

Lê tudo