Descobre como a Aprendizagem Semi-Supervisionada combina dados etiquetados e não etiquetados para melhorar os modelos de IA, reduzir os custos de etiquetagem e aumentar a precisão.
A Aprendizagem Semi-Supervisionada (SSL) representa um poderoso meio-termo na Aprendizagem Automática (AM), combinando uma pequena quantidade de dados rotulados com uma grande quantidade de dados não rotulados durante o treino. Esta abordagem é particularmente valiosa em cenários em que a aquisição de dados rotulados é dispendiosa, demorada ou impraticável, mas os dados não rotulados são abundantes. A SSL visa aproveitar a estrutura subjacente nos dados não rotulados para melhorar o desempenho do modelo para além do que poderia ser alcançado usando apenas os dados rotulados limitados, tornando-a uma técnica prática para muitos problemas de Inteligência Artificial (IA) do mundo real.
Os algoritmos SSL funcionam com base em determinados pressupostos sobre a relação entre os dados etiquetados e não etiquetados. Os pressupostos comuns incluem o "pressuposto de suavidade" (os pontos próximos uns dos outros partilham provavelmente uma etiqueta) ou o "pressuposto de agrupamento" (os dados tendem a formar agrupamentos distintos e os pontos dentro do mesmo agrupamento partilham provavelmente uma etiqueta). As técnicas envolvem frequentemente o treino de um modelo inicial nos dados rotulados e, em seguida, a sua utilização para gerar pseudo-rótulos para os dados não rotulados com base em previsões de elevada confiança. O modelo é então treinado novamente com os dados originais rotulados e com os novos dados pseudo-rotulados. Outra abordagem é a regularização da consistência, em que o modelo é encorajado a produzir o mesmo resultado para um exemplo não rotulado, mesmo que a sua entrada seja ligeiramente perturbada, o que é frequentemente conseguido através do aumento dos dados. Estes métodos permitem que o modelo aprenda com os padrões e a distribuição inerentes ao grande conjunto de amostras não rotuladas. As técnicas mais avançadas são exploradas em recursos como as publicações no blogue de IAGoogle sobre SSL.
A Aprendizagem Semi-Supervisionada ocupa um espaço único entre outros tipos de aprendizagem primária:
O SSL é altamente eficaz em domínios em que a rotulagem é um estrangulamento:
A principal vantagem da SSL é a sua capacidade de reduzir a dependência de grandes conjuntos de dados rotulados, poupando tempo e recursos associados à rotulagem dos dados. Conduz frequentemente a uma melhor generalização do modelo em comparação com modelos puramente supervisionados treinados em dados limitados, explorando informações de amostras não rotuladas. No entanto, o sucesso da SSL depende em grande medida do facto de os pressupostos subjacentes aos dados estarem corretos. Se estes pressupostos não se mantiverem (por exemplo, se a distribuição dos dados não rotulados for muito diferente da dos dados rotulados), os métodos SSL podem até degradar o desempenho. A seleção e implementação cuidadosas das técnicas SSL são cruciais, exigindo frequentemente conhecimentos especializados em práticas de MLOps.
Muitas estruturas modernas de aprendizagem profunda (DL), incluindo PyTorchPyTorch site oficialPyTorch ) e TensorFlowTensorFlow ), oferecem funcionalidades ou podem ser adaptadas para implementar algoritmos SSL. Bibliotecas como a Scikit-learn fornecem alguns métodos SSL. Plataformas como o Ultralytics HUB simplificam o processo, facilitando a gestão de conjuntos de dadosUltralytics HUB Datasets documentation) que podem conter misturas de dados etiquetados e não etiquetados, simplificando a formaçãoUltralytics HUB Cloud Training) e a implementação(model deployment options guide) de modelos concebidos para tirar partido dessas estruturas de dados. A investigação em SSL continua a evoluir, com contribuições frequentemente apresentadas nas principais conferências de IA, como a NeurIPS e a ICML.