Glossário

Normalização

Descobre o poder da normalização na aprendizagem automática! Sabe como melhora a formação de modelos, aumenta o desempenho e garante soluções de IA robustas.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

A normalização é uma técnica de pré-processamento crucial na aprendizagem automática e na ciência dos dados, utilizada para redimensionar os dados para um intervalo padrão, normalmente entre 0 e 1, ou -1 e 1. Este processo visa garantir que todas as caraterísticas contribuem de forma igual para a formação do modelo, impedindo que as caraterísticas com valores maiores dominem as que têm valores mais pequenos. Ao colocar diferentes caraterísticas numa escala semelhante, a normalização ajuda os algoritmos, especialmente os sensíveis ao escalonamento de caraterísticas, como os métodos baseados na descida de gradiente utilizados na aprendizagem profunda, a convergir de forma mais rápida e eficiente.

Porque é que a normalização é importante

Nos conjuntos de dados, as caraterísticas têm frequentemente intervalos variáveis. Por exemplo, num conjunto de dados que prevê os preços das casas, o tamanho de uma casa pode variar entre 500 e 5000 pés quadrados, enquanto o número de quartos pode variar apenas entre 1 e 5. Sem a normalização, os modelos de aprendizagem automática podem dar uma importância indevida às caraterísticas com intervalos maiores. A normalização resolve este problema, garantindo que todas as caraterísticas são tratadas uniformemente durante o treino. Isto conduz a modelos mais estáveis e robustos, a um melhor desempenho e a tempos de formação mais rápidos, especialmente para algoritmos como as redes neurais utilizadas nos modelos Ultralytics YOLO .

Tipos de normalização

São normalmente utilizadas várias técnicas de normalização:

  • Escala Mín-Máx: Esta é uma das técnicas mais comuns. Dimensiona e traduz cada caraterística individualmente de modo a que fique no intervalo [0, 1]. Podes saber mais sobre o escalonamento Min-Max no site Scikit-learn, uma biblioteca de aprendizagem automática popular em Python.
  • Padronização de escore Z: Embora tecnicamente seja padronização, muitas vezes é usada de forma intercambiável com normalização. A padronização de pontuação Z transforma os dados para que tenham uma média de 0 e um desvio padrão de 1. Este método é menos sensível a outliers em comparação com o escalonamento Mín-Máx.
  • Escala de Abs máximo: Este método dimensiona cada caraterística pelo seu valor absoluto máximo. É particularmente útil para dados esparsos e assegura que os valores permanecem dentro do intervalo [-1, 1].

A escolha da técnica de normalização adequada depende do conjunto de dados e do modelo de aprendizagem automática que está a ser utilizado. Para muitas aplicações de aprendizagem profunda, incluindo a formação de modelos Ultralytics YOLO para deteção de objectos, a normalização é um passo de pré-processamento padrão.

Aplicações da normalização

A normalização é amplamente aplicada em vários domínios da IA e do ML. Eis alguns exemplos:

  • Processamento de imagens: Na visão computacional, as imagens são frequentemente representadas como valores de pixel que variam de 0 a 255. Normalizar esses valores de pixel para um intervalo entre 0 e 1 é uma prática comum antes de alimentá-los em uma rede neural convolucional (CNN). Isto pode melhorar a capacidade do modelo para aprender caraterísticas das imagens, melhorando tarefas como a deteção de objectos utilizando Ultralytics YOLOv8 ou a classificação de imagens. Considera explorar como o pré-processamento de dados anotados é crucial em projectos de visão computacional para um desempenho ótimo do modelo.
  • Análise de imagens médicas: Na análise de imagens médicas, a normalização é fundamental para padronizar os intervalos de intensidade de imagens de diferentes scanners ou pacientes. Esta normalização é crucial para os modelos de IA detectarem com precisão anomalias ou doenças, independentemente da origem da imagem médica. Por exemplo, na deteção de tumores cerebrais utilizando Ultralytics YOLO11 em imagens médicas, a normalização consistente garante que o modelo é robusto e fiável em diversos conjuntos de dados.

Em resumo, a normalização é um passo fundamental na preparação dos dados para a aprendizagem automática. Garante uma contribuição justa de todas as funcionalidades, acelera a formação e melhora a estabilidade e o desempenho dos modelos de IA em várias aplicações, incluindo as alimentadas por Ultralytics YOLO .

Lê tudo