Glossário

Curva Caraterística de Funcionamento do Recetor (ROC)

Aprende como as curvas ROC e AUC avaliam o desempenho do classificador em IA/ML, optimizando TPR vs. FPR para tarefas como deteção de fraude e diagnóstico médico.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

Na aprendizagem automática, em particular nas tarefas de classificação binária, a curva ROC (Receiver Operating Characteristic) é uma ferramenta gráfica vital utilizada para avaliar o desempenho de um modelo de classificação em diferentes definições de limiar. Ilustra a capacidade de diagnóstico de um sistema classificador binário à medida que o seu limiar de discriminação é variado. A curva ROC é traçada com a Taxa de Verdadeiros Positivos (TPR) contra a Taxa de Falsos Positivos (FPR), em que a TPR está no eixo y e a FPR está no eixo x. Isto torna-a um recurso inestimável para compreender o compromisso entre os benefícios de identificar corretamente os casos positivos e os custos de classificar incorretamente os casos negativos como positivos.

Compreender a curva ROC

A curva ROC é construída com base em duas métricas fundamentais: a taxa de verdadeiros positivos (TPR) e a taxa de falsos positivos (FPR).

  • A Taxa de Verdadeiros Positivos (TPR), também conhecida como Sensibilidade ou Recuperação, mede a proporção de positivos reais que são corretamente identificados. Uma TPR elevada significa que o modelo é bom na deteção de instâncias positivas.
  • A taxa de falsos positivos (FPR), também conhecida como especificidade, mede a proporção de negativos reais que são incorretamente classificados como positivos. Um FPR baixo é desejável, indicando que o modelo dá menos alarmes falsos.

Ao traçar essas taxas umas contra as outras em várias configurações de limite, a curva ROC visualiza o espetro de desempenho de um classificador. Uma curva mais próxima do canto superior esquerdo indica um modelo melhor, o que implica um TPR mais elevado e um FPR mais baixo em diferentes limiares. Um classificador ideal teria um ponto no canto superior esquerdo (1,1), representando 100% de TPR e 0% de FPR.

Área sob a curva (AUC)

Uma métrica de resumo fundamental derivada da curva ROC é a área sob a curva (AUC). A AUC fornece um valor escalar único que representa o desempenho global do classificador, independentemente do limiar escolhido. Uma AUC de 1 representa um classificador perfeito, enquanto uma AUC de 0,5 sugere um desempenho não melhor do que a adivinhação aleatória. Geralmente, quanto mais elevada for a AUC, melhor será a capacidade do modelo para distinguir entre classes positivas e negativas. Podes explorar mais sobre a AUC e o seu significado na aprendizagem automática na nossa página do glossário sobre a Área sob a curva (AUC).

Aplicações em IA e ML

As curvas ROC e AUC são amplamente utilizadas em várias aplicações de IA e ML, especialmente quando o equilíbrio entre verdadeiros positivos e falsos positivos é crítico. Eis alguns exemplos:

  • Diagnóstico médico: Na análise de imagens médicas, as curvas ROC são essenciais para avaliar testes de diagnóstico de doenças como o cancro. Por exemplo, ao utilizar Ultralytics YOLO para a deteção de tumores em imagens médicas, a análise ROC pode ajudar a determinar o limiar ideal para classificar as imagens como contendo tumores (positivas) ou não (negativas). Um modelo com bom desempenho, indicado por um AUC elevado, garante que os casos reais de tumores são corretamente identificados (TPR elevado), minimizando simultaneamente os falsos alarmes que podem conduzir a tratamentos desnecessários (FPR baixo).
  • Deteção de fraudes: Nos sistemas de segurança financeira, as curvas ROC são utilizadas para avaliar a eficácia dos modelos de deteção de fraude. Neste caso, um caso positivo pode representar uma transação fraudulenta e um caso negativo uma transação legítima. Uma curva ROC ajuda a afinar o modelo para detetar o maior número possível de transacções fraudulentas (TPR elevado) sem assinalar excessivamente as transacções legítimas como fraudulentas (FPR baixo), o que poderia incomodar os clientes.

Curva ROC vs. Exatidão, Precisão e Recuperação

Embora métricas como exatidão, precisão e recuperação também sejam utilizadas para avaliar classificadores, a curva ROC fornece uma visão mais matizada do desempenho, especialmente quando se lida com conjuntos de dados desequilibrados. Ao contrário da exatidão, que pode ser enganadora em cenários desequilibrados, a curva ROC e a AUC centram-se na compensação entre TPR e FPR, oferecendo uma compreensão mais abrangente do poder discriminatório de um modelo em diferentes pontos de funcionamento. Para aprofundar a avaliação do modelo, considera explorar o nosso guia em YOLO Métricas de desempenho.

Para leres mais sobre as curvas ROC, recursos como a documentação do scikit-learn sobre curvas ROC e artigos na Wikipedia sobre curvas ROC podem fornecer mais informação técnica e teórica.

Lê tudo