Glossário

Curva Caraterística de Funcionamento do Recetor (ROC)

Aprende como as curvas ROC e AUC avaliam o desempenho do classificador em IA/ML, optimizando TPR vs. FPR para tarefas como deteção de fraude e diagnóstico médico.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

Uma curva ROC (Receiver Operating Characteristic) é um gráfico utilizado para ilustrar a capacidade de diagnóstico de um sistema classificador binário à medida que o seu limiar de discriminação é variado. Ajuda a visualizar a capacidade de um modelo de aprendizagem automática para distinguir entre duas classes (por exemplo, positivo vs. negativo, spam vs. não spam). A curva é criada traçando a taxa de verdadeiros positivos (TPR) em relação à taxa de falsos positivos (FPR) em várias definições de limiar. Compreender as curvas ROC é crucial para avaliar e comparar o desempenho dos modelos de classificação, especialmente em áreas como a análise de imagens médicas e o reconhecimento de padrões.

Compreender a TPR e a FPR

Para interpretar uma curva ROC, é essencial compreender os seus eixos:

  • Taxa de verdadeiros positivos (TPR): Também conhecida como Sensibilidade ou Recuperação, a TPR mede a proporção de instâncias positivas reais que são identificadas corretamente pelo modelo. É calculada como Verdadeiros positivos / (Verdadeiros positivos + Falsos negativos). Um TPR mais alto indica que o modelo é bom na identificação de casos positivos.
  • Taxa de falsos positivos (FPR): Mede a proporção de instâncias negativas reais que são incorretamente identificadas como positivas. É calculada como Falsos positivos / (Falsos positivos + Verdadeiros negativos). Um FPR mais baixo significa que o modelo faz menos previsões positivas incorrectas. Podes explorar mais estes conceitos através de recursos como a página da Wikipedia sobre Sensibilidade e Especificidade.

A curva ROC mostra a relação de compromisso entre TPR e FPR. À medida que o limiar de classificação muda, o modelo pode identificar mais positivos verdadeiros (aumentando o TPR), mas potencialmente à custa de identificar mais falsos positivos (aumentando o FPR).

Interpretar a curva ROC e a AUC

A forma da curva ROC fornece informações sobre o desempenho do modelo:

  • Curva ideal: Uma curva que abraça o canto superior esquerdo representa um classificador perfeito, alcançando um TPR elevado com um FPR baixo.
  • Linha diagonal: Uma linha diagonal de (0,0) a (1,1) representa um classificador sem capacidade discriminativa, essencialmente executando adivinhação aleatória.
  • Abaixo da diagonal: Uma curva abaixo da linha diagonal indica um desempenho pior do que a adivinhação aleatória.

Uma métrica comum derivada da curva ROC é a Área Sob a Curva (AUC). A AUC fornece um valor escalar único que resume o desempenho do classificador em todos os limiares possíveis. Uma AUC de 1,0 representa um classificador perfeito, enquanto uma AUC de 0,5 significa um modelo com desempenho aleatório. Ferramentas como o Scikit-learn oferecem funções para calcular a AUC.

Aplicações no mundo real

As curvas ROC são amplamente utilizadas em vários domínios:

  1. Diagnóstico médico: No desenvolvimento de sistemas de IA para tarefas como a deteção de tumores a partir de exames, as curvas ROC ajudam a avaliar a capacidade do modelo para distinguir entre casos malignos (positivos) e benignos (negativos) em diferentes limiares de confiança. Isto permite aos médicos escolher um limiar que equilibre a deteção de tumores reais (TPR) e a minimização de falsos alarmes (FPR).
  2. Deteção de fraudes: As instituições financeiras utilizam modelos para detetar transacções fraudulentas. Uma curva ROC pode avaliar a capacidade do modelo para identificar fraudes (positivas) versus transacções legítimas (negativas). Ao analisar a curva, os bancos podem selecionar um ponto de funcionamento que maximize a deteção de fraudes, mantendo aceitável a taxa de transacções legítimas incorretamente assinaladas. Sabe mais sobre aplicações de IA em finanças.

Curva ROC vs. Exatidão, Precisão e Recuperação

Embora métricas como a Exatidão, a Precisão e a Recuperação forneçam informações valiosas, a curva ROC e a AUC oferecem uma visão mais abrangente, particularmente com conjuntos de dados desequilibrados em que uma classe supera significativamente a outra. A exatidão pode ser enganadora em tais cenários, porque uma pontuação elevada pode ser alcançada através da simples previsão da classe maioritária. A curva ROC, centrada no trade-off TPR/FPR, fornece uma avaliação independente do limiar da capacidade do modelo para discriminar entre classes. Para obteres informações detalhadas sobre a avaliação de modelos como o Ultralytics YOLO, consulta o nosso guia sobre as métricas de desempenhoYOLO . A visualização dessas métricas muitas vezes pode ser feita usando ferramentas integradas a plataformas como o Ultralytics HUB ou bibliotecas como o TensorBoard.

Lê tudo