Define as pontuações de confiança da IA. Aprende como os modelos medem a certeza da previsão, definem limites para a fiabilidade e distinguem confiança de precisão.
A confiança, no contexto da Inteligência Artificial (IA) e da Aprendizagem Automática (AM), representa uma pontuação atribuída por um modelo à sua previsão, indicando o grau de certeza do modelo em relação a esse resultado específico. Para tarefas como a deteção de objectos ou a classificação de imagens, cada objeto detectado ou etiqueta de classe atribuída tem uma pontuação de confiança, que normalmente varia entre 0 e 1 (ou 0% e 100%). Esta pontuação ajuda os utilizadores a avaliar a fiabilidade das previsões individuais efectuadas por modelos como o Ultralytics YOLO. Uma pontuação mais elevada sugere que o modelo tem mais certezas quanto à sua previsão com base nos padrões aprendidos durante o treino. Compreender a confiança é crucial para interpretar os resultados do modelo e tomar decisões informadas com base nas previsões de IA, especialmente em aplicações críticas para a segurança, como a IA em soluções automóveis.
As pontuações de confiança são normalmente derivadas da camada de saída de uma rede neural (NN). Para tarefas de classificação, isso geralmente envolve a aplicação de uma função de ativação como Softmax ou Sigmoid às saídas brutas (logits) para produzir valores semelhantes a probabilidade para cada classe. Em modelos de deteção de objectos como o YOLO, a pontuação de confiança pode combinar a probabilidade de um objeto estar presente numa caixa delimitadora proposta (frequentemente designada por "pontuação de objetividade") e a probabilidade de esse objeto pertencer a uma classe específica, condicionada pela presença de um objeto. É um resultado fundamental utilizado durante o processo de inferência para avaliar a validade das detecções. Esta pontuação é calculada com base nos pesos do modelo aprendidos com conjuntos de dados como o COCO.
Na prática, nem todas as previsões de um modelo são igualmente úteis ou fiáveis. As previsões com valores de confiança muito baixos representam frequentemente ruído de fundo ou classificações incertas. Para as filtrar, é normalmente aplicado um "limiar de confiança". Trata-se de um valor definido pelo utilizador (por exemplo, 0,5 ou 50%); apenas as previsões com uma pontuação de confiança acima deste limiar são consideradas saídas válidas. A definição de um limiar adequado é vital e depende frequentemente da aplicação específica:
O limiar de confiança funciona frequentemente em conjunto com técnicas como a supressão não máxima (NMS) para refinar o conjunto final de detecções através da remoção de caixas delimitadoras sobrepostas para o mesmo objeto. Podes configurar facilmente este limiar quando utilizas modelos Ultralytics através da interface de linha de comandos (CLI) ou da APIPython . Encontrar o limite ideal pode envolver o ajuste de hiperparâmetros.
As pontuações de confiança são fundamentais para a implementação de modelos de IA de forma responsável e eficaz:
É importante não confundir a pontuação de confiança de uma previsão individual com as métricas gerais de avaliação do modelo. Embora relacionadas, elas medem aspectos diferentes do desempenho:
Em resumo, a confiança é um resultado valioso para avaliar a certeza de previsões individuais de IA, permitindo uma melhor filtragem, priorização e tomada de decisões em aplicações do mundo real. Complementa, mas é diferente das métricas que avaliam o desempenho geral de um modelo, como as rastreadas no Ultralytics HUB.