Glossário

Preconceitos na IA

Descobre como identificar, atenuar e evitar preconceitos nos sistemas de IA com estratégias, ferramentas e exemplos do mundo real para o desenvolvimento ético da IA.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

O preconceito na Inteligência Artificial (IA) refere-se a erros sistemáticos e repetíveis num sistema de IA que conduzem a resultados injustos, privilegiando um grupo arbitrário de utilizadores em detrimento de outros. Surge quando um modelo de IA reflecte os valores implícitos ou preconceitos presentes nos dados em que foi treinado, nos algoritmos utilizados ou nas decisões tomadas pelos humanos envolvidos no seu desenvolvimento. Abordar o enviesamento da IA é crucial para garantir o desenvolvimento ético e a implantação de tecnologias de IA, com impacto no desempenho do modelo, na fiabilidade e na confiança do público, especialmente em aplicações críticas como a visão por computador (CV).

Fontes de preconceito da IA

O enviesamento da IA não tem normalmente origem na própria IA, mas sim nos dados e processos utilizados para a criar. As principais fontes incluem:

  • Enviesamento do conjunto de dados: Este é um fator primário, que ocorre quando os dados de treino não são representativos dos cenários do mundo real ou dos dados demográficos que a IA irá encontrar. Isto pode envolver a sub-representação de determinados grupos, métodos de recolha de dados distorcidos ou erros na rotulagem dos dados. Podes saber mais sobre o impacto dos conjuntos de dados na nossa publicação do blogue sobre Compreender o Viés da IA e o Viés do Conjunto de Dados.
  • Viés algorítmico: O viés pode ser introduzido através da escolha do algoritmo ou da forma como é concebido. Certos algoritmos podem favorecer inerentemente padrões ou resultados específicos, levando a previsões tendenciosas mesmo com dados equilibrados.
  • Preconceito humano: Os preconceitos conscientes ou inconscientes dos programadores podem influenciar a seleção de dados, a engenharia de caraterísticas, as métricas de avaliação de modelos e as decisões de implementação, incorporando a injustiça no sistema. Para uma análise mais aprofundada das considerações de justiça, vê Ética na IA.

Exemplos do mundo real

Os preconceitos na IA podem manifestar-se em várias aplicações, com consequências significativas:

  1. Sistemasde reconhecimento facial: Os primeiros modelos de reconhecimento facial apresentavam frequentemente uma precisão inferior para indivíduos com tons de pele mais escuros ou mulheres, principalmente porque os conjuntos de dados de treino apresentavam predominantemente homens de pele mais clara. Esta disparidade suscita preocupações sobre a equidade em aplicações como a segurança e a verificação de identidade. Estudos efectuados por organizações como o NIST documentaram estas diferenças de desempenho.
  2. IA nos cuidados de saúde: Os modelos de IA utilizados para a análise de imagens médicas podem ter um desempenho menos eficaz para grupos demográficos sub-representados nos dados de treino. Por exemplo, um algoritmo de deteção de cancro da pele treinado principalmente em peles mais claras pode não conseguir identificar com precisão o melanoma em peles mais escuras, atrasando potencialmente o diagnóstico e o tratamento.

Distinguir o preconceito na IA dos conceitos relacionados

É importante distinguir o preconceito na IA de termos semelhantes:

  • Viés do conjunto de dados: Refere-se especificamente a questões relacionadas com os dados utilizados para a formação (por exemplo, falta de diversidade). É uma das principais causas do enviesamento na IA, que descreve a injustiça sistemática resultante no comportamento do modelo.
  • Preconceito algorítmico: centra-se no preconceito resultante da estrutura do modelo ou do próprio processo de aprendizagem, outra causa potencial do fenómeno mais amplo do preconceito na IA.
  • Compensação entre desvio e variância: Trata-se de um conceito fundamental na aprendizagem automática (ML) relativo ao erro do modelo. O "enviesamento" refere-se aqui ao erro decorrente de pressupostos incorrectos no algoritmo de aprendizagem (que conduzem a um subajuste), distinto das implicações sociais ou éticas do enviesamento na IA.

Abordar o preconceito da IA

Atenuar o enviesamento da IA requer uma abordagem multifacetada ao longo do ciclo de vida do desenvolvimento da IA:

  • Dados diversificados e representativos: A recolha de conjuntos de dados diversificados e de elevada qualidade, como os que se encontram na coleçãoUltralytics Datasets, é fundamental. Técnicas como a ampliação de dados também podem ajudar a melhorar a representação.
  • Métricas de equidade e auditoria: É essencial avaliar os modelos não só quanto à exatidão geral, mas também quanto ao desempenho em diferentes subgrupos utilizando métricas de equidade. Estão a surgir ferramentas e quadros que ajudam a auditar os modelos para detetar preconceitos.
  • IA explicável (XAI): Compreender porque é que um modelo faz determinadas previsões pode ajudar a identificar e retificar comportamentos tendenciosos.
  • Equipas inclusivas: Equipas de desenvolvimento diversificadas têm menos probabilidades de ignorar potenciais preconceitos.

Plataformas como o Ultralytics HUB oferecem ferramentas para a formação e gestão de modelos personalizados, permitindo que os programadores seleccionem cuidadosamente os conjuntos de dados e monitorizem Ultralytics YOLO monitorizar o desempenho do modelo, contribuindo para o desenvolvimento de sistemas de IA mais justos. A consciencialização e a incorporação de princípios de equidade na IA são vitais para criar uma IA que beneficie todos de forma equitativa.

Lê tudo