Verificação verde
Link copiado para a área de transferência

Tudo o que precisas de saber sobre a IA explicável (XAI)

Descobre como a IA explicável (XAI) cria confiança ao tornar as previsões de IA transparentes e fiáveis nos cuidados de saúde, segurança, condução autónoma e muito mais.

Alguma vez viste uma resposta de uma ferramenta de inteligência artificial (IA) como ChatGPT e te perguntaste como é que ela chegou a essa conclusão? Então, já conheces a preocupação da "caixa negra" da IA. É um termo que se refere à falta de clareza sobre a forma como os modelos de IA processam e analisam os dados. Mesmo os engenheiros e cientistas de IA que trabalham regularmente com algoritmos de IA de ponta podem ter dificuldade em compreender totalmente o seu funcionamento interno. De facto, apenas 22% dos profissionais de TI compreendem verdadeiramente as capacidades das ferramentas de IA. 

A incerteza em torno da forma como os modelos de IA tomam decisões pode ser arriscada, especialmente em áreas críticas como a visão por computador nos cuidados de saúde e a IA nas finanças. No entanto, estão a ser feitos progressos significativos para enfrentar estes desafios e melhorar a transparência.

Em particular, a IA explicável (XAI) centra-se exclusivamente na resolução deste problema. Simplificando, é um conjunto de processos e métodos que ajuda os utilizadores humanos a compreenderem e a confiarem nos resultados ou saídas fornecidos por algoritmos complexos de aprendizagem automática

A XAI pode ajudar os programadores a garantir que os sistemas de IA estão a funcionar como esperado. Também pode ajudar as empresas de IA a cumprir as normas regulamentares. Neste artigo, vamos explorar a IA explicável e a sua vasta gama de casos de utilização. Toca a começar!

A importância de uma IA explicável

A explicabilidade é fundamental quando se trabalha com IA. Isto é especialmente verdade quando se trata do subcampo da IA, a visão por computador, que é amplamente utilizada em aplicações em sectores como os cuidados de saúde. Ao utilizar modelos de visão em indústrias tão sensíveis, é importante que o funcionamento do modelo seja transparente e interpretável por todos. 

A interpretabilidade dos modelos de visão por computador ajuda os utilizadores a compreenderem melhor como foi feita uma previsão e a lógica que lhe está subjacente. A transparência contribui para isso, tornando o funcionamento do modelo claro para todos, definindo claramente as limitações do modelo e garantindo que os dados são utilizados de forma ética. Por exemplo, a visão por computador pode ajudar os radiologistas a identificar eficazmente complicações de saúde em imagens de raios X. 

Fig. 1. Radiografias do tórax analisadas com o Vision AI, mostrando as classificações de tuberculose saudável, doente, ativa e latente.

No entanto, um sistema de visão que seja apenas exato não é suficiente. O sistema também precisa de ser capaz de explicar as suas decisões. Digamos que o sistema pode mostrar quais as partes da imagem que levaram às suas conclusões - então, quaisquer resultados seriam mais claros. Este nível de transparência ajudaria os profissionais de saúde a verificar as suas conclusões e a garantir que os cuidados prestados aos doentes cumprem as normas médicas. 

Outra razão pela qual a explicabilidade é essencial é que torna as empresas de IA responsáveis e cria confiança nos utilizadores. Uma IA fiável leva a que os utilizadores se sintam confiantes de que as inovações da IA funcionam de forma fiável, tomam decisões justas e tratam os dados de forma responsável

Principais técnicas de IA explicáveis na visão por computador

Agora que já discutimos por que razão a explicabilidade é importante na visão computacional, vamos dar uma vista de olhos às principais técnicas de XAI utilizadas na IA de visão.

Mapas de saliência

As redes neuronais são modelos inspirados no cérebro humano, concebidos para reconhecer padrões e tomar decisões através do processamento de dados por camadas interligadas de nós (neurónios). Podem ser utilizadas para resolver problemas complexos de visão computacional com elevada precisão. Mesmo com esta precisão, continuam a ser caixas negras por definição. 

Os mapas de saliência são uma técnica XAI que pode ser utilizada para ajudar a compreender o que as redes neurais vêem quando analisam imagens. Também pode ser utilizada para solucionar problemas de modelos, caso não estejam a funcionar como esperado. 

Os mapas de saliência funcionam concentrando-se nas partes de uma imagem (pixéis) que definem as previsões de um modelo. Este processo é muito semelhante ao da retropropagação, em que o modelo volta das previsões para a entrada. Mas, em vez de atualizar os pesos do modelo com base nos erros, estamos apenas a ver o quanto cada pixel "importa" para a previsão. Os mapas de saliência são muito úteis para tarefas de visão computacional, como a classificação de imagens.

Por exemplo, se um modelo de classificação de imagens prevê que uma imagem é de um cão, podemos olhar para o seu mapa de saliência para perceber porque é que o modelo pensa que é um cão. Isto ajuda-nos a identificar quais os pixels que mais afectam o resultado. O mapa de saliência destacaria todos os pixels que contribuíram para a previsão final de que a imagem é um cão.

Fig. 2. Uma vista lado a lado das imagens de entrada e dos respectivos mapas de saliência.

Mapeamento de ativação de classe (CAM)

O mapeamento de ativação de classe é outra técnica XAI utilizada para compreender em que partes de uma imagem uma rede neural se concentra quando faz previsões de classificação de imagens. Funciona de forma semelhante aos mapas de saliência, mas concentra-se na identificação de caraterísticas importantes na imagem em vez de pixels específicos. As caraterísticas são padrões ou detalhes, como formas ou texturas, que o modelo detecta na imagem.

Métodos como o Gradient Weighted Class Activation Mapping (Grad-CAM) e o Grad-CAM++ baseiam-se na mesma ideia, com algumas melhorias.

Eis como funciona a CAM:

  • Antes de a rede neural tomar a sua decisão final, utiliza um passo chamado agrupamento médio global (GAP) para simplificar a informação. O GAP combina todos os pixels de um padrão detectado num único valor médio, criando um resumo para cada mapa de caraterísticas (uma representação visual dos padrões detectados).
  • A cada mapa de caraterísticas é então atribuído um peso que mostra a sua importância para a previsão de uma determinada classe (como "pássaro" ou "gato").
  • No entanto, uma limitação do CAM é que podes ter de treinar novamente o modelo para calcular estes pesos, o que pode ser demorado.

O Grad-CAM melhora esta situação utilizando gradientes, que são como sinais que mostram o quanto cada mapa de caraterísticas influencia a previsão final. Esse método evita a necessidade do GAP e facilita a visualização do foco do modelo sem retreinamento. O Grad-CAM++ dá um passo adiante, concentrando-se apenas nas influências positivas, o que torna os resultados ainda mais claros.

Figura 3. Comparação entre CAM, Grad-CAM e Grad-CAM++.

Explicações contrafactuais

As explicações contrafactuais são um elemento importante da IA explicável. Uma explicação contrafactual envolve a descrição de uma situação ou de um resultado considerando cenários ou acontecimentos alternativos que não aconteceram mas que poderiam ter acontecido. Pode demonstrar como as alterações em variáveis de entrada específicas conduzem a resultados diferentes, como por exemplo: "Se X não tivesse acontecido, Y não teria ocorrido".

No que diz respeito à IA e à visão por computador, uma explicação contrafactual identifica a mais pequena alteração necessária numa entrada (como uma imagem ou dados) para fazer com que um modelo de IA produza um resultado diferente e específico. Por exemplo, alterar a cor de um objeto numa imagem pode mudar a previsão de um modelo de classificação de imagens de "gato" para "cão".

Outro bom exemplo seria a alteração do ângulo ou da iluminação num sistema de reconhecimento facial. Isto poderia fazer com que o modelo identificasse um indivíduo diferente, mostrando como pequenas alterações na entrada podem influenciar as previsões do modelo.

A forma mais simples de criar estas explicações é por tentativa e erro: podes alterar aleatoriamente partes da entrada (como caraterísticas da imagem ou dos dados) até que o modelo de IA te dê o resultado desejado. Outros métodos incluem abordagens agnósticas do modelo, que utilizam técnicas de otimização e pesquisa para encontrar alterações, e abordagens específicas do modelo, que se baseiam em definições ou cálculos internos para identificar as alterações necessárias.

Aplicações da IA explicável na visão por computador

Agora que já explorámos o que é a XAI e as suas principais técnicas, podemos ver como é utilizada na vida real. A XAI tem diversas aplicações em muitos domínios. Vamos mergulhar em alguns casos de utilização que realçam o seu potencial:

  • Sistemas de segurança: A XAI pode ser utilizada para melhorar os sistemas de segurança, detectando imagens transformadas em documentos de identificação como passaportes e cartas de condução. Isto garante a autenticidade das imagens, reforça os processos de verificação da identidade e evita actividades fraudulentas em aplicações sensíveis.
Fig. 4. Como funciona o XAI para detetar imagens morfadas.

  • Condução autónoma: Compreender as capacidades e limitações do sistema de IA de visão a bordo de um automóvel de condução autónoma pode ser uma parte importante do teste do automóvel antes de este ser colocado em estradas reais. A XAI pode ajudar as empresas automóveis a identificar e a resolver problemas de forma mais clara.
  • Sistemas jurídicos: Os sistemas de análise de documentos com base na visão estão a ser cada vez mais utilizados na tomada de decisões judiciais. A XAI apoia resultados justos e permite que os julgamentos automatizados sejam examinados. Também ajuda os profissionais jurídicos a compreender como um modelo de IA chega às suas decisões.
  • Monitorização da vida selvagem: As armadilhas fotográficas são frequentemente utilizadas para monitorizar a vida selvagem e recolher dados sobre as espécies animais. A XAI pode ser utilizada para explicar como a IA classifica estas espécies nas imagens. Ao fazê-lo, os esforços de conservação podem ser mais fiáveis e precisos.

Principais conclusões sobre a IA explicável

A IA explicável facilita a compreensão de como os sistemas de IA funcionam e porque tomam determinadas decisões. A transparência dos modelos de IA gera confiança e responsabilidade. Conhecimento é poder e ajuda as inovações de IA a serem utilizadas de forma mais responsável. Em áreas críticas como os cuidados de saúde, a segurança, a condução autónoma e os sistemas jurídicos, a XAI pode ser utilizada para ajudar os programadores e os utilizadores a compreender as previsões da IA, identificar erros e garantir uma utilização justa e ética. Ao tornar a IA mais transparente, a XAI preenche a lacuna entre a tecnologia e a confiança humana, tornando-a mais segura e fiável para aplicações do mundo real.

Para saber mais, visita o nosso repositório GitHub e participa na nossa comunidade. Explora as aplicações de IA em carros autónomos e na agricultura nas nossas páginas de soluções. 🚀

Logótipo do FacebookLogótipo do TwitterLogótipo do LinkedInSímbolo de ligação de cópia

Ler mais nesta categoria

Vamos construir juntos o futuro
da IA!

Começa a tua viagem com o futuro da aprendizagem automática