Verificação verde
Link copiado para a área de transferência

A IA constitucional visa alinhar os modelos de IA com os valores humanos

Aprende como a IA constitucional ajuda os modelos a seguir regras éticas, a tomar decisões mais seguras e a apoiar a justiça nos sistemas de linguagem e de visão por computador.

A inteligência artificial (IA) está a tornar-se rapidamente uma parte essencial da nossa vida quotidiana. Está a ser integrada em ferramentas utilizadas em áreas como os cuidados de saúde, o recrutamento, as finanças e a segurança pública. À medida que estes sistemas se expandem, surgem também preocupações sobre a sua ética e fiabilidade.

Por exemplo, por vezes, os sistemas de IA que são construídos sem ter em conta a equidade ou a segurança podem produzir resultados tendenciosos ou pouco fiáveis. Isto acontece porque muitos modelos ainda não têm uma forma clara de refletir e alinhar-se com os valores humanos.

Para responder a estes desafios, os investigadores estão agora a explorar uma abordagem conhecida como IA constitucional. Em termos simples, introduz um conjunto de princípios escritos no processo de formação do modelo. Estes princípios ajudam o modelo a avaliar o seu próprio comportamento, dependem menos do feedback humano e tornam as respostas mais seguras e fáceis de compreender.

Até à data, esta abordagem tem sido utilizada sobretudo em relação a modelos de linguagem de grande dimensão (LLM). No entanto, a mesma estrutura poderia ajudar a orientar os sistemas de visão computacional para a tomada de decisões éticas durante a análise de dados visuais. 

Neste artigo, vamos explorar o funcionamento da IA constitucional, analisar exemplos da vida real e discutir as suas potenciais aplicações em sistemas de visão por computador.

__wf_reserved_inherit
Fig. 1. Caraterísticas da IA constitucional. Imagem do autor.

O que é a IA constitucional?

A IA constitucional é um método de formação de modelos que orienta o comportamento dos modelos de IA, fornecendo um conjunto claro de regras éticas. Estas regras funcionam como um código de conduta. Em vez de confiar no modelo para inferir o que é aceitável, segue um conjunto de princípios escritos que moldam as suas respostas durante o treino.

Este conceito foi introduzido por Anthropicuma empresa de investigação centrada na segurança da IA que desenvolveu a família Claude LLM como um método para tornar os sistemas de IA mais auto-supervisionados na sua tomada de decisões. 

Em vez de depender apenas do feedback humano, o modelo aprende a criticar e a aperfeiçoar as suas próprias respostas com base num conjunto predefinido de princípios. Esta abordagem é semelhante a um sistema jurídico, em que um juiz consulta uma constituição antes de tomar uma decisão.

Neste caso, o modelo torna-se simultaneamente o juiz e o aluno, utilizando o mesmo conjunto de regras para rever e aperfeiçoar o seu próprio comportamento. Este processo reforça o alinhamento dos modelos de IA e apoia o desenvolvimento de sistemas de IA seguros e responsáveis.

Como funciona a IA constitucional?

O objetivo da IA constitucional é ensinar um modelo de IA a tomar decisões seguras e justas, seguindo um conjunto claro de regras escritas. Segue-se uma descrição simples de como funciona este processo:

  • Define a constituição: Cria uma lista escrita de princípios éticos que o modelo deve seguir. A constituição descreve o que a IA deve evitar e quais os valores que deve refletir.

  • Formação com supervisionado supervisionado: Mostra ao modelo exemplos de respostas que seguem a constituição. Estes exemplos ajudam a IA a compreender o que é um comportamento aceitável.

  • Reconhece e aplica padrões: Com o passar do tempo, o modelo começa a perceber estes padrões. Aprende a aplicar os mesmos valores quando responde a novas perguntas ou lida com novas situações.

  • Critica e aperfeiçoa os resultados: O modelo revê as suas próprias respostas e ajusta-as com base na constituição. Esta fase de auto-revisão ajuda-o a melhorar sem depender apenas do feedback humano.

  • Produz respostas alinhadas e mais seguras: O modelo aprende a partir de regras consistentes, o que ajuda a reduzir a parcialidade e a melhorar a fiabilidade na utilização no mundo real. Esta abordagem torna-o mais alinhado com os valores humanos e mais fácil de governar.
__wf_reserved_inherit
Figura 2. Uma visão geral da utilização da IA constitucional para treinar modelos.

Princípios fundamentais da conceção ética da IA

Para que um modelo de IA siga regras éticas, estas regras têm de ser claramente definidas. Quando se trata de IA constitucional, estas regras baseiam-se num conjunto de princípios fundamentais. 

Por exemplo, aqui estão quatro princípios que constituem a base de uma constituição de IA eficaz:

  • Transparência: Deve ser fácil compreender como é que um modelo chegou a uma resposta. Se uma resposta se basear em factos, estimativas ou padrões, será transparente para o utilizador. Isto gera confiança e ajuda as pessoas a avaliar se podem confiar nos resultados do modelo.

  • Igualdade: As respostas devem ser consistentes entre diferentes utilizadores. O modelo não deve alterar o seu resultado com base no nome, origem ou localização de uma pessoa. A igualdade ajuda a evitar preconceitos e promove a igualdade de tratamento.

  • Responsabilização: Deve haver uma forma de identificar como um modelo foi treinado e o que influenciou o seu comportamento. Quando algo corre mal, as equipas devem ser capazes de identificar a causa e melhorá-la. Isto promove a transparência e a responsabilidade a longo prazo.

  • Segurança: Os modelos devem evitar a produção de conteúdos que possam causar danos. Se um pedido conduzir a resultados arriscados ou inseguros, o sistema deve reconhecer esse facto e parar. Isto protege tanto o utilizador como a integridade do sistema.

Exemplos de IA constitucional em grandes modelos linguísticos

A IA constitucional passou da teoria à prática e está agora a ser lentamente utilizada em grandes modelos que interagem com milhões de utilizadores. Dois dos exemplos mais comuns são os LLMs da OpenAI e da Anthropic. 

Embora ambas as organizações tenham adotado abordagens diferentes para criar sistemas de IA mais éticos, partilham uma ideia comum: ensinar o modelo a seguir um conjunto de princípios orientadores escritos. Vamos analisar estes exemplos mais detalhadamente.

Abordagem constitucional da IA da OpenAI

A OpenAI introduziu um documento chamado Model Spec como parte do processo de formação dos seus modelos ChatGPT . Este documento funciona como uma constituição. Descreve o que o modelo deve procurar nas suas respostas, incluindo valores como a utilidade, a honestidade e a segurança. Também define o que é considerado um resultado prejudicial ou enganador. 

Esta estrutura tem sido utilizada para afinar os modelos da OpenAI, classificando as respostas de acordo com a sua adequação às regras. Com o tempo, isto ajudou a moldar o ChatGPT para que produza menos resultados prejudiciais e se alinhe melhor com o que os utilizadores realmente querem. 

__wf_reserved_inherit
Fig. 3. Um exemplo de ChatGPT que utiliza o Model Spec da OpenAI para responder.

Modelos éticos de IA da Anthropic

A constituição que o modelo da Anthropic, Claude, segue baseia-se em princípios éticos de fontes como a Declaração Universal dos Direitos Humanos, diretrizes de plataformas como os termos de serviço da Apple e investigação de outros laboratórios de IA. Estes princípios ajudam a garantir que as respostas do Claude são seguras, justas e estão alinhadas com valores humanos importantes.

O Claude também utiliza a Aprendizagem por Reforço a partir do Feedback da IA (RLAIF), onde revê e ajusta as suas próprias respostas com base nestas diretrizes éticas, em vez de depender do feedback humano. Este processo permite que o Claude melhore ao longo do tempo, tornando-o mais escalável e melhor a dar respostas úteis, éticas e não prejudiciais, mesmo em situações complicadas.

__wf_reserved_inherit
Figura 4. Compreende a abordagem da Anthropicà IA constitucional.

Aplicar a IA constitucional à visão por computador

Uma vez que a IA constitucional está a influenciar positivamente a forma como os modelos de linguagem se comportam, isso leva naturalmente à questão: Poderá uma abordagem semelhante ajudar os sistemas baseados na visão a responder de forma mais justa e segura? 

Embora os modelos de visão por computador trabalhem com imagens em vez de texto, a necessidade de orientação ética é igualmente importante. Por exemplo, a justiça e a parcialidade são factores-chave a considerar, uma vez que estes sistemas têm de ser treinados para tratar todos de forma igual e evitar resultados prejudiciais ou injustos ao analisar dados visuais.

__wf_reserved_inherit
Figura 5. Desafios éticos relacionados com a visão por computador. Imagem do autor.

Atualmente, a utilização de métodos constitucionais de IA na visão computacional está ainda a ser explorada e encontra-se numa fase inicial, com investigação contínua nesta área.

Por exemplo, a Meta apresentou recentemente o CLUE, um quadro que aplica um raciocínio do tipo constitucional a tarefas de segurança de imagens. Transforma as regras de segurança gerais em passos precisos que a IA multimodal (sistemas de IA que processam e compreendem vários tipos de dados) pode seguir. Isto ajuda o sistema a raciocinar de forma mais clara e a reduzir os resultados prejudiciais. 

Além disso, o CLUE torna os julgamentos de segurança de imagem mais eficientes, simplificando regras complexas, permitindo que os modelos de IA actuem de forma rápida e precisa, sem necessitarem de uma intervenção humana extensiva. Ao utilizar um conjunto de princípios orientadores, o CLUE torna os sistemas de moderação de imagens mais escaláveis, garantindo simultaneamente resultados de elevada qualidade.

Principais conclusões

À medida que os sistemas de IA assumem mais responsabilidades, o foco está a mudar do que podem fazer para o que devem fazer. Esta mudança é fundamental, uma vez que estes sistemas são utilizados em áreas que têm um impacto direto na vida das pessoas, como os cuidados de saúde, a aplicação da lei e a educação. 

Para garantir que os sistemas de IA actuam de forma adequada e ética, precisam de uma base sólida e consistente. Esta base deve dar prioridade à justiça, à segurança e à confiança. 

Uma constituição escrita pode fornecer essa base durante a formação, orientando o processo de tomada de decisões do sistema. Também pode dar aos programadores uma estrutura para rever e ajustar o comportamento do sistema após a implementação, garantindo que continua a estar alinhado com os valores que foi concebido para defender e facilitando a adaptação à medida que surgem novos desafios.

Junta-te hoje à nossa comunidade em crescimento! Mergulha mais fundo na IA explorando o nosso repositório GitHub. Queres criar os teus próprios projectos de visão computacional? Explora as nossas opções de licenciamento. Aprende como a visão computacional nos cuidados de saúde está a melhorar a eficiência e explora o impacto da IA no fabrico visitando as nossas páginas de soluções!

Logótipo do FacebookLogótipo do TwitterLogótipo do LinkedInSímbolo de ligação de cópia

Ler mais nesta categoria

Vamos construir juntos o futuro
da IA!

Começa a tua viagem com o futuro da aprendizagem automática