Aprende como a IA constitucional ajuda os modelos a seguir regras éticas, a tomar decisões mais seguras e a apoiar a justiça nos sistemas de linguagem e de visão por computador.
A inteligência artificial (IA) está a tornar-se rapidamente uma parte essencial da nossa vida quotidiana. Está a ser integrada em ferramentas utilizadas em áreas como os cuidados de saúde, o recrutamento, as finanças e a segurança pública. À medida que estes sistemas se expandem, surgem também preocupações sobre a sua ética e fiabilidade.
Por exemplo, por vezes, os sistemas de IA que são construídos sem ter em conta a equidade ou a segurança podem produzir resultados tendenciosos ou pouco fiáveis. Isto acontece porque muitos modelos ainda não têm uma forma clara de refletir e alinhar-se com os valores humanos.
Para responder a estes desafios, os investigadores estão agora a explorar uma abordagem conhecida como IA constitucional. Em termos simples, introduz um conjunto de princípios escritos no processo de formação do modelo. Estes princípios ajudam o modelo a avaliar o seu próprio comportamento, dependem menos do feedback humano e tornam as respostas mais seguras e fáceis de compreender.
Até à data, esta abordagem tem sido utilizada sobretudo em relação a modelos de linguagem de grande dimensão (LLM). No entanto, a mesma estrutura poderia ajudar a orientar os sistemas de visão computacional para a tomada de decisões éticas durante a análise de dados visuais.
Neste artigo, vamos explorar o funcionamento da IA constitucional, analisar exemplos da vida real e discutir as suas potenciais aplicações em sistemas de visão por computador.
A IA constitucional é um método de formação de modelos que orienta o comportamento dos modelos de IA, fornecendo um conjunto claro de regras éticas. Estas regras funcionam como um código de conduta. Em vez de confiar no modelo para inferir o que é aceitável, segue um conjunto de princípios escritos que moldam as suas respostas durante o treino.
Este conceito foi introduzido por Anthropicuma empresa de investigação centrada na segurança da IA que desenvolveu a família Claude LLM como um método para tornar os sistemas de IA mais auto-supervisionados na sua tomada de decisões.
Em vez de depender apenas do feedback humano, o modelo aprende a criticar e a aperfeiçoar as suas próprias respostas com base num conjunto predefinido de princípios. Esta abordagem é semelhante a um sistema jurídico, em que um juiz consulta uma constituição antes de tomar uma decisão.
Neste caso, o modelo torna-se simultaneamente o juiz e o aluno, utilizando o mesmo conjunto de regras para rever e aperfeiçoar o seu próprio comportamento. Este processo reforça o alinhamento dos modelos de IA e apoia o desenvolvimento de sistemas de IA seguros e responsáveis.
O objetivo da IA constitucional é ensinar um modelo de IA a tomar decisões seguras e justas, seguindo um conjunto claro de regras escritas. Segue-se uma descrição simples de como funciona este processo:
Para que um modelo de IA siga regras éticas, estas regras têm de ser claramente definidas. Quando se trata de IA constitucional, estas regras baseiam-se num conjunto de princípios fundamentais.
Por exemplo, aqui estão quatro princípios que constituem a base de uma constituição de IA eficaz:
A IA constitucional passou da teoria à prática e está agora a ser lentamente utilizada em grandes modelos que interagem com milhões de utilizadores. Dois dos exemplos mais comuns são os LLMs da OpenAI e da Anthropic.
Embora ambas as organizações tenham adotado abordagens diferentes para criar sistemas de IA mais éticos, partilham uma ideia comum: ensinar o modelo a seguir um conjunto de princípios orientadores escritos. Vamos analisar estes exemplos mais detalhadamente.
A OpenAI introduziu um documento chamado Model Spec como parte do processo de formação dos seus modelos ChatGPT . Este documento funciona como uma constituição. Descreve o que o modelo deve procurar nas suas respostas, incluindo valores como a utilidade, a honestidade e a segurança. Também define o que é considerado um resultado prejudicial ou enganador.
Esta estrutura tem sido utilizada para afinar os modelos da OpenAI, classificando as respostas de acordo com a sua adequação às regras. Com o tempo, isto ajudou a moldar o ChatGPT para que produza menos resultados prejudiciais e se alinhe melhor com o que os utilizadores realmente querem.
A constituição que o modelo da Anthropic, Claude, segue baseia-se em princípios éticos de fontes como a Declaração Universal dos Direitos Humanos, diretrizes de plataformas como os termos de serviço da Apple e investigação de outros laboratórios de IA. Estes princípios ajudam a garantir que as respostas do Claude são seguras, justas e estão alinhadas com valores humanos importantes.
O Claude também utiliza a Aprendizagem por Reforço a partir do Feedback da IA (RLAIF), onde revê e ajusta as suas próprias respostas com base nestas diretrizes éticas, em vez de depender do feedback humano. Este processo permite que o Claude melhore ao longo do tempo, tornando-o mais escalável e melhor a dar respostas úteis, éticas e não prejudiciais, mesmo em situações complicadas.
Uma vez que a IA constitucional está a influenciar positivamente a forma como os modelos de linguagem se comportam, isso leva naturalmente à questão: Poderá uma abordagem semelhante ajudar os sistemas baseados na visão a responder de forma mais justa e segura?
Embora os modelos de visão por computador trabalhem com imagens em vez de texto, a necessidade de orientação ética é igualmente importante. Por exemplo, a justiça e a parcialidade são factores-chave a considerar, uma vez que estes sistemas têm de ser treinados para tratar todos de forma igual e evitar resultados prejudiciais ou injustos ao analisar dados visuais.
Atualmente, a utilização de métodos constitucionais de IA na visão computacional está ainda a ser explorada e encontra-se numa fase inicial, com investigação contínua nesta área.
Por exemplo, a Meta apresentou recentemente o CLUE, um quadro que aplica um raciocínio do tipo constitucional a tarefas de segurança de imagens. Transforma as regras de segurança gerais em passos precisos que a IA multimodal (sistemas de IA que processam e compreendem vários tipos de dados) pode seguir. Isto ajuda o sistema a raciocinar de forma mais clara e a reduzir os resultados prejudiciais.
Além disso, o CLUE torna os julgamentos de segurança de imagem mais eficientes, simplificando regras complexas, permitindo que os modelos de IA actuem de forma rápida e precisa, sem necessitarem de uma intervenção humana extensiva. Ao utilizar um conjunto de princípios orientadores, o CLUE torna os sistemas de moderação de imagens mais escaláveis, garantindo simultaneamente resultados de elevada qualidade.
À medida que os sistemas de IA assumem mais responsabilidades, o foco está a mudar do que podem fazer para o que devem fazer. Esta mudança é fundamental, uma vez que estes sistemas são utilizados em áreas que têm um impacto direto na vida das pessoas, como os cuidados de saúde, a aplicação da lei e a educação.
Para garantir que os sistemas de IA actuam de forma adequada e ética, precisam de uma base sólida e consistente. Esta base deve dar prioridade à justiça, à segurança e à confiança.
Uma constituição escrita pode fornecer essa base durante a formação, orientando o processo de tomada de decisões do sistema. Também pode dar aos programadores uma estrutura para rever e ajustar o comportamento do sistema após a implementação, garantindo que continua a estar alinhado com os valores que foi concebido para defender e facilitando a adaptação à medida que surgem novos desafios.
Junta-te hoje à nossa comunidade em crescimento! Mergulha mais fundo na IA explorando o nosso repositório GitHub. Queres criar os teus próprios projectos de visão computacional? Explora as nossas opções de licenciamento. Aprende como a visão computacional nos cuidados de saúde está a melhorar a eficiência e explora o impacto da IA no fabrico visitando as nossas páginas de soluções!
Começa a tua viagem com o futuro da aprendizagem automática