A alucinação refere-se a um fenómeno em que um modelo de linguagem grande (LLM) gera texto sem sentido, factualmente incorreto ou não relacionado com o contexto de entrada fornecido, apesar de parecer confiante e coerente. Estes resultados não se baseiam nos dados de treino do modelo ou na realidade externa, mas são artefactos dos processos internos do modelo que tentam prever a próxima palavra ou símbolo mais provável. Compreender as alucinações é crucial para desenvolver e implementar de forma responsável sistemas de Inteligência Artificial (IA), particularmente os utilizados para a recuperação de informação, criação de conteúdos ou tomada de decisões em plataformas como os chatbots ou os assistentes virtuais.
Porque ocorrem as alucinações
Os LLM, muitas vezes construídos em arquitecturas como o Transformer (apresentado no artigo"Attention Is All You Need"), são fundamentalmente modelos probabilísticos. Aprendem padrões, gramática e associações factuais a partir de grandes quantidades de dados de texto durante o treino, utilizando estruturas como PyTorch ou TensorFlow. No entanto, não possuem uma verdadeira compreensão, consciência ou a capacidade de verificar a informação intrinsecamente. As alucinações podem resultar de vários factores:
- Limitações dos dados de treino: O modelo pode ter sido treinado com dados ruidosos, tendenciosos ou factualmente incorrectos, ou pode não ter informação suficiente sobre um tópico específico. Tenta "preencher as lacunas" com base em padrões aprendidos, levando a fabricações.
- Arquitetura do modelo e treino: A forma como modelos como o GPT-4 processam informações e geram sequências palavra por palavra pode levá-los a caminhos estatisticamente plausíveis, mas factualmente incorrectos. A complexidade dos modelos de aprendizagem profunda torna-os propensos a um comportamento imprevisível.
- Estratégia de descodificação: Os parâmetros utilizados durante a geração do texto (inferência), como a "temperatura", influenciam a aleatoriedade. Temperaturas mais altas estimulam a criatividade, mas aumentam o risco de alucinação.
- Falta de fundamentação: Sem mecanismos que liguem o texto gerado ao conhecimento do mundo real ou a documentos de origem específicos, o modelo pode derivar para afirmações sem suporte. Técnicas como o grounding visam resolver este problema.
- Ambiguidade do prompt: Os prompts vagos ou mal formulados podem levar o modelo a fazer suposições ou gerar resultados menos restritos, aumentando a probabilidade de imprecisões. A engenharia eficaz dos avisos é fundamental.
Exemplos do mundo real e impacto
As alucinações podem manifestar-se de várias formas, apresentando riscos significativos, como a disseminação de desinformação, a geração de conteúdos nocivos ou a erosão da confiança dos utilizadores nos sistemas de IA.
- Fabricação de factos em Chatbots: Um utilizador pode perguntar a um chatbot sobre uma descoberta científica específica, e o chatbot pode inventar pormenores, atribuir a descoberta à pessoa errada ou descrever um evento inexistente com elevada confiança.
- Citações jurídicas inventadas: Num incidente amplamente noticiado, os advogados utilizaram uma ferramenta de IA para investigação jurídica que gerou citações de casos totalmente fabricadas que foram apresentadas em documentos judiciais, conduzindo a sanções.
O impacto vai para além dos simples erros; põe em causa a fiabilidade dos sistemas de IA, especialmente à medida que se integram nos motores de busca(como o AI Overviews da Google), nos assistentes virtuais e nas ferramentas de criação de conteúdos. Abordar esta questão é um desafio central na ética e segurança da IA, exigindo estratégias robustas de validação e monitorização.
Distingue as alucinações de outros erros
É importante distinguir as alucinações de outros tipos de erros de IA:
- Enviesamento na IA: Refere-se a erros sistemáticos ou resultados enviesados que reflectem enviesamentos presentes nos dados de treino (por exemplo, estereótipos de género ou raciais). As alucinações são normalmente mais fabricações aleatórias do que resultados consistentes e enviesados. Compreender o enviesamento do conjunto de dados é crucial aqui.
- Sobreajuste: Isto ocorre quando um modelo aprende demasiado bem os dados de treino, incluindo o ruído, e não consegue generalizar para dados novos e não vistos(dados de validação). Embora o sobreajuste conduza a um mau desempenho, é diferente de gerar informações falsas e totalmente novas.
- Informação desactualizada: Um LLM pode fornecer informações incorrectas simplesmente porque os seus dados de formação não são actuais. Trata-se de um erro factual baseado no corte de conhecimento, e não de uma alucinação em que a informação é inventada.
Estratégias de atenuação
Os investigadores e programadores estão a trabalhar ativamente na redução das alucinações do LLM:
- Dados de treino melhorados: Selecionar conjuntos de dados de maior qualidade, diversificados e verificados. Utilizar conjuntos de dados de referência de alta qualidade ajuda.
- Geração Aumentada por Recuperação (RAG): Dotar os LLM da capacidade de ir buscar e citar informações a bases de conhecimento externas e fiáveis(como bases de dados vectoriais) antes de gerar uma resposta.
- Afinação e RLHF: Aperfeiçoa os modelos de base em tarefas ou conjuntos de dados específicos e utiliza técnicas como a Aprendizagem por Reforço a partir de Feedback Humano (RLHF) para alinhar o comportamento do modelo com os resultados desejados (por exemplo, veracidade).
- Melhorar a solicitação: Técnicas como a sugestão de cadeia de pensamento incentivam os modelos a "pensar passo a passo", reduzindo potencialmente os erros.
- Verificação de resultados: Implementação de mecanismos de verificação cruzada das declarações geradas com factos conhecidos ou fontes múltiplas.
- Ajusta os parâmetros de inferência: Se baixares definições como "temperatura", podes tornar os resultados mais concentrados e menos aleatórios, reduzindo o risco de alucinação.
Enquanto os LLM se centram na linguagem, os modelos especializados em Visão por Computador (CV), tais como Ultralytics YOLO para a deteção de objectos, funcionam de forma diferente e enfrentam desafios distintos, como garantir a precisão da deteção. No entanto, a tendência para modelos multimodais que combinam linguagem e visão(como o CLIP) significa que a compreensão de questões como a alucinação se torna relevante em todos os domínios. Plataformas como o Ultralytics HUB suportam o treino e a implementação de vários modelos de IA, facilitando o desenvolvimento em diferentes modalidades.