Aprende o que são alucinações LLM, as suas causas, os riscos do mundo real e como mitigá-las para obter resultados de IA precisos e fiáveis.
Os modelos de linguagem de grande dimensão (LLM), como o GPT e outros, foram concebidos para gerar texto com base em padrões aprendidos a partir de conjuntos de dados maciços. No entanto, estes modelos podem, por vezes, produzir informações que parecem factuais, mas que são totalmente fabricadas ou inexactas. Este fenómeno é conhecido como "alucinação" nos LLM. A alucinação ocorre quando um modelo gera conteúdo que não se baseia nos dados em que foi treinado ou se desvia do resultado pretendido.
A alucinação surge devido à natureza probabilística dos LLMs. Estes modelos prevêem a palavra seguinte numa sequência com base na probabilidade derivada dos seus dados de treino. Ocasionalmente, este processo pode resultar em resultados que são plausíveis mas falsos. As alucinações podem variar de pequenas imprecisões a factos, eventos ou citações totalmente fabricados.
Por exemplo:
As alucinações são particularmente preocupantes em aplicações em que a precisão e a fiabilidade são críticas, como os cuidados de saúde, a lei ou a investigação científica. Sabe mais sobre as implicações mais amplas da ética da IA e a importância de garantir um desenvolvimento responsável da IA.
A alucinação pode resultar de vários factores:
Um LLM utilizado num chatbot de cuidados de saúde pode sugerir incorretamente um tratamento com base em sintomas ou referências alucinadas. Por exemplo, pode recomendar um medicamento inexistente para uma doença específica. Para mitigar esta situação, os programadores integram a IA explicável (XAI) para garantir a transparência e a rastreabilidade das sugestões geradas pela IA.
Na geração de documentos jurídicos, um LLM pode fabricar jurisprudência ou citar erradamente estatutos jurídicos. Isto é particularmente problemático em aplicações em que os profissionais do direito dependem de precedentes precisos. A utilização de métodos baseados na recuperação, como o Retrieval Augmented Generation (RAG), pode ajudar a fundamentar as respostas em documentos verificados.
Embora a alucinação coloque desafios, também tem aplicações criativas. Em domínios como a narração de histórias ou a criação de conteúdos, a alucinação pode promover a inovação ao gerar ideias imaginativas ou especulativas. No entanto, em aplicações críticas como os cuidados de saúde ou os veículos autónomos, a alucinação pode ter consequências graves, incluindo desinformação ou riscos para a segurança.
Para resolver o problema da alucinação, são necessários avanços tanto na formação como na avaliação dos modelos. Técnicas como a integração da IA explicável e o desenvolvimento de modelos específicos de um domínio são caminhos promissores. Além disso, plataformas como o Ultralytics HUB permitem que os programadores experimentem soluções de IA de ponta, centrando-se simultaneamente em práticas robustas de avaliação e implementação.
Ao compreender e atenuar a alucinação, podemos libertar todo o potencial dos LLMs, assegurando simultaneamente que os seus resultados são fiáveis e dignos de confiança em aplicações do mundo real.