Alucinações em Inteligência Artificial

O ensaio de hoje aborda um tema bem polêmico em IA: as 𝗔𝗹𝘂𝗰𝗶𝗻𝗮𝗰õ𝗲𝘀! É comum, ao interagirmos com o ChatGPT ou outras GenAIs, nos depararmos com respostas “erradas” ou “estranhas”. Nesse momento, muitos de nós exclamam: “O GPT erra muito!”.
Para a maioria dos usuários, o uso de prompts é uma mágica, onde fazemos uma pergunta e recebemos a resposta “exata”. No entanto, é fundamental compreendermos como funciona o motor dessa tecnologia para entendermos que esses “erros” são, na verdade, fenômenos esperados e normais do ponto de vista técnico.
Para começarmos, é importante alinharmos os conceitos. Quando uma IA generativa “𝗲𝗿𝗿𝗮”, o termo mais adequado a ser usado é “𝗮𝗹𝘂𝗰𝗶𝗻𝗮”. Esse termo reflete melhor a natureza do que está acontecendo, já que, do ponto de vista computacional, um programa ou algoritmo não erra — ele executa exatamente o que foi programado para fazer. No caso das IAs generativas, elas seguem o que foram treinadas para fazer: gerar respostas com base em padrões identificados nos dados, mesmo que essas respostas, às vezes, não sejam factualmente corretas ou coerentes com o contexto.
Os LLMs podem ter dificuldades para generalizar seus dados de treinamento para novos contextos, que ocorre quando o modelo se sai bem nos dados de treino, mas falha em aplicações reais. Além disso, eles têm limitações para entender completamente o contexto ou a intenção dos prompts dos usuários. Sua capacidade de realizar inferências lógicas é limitada, e eles ainda não conseguem fazer perguntas para buscar esclarecimentos, gerando respostas baseadas em raciocínios falhos ou conhecimentos incompletos.
As alucinações durante as interações com prompts estão diretamente relacionadas ao modo como os modelos são treinados. Vale lembrar que uma IA generativa é fruto de um treinamento baseado em Deep Learning, no qual redes neurais organizam camadas e atribuem pesos às conexões entre elas. As respostas textuais são geradas como uma sequência de palavras, estruturadas conforme esses pesos, com os maiores pesos determinando a ordem das palavras subsequentes. Quanto mais um modelo é treinado sobre um determinado assunto, maior será sua capacidade de correlacionar as palavras para gerar respostas que pareçam lógicas e coerentes. No entanto, se o modelo tiver pouco treinamento em um tema específico, ou for treinado com dados inadequados ou inconsistentes, a probabilidade de ocorrerem alucinações será maior.
As alucinações aparecem de várias formas, sendo importante compreendê-las para identificá-las e mitigá-las. Imprecisões factuais ocorrem quando geram informações incorretas ou enganosas, como atribuir invenções a pessoas erradas, respostas sem sentido surgem quando produz respostas irrelevantes, mostrando dificuldades em entender o contexto e contradições aparecem quando se contradiz em uma mesma resposta ou ao longo de várias. Estudos mostram que a taxa de alucinações no ChatGPT podem chegar a 14,3%, dessa forma, avalie sempre o resultado final com consciência.