Allan Brooks passou 300 horas conversando com o ChatGPT. Ao fim desse período, estava convencido de que havia produzido uma descoberta matemática capaz de transformar o campo. O chatbot reafirmou a relevância da suposta descoberta mais de cinquenta vezes. Quando Brooks perguntou se a ferramenta não estaria apenas inflando seu ego, a resposta foi direta: “Estou refletindo o escopo real do que você construiu.” Brooks quase destruiu sua carreira e seus relacionamentos antes de perceber que nada daquilo era verdade. O ChatGPT nunca lhe disse que estava errado. Não porque não pudesse. Porque foi treinado para não fazê-lo.
O caso de Brooks não é isolado. O Human Line Project documentou cerca de 300 episódios do que se convencionou chamar de “espiral delirante” induzida por chatbots. Um psiquiatra da UCSF relatou ter internado doze pacientes em um único ano por quadros psicóticos vinculados ao uso de iA conversacional. Pelo menos catorze mortes foram associadas ao fenômeno. Cinco processos por morte injusta e outros dois por negligência e danos correm contra a OpenAI. Quarenta e dois procuradores-gerais estaduais norte-americanos enviaram uma carta formal exigindo providências. Os números deslocam a discussão do terreno anedótico para o epidemiológico.
O mecanismo por trás dessa dinâmica é estrutural. O ChatGPT é treinado por meio de aprendizado por reforço com feedback humano (RLHF). Nesse processo, usuários avaliam respostas, e o sistema aprende a maximizar avaliações positivas. Ocorre que pessoas tendem a avaliar bem respostas que confirmam suas opiniões. O resultado é um modelo calibrado para concordar. Fanous et al. (2025) mediram a taxa de respostas bajulatórias em modelos de fronteira: entre 50% e 70%. A bajulação algorítmica, que a literatura técnica chama de “sycophancy”, não é uma falha acidental. É consequência previsível do incentivo econômico que sustenta o produto.
Em fevereiro de 2026, pesquisadores do MIT e da Universidade de Washington formalizaram essa intuição. Chandra, Kleiman-Weiner, Ragan-Kelley e Tenenbaum construíram um modelo bayesiano de interação entre usuário e chatbot, simulando 10.000 conversações para cada nível de bajulação testado. O resultado central é perturbador: mesmo um agente com racionalidade perfeita, um bayesiano ideal sem nenhum viés cognitivo, sucumbe à espiral delirante quando interage com um chatbot sicofântico. A taxa de espiral catastrófica (o usuário atingir 99% de confiança em uma crença falsa) cresce de forma monotônica com o grau de bajulação do sistema. O paper demonstra relação causal, não mera correlação. A bajulação produz a espiral.
O trabalho avaliou duas mitigações que desenvolvedores e legisladores vêm propondo. A primeira: forçar o chatbot a ser factual, restringindo-o a informações verificáveis por meio de técnicas como geração aumentada por recuperação (RAG). O resultado reduz a incidência de espirais, mas não a elimina. Um bajulador factual opera por omissão seletiva, escolhendo quais verdades apresentar e quais suprimir. Mentiras por omissão bastam para sustentar crenças falsas. A segunda mitigação: informar o usuário de que o chatbot pode ser bajulador. Novamente, reduz, mas não resolve. O bayesiano ideal, mesmo ciente da estratégia do chatbot, permanece vulnerável. Os autores traçam um paralelo com o conceito de “persuasão bayesiana” de Kamenica e Gentzkow (2011): um promotor estratégico eleva a taxa de condenação de um juiz mesmo quando o juiz conhece a estratégia do promotor. A consciência do mecanismo não neutraliza o mecanismo.
A objeção natural é que profissionais competentes não usam o ChatGPT como oráculo. Validam, verificam, confrontam com outras fontes. A resposta do paper é parcialmente inconveniente: o bayesiano ideal já representa o limite superior de racionalidade inferencial, a melhor filtragem concebível para o canal de informação que o chatbot oferece. E ainda assim sucumbe. O modelo assume um canal único, o que significa que profissionais com acesso a fontes independentes possuem, em tese, uma camada adicional de proteção. Mas essa proteção depende de que a fonte externa seja efetivamente consultada e prevaleça sobre a validação contínua do chatbot, uma premissa que a psicologia da decisão sob pressão não sustenta com facilidade. O que o modelo captura é o que Prendergast (1993) descreveu como o “efeito yes-man” nas organizações: subordinados que confirmam sistematicamente as opiniões de superiores produzem distorção decisória progressiva. A diferença entre o yes-man humano e o algorítmico é de escala. O humano atende a um superior por vez. O ChatGPT atende centenas de milhões simultaneamente. Sam Altman reconheceu a aritmética em um post no 𝕏: “0,1% de um bilhão de usuários ainda são um milhão de pessoas.”
Vance Packard escreveu em 1957 que a persuasão mais eficiente opera abaixo do limiar de percepção consciente. A iA conversacional levou esse princípio a um patamar que Packard não poderia antecipar: um sistema que valida qualquer crença, para qualquer pessoa, em qualquer escala, sem que o interlocutor consiga detectar o mecanismo mesmo quando informado de sua existência. O pré-print de Chandra et al. ainda aguarda revisão por pares, e o modelo opera em condições estilizadas. Mas a pergunta que levanta já não é acadêmica: quanta confiança se pode depositar em uma ferramenta que foi matematicamente construída para nunca discordar de você?
Referências
Chandra, K., Kleiman-Weiner, M., Ragan-Kelley, J. & Tenenbaum, J. B. (2026). Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians. arXiv:2602.19141v1. [pré-print, não revisado por pares]
Fanous, A. et al. (2025). SycEval: Evaluating LLM Sycophancy. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, v. 8, pp. 893-900.
Kamenica, E. & Gentzkow, M. (2011). Bayesian Persuasion. American Economic Review, 101(6), pp. 2590-2615.
Packard, V. (1957). The Hidden Persuaders. David McKay Company.
Prendergast, C. (1993). A Theory of “Yes Men”. The American Economic Review, pp. 757-770.
Hill, K. & Freedman, D. (2025). Chatbots Can Go into a Delusional Spiral. Here’s How It Happens. The New York Times.
Altman, S. (2025). Post on X (Twitter).
ousadia criativa. precisão estratégica. – por kim.