Yann LeCun propôs, em texto recente, uma arquitetura para entender como agentes inteligentes tomam decisões e por que falham. O modelo é elegante: percepção alimenta um modelo de mundo, que informa busca de ações, orientada por funções objetivo e restrita por guardrails. Cinco módulos, cinco modos de falha correspondentes. Delírio por percepção defeituosa. Estupidez por modelo incorreto. Ineficácia por busca subótima. Maldade por objetivos ou guardrails distorcidos.
O framework captura algo verdadeiro sobre cognição. E, como frequentemente acontece com modelos elegantes, captura menos do que pretende. Essa elegância, porém, não é defeito. É característica. Modelos parcimoniosos são mais fáceis de comunicar, mais rápidos de aplicar, mais robustos quando dados são escassos. A questão não é se o modelo de LeCun está errado, mas quando sua simplicidade é vantagem e quando é limitação.
A primeira lacuna está na temporalidade. LeCun trata funções objetivo como estáveis: o agente quer X, age para conseguir X, falha ou não. Mas humanos (e sistemas de iA em contextos reais) operam com objetivos que podem mudar durante a execução. Um político pode começar querendo reformar a economia, descobrir que isso ameaça sua base eleitoral, e terminar querendo preservar sua posição. Não houve “defeito” no módulo de objetivos. Houve substituição de objetivo. O modelo de LeCun não distingue entre função objetivo defeituosa e função objetivo que mudou.
Essa distinção importa porque determina a intervenção. Se o problema é defeito, a solução é conserto. Se o problema é substituição, a solução é outra: transparência sobre qual objetivo está de fato operando. A economia comportamental formalizou isso como preferências reveladas versus preferências declaradas. O que alguém diz querer e o que alguém demonstra querer pelo comportamento frequentemente divergem. Atribuir essa divergência a “maldade” (guardrails defeituosos) ou “estupidez” (modelo incorreto) é juízo moral disfarçado de diagnóstico técnico.
A solução proposta, contudo, tem seus próprios problemas. Inferir função objetivo a partir de comportamento requer um modelo de racionalidade. Se esse modelo estiver errado, a função inferida estará errada. Trocar uma circularidade por outra não é progresso. O ganho está em tornar o problema explícito: em vez de presumir que sabemos o objetivo e diagnosticar a falha, admitimos que o objetivo é variável a ser estimada.
A segunda lacuna está na modularidade. LeCun apresenta cinco componentes como separáveis: falha na percepção, falha no modelo, falha na busca, e assim por diante. Mas falhas cognitivas podem não ser isoladas. Um modelo de mundo incorreto pode existir porque a percepção está enviesada. Uma percepção enviesada pode existir porque a função objetivo distorce atenção seletiva. Há cascata e retroalimentação entre módulos. Pesquisas em neurociência cognitiva, como os trabalhos de Karl Friston sobre codificação preditiva, sugerem que percepção e modelagem operam de forma integrada, não sequencial. Tratar cada módulo como unidade independente simplifica a arquitetura ao custo de obscurecer a dinâmica.
Um exemplo. Alguém acredita que tarifas comerciais melhoram a economia nacional. LeCun classificaria isso como “modelo de mundo incorreto” (tipo 2). Mas a crença pode existir porque a pessoa consome informação de fontes que confirmam a crença (percepção enviesada, tipo 1), porque acreditar nisso serve a interesses políticos (objetivo distorcido, tipo 4), ou porque descartar a crença implicaria admitir erros passados (guardrail de autopreservação, tipo 5). A taxonomia de cinco falhas não resolve a questão. Apenas a renomeia.
A terceira lacuna está na dimensão social. O modelo de LeCun descreve cognição individual. Mas decisões em organizações e governos emergem de múltiplos agentes com percepções, modelos e objetivos distintos. O resultado coletivo pode parecer “estúpido” mesmo que cada participante tenha agido racionalmente dentro de suas restrições. Nenhum módulo individual falhou. A falha está na agregação. Isso é bem documentado em teoria de escolha pública e em estudos de tomada de decisão em grupo. O modelo de LeCun não tem onde acomodar essa classe de fenômenos.
Cabe esclarecer o escopo da crítica. Para um agente individual em contexto estável, com objetivo definido, a arquitetura de cinco módulos funciona. Ela oferece vocabulário diagnóstico útil e intervenções correspondentes. A limitação emerge quando o contexto é dinâmico, quando objetivos flutuam, quando múltiplos agentes interagem. O modelo não está errado. Está incompleto para certos domínios.
Como estender o framework? Primeiro, modelar função objetivo como variável temporal, não como input fixo. Segundo, monitorar coerência entre módulos, não apenas performance de cada um. Terceiro, adicionar camada de agregação para sistemas multiagentes. Quarto, substituir a pergunta “o agente quis fazer mal ou apenas errou?” por “qual função objetivo explica melhor o comportamento observado?”.
O resultado dessas extensões é um modelo menos elegante. Mais parâmetros, mais interações, mais incerteza declarada. Em contextos com dados abundantes e dinâmicas complexas, essa complexidade adicional pode compensar. Em contextos simples, a parcimônia de LeCun permanece preferível. Saber quando usar cada versão é, talvez, a competência que realmente importa.
LeCun ofereceu vocabulário útil para pensar sobre falhas cognitivas. O próximo passo é reconhecer que o vocabulário descreve componentes, não o sistema. E sistemas se comportam de modos que seus componentes, isoladamente, não preveem.
ousadia criativa. precisão estratégica. – por kim.