Existe um erro conceitual no coração do debate contemporâneo sobre inteligência artificial. Confundimos fluência linguística com inteligência. Essa confusão sustenta promessas de superinteligência em poucos anos, extensão radical da vida e aceleração científica extrema — projeções que repousam sobre um equívoco fundamental: assumir que aperfeiçoar modelos de linguagem nos aproxima da inteligência humana geral.
Os grandes modelos de linguagem, como ChatGPT, Claude e Gemini, são sistemas que modelam padrões de palavras em quantidades massivas de texto. Eles preveem o próximo token com base em correlações estatísticas. O resultado impressiona: textos fluentes, coerentes, ocasionalmente surpreendentes. Essa fluência nos seduz porque associamos articulação verbal à inteligência — um viés cultural profundo, enraizado em séculos de valorização do discurso eloquente como marca de erudição.
Antes de prosseguir, cabe explicitar o que está em questão quando dizemos “pensamento”. Não se trata aqui de consciência fenomenológica ou experiência subjetiva — debates que permanecem em aberto na filosofia da mente. O termo é usado em sentido operacional: capacidade de formar representações internas do mundo, manipulá-las de forma flexível para fins novos, e usar essas representações para guiar comportamento adaptativo em contextos não previstos durante o treinamento. Essa definição permite avaliar LLMs sem resolver o problema da consciência.
Pesquisas em neurociência oferecem evidências relevantes para esse debate, embora o campo não tenha chegado a consenso definitivo. Trabalhos como os conduzidos pelo laboratório de Evelina Fedorenko no MIT demonstram dissociação entre áreas cerebrais responsáveis pelo processamento linguístico e aquelas envolvidas em raciocínio, resolução de problemas e planejamento. Pacientes com lesões severas em regiões de linguagem preservam capacidades de raciocínio matemático e lógico. Isso sugere — sem provar conclusivamente — que cognição humana não se reduz a processamento linguístico. Temos cognição espacial, raciocínio motor, intuição social, percepção temporal, metacognição: processos que não passam necessariamente pela linguagem. LLMs só acessam o mundo através de texto. Por mais sofisticada que seja a correlação estatística, falta-lhes corporalidade, experiência sensorial, ancoragem no mundo físico.
Um artigo recente do New York Times captura um indício convergente. Chatbots desenvolveram um “jeito de escrever” próprio, facilmente reconhecível: metáforas exageradas, léxico repetitivo, tentativa ostensiva de soar profundo o tempo todo. Construções como “não é X, é Y”, ênfase em silêncio e sutileza, travessões em excesso — recursos associados a “boa escrita” que, replicados em excesso, produzem texto polido mas artificial. Humanos também caem em fórmulas: jargão acadêmico, linguagem burocrática, clichês corporativos. A diferença é que humanos podem deliberadamente abandonar o padrão quando o contexto exige — essa flexibilidade pressupõe representação do contexto e capacidade de ajuste. A padronização consistente dos chatbots sugere ausência dessa flexibilidade, não por escolha estilística, mas por limitação arquitetural.
O chamado “problema dos 90%” ilustra essa diferença em termos práticos. Agentes de iA chegam perto do desempenho humano mas não alcançam a confiabilidade exigida em tarefas binárias — reservar um voo, executar transações financeiras, dirigir um veículo. Nessas situações, um erro torna o sistema inutilizável ou muito custoso de supervisionar. Tarefas binárias exigem generalização robusta para casos não vistos durante o treinamento. LLMs funcionam bem em tarefas “não binárias” — escrever, revisar, programar, analisar — onde humanos fazem o último quilômetro de validação e decisão. Isso revela sua natureza: ferramentas de expansão cognitiva, não substitutos de cognição.
A solução emergente confirma o diagnóstico. Se LLMs pensassem no sentido operacional definido acima, não seria necessário integrar sistemas simbólicos — lógica, regras, estruturas if-then. A maioria dos especialistas consultados pela AAAI não acredita que redes neurais sozinhas conduzam à inteligência de nível humano. Seria preciso combinar esses modelos com sistemas simbólicos capazes de representar regras e relações lógicas de forma explícita. Essa combinação, chamada iA neurossimbólica, é vista como caminho promissor para uma inteligência artificial que generaliza melhor e raciocina com mais consistência.
A explosão de artigos sobre iA neurossimbólica desde 2021 representa uma admissão implícita: redes puramente neurais mostram limites em raciocínio e generalização. O AlphaGeometry, do Google DeepMind, ilustra o caminho híbrido: usa redes neurais treinadas com problemas gerados simbolicamente para resolver questões de olimpíadas de matemática. A “velha” iA simbólica volta à cena porque complementa o que as LLMs não conseguem fazer sozinhas.
O debate filosófico permanece aceso. Richard Sutton defende que escalar redes neurais e dados é o caminho. Gary Marcus argumenta que a disputa está sendo decidida a favor da integração. Mas o ponto central atravessa todas as posições: nenhuma delas afirma que LLMs, como existem hoje, pensam no sentido operacional aqui definido.
Dessas análises descritivas derivam implicações práticas. Se LLMs processam padrões estatísticos sem representação interna flexível do mundo, e se tarefas de alto risco exigem generalização robusta para contextos não previstos, então delegar decisões críticas a esses sistemas sem supervisão humana é inadequado. Para uso corporativo, isso implica tratar iA como ferramenta de expansão — não substituição — do julgamento humano. Para desenvolvimento técnico, aponta a integração neurossimbólica como rota mais promissora que o escalonamento infinito de parâmetros. Para o debate público, exige abandonar a antropomorfização excessiva das LLMs.
Elas correlacionam padrões estatísticos de linguagem com precisão notável. Isso é útil. Isso é poderoso. Isso não é pensamento. Reconhecer a diferença permite usar essas ferramentas pelo que são: amplificadores de capacidade humana, não simulacros de mente.
Não é conteúdo sobre tecnologia. É tecnologia repensando conteúdo. – por MBi