Um executivo preparou a reunião de conselho em vinte minutos. Alimentou a iA com os relatórios trimestrais, pediu uma síntese das variáveis críticas e recebeu um documento articulado, com indicadores organizados e recomendações coerentes. O que antes consumia quatro horas de leitura, anotação e reflexão agora cabia entre dois cafés. Ele apresentou com fluência. Respondeu às primeiras perguntas com segurança. Até que um conselheiro pediu que explicasse a premissa por trás da projeção de margem. O silêncio que se seguiu durou mais que os vinte minutos de preparação.
Esse cenário deixou de ser hipotético. A iA generativa permite que executivos e conselheiros processem volumes de informação com velocidade sem precedente. Mas velocidade de processamento não equivale a profundidade de compreensão. E aqui reside um risco que a alta administração ainda subestima: a mesma ferramenta que multiplica o output pode comprometer o julgamento que justifica a posição de quem decide.
Um estudo publicado em fevereiro de 2026 por pesquisadores da Anthropic (Shen e Tamkin) mediu o impacto da iA na formação de habilidades. Cinquenta e dois programadores profissionais foram divididos aleatoriamente em dois grupos para aprender uma nova biblioteca de programação assíncrona. O grupo com acesso a assistente de iA produziu código, mas obteve 17% menos em testes de compreensão (Cohen’s d = 0,738, p = 0,010). O dado que desestabiliza a narrativa corrente: não houve ganho significativo de produtividade (p = 0,391), contrariando estudos anteriores que prometiam acelerações de até 55%. Os participantes sem iA enfrentaram três vezes mais erros. E foi justamente esse atrito, essa fricção de depurar código e reconstruir lógica a partir de falhas, que consolidou o aprendizado.
Se isso ocorre com programadores aprendendo uma biblioteca técnica em uma hora, a pergunta se impõe: o que acontece com executivos que delegam à iA a análise de um novo mercado, a avaliação de uma aquisição, a interpretação de riscos regulatórios? Os contextos diferem. Programação oferece feedback objetivo imediato (o código roda ou não roda); decisões estratégicas só revelam acerto anos depois, em ambientes políticos e com informação incompleta. Mas o mecanismo cognitivo subjacente opera nos dois domínios: supervisão efetiva pressupõe domínio do objeto supervisionado, e esse domínio se forma pelo esforço de compreender, não pelo ato de receber respostas. Delegar a análise sem interrogar os fundamentos produz decisões que parecem informadas, mas que são cognitivamente ocas. O estudo identificou seis padrões de interação com iA. Os dois com piores resultados de aprendizado foram “AI Delegation” e “Progressive Reliance”, nos quais o usuário transfere a tarefa e aceita o resultado sem atrito. Os scores de compreensão nesses padrões ficaram entre 35% e 39%.
A contrapartida é relevante. Os padrões de maior aprendizado, “Conceptual Inquiry” (65%) e “Generation-Then-Comprehension” (86%), compartilham uma característica: o usuário mantém engajamento ativo. Faz perguntas conceituais. Pede que a iA explique o raciocínio, não apenas a resposta. Usa o output como ponto de partida para investigação, não como destino. Em governança corporativa, isso significa gerar análise preliminar com iA e, em seguida, interrogar cada premissa, pedir cenários alternativos, testar a robustez das conclusões contra hipóteses contrárias. O esforço cognitivo não é um custo do processo. É o processo.
O risco de ignorar essa dinâmica é sistêmico. Os pesquisadores descrevem o fenômeno como efeito “exoesqueleto”: capacidades que não existem sem a ferramenta. É preciso ser preciso sobre o que a evidência demonstra e o que ela sugere. O estudo mediu formação impedida: habilidades que não se consolidaram porque o aprendizado ocorreu por delegação passiva. Isso difere de atrofia, que seria a perda de habilidades já dominadas. Para o executivo experiente que começa a usar iA, o risco não é idêntico ao do programador novato, mas é adjacente: a dependência continuada de sínteses externas pode enfraquecer o músculo analítico que sustenta o julgamento independente. A hipótese é plausível e coerente com o que se conhece sobre desuso cognitivo, embora careça de confirmação experimental direta. O que o estudo demonstra sem ambiguidade é que delegação passiva impede a formação de competência. Em governança, conselheiros existem para supervisionar a gestão. Se a iA se torna o intermediário entre os dados e o julgamento do conselheiro, e se esse julgamento não foi construído ou mantido por esforço próprio, a supervisão se converte em ritual. Conselheiros que não conseguem avaliar uma análise sem a muleta de iA não estão supervisionando. Estão endossando.
Nada disso significa rejeitar a iA. Significa recusar o conforto intelectual que ela oferece quando mal utilizada. A disciplina que se exige da alta administração não é tecnológica, é cognitiva: manter o pensamento crítico ativo mesmo quando a ferramenta sugere que ele é dispensável. Se a evidência preliminar estiver correta em sua direção, organizações que incorporam iA nos processos decisórios de topo sem protocolos de engajamento cognitivo podem estar construindo uma arquitetura de fragilidade. A escala do risco ainda precisa ser medida. Mas a direção já está demonstrada.
Cada vez que um executivo aceita uma análise sem questioná-la, ele não transfere apenas trabalho. Transfere julgamento. E julgamento, diferente de produtividade, não se recupera com um prompt melhor.
Referência: Shen, J. e Tamkin, A. (2026). How AI Impacts Skill Formation. Anthropic. Disponível em: arxiv.org/abs/2601.20245v2
ousadia criativa. precisão estratégica. – por kim.