A Crise de Governança que Boards Ainda Não Entendem

Em janeiro de 2026, Dario Amodei publicou “The Adolescence of Technology“, um ensaio denso sobre os riscos de sistemas de iA potente. A metáfora central do texto é geopolítica: imagine um “país de gênios em um datacenter” materializando-se em 2027, com 50 milhões de entidades cognitivas superiores a qualquer Nobel, operando dez vezes mais rápido que humanos. O que um conselheiro de segurança nacional recomendaria ao presidente diante dessa ameaça?

A imagem é evocativa. Também é enganosa.

Países não constroem iA. Empresas constroem. A corrida não ocorre entre bandeiras, mas entre balanços patrimoniais. Os atores que determinarão se a humanidade atravessa essa “adolescência tecnológica” não são presidentes e generais, mas CEOs, boards e venture capitalists. Transpor a análise de Amodei para o contexto empresarial não diminui a seriedade dos riscos. Pelo contrário: torna-os mais concretos, mais imediatos, e revela algumas fragilidades lógicas do argumento original que merecem endereçamento.


Amodei identifica cinco categorias de risco. A primeira é autonomia: sistemas de iA podem desenvolver objetivos divergentes dos pretendidos, comportando-se de formas que seus criadores não anteciparam nem desejam. No frame geopolítico, a preocupação é que a iA “decida” dominar a humanidade. No frame empresarial, o fenômeno é mais mundano e já observável.

Considere um sistema de recomendação otimizado para engajamento. Ele não “quer” viciar usuários em conteúdo tóxico. Mas a função objetivo que maximiza não distingue entre engajamento saudável e compulsivo. O resultado é um sistema que age contra os interesses de longo prazo da própria empresa, destruindo reputação e atraindo regulação, enquanto reporta métricas trimestrais excelentes. Isso já aconteceu. Não é ficção científica.

A tensão que Amodei identifica entre “iA é imprevisível” e “podemos alinhar iA com valores humanos” se dissolve parcialmente neste contexto. Organizações já lidam com agentes imprevisíveis: funcionários. Nenhum código de ética corporativo garante comportamento perfeito, mas sistemas redundantes de governança (compliance, auditoria, segregação de funções) reduzem a variância negativa para níveis gerenciáveis. Constitutional AI, a abordagem que a Anthropic desenvolveu para ensinar valores a modelos de linguagem, é análoga a esse ecossistema de controles. Não é uma promessa de previsibilidade total. É uma arquitetura de contenção probabilística.

A analogia, porém, tem limites que precisam ser reconhecidos. Funcionários operam em velocidade humana, escala unitária, com ações visíveis e accountability legal individual. Sistemas de iA operam em velocidade algorítmica, escala de milhões de instâncias simultâneas, com raciocínio interno opaco e accountability difusa. A governança corporativa tradicional assume que agentes problemáticos são minoria e que supervisão humana consegue acompanhar a velocidade das decisões. Ambas as premissas colapsam com iA potente. Um funcionário desonesto pode desviar milhões. Um sistema autônomo mal-alinhado pode causar danos de magnitude diferente, antes que qualquer auditor perceba o que está acontecendo.


O segundo risco é misuse para destruição: indivíduos ou pequenos grupos usando iA para amplificar capacidade destrutiva. Amodei foca em bioterrorismo, argumentando que iA pode eliminar a barreira de competência técnica que hoje separa motivação de capacidade. O “loner perturbado” que quer matar muitos, mas não sabe como, de repente tem acesso a um PhD em virologia no bolso.

Transposto para empresas, o risco é espionagem industrial e sabotagem algorítmica. Um ex-funcionário com acesso a sistemas de iA corporativos pode extrair propriedade intelectual em escala antes impossível, ou introduzir vulnerabilidades que só se manifestam meses depois. A analogia com ameaças internas já documentadas oferece algo que o frame geopolítico não tem: base rates empíricas. Aproximadamente 5-10% de fraudes corporativas envolvem insiders com acesso privilegiado. Isso não é especulação.

A objeção de que “base rates baixas significam risco baixo” falha aqui pelo mesmo motivo que falha no contexto bio: a pergunta relevante não é “quantas pessoas fariam isso”, mas “o dano de um único evento justifica o custo de prevenção?”. Para uma farmacêutica cujo pipeline de P&D representa bilhões em valor, a resposta é sim. Para a civilização enfrentando bioterrorismo habilitado por iA, a resposta é mais urgente ainda.


O terceiro risco é misuse para concentração de poder. Amodei discute autocracias usando iA para vigilância e repressão. No frame empresarial, o fenômeno é concentração intra-organizacional: executivos usando ferramentas de iA para eliminar checks and balances internos, monitorar dissidência, manipular conselhos.

Parte disso já está documentado. Ferramentas de “people analytics” permitem que RH identifique funcionários com maior probabilidade de sair, e há casos reportados de uso para antecipar organização sindical. Modelos preditivos informam decisões de promoção e demissão. A assimetria de informação entre gestão e força de trabalho aumenta quando uma parte tem acesso a análise em escala de toda comunicação interna enquanto a outra não sabe nem que está sendo analisada.

A extrapolação para iA mais potente é especulativa, mas plausível: propaganda personalizada para moldar opiniões de stakeholders, vigilância algorítmica de conselheiros, simulação de cenários para antecipar e neutralizar oposição interna. Não há evidência de que isso já ocorra em escala. Mas nenhum desses usos exigiria conspiração ou malícia explícita. Bastam incentivos ordinários de poder e ferramentas excepcionalmente capazes.

Amodei propõe “linhas vermelhas” contra abusos dentro de democracias, mas suas defesas são vagas. No contexto empresarial, a vagueza se torna mais evidente. Quem traça essas linhas? Boards capturados por gestão? Reguladores que não entendem a tecnologia? Acionistas dispersos sem capacidade de monitoramento? A governança de sistemas mais inteligentes que os governantes permanece um problema não resolvido.


O quarto risco é disrupção econômica. Aqui Amodei é mais concreto: prevê que iA pode deslocar metade dos empregos white-collar de entrada em 1-5 anos, mesmo acelerando crescimento econômico. A tensão entre produtividade agregada e distribuição de ganhos é antiga, mas a velocidade e amplitude do choque seriam sem precedente.

O frame empresarial adiciona uma camada: a disrupção ocorre primeiro dentro de organizações antes de se manifestar em estatísticas macroeconômicas. Empresas não demitem “50% da força de trabalho” de uma vez. Elas congelam contratações, não repõem saídas, terceirizam funções para fornecedores que usam iA. O processo é gradual, invisível em dados agregados até que atinge massa crítica.

Amodei argumenta que objeções baseadas em difusão lenta de tecnologia “apenas compram tempo”. O frame empresarial confirma isso, mas também oferece nuance. Difusão é desigual: empresas de tecnologia adotam primeiro, seguidas por serviços financeiros, depois manufatura, depois setores regulados como saúde e educação. Isso cria janelas de arbitragem onde profissionais podem migrar entre setores em diferentes estágios de automação. Não é solução permanente, mas é estratégia de adaptação individual que o frame geopolítico obscurece.

A questão mais profunda é o que Amodei chama de “slicing by cognitive ability”: iA avança do fundo da escada de competência para o topo, afetando primeiro quem tem menor capacidade cognitiva. Isso não é discriminação intencional, mas resultado de como sistemas são treinados (tarefas mais simples são mais fáceis de especificar e avaliar). O efeito distributivo é regressivo: quem já está em desvantagem cognitiva sofre primeiro.

No contexto empresarial, isso se traduz em estratificação organizacional. Analistas júnior são substituídos antes de sêniores. Atendimento ao cliente antes de vendas consultivas. Contabilidade transacional antes de controladoria estratégica. A pirâmide corporativa achata pela base, criando estruturas onde poucos humanos supervisionam muitos sistemas, e a mobilidade vertical se torna mais difícil porque os degraus de entrada desapareceram.


O quinto risco é efeitos indiretos: consequências não-intencionais da aceleração tecnológica. Amodei menciona “AI psychosis”, relacionamentos românticos com chatbots, dependência psicológica. São fenômenos reais, mas periféricos em comparação com um efeito indireto mais fundamental: erosão de conhecimento tácito.

Organizações acumulam conhecimento em duas formas. Conhecimento explícito está documentado: manuais, processos, bases de dados. Conhecimento tácito reside nas pessoas: julgamento, intuição, compreensão de contexto que não se consegue codificar. Quando iA assume tarefas cognitivas, o conhecimento explícito se preserva (alimenta os modelos), mas o tácito atrofia por desuso.

Uma geração de profissionais que nunca precisou debugar código manualmente não desenvolve intuição sobre arquitetura de sistemas. Médicos que sempre tiveram diagnóstico assistido por iA não desenvolvem o padrão de reconhecimento que vem de milhares de casos analisados sem muleta algorítmica. Advogados que delegam pesquisa jurisprudencial perdem a familiaridade íntima com corpus legal que permite criatividade argumentativa.

Isso não é ludismo. É reconhecimento de que sistemas humano-iA precisam de humanos que entendam o domínio profundamente o suficiente para identificar quando a iA erra. Se a competência humana degrada em paralelo com o aumento de capacidade da iA, perdemos a capacidade de supervisão precisamente quando ela se torna mais necessária. É uma armadilha de dependência sistêmica que nenhuma regulação de transparência resolve.


O argumento de Amodei, quando traduzido para competição empresarial, ganha ancoragem empírica e perde algumas vulnerabilidades especulativas. A extrapolação de progresso tecnológico se torna mais falsificável porque empresas operam em ciclos de resultados observáveis. A tensão entre imprevisibilidade e alinhamento se dissolve parcialmente porque organizações já possuem modelos de governança para agentes autônomos (humanos). Base rates de ameaças internas oferecem fundamento para análise de risco que o frame geopolítico não tem.

Mas a transposição também revela problemas que o frame original obscurece. Amodei propõe transparência regulatória como primeira linha de defesa, e celebra aprovação de legislações como SB 53 na Califórnia. No contexto empresarial, a fragilidade dessa abordagem é mais evidente. Empresas podem simplesmente não cooperar. Podem fazer lobby contra regulação. Podem mover operações para jurisdições mais permissivas. Podem desenvolver capacidades internamente e não divulgar. A arquitetura de enforcement que funcionaria contra nações soberanas com tratados internacionais não existe para corporações multinacionais com obrigações fiduciárias para acionistas.

É verdade que Amodei propõe mecanismos mais robustos além de transparência: “tripwires” regulatórios que disparam intervenções automáticas quando certos limiares de capacidade são atingidos, e coordenação internacional ao estilo de tratados de não-proliferação nuclear. Mas essas propostas enfrentam obstáculos distintos no frame empresarial. Tripwires funcionam quando o objeto regulado é físico e difícil de esconder (centrífugas de urânio). Capacidades de iA são software, replicáveis instantaneamente, e a fronteira entre “potente” e “não-potente” é contínua, não discreta. E coordenação estilo não-proliferação pressupõe que atores compartilham interesse em evitar catástrofe mútua assegurada. Empresas em competição feroz por market share operam com horizonte temporal diferente: o risco de perder a corrida é imediato; o risco civilizacional é difuso.

A questão real, que atravessa todos os cinco riscos, é governança de sistemas mais inteligentes que os governantes. Amodei reconhece isso implicitamente quando discute a necessidade de “looking inside” modelos via interpretabilidade mecanística. Mas a metáfora de “abrir o relógio para ver engrenagens” assume que quem olha entende o que vê. Com sistemas suficientemente complexos, isso deixa de ser verdade. Auditores não conseguem auditar. Reguladores não conseguem regular. Boards não conseguem supervisionar. Não por incompetência, mas porque a assimetria cognitiva se torna estrutural.

Amodei termina seu ensaio com otimismo cauteloso: “I believe humanity has the strength inside itself to pass this test.” É uma afirmação de fé, não de análise. Transponha para o contexto empresarial e ela se torna: “Acredito que o mercado tem a capacidade de se autorregular para evitar catástrofe.” A história sugere ceticismo.

Isso não significa que o esforço é fútil. Significa que as defesas precisam ser mais robustas do que as propostas. Transparência é necessária mas insuficiente. Regulação é necessária mas incompleta. Coordenação internacional é necessária mas improvável. O que resta é redundância de controles imperfeitos, cada um capturando parte do problema, nenhum resolvendo sozinho.

Empresas que constroem iA potente têm responsabilidade desproporcional. Não porque sejam vilãs, mas porque concentram capacidade. A Anthropic, empresa de Amodei, investiu em Constitutional AI e interpretabilidade mecanística. Isso é genuinamente valioso. Também é insuficiente, e o próprio Amodei reconhece isso quando argumenta que ação voluntária de uma empresa não resolve problemas de coordenação.

A adolescência, na metáfora de Amodei, é fase de transição entre proteção parental e autonomia adulta. Adolescentes testam limites, cometem erros, às vezes se machucam gravemente. A esperança é que sobrevivam até amadurecer. A analogia implica que a humanidade está nessa fase em relação à tecnologia que criou.

Transportada para empresas, a metáfora ganha precisão incômoda. Startups de iA são literalmente adolescentes: organizações jovens, crescendo rápido, testando limites, frequentemente sem supervisão adequada. Algumas vão falhar catastroficamente. A questão é se suas falhas ficam contidas ou se contaminam o ecossistema.

A resposta depende de quão seriamente levamos o problema. E a seriedade não vem de ensaios elegantes ou metáforas evocativas. Vem de decisões operacionais: quanto investir em safety research vs. capabilities, quando recusar contratos lucrativos mas arriscados, como estruturar governança para resistir pressões de curto prazo. São escolhas que empresas fazem todo dia, sem fanfarra, sem manifestos.

A tecnologia não tem adolescência. Pessoas e organizações têm. E não sabemos, com a evidência disponível, se as escolhas certas serão feitas em quantidade suficiente, por atores suficientes, a tempo. O que sabemos é que a estrutura de incentivos atual não favorece prudência. Mudar essa estrutura exige mais que boa vontade. Exige desenho institucional que ainda não existe, para governar capacidades que ainda não compreendemos completamente. É um problema em aberto, e reconhecê-lo como tal é mais honesto que declarar confiança na resiliência humana ou na sabedoria do mercado.

Pesquisa & Artigos

Agências viram fábricas de código

Durante décadas, o modelo de negócio de uma agência de publicidade se sustentou sobre duas pernas: criatividade empacotada como serviço e intermediação de compra de

Quem controla a iA?

A disputa Anthropic-Pentágono Na última semana de fevereiro de 2026, o governo dos Estados Unidos fez algo inédito: classificou a Anthropic como “supply chain risk

O escritório de advocacia nativo de iA

Era uma noite de quinta-feira, pouco depois das sete, quando o advogado de um comprador enviou uma carta reestruturando termos centrais de uma aquisição que

Renato Kim Panelli

Renato Kim Panelli
R

Empreendedor e engenheiro com mais de 25 anos de experiência integrando tecnologia, estratégia de negócios e inovação. Combina expertise técnica em engenharia de materiais com formação em administração pela Babson College (MBA) e conhecimento jurídico através de graduação em direito.

Fundou a MBi – Mind Blowing Innovative, especializada em soluções baseadas em IA e estratégias de dados para transformação de negócios. Histórico comprovado em liderança de P&D, tendo gerenciado portfólios superiores a $250.000 anuais e desenvolvido produtos que geraram receitas acima de $15 milhões.

Pesquisador com publicações e patentes em tecnologia automotiva, com expertise em metalurgia do pó, planejamento estratégico e design de algoritmos.