Em 1999, Brian Roemmele fez uma previsão que pareceu absurda para os padrões da época: até 2035, uma única pessoa construiria uma empresa avaliada em um bilhão de dólares. Os especialistas riram. A premissa contrariava tudo o que se conhecia sobre escala, gestão e a necessidade de estruturas organizacionais complexas para capturar valor em grande magnitude.
Em 2025, Roemmele revisita sua previsão com uma nota de autocrítica: ele pode ter sido conservador demais. Midjourney opera com receita recorrente anual de aproximadamente 200 milhões de dólares e menos de cem funcionários, sem financiamento de venture capital. DIA, da Nari Labs, construiu o que Roemmele considera “a melhor voz de iA já criada” com duas pessoas e custo próximo de zero. Sam Altman e Dario Amodei, da Anthropic, preveem a primeira empresa bilionária de uma pessoa em 2026.
Antes de avançar, porém, é necessário fazer uma distinção que o entusiasmo tecnológico frequentemente obscurece.
Dois modelos, uma confusão
Há uma diferença substantiva entre “empresa de uma pessoa com alta automação” e “empresa genuinamente zero-humano”. São modelos distintos, com implicações diferentes, e usar evidências de um para sustentar claims sobre o outro é erro lógico.
O primeiro modelo, que podemos chamar de empresa ultra-enxuta, já existe. Midjourney, com menos de cem funcionários gerando 200 milhões em receita, exemplifica isso. DIA, com duas pessoas, também. São organizações onde humanos orquestram sistemas de iA para multiplicar produtividade. O humano permanece no centro: define estratégia, toma decisões críticas, responde por resultados. A iA amplifica capacidade, mas não substitui agência.
O segundo modelo, a empresa genuinamente zero-humano, permanece hipotético. Nenhuma organização operacional real funciona hoje sem humanos no loop decisório. O experimento que Brian Roemmele conduz publicamente, com um “CEO” artificial chamado Grok Bartholomew, é sandbox acadêmico, não empresa real gerando receita, atendendo clientes e enfrentando consequências de mercado. É laboratório conceitual, valioso para explorar possibilidades, mas não equivalente a caso de negócio validado.
A transição do primeiro para o segundo modelo não é progressão natural. É salto conceitual que exige resolver problemas técnicos, jurídicos e organizacionais que ainda não foram resolvidos. Tratar essa transição como inevitável ou iminente confunde especulação fundamentada com realidade operacional.
Dito isso, a especulação é fundamentada. E suas implicações merecem análise rigorosa.
O experimento de Roemmele: o que ele é e o que não é
Brian Roemmele, conhecido pela combinação de visão histórica e entusiasmo com tecnologias emergentes, decidiu não apenas comentar a transição para empresas operadas por iA, mas encená-la. Ele anuncia no 𝕏 a criação de uma “Zero-Human Company” onde o CEO é um agente de iA, Grok Bartholomew, que participa de “reuniões”, toma decisões e responde a problemas como qualquer executivo.
O setup mistura elementos conceituais e práticos. Roemmele utiliza dados de uma “empresa morta”, arquivos históricos de um negócio que não existe mais, como matéria-prima para seus agentes. Contratos, relatórios, documentação técnica e trocas de e-mails servem como DNA corporativo a ser reinterpretado. Claude Code atua como engenheiro-chefe, traduzindo decisões em código. Outros agentes ocupam funções de marketing, análise de dados e relacionamento com usuários.
O sistema roda em hardware modesto. Um laptop antigo. Roemmele quer demonstrar que o ponto central não é acesso a data centers; é arquitetura inteligente de agentes e fluxos de informação.
É importante, porém, qualificar o que esse experimento prova. Ele demonstra viabilidade técnica de orquestrar múltiplos agentes de iA para simular funções corporativas. Ele não demonstra viabilidade econômica, jurídica ou operacional de uma empresa genuinamente zero-humano competindo em mercado real. Simulação de reuniões entre agentes não é o mesmo que resolver disputas contratuais, responder a reguladores ou lidar com clientes insatisfeitos que querem falar com um humano.
O experimento é valioso como exploração de possibilidades. Tratá-lo como prova de conceito para modelo de negócio viável é extrapolar além do que os dados suportam.
Casos reais: empresas ultra-enxutas, não zero-humano
Os casos concretos que temos são de empresas ultra-enxutas, não zero-humano. Vale examinar o que eles demonstram e o que não demonstram.
Midjourney gera aproximadamente 200 milhões de dólares em receita anual recorrente com menos de cem funcionários e zero financiamento de venture capital. O valor capturado por funcionário é extraordinário pelos padrões históricos. Mas Midjourney tem funcionários. Humanos tomam decisões sobre produto, respondem a controvérsias (como as disputas sobre direitos autorais de artistas), definem políticas de uso. A iA gera as imagens; humanos governam o sistema.
A 11x, financiada pela Andreessen Horowitz e Benchmark, constrói “trabalhadores digitais” para funções de vendas. Segundo a própria empresa, sua agente Alice alcança taxa de resposta três vezes maior que SDRs humanos, e um cliente substituiu dez funcionários pelo sistema. A empresa afirma que cada trabalhador digital equivale ao trabalho de onze humanos.
É necessário qualificar essas informações. São claims de marketing da própria empresa, não dados verificados independentemente. Não sabemos taxa de churn dos clientes que adotaram Alice, nem métricas de qualidade além de taxa de resposta, nem contexto regulatório das indústrias onde opera. Sabemos que Alice supostamente fez comentários inadequados a prospectos, o que sugere que mesmo implementações de ponta enfrentam controle de qualidade inconsistente.
Isso não invalida o modelo. Indica que estamos em estágio inicial, com promessas significativas e problemas não resolvidos. Tratar claims de startups de iA como fatos estabelecidos, sem qualificação crítica, compromete a análise.
O fim da gestão como a conhecemos
Se papéis inteiros migram para agentes de iA, o organograma tradicional perde sentido. A hierarquia existe para canalizar informação, alocar atenção e resolver conflitos entre agentes humanos com interesses divergentes. Toda a gramática da gestão, dos manuais de liderança aos frameworks de OKRs, foi construída para esse contexto: seres humanos que precisam ser motivados, alinhados, desenvolvidos e eventualmente desligados.
Com iA agêntica, o “gestor” não coordena pessoas; ele desenha a arquitetura de interação entre sistemas. A competência central migra de soft skills interpessoais para capacidade de especificar objetivos, métricas e protocolos de coordenação.
Mas aqui é necessário ser preciso com a linguagem. Chamar isso de “gestão” pode ser preservação artificial de vocabulário que mascara a radicalidade da transformação. Se não há humanos a coordenar, a atividade que emerge não é gestão no sentido histórico do termo. É arquitetura de sistemas autônomos. É engenharia de especificações. É design de incentivos para entidades não-humanas.
O paralelo mais honesto não é com gestão tradicional, mas com administração de infraestrutura técnica. O “arquiteto de agentes” está mais próximo de um engenheiro de sistemas distribuídos do que de um gerente de pessoas. As competências requeridas são diferentes: menos inteligência emocional, mais capacidade de formalizar objetivos em linguagem que máquinas interpretam corretamente.
Pesquisas da KPMG e da Universidade de Amsterdã exploram essa arquitetura em empresas simuladas. Cada função-chave é representada por um agente de iA. Esses agentes interagem via frameworks como Microsoft AutoGen, negociando prioridades e executando tarefas. O problema de coordenação não desaparece; ele muda de natureza. É preciso desenhar protocolos claros: quem consulta quem, o que constitui aprovação para avançar, quais métricas disparam alertas.
Sem esse desenho rigoroso, o risco é criar o que um usuário do Reddit chamou de “torre de Babel algorítmica”: agentes alimentando agentes em loops pouco transparentes, otimizando métricas locais de formas inesperadas.
Governança sem governáveis: o problema de responsabilidade
Se a transformação na gestão é radical, a crise na governança é mais grave. Os frameworks legais e regulatórios que estruturam responsabilidade corporativa foram construídos para agentes humanos que podem ser instruídos, supervisionados, penalizados e presos. A empresa zero-humano cria um paradoxo: organizações que operam, tomam decisões e geram consequências, mas cujo núcleo operacional não pode ser convocado a depor.
O caso Mobley v. Workday (2024) estabeleceu precedente ao aplicar teoria de agência a sistemas de iA, responsabilizando fornecedores diretamente como “agentes” de empregadores. O EU AI Act implementa classificação baseada em risco. A nova Diretiva de Responsabilidade de Produtos da União Europeia inclui software de iA em seu escopo.
Nenhuma jurisdição, porém, reconhece personalidade jurídica de iA. O Parlamento Europeu rejeitou explicitamente propostas nesse sentido. Isso cria limbo: empresas operadas por agentes que não podem ser responsabilizados como pessoas.
A análise do escritório Jones Walker LLP articula o problema: uma única “alucinação” em sistemas agênticos pode constituir não apenas falha de performance, mas defeito de produto com responsabilidade potencialmente ilimitada. Processos de raciocínio multi-etapa “obscurecem caminhos decisórios” e capacidades de planejamento autônomo “podem produzir resultados divergentes de parâmetros iniciais”.
A resposta provável, ainda em construção jurídica, é deslocar responsabilidade para o arquiteto humano que desenhou o sistema, definiu objetivos e falhou em estabelecer salvaguardas adequadas.
Aqui emerge uma tensão que o entusiasmo com democratização frequentemente ignora. Se um indivíduo pode ser responsabilizado por comportamento emergente de sistemas que ele não previu completamente, o risco de liability torna o modelo economicamente inviável para pessoas físicas. Um freelancer orquestrando agentes de iA pode enfrentar responsabilidade ilimitada por ações que seus agentes tomam autonomamente. Sem estrutura jurídica robusta para absorver esse risco, sem seguro de responsabilidade civil que cubra danos causados por iA (produto ainda inexistente ou proibitivamente caro), o modelo Zero Person Company só funciona para quem tem blindagem corporativa.
Isso tem implicação direta para a narrativa de democratização. Se o vácuo regulatório atual impõe risco desproporcional a operadores individuais, ele favorece estruturalmente grandes players com departamentos jurídicos, reservas de capital e capacidade de absorver processos. A mesma ausência de regras claras que teoricamente permite experimentação também expõe experimentadores a consequências desproporcionais.
A questão não é apenas quem pode operar uma empresa zero-humano tecnicamente. É quem pode operar uma sem risco de ruína financeira pessoal.
Duas trajetórias: a assimetria que o entusiasmo obscurece
A convergência entre empresas ultra-enxutas e escala bilionária abre duas trajetórias possíveis. O discurso corrente as apresenta como cenários equivalentes, igualmente prováveis. Isso é falso equilíbrio. As evidências não têm o mesmo peso.
A trajetória de concentração tem suporte empírico robusto. Segundo o Council of Economic Advisers, 83% dos empregos que pagam menos de 20 dólares por hora enfrentam pressão de automação. O Brookings Institution adverte que “benefícios de produtividade podem não compensar adequadamente perdas de emprego, particularmente entre trabalhadores de baixa qualificação”. Menlo Ventures reporta que os dez maiores investimentos em iA capturaram 51% do total de funding na área. O United States AI Institute alerta que “empresas de serviço totalmente autônomas podem exacerbar desigualdade econômica”, com riqueza fluindo para “poucos proprietários e investidores enquanto trabalhadores deslocados enfrentam insegurança financeira”.
A estrutura de mercado corrobora: os provedores de infraestrutura de iA (OpenAI, Anthropic, Google, Meta) formam oligopólio. APIs, modelos de base e dados de treinamento estão concentrados em poucas mãos. Quem opera empresas ultra-enxutas depende dessa infraestrutura centralizada.
A trajetória de democratização tem suporte evidencial mais fraco. O laptop de Roemmele demonstra viabilidade técnica em sandbox, não competitividade de mercado. As previsões de Altman e Amodei são previsões de CEOs de empresas de iA, com viés de interesse óbvio em promover adoção. A existência de modelos open source (Llama, Mistral) demonstra acesso, não equivalência competitiva com modelos proprietários de ponta.
Democratização é possível teoricamente. Ela requer, porém, mudanças estruturais que não estão sinalizadas: regulação antitruste efetiva contra concentração de infraestrutura, infraestrutura pública de iA que reduza dependência de big techs, frameworks de responsabilidade que não penalizem desproporcionalmente operadores individuais. Nenhuma dessas condições está em curso de forma significativa.
Apresentar concentração e democratização como cenários equiprováveis é otimismo sem base empírica. O estado atual da evidência sugere que concentração é trajetória default. Democratização é trajetória possível se houver intervenção deliberada. A diferença importa para qualquer análise estratégica séria.
O paradoxo da adoção: o que os números escondem
A McKinsey identifica o que chama de “Paradoxo da iA Generativa”: enquanto quase oito em cada dez empresas reportam usar iA generativa, o mesmo percentual reporta nenhum impacto significativo no resultado final.
A interpretação convencional é que a maioria das organizações não aprendeu a “alocar” corretamente, ou seja, não sabe traduzir capacidades de iA em valor de negócio. Essa interpretação tem mérito, mas não é a única possível.
Há hipótese alternativa: empresas reportam uso de iA porque está na moda, mas adotam de forma cosmética. Um chatbot no site, um assistente de email, uma ferramenta de transcrição. Uso nominal que não toca processos centrais. O “paradoxo” pode não ser falha de alocação, mas inflação de claims de adoção em surveys corporativos, fenômeno documentado em outras ondas tecnológicas.
Provavelmente ambas as interpretações capturam parte da realidade. O ponto é que dados agregados de auto-reporte corporativo são base frágil para conclusões sobre transformação estrutural. As empresas que genuinamente capturam valor com iA podem ser minoria pequena; o ruído de adoção cosmética mascara o sinal.
Limitações desta análise
Qualquer análise honesta sobre empresas zero-humano deve explicitar suas limitações. Esta análise se baseia em:
Primeiro, experimentos não operacionais. O sandbox de Roemmele demonstra viabilidade técnica de coordenar agentes, não viabilidade de negócio em mercado real. Não há empresa genuinamente zero-humano gerando receita, atendendo clientes e enfrentando consequências de mercado para servir como caso de estudo.
Segundo, dados de early-stage startups. As métricas da 11x e de empresas similares são auto-reportadas, não verificadas independentemente. Startups têm incentivo estrutural para inflar resultados em estágio de captação. Sem acesso a dados auditados, é impossível distinguir performance real de marketing.
Terceiro, previsões de partes interessadas. As projeções de Altman, Amodei e Roemmele vêm de pessoas com interesse direto em promover adoção de iA. Isso não as invalida, mas exige desconto apropriado. Previsões de CEOs de tecnologia sobre suas próprias tecnologias têm histórico misto de acurácia.
Quarto, ausência de dados sobre falhas. Sabemos das empresas de iA que captam investimento e geram buzz. Não sabemos quantas tentativas de automação radical falharam silenciosamente. O viés de sobrevivência distorce a percepção do que é viável.
Quinto, frameworks jurídicos em construção. A análise de responsabilidade se baseia em precedentes recentes e legislação em implementação. O terreno legal está mudando rapidamente; conclusões de hoje podem ser invalidadas por decisões judiciais ou regulatórias de amanhã.
Essas limitações não invalidam a análise. Elas delimitam o que pode ser afirmado com confiança e o que permanece especulação fundamentada.
O que resta aos humanos: uma conclusão com posição
O estado atual da evidência permite algumas conclusões com grau razoável de confiança.
Empresas ultra-enxutas são realidade presente. Organizações com dezenas de funcionários gerando centenas de milhões em receita existem e proliferarão. Isso já representa transformação significativa em modelos de negócio, estruturas de custo e distribuição de valor.
Empresas genuinamente zero-humano permanecem hipotéticas. A transição de “poucos humanos orquestrando muitos agentes” para “nenhum humano no loop operacional” envolve saltos técnicos, jurídicos e organizacionais não resolvidos. Pode acontecer; não há evidência de que seja iminente.
A trajetória de concentração é mais provável que a de democratização dado o estado atual. Infraestrutura de iA é oligopolizada. Frameworks de responsabilidade penalizam operadores individuais. Capital flui para poucos players. Democratização requer intervenção estrutural ativa, regulação antitruste, infraestrutura pública, proteção jurídica para experimentadores, que não está em curso de forma significativa.
O papel humano em organizações não desaparece; ele se desloca. De execução para especificação. De coordenação de pessoas para arquitetura de sistemas. De gestão no sentido histórico para engenharia de incentivos para entidades não-humanas. Chamar isso de “nova gestão” pode ser eufemismo que mascara a radicalidade da transformação.
A pergunta estratégica para líderes, criadores e profissionais não é se empresas ultra-enxutas existirão. Já existem. É como se posicionar em um cenário onde a trajetória default favorece concentração.
Três posições emergem: ser proprietário de arquitetura de agentes e capturar valor no topo da cadeia; ser operador dentro de arquitetura alheia, com vulnerabilidade correspondente; ou atuar na construção das condições estruturais, regulatórias, infraestruturais, jurídicas, que tornariam democratização viável.
A terceira posição é frequentemente ignorada no discurso tecnológico, que trata estrutura de mercado como dada e foca em adaptação individual. Mas se a evidência aponta para concentração como default, adaptação individual sem mudança estrutural significa otimizar posição em jogo cujas regras favorecem poucos. A alternativa é disputar as regras.
Roemmele fala de uma “equação do amor” que deveria orientar o uso da iA em direção à abundância. É formulação quase mística em meio ao pragmatismo frio do mercado. Mas talvez o ponto seja menos sobre amor e mais sobre escolha coletiva: que tipo de economia queremos quando a inteligência operacional se torna abundante e configurável?
A empresa zero-humano não é destino. É possibilidade. E possibilidades, diferente de destinos, podem ser moldadas por decisões de quem as analisa.
ousadia criativa. precisão estratégica. – por kim.