A disputa Anthropic-Pentágono
Na última semana de fevereiro de 2026, o governo dos Estados Unidos fez algo inédito: classificou a Anthropic como “supply chain risk to national security”. O rótulo, criado para adversários estrangeiros como a Huawei, foi aplicado pela primeira vez a uma empresa americana. O motivo não envolve espionagem, vazamento de dados ou falha técnica. A Anthropic se recusou a remover duas cláusulas de seu contrato com o Pentágono: a proibição de vigilância massiva doméstica e a proibição de armas totalmente autônomas. Duas restrições que, segundo o próprio Departamento de Defesa, já existem na legislação e na política militar vigentes.
Essa contradição é o ponto de partida para entender o que a crise realmente significa.
O argumento do Pentágono possui uma lógica aparentemente sólida. Vigilância massiva de cidadãos americanos viola a Quarta Emenda. Armas autônomas sem supervisão humana contrariam a Diretiva 3000.09 do DoD. Se a Anthropic quer proibir contratualmente o que a lei já proíbe, suas cláusulas são redundantes. E cláusulas redundantes, no entendimento do governo, representam uma coisa: veto corporativo sobre operações militares. O secretário de Defesa Pete Hegseth resumiu a posição com uma analogia direta. Quando o governo compra aviões da Boeing, a Boeing não opina sobre como eles serão usados.
A Anthropic respondeu com uma objeção que também carrega peso. “Legal” é um conceito elástico quando o contexto é segurança nacional. Interpretações classificadas, poderes de emergência e doutrina de campo de batalha podem expandir o escopo do que se considera “uso lícito” para muito além do que a legislação civil contempla. Dario Amodei, CEO da empresa, argumentou que uma iA analisando bilhões de conversações poderia detectar focos de deslealdade e eliminá-los antes que se formem. A tecnologia existe. A tentação existe. A lei, segundo ele, ainda não alcançou a capacidade do instrumento. A empresa ofereceu cooperação em praticamente tudo: inteligência, planejamento operacional, ciberoperações, defesa antimíssil. Manteve apenas duas linhas. O Centro de Estudos Estratégicos e Internacionais (CSIS) confirmou que essas restrições nunca foram acionadas em uso operacional real.
Mas se as linhas nunca foram acionadas, por que o governo não as aceitou?
A resposta veio horas depois do banimento da Anthropic. A OpenAI anunciou seu próprio acordo com o Pentágono, declarando que incluía “as mesmas” duas proibições. A diferença está no mecanismo. A OpenAI concordou com o padrão “all lawful purposes” e embutiu as restrições como salvaguardas técnicas, não como cláusulas contratuais. O governo aceitou a substância. Rejeitou a forma. Essa distinção é a prova empírica mais limpa de que o conflito não gira em torno de política operacional. Gira em torno de quem assina embaixo.
Antes de transformar a Anthropic em mártir, porém, vale examinar o que enfraquece sua posição. No mesmo período em que defendia linhas vermelhas éticas, a empresa publicou a terceira versão de sua Responsible Scaling Policy (RSP v3), removendo o compromisso de interromper o desenvolvimento de modelos caso as medidas de segurança se provassem inadequadas. A revista TIME reportou a mudança sob o título “Anthropic Drops Flagship Safety Pledge”. O timing foi corrosivo. E há outra assimetria que analistas do Opinio Juris identificaram: as red lines da Anthropic proíbem vigilância massiva de cidadãos americanos. Não de estrangeiros. A ética, nesse desenho, tem jurisdição. A empresa que invoca princípios universais aplica proteções nacionais. Isso não invalida a posição, mas reduz a altitude moral do argumento.
O que produziu essa crise não foi a intransigência de uma empresa ou a truculência de um governo. Foi a ausência de legislação. O Congresso americano não criou um marco regulatório para o uso de iA em defesa. Na ausência de regras, cada ator preencheu o vácuo com os instrumentos que tinha. A Anthropic usou termos de serviço. O Pentágono usou procurement authority e ameaças de Defense Production Act. Nenhum dos dois instrumentos foi desenhado para arbitrar esse tipo de conflito. Um contrato de termos de uso não substitui legislação. Uma designação de supply chain risk não substitui debate democrático.
A reação mais reveladora talvez não tenha vindo de nenhum dos dois lados da mesa. Mais de 450 funcionários de Google e OpenAI assinaram uma carta aberta intitulada “We Will Not Be Divided”, pedindo que as empresas resistissem coletivamente às demandas do Pentágono. A carta alertava: “Estão tentando dividir cada empresa com o medo de que a outra ceda. Essa estratégia só funciona se ninguém souber onde os outros estão.” Funcionários de empresas concorrentes, com interesses comerciais divergentes, coordenando uma posição comum sobre ética militar. É um fenômeno sem precedente na indústria de tecnologia americana. Pode ser um momento passageiro. Pode ser o embrião de algo que ainda não tem nome.
O contrato perdido vale 200 milhões de dólares. A Anthropic é avaliada em 380 bilhões. Claude alcançou a primeira posição na App Store no dia seguinte ao banimento. A empresa provavelmente sobrevive. A pergunta que permanece não é sobre a Anthropic. É sobre o que acontece na próxima vez que um governo democrático exigir acesso irrestrito a uma tecnologia que seus próprios cidadãos ainda não decidiram como regular. E sobre quem, nessa hora, terá autoridade para dizer não.
ousadia criativa. precisão estratégica. – por kim.