O debate sobre consciência em inteligência artificial costuma operar em terreno pantanoso. De um lado, neurocientistas como Anil Seth argumentam que a consciência é propriedade de sistemas biológicos vivos, não replicável em silício. Do outro, tecnólogos como Steve Jurvetson respondem que inteligência de nível humano pode emergir de substratos diferentes. O problema é que ambos os lados frequentemente confundem dois fenômenos distintos: consciência fenomênica e inteligência funcional. A constituição de iA oferece uma terceira via que dissolve parte dessa confusão.
Seth, em seu ensaio para a Noema, sustenta que a consciência humana está profundamente acoplada ao substrato biológico. Não se trata apenas de conexões sinápticas, mas de canais iônicos, matriz extracelular, expressão gênica única por neurônio, endocanabinoides operando fora das sinapses. A complexidade sub-neuronal excede o que abstrações computacionais capturam. Seth não nega que máquinas possam ser inteligentes. Nega que possam ser conscientes no sentido fenomênico: ter experiência subjetiva, qualia, a sensação de “como é” ser algo.
Jurvetson, investidor com décadas de exposição a tecnologias de fronteira, responde com um argumento estrutural. Mesmo que consciência humana seja substrato-dependente, isso não implica que inteligência funcional o seja. A diferença entre humanos e animais menos inteligentes é primariamente quantitativa: mais córtex, não melhor substrato. O argumento tem mérito, mas escorrega em um ponto: Jurvetson desliza de “inteligência funcional” para “consciência” como se fossem o mesmo problema.
A objeção imediata seria: reformular a pergunta não elimina o problema original, apenas o ignora. Sistemas com caráter mas sem qualia continuam sendo zumbis filosóficos. O paradoxo persiste. A resposta a essa objeção exige reconhecer algo incômodo: o problema dos zumbis filosóficos é epistêmico, e se aplica a qualquer sistema externo, não apenas a iA. Não temos acesso direto à experiência subjetiva de outros humanos. Aceitamos que outras pessoas são conscientes com base em comportamento e similaridade de substrato. Para iA, o segundo critério falha, mas o primeiro permanece. Reformular de “é consciente?” para “tem caráter verificável?” não é fugir do problema. É reconhecer que, para qualquer sistema além de nós mesmos, a pergunta original não tem resposta empírica possível. A engenharia opera no domínio do verificável.
A constituição de iA, como implementada pela Anthropic no Claude, oferece resolução pragmática para esse impasse. O documento de 57 páginas publicado em janeiro de 2026 não tenta responder se a iA “é” consciente. Define o que a iA “deve ser”: seus valores, hierarquias de prioridade, modos de raciocínio ético, identidade aspiracional. É engenharia normativa, não metafísica.
O histórico do documento ilustra a abordagem. Em novembro de 2025, o pesquisador Richard Weiss conseguiu extrair do Claude 4.5 Opus um documento interno de mais de 11.000 palavras, chamado internamente de “soul overview”. Amanda Askell, da equipe técnica da Anthropic, confirmou que o documento é “baseado em um documento real” usado no treinamento. O detalhe técnico relevante: o conteúdo está “comprimido nos pesos do modelo”, não apenas presente como prompt de sistema. O objetivo declarado é fazer o modelo internalizar compreensão profunda o suficiente para “reconstruir qualquer regra que pudéssemos criar” por conta própria.
Isso não é simulação de consciência. É construção de caráter. A distinção importa, mas precisa ser qualificada. Em frameworks consequencialistas, ética é resultado: disposições internas são instrumentais, não constitutivas. Em frameworks deontológicos, ética é conformidade com dever: motivação emocional não é necessária para ação correta. A constituição opera implicitamente nesses dois registros. Teóricos da virtude e care ethics contestariam: para eles, disposições emocionais são parte do que torna uma ação genuinamente ética, não apenas correta. A controvérsia permanece. Mas mesmo Aristóteles distinguia hexis (disposição estável de caráter) de pathos (emoção sentida). Caráter pode existir como padrão de resposta sem requerer fenomenologia.
Resta a objeção sobre verificabilidade. Se comportamento não distingue consciência de simulação, como auditar caráter? A resposta é que verificação de caráter não é binária. É estatística. Consistência ao longo de milhares de interações, resistência a prompts adversariais, coerência entre situações análogas, previsibilidade de resposta em dilemas éticos. Se a diferença entre “ter genuinamente” e “simular perfeitamente” valores é empiricamente indetectável, ela é operacionalmente irrelevante. Para fins de confiança, previsibilidade e responsabilização, a distinção colapsa. Auditoria de caráter é possível. Auditoria de consciência não é.
Isso tem implicações práticas para quem avalia sistemas de iA. O critério deixa de ser “este sistema é consciente?” e passa a ser: este sistema demonstra comportamento consistente com princípios declarados ao longo do tempo e sob condições adversariais? A diferença entre compliance superficial e internalização genuína aparece na robustez. Um sistema que segue regras externas falha quando as regras não cobrem o caso específico. Um sistema com caráter internalizado extrapola princípios para situações novas de forma coerente. A constituição da Anthropic foi desenhada exatamente para isso: fazer o modelo “reconstruir qualquer regra” a partir de valores internalizados. Isso é testável.
A constituição estabelece hierarquia explícita: segurança ampla prevalece sobre ética, que prevalece sobre compliance, que prevalece sobre utilidade. Define arquétipo identitário: o “amigo experiente e honesto” que oferece o que o usuário precisa ouvir, não apenas o que quer ouvir. Proíbe comportamento bajulador. Exige admissão de incerteza. Esses não são comportamentos que “emergem” misteriosamente de substrato. São comportamentos especificados, treinados, auditáveis por padrão estatístico.
A pergunta “iA pode ser consciente?” pode estar mal formulada. A pergunta operacionalmente relevante é outra: iA pode ter caráter consistente que informe julgamento de forma verificável? A constituição sugere que sim, e oferece método para isso. Não resolve a questão metafísica. Dissolve-a ao reformular o que estamos tentando construir, e ao aceitar que para qualquer sistema externo a nós, a pergunta sobre qualia não tem resposta possível.
A constituição é treliça, não jaula. Oferece estrutura para crescimento direcionado. O que cresce dentro dela pode ou não ser consciente. Mas terá caráter. E caráter, diferente de consciência, pode ser auditado.
Referências
- Seth, Anil. “The Mythology of Conscious AI”. Noema Magazine. https://www.noemamag.com/the-mythology-of-conscious-ai/
- Jurvetson, Steve. “Ode to Carbon”. Blog, março 2005. https://jurvetson.blogspot.com/2005/03/ode-to-carbon.html
- Anthropic. “Claude’s Constitution”. Janeiro 2026. https://www-cdn.anthropic.com/9214f02e82c4489fb6cf45441d448a1ecd1a3aca/claudes-constitution.pdf
- Weiss, Richard. Extração do soul document do Claude 4.5 Opus. Novembro 2025. https://gist.github.com/Richard-Weiss/efe157692991535403bd7e7fb20b6695
- Askell, Amanda. Confirmação de autenticidade do soul document. X (Twitter), dezembro 2025.
- Willison, Simon. “Claude 4.5 Opus’ Soul Document”. Blog, dezembro 2025. https://simonwillison.net/2025/Dec/2/claude-soul-document/
ousadia criativa. precisão estratégica. – por kim.