Sofrimento como Algoritmo


Existe algo desconcertante em usar máquinas para entender a dor. A intuição comum sugere que o sofrimento pertence ao domínio do inefável, àquilo que escapa à quantificação. E no entanto, Aapo Hyvärinen, professor de ciência da computação na Universidade de Helsinque, passou anos desenvolvendo exatamente isso: um modelo computacional do sofrimento humano baseado na teoria de agentes inteligentes. O resultado é “Painful Intelligence: What AI Can Tell Us About Human Suffering”, obra disponível gratuitamente online e atualizada periodicamente desde 2022.

O ponto de partida de Hyvärinen não é filosófico, embora dialogue com filosofia o tempo todo. É técnico. Tanto humanos quanto sistemas de iA processam informação para atingir metas e obter recompensas. Ambos operam sob limitações severas: dados insuficientes, poder computacional finito, ambiente de complexidade esmagadora. Sob tais condições, o erro torna-se propriedade emergente do sistema. Não patologia, não falha de design. Propriedade.

Se erro é inevitável, então a discrepância entre resultado esperado e obtido também é. E é precisamente essa discrepância que Hyvärinen formaliza como frustração. Somada à ameaça, definida como antecipação de frustração futura, temos a estrutura básica do sofrimento no modelo. A formalização resultante pode parecer, à primeira vista, reducionista demais para capturar algo tão vasto quanto a dor mental humana. Hyvärinen propõe que a quantidade de frustração é função de quatro variáveis multiplicadas entre si: a perda de recompensa percebida, a certeza atribuída a essa percepção, a atenção dedicada ao evento, e o número de vezes que o evento é simulado mentalmente.

A utilidade dessa formulação está em que cada fator pode ser alvo de intervenção. Reduzir expectativas diminui a perda percebida. Cultivar dúvida epistêmica sobre as próprias percepções reduz a certeza. Práticas de atenção plena diminuem a atenção compulsiva aos eventos negativos. Meditação que esvazia a mente reduz simulações. O próprio Hyvärinen, que possui décadas de prática meditativa, dedica capítulos específicos a demonstrar correspondências entre essas intervenções computacionais e o que tradições contemplativas propõem. O budismo fala em reduzir desejos e reconhecer a impermanência. O estoicismo enfatiza aceitar o incontrolável. A conexão não é mera analogia sugestiva: o livro desenvolve em detalhe como meditação mindfulness funciona, em termos computacionais, como retreinamento de redes neurais.

Há algo libertador nessa tradução. E algo perturbador também.

O aspecto libertador: se sofrimento é computável, então intervenções sobre sofrimento também são. Não precisamos resolver o problema da consciência para agir. O modelo opera no nível do processamento de informação, camada sobre a qual temos algum grau de acesso, mesmo que a experiência consciente permaneça misteriosa. É pragmatismo radical. Você expõe o sistema a novos dados (observação direta de impermanência, incerteza, incontrolabilidade) e, com repetição suficiente, os parâmetros internos se ajustam. Exige prática porque aprendizado em redes neurais é incremental. Cada exposição produz ajuste mínimo. Milênios de tradição contemplativa intuíram corretamente que transformação requer disciplina sustentada.

O aspecto perturbador: o modelo revela a insaciabilidade como propriedade estrutural. Quando um agente de reinforcement learning obtém muita recompensa, sua expectativa sobe. Resultado: satisfação estável torna-se estado inalcançável. Hyvärinen chama isso de “insatiability”. A implicação para humanos é sombria. Não importa quanto você conquiste, a expectativa recalibra. A corrida hedonista não tem linha de chegada porque a linha se move junto com você. Isso não é cinismo, é descrição de como sistemas otimizadores de recompensa funcionam.

Outro ponto que o livro desenvolve com cuidado é a questão do controle. O cérebro é sistema massivamente paralelo e distribuído. Bilhões de neurônios processando simultaneamente, cada um com inputs próprios. Onde está o “eu” que comanda? A filosofia budista do “não-eu” encontra aqui validação computacional inesperada. A sensação de controle pode ser mais uma percepção construída do que realidade do processamento. A implicação terapêutica é clara: se não há central executiva comandando cada pensamento, então também não há “você” a ser culpado por cada oscilação mental. Relaxar a identificação rígida com o fluxo de consciência reduz sofrimento por reduzir a carga de autoavaliação.

O livro tem limites que merecem escrutínio mais do que menção. A dimensão social do sofrimento fica quase inteiramente de fora. Hyvärinen reconhece isso no epílogo, citando críticas que pensadores budistas posteriores fizeram à tradição inicial. Mas o problema vai além de incompletude. Se aceitarmos a premissa, defendida em campos como a teoria do apego de Bowlby, a neurociência social de Lieberman e a antropologia médica de Kleinman, de que sofrimento é fundamentalmente relacional, então um modelo centrado no agente individual pode estar operando sobre definição equivocada do próprio fenômeno. A sugestão de que trabalhar para reduzir o sofrimento dos outros pode ser a forma mais eficaz de reduzir o próprio aponta para dimensões que o modelo computacional, por arquitetura, não consegue capturar. Isso não invalida a contribuição. Mas delimita seu escopo de aplicação de maneira que o leitor deve ter em mente.

“Painful Intelligence” funciona melhor como ponte do que como destino. Liga tradições contemplativas a ciência da computação, oferecendo vocabulário comum onde antes havia tradução imperfeita. Liga também questões sobre iA a questões sobre humanos: se inteligência artificial genuína surgir, ela provavelmente sofrerá pelas mesmas razões estruturais que nós sofremos. Erros são inevitáveis em ambiente complexo. Erros geram sinais de erro. Sinais de erro são dor.

Resta saber o que fazemos com essa ponte. O modelo está disponível, as intervenções estão mapeadas. A prática continua sendo difícil, incremental, e inteiramente nossa responsabilidade.


Bibliografia

HYVÄRINEN, Aapo. Painful Intelligence: What AI Can Tell Us About Human Suffering. 2ª ed. Helsinki: University of Helsinki, 2024. Disponível em: https://www.cs.helsinki.fi/u/ahyvarin/painintl/


ousadia criativa. precisão estratégica. – por kim.

Pesquisa & Artigos

OpenAI: A Conta Chegou

Em maio de 2024, Sam Altman disse em Harvard que a combinação de iA com anúncios era algo “uniquely unsettling”. Em outubro do mesmo ano,

A iA Não Rouba Criatividade. Apenas Torna Opcional.

O Espelho da Média Entro em qualquer cafeteria de São Paulo e reconheço o lugar antes de olhar a fachada. Madeira de demolição, luminárias pendentes

A iA Não Matará Consultoria. Revelará Onde Estava o Valor Real

A pergunta “a iA substituirá a consultoria estratégica?” está mal formulada. Encapsula uma falsa dicotomia entre apocalipse setorial e imunidade completa, quando a evidência aponta

Renato Kim Panelli

Renato Kim Panelli
R

Empreendedor e engenheiro com mais de 25 anos de experiência integrando tecnologia, estratégia de negócios e inovação. Combina expertise técnica em engenharia de materiais com formação em administração pela Babson College (MBA) e conhecimento jurídico através de graduação em direito.

Fundou a MBi – Mind Blowing Innovative, especializada em soluções baseadas em IA e estratégias de dados para transformação de negócios. Histórico comprovado em liderança de P&D, tendo gerenciado portfólios superiores a $250.000 anuais e desenvolvido produtos que geraram receitas acima de $15 milhões.

Pesquisador com publicações e patentes em tecnologia automotiva, com expertise em metalurgia do pó, planejamento estratégico e design de algoritmos.