O mercado de inteligência artificial opera com um problema semântico que tem consequências práticas. O termo “agente” circula em materiais de vendas, pitches de startups e comunicados de big techs sem definição consensual. Cada fornecedor usa a palavra para descrever produtos com arquiteturas distintas, capacidades diferentes, e níveis variados de autonomia. Para quem compra, isso cria uma situação incômoda: como avaliar se um produto entrega o que promete quando o próprio vocabulário é ambíguo?
O Google publicou em 2025 o documento “Startup Technical Guide: AI Agents”, um guia de 60 páginas destinado a startups que pretendem construir sistemas agenticos. O material não é paper acadêmico nem norma técnica universal. É um guia de capacitação que reflete a arquitetura promovida pelo ecossistema Google Cloud. Escolho este documento como referência por três razões: abrangência dos critérios técnicos apresentados, disponibilidade pública sem paywall, e foco em implementação de produção versus pesquisa acadêmica. Ainda assim, oferece uma taxonomia operacional que serve como ponto de partida para análise, não como definição final.
O documento distingue dois padrões arquiteturais. De um lado, sistemas com fluxo pré-determinado pelo desenvolvedor, onde cada chamada à LLM alimenta a próxima em sequência fixa. De outro, sistemas que implementam loops dinâmicos como o framework ReAct (Reason-Act-Observe), onde o modelo decide autonomamente qual ferramenta usar, quando solicitar informação adicional, e quando encerrar a tarefa. No primeiro caso, a inteligência está no design do fluxo. No segundo, o sistema exibe comportamento adaptativo.
Essa distinção, porém, não é binária. Entre o pipeline puro e o agente plenamente autônomo existe um espectro de arquiteturas híbridas. Sistemas que combinam sequências fixas com pontos de decisão condicional. Function calling com lógica de retry. Chain-of-thought estendido que permite ramificações. Heurísticas mistas onde o código decide quando delegar decisão ao modelo. A realidade de implementações em produção raramente se encaixa em categorias puras.
O guia do Google especifica seis componentes para agentes de produção: orquestração com lógica de decisão, ferramentas selecionáveis pelo modelo, memória de curto e longo prazo, avaliação da própria trajetória de raciocínio, grounding para verificar ancoragem factual, e uma camada operacional completa (AgentOps). Esses critérios definem um patamar técnico elevado. Mas não são a única taxonomia válida. Frameworks da OpenAI, Anthropic e Microsoft propõem categorias diferentes. A escolha de qual referência adotar depende do contexto de uso.
Há casos em que pipelines determinísticos são tecnicamente superiores a agentes autônomos. Setores regulados como financeiro e saúde frequentemente exigem comportamento previsível e auditável. Um sistema que sempre executa a mesma sequência de passos é mais fácil de certificar para compliance do que um sistema cujo comportamento varia conforme o contexto. Previsibilidade de custo é outro fator: agentes autônomos podem entrar em loops de raciocínio que consomem tokens indefinidamente. E facilidade de diagnóstico também pesa: quando algo falha em uma sequência fixa, identificar o ponto de erro é direto. Em loops dinâmicos, o debug exige rastreamento de trajetórias complexas.
A questão, portanto, não é se pipelines são fraude e agentes são verdade. Ambas as arquiteturas têm aplicações legítimas. O problema surge quando há dissonância entre a expectativa criada pelo marketing e a capacidade técnica do produto. Se um comprador espera adaptabilidade e recebe sequência fixa, vai se frustrar diante do primeiro edge case. Se espera previsibilidade e recebe não-determinismo, vai enfrentar dificuldades de auditoria.
O documento do Google oferece um framework de avaliação, não um veredicto sobre o mercado. Os seis critérios podem funcionar como checklist para due diligence técnica. Quando um fornecedor apresenta um “agente de iA”, o comprador pode perguntar: o sistema implementa loops de decisão autônoma ou segue sequência fixa? Tem memória persistente entre sessões? Avalia a própria trajetória de raciocínio? Verifica ancoragem factual das respostas? As respostas permitem calibrar expectativas com capacidades reais. Se o fornecedor responder com jargão sem demonstração prática, peça prova de conceito. Se afirmar que “implementa” sem especificar como, solicite documentação técnica. Respostas evasivas são indicador confiável de gap entre marketing e implementação.
Não é possível afirmar, sem auditoria técnica de produtos específicos, qual proporção do mercado oferece agentes genuínos versus pipelines rebatizados. Essa seria uma pesquisa empírica que exigiria acesso a código-fonte, documentação técnica detalhada, e metodologia de avaliação padronizada. O que se pode afirmar é que a ambiguidade terminológica cria assimetria de informação entre vendedor e comprador. E que frameworks como o do Google oferecem vocabulário técnico para reduzir essa assimetria.
A pergunta produtiva não é “isso é agente de verdade?”, como se houvesse essência platônica a descobrir. A pergunta é: “isso atende às necessidades específicas do meu caso de uso?” Para tarefas bem definidas com escopo limitado, um pipeline pode ser a escolha correta. Para tarefas que exigem adaptação a contextos imprevisíveis, arquiteturas com maior autonomia fazem sentido. O vocabulário técnico serve para fazer essa distinção, não para distribuir certificados de autenticidade. E esse vocabulário está em evolução: o que hoje chamamos de agente pode ter definição diferente em três anos, à medida que padrões amadureçam e práticas de mercado se consolidem. O que permanece constante é a necessidade de transparência técnica entre quem vende e quem compra.
Referência: Google for Startups. “Startup Technical Guide: AI Agents.” 2025. Disponível em: services.google.com/fh/files/misc/startup_technical_guide_ai_agents_final.pdf
Nota metodológica: Esta análise baseia-se em revisão de documentação pública. Não constitui auditoria técnica de produtos específicos nem recomendação de compra.
ousadia criativa. precisão estratégica. – por kim.