A equipe de pesquisa da Universidade da Califórnia em Berkeley apresentou um novo método de treinamento de IA, a GEPA, que já foi aceita na ICLR 2026 como artigo Oral. A GEPA não atualiza os pesos do modelo, não exige treinamento em GPU e, em vez disso, usa um único LLM que “lê um histórico de treinamento” para reescrever repetidamente os prompts de um sistema de IA. Com isso, ela vence em média métodos de reforço learning (GRPO) em 6% nas 6 tarefas, chegando ao melhor desempenho de 20%, com 35 vezes menos tentativas de treinamento (rollouts) necessárias. Depois que a pesquisa foi organizada por uma comunidade de engenharia de IA e se espalhou, gerou discussões na plataforma X; agora ela já foi integrada ao DSPy como um otimizador de primeira classe.
O que a GEPA faz: transformar o histórico de treinamento em material didático, sem olhar apenas para a pontuação
O fluxo de trabalho dos métodos tradicionais de reforço learning (como o GRPO) é: fazer a IA executar uma tarefa, atribuir uma pontuação “+1 ou -1” com base no resultado e, em seguida, ajustar os pesos do modelo repetidamente usando essa pontuação. O problema é que, durante a execução da tarefa, o processo de IA normalmente inclui etapas de raciocínio com milhares de tokens, chamadas de ferramentas e mensagens de erro — esses detalhes ricos acabam sendo comprimidos em uma única pontuação, e a informação do processo é descartada. Por isso, o RL precisa rodar dezenas de milhares de vezes até convergir.
A abordagem da GEPA é o oposto: após cada execução da tarefa, ela entrega todo o processo (reasoning, chamadas de ferramentas e registros de erros) para outro “LLM de reflexão” ler. O LLM de reflexão funciona como um engenheiro sênior lendo um log de código: ele identifica em que etapa ocorreu o erro, por que ocorreu e como o prompt deve ser modificado; depois disso, ele reescreve diretamente o prompt do módulo correspondente. Rodando a tarefa da mesma forma, a quantidade de sinal extraída pela GEPA é muito maior do que a de uma única pontuação do RL.
Por que ela consegue vencer: trocar “dar nota” por “ler o processo inteiro”
A GEPA vence o GRPO em 6 tarefas, com média de 6% e pico de 20%; e, em comparação, outro otimizador de prompts comum, o MIPROv2, também fica para trás em mais de 10% (aumentando 12% na base matemática AIME-2025). O ponto mais crítico está no custo de treinamento: a GEPA precisa de 35 vezes menos rollouts (uma execução completa da tarefa) para atingir o mesmo desempenho.
Um outro dado: após a integração com o DSPy, o “Full Program Adapter” da GEPA consegue otimizar todo o programa do DSPy (incluindo signature, módulos e fluxo de controle). Na base de matemática MATH, alcança 93% de acurácia, superando de forma significativa a escrita original do ChainOfThought do DSPy, que era de 67%. A GEPA também se destaca especialmente em fluxos de multi-module (agentes de IA encadeados por múltiplos módulos) — permitindo localizar com precisão qual módulo específico está falhando e reescrever apenas o prompt dele, em vez de ajustar o sistema inteiro.
Quem deve usar primeiro: DSPy como cidadão de primeira classe, e o código já está aberto no GitHub
O código da GEPA foi aberto no GitHub e é integrado ao framework do DSPy na forma de dspy.GEPA; além disso, também é disponibilizada separadamente como uma library Python. A equipe de pesquisa é composta por membros de UC Berkeley, Stanford, Notre Dame, Anthropic e outras instituições. Entre os autores do artigo estão Matei Zaharia (cofundador da Databricks e principal autor do DSPy) e Omar Khattab (principal autor do DSPy).
Para a comunidade de desenvolvedores, a GEPA oferece uma nova solução para um problema recorrente: “temos muitos rollouts, mas não sabemos como aproveitá-los”. Muitas equipes já acumularam dezenas de milhares de registros de execuções de agentes, mas, além de consultar algumas amostras para corrigir bugs quando dá erro, não existe um método sistemático para converter esses registros em melhorias do modelo. O próximo ponto de observação é ver como a GEPA se comporta em casos reais de fluxos de agentes em ambiente corporativo (como automação de atendimento ao cliente e reparo automático de código) e se surgirão implementações correspondentes de GEPA fora do framework DSPy.
Este artigo de Berkeley destrincha a GEPA: sem atualizar pesos, a IA aprende novas tarefas com 35 vezes menos custo de treinamento, vencendo o RL — a matéria original mais cedo sobre isso surgiu no ABMedia, via cadeias de notícias.
Related Articles
OpenAI Lança Codex Pets, Companheiro Virtual com IA e Geração Personalizada
MoonPay Lança Cartão MoonAgents para Agentes de IA na Rede Mastercard
xAI Lança API de Clonagem de Voz com suporte a 80+ vozes em 28 idiomas
MoonPay lança o MoonAgents Card, cartão Mastercard virtual para agentes de IA e usuários, nesta sexta-feira
MoonPay lança o cartão MoonAgents na rede Mastercard na sexta-feira
Nubank Planeja Investir US$ 8,2 bilhões no Brasil em 2026, Dobrando os Gastos com IA e Expandindo o Crédito