Análise do GEPA do Berkeley: a IA aprende novas tarefas sem atualizar pesos, com 35 vezes menos custo de treinamento do que o RL

ChainNewsAbmedia

A equipe de pesquisa da Universidade da Califórnia em Berkeley apresentou um novo método de treinamento de IA, a GEPA, que já foi aceita na ICLR 2026 como artigo Oral. A GEPA não atualiza os pesos do modelo, não exige treinamento em GPU e, em vez disso, usa um único LLM que “lê um histórico de treinamento” para reescrever repetidamente os prompts de um sistema de IA. Com isso, ela vence em média métodos de reforço learning (GRPO) em 6% nas 6 tarefas, chegando ao melhor desempenho de 20%, com 35 vezes menos tentativas de treinamento (rollouts) necessárias. Depois que a pesquisa foi organizada por uma comunidade de engenharia de IA e se espalhou, gerou discussões na plataforma X; agora ela já foi integrada ao DSPy como um otimizador de primeira classe.

O que a GEPA faz: transformar o histórico de treinamento em material didático, sem olhar apenas para a pontuação

O fluxo de trabalho dos métodos tradicionais de reforço learning (como o GRPO) é: fazer a IA executar uma tarefa, atribuir uma pontuação “+1 ou -1” com base no resultado e, em seguida, ajustar os pesos do modelo repetidamente usando essa pontuação. O problema é que, durante a execução da tarefa, o processo de IA normalmente inclui etapas de raciocínio com milhares de tokens, chamadas de ferramentas e mensagens de erro — esses detalhes ricos acabam sendo comprimidos em uma única pontuação, e a informação do processo é descartada. Por isso, o RL precisa rodar dezenas de milhares de vezes até convergir.

A abordagem da GEPA é o oposto: após cada execução da tarefa, ela entrega todo o processo (reasoning, chamadas de ferramentas e registros de erros) para outro “LLM de reflexão” ler. O LLM de reflexão funciona como um engenheiro sênior lendo um log de código: ele identifica em que etapa ocorreu o erro, por que ocorreu e como o prompt deve ser modificado; depois disso, ele reescreve diretamente o prompt do módulo correspondente. Rodando a tarefa da mesma forma, a quantidade de sinal extraída pela GEPA é muito maior do que a de uma única pontuação do RL.

Por que ela consegue vencer: trocar “dar nota” por “ler o processo inteiro”

A GEPA vence o GRPO em 6 tarefas, com média de 6% e pico de 20%; e, em comparação, outro otimizador de prompts comum, o MIPROv2, também fica para trás em mais de 10% (aumentando 12% na base matemática AIME-2025). O ponto mais crítico está no custo de treinamento: a GEPA precisa de 35 vezes menos rollouts (uma execução completa da tarefa) para atingir o mesmo desempenho.

Um outro dado: após a integração com o DSPy, o “Full Program Adapter” da GEPA consegue otimizar todo o programa do DSPy (incluindo signature, módulos e fluxo de controle). Na base de matemática MATH, alcança 93% de acurácia, superando de forma significativa a escrita original do ChainOfThought do DSPy, que era de 67%. A GEPA também se destaca especialmente em fluxos de multi-module (agentes de IA encadeados por múltiplos módulos) — permitindo localizar com precisão qual módulo específico está falhando e reescrever apenas o prompt dele, em vez de ajustar o sistema inteiro.

Quem deve usar primeiro: DSPy como cidadão de primeira classe, e o código já está aberto no GitHub

O código da GEPA foi aberto no GitHub e é integrado ao framework do DSPy na forma de dspy.GEPA; além disso, também é disponibilizada separadamente como uma library Python. A equipe de pesquisa é composta por membros de UC Berkeley, Stanford, Notre Dame, Anthropic e outras instituições. Entre os autores do artigo estão Matei Zaharia (cofundador da Databricks e principal autor do DSPy) e Omar Khattab (principal autor do DSPy).

Para a comunidade de desenvolvedores, a GEPA oferece uma nova solução para um problema recorrente: “temos muitos rollouts, mas não sabemos como aproveitá-los”. Muitas equipes já acumularam dezenas de milhares de registros de execuções de agentes, mas, além de consultar algumas amostras para corrigir bugs quando dá erro, não existe um método sistemático para converter esses registros em melhorias do modelo. O próximo ponto de observação é ver como a GEPA se comporta em casos reais de fluxos de agentes em ambiente corporativo (como automação de atendimento ao cliente e reparo automático de código) e se surgirão implementações correspondentes de GEPA fora do framework DSPy.

Este artigo de Berkeley destrincha a GEPA: sem atualizar pesos, a IA aprende novas tarefas com 35 vezes menos custo de treinamento, vencendo o RL — a matéria original mais cedo sobre isso surgiu no ABMedia, via cadeias de notícias.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

OpenAI Lança Codex Pets, Companheiro Virtual com IA e Geração Personalizada

De acordo com Beating, a OpenAI adicionou um novo recurso “Codex Pets” ao aplicativo de desktop do Codex, permitindo que os usuários criem e interajam com um companheiro virtual animado. Os usuários podem ativar um pet digitando /pet no editor. O recurso funciona como um indicador de status de agente, exibindo um

GateNews5h atrás

MoonPay Lança Cartão MoonAgents para Agentes de IA na Rede Mastercard

De acordo com a The Block, a MoonPay lançou a MoonAgents Card na sexta-feira, um cartão de débito virtual Mastercard que converte stablecoins em moeda fiduciária em tempo real no momento do pagamento. O cartão é emitido por meio da Monavate, uma plataforma de pagamentos regulamentada e principal membro da Mastercard, em parceria com a Exodus M

GateNews9h atrás

xAI Lança API de Clonagem de Voz com suporte a 80+ vozes em 28 idiomas

De acordo com a PANews, a xAI lançou sua Voice Cloning API em 2 de maio, permitindo que os usuários criem vozes personalizadas em aproximadamente 2 minutos ou escolham entre mais de 80 vozes predefinidas abrangendo 28 idiomas para aplicações incluindo assistentes de voz, audiobooks e personagens de jogos. O recurso está atualmente

GateNews9h atrás

MoonPay lança o MoonAgents Card, cartão Mastercard virtual para agentes de IA e usuários, nesta sexta-feira

De acordo com a The Block, a MoonPay lançou a MoonAgents Card, um cartão de débito virtual Mastercard para agentes de IA e usuários, na sexta-feira. O cartão converte stablecoins em moeda fiduciária no momento do pagamento e pode ser usado em qualquer comerciante online global que aceite Mastercard. Emitido por meio da Monavate, uma instituição de pagamento regulamentada

GateNews18h atrás

MoonPay lança o cartão MoonAgents na rede Mastercard na sexta-feira

De acordo com The Block, a MoonPay lançou a MoonAgents Card na sexta-feira — um cartão de débito Mastercard virtual que permite que agentes de IA e usuários gastem stablecoins diretamente a partir de carteiras onchain. O cartão é emitido pela Monavate, uma plataforma global de pagamentos regulamentada e membro principal da Mastercard, em

GateNews21h atrás

Nubank Planeja Investir US$ 8,2 bilhões no Brasil em 2026, Dobrando os Gastos com IA e Expandindo o Crédito

De acordo com a Crowdfundinsider, a Nubank anunciou planos de investir US$ 8,2 bilhões no mercado brasileiro em 2026, quase dobrando o investimento em comparação com dois anos antes. Os recursos serão destinados a sistemas de avaliação de crédito orientados por IA, produtos financeiros digitais, expansão de equipe, infraestrutura

GateNews22h atrás
Comentário
0/400
Sem comentários