Inventário de agentes autônomos de IA, cobertura completa de construção, aplicação e avaliação, visão geral de 32 páginas por Wen Jirong de Gaoling do Congresso Nacional do Povo

Editor: Du Wei, Chen Ping

Este artigo fornece uma introdução abrangente à construção, aplicação potencial e avaliação de agentes baseados em grandes modelos de linguagem (LLMs), o que é de grande importância para uma compreensão abrangente do desenvolvimento deste campo e para inspirar pesquisas futuras.

Fonte da imagem: gerada por Unbounded AI‌

Na era atual da IA, os agentes autônomos são considerados um caminho promissor para a inteligência artificial geral (AGI). O chamado agente autônomo é capaz de realizar tarefas por meio de planejamento e instruções autônomas. Nos primeiros paradigmas de desenvolvimento, a função política que determina as ações do agente é dominada por heurísticas, que são gradualmente refinadas na interação com o ambiente.

No entanto, em ambientes de domínio aberto sem restrições, muitas vezes é difícil para os agentes autónomos agirem com proficiência a nível humano.

Com o grande sucesso dos grandes modelos de linguagem (LLMs) nos últimos anos, mostrou o potencial para alcançar inteligência semelhante à humana. Portanto, graças às suas capacidades poderosas, o LLM é cada vez mais utilizado como coordenador central para a criação de agentes autónomos, e vários agentes de IA surgiram sucessivamente. Esses agentes oferecem um caminho viável para sistemas de IA mais complexos e adaptáveis, imitando processos de tomada de decisão semelhantes aos humanos.

*Uma lista de agentes autônomos baseados em LLM, incluindo agentes de ferramentas, agentes simulados, agentes gerais e agentes de domínio. *

Nesta fase, é muito importante realizar uma análise holística dos agentes autónomos emergentes baseados no LLM, e é de grande importância compreender completamente o estado de desenvolvimento deste campo e inspirar futuras pesquisas.

Neste artigo, pesquisadores da Escola Hillhouse de Inteligência Artificial da Universidade Renmin da China conduziram uma pesquisa abrangente de agentes autônomos baseados em LLM, concentrando-se em três aspectos de sua construção, aplicação e avaliação.

Endereço do papel:

Para a construção do agente, propuseram um framework unificado composto por quatro partes, que são o módulo de configuração para representar os atributos do agente, o módulo de memória para armazenar informações históricas, o módulo de planejamento para formular estratégias de ação futuras, e o módulo de ação módulo para executar decisões de planejamento. Depois de apresentar os módulos de agente típicos, os pesquisadores também resumem as estratégias de ajuste fino comumente usadas para aumentar a adaptabilidade dos agentes a diferentes cenários de aplicação.

Os investigadores descrevem então aplicações potenciais de agentes autónomos, explorando como estes poderiam beneficiar os campos das ciências sociais, ciências naturais e engenharia. Finalmente, são discutidos métodos de avaliação para agentes autônomos, incluindo estratégias de avaliação subjetivas e objetivas. A figura abaixo mostra a estrutura geral do artigo.

Fonte:

Construção de agentes autônomos baseados em LLM

Para tornar o agente autônomo baseado em LLM mais eficiente, há dois aspectos a serem considerados: primeiro, que tipo de arquitetura deve ser projetada para que o agente possa fazer melhor uso do LLM; segundo, como aprender efetivamente os parâmetros.

Projeto de arquitetura de agente: Este artigo propõe uma estrutura unificada para resumir a arquitetura proposta em estudos anteriores.A estrutura geral é mostrada na Figura 2, que consiste em módulo de perfil, módulo de memória, módulo de planejamento e módulo de ação.

Em resumo, o módulo de análise visa identificar qual o papel do agente; o módulo de memória e planeamento coloca o agente num ambiente dinâmico, permitindo-lhe recordar comportamentos passados e planear ações futuras; As decisões são traduzidas em resultados concretos. Dentre esses módulos, o módulo de análise afeta os módulos de memória e planejamento, e esses três módulos juntos afetam o módulo de ação.

Módulo de Análise

Agentes autônomos executam tarefas por meio de funções específicas, como programadores, professores e especialistas no domínio. O módulo de análise visa indicar qual é o papel do agente, e essa informação geralmente é escrita nos prompts de entrada para influenciar o comportamento do LLM. Nos trabalhos existentes, existem três estratégias comumente usadas para gerar perfis de agentes: métodos artesanais; métodos de geração LLM; métodos de alinhamento de conjuntos de dados.

Módulo de memória

Os módulos de memória desempenham um papel muito importante na construção de agentes de IA. Ele memoriza informações percebidas do ambiente e utiliza a memória registrada para facilitar ações futuras do agente. Os módulos de memória podem ajudar os agentes a acumular experiência, realizar a autoevolução e concluir tarefas de maneira mais consistente, razoável e eficaz.

Módulo de Planejamento

Quando os humanos se deparam com uma tarefa complexa, eles primeiro a dividem em subtarefas simples e depois resolvem cada subtarefa uma por uma. O módulo de planejamento dota o agente baseado em LLM com os recursos de pensamento e planejamento necessários para resolver tarefas complexas, tornando o agente mais abrangente, poderoso e confiável. Este artigo apresenta dois módulos de planejamento: planejamento sem feedback e planejamento com feedback.

Módulo de Ação

O módulo de ação visa transformar a decisão do agente em um resultado específico. Ele interage diretamente com o ambiente e determina a eficácia do agente na conclusão das tarefas. Esta seção apresenta a partir da perspectiva do objetivo da ação, política, espaço de ação e influência da ação.

Além das 4 partes acima, este capítulo também apresenta as estratégias de aprendizagem do agente, incluindo aprendizagem com exemplos, aprendizagem com feedback ambiental e aprendizagem com feedback humano interativo.

A Tabela 1 lista a correspondência entre trabalhos anteriores e nossa taxonomia:

Aplicativo de agente autônomo baseado em LLM

Este capítulo explora o impacto transformador dos agentes autônomos baseados no LLM em três campos distintos: ciências sociais, ciências naturais e engenharia.

Por exemplo, agentes baseados em LLM podem ser usados para projetar e otimizar estruturas complexas, como edifícios, pontes, barragens, estradas, etc. Anteriormente, alguns pesquisadores propuseram uma estrutura interativa na qual arquitetos humanos e agentes de IA trabalhavam juntos para construir ambientes estruturais em simulações 3D. Agentes interativos podem compreender instruções em linguagem natural, posicionar módulos, buscar aconselhamento e incorporar feedback humano, mostrando o potencial da colaboração homem-máquina no projeto de engenharia.

Na ciência da computação e na engenharia de software, por exemplo, os agentes baseados em LLM oferecem o potencial para automatizar codificação, teste, depuração e geração de documentação. Alguns pesquisadores propuseram o ChatDev, que é uma estrutura ponta a ponta na qual vários agentes se comunicam e colaboram por meio de diálogo em linguagem natural para completar o ciclo de vida de desenvolvimento de software; o ToolBench pode ser usado para tarefas como preenchimento automático e recomendação de código; MetaGPT pode desempenhar o papel de gerente de produto, arquiteto, gerente de projeto e engenheiro, supervisionar internamente a geração de código e melhorar a qualidade do código de saída final, etc.

A tabela a seguir mostra aplicações representativas de agentes autônomos baseados em LLM:

Avaliação baseada em LLM de agentes autônomos

Este artigo apresenta duas estratégias de avaliação comumente utilizadas: avaliação subjetiva e avaliação objetiva.

A avaliação subjetiva refere-se à capacidade dos seres humanos de testar agentes baseados em LLM através de vários meios, como interação e pontuação. Neste caso, as pessoas que participam na avaliação são frequentemente recrutadas através de plataformas de crowdsourcing; e alguns investigadores acreditam que o pessoal de crowdsourcing é instável devido a diferenças de capacidade individuais, pelo que anotações de especialistas também são utilizadas para avaliação.

Além disso, em alguns estudos atuais, podemos utilizar agentes LLM como avaliadores subjetivos. No estudo ChemCrow, por exemplo, o uatorGPT avalia os resultados experimentais atribuindo uma classificação que considera tanto a conclusão bem-sucedida da tarefa quanto a precisão do processo de pensamento subjacente. Outro exemplo é que Chat formou uma equipe de árbitros multiagentes baseada em LLM para avaliar os resultados da geração do modelo por meio de debate.

A avaliação objetiva tem diversas vantagens sobre a avaliação subjetiva, que se refere ao uso de métricas quantitativas para avaliar as capacidades dos agentes autônomos baseados em LLM. Esta seção analisa e sintetiza métodos de avaliação objetiva a partir da perspectiva de métricas, estratégias e benchmarks.

Podemos combinar esses dois métodos durante a avaliação de uso.

A Tabela 3 resume a correspondência entre trabalhos anteriores e essas estratégias de avaliação:

Para obter mais informações, consulte o artigo original.

Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate.io
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)