Simple Science

Ciência de ponta explicada de forma simples

# Finanças Quantitativas# Finanças computacionais

Aproveitando o Poder da Mistura de Agentes nas Finanças

Saiba como o MoA melhora a qualidade da informação e a eficiência na análise financeira.

Sandy Chen, Leqi Zeng, Abhinav Raghunathan, Flora Huang, Terrence C. Kim

― 5 min ler


MoA: Uma Nova AbordagemMoA: Uma Nova Abordagemem Finançasmodelos especializados.MoA melhora a análise financeira com
Índice

Modelos de Linguagem Grandes (LLMs) estão se tornando importantes em muitas áreas, especialmente em finanças. No entanto, trabalhar com esses modelos pode ser complicado por causa das várias maneiras diferentes que podem ser usados. Um método chamado Geração Aumentada por Recuperação (RAG) está ganhando atenção porque combina várias fontes de dados, tornando-se mais confiável. Este artigo apresenta um sistema chamado Mistura de Agentes (MoA), que melhora o RAG usando vários Modelos de Linguagem Pequenos que trabalham juntos para responder perguntas e coletar informações.

O que é MoA?

MoA é uma maneira de criar uma equipe de modelos de linguagem pequenos que têm suas próprias habilidades especiais. Esses modelos se comunicam entre si para gerar melhores respostas. Diferente de modelos maiores e únicos, o MoA aproveita modelos menores que podem ser personalizados para tarefas específicas. Com essa configuração, o MoA consegue fornecer resultados de alta qualidade mantendo os custos baixos.

Por que usar múltiplos modelos?

Pesquisas mostram que usar múltiplos modelos juntos, também conhecidos como modelos em conjunto, pode levar a resultados melhores do que usar apenas um modelo. Isso acontece porque:

  1. Quando modelos diferentes trabalham juntos, suas conclusões podem se confirmar, tornando os resultados mais confiáveis.
  2. Esses modelos conseguem lidar melhor com novas informações que não estavam incluídas no treinamento deles.

Modelos LLM tradicionais muitas vezes enfrentavam problemas como cometer erros ou ter “alucinações”. Recentemente, pesquisadores começaram a focar em usar vários modelos menores, já que eles podem produzir resultados de melhor qualidade e são menos propensos a erros.

O papel dos Agentes no MoA

No framework MoA, cada pequeno modelo de linguagem age como um agente, parecido com um pesquisador júnior em finanças. Ao personalizar o que cada agente sabe, conseguimos torná-los muito espertos em suas áreas específicas. Isso permite que eles trabalhem de forma mais eficiente do que um grande modelo fazendo tudo.

Agentes Especializados

Cada agente no MoA é adaptado para tarefas específicas. Por exemplo, um agente pode estar focado em analisar demonstrações financeiras, enquanto outro pode avaliar o sentimento do mercado. Essa divisão de trabalho permite que cada agente forneça respostas mais precisas porque eles podem se concentrar no que fazem de melhor.

Montando uma equipe de Agentes

Uma vez que os agentes estão prontos, eles podem ser organizados para funcionar como uma equipe de pesquisa. Essa configuração permite que os agentes enfrentem questões complexas trabalhando juntos. Por exemplo, um agente pode examinar um documento financeiro enquanto outro analisa um documento diferente, coletando informações que podem ser combinadas em uma resposta completa. Essa abordagem colaborativa melhora a qualidade geral das respostas.

Flexibilidade e Personalização

Uma das forças do MoA é sua flexibilidade. Os agentes podem ser ajustados ou até substituídos conforme necessário, permitindo que as equipes se adaptem a diferentes tarefas ou limitações de orçamento. Como cada agente atua como um especialista em tempo real, as respostas continuam de alta qualidade. No entanto, é importante notar que o sucesso do MoA também depende de boas práticas de gerenciamento e engenharia de dados.

Melhorando a Qualidade da Informação

Um dos principais desafios ao usar sistemas RAG é a quantidade limitada de informação que eles conseguem lidar de uma vez. Com o MoA, essa limitação é minimizada. Em vez de um único modelo gerenciando todas as informações, o MoA divide as tarefas entre diferentes agentes, aumentando a precisão e reduzindo a confusão. Essa abordagem não só facilita encontrar respostas, mas também melhora a qualidade geral da informação que os pesquisadores recebem.

Comparando MoA com Sistemas de Modelo Único

Testes mostram que o MoA fornece respostas melhores do que sistemas tradicionais de modelo único. Por exemplo, quando tanto um sistema básico de MoA quanto grandes modelos conhecidos foram questionados sobre os ganhos de uma empresa, o sistema MoA se saiu melhor em capturar informações vitais. As respostas dos agentes poderiam ser compartilhadas com os usuários, permitindo uma compreensão mais clara dos resultados.

Custo e Eficiência

O MoA oferece uma alternativa econômica aos sistemas de modelo único. Como ele pode usar modelos pequenos repetidamente em vez de depender de um modelo maior, as empresas conseguem economizar dinheiro enquanto ainda obtêm resultados de alta qualidade. No entanto, o MoA exige mais poder de processamento, pois usa múltiplos modelos ao mesmo tempo. Apesar disso, continua competitivo em termos de custo, especialmente quando comparado a fornecedores tradicionais de RAG.

Desempenho e Velocidade

A velocidade do MoA é impressionante. Ele consegue analisar grandes quantidades de dados e fornecer respostas rapidamente, mesmo com a complexidade adicional de usar múltiplos agentes. Por exemplo, o MoA pode processar mais de 30.000 documentos em menos de um minuto. Embora possa demorar mais do que um sistema de modelo único, ainda oferece insights valiosos rapidamente.

Conclusão

Em conclusão, o sistema Mistura de Agentes (MoA) é uma abordagem promissora para empresas que desejam melhorar seus processos RAG. Usando modelos de linguagem menores e especializados, o MoA oferece melhor qualidade da informação, velocidade e flexibilidade, mantendo os custos baixos. À medida que mais empresas adotam esse método, ele tende a se tornar uma prática padrão em indústrias que dependem de coleta e análise avançadas de informações. No geral, o MoA demonstra que modelos menores e personalizados podem ser tão eficazes, se não melhores, do que sistemas maiores para tarefas em diversas áreas, particularmente em finanças.

Fonte original

Título: MoA is All You Need: Building LLM Research Team using Mixture of Agents

Resumo: Large Language Models (LLMs) research in the financial domain is particularly complex due to the sheer number of approaches proposed in literature. Retrieval-Augmented Generation (RAG) has emerged as one of the leading methods in the sector due to its inherent groundedness and data source variability. In this work, we introduce a RAG framework called Mixture of Agents (MoA) and demonstrate its viability as a practical, customizable, and highly effective approach for scaling RAG applications. MoA is essentially a layered network of individually customized small language models (Hoffmann et al., 2022) collaborating to answer questions and extract information. While there are many theoretical propositions for such an architecture and even a few libraries for generally applying the structure in practice, there are limited documented studies evaluating the potential of this framework considering real business constraints such as cost and speed. We find that the MoA framework, consisting of small language models (Hoffmann et al., 2022), produces higher quality and more grounded responses across various financial domains that are core to Vanguard's business while simultaneously maintaining low costs.

Autores: Sandy Chen, Leqi Zeng, Abhinav Raghunathan, Flora Huang, Terrence C. Kim

Última atualização: 2024-09-13 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2409.07487

Fonte PDF: https://arxiv.org/pdf/2409.07487

Licença: https://creativecommons.org/licenses/by-sa/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Artigos semelhantes