O BELHD melhora a precisão de ligação ao lidar com homônimos em textos biomédicos.
― 7 min ler
Ciência de ponta explicada de forma simples
O BELHD melhora a precisão de ligação ao lidar com homônimos em textos biomédicos.
― 7 min ler
Uma nova abordagem pra melhorar os agentes de diálogo usando técnicas de auto-conversa.
― 10 min ler
O TRIPS melhora a eficiência em tarefas de visão-linguagem selecionando partes de imagem relevantes.
― 8 min ler
Analisando como modelos de linguagem pré-treinados melhoram a qualidade do texto-para-fala.
― 6 min ler
Este estudo analisa questões em modelos que respondem a perguntas visuais.
― 6 min ler
Este artigo apresenta um método para melhorar a interação dos modelos de linguagem com ferramentas.
― 7 min ler
Novo método melhora a legendagem de vídeos usando modelos de imagem-linguagem.
― 8 min ler
Examinando a relação entre transformadores e RNNs no processamento de linguagem.
― 8 min ler
Esse framework ajuda a desvendar aspectos ocultos de grandes modelos de linguagem pra ter uma visão melhor.
― 6 min ler
Novo conjunto de dados tem como objetivo melhorar a compreensão das máquinas sobre receitas de cozinha.
― 8 min ler
Um novo framework melhora tarefas de previsão estruturada em NLP usando prompts e inferência.
― 9 min ler
Um novo método pra detectar e classificar erros nas saídas de modelos de linguagem.
― 7 min ler
Novos métodos melhoram a extração da persona dos personagens em agentes de diálogo.
― 10 min ler
Examinando como os templates de prompt impactam o desempenho dos grandes modelos de linguagem.
― 9 min ler
Apresentando um novo método pra reduzir o uso de memória ao ajustar modelos grandes.
― 6 min ler
Um olhar sobre como os LLMs melhoram os métodos de avaliação de NLG.
― 10 min ler
Esse artigo apresenta um novo método pra melhorar a tradução de documentos mais longos usando instruções misturadas.
― 7 min ler
Descubra como o comprimento do contexto impacta o desempenho e o potencial dos modelos de linguagem.
― 8 min ler
Um novo método pra atualizar modelos de linguagem de forma eficiente e precisa.
― 6 min ler
Um novo método usa dados de texto pra aprimorar os resultados da modelagem de tópicos.
― 9 min ler
Um estudo sobre como melhorar o reconhecimento de caracteres em Hindi a partir de entrada manuscrita.
― 7 min ler
Um jeito de melhorar o aprendizado com diferentes tipos de dados.
― 6 min ler
Proxy-tuning simplifica e melhora a adaptação de modelos de linguagem usando modelos de especialistas menores.
― 6 min ler
Um olhar sobre os problemas e soluções para alucinações em modelos de linguagem.
― 8 min ler
Novo método melhora classificadores de texto gerando exemplos multilíngues enganosos.
― 7 min ler
O aprendizado multitarefa permite que as máquinas melhorem o desempenho ao compartilhar conhecimento entre tarefas.
― 7 min ler
Um estudo sobre como detectar conteúdo ofensivo em várias línguas.
― 14 min ler
Estratégias pra melhorar modelos de QA quando os dados rotulados são escassos.
― 8 min ler
Explore como a abordagem x-elm melhora o processamento de linguagens multilíngues.
― 7 min ler
Aprenda como modelos de QA conversacional estão mudando a interação dos usuários com a IA.
― 7 min ler
Promptes de código melhoram o desempenho de raciocínio em modelos de linguagem grandes como o GPT 3.5.
― 4 min ler
Um novo método melhora como a gente identifica sinônimos e antônimos.
― 6 min ler
Aprimorando LMMs pra raciocinar e fazer perguntas pra ter mais precisão.
― 6 min ler
Uma abordagem nova melhora as conexões entre as imagens e suas legendas.
― 7 min ler
MatSciRE facilita a extração de dados de artigos de ciência dos materiais pra ajudar na pesquisa de baterias.
― 6 min ler
Um método pra lidar com ambiguidades em nomes próprios através da polisemia regular.
― 8 min ler
Um olhar sobre o Reconhecimento de Entidades Nomeadas e suas principais aplicações.
― 8 min ler
Explora o papel do auto-treinamento em melhorar os processos de transformar dados em texto.
― 8 min ler
Um novo método acelera a geração de texto em LLM usando cabeçotes de previsão adicionais.
― 5 min ler
O Orion-14B manda muito bem em entender e gerar texto multilíngue com 14 bilhões de parâmetros.
― 7 min ler