Melhorando a identificação de palavras faladas através de pistas visuais em línguas com poucos recursos.
Leanne Nortje, Dan Oneata, Herman Kamper
― 8 min ler
Ciência de ponta explicada de forma simples
Melhorando a identificação de palavras faladas através de pistas visuais em línguas com poucos recursos.
Leanne Nortje, Dan Oneata, Herman Kamper
― 8 min ler
Esse estudo analisa como os modelos de linguagem aprendem com exemplos e conhecimento passado.
Aliakbar Nafar, Kristen Brent Venable, Parisa Kordjamshidi
― 10 min ler
Esse artigo fala sobre MLSAEs e o papel deles em examinar as camadas de modelos de linguagem.
Tim Lawson, Lucy Farnik, Conor Houghton
― 6 min ler
Este estudo avalia modelos de linguagem grandes como juízes em tarefas de raciocínio matemático.
Andreas Stephan, Dawei Zhu, Matthias Aßenmacher
― 6 min ler
Esse trabalho melhora os modelos de visão-linguagem com estratégias de dados melhores e técnicas inovadoras.
Yuan Liu, Zhongyin Zhao, Ziyuan Zhuang
― 8 min ler
SSR melhora o desempenho dos modelos de linguagem enquanto mantém suas habilidades gerais.
Sonam Gupta, Yatin Nandwani, Asaf Yehudai
― 7 min ler
O método Untie the Knots melhora o manejo de textos longos em modelos de linguagem.
Junfeng Tian, Da Zheng, Yang Cheng
― 6 min ler
Pesquisas mostram como as camadas em LLMs contribuem igualmente para as previsões.
Hangfeng He, Weijie J. Su
― 7 min ler
Um novo método melhora a compreensão de linguagem em modelos Transformer usando geometrias não-lineares.
Anna-Maria Halacheva, Mojtaba Nayyeri, Steffen Staab
― 7 min ler
Um novo método melhora a qualidade do código gerado por modelos de linguagem.
Shuai Wang, Liang Ding, Li Shen
― 5 min ler
Essa pesquisa melhora a forma como os modelos respondem perguntas usando tabelas.
Ruya Jiang, Chun Wang, Weihong Deng
― 7 min ler
Um estudo destaca os desafios de raciocínio nos modelos de linguagem modernos em meio a informações enganosas.
Neeladri Bhuiya, Viktor Schlegel, Stefan Winkler
― 7 min ler
Duas maneiras inovadoras melhoram o desempenho e a precisão da correção ortográfica em chinês.
Lei Sheng, Shuai-Shuai Xu
― 6 min ler
Um novo método melhora a identificação de objetos em imagens através da integração personalizada de visual e texto.
Ruilin Yao, Shengwu Xiong, Yichen Zhao
― 6 min ler
Novos métodos aumentam a precisão e a consistência em modelos de linguagem.
Diego Calanzone, Stefano Teso, Antonio Vergari
― 6 min ler
ParaEVITS melhora a expressão emocional em TTS através de orientações em linguagem natural.
Xin Jing, Kun Zhou, Andreas Triantafyllopoulos
― 6 min ler
RPP melhora o ajuste e a generalização em Modelos de Visão-Linguagem usando prompts refinados.
Zhenyuan Chen, Lingfeng Yang, Shuo Chen
― 9 min ler
Doppelgänger ajuda os modelos de linguagem a garantir respostas precisas e sem preconceitos.
Shervin Ghasemlou, Ashish Katiyar, Aparajita Saraf
― 7 min ler
Novo framework melhora os dados de treinamento para modelos de linguagem usando imagens e texto.
Run Luo, Haonan Zhang, Longze Chen
― 5 min ler
Uma plataforma simplifica o acesso a bancos de dados e APIs usando linguagem natural.
Achille Fokoue, Srideepika Jayaraman, Elham Khabiri
― 9 min ler
O RegNLP quer tornar mais fácil e eficiente entender documentos regulatórios.
Tuba Gokhan, Kexin Wang, Iryna Gurevych
― 5 min ler
Um olhar sobre as melhorias e desafios na navegação de máquinas usando visão e linguagem.
Xuesong Zhang, Jia Li, Yunbo Xu
― 5 min ler
Esse artigo revisa métodos de dropout pra melhorar a performance de modelos de linguagem pequenos.
Dylan Hillier, Leon Guertler, Bobby Cheng
― 6 min ler
Um estudo sobre como o Mamba se sai contra os Transformers em tarefas de imagem-texto.
Georgios Pantazopoulos, Malvina Nikandrou, Alessandro Suglia
― 8 min ler
Pesquisas mostram modelos de difusão para melhorar a conversão de tabela para texto.
Aleksei S. Krylov, Oleg D. Somov
― 6 min ler
Um novo método melhora a forma como os modelos de linguagem seguem instruções complexas.
Kuan Wang, Alexander Bukharin, Haoming Jiang
― 6 min ler
Uma análise das línguas de cometas e seu significado em gramáticas contextuais.
Marvin Ködding, Bianca Truthe
― 5 min ler
Um olhar sobre linguagens de grafo e seu papel no processamento de informações complexas.
Yvo Ad Meeres
― 7 min ler
Modelos pequenos oferecem vantagens únicas em IA, complementando modelos maiores de forma eficiente.
Lihu Chen, Gaël Varoquaux
― 7 min ler
Apresentando uma estrutura inovadora para testar interações de modelos de linguagem em cenários de RPG.
Ilya Gusev
― 10 min ler
Rótulos de preferência suave melhoram o alinhamento dos modelos com as escolhas humanas.
Hiroki Furuta, Kuang-Huei Lee, Shixiang Shane Gu
― 6 min ler
Estudo investiga como modelos de linguagem processam o italiano através de aprendizado multitarefa.
Vivi Nastase, Giuseppe Samo, Chunyang Jiang
― 6 min ler
Uma nova abordagem pra reduzir incertezas em modelos de linguagem usando ceticismo.
Yetao Wu, Yihong Wang, Teng Chen
― 6 min ler
Esse artigo fala sobre os desafios e soluções na avaliação de modelos de resposta a perguntas com base em contexto.
Sacha Muller, António Loison, Bilel Omrani
― 11 min ler
Uma nova abordagem pra deixar os modelos de linguagem mais concisos e eficazes.
Wei Liu, Yang Bai, Chengcheng Han
― 5 min ler
Um novo framework melhora como os modelos processam textos longos.
Zi Yang
― 7 min ler
Inf-MLLM melhora a eficiência em lidar com fluxos de dados complexos com recursos limitados.
Zhenyu Ning, Jieru Zhao, Qihao Jin
― 6 min ler
Descubra um novo método de aprendizado de IA que melhora a retenção de conhecimento.
Erik B. Terres-Escudero, Javier Del Ser, Pablo Garcia Bringas
― 6 min ler
RACC otimiza a busca por conhecimento pra tornar as respostas visuais às perguntas mais eficientes.
Weixi Weng, Jieming Zhu, Hao Zhang
― 6 min ler
Explore os benefícios de combinar aprendizado semi-supervisionado e aprendizado contrastivo em machine learning.
Aurelien Gauffre, Julien Horvat, Massih-Reza Amini
― 7 min ler