Esse artigo apresenta uma estrutura pra melhorar o NER na língua italiana usando modelos avançados.
Andrew Zamai, Leonardo Rigutini, Marco Maggini
― 6 min ler
Ciência de ponta explicada de forma simples
Esse artigo apresenta uma estrutura pra melhorar o NER na língua italiana usando modelos avançados.
Andrew Zamai, Leonardo Rigutini, Marco Maggini
― 6 min ler
Esse estudo apresenta o BiMI pra melhorar sistemas de recompensa em aprendizado por reforço.
Sukai Huang, Nir Lipovetzky, Trevor Cohn
― 7 min ler
Um novo método aumenta a eficiência do planejamento sem depender de especialistas.
Sukai Huang, Nir Lipovetzky, Trevor Cohn
― 7 min ler
Um novo método melhora a previsão da relevância da pesquisa usando embeddings de palavras.
Lucie Dvorackova, Marcin P. Joachimiak, Michal Cerny
― 8 min ler
Um novo método usando grafos de conhecimento pra respostas precisas a perguntas simples.
Maria Lysyuk, Mikhail Salnikov, Pavel Braslavski
― 6 min ler
Esse benchmark avalia as ameaças à privacidade e os mecanismos de defesa em modelos de PLN.
Wei Huang, Yinggui Wang, Cen Chen
― 10 min ler
Apresentando um método adaptável pra acompanhar as necessidades dos usuários em sistemas de diálogo.
Abdulfattah Safa, Gözde Gül Şahin
― 8 min ler
Esse estudo revela como os LLMs ajustam seu aprendizado através de padrões de atenção.
Yang Zhao, Li Du, Xiao Ding
― 7 min ler
A DiaSynth cria diálogos de alta qualidade pra treinar sistemas de conversa de forma eficaz.
Sathya Krishnan Suresh, Wu Mengjun, Tushar Pranav
― 7 min ler
Um novo framework melhora a detecção de saídas falsas em modelos de linguagem usando dados não rotulados.
Xuefeng Du, Chaowei Xiao, Yixuan Li
― 6 min ler
Esse framework melhora o desempenho do modelo ao lidar com dados de aumento de baixa qualidade.
Guanyi Mou, Yichuan Li, Kyumin Lee
― 7 min ler
Explorando os problemas dos modelos de linguagem na interpretação de dados.
Yuqing Zhou, Ruixiang Tang, Ziyu Yao
― 6 min ler
A gente melhora a Otimização de Preferência Direta pra lidar melhor com empates nas decisões.
Jinghong Chen, Guangyu Yang, Weizhe Lin
― 7 min ler
Um método pra melhorar a eficiência dos modelos de linguagem com entradas de texto longas.
Zhenmei Shi, Yifei Ming, Xuan-Phi Nguyen
― 6 min ler
Novo método melhora o conhecimento dos modelos de linguagem com dados limitados.
Zitong Yang, Neil Band, Shuangping Li
― 8 min ler
Um novo método melhora as previsões de características linguísticas usando dados textuais.
Hamidreza Amirzadeh, Sadegh Jafari, Anika Harju
― 7 min ler
Uma nova estrutura busca melhorar a confiabilidade e a clareza no raciocínio da IA.
Debargha Ganguly, Srinivasan Iyengar, Vipin Chaudhary
― 9 min ler
Aprenda como melhorar a eficiência de modelos de linguagem com contexto longo.
Amey Agrawal, Junda Chen, Íñigo Goiri
― 8 min ler
Uma nova técnica melhora o desempenho de modelos que combinam texto e imagens.
Runpeng Yu, Weihao Yu, Xinchao Wang
― 10 min ler
Avaliando VLMs em tarefas espaciais usando texto visual e confuso.
Bowen Zhao, Leo Parker Dirac, Paulina Varshavskaya
― 6 min ler
Um novo conjunto de dados busca melhorar a compreensão das ambiguidades em perguntas relacionadas ao tempo.
Bhawna Piryani, Abdelrahman Abdallah, Jamshid Mozafari
― 6 min ler
Pesquisas avaliam as conexões entre modelos de fala e linguagem para melhorar o reconhecimento e a tradução.
Francesco Verdini, Pierfrancesco Melucci, Stefano Perna
― 6 min ler
Um sistema para facilitar o conhecimento sobre Modelos de Linguagem Grande para pesquisadores.
Shengwei Tian, Lifeng Han, Goran Nenadic
― 7 min ler
Pesquisadores estão juntando computação clássica e quântica pra fazer análise de sentimento mais rápida.
Mario Bifulco, Luca Roversi
― 8 min ler
Uma nova estrutura melhora a capacidade dos modelos de lidar com perguntas relacionadas ao tempo de forma eficiente.
Wanqi Yang, Yanda Li, Meng Fang
― 6 min ler
Aprenda a treinar modelos de fala de forma eficaz com menos recursos rotulados.
Iuliia Thorbecke, Juan Zuluaga-Gomez, Esaú Villatoro-Tello
― 8 min ler
Apresentando o CLIPFit, um método pra afinar de forma eficiente Modelos de Visão-Linguagem.
Ming Li, Jike Zhong, Chenxin Li
― 7 min ler
Um estudo sobre omissões e distorções na geração de linguagem natural a partir de dados RDF.
Juliette Faille, Albert Gatt, Claire Gardent
― 6 min ler
Um novo método melhora a precisão ao responder perguntas de tabelas ao combinar dois sistemas.
Siyue Zhang, Anh Tuan Luu, Chen Zhao
― 9 min ler
Esse framework melhora a detecção de declarações contrafactuais usando modelos neurais e métodos causais.
Thong Nguyen, Truc-My Nguyen
― 7 min ler
Uma visão geral de vários métodos para juntar modelos e melhorar o desempenho de machine learning.
Derek Tam, Yash Kant, Brian Lester
― 10 min ler
Um estudo sobre como os modelos seguem instruções durante diálogos complexos.
Elliot L. Epstein, Kaisheng Yao, Jing Li
― 7 min ler
Apresentando o LowREm, uma ferramenta pra melhorar as embeddings de palavras em línguas sub-representadas.
Daniil Gurgurov, Rishu Kumar, Simon Ostermann
― 6 min ler
Avaliação do desempenho de LLM em textos longos em cinco idiomas.
Ameeta Agrawal, Andy Dang, Sina Bagheri Nezhad
― 8 min ler
Entender as diferenças de atenção pode melhorar o aprendizado de modelos de linguagem.
Jian Gao, Xiao Zhang, Ji Wu
― 7 min ler
Estudo mostra que pseudo-código melhora o desempenho de LLM em tarefas de gráfico.
Konstantinos Skianis, Giannis Nikolentzos, Michalis Vazirgiannis
― 8 min ler
O PEDRO melhora a eficiência no ajuste de modelos de linguagem grandes com vetores ajustáveis.
Tianfang Xie, Tianjing Li, Wei Zhu
― 6 min ler
Um novo conjunto de dados pra melhorar modelos de linguagem focados em texto relacionado a negócios.
Siyan Wang, Bradford Levy
― 6 min ler
Um método que melhora o alinhamento do modelo de linguagem com as preferências humanas.
Zhixuan Liu, Zhanhui Zhou, Yuanfu Wang
― 6 min ler
Uma olhada em avaliar a confiabilidade das explicações da IA através da sensibilidade adversarial.
Supriya Manna, Niladri Sett
― 8 min ler