Modelos de linguagem grandes melhoram a classificação de documentos, diminuindo a dependência de dados de treinamento.
Anna Scius-Bertrand, Michael Jungo, Lars Vögtlin
― 9 min ler
Ciência de ponta explicada de forma simples
Modelos de linguagem grandes melhoram a classificação de documentos, diminuindo a dependência de dados de treinamento.
Anna Scius-Bertrand, Michael Jungo, Lars Vögtlin
― 9 min ler
Uma nova abordagem pra melhorar o desempenho dos grandes modelos de linguagem.
Pengxiang Li, Lu Yin, Shiwei Liu
― 5 min ler
Explorando embeddings de palavras complexos melhorados pela mecânica quântica pra entender melhor a linguagem.
Carys Harvey, Stephen Clark, Douglas Brown
― 7 min ler
Pesquisadores desenvolvem um método pra proteger LLMs de manipulações prejudiciais.
Minkyoung Kim, Yunha Kim, Hyeram Seo
― 7 min ler
Descubra como o ModernBERT melhora o processamento de linguagem com rapidez e eficiência.
Benjamin Warner, Antoine Chaffin, Benjamin Clavié
― 8 min ler
Modelos de linguagem grandes tropeçam em tarefas simples como contar letras, o que levanta dúvidas sobre suas habilidades.
Tairan Fu, Raquel Ferrando, Javier Conde
― 7 min ler
InCA ajuda os modelos a aprender novas tarefas sem esquecer as antigas.
Saleh Momeni, Sahisnu Mazumder, Zixuan Ke
― 7 min ler
Aprenda como os modelos de IA podem continuar a ganhar conhecimento sem esquecer as lições do passado.
Jiabao Qiu, Zixuan Ke, Bing Liu
― 8 min ler
Aprenda como a tokenização ajuda os computadores a entenderem a linguagem humana.
Philip Whittington, Gregor Bachmann, Tiago Pimentel
― 7 min ler
Novo framework melhora a integração de modelos de texto e imagem para um desempenho melhor.
Weijia Shi, Xiaochuang Han, Chunting Zhou
― 6 min ler
Um novo método pra agrupar documentos de forma mais inteligente usando Reconhecimento de Entidades Nomeadas e embeddings ricos.
Imed Keraghel, Mohamed Nadif
― 8 min ler
Uma nova abordagem pra melhorar a análise de sentimentos em cenários com poucos recursos.
Hongling Xu, Yice Zhang, Qianlong Wang
― 4 min ler
Descubra como o CLIPF usa mascaramento de frequência de palavras pra melhorar o treinamento de IA.
Mingliang Liang, Martha Larson
― 7 min ler
RNNs mostram uma eficácia surpreendente contra transformers na modelagem de linguagem em baixo recurso.
Patrick Haller, Jonas Golde, Alan Akbik
― 8 min ler
NeSyCoCo melhora a capacidade da IA de conectar linguagem e visuais de forma eficaz.
Danial Kamali, Elham J. Barezi, Parisa Kordjamshidi
― 8 min ler
Aprenda como a sumarização de texto pode facilitar o consumo de informações.
Gospel Ozioma Nnadi, Flavio Bertini
― 7 min ler
Esse estudo analisa como os modelos de Mistura de Especialistas melhoram a compreensão de linguagem.
Elie Antoine, Frédéric Béchet, Philippe Langlais
― 8 min ler
SlimGPT reduz o tamanho do modelo enquanto mantém o desempenho para aplicativos de IA.
Gui Ling, Ziyang Wang, Yuliang Yan
― 7 min ler
Saiba como o LIME ajuda a esclarecer as previsões feitas por redes neurais.
Melkamu Mersha, Mingiziem Bitewa, Tsion Abay
― 9 min ler
A Embedding de Posição de Fourier melhora a forma como os modelos de linguagem lidam com sentenças mais longas.
Ermo Hua, Che Jiang, Xingtai Lv
― 6 min ler
RAGONITE melhora a resposta a perguntas usando SQL e recuperação de texto pra ter insights claros.
Rishiraj Saha Roy, Chris Hinze, Joel Schlotthauer
― 9 min ler
Uma nova abordagem melhora a clareza da modelagem de tópicos em mineração de dados.
Xin Gao, Yang Lin, Ruiqing Li
― 6 min ler
Uma nova abordagem fortalece como as máquinas entendem metáforas na linguagem.
Yujie Lin, Jingyao Liu, Yan Gao
― 9 min ler
Saiba como o MAS melhora o desempenho de modelos de linguagem em chatbots e tarefas de raciocínio.
Shahar Katz, Liran Ringel, Yaniv Romano
― 8 min ler
Descubra como modelos de linguagem visual melhoram a compreensão de imagens e textos.
Tenghui Li, Guoxu Zhou, Xuyang Zhao
― 8 min ler
Saiba como o DAPO melhora os modelos de linguagem para raciocínio e performance melhores.
Jiacai Liu, Chaojie Wang, Chris Yuhao Liu
― 7 min ler
Ataques de backdoor podem afetar modelos de classificação de texto, injetando viés e distorcendo os resultados.
A. Dilara Yavuz, M. Emre Gursoy
― 9 min ler
Descubra como os mecanismos de atenção melhoram o deep learning em várias aplicações.
Tianyu Ruan, Shihua Zhang
― 6 min ler
Revolucionando a forma como os modelos de linguagem generativa funcionam pra interações mais seguras e úteis.
Ananth Balashankar, Ziteng Sun, Jonathan Berant
― 10 min ler
Novos métodos estão revolucionando a forma como os modelos de linguagem geram texto de maneira eficiente.
Situo Zhang, Hankun Wang, Da Ma
― 8 min ler
Uma olhada nos desafios e desenvolvimentos na compreensão de expressões de várias palavras.
Lifeng Han, Kilian Evang, Archna Bhatia
― 6 min ler
Novos modelos mostram potencial em lidar com tarefas de linguagem complexas de forma eficiente.
Aleksandar Terzić, Michael Hersche, Giacomo Camposampiero
― 7 min ler
Novo framework melhora a compreensão de imagens, textos e objetos 3D.
Siyu Jiao, Haoye Dong, Yuyang Yin
― 8 min ler
Enfrentando os desafios das línguas de baixo recurso no processamento de linguagem natural.
Surangika Ranathungaa, Shravan Nayak, Shih-Ting Cindy Huang
― 2 min ler
AmalREC melhora a compreensão das relações em processamento de linguagem natural.
Mansi, Pranshu Pandya, Mahek Bhavesh Vora
― 7 min ler
Revolucionando o treinamento de modelos com uma orientação em linguagem natural eficiente.
Jia Liu, Yue Wang, Zhiqi Lin
― 7 min ler
Pesquisadores encontram maneiras de melhorar como modelos de linguagem grandes expressam seu conhecimento.
Xingjian Tao, Yiwei Wang, Yujun Cai
― 7 min ler