Examinons comment les modèles de langage apprennent des connaissances factuelles et leurs limites.
Xiao Zhang, Miao Li, Ji Wu
― 9 min lire
La science de pointe expliquée simplement
Examinons comment les modèles de langage apprennent des connaissances factuelles et leurs limites.
Xiao Zhang, Miao Li, Ji Wu
― 9 min lire
La méthode GroupDebate réduit les coûts tout en améliorant la précision des discussions entre agents.
Tongxuan Liu, Xingyu Wang, Weizhe Huang
― 7 min lire
Cette étude améliore les systèmes de reconnaissance des émotions pour les langues moins courantes en utilisant des données à forte ressource.
Hsi-Che Lin, Yi-Cheng Lin, Huang-Cheng Chou
― 9 min lire
Ce papier évalue à quel point les modèles de langue expliquent les concepts scientifiques.
Prasoon Bajpai, Niladri Chatterjee, Subhabrata Dutta
― 6 min lire
Le pooling de tokens améliore le stockage des données tout en gardant la précision de récupération.
Benjamin Clavié, Antoine Chaffin, Griffin Adams
― 7 min lire
Un modèle améliore les tâches de parole dans des environnements multilingues, en s'attaquant aux défis du code-switching.
Jing Xu, Daxin Tan, Jiaqi Wang
― 7 min lire
Une nouvelle approche améliore l'apprentissage des robots en combinant des instructions linguistiques riches avec des données.
Yinpei Dai, Jayjun Lee, Nima Fazeli
― 6 min lire
Une étude sur la performance des LLM en utilisant le réglage par instructions et l'apprentissage en contexte.
Taihang Wang, Xiaoman Xu, Yimin Wang
― 7 min lire
Un nouveau modèle améliore l'efficacité dans la collecte de données linguistiques pendant le travail de terrain.
Aso Mahmudi, Borja Herce, Demian Inostroza Amestica
― 8 min lire
Cette étude examine comment les modèles de langage créent des titres de papiers de recherche efficaces à partir de résumés.
Tohida Rehman, Debarshi Kumar Sanyal, Samiran Chattopadhyay
― 6 min lire
Cette étude examine l'efficacité des autoencodeurs clairsemés pour comprendre les caractéristiques des modèles de langage.
David Chanin, James Wilken-Smith, Tomáš Dulka
― 8 min lire
PODA améliore la capacité de l'IA à comprendre des textes et à raisonner logiquement.
Chenxu Wang, Ping Jian, Zhen Yang
― 7 min lire
Un nouveau cadre simplifie la conception de microstructures en utilisant des commandes en langage naturel.
Nikita Kartashov, Nikolaos N. Vlassis
― 10 min lire
Cette recherche explore l'efficacité des LLM dans plusieurs langues au-delà de l'anglais.
Daoyang Li, Mingyu Jin, Qingcheng Zeng
― 7 min lire
Des recherches montrent que l'IA peut prédire les opinions des utilisateurs à partir de posts indirects sur les réseaux sociaux.
Siyuan Brandon Loh, Liang Ze Wong, Prasanta Bhattacharya
― 7 min lire
Cet article examine comment différentes couches affectent la performance des LLM.
Yang Zhang, Yanfei Dong, Kenji Kawaguchi
― 7 min lire
Une étude sur comment les agents IA suivent les règles définies par les utilisateurs en utilisant le dataset ACS.
Lior Madmoni, Amir Zait, Ilia Labzovsky
― 11 min lire
CADA-GAN améliore la performance des systèmes ASR dans différents environnements d'enregistrement.
Chien-Chun Wang, Li-Wei Chen, Cheng-Kang Chou
― 7 min lire
De nouvelles méthodes améliorent les performances des LLM en compressant les entrées de tokens.
Runsong Zhao, Pengcheng Huang, Xinyu Liu
― 6 min lire
MQM-APE améliore la qualité des évaluations de traduction automatique grâce à une analyse d'erreurs avancée.
Qingyu Lu, Liang Ding, Kanjian Zhang
― 8 min lire
Cette étude évalue comment les LLM comprennent les tropes narratifs dans les résumés de films.
Hung-Ting Su, Ya-Ching Hsu, Xudong Lin
― 5 min lire
La méthode FLEX propose une nouvelle approche pour évaluer les systèmes texte-en-SQL de manière précise.
Heegyu Kim, Taeyang Jeon, Seunghwan Choi
― 8 min lire
De nouvelles fonctionnalités améliorent l'expérience utilisateur en compréhension d'écran et interactions multilingues.
Naman Goyal
― 8 min lire
Utiliser la technologie pour récupérer info sur les traits des plantes facilement sur le web.
Diego Marcos, Robert van de Vlasakker, Ioannis N. Athanasiadis
― 5 min lire
EVA combine des signaux audio et visuels pour une meilleure précision de reconnaissance vocale.
Yihan Wu, Yifan Peng, Yichen Lu
― 5 min lire
Un nouveau modèle améliore les embeddings de texte grâce à des stratégies d'apprentissage en contexte.
Chaofan Li, MingHao Qin, Shitao Xiao
― 7 min lire
Une nouvelle méthode vise à réduire la fuite sémantique dans les embeddings de phrases interlangues.
Dayeon Ki, Cheonbok Park, Hyunjoong Kim
― 6 min lire
Nouveaux modèles visent à combattre le langage nuisible en ligne grâce à des techniques de détection avancées.
Tonmoy Roy, Md Robiul Islam, Asif Ahammad Miazee
― 7 min lire
QualIT améliore l'analyse de texte en combinant des modèles de langue et des techniques de regroupement.
Satya Kapoor, Alex Gil, Sreyoshi Bhaduri
― 7 min lire
Cette étude examine le rôle de l'IA dans les conseils de négociation salariale et les biais potentiels.
R. Stuart Geiger, Flynn O'Sullivan, Elsie Wang
― 6 min lire
Un nouveau cadre améliore la qualité des dialogues dans les chatbots éducatifs pour un apprentissage efficace.
Haoyu Huang, Tong Niu, Rui Yang
― 8 min lire
Cette recherche examine la performance des LLM dans des tâches cognitives similaires au comportement des bébés.
Pengrui Han, Peiyang Song, Haofei Yu
― 7 min lire
Un nouvel outil évalue la performance des grands modèles de langage sur différents types de données.
Yizhi Li, Ge Zhang, Yinghao Ma
― 6 min lire
Cet article présente un nouveau cadre pour améliorer les techniques d'inférence pour les modèles de langue.
Jon Saad-Falcon, Adrian Gamarra Lafuente, Shlok Natarajan
― 6 min lire
Une nouvelle méthode améliore la précision de l'extraction des triplets aspect-sentiment.
Iwo Naglik, Mateusz Lango
― 7 min lire
Un nouveau cadre améliore la création de prompts pour les grands modèles de langage.
Mingqi Li, Karan Aggarwal, Yong Xie
― 7 min lire
Cette étude évalue différents modèles pour récupérer des infos cliniques de manière efficace.
Skatje Myers, Timothy A. Miller, Yanjun Gao
― 9 min lire
Une nouvelle méthode améliore la performance de Flash Attention pour les masques d'attention clairsemés.
Agniv Sharma, Jonas Geiping
― 6 min lire
Une nouvelle métrique qui améliore l'évaluation de la cohérence factuelle dans les résumés automatiques.
Yuxuan Ye, Edwin Simpson, Raul Santos Rodriguez
― 6 min lire
Évaluer l'efficacité des LLM pour l'analyse des menaces.
Sanchana Srikanth, Mohammad Hasanuzzaman, Farah Tasnur Meem
― 13 min lire