Nouveau dataset améliore la capacité de l'IA à gérer les malentendus dans les conversations.
Javier Chiyah-Garcia, Alessandro Suglia, Arash Eshghi
― 8 min lire
La science de pointe expliquée simplement
Nouveau dataset améliore la capacité de l'IA à gérer les malentendus dans les conversations.
Javier Chiyah-Garcia, Alessandro Suglia, Arash Eshghi
― 8 min lire
Garder le sens tout en transformant les données, c'est super important pour la vie privée et la précision.
Muhan Zhang
― 6 min lire
Une nouvelle méthode fait grimper les petits modèles pour répondre aux questions télécom.
Blessed Guda, Gabrial Zencha A., Lawrence Francis
― 8 min lire
Nouvelles idées sur comment le contexte et la similarité influencent la performance des modèles de langage.
Stefan Arnold, Marian Fietta, Dilara Yesilbas
― 7 min lire
Examine comment BERT interprète les mots avec plusieurs significations.
Soniya Vijayakumar, Josef van Genabith, Simon Ostermann
― 7 min lire
Cette étude aborde les défis des modèles audio pour les langues à faibles ressources.
Potsawee Manakul, Guangzhi Sun, Warit Sirichotedumrong
― 7 min lire
Examinons comment les modèles de langage apprennent des connaissances factuelles et leurs limites.
Xiao Zhang, Miao Li, Ji Wu
― 9 min lire
La méthode GroupDebate réduit les coûts tout en améliorant la précision des discussions entre agents.
Tongxuan Liu, Xingyu Wang, Weizhe Huang
― 7 min lire
Cette étude améliore les systèmes de reconnaissance des émotions pour les langues moins courantes en utilisant des données à forte ressource.
Hsi-Che Lin, Yi-Cheng Lin, Huang-Cheng Chou
― 9 min lire
Ce papier évalue à quel point les modèles de langue expliquent les concepts scientifiques.
Prasoon Bajpai, Niladri Chatterjee, Subhabrata Dutta
― 6 min lire
Le pooling de tokens améliore le stockage des données tout en gardant la précision de récupération.
Benjamin Clavié, Antoine Chaffin, Griffin Adams
― 7 min lire
Un modèle améliore les tâches de parole dans des environnements multilingues, en s'attaquant aux défis du code-switching.
Jing Xu, Daxin Tan, Jiaqi Wang
― 7 min lire
Une nouvelle approche améliore l'apprentissage des robots en combinant des instructions linguistiques riches avec des données.
Yinpei Dai, Jayjun Lee, Nima Fazeli
― 6 min lire
Une étude sur la performance des LLM en utilisant le réglage par instructions et l'apprentissage en contexte.
Taihang Wang, Xiaoman Xu, Yimin Wang
― 7 min lire
Un nouveau modèle améliore l'efficacité dans la collecte de données linguistiques pendant le travail de terrain.
Aso Mahmudi, Borja Herce, Demian Inostroza Amestica
― 8 min lire
Cette étude examine comment les modèles de langage créent des titres de papiers de recherche efficaces à partir de résumés.
Tohida Rehman, Debarshi Kumar Sanyal, Samiran Chattopadhyay
― 6 min lire
Cette étude examine l'efficacité des autoencodeurs clairsemés pour comprendre les caractéristiques des modèles de langage.
David Chanin, James Wilken-Smith, Tomáš Dulka
― 8 min lire
PODA améliore la capacité de l'IA à comprendre des textes et à raisonner logiquement.
Chenxu Wang, Ping Jian, Zhen Yang
― 7 min lire
Un nouveau cadre simplifie la conception de microstructures en utilisant des commandes en langage naturel.
Nikita Kartashov, Nikolaos N. Vlassis
― 10 min lire
Cette recherche explore l'efficacité des LLM dans plusieurs langues au-delà de l'anglais.
Daoyang Li, Mingyu Jin, Qingcheng Zeng
― 7 min lire
Des recherches montrent que l'IA peut prédire les opinions des utilisateurs à partir de posts indirects sur les réseaux sociaux.
Siyuan Brandon Loh, Liang Ze Wong, Prasanta Bhattacharya
― 7 min lire
Cet article examine comment différentes couches affectent la performance des LLM.
Yang Zhang, Yanfei Dong, Kenji Kawaguchi
― 7 min lire
Une étude sur comment les agents IA suivent les règles définies par les utilisateurs en utilisant le dataset ACS.
Lior Madmoni, Amir Zait, Ilia Labzovsky
― 11 min lire
CADA-GAN améliore la performance des systèmes ASR dans différents environnements d'enregistrement.
Chien-Chun Wang, Li-Wei Chen, Cheng-Kang Chou
― 7 min lire
De nouvelles méthodes améliorent les performances des LLM en compressant les entrées de tokens.
Runsong Zhao, Pengcheng Huang, Xinyu Liu
― 6 min lire
MQM-APE améliore la qualité des évaluations de traduction automatique grâce à une analyse d'erreurs avancée.
Qingyu Lu, Liang Ding, Kanjian Zhang
― 8 min lire
Cette étude évalue comment les LLM comprennent les tropes narratifs dans les résumés de films.
Hung-Ting Su, Ya-Ching Hsu, Xudong Lin
― 5 min lire
La méthode FLEX propose une nouvelle approche pour évaluer les systèmes texte-en-SQL de manière précise.
Heegyu Kim, Taeyang Jeon, Seunghwan Choi
― 8 min lire
De nouvelles fonctionnalités améliorent l'expérience utilisateur en compréhension d'écran et interactions multilingues.
Naman Goyal
― 8 min lire
Utiliser la technologie pour récupérer info sur les traits des plantes facilement sur le web.
Diego Marcos, Robert van de Vlasakker, Ioannis N. Athanasiadis
― 5 min lire
EVA combine des signaux audio et visuels pour une meilleure précision de reconnaissance vocale.
Yihan Wu, Yifan Peng, Yichen Lu
― 5 min lire
Un nouveau modèle améliore les embeddings de texte grâce à des stratégies d'apprentissage en contexte.
Chaofan Li, MingHao Qin, Shitao Xiao
― 7 min lire
Une nouvelle méthode vise à réduire la fuite sémantique dans les embeddings de phrases interlangues.
Dayeon Ki, Cheonbok Park, Hyunjoong Kim
― 6 min lire
Nouveaux modèles visent à combattre le langage nuisible en ligne grâce à des techniques de détection avancées.
Tonmoy Roy, Md Robiul Islam, Asif Ahammad Miazee
― 7 min lire
QualIT améliore l'analyse de texte en combinant des modèles de langue et des techniques de regroupement.
Satya Kapoor, Alex Gil, Sreyoshi Bhaduri
― 7 min lire
Cette étude examine le rôle de l'IA dans les conseils de négociation salariale et les biais potentiels.
R. Stuart Geiger, Flynn O'Sullivan, Elsie Wang
― 6 min lire
Un nouveau cadre améliore la qualité des dialogues dans les chatbots éducatifs pour un apprentissage efficace.
Haoyu Huang, Tong Niu, Rui Yang
― 8 min lire
Cette recherche examine la performance des LLM dans des tâches cognitives similaires au comportement des bébés.
Pengrui Han, Peiyang Song, Haofei Yu
― 7 min lire
Un nouvel outil évalue la performance des grands modèles de langage sur différents types de données.
Yizhi Li, Ge Zhang, Yinghao Ma
― 6 min lire
Cet article présente un nouveau cadre pour améliorer les techniques d'inférence pour les modèles de langue.
Jon Saad-Falcon, Adrian Gamarra Lafuente, Shlok Natarajan
― 6 min lire