SLaVA-CXR améliore la génération de rapports de radiographies thoraciques pour une meilleure efficacité clinique.
Jinge Wu, Yunsoo Kim, Daqian Shi
― 6 min lire
La science de pointe expliquée simplement
SLaVA-CXR améliore la génération de rapports de radiographies thoraciques pour une meilleure efficacité clinique.
Jinge Wu, Yunsoo Kim, Daqian Shi
― 6 min lire
GAProtoNet améliore la classification de texte en rendant les résultats plus compréhensibles tout en gardant une grande précision.
Ximing Wen, Wenjuan Tan, Rosina O. Weber
― 7 min lire
Une nouvelle méthode pour créer des données étiquetées dans la génération de mots-clés en utilisant des contextes de citation.
Florian Boudin, Akiko Aizawa
― 9 min lire
Un système qui apprend et s'adapte grâce à une interaction continue avec son environnement.
Yu Wang, Chi Han, Tongtong Wu
― 10 min lire
Une nouvelle approche pour entraîner des modèles de langue améliore l'efficacité et la performance.
Yinmin Zhong, Zili Zhang, Bingyang Wu
― 9 min lire
Un nouveau cadre évalue les connaissances médicales dans les grands modèles de langage.
Yuxuan Zhou, Xien Liu, Chen Ning
― 7 min lire
Un nouveau cadre améliore la planification de l'IA en renforçant la compréhension visuelle et le raisonnement.
Yew Ken Chia, Qi Sun, Lidong Bing
― 7 min lire
Nouveau dataset améliore la capacité de l'IA à gérer les malentendus dans les conversations.
Javier Chiyah-Garcia, Alessandro Suglia, Arash Eshghi
― 8 min lire
Garder le sens tout en transformant les données, c'est super important pour la vie privée et la précision.
Muhan Zhang
― 6 min lire
Une nouvelle méthode fait grimper les petits modèles pour répondre aux questions télécom.
Blessed Guda, Gabrial Zencha A., Lawrence Francis
― 8 min lire
Nouvelles idées sur comment le contexte et la similarité influencent la performance des modèles de langage.
Stefan Arnold, Marian Fietta, Dilara Yesilbas
― 7 min lire
Examine comment BERT interprète les mots avec plusieurs significations.
Soniya Vijayakumar, Josef van Genabith, Simon Ostermann
― 7 min lire
Cette étude aborde les défis des modèles audio pour les langues à faibles ressources.
Potsawee Manakul, Guangzhi Sun, Warit Sirichotedumrong
― 7 min lire
Examinons comment les modèles de langage apprennent des connaissances factuelles et leurs limites.
Xiao Zhang, Miao Li, Ji Wu
― 9 min lire
La méthode GroupDebate réduit les coûts tout en améliorant la précision des discussions entre agents.
Tongxuan Liu, Xingyu Wang, Weizhe Huang
― 7 min lire
Cette étude améliore les systèmes de reconnaissance des émotions pour les langues moins courantes en utilisant des données à forte ressource.
Hsi-Che Lin, Yi-Cheng Lin, Huang-Cheng Chou
― 9 min lire
Ce papier évalue à quel point les modèles de langue expliquent les concepts scientifiques.
Prasoon Bajpai, Niladri Chatterjee, Subhabrata Dutta
― 6 min lire
Le pooling de tokens améliore le stockage des données tout en gardant la précision de récupération.
Benjamin Clavié, Antoine Chaffin, Griffin Adams
― 7 min lire
Un modèle améliore les tâches de parole dans des environnements multilingues, en s'attaquant aux défis du code-switching.
Jing Xu, Daxin Tan, Jiaqi Wang
― 7 min lire
Une nouvelle approche améliore l'apprentissage des robots en combinant des instructions linguistiques riches avec des données.
Yinpei Dai, Jayjun Lee, Nima Fazeli
― 6 min lire
Une étude sur la performance des LLM en utilisant le réglage par instructions et l'apprentissage en contexte.
Taihang Wang, Xiaoman Xu, Yimin Wang
― 7 min lire
Un nouveau modèle améliore l'efficacité dans la collecte de données linguistiques pendant le travail de terrain.
Aso Mahmudi, Borja Herce, Demian Inostroza Amestica
― 8 min lire
Cette étude examine comment les modèles de langage créent des titres de papiers de recherche efficaces à partir de résumés.
Tohida Rehman, Debarshi Kumar Sanyal, Samiran Chattopadhyay
― 6 min lire
Cette étude examine l'efficacité des autoencodeurs clairsemés pour comprendre les caractéristiques des modèles de langage.
David Chanin, James Wilken-Smith, Tomáš Dulka
― 8 min lire
PODA améliore la capacité de l'IA à comprendre des textes et à raisonner logiquement.
Chenxu Wang, Ping Jian, Zhen Yang
― 7 min lire
Un nouveau cadre simplifie la conception de microstructures en utilisant des commandes en langage naturel.
Nikita Kartashov, Nikolaos N. Vlassis
― 10 min lire
Cette recherche explore l'efficacité des LLM dans plusieurs langues au-delà de l'anglais.
Daoyang Li, Mingyu Jin, Qingcheng Zeng
― 7 min lire
Des recherches montrent que l'IA peut prédire les opinions des utilisateurs à partir de posts indirects sur les réseaux sociaux.
Siyuan Brandon Loh, Liang Ze Wong, Prasanta Bhattacharya
― 7 min lire
Cet article examine comment différentes couches affectent la performance des LLM.
Yang Zhang, Yanfei Dong, Kenji Kawaguchi
― 7 min lire
Une étude sur comment les agents IA suivent les règles définies par les utilisateurs en utilisant le dataset ACS.
Lior Madmoni, Amir Zait, Ilia Labzovsky
― 11 min lire
CADA-GAN améliore la performance des systèmes ASR dans différents environnements d'enregistrement.
Chien-Chun Wang, Li-Wei Chen, Cheng-Kang Chou
― 7 min lire
De nouvelles méthodes améliorent les performances des LLM en compressant les entrées de tokens.
Runsong Zhao, Pengcheng Huang, Xinyu Liu
― 6 min lire
MQM-APE améliore la qualité des évaluations de traduction automatique grâce à une analyse d'erreurs avancée.
Qingyu Lu, Liang Ding, Kanjian Zhang
― 8 min lire
Cette étude évalue comment les LLM comprennent les tropes narratifs dans les résumés de films.
Hung-Ting Su, Ya-Ching Hsu, Xudong Lin
― 5 min lire
La méthode FLEX propose une nouvelle approche pour évaluer les systèmes texte-en-SQL de manière précise.
Heegyu Kim, Taeyang Jeon, Seunghwan Choi
― 8 min lire
De nouvelles fonctionnalités améliorent l'expérience utilisateur en compréhension d'écran et interactions multilingues.
Naman Goyal
― 8 min lire
Utiliser la technologie pour récupérer info sur les traits des plantes facilement sur le web.
Diego Marcos, Robert van de Vlasakker, Ioannis N. Athanasiadis
― 5 min lire
EVA combine des signaux audio et visuels pour une meilleure précision de reconnaissance vocale.
Yihan Wu, Yifan Peng, Yichen Lu
― 5 min lire
Un nouveau modèle améliore les embeddings de texte grâce à des stratégies d'apprentissage en contexte.
Chaofan Li, MingHao Qin, Shitao Xiao
― 7 min lire
Une nouvelle méthode vise à réduire la fuite sémantique dans les embeddings de phrases interlangues.
Dayeon Ki, Cheonbok Park, Hyunjoong Kim
― 6 min lire