Cet article examine le rôle complexe de l'anglais dans les évaluations multilingues.
Wessel Poelman, Miryam de Lhoneux
― 8 min lire
La science de pointe expliquée simplement
Cet article examine le rôle complexe de l'anglais dans les évaluations multilingues.
Wessel Poelman, Miryam de Lhoneux
― 8 min lire
Découvrez comment Sloth change les prédictions sur la performance des modèles linguistiques.
Felipe Maia Polo, Seamus Somerstep, Leshem Choshen
― 8 min lire
Les autoencodeurs creux BatchTopK améliorent le traitement du langage grâce à une sélection intelligente des données.
Bart Bussmann, Patrick Leask, Neel Nanda
― 5 min lire
S'attaquer aux défis du questionnement multi-sauts pour de meilleures réponses de l'IA.
George Arthur Baker, Ankush Raut, Sagi Shaier
― 10 min lire
Combiner des modèles de langue améliore le suivi des instructions dans les tâches de conception de puces.
Chenhui Deng, Yunsheng Bai, Haoxing Ren
― 8 min lire
Les petits modèles de langue montrent des avantages étonnants pour évoluer des instructions par rapport aux plus grands.
Tingfeng Hui, Lulu Zhao, Guanting Dong
― 7 min lire
Explore comment les structures de mémoire améliorent la communication dans les grands modèles de langage.
Ruihong Zeng, Jinyuan Fang, Siwei Liu
― 7 min lire
Un outil qui clarifie les commentaires de la revue par les pairs pour les auteurs.
Jianxiang Yu, Jiaqi Tan, Zichen Ding
― 7 min lire
Un nouveau benchmark pour tester le raisonnement des LLM à travers les différentes cultures.
Mohammad Aflah Khan, Neemesh Yadav, Sarah Masud
― 9 min lire
Apprends comment des indices peuvent améliorer le raisonnement et les compétences en résolution de problèmes de l'IA.
Soumyasundar Pal, Didier Chételat, Yingxue Zhang
― 8 min lire
Optimise tes prompts avec iPrOp pour des réponses AI meilleures.
Jiahui Li, Roman Klinger
― 9 min lire
Apprends comment les connaissances externes améliorent la précision et la fiabilité des modèles linguistiques.
Zhiyuan Chang, Mingyang Li, Xiaojun Jia
― 5 min lire
ChainRank améliore le reranking des textes, gardant les modèles précis et pertinents.
Haowei Liu, Xuyang Wu, Guohao Sun
― 4 min lire
Les LLMs peuvent créer du contenu faux sur mesure, ce qui augmente les risques de tromperie.
Aneta Zugecova, Dominik Macko, Ivan Srba
― 7 min lire
Les grands modèles de langage galèrent sur des tâches simples comme compter des lettres, ce qui remet en question leurs capacités.
Tairan Fu, Raquel Ferrando, Javier Conde
― 8 min lire
Fietje montre le potentiel des modèles de langue ciblés pour le néerlandais.
Bram Vanroy
― 5 min lire
Découvre comment les scores de confiance verbalisés renforcent la confiance dans les modèles linguistiques.
Daniel Yang, Yao-Hung Hubert Tsai, Makoto Yamada
― 8 min lire
Découvre comment les modèles de langage peuvent apprendre et s'adapter tout en évitant le contenu nuisible.
Han Zhang, Zhuo Zhang, Yi Zhang
― 8 min lire
RAG améliore les modèles de langue mais fait face à des défis à cause des attaques de désinformation.
Jinyan Su, Jin Peng Zhou, Zhengxin Zhang
― 10 min lire
Une nouvelle méthode aide les modèles de langage à gérer des tâches complexes plus efficacement.
Chao-Chi Chen, Chin-Yuan Yeh, Hsi-Wen Chen
― 7 min lire
Explore comment Adaptive-Prompt améliore l'apprentissage dans les grands modèles de langage.
Shuzhang Cai, Twumasi Mensah-Boateng, Xander Kuksov
― 9 min lire
Une nouvelle approche pour de meilleurs prompts dans les modèles de langage IA.
Zeru Shi, Zhenting Wang, Yongye Su
― 7 min lire
Améliorer la lisibilité des tests automatisés avec des modèles de langage.
Matteo Biagiola, Gianluca Ghislotti, Paolo Tonella
― 6 min lire
Explore les défis et les avancées dans les capacités des grands modèles de langage à suivre des instructions.
Hyeonseok Moon, Jaehyung Seo, Seungyoon Lee
― 9 min lire
Une nouvelle méthode améliore les performances des modèles de langage multimodal sur les tâches visuelles.
Ziang Yan, Zhilin Li, Yinan He
― 8 min lire
Apprends comment la réduction des raisonnements améliore la communication de l'IA sans détails inutiles.
Joonwon Jang, Jaehee Kim, Wonbin Kweon
― 7 min lire