Une nouvelle étude montre que les modèles d'IA peuvent aider à repérer des erreurs dans les citations scientifiques.
Tianmai M. Zhang, Neil F. Abernethy
― 10 min lire
La science de pointe expliquée simplement
Une nouvelle étude montre que les modèles d'IA peuvent aider à repérer des erreurs dans les citations scientifiques.
Tianmai M. Zhang, Neil F. Abernethy
― 10 min lire
Un cadre qui combine des infos structurelles et sémantiques améliore la complétion des graphes de connaissances.
Qiao Qiao, Yuepei Li, Qing Wang
― 8 min lire
KALE combine des images avec des légendes détaillées pour une meilleure compréhension.
Anas Awadalla, Le Xue, Manli Shu
― 6 min lire
L'équipe de BeeManc a utilisé des modèles avancés pour simplifier des textes médicaux complexes à PLABA-2024.
Zhidong Ling, Zihao Li, Pablo Romero
― 7 min lire
Utiliser des modèles plus petits pour accélérer l'entraînement des plus grands modèles de langage.
Neeratyoy Mallik, Maciej Janowski, Johannes Hog
― 8 min lire
Les structures arborées améliorent l'efficacité et l'organisation des modèles de langage.
Pierre Colonna D'Istria, Abdulrahman Altahhan
― 8 min lire
Une nouvelle façon de rendre les modèles de langage plus légers sans perdre en performance.
Elia Cunegatti, Leonardo Lucio Custode, Giovanni Iacca
― 10 min lire
EVQAScore améliore l'évaluation de la QA vidéo de manière efficace et efficiente.
Hao Liang, Zirong Chen, Wentao Zhang
― 7 min lire
Cette étude examine comment les grands modèles de langage peuvent mal se comporter et être manipulés.
Yannis Belkhiter, Giulio Zizzo, Sergio Maffeis
― 6 min lire
Des scientifiques mélangent des données de séries temporelles avec du texte pour améliorer les prévisions météo.
Kai Kim, Howard Tsai, Rajat Sen
― 8 min lire
Explorer les capacités et les défis de la technologie des Transformers pour comprendre le langage.
Bo Chen, Xiaoyu Li, Yingyu Liang
― 7 min lire
Une nouvelle approche améliore l'efficacité des modèles de langue grâce à une activation d'experts plus intelligente.
Vima Gupta, Kartik Sinha, Ada Gavrilovska
― 6 min lire
Une nouvelle méthode améliore la classification de texte en utilisant des invites de type code.
Mohammad Mahdi Mohajeri, Mohammad Javad Dousti, Majid Nili Ahmadabadi
― 6 min lire
Des chercheurs examinent comment plusieurs points de vue améliorent la compréhension des opinions humaines par l'IA.
Benedetta Muscato, Praveen Bushipaka, Gizem Gezici
― 5 min lire
Découvrez comment le réglage dynamique des sous-ensembles améliore l'efficacité de l'entraînement des modèles d'IA.
Felix Stahlberg, Jared Lichtarge, Shankar Kumar
― 9 min lire
STEP améliore les capacités de planification des agents linguistiques grâce à une mémoire structurée et une gestion des tâches.
Minh Nguyen, Ehsan Shareghi
― 13 min lire
Des chercheurs s'attaquent au problème des inexactitudes dans les modèles de langue.
Seongmin Lee, Hsiang Hsu, Chun-Fu Chen
― 7 min lire
SAM-Decoding améliore l'efficacité de la génération de texte dans les modèles de langue.
Yuxuan Hu, Ke Wang, Xiaokang Zhang
― 8 min lire
Une nouvelle méthode améliore les compétences de raisonnement des modèles de langage en utilisant l'optimisation des préférences.
Weiyun Wang, Zhe Chen, Wenhai Wang
― 6 min lire
Une nouvelle méthode améliore la capacité des machines à détecter les frontières des mots dans la parole.
Simone Carnemolla, Salvatore Calcagno, Simone Palazzo
― 7 min lire
Découvrez comment le TDA améliore la compréhension dans l'analyse linguistique.
Adaku Uchendu, Thai Le
― 7 min lire
Des recherches montrent comment les Transformers gèrent la mémorisation dans les tâches linguistiques.
Léo Dana, Muni Sreenivas Pydi, Yann Chevaleyre
― 5 min lire
La recherche utilise des agents utilisateurs pour évaluer les systèmes de dialogue orientés tâche.
Taaha Kazi, Ruiliang Lyu, Sizhe Zhou
― 7 min lire
Llava mélange texte et images pour améliorer les réponses aux questions.
Zeping Yu, Sophia Ananiadou
― 8 min lire
HNCSE améliore la compréhension des langages informatiques en utilisant des exemples négatifs difficiles.
Wenxiao Liu, Zihong Yang, Chaozhuo Li
― 9 min lire
Un aperçu de comment les LLM traitent le langage grâce à des techniques de raisonnement.
Jean-Francois Ton, Muhammad Faaiz Taufiq, Yang Liu
― 6 min lire
Découvrez le modèle Mamba 1-bit efficace pour le traitement du langage.
Shengkun Tang, Liqun Ma, Haonan Li
― 8 min lire
Apprends comment le classement par paires aide à choisir le meilleur modèle de langue.
Roland Daynauth, Christopher Clarke, Krisztian Flautner
― 10 min lire
L'auto-attention sélective améliore la compréhension du langage en se concentrant sur les infos clés.
Xuechen Zhang, Xiangyu Chang, Mingchen Li
― 6 min lire
Une nouvelle approche améliore la façon dont on étiquette les données de séquence.
Sean Papay, Roman Klinger, Sebastian Pado
― 8 min lire
Les jeux de données RedPajama visent à améliorer la formation des modèles de langage grâce à la transparence et à des données de qualité.
Maurice Weber, Daniel Fu, Quentin Anthony
― 7 min lire
Une explication claire des composants du modèle de langue et de leurs rôles.
Dawen Zhang, Xiwei Xu, Chen Wang
― 13 min lire
AEN propose une classification de texte efficace avec peu de besoin en traitement.
Stan Loosmore, Alexander Titus
― 15 min lire
Explore comment AnchorAttention améliore l'efficacité dans le traitement des longs textes avec des modèles de langage.
Haonan Wang, Qian Liu, Chao Du
― 6 min lire
Un coup d'œil sur comment le décodage spéculatif améliore les performances des modèles de langage.
Hyun Ryu, Eric Kim
― 7 min lire
Un aperçu de comment les méthodes de pooling impactent BERT et GPT dans l'analyse des sentiments.
Jinming Xing, Ruilin Xing, Yan Sun
― 7 min lire
Cet article parle des méthodes efficaces pour vérifier les connaissances dans les systèmes RAG.
Shenglai Zeng, Jiankun Zhang, Bingheng Li
― 4 min lire
Découvre comment l'augmentation de données peut améliorer les modèles NER dans les domaines à faibles ressources.
Arthur Elwing Torres, Edleno Silva de Moura, Altigran Soares da Silva
― 9 min lire
Comprendre comment les Graphes de Connaissances peuvent réduire les fausses infos dans les réponses de l'IA.
Ernests Lavrinovics, Russa Biswas, Johannes Bjerva
― 7 min lire
Des recherches montrent que des questions originales peuvent améliorer l'entraînement des modèles de langage.
Tingyuan Zhu, Shudong Liu, Yidong Wang
― 6 min lire