Un aperçu de comment les modèles o1 planifient des actions et leur performance sur différentes tâches.
Kevin Wang, Junbo Li, Neel P. Bhatt
― 9 min lire
La science de pointe expliquée simplement
Un aperçu de comment les modèles o1 planifient des actions et leur performance sur différentes tâches.
Kevin Wang, Junbo Li, Neel P. Bhatt
― 9 min lire
Un aperçu de comment les embeddings de mots sont analysés en utilisant l'analyse en composants indépendants.
Momose Oyama, Hiroaki Yamagiwa, Hidetoshi Shimodaira
― 6 min lire
Une nouvelle méthode pour évaluer les explications médicales générées par l'IA en utilisant des tâches proxy.
Iker De la Iglesia, Iakes Goenaga, Johanna Ramirez-Romero
― 6 min lire
Explorer comment les petits modèles galèrent avec les inexactitudes des plus gros.
Phil Wee, Riyadh Baghdadi
― 7 min lire
LLM-Ref aide les chercheurs à rédiger des papiers plus clairs et bien structurés sans effort.
Kazi Ahmed Asif Fuad, Lizhong Chen
― 7 min lire
Explorer à quel point l'IA comprend la communication humaine.
Mingyue Jian, Siddharth Narayanaswamy
― 7 min lire
Des recherches montrent de nouvelles méthodes pour mieux aligner les LLM avec les retours humains.
Zichen Liu, Changyu Chen, Chao Du
― 7 min lire
Une étude compare la créativité humaine et celle de l'IA dans la narration.
Mete Ismayilzada, Claire Stevenson, Lonneke van der Plas
― 8 min lire
Évaluer la pertinence de l'ingénierie des invites avec les nouveaux modèles de raisonnement.
Guoqing Wang, Zeyu Sun, Zhihao Gong
― 8 min lire
Un aperçu des bases de données contextuelles et leur potentiel avec les modèles de langage.
Yu Pan, Hongfeng Yu, Tianjiao Zhao
― 6 min lire
Évaluer le rôle des modèles multilingues pour aider les étudiants bilingues.
Anand Syamkumar, Nora Tseng, Kaycie Barron
― 7 min lire
Examiner les failles des méthodes de filigrane face aux attaques de paraphrase.
Saksham Rastogi, Danish Pruthi
― 8 min lire
Évaluer la compréhension des modèles linguistiques des proverbes dans les langues à faibles ressources.
Israel Abebe Azime, Atnafu Lambebo Tonja, Tadesse Destaw Belay
― 6 min lire
Enquête sur comment la richesse influence les modèles de langage dans les récits de voyage.
Kirti Bhagat, Kinshuk Vasisht, Danish Pruthi
― 8 min lire
Scar améliore les modèles de langage en réduisant le langage toxique dans la génération de texte.
Ruben Härle, Felix Friedrich, Manuel Brack
― 6 min lire
Des recherches montrent que la variation dans la parole améliore l'entraînement des modèles de langue.
Akari Haga, Akiyo Fukatsu, Miyu Oba
― 6 min lire
Explore l'impact des styles de questions sur la performance des modèles d'IA.
Jia He, Mukund Rungta, David Koleczek
― 6 min lire
Une nouvelle méthode pour développer des barrières pour les grands modèles de langage sans données du monde réel.
Gabriel Chua, Shing Yee Chan, Shaun Khoo
― 8 min lire
Une nouvelle méthode améliore la sécurité du code généré par les modèles de langage.
Xiangzhe Xu, Zian Su, Jinyao Guo
― 6 min lire
SpecTool apporte de la clarté sur les erreurs des LLM en utilisant des outils.
Shirley Kokane, Ming Zhu, Tulika Awalgaonkar
― 5 min lire
Une étude montre comment l'injection de prompts peut compromettre les modèles de langage.
Jiashuo Liang, Guancheng Li, Yang Yu
― 13 min lire
Cette étude examine à quel point les LLM évaluent la créativité dans le Test des Usages Alternatifs.
Abdullah Al Rabeyah, Fabrício Góes, Marco Volpe
― 6 min lire
Les méthodes PEFT améliorent les modèles de langage tout en protégeant les données privées.
Olivia Ma, Jonathan Passerat-Palmbach, Dmitrii Usynin
― 9 min lire
Une étude sur la façon dont les modèles linguistiques relient les faits sans raccourcis.
Sohee Yang, Nora Kassner, Elena Gribovskaya
― 8 min lire
Une nouvelle méthode pour les modèles de langue d'améliorer leurs réponses grâce à des critiques auto-génées.
Yue Yu, Zhengxing Chen, Aston Zhang
― 7 min lire
Comment la quantification à faible bit affecte les grands modèles de langage pendant l'entraînement.
Xu Ouyang, Tao Ge, Thomas Hartvigsen
― 8 min lire
Une nouvelle méthode automatise la classification des actualités, ce qui fait gagner du temps et des ressources aux organisations.
Taja Kuzman, Nikola Ljubešić
― 5 min lire
Évaluer si les modèles de langage peuvent comprendre efficacement les relations spatiales.
Anthony G Cohn, Robert E Blackwell
― 7 min lire
Découvrez comment améliorer les grands modèles de langage pour gérer les tâches symétriques.
Mohsen Dehghankar, Abolfazl Asudeh
― 9 min lire
Évaluer les capacités des modèles de langue dans la création de données synthétiques avec AgoraBench.
Seungone Kim, Juyoung Suk, Xiang Yue
― 7 min lire
Comment les modèles linguistiques améliorent leur compréhension de la grammaire et des structures de phrases.
Tian Qin, Naomi Saphra, David Alvarez-Melis
― 10 min lire
Explorer comment les transformateurs peuvent exprimer l'incertitude pour améliorer la fiabilité de l'IA.
Greyson Brothers, Willa Mannering, Amber Tien
― 7 min lire
Les grands modèles de langage excellent dans certains domaines mais galèrent avec des tâches générales.
Basab Jha, Ujjwal Puri
― 10 min lire
Découvrez comment la sparsité d'activation booste l'efficacité et la vitesse de l'IA.
Vui Seng Chua, Yujie Pan, Nilesh Jain
― 6 min lire
Explore les liens entre les modèles de langage et les phénomènes physiques d'une manière captivante.
Yuma Toji, Jun Takahashi, Vwani Roychowdhury
― 10 min lire
Des chercheurs améliorent la capacité de l'IA à traiter des questions complexes avec AutoReason.
Arda Sevinc, Abdurrahman Gumus
― 6 min lire
Les chercheurs s'attaquent aux biais dans les modèles de langue pour le filipino, améliorant la pertinence culturelle.
Lance Calvin Lim Gamboa, Mark Lee
― 6 min lire
Cet article examine le rôle complexe de l'anglais dans les évaluations multilingues.
Wessel Poelman, Miryam de Lhoneux
― 8 min lire
Découvrez comment Sloth change les prédictions sur la performance des modèles linguistiques.
Felipe Maia Polo, Seamus Somerstep, Leshem Choshen
― 8 min lire
Les autoencodeurs creux BatchTopK améliorent le traitement du langage grâce à une sélection intelligente des données.
Bart Bussmann, Patrick Leask, Neel Nanda
― 5 min lire