Une étude sur les techniques d'imitation vocale utilisant la technologie pour améliorer la communication.
Matthew Caren, Kartik Chandra, Joshua B. Tenenbaum
― 6 min lire
La science de pointe expliquée simplement
Une étude sur les techniques d'imitation vocale utilisant la technologie pour améliorer la communication.
Matthew Caren, Kartik Chandra, Joshua B. Tenenbaum
― 6 min lire
Un nouveau cadre améliore la capacité des modèles à gérer efficacement les questions liées au temps.
Wanqi Yang, Yanda Li, Meng Fang
― 6 min lire
Examiner comment les robots peuvent vraiment comprendre le langage à travers des expériences du monde réel.
Sara Incao, Carlo Mazzola, Giulia Belgiovine
― 8 min lire
Utiliser le PNL pour documenter et protéger le dialecte Hawrami en danger.
Aram Khaksar, Hossein Hassani
― 7 min lire
Apprends à entraîner des modèles de parole de manière efficace avec moins de ressources étiquetées.
Iuliia Thorbecke, Juan Zuluaga-Gomez, Esaú Villatoro-Tello
― 9 min lire
Une nouvelle approche pour évaluer les benchmarks de l'IA en matière de compréhension culturelle.
Jonathan H. Rystrøm, Kenneth C. Enevoldsen
― 10 min lire
CodeInsight propose un ensemble de données affiné pour générer du code Python avec de vrais exemples.
Nathanaël Beau, Benoît Crabbé
― 10 min lire
Une analyse de la terminologie de genre dans la technologie de la parole et ses implications sociétales.
Ariadna Sanchez, Alice Ross, Nina Markl
― 9 min lire
Présentation de CLIPFit, une méthode pour un ajustement efficace des modèles Vision-Langue.
Ming Li, Jike Zhong, Chenxin Li
― 8 min lire
Examiner l'impact des textes générés par l'IA sur les décisions des investisseurs.
Takehiro Takayanagi, Hiroya Takamura, Kiyoshi Izumi
― 7 min lire
Une étude sur les omissions et les distorsions dans la génération de langage naturel à partir des données RDF.
Juliette Faille, Albert Gatt, Claire Gardent
― 7 min lire
Apprends comment la quantification à faible bit améliore l'efficacité des grands modèles de langage.
Ruihao Gong, Yifu Ding, Zining Wang
― 8 min lire
Une nouvelle méthode améliore la précision des réponses aux questions provenant de tableaux en fusionnant deux systèmes.
Siyue Zhang, Anh Tuan Luu, Chen Zhao
― 10 min lire
SWE2 améliore la détection des discours haineux sur les réseaux sociaux grâce à des techniques avancées.
Guanyi Mou, Pengyi Ye, Kyumin Lee
― 6 min lire
Ce cadre améliore la détection des énoncés contrefactuels en utilisant des modèles neuronaux et des méthodes causales.
Thong Nguyen, Truc-My Nguyen
― 8 min lire
Le modèle CCI améliore la création d'histoires en se concentrant sur les personnages et en s'inspirant des images.
Kyeongman Park, Minbeom Kim, Kyomin Jung
― 10 min lire
Les avancées en IA transforment la création de documents médicaux essentiels.
Justin Xu, Zhihong Chen, Andrew Johnston
― 8 min lire
Cette étude examine comment les gens expriment leurs stratégies d'adaptation à travers le langage dans des situations émotionnelles.
Enrica Troiano, Sofie Labat, Marco Antonio Stranisci
― 7 min lire
SciDFM offre un raisonnement avancé et une compréhension pour la recherche scientifique.
Liangtai Sun, Danyu Luo, Da Ma
― 6 min lire
De nouvelles méthodes se concentrent sur l'analyse du code source pour une meilleure prédiction des défauts.
Hung Viet Pham, Tung Thanh Nguyen
― 9 min lire
Le dataset MultiClimate montre les positions du public sur le changement climatique à travers des vidéos.
Jiawen Wang, Longfei Zuo, Siyao Peng
― 8 min lire
Un aperçu des différentes méthodes pour fusionner des modèles afin d'améliorer la performance du machine learning.
Derek Tam, Yash Kant, Brian Lester
― 11 min lire
Une nouvelle méthode pour créer des distracteurs intéressants dans les évaluations éducatives.
Devrim Cavusoglu, Secil Sen, Ulas Sert
― 7 min lire
Une étude sur la façon dont les modèles suivent les instructions pendant des dialogues complexes.
Elliot L. Epstein, Kaisheng Yao, Jing Li
― 8 min lire
Présentation de LowREm, un outil pour améliorer les embeddings de mots dans les langues sous-représentées.
Daniil Gurgurov, Rishu Kumar, Simon Ostermann
― 7 min lire
Évaluer l'impact des LLM sur la documentation en santé et la sécurité.
Emma Croxford, Yanjun Gao, Nicholas Pellegrino
― 10 min lire
Le projet MultiMed améliore la reconnaissance vocale automatique pour une meilleure communication dans le domaine de la santé.
Khai Le-Duc, Phuc Phan, Tan-Hanh Pham
― 7 min lire
Une étude sur l'amélioration des méthodes de recherche pour des avis divers sur des questions complexes.
Hung-Ting Chen, Eunsol Choi
― 10 min lire
Cet article parle des nouvelles stratégies pour entraîner efficacement des systèmes de traduction vocale.
Belen Alastruey, Gerard I. Gállego, Marta R. Costa-jussà
― 7 min lire
EMOVA améliore l'interaction humain-ordinateur grâce à l'expression émotionnelle.
Kai Chen, Yunhao Gou, Runhui Huang
― 6 min lire
Explorer comment les LLM ont du mal avec les défis de codage complexes.
Yotam Wolf, Binyamin Rothberg, Dorin Shteyman
― 11 min lire
Cette étude évalue la performance des LLM pour répondre à des questions et prédire les propriétés des matériaux.
Hongchen Wang, Kangming Li, Scott Ramsay
― 6 min lire
Cet article explore l'intransitivité et son impact sur la prise de décision dans différents domaines.
Jiuding Duan, Jiyi Li, Yukino Baba
― 6 min lire
Évaluation des performances des LLM sur de longs textes dans cinq langues.
Ameeta Agrawal, Andy Dang, Sina Bagheri Nezhad
― 8 min lire
BEATS améliore la capacité des LLM à résoudre des problèmes de maths de manière claire et précise.
Linzhuang Sun, Hao Liang, Jingxuan Wei
― 7 min lire
Analyser comment le langage inclusif influence les modèles linguistiques dans les tâches de classification de texte.
Andreas Waldis, Joel Birrer, Anne Lauscher
― 9 min lire
PEDRO améliore l'efficacité dans le fine-tuning des grands modèles de langage avec des vecteurs ajustables.
Tianfang Xie, Tianjing Li, Wei Zhu
― 6 min lire
Un nouveau jeu de données pour améliorer les modèles de langage axés sur le texte lié aux affaires.
Siyan Wang, Bradford Levy
― 7 min lire
Une méthode pour améliorer l'alignement des modèles de langage avec les préférences humaines.
Zhixuan Liu, Zhanhui Zhou, Yuanfu Wang
― 6 min lire
Une nouvelle méthode améliore la compréhension des préférences humaines par les modèles de langue.
Jian Li, Haojing Huang, Yujia Zhang
― 6 min lire