PIAST propose une collection unique de musique pour piano pour les chercheurs.
Hayeon Bang, Eunjin Choi, Megan Finch
― 6 min lire
La science de pointe expliquée simplement
PIAST propose une collection unique de musique pour piano pour les chercheurs.
Hayeon Bang, Eunjin Choi, Megan Finch
― 6 min lire
Les machines apprennent à connecter le son et les visuels dans des espaces 3D.
Artem Sokolov, Swapnil Bhosale, Xiatian Zhu
― 8 min lire
Comment de nouvelles méthodes transforment l'identification des locuteurs dans les enregistrements audio.
Petr Pálka, Federico Landini, Dominik Klement
― 7 min lire
Les chercheurs utilisent la technologie pour visualiser les mouvements de la langue pendant qu'on parle.
Sofiane Azzouz, Pierre-André Vuissoz, Yves Laprie
― 10 min lire
Découvrez comment Align-SLM change la génération de la parole par ordinateur.
Guan-Ting Lin, Prashanth Gurunath Shivakumar, Aditya Gourav
― 7 min lire
Apprends comment TSE améliore la reconnaissance vocale dans les environnements bruyants en utilisant des indices textuels.
Ziyang Jiang, Xinyuan Qian, Jiahe Lei
― 6 min lire
Un nouveau système détecte les cris pour améliorer la sécurité des travailleurs sur les chantiers.
Bikalpa Gautam, Anmol Guragain, Sarthak Giri
― 9 min lire
Explorer de nouvelles méthodes pour reconnaître les émotions dans la voix avec des modèles avancés.
Pourya Jafarzadeh, Amir Mohammad Rostami, Padideh Choobdar
― 10 min lire
Une nouvelle approche améliore l'évaluation de la qualité de la parole en prenant en compte le bruit de fond.
Subrina Sultana, Donald S. Williamson
― 7 min lire
Un nouveau système pour mélanger des échantillons audio afin d'aider les créateurs de musique à innover facilement.
Christopher Tralie, Ben Cantil
― 6 min lire
Un aperçu de comment la compression de la plage dynamique améliore les expériences audio.
Haoran Sun, Dominique Fourer, Hichem Maaref
― 7 min lire
Les assistants vocaux aident à repérer les premiers signes de problèmes de mémoire chez les personnes âgées.
Nana Lin, Youxiang Zhu, Xiaohui Liang
― 9 min lire
Un système crée de la musique en temps réel basée sur des récits de jeux de rôle sur table.
Felipe Marra, Lucas N. Ferreira
― 8 min lire
Examiner les forces, faiblesses et l'avenir de SLAM-ASR dans la reconnaissance vocale.
Shashi Kumar, Iuliia Thorbecke, Sergio Burdisso
― 6 min lire
Une nouvelle méthode pour clarifier et visualiser des images de champ sonore.
Risako Tanigawa, Kenji Ishikawa, Noboru Harada
― 8 min lire
Un projet améliore la reconnaissance vocale pour la langue Malasar en utilisant des ressources tamoules.
Leena G Pillai, Kavya Manohar, Basil K Raju
― 6 min lire
Des chercheurs étudient la parole pour améliorer les évaluations de santé mentale pour la schizophrénie.
Gowtham Premananth, Carol Espy-Wilson
― 10 min lire
Apprends comment les musiciens synchronisent leur timing avec des modèles scientifiques.
Hugo T. Carvalho, Min S. Li, Massimiliano di Luca
― 6 min lire
NeKo améliore la communication entre machines en corrigeant les erreurs de parole, de traduction et de texte.
Yen-Ting Lin, Chao-Han Huck Yang, Zhehuai Chen
― 8 min lire
Découvrez comment le son améliore les expériences virtuelles grâce au rendu acoustique.
Zitong Lan, Chenhao Zheng, Zhiwei Zheng
― 9 min lire
Cette étude utilise l'analyse sonore pour identifier efficacement les pannes des machines.
Tito Spadini, Kenji Nose-Filho, Ricardo Suyama
― 6 min lire
Debatts aide les utilisateurs à créer des contre-arguments efficaces pour les débats.
Yiqiao Huang, Yuancheng Wang, Jiaqi Li
― 8 min lire
Un nouveau modèle améliore l'identification et la localisation des sons efficacement.
Jinbo Hu, Yin Cao, Ming Wu
― 8 min lire
AuscultaBase améliore la précision dans le diagnostic des problèmes de santé en utilisant des données de sons corporels variés.
Pingjie Wang, Zihan Zhao, Liudan Zhao
― 5 min lire
Un nouveau dataset aide à trouver de la musique grâce à des dialogues sympas.
SeungHeon Doh, Keunwoo Choi, Daeyong Kwon
― 9 min lire
Combiner des enregistrements audio avec des partitions pour mieux pratiquer.
Irmak Bukey, Michael Feffer, Chris Donahue
― 7 min lire
AEROMamba transforme l'audio de mauvaise qualité en son riche et de haute fidélité.
Wallace Abreu, Luiz Wagner Pereira Biscainho
― 6 min lire
Un modèle audio-linguistique révolutionnaire aide à étudier les sons et les comportements des animaux.
David Robinson, Marius Miron, Masato Hagiwara
― 8 min lire
Créer un modèle d'IA pour des conversations naturelles en mandarin taïwanais.
Chih-Kai Yang, Yu-Kuan Fu, Chen-An Li
― 6 min lire
Mamba améliore la reconnaissance vocale avec rapidité et précision, redéfinissant l'interaction avec les appareils.
Yoshiki Masuyama, Koichi Miyazaki, Masato Murata
― 5 min lire
Une nouvelle méthode améliore la clarté de la parole en utilisant des infos visuelles de l'environnement.
Xinyuan Qian, Jiaran Gao, Yaodan Zhang
― 6 min lire
Un aperçu de comment le son se comporte dans des environnements dynamiques.
Kathleen MacWilliam, Thomas Dietzen, Randall Ali
― 6 min lire
Des recherches montrent comment les ondes cérébrales peuvent aider à la communication silencieuse.
Soowon Kim, Ha-Na Jo, Eunyeong Ko
― 7 min lire
La recherche cherche à traduire les signaux cérébraux en différents types de discours.
Jung-Sun Lee, Ha-Na Jo, Seo-Hyun Lee
― 7 min lire
Découvrez comment la géométrie et la fréquence façonnent le son dans les jeux et la réalité virtuelle.
Vincent Martin, Isaac Engel, Lorenzo Picinali
― 5 min lire
De nouveaux modèles améliorent la détection des voix fausses dans la technologie de la parole.
Yang Xiao, Rohan Kumar Das
― 6 min lire
Ce projet vise à standardiser les dialectes bengalis pour une communication plus claire.
Md. Nazmus Sadat Samin, Jawad Ibn Ahad, Tanjila Ahmed Medha
― 7 min lire
SAMOS propose une nouvelle façon de mesurer la qualité de la parole, en améliorant le naturel.
Yu-Fei Shi, Yang Ai, Ye-Xin Lu
― 7 min lire
Explore la science fascinante derrière les sons des boissons versées.
Piyush Bagad, Makarand Tapaswi, Cees G. M. Snoek
― 6 min lire
Un nouveau système évalue les voix chantées en utilisant la hauteur et le spectre.
Yu-Fei Shi, Yang Ai, Ye-Xin Lu
― 7 min lire