Découvrez comment le son améliore les expériences virtuelles grâce au rendu acoustique.
Zitong Lan, Chenhao Zheng, Zhiwei Zheng
― 9 min lire
La science de pointe expliquée simplement
Découvrez comment le son améliore les expériences virtuelles grâce au rendu acoustique.
Zitong Lan, Chenhao Zheng, Zhiwei Zheng
― 9 min lire
Cette étude utilise l'analyse sonore pour identifier efficacement les pannes des machines.
Tito Spadini, Kenji Nose-Filho, Ricardo Suyama
― 6 min lire
Un nouveau modèle améliore l'identification et la localisation des sons efficacement.
Jinbo Hu, Yin Cao, Ming Wu
― 8 min lire
AuscultaBase améliore la précision dans le diagnostic des problèmes de santé en utilisant des données de sons corporels variés.
Pingjie Wang, Zihan Zhao, Liudan Zhao
― 5 min lire
ArPA aide les enfants arabophones à améliorer leur prononciation grâce à des activités interactives.
Lamia Berriche, Maha Driss, Areej Ahmed Almuntashri
― 6 min lire
Un nouveau dataset aide à trouver de la musique grâce à des dialogues sympas.
SeungHeon Doh, Keunwoo Choi, Daeyong Kwon
― 9 min lire
Combiner des enregistrements audio avec des partitions pour mieux pratiquer.
Irmak Bukey, Michael Feffer, Chris Donahue
― 7 min lire
AEROMamba transforme l'audio de mauvaise qualité en son riche et de haute fidélité.
Wallace Abreu, Luiz Wagner Pereira Biscainho
― 6 min lire
Un modèle audio-linguistique révolutionnaire aide à étudier les sons et les comportements des animaux.
David Robinson, Marius Miron, Masato Hagiwara
― 8 min lire
Créer un modèle d'IA pour des conversations naturelles en mandarin taïwanais.
Chih-Kai Yang, Yu-Kuan Fu, Chen-An Li
― 6 min lire
Mamba améliore la reconnaissance vocale avec rapidité et précision, redéfinissant l'interaction avec les appareils.
Yoshiki Masuyama, Koichi Miyazaki, Masato Murata
― 5 min lire
Une nouvelle méthode améliore la clarté de la parole en utilisant des infos visuelles de l'environnement.
Xinyuan Qian, Jiaran Gao, Yaodan Zhang
― 6 min lire
Explorer les défis et les implications de la technologie deepfake dans le paysage médiatique d'aujourd'hui.
Ammarah Hashmi, Sahibzada Adil Shahzad, Chia-Wen Lin
― 8 min lire
Des recherches montrent comment les ondes cérébrales peuvent aider à la communication silencieuse.
Soowon Kim, Ha-Na Jo, Eunyeong Ko
― 7 min lire
La recherche cherche à traduire les signaux cérébraux en différents types de discours.
Jung-Sun Lee, Ha-Na Jo, Seo-Hyun Lee
― 7 min lire
De nouveaux modèles améliorent la détection des voix fausses dans la technologie de la parole.
Yang Xiao, Rohan Kumar Das
― 6 min lire
Ce projet vise à standardiser les dialectes bengalis pour une communication plus claire.
Md. Nazmus Sadat Samin, Jawad Ibn Ahad, Tanjila Ahmed Medha
― 7 min lire
SAMOS propose une nouvelle façon de mesurer la qualité de la parole, en améliorant le naturel.
Yu-Fei Shi, Yang Ai, Ye-Xin Lu
― 7 min lire
Explore la science fascinante derrière les sons des boissons versées.
Piyush Bagad, Makarand Tapaswi, Cees G. M. Snoek
― 6 min lire
Un nouveau système évalue les voix chantées en utilisant la hauteur et le spectre.
Yu-Fei Shi, Yang Ai, Ye-Xin Lu
― 7 min lire
Découvrez comment l'apprentissage profond façonne les recommandations musicales.
Aditya Sridhar
― 8 min lire
Apprends comment les machines classifient les sons en utilisant des images de spectrogrammes.
Satvik Dixit, Laurie M. Heller, Chris Donahue
― 5 min lire
Découvrez des méthodes innovantes pour la compression audio et leur impact sur le son immersif.
Toni Hirvonen, Mahmoud Namazi
― 6 min lire
L'analyse vocale pourrait aider à détecter les premiers signes de dépression chez les jeunes.
Klaus R. Scherer, Felix Burkhardt, Uwe D. Reichel
― 8 min lire
De nouveaux tests visent à améliorer l'équité dans les évaluations des voix TTS.
Praveen Srinivasa Varadhan, Amogh Gulati, Ashwin Sankar
― 7 min lire
La recherche se concentre sur l'apprentissage des ordinateurs pour comprendre les conversations sur la musique.
Daeyong Kwon, SeungHeon Doh, Juhan Nam
― 6 min lire
Apprends comment la technologie interprète nos voix grâce à l'analyse des ondes sonores.
Nirmal Joshua Kapu, Raghav Karan
― 7 min lire
Tiny-Align améliore les assistants vocaux pour une meilleure interaction personnelle sur les petits appareils.
Ruiyang Qin, Dancheng Liu, Gelei Xu
― 7 min lire
FabuLight-ASD améliore la détection de la parole en combinant des données audio, visuelles et de mouvement corporel.
Hugo Carneiro, Stefan Wermter
― 6 min lire
Un nouveau système audio identifie les directions sonores, ce qui améliore la détection dans des environnements bruyants.
Erik Tegler, Magnus Oskarsson, Kalle Åström
― 5 min lire
Découvrez comment la communication améliore le travail d'équipe et les performances dans les esports.
Aymeric Vinot, Nicolas Perez
― 9 min lire
Le dataset HARP change notre façon de vivre le son dans les environnements virtuels.
Shivam Saini, Jürgen Peissig
― 6 min lire
Découvrez comment les nouvelles techs transforment les images en expériences sonores immersives.
Wei Guo, Heng Wang, Jianbo Ma
― 8 min lire
Une nouvelle méthode atteint une grande précision dans la reconnaissance vocale en utilisant un minimum de données.
Irfan Nafiz Shahan, Pulok Ahmed Auvi
― 8 min lire
Révolutionner la création sonore pour les musiciens avec des options d'effets audio à l'infini.
Alec Wright, Alistair Carson, Lauri Juvela
― 7 min lire
Un outil qui relie l'IA et les idées humaines dans l'analyse musicale.
Prashanth Thattai Ravikumar
― 7 min lire
Explorer comment des astuces audio perturbent les modèles de langage.
Wanqi Yang, Yanda Li, Meng Fang
― 8 min lire
Découvrez comment DiM-Gestor améliore les gestes des personnages virtuels en temps réel.
Fan Zhang, Siyuan Zhao, Naye Ji
― 5 min lire
Un aperçu des deepfakes, leurs risques et un nouveau dataset en hindi.
Sukhandeep Kaur, Mubashir Buhari, Naman Khandelwal
― 8 min lire
Des recherches montrent comment les émotions influencent nos souvenirs grâce à une technologie innovante.
Joonwoo Kwon, Heehwan Wang, Jinwoo Lee
― 9 min lire