Debatts aiuta gli utenti a creare controargomentazioni efficaci per i dibattiti.
Yiqiao Huang, Yuancheng Wang, Jiaqi Li
― 6 leggere min
Scienza all'avanguardia spiegata semplicemente
Debatts aiuta gli utenti a creare controargomentazioni efficaci per i dibattiti.
Yiqiao Huang, Yuancheng Wang, Jiaqi Li
― 6 leggere min
Un nuovo modello migliora l'identificazione e la localizzazione dei suoni in modo efficace.
Jinbo Hu, Yin Cao, Ming Wu
― 7 leggere min
AuscultaBase migliora l'accuratezza nella diagnosi di condizioni di salute utilizzando diversi dati sui suoni del corpo.
Pingjie Wang, Zihan Zhao, Liudan Zhao
― 4 leggere min
Un nuovo set di dati aiuta a trovare musica attraverso un dialogo amichevole.
SeungHeon Doh, Keunwoo Choi, Daeyong Kwon
― 7 leggere min
Combinare registrazioni audio con spartiti per praticare meglio.
Irmak Bukey, Michael Feffer, Chris Donahue
― 6 leggere min
AEROMamba migliora l'audio di bassa qualità trasformandolo in un suono ricco e ad alta fedeltà.
Wallace Abreu, Luiz Wagner Pereira Biscainho
― 5 leggere min
Un modello audio-linguistico innovativo aiuta a studiare i suoni e i comportamenti degli animali.
David Robinson, Marius Miron, Masato Hagiwara
― 7 leggere min
Creare un modello di intelligenza artificiale per conversazioni naturali in mandarino taiwanese.
Chih-Kai Yang, Yu-Kuan Fu, Chen-An Li
― 5 leggere min
Mamba migliora il riconoscimento vocale con velocità e precisione, cambiando il modo di interagire con i dispositivi.
Yoshiki Masuyama, Koichi Miyazaki, Masato Murata
― 4 leggere min
Un nuovo metodo migliora la chiarezza del parlato usando informazioni visive dall'ambiente circostante.
Xinyuan Qian, Jiaran Gao, Yaodan Zhang
― 5 leggere min
Uno sguardo a come si comporta il suono in ambienti dinamici.
Kathleen MacWilliam, Thomas Dietzen, Randall Ali
― 5 leggere min
La ricerca svela come le onde cerebrali possano aiutare la comunicazione silenziosa.
Soowon Kim, Ha-Na Jo, Eunyeong Ko
― 6 leggere min
La ricerca cerca di tradurre i segnali cerebrali in vari tipi di linguaggio.
Jung-Sun Lee, Ha-Na Jo, Seo-Hyun Lee
― 6 leggere min
Scopri come la geometria e la frequenza plasmano il suono nei giochi e nella realtà virtuale.
Vincent Martin, Isaac Engel, Lorenzo Picinali
― 4 leggere min
Nuovi modelli migliorano il riconoscimento delle voci false nella tecnologia del parlato.
Yang Xiao, Rohan Kumar Das
― 5 leggere min
Questo progetto punta a standardizzare i dialetti bangla per una comunicazione più chiara.
Md. Nazmus Sadat Samin, Jawad Ibn Ahad, Tanjila Ahmed Medha
― 6 leggere min
SAMOS offre un modo nuovo per misurare la qualità del parlato, migliorando la naturalezza.
Yu-Fei Shi, Yang Ai, Ye-Xin Lu
― 6 leggere min
Esplora la scienza affascinante dietro i suoni del versare le bevande.
Piyush Bagad, Makarand Tapaswi, Cees G. M. Snoek
― 5 leggere min
Un nuovo sistema valuta le voci cantate usando il tono e lo spettro.
Yu-Fei Shi, Yang Ai, Ye-Xin Lu
― 6 leggere min
Esaminando come i nostri cervelli elaborano suoni e parole in situazioni diverse.
Akshara Soman, Sai Samrat Kankanala, Sriram Ganapathy
― 5 leggere min
Scopri come il deep learning modifica le raccomandazioni musicali.
Aditya Sridhar
― 7 leggere min
Scopri come le macchine classificano i suoni usando immagini di spettrogrammi.
Satvik Dixit, Laurie M. Heller, Chris Donahue
― 4 leggere min
Scopri metodi innovativi per la compressione audio e il loro impatto sul suono immersivo.
Toni Hirvonen, Mahmoud Namazi
― 5 leggere min
L'analisi della voce potrebbe aiutare a rilevare i segni precoci di depressione nei giovani.
Klaus R. Scherer, Felix Burkhardt, Uwe D. Reichel
― 7 leggere min
Nuovi test puntano a migliorare l'equità nelle valutazioni delle voci TTS.
Praveen Srinivasa Varadhan, Amogh Gulati, Ashwin Sankar
― 6 leggere min
La ricerca si concentra sull'insegnare ai computer a capire le conversazioni sulla musica.
Daeyong Kwon, SeungHeon Doh, Juhan Nam
― 5 leggere min
Scopri come la tecnologia interpreta le nostre voci attraverso l'analisi delle onde sonore.
Nirmal Joshua Kapu, Raghav Karan
― 6 leggere min
Tiny-Align migliora gli assistenti vocali per una migliore interazione personale su dispositivi piccoli.
Ruiyang Qin, Dancheng Liu, Gelei Xu
― 6 leggere min
FabuLight-ASD migliora il riconoscimento degli speaker combinando dati audio, visivi e di movimento del corpo.
Hugo Carneiro, Stefan Wermter
― 5 leggere min
Un nuovo impianto audio identifica le direzioni dei suoni, migliorando il rilevamento in ambienti rumorosi.
Erik Tegler, Magnus Oskarsson, Kalle Åström
― 4 leggere min
Scopri come la comunicazione migliora il lavoro di squadra e le performance negli esports.
Aymeric Vinot, Nicolas Perez
― 8 leggere min
Presentiamo VQalAttent, un modello più semplice per generare discorsi macchina realistici.
Armani Rodriguez, Silvija Kokalj-Filipovic
― 5 leggere min
Il dataset HARP cambia il modo in cui viviamo il suono negli ambienti virtuali.
Shivam Saini, Jürgen Peissig
― 5 leggere min
I ricercatori migliorano il rilevamento vocale per ricerche vocali più veloci e precise.
Anup Singh, Kris Demuynck, Vipul Arora
― 6 leggere min
Un nuovo metodo mira a rilevare l'origine delle voci sintetiche.
Matías Pizarro, Mike Laszkiewicz, Dorothea Kolossa
― 7 leggere min
Combinare emissioni acustiche e machine learning per rilevare potenziali danni strutturali.
Uditha Muthumala, Yuxuan Zhang, Luciano Sebastian Martinez-Rau
― 7 leggere min
Scopri come la nuova tecnologia trasforma le immagini in esperienze sonore immersive.
Wei Guo, Heng Wang, Jianbo Ma
― 7 leggere min
Un nuovo metodo raggiunge un'alta precisione nel riconoscimento vocale usando pochissimi dati.
Irfan Nafiz Shahan, Pulok Ahmed Auvi
― 6 leggere min
Rivoluzionando la creazione del suono per i musicisti con infinite opzioni di effetti audio.
Alec Wright, Alistair Carson, Lauri Juvela
― 7 leggere min
Uno strumento che collega l'IA e le intuizioni umane nell'analisi musicale.
Prashanth Thattai Ravikumar
― 6 leggere min