Ein System erstellt in Echtzeit Musik basierend auf Erzählungen von Tischrollenspielen.
Felipe Marra, Lucas N. Ferreira
― 8 min Lesedauer
Hochmoderne Wissenschaft einfach erklärt
Ein System erstellt in Echtzeit Musik basierend auf Erzählungen von Tischrollenspielen.
Felipe Marra, Lucas N. Ferreira
― 8 min Lesedauer
Die Stärken, Schwächen und die Zukunft von SLAM-ASR in der Spracherkennung untersuchen.
Shashi Kumar, Iuliia Thorbecke, Sergio Burdisso
― 5 min Lesedauer
Eine neue Methode, um Klangfeldbilder zu klären und zu visualisieren.
Risako Tanigawa, Kenji Ishikawa, Noboru Harada
― 7 min Lesedauer
Ein Projekt verbessert die Spracherkennung für die Malasar-Sprache mit Tamil-Ressourcen.
Leena G Pillai, Kavya Manohar, Basil K Raju
― 5 min Lesedauer
Forscher untersuchen Sprache, um psychische Gesundheitsbewertungen bei Schizophrenie zu verbessern.
Gowtham Premananth, Carol Espy-Wilson
― 8 min Lesedauer
Lern, wie Musiker ihren Rhythmus mit wissenschaftlichen Modellen synchronisieren.
Hugo T. Carvalho, Min S. Li, Massimiliano di Luca
― 6 min Lesedauer
NeKo verbessert die Maschinenkommunikation, indem es Sprach-, Übersetzungs- und Textfehler behebt.
Yen-Ting Lin, Chao-Han Huck Yang, Zhehuai Chen
― 7 min Lesedauer
Entdecke, wie Sound virtuelle Erlebnisse durch akustische Volumenwiedergabe verbessert.
Zitong Lan, Chenhao Zheng, Zhiwei Zheng
― 8 min Lesedauer
Diese Studie nutzt Soundanalyse, um Maschinenfehler effektiv zu identifizieren.
Tito Spadini, Kenji Nose-Filho, Ricardo Suyama
― 6 min Lesedauer
Debatts hilft Nutzern, effektive Gegenargumente für Debatten zu formulieren.
Yiqiao Huang, Yuancheng Wang, Jiaqi Li
― 7 min Lesedauer
Ein neues Modell verbessert effektiv das Identifizieren und Lokalisieren von Geräuschen.
Jinbo Hu, Yin Cao, Ming Wu
― 7 min Lesedauer
AuscultaBase verbessert die Genauigkeit bei der Diagnose von Gesundheitszuständen, indem es verschiedene Körpergeräuschdaten nutzt.
Pingjie Wang, Zihan Zhao, Liudan Zhao
― 4 min Lesedauer
Ein neues Dataset hilft, Musik durch freundlichen Dialog zu finden.
SeungHeon Doh, Keunwoo Choi, Daeyong Kwon
― 7 min Lesedauer
Kombiniere Audioaufnahmen mit Noten für besseres Üben.
Irmak Bukey, Michael Feffer, Chris Donahue
― 6 min Lesedauer
AEROMamba verwandelt minderwertigen Audio in satten, hochauflösenden Sound.
Wallace Abreu, Luiz Wagner Pereira Biscainho
― 6 min Lesedauer
Ein bahnbrechendes Audio-Sprachmodell hilft dabei, Tiergeräusche und Verhaltensweisen zu studieren.
David Robinson, Marius Miron, Masato Hagiwara
― 7 min Lesedauer
Ein KI-Modell für natürliche Gespräche auf Taiwanesisch-Mandarin erstellen.
Chih-Kai Yang, Yu-Kuan Fu, Chen-An Li
― 5 min Lesedauer
Mamba verbessert die Spracherkennung mit Schnelligkeit und Genauigkeit und verändert die Interaktion mit Geräten.
Yoshiki Masuyama, Koichi Miyazaki, Masato Murata
― 4 min Lesedauer
Neue Methode verbessert die Sprachverständlichkeit durch visuelle Informationen aus der Umgebung.
Xinyuan Qian, Jiaran Gao, Yaodan Zhang
― 5 min Lesedauer
Ein Blick darauf, wie sich Sound in dynamischen Umgebungen verhält.
Kathleen MacWilliam, Thomas Dietzen, Randall Ali
― 6 min Lesedauer
Forschung zeigt, wie Gehirnwellen bei stiller Kommunikation helfen können.
Soowon Kim, Ha-Na Jo, Eunyeong Ko
― 6 min Lesedauer
Die Forschung versucht, Gehirnsignale in verschiedene Arten von Sprache zu übersetzen.
Jung-Sun Lee, Ha-Na Jo, Seo-Hyun Lee
― 6 min Lesedauer
Entdecke, wie Geometrie und Frequenz den Sound in Games und Virtual Reality beeinflussen.
Vincent Martin, Isaac Engel, Lorenzo Picinali
― 4 min Lesedauer
Neue Modelle verbessern die Erkennung von gefälschten Stimmen in der Sprachtechnologie.
Yang Xiao, Rohan Kumar Das
― 5 min Lesedauer
Dieses Projekt hat zum Ziel, die Bangla-Dialekte zu standardisieren, damit die Kommunikation klarer wird.
Md. Nazmus Sadat Samin, Jawad Ibn Ahad, Tanjila Ahmed Medha
― 6 min Lesedauer
SAMOS bietet eine neue Möglichkeit, die Sprachqualität zu messen und die Natürlichkeit zu verbessern.
Yu-Fei Shi, Yang Ai, Ye-Xin Lu
― 6 min Lesedauer
Entdecke die faszinierende Wissenschaft hinter den Geräuschen des Einschenkens von Getränken.
Piyush Bagad, Makarand Tapaswi, Cees G. M. Snoek
― 6 min Lesedauer
Ein neues System bewertet Gesangsstimmen anhand von Tonhöhe und Spektrum.
Yu-Fei Shi, Yang Ai, Ye-Xin Lu
― 6 min Lesedauer
Untersuchen, wie unsere Gehirne in verschiedenen Situationen mit Geräuschen und Sprache umgehen.
Akshara Soman, Sai Samrat Kankanala, Sriram Ganapathy
― 6 min Lesedauer
Entdecke, wie Deep Learning Musikempfehlungen beeinflusst.
Aditya Sridhar
― 7 min Lesedauer
Lern, wie Maschinen Geräusche mithilfe von Spektrogramm-Bildern klassifizieren.
Satvik Dixit, Laurie M. Heller, Chris Donahue
― 5 min Lesedauer
Entdecke innovative Methoden zur Audiokompression und ihren Einfluss auf immersiven Sound.
Toni Hirvonen, Mahmoud Namazi
― 5 min Lesedauer
Sprachanalyse könnte helfen, frühe Anzeichen von Depressionen bei jungen Leuten zu erkennen.
Klaus R. Scherer, Felix Burkhardt, Uwe D. Reichel
― 7 min Lesedauer
Neue Tests zielen darauf ab, die Fairness bei TTS-Stimmenbewertungen zu verbessern.
Praveen Srinivasa Varadhan, Amogh Gulati, Ashwin Sankar
― 6 min Lesedauer
Die Forschung konzentriert sich darauf, Computer zu lehren, Musikgespräche zu verstehen.
Daeyong Kwon, SeungHeon Doh, Juhan Nam
― 5 min Lesedauer
Lerne, wie Technologie unsere Stimmen durch die Analyse von Klangwellen interpretiert.
Nirmal Joshua Kapu, Raghav Karan
― 6 min Lesedauer
Tiny-Align verbessert Sprachassistenten für eine bessere persönliche Interaktion auf kleinen Geräten.
Ruiyang Qin, Dancheng Liu, Gelei Xu
― 6 min Lesedauer
FabuLight-ASD verbessert die Sprechererkennung, indem es Audio-, Video- und Körperbewegungsdaten kombiniert.
Hugo Carneiro, Stefan Wermter
― 5 min Lesedauer
Ein frisches Soundsystem erkennt die Klangrichtungen und verbessert die Detektion in lauten Umgebungen.
Erik Tegler, Magnus Oskarsson, Kalle Åström
― 4 min Lesedauer
Entdeck, wie Kommunikation Teamarbeit und Leistung im E-Sport verbessert.
Aymeric Vinot, Nicolas Perez
― 8 min Lesedauer