AuscultaBase verbessert die Genauigkeit bei der Diagnose von Gesundheitszuständen, indem es verschiedene Körpergeräuschdaten nutzt.
Pingjie Wang, Zihan Zhao, Liudan Zhao
― 4 min Lesedauer
Hochmoderne Wissenschaft einfach erklärt
AuscultaBase verbessert die Genauigkeit bei der Diagnose von Gesundheitszuständen, indem es verschiedene Körpergeräuschdaten nutzt.
Pingjie Wang, Zihan Zhao, Liudan Zhao
― 4 min Lesedauer
ArPA hilft arabischsprechenden Kindern, ihre Aussprache durch interaktive Aktivitäten zu verbessern.
Lamia Berriche, Maha Driss, Areej Ahmed Almuntashri
― 5 min Lesedauer
Ein neues Dataset hilft, Musik durch freundlichen Dialog zu finden.
SeungHeon Doh, Keunwoo Choi, Daeyong Kwon
― 7 min Lesedauer
Kombiniere Audioaufnahmen mit Noten für besseres Üben.
Irmak Bukey, Michael Feffer, Chris Donahue
― 6 min Lesedauer
AEROMamba verwandelt minderwertigen Audio in satten, hochauflösenden Sound.
Wallace Abreu, Luiz Wagner Pereira Biscainho
― 6 min Lesedauer
Ein bahnbrechendes Audio-Sprachmodell hilft dabei, Tiergeräusche und Verhaltensweisen zu studieren.
David Robinson, Marius Miron, Masato Hagiwara
― 7 min Lesedauer
Ein KI-Modell für natürliche Gespräche auf Taiwanesisch-Mandarin erstellen.
Chih-Kai Yang, Yu-Kuan Fu, Chen-An Li
― 5 min Lesedauer
Mamba verbessert die Spracherkennung mit Schnelligkeit und Genauigkeit und verändert die Interaktion mit Geräten.
Yoshiki Masuyama, Koichi Miyazaki, Masato Murata
― 4 min Lesedauer
Neue Methode verbessert die Sprachverständlichkeit durch visuelle Informationen aus der Umgebung.
Xinyuan Qian, Jiaran Gao, Yaodan Zhang
― 5 min Lesedauer
Die Herausforderungen und Auswirkungen von Deepfake-Technologie in der heutigen Medienlandschaft erkunden.
Ammarah Hashmi, Sahibzada Adil Shahzad, Chia-Wen Lin
― 7 min Lesedauer
Forschung zeigt, wie Gehirnwellen bei stiller Kommunikation helfen können.
Soowon Kim, Ha-Na Jo, Eunyeong Ko
― 6 min Lesedauer
Die Forschung versucht, Gehirnsignale in verschiedene Arten von Sprache zu übersetzen.
Jung-Sun Lee, Ha-Na Jo, Seo-Hyun Lee
― 6 min Lesedauer
Neue Modelle verbessern die Erkennung von gefälschten Stimmen in der Sprachtechnologie.
Yang Xiao, Rohan Kumar Das
― 5 min Lesedauer
Dieses Projekt hat zum Ziel, die Bangla-Dialekte zu standardisieren, damit die Kommunikation klarer wird.
Md. Nazmus Sadat Samin, Jawad Ibn Ahad, Tanjila Ahmed Medha
― 6 min Lesedauer
SAMOS bietet eine neue Möglichkeit, die Sprachqualität zu messen und die Natürlichkeit zu verbessern.
Yu-Fei Shi, Yang Ai, Ye-Xin Lu
― 6 min Lesedauer
Entdecke die faszinierende Wissenschaft hinter den Geräuschen des Einschenkens von Getränken.
Piyush Bagad, Makarand Tapaswi, Cees G. M. Snoek
― 6 min Lesedauer
Ein neues System bewertet Gesangsstimmen anhand von Tonhöhe und Spektrum.
Yu-Fei Shi, Yang Ai, Ye-Xin Lu
― 6 min Lesedauer
Entdecke, wie Deep Learning Musikempfehlungen beeinflusst.
Aditya Sridhar
― 7 min Lesedauer
Lern, wie Maschinen Geräusche mithilfe von Spektrogramm-Bildern klassifizieren.
Satvik Dixit, Laurie M. Heller, Chris Donahue
― 5 min Lesedauer
Entdecke innovative Methoden zur Audiokompression und ihren Einfluss auf immersiven Sound.
Toni Hirvonen, Mahmoud Namazi
― 5 min Lesedauer
Sprachanalyse könnte helfen, frühe Anzeichen von Depressionen bei jungen Leuten zu erkennen.
Klaus R. Scherer, Felix Burkhardt, Uwe D. Reichel
― 7 min Lesedauer
Neue Tests zielen darauf ab, die Fairness bei TTS-Stimmenbewertungen zu verbessern.
Praveen Srinivasa Varadhan, Amogh Gulati, Ashwin Sankar
― 6 min Lesedauer
Die Forschung konzentriert sich darauf, Computer zu lehren, Musikgespräche zu verstehen.
Daeyong Kwon, SeungHeon Doh, Juhan Nam
― 5 min Lesedauer
Lerne, wie Technologie unsere Stimmen durch die Analyse von Klangwellen interpretiert.
Nirmal Joshua Kapu, Raghav Karan
― 6 min Lesedauer
Tiny-Align verbessert Sprachassistenten für eine bessere persönliche Interaktion auf kleinen Geräten.
Ruiyang Qin, Dancheng Liu, Gelei Xu
― 6 min Lesedauer
FabuLight-ASD verbessert die Sprechererkennung, indem es Audio-, Video- und Körperbewegungsdaten kombiniert.
Hugo Carneiro, Stefan Wermter
― 5 min Lesedauer
Ein frisches Soundsystem erkennt die Klangrichtungen und verbessert die Detektion in lauten Umgebungen.
Erik Tegler, Magnus Oskarsson, Kalle Åström
― 4 min Lesedauer
Entdeck, wie Kommunikation Teamarbeit und Leistung im E-Sport verbessert.
Aymeric Vinot, Nicolas Perez
― 8 min Lesedauer
Das HARP-Dataset verändert, wie wir Klang in virtuellen Umgebungen erleben.
Shivam Saini, Jürgen Peissig
― 6 min Lesedauer
Lern, wie neue Technik Bilder in fesselnde Klangerlebnisse verwandelt.
Wei Guo, Heng Wang, Jianbo Ma
― 7 min Lesedauer
Eine neue Methode erreicht hohe Genauigkeit bei der Spracherkennung mit minimalen Daten.
Irfan Nafiz Shahan, Pulok Ahmed Auvi
― 7 min Lesedauer
Die Klangschaffung für Musiker revolutionieren mit endlosen Audioeffekten.
Alec Wright, Alistair Carson, Lauri Juvela
― 7 min Lesedauer
Ein Tool, das KI und menschliche Einsichten in der Musikanalyse verbindet.
Prashanth Thattai Ravikumar
― 7 min Lesedauer
Untersuchen, wie Audio-Tricks Sprachmodelle verwirren.
Wanqi Yang, Yanda Li, Meng Fang
― 7 min Lesedauer
Entdecke, wie DiM-Gestor die Gesten virtueller Charaktere in Echtzeit verbessert.
Fan Zhang, Siyuan Zhao, Naye Ji
― 5 min Lesedauer
Ein Überblick über Deepfakes, ihre Risiken und ein neues Hindi-Datenset.
Sukhandeep Kaur, Mubashir Buhari, Naman Khandelwal
― 6 min Lesedauer
Forschung zeigt, wie Emotionen unsere Erinnerungen durch innovative Technologie formen.
Joonwoo Kwon, Heehwan Wang, Jinwoo Lee
― 8 min Lesedauer
Ein neues ASR-System verbessert die medizinische Spracherkennung für eine präzise Patientenversorgung.
Sourav Banerjee, Ayushi Agarwal, Promila Ghosh
― 6 min Lesedauer
Entdecke, wie Musikstil-Transfer deinen Lieblingshits neues Leben einhaucht.
Sooyoung Kim, Joonwoo Kwon, Heehwan Wang
― 5 min Lesedauer
Eine neue Methode erzeugt Sprache aus Videos, was Synchronisation und Sprachenlernen verbessert.
Akshita Gupta, Tatiana Likhomanenko, Karren Dai Yang
― 7 min Lesedauer