Las máquinas aprenden a conectar sonido y visuales en espacios 3D.
Artem Sokolov, Swapnil Bhosale, Xiatian Zhu
― 8 minilectura
Ciencia de vanguardia explicada de forma sencilla
Las máquinas aprenden a conectar sonido y visuales en espacios 3D.
Artem Sokolov, Swapnil Bhosale, Xiatian Zhu
― 8 minilectura
Cómo los nuevos métodos están transformando la identificación de hablantes en grabaciones de audio.
Petr Pálka, Federico Landini, Dominik Klement
― 7 minilectura
Los investigadores usan tecnología para visualizar los movimientos de la lengua durante el habla.
Sofiane Azzouz, Pierre-André Vuissoz, Yves Laprie
― 9 minilectura
Explora cómo Align-SLM está cambiando la generación de voz por computadora.
Guan-Ting Lin, Prashanth Gurunath Shivakumar, Aditya Gourav
― 7 minilectura
Descubre cómo TSE mejora el reconocimiento de voz en entornos ruidosos usando señales de texto.
Ziyang Jiang, Xinyuan Qian, Jiahe Lei
― 6 minilectura
Un nuevo sistema detecta gritos para mejorar la seguridad de los trabajadores en los sitios de construcción.
Bikalpa Gautam, Anmol Guragain, Sarthak Giri
― 9 minilectura
Explorando nuevos métodos para reconocer emociones en el habla usando modelos avanzados.
Pourya Jafarzadeh, Amir Mohammad Rostami, Padideh Choobdar
― 9 minilectura
Un nuevo enfoque mejora la evaluación de la calidad del habla al tener en cuenta el ruido de fondo.
Subrina Sultana, Donald S. Williamson
― 6 minilectura
Un sistema nuevo para mezclar samples de audio y ayudar a los creadores de música a innovar fácil.
Christopher Tralie, Ben Cantil
― 6 minilectura
Una mirada a cómo la compresión de rango dinámico mejora las experiencias de audio.
Haoran Sun, Dominique Fourer, Hichem Maaref
― 7 minilectura
Los asistentes de voz ayudan a identificar los primeros signos de problemas de memoria en personas mayores.
Nana Lin, Youxiang Zhu, Xiaohui Liang
― 8 minilectura
Un sistema crea música en tiempo real basada en las narrativas de juegos de rol de mesa.
Felipe Marra, Lucas N. Ferreira
― 9 minilectura
Examinando las fortalezas, debilidades y futuro de SLAM-ASR en el reconocimiento de voz.
Shashi Kumar, Iuliia Thorbecke, Sergio Burdisso
― 5 minilectura
Un nuevo método para aclarar y visualizar imágenes del campo sonoro.
Risako Tanigawa, Kenji Ishikawa, Noboru Harada
― 8 minilectura
Un proyecto mejora el reconocimiento de voz para el idioma Malasar usando recursos en tamil.
Leena G Pillai, Kavya Manohar, Basil K Raju
― 5 minilectura
Los investigadores exploran el habla para mejorar las evaluaciones de salud mental para la esquizofrenia.
Gowtham Premananth, Carol Espy-Wilson
― 9 minilectura
Aprende cómo los músicos sincronizan su ritmo con modelos científicos.
Hugo T. Carvalho, Min S. Li, Massimiliano di Luca
― 6 minilectura
NeKo mejora la comunicación entre máquinas arreglando errores de voz, traducciones y texto.
Yen-Ting Lin, Chao-Han Huck Yang, Zhehuai Chen
― 8 minilectura
Descubre cómo el sonido mejora las experiencias virtuales a través del renderizado acústico.
Zitong Lan, Chenhao Zheng, Zhiwei Zheng
― 9 minilectura
Este estudio usa análisis de sonido para identificar fallos en máquinas de manera efectiva.
Tito Spadini, Kenji Nose-Filho, Ricardo Suyama
― 6 minilectura
Debatts ayuda a los usuarios a crear refutaciones efectivas para debates.
Yiqiao Huang, Yuancheng Wang, Jiaqi Li
― 7 minilectura
Un nuevo modelo mejora la identificación y localización de sonidos de manera efectiva.
Jinbo Hu, Yin Cao, Ming Wu
― 8 minilectura
AuscultaBase mejora la precisión en el diagnóstico de condiciones de salud usando datos de sonidos corporales diversos.
Pingjie Wang, Zihan Zhao, Liudan Zhao
― 4 minilectura
Un nuevo conjunto de datos ayuda a encontrar música a través de diálogos amigables.
SeungHeon Doh, Keunwoo Choi, Daeyong Kwon
― 8 minilectura
Combinando grabaciones de audio con partituras para practicar mejor.
Irmak Bukey, Michael Feffer, Chris Donahue
― 6 minilectura
AEROMamba mejora audio de baja calidad en sonido rico y de alta fidelidad.
Wallace Abreu, Luiz Wagner Pereira Biscainho
― 6 minilectura
Un modelo de audio-lenguaje innovador ayuda a estudiar los sonidos y comportamientos de los animales.
David Robinson, Marius Miron, Masato Hagiwara
― 8 minilectura
Creando un modelo de IA para conversaciones naturales en mandarín taiwanés.
Chih-Kai Yang, Yu-Kuan Fu, Chen-An Li
― 6 minilectura
Mamba mejora el reconocimiento de voz con rapidez y precisión, transformando cómo interactuamos con los dispositivos.
Yoshiki Masuyama, Koichi Miyazaki, Masato Murata
― 5 minilectura
Nuevo método mejora la claridad del habla usando información visual del entorno.
Xinyuan Qian, Jiaran Gao, Yaodan Zhang
― 6 minilectura
Una mirada a cómo se comporta el sonido en entornos dinámicos.
Kathleen MacWilliam, Thomas Dietzen, Randall Ali
― 6 minilectura
La investigación revela cómo las ondas cerebrales pueden ayudar en la comunicación silenciosa.
Soowon Kim, Ha-Na Jo, Eunyeong Ko
― 6 minilectura
La investigación busca traducir las señales del cerebro en varios tipos de habla.
Jung-Sun Lee, Ha-Na Jo, Seo-Hyun Lee
― 7 minilectura
Descubre cómo la geometría y la frecuencia dan forma al sonido en los juegos y la realidad virtual.
Vincent Martin, Isaac Engel, Lorenzo Picinali
― 5 minilectura
Nuevos modelos mejoran la detección de voces falsas en la tecnología del habla.
Yang Xiao, Rohan Kumar Das
― 6 minilectura
Este proyecto tiene como objetivo estandarizar los dialectos del bangla para una comunicación más clara.
Md. Nazmus Sadat Samin, Jawad Ibn Ahad, Tanjila Ahmed Medha
― 7 minilectura
SAMOS ofrece una nueva forma de medir la calidad del habla, mejorando la naturalidad.
Yu-Fei Shi, Yang Ai, Ye-Xin Lu
― 7 minilectura
Explora la fascinante ciencia detrás de los sonidos al servir bebidas.
Piyush Bagad, Makarand Tapaswi, Cees G. M. Snoek
― 6 minilectura
Un nuevo sistema evalúa voces cantantes usando tono y espectro.
Yu-Fei Shi, Yang Ai, Ye-Xin Lu
― 6 minilectura
Examinando cómo nuestros cerebros procesan el sonido y el habla en diferentes situaciones.
Akshara Soman, Sai Samrat Kankanala, Sriram Ganapathy
― 6 minilectura