Novos testes têm como objetivo melhorar a justiça nas avaliações de vozes de TTS.
Praveen Srinivasa Varadhan, Amogh Gulati, Ashwin Sankar
― 6 min ler
Ciência de ponta explicada de forma simples
Novos testes têm como objetivo melhorar a justiça nas avaliações de vozes de TTS.
Praveen Srinivasa Varadhan, Amogh Gulati, Ashwin Sankar
― 6 min ler
Artigos mais recentes
Daeyong Kwon, SeungHeon Doh, Juhan Nam
― 5 min ler
Ruiyang Qin, Dancheng Liu, Gelei Xu
― 7 min ler
Hugo Carneiro, Stefan Wermter
― 5 min ler
Erik Tegler, Magnus Oskarsson, Kalle Åström
― 5 min ler
Descubra como a comunicação melhora o trabalho em equipe e o desempenho nos esports.
Aymeric Vinot, Nicolas Perez
― 9 min ler
Apresentando o VQalAttent, um modelo mais simples pra gerar fala de máquina realista.
Armani Rodriguez, Silvija Kokalj-Filipovic
― 6 min ler
O conjunto de dados HARP muda a forma como a gente experiencia o som em ambientes virtuais.
Shivam Saini, Jürgen Peissig
― 6 min ler
Pesquisadores melhoram a detecção de fala pra buscas por voz mais rápidas e precisas.
Anup Singh, Kris Demuynck, Vipul Arora
― 6 min ler
Um novo método tem como objetivo detectar a origem de vozes sintéticas.
Matías Pizarro, Mike Laszkiewicz, Dorothea Kolossa
― 7 min ler
Combinando emissão acústica e aprendizado de máquina pra detectar danos estruturais potenciais.
Uditha Muthumala, Yuxuan Zhang, Luciano Sebastian Martinez-Rau
― 8 min ler
Descubra como novas tecnologias transformam imagens em experiências sonoras imersivas.
Wei Guo, Heng Wang, Jianbo Ma
― 7 min ler
Um novo método alcança alta precisão no reconhecimento de voz usando poucos dados.
Irfan Nafiz Shahan, Pulok Ahmed Auvi
― 7 min ler
Revolucionando a criação de som para músicos com opções de efeitos de áudio infinitos.
Alec Wright, Alistair Carson, Lauri Juvela
― 7 min ler
Uma ferramenta que conecta a IA e os insights humanos na análise de música.
Prashanth Thattai Ravikumar
― 7 min ler
Explorando como truques de áudio confundem modelos de linguagem.
Wanqi Yang, Yanda Li, Meng Fang
― 7 min ler
Descubra como o DiM-Gestor melhora os gestos de personagens virtuais em tempo real.
Fan Zhang, Siyuan Zhao, Naye Ji
― 5 min ler
Uma visão geral dos deepfakes, seus riscos e um novo dataset em Hindi.
Sukhandeep Kaur, Mubashir Buhari, Naman Khandelwal
― 7 min ler
Pesquisas mostram como as emoções moldam nossas memórias usando tecnologia inovadora.
Joonwoo Kwon, Heehwan Wang, Jinwoo Lee
― 9 min ler
Um novo sistema de reconhecimento de fala melhora o reconhecimento médico pra um atendimento mais preciso com os pacientes.
Sourav Banerjee, Ayushi Agarwal, Promila Ghosh
― 7 min ler
Descubra como a transferência de estilo musical traz nova vida para suas músicas favoritas.
Sooyoung Kim, Joonwoo Kwon, Heehwan Wang
― 6 min ler
Novos métodos melhoram a separação de fala usando codecs de áudio neurais para uma comunicação mais clara.
Jia Qi Yip, Chin Yuen Kwok, Bin Ma
― 9 min ler
Novo conjunto de dados busca melhorar a compreensão da gagueira em assistentes de voz.
Priyanka Kommagouni, Vamshiraghusimha Narasinga, Purva Barche
― 7 min ler
Um novo método gera fala a partir de vídeos, melhorando a dublagem e o aprendizado de idiomas.
Akshita Gupta, Tatiana Likhomanenko, Karren Dai Yang
― 7 min ler
Novos métodos estão melhorando significativamente a precisão do reconhecimento de fala em tempo real.
Hyeonseung Lee, Ji Won Yoon, Sungsoo Kim
― 5 min ler
Explorando como modelos de ASR ajudam a identificar deepfakes de voz de forma eficaz.
Davide Salvi, Amit Kumar Singh Yadav, Kratika Bhagtani
― 8 min ler
Uma nova abordagem pra identificar Ragas desconhecidos na música indiana usando técnicas avançadas.
Parampreet Singh, Adwik Gupta, Vipul Arora
― 6 min ler
Descubra como os CAMs estão mudando a forma como produzimos e vivenciamos música.
Marco Pasini, Javier Nistal, Stefan Lattner
― 7 min ler
Pesquisadores melhoram o reconhecimento de fala automático usando supervisão de paráfrase pra entender melhor.
Amruta Parulekar, Abhishek Gupta, Sameep Chattopadhyay
― 6 min ler
Novos métodos melhoram o reconhecimento de fala sem perder o conhecimento anterior.
Geoffrey Tyndall, Kurniawati Azizah, Dipta Tanaya
― 6 min ler
Um guia pra aprender uma nova língua de forma eficaz com dicas práticas.
Shih-Heng Wang, Zih-Ching Chen, Jiatong Shi
― 6 min ler
Rastreia os falantes de forma eficiente em ambientes multilíngues usando reconhecimento automático de fala.
Thai-Binh Nguyen, Alexander Waibel
― 7 min ler
Novos métodos melhoram como as máquinas reconhecem a linguagem falada.
Shih-heng Wang, Jiatong Shi, Chien-yu Huang
― 9 min ler
Explorando o mundo da transferência de estilo musical falhada usando gravações de áudio engraçadas.
Chon In Leong, I-Ling Chung, Kin-Fong Chao
― 10 min ler
Descubra como as máquinas estão aprendendo a entender e descrever áudio como os humanos.
Jisheng Bai, Haohe Liu, Mou Wang
― 5 min ler
Pesquisadores desenvolvem técnicas pra adaptar modelos musicais de forma eficaz.
Yiwei Ding, Alexander Lerch
― 5 min ler
Explore como zonas sonoras pessoais transformam as experiências de áudio no dia a dia.
Neil Jerome A. Egarguin, Daniel Onofrei
― 8 min ler
Saiba sobre o CoDiff-VC, um novo método de conversão de voz.
Yuke Li, Xinfa Zhu, Hanzhao Li
― 6 min ler
Melhorando a transcrição de máquina pra entender melhor os distúrbios da fala.
Jiachen Lian, Xuanru Zhou, Zoe Ezzes
― 7 min ler
Descubra como os dados de voz emocionais estão transformando a tecnologia de verificação de fala.
Nikhil Kumar Koditala, Chelsea Jui-Ting Ju, Ruirui Li
― 7 min ler
O PSA-Net pretende combater a falsificação de voz para deixar a segurança dos dispositivos mais esperta.
Awais Khan, Ijaz Ul Haq, Khalid Mahmood Malik
― 6 min ler
Descubra um novo jeito de buscar stems musicais com precisão.
Alain Riou, Antonin Gagneré, Gaëtan Hadjeres
― 6 min ler
A Noro melhora a conversão de voz, tornando-a eficaz até em ambientes barulhentos.
Haorui He, Yuchen Song, Yuancheng Wang
― 7 min ler
A IA tá transformando a produção musical, levantando preocupações sobre criatividade e autenticidade.
Yupei Li, Manuel Milling, Lucia Specia
― 11 min ler
Pesquisa desenvolve uma detecção de voz melhor para falantes não nativos.
Aulia Adila, Candy Olivia Mawalim, Masashi Unoki
― 5 min ler