Um novo sistema ajuda pessoas cegas a entender melhor vídeos curtos.
― 5 min ler
Ciência de ponta explicada de forma simples
Um novo sistema ajuda pessoas cegas a entender melhor vídeos curtos.
― 5 min ler
Abordagens inovadoras estão melhorando o acesso à educação para comunidades carentes.
― 9 min ler
Novas técnicas melhoram os sistemas de ASR para reconhecer melhor discursos longos.
― 5 min ler
A simplificação do texto ajuda a melhorar o acesso à informação para leitores diferentes.
― 6 min ler
Um estudo sobre como tornar imagens científicas acessíveis para quem tem deficiência na visão das cores.
― 7 min ler
Esse projeto melhora a tradução de fala em tempo real e os sistemas automáticos de legendagem.
― 4 min ler
A MAIDR ajuda usuários cegos a acessar visualizações de dados através de som, toque e texto.
― 9 min ler
Explorando os avanços na legendagem automática de áudio e seu impacto na acessibilidade.
― 5 min ler
O Chart4Blind transforma gráficos complicados em formatos acessíveis pra pessoas com deficiência visual.
― 9 min ler
Um olhar sobre como a tecnologia AVQA responde perguntas usando vídeo e áudio.
― 7 min ler
Pesquisas mostram as preferências dos usuários de BLV para acessar vídeos.
― 7 min ler
Um método pra ajudar pessoas com deficiência visual a reconhecer sons na realidade mista.
― 6 min ler
Um novo modelo melhora a eficiência de reconhecimento de fala em tempo real.
― 7 min ler
Nosso modelo gera texto de dica pra melhorar a usabilidade pra usuários com deficiência visual.
― 5 min ler
Novos métodos melhoram a acessibilidade e a precisão na legendagem de áudio.
― 7 min ler
O app RASSAR melhora a segurança e acessibilidade em casa usando tecnologia avançada.
― 5 min ler
Novos métodos têm como objetivo melhorar a comunicação para a comunidade surda.
― 6 min ler
Um método pra melhorar a precisão do reconhecimento de fala em Kannada e Telugu.
― 9 min ler
Uma nova forma de gerar legendas mais informativas para imagens.
― 9 min ler
RALL-E melhora a síntese de texto para fala pra deixar a fala mais clara e natural.
― 6 min ler
Um novo método melhora a clareza e a expressividade na língua de sinais.
― 7 min ler
Apresentando uma nova abordagem pra melhorar a análise de layout de texto em imagens.
― 6 min ler
Aprenda como melhorar os agentes de UI pode criar experiências melhores para os usuários.
― 8 min ler
Um novo método cria legendas diretamente, melhorando a acessibilidade para diferentes públicos.
― 9 min ler
Analisando como a tecnologia pode expressar melhor emoções na comunicação.
― 9 min ler
Novos métodos melhoram como a IA conecta texto e imagens pra resultados melhores.
― 9 min ler
Um estudo revela as frustrações e preferências dos usuários em relação aos CAPTCHAs nos sites.
― 9 min ler
Apresentando um modelo que gera áudio e vídeo sincronizados com níveis de ruído mistos.
― 7 min ler
Esse sistema ajuda pessoas com deficiência visual a fazer compras de forma mais independente usando uma bengala robótica.
― 7 min ler
Um novo método melhora a forma como as máquinas passam informações visuais pras pessoas.
― 7 min ler
Seed-TTS cria uma fala realista a partir de texto para várias aplicações.
― 5 min ler
Um novo método cria legendas de vídeo melhores ao focar em narrativas e causalidade.
― 6 min ler
Uma nova abordagem para legendagem de áudio reduz a dependência de dados pareados.
― 6 min ler
Uma nova abordagem pra prever mudanças na interface de apps móveis com base nas ações dos usuários.
― 6 min ler
Usando som pra tornar dados astronômicos mais acessíveis e interessantes pra todo mundo.
― 9 min ler
Um projeto mistura dança e tecnologia pra expressão criativa.
― 7 min ler
ReadCtrl ajuda modelos de linguagem a combinar melhor a complexidade do texto com as habilidades dos leitores.
― 6 min ler
O GigaSpeech 2 oferece um montão de dados pra línguas de baixo recurso pra melhorar o reconhecimento de fala.
― 6 min ler
Analisando a necessidade de contexto na tradução precisa de linguagem de sinais.
― 7 min ler
Um sistema combina áudio e vídeo pra melhorar a precisão na detecção de falantes.
― 6 min ler