Aprenda como técnicas que percebem movimento melhoram a geração de gráficos de cena em vídeos.
Thong Thanh Nguyen, Xiaobao Wu, Yi Bin
― 7 min ler
Ciência de ponta explicada de forma simples
Aprenda como técnicas que percebem movimento melhoram a geração de gráficos de cena em vídeos.
Thong Thanh Nguyen, Xiaobao Wu, Yi Bin
― 7 min ler
Usando aprendizado de máquina pra melhorar a análise e o treinamento de judô.
Anthony Miyaguchi, Jed Moutahir, Tanmay Sutar
― 9 min ler
O framework Manta melhora o reconhecimento de ações usando longas sequências de vídeo e modelagem de características locais.
Wenbo Huang, Jinghui Zhang, Guang Li
― 9 min ler
O Video Curious Agent facilita encontrar os momentos chave em vídeos longos.
Zeyuan Yang, Delin Chen, Xueyang Yu
― 7 min ler
Aprenda como novos métodos melhoram a precisão de tempo na análise de vídeo.
Xizi Wang, Feng Cheng, Ziyang Wang
― 5 min ler
Redes neurais desbloqueiam insights sobre processos dinâmicos através da análise de vídeo.
Elisa Negrini, Almanzo Jiahe Gao, Abigail Bowering
― 6 min ler
Uma nova estrutura melhora como processamos vídeos longos de forma eficiente.
Sosuke Yamao, Natsuki Miyahara, Yuki Harazono
― 8 min ler
Descubra como o STDD melhora o reconhecimento de ações em vídeos.
Yating Yu, Congqi Cao, Yueran Zhang
― 6 min ler
Aprenda como as máquinas interpretam vídeos, desde clipes divertidos até aplicações críticas.
Katrina Drozdov, Ravid Shwartz-Ziv, Yann LeCun
― 8 min ler
Novas técnicas melhoram como as máquinas reconhecem e interpretam cenas de vídeo.
Phúc H. Le Khac, Graham Healy, Alan F. Smeaton
― 8 min ler
Novo modelo identifica DeepFakes analisando vídeos inteiros, não só rostos.
Rohit Kundu, Hao Xiong, Vishal Mohanty
― 6 min ler
CG-Bench ajuda máquinas a analisar vídeos longos melhor com perguntas baseadas em dicas.
Guo Chen, Yicheng Liu, Yifei Huang
― 7 min ler
Um novo método melhora a segmentação de ações usando informações menos detalhadas.
Elena Bueno-Benito, Mariella Dimiccoli
― 9 min ler
Descubra como o JoVALE melhora a compreensão das ações em vídeos.
Taein Son, Soo Won Seo, Jisong Kim
― 8 min ler
O dataset FriendsQA melhora a compreensão de vídeos respondendo a perguntas complexas dos episódios de Friends.
Zhengqian Wu, Ruizhe Li, Zijun Xu
― 7 min ler
HVQ permite segmentação precisa de ações em vídeos longos sem dados rotulados.
Federico Spurio, Emad Bahrami, Gianpiero Francesca
― 7 min ler
As máquinas tão aprendendo a prever ações futuras em vídeos, mudando a nossa interação com a tecnologia.
Alberto Maté, Mariella Dimiccoli
― 7 min ler
O MVTamperBench avalia VLMs em relação a técnicas de manipulação de vídeo para melhorar a confiabilidade.
Amit Agarwal, Srikant Panda, Angeline Charles
― 6 min ler
Novas pesquisas estabelecem referências que melhoram a compreensão das interações do dia a dia por meio de vídeos.
Xiaoyang Liu, Boran Wen, Xinpeng Liu
― 7 min ler
O método LINK melhora a compreensão dos vídeos ao sincronizar áudio e visuais de forma eficaz.
Langyu Wang, Bingke Zhu, Yingying Chen
― 5 min ler