Maschinelles Lernen nutzen, um die Analyse von Judo-Wettkämpfen und das Coaching zu verbessern.
Anthony Miyaguchi, Jed Moutahir, Tanmay Sutar
― 8 min Lesedauer
Hochmoderne Wissenschaft einfach erklärt
Maschinelles Lernen nutzen, um die Analyse von Judo-Wettkämpfen und das Coaching zu verbessern.
Anthony Miyaguchi, Jed Moutahir, Tanmay Sutar
― 8 min Lesedauer
Das Manta-Framework verbessert die Aktionskennung mit langen Videosequenzen und lokaler Merkmalsmodellierung.
Wenbo Huang, Jinghui Zhang, Guang Li
― 8 min Lesedauer
Video Curious Agent macht es einfacher, wichtige Momente in langen Videos zu finden.
Zeyuan Yang, Delin Chen, Xueyang Yu
― 7 min Lesedauer
Erfahre, wie neue Methoden die Zeitgenauigkeit in der Videoanalyse verbessern.
Xizi Wang, Feng Cheng, Ziyang Wang
― 5 min Lesedauer
Neurale Netze erschliessen Einsichten in dynamische Prozesse durch Videoanalyse.
Elisa Negrini, Almanzo Jiahe Gao, Abigail Bowering
― 6 min Lesedauer
Ein neues Framework verbessert, wie wir lange Videos effizient verarbeiten.
Sosuke Yamao, Natsuki Miyahara, Yuki Harazono
― 7 min Lesedauer
Entdecke, wie STDD die Aktionserkennung in Videos verbessert.
Yating Yu, Congqi Cao, Yueran Zhang
― 5 min Lesedauer
Lerne, wie Maschinen Videos interpretieren, von lustigen Clips bis hin zu wichtigen Anwendungen.
Katrina Drozdov, Ravid Shwartz-Ziv, Yann LeCun
― 7 min Lesedauer
Neue Techniken verbessern, wie Maschinen Videoszenen erkennen und interpretieren.
Phúc H. Le Khac, Graham Healy, Alan F. Smeaton
― 7 min Lesedauer
Neues Modell erkennt DeepFakes, indem es ganze Videos analysiert, nicht nur Gesichter.
Rohit Kundu, Hao Xiong, Vishal Mohanty
― 6 min Lesedauer
CG-Bench hilft Maschinen, lange Videos besser zu analysieren, indem es hinweisbasierte Fragen stellt.
Guo Chen, Yicheng Liu, Yifei Huang
― 7 min Lesedauer
Eine neue Methode verbessert die Aktionssegmentierung mit weniger detaillierten Informationen.
Elena Bueno-Benito, Mariella Dimiccoli
― 8 min Lesedauer
Entdecke, wie JoVALE das Verständnis von Aktionen in Videos verbessert.
Taein Son, Soo Won Seo, Jisong Kim
― 7 min Lesedauer
Das FriendsQA-Dataset verbessert das Verständnis von Videos, indem es komplexe Fragen aus Friends-Folgen beantwortet.
Zhengqian Wu, Ruizhe Li, Zijun Xu
― 6 min Lesedauer
HVQ ermöglicht eine genaue Aktionssegmentierung in langen Videos ohne beschriftete Daten.
Federico Spurio, Emad Bahrami, Gianpiero Francesca
― 7 min Lesedauer
Maschinen lernen, zukünftige Aktionen in Videos vorherzusagen, was unsere Interaktionen mit Technologie verändert.
Alberto Maté, Mariella Dimiccoli
― 6 min Lesedauer
MVTamperBench bewertet VLMs anhand von Video-Manipulationstechniken für bessere Zuverlässigkeit.
Amit Agarwal, Srikant Panda, Angeline Charles
― 6 min Lesedauer
Neue Forschungsbenchmarks verbessern das Verständnis alltäglicher Interaktionen durch Videos.
Xiaoyang Liu, Boran Wen, Xinpeng Liu
― 6 min Lesedauer
Die LINK-Methode verbessert das Verständnis von Videos, indem sie Audio und Bilder effektiv synchronisiert.
Langyu Wang, Bingke Zhu, Yingying Chen
― 4 min Lesedauer