Neue Modelle verbessern, wie Maschinen menschliche Bewegungen nachahmen.
David Eduardo Moreno-Villamarín, Anna Hilsmann, Peter Eisert
― 7 min Lesedauer
Hochmoderne Wissenschaft einfach erklärt
Neue Modelle verbessern, wie Maschinen menschliche Bewegungen nachahmen.
David Eduardo Moreno-Villamarín, Anna Hilsmann, Peter Eisert
― 7 min Lesedauer
Eine neuartige Methode verbessert die Leistung im Visuellen Fragenbeantworten, indem sie das Lernen strukturiert.
Ahmed Akl, Abdelwahed Khamis, Zhe Wang
― 10 min Lesedauer
Wie menschliche Eigenschaften in Chatbots die Abhängigkeit und Zufriedenheit der Nutzer beeinflussen.
Qiufang Yu, Xingyu Lan
― 5 min Lesedauer
Eine effektive Kommunikation ist der Schlüssel, um die Interaktionen mit KI-Agenten zu verbessern.
Gagan Bansal, Jennifer Wortman Vaughan, Saleema Amershi
― 8 min Lesedauer
Die Rolle von LLMs bei der Extraktion von prozeduralem Wissen aus Texten erkunden.
Valentina Anita Carriero, Antonia Azzini, Ilaria Baroni
― 6 min Lesedauer
Neues Modell ermöglicht es Robotern, Gesten aus 28 Metern Entfernung zu erkennen.
Eran Bamani Beeri, Eden Nissinman, Avishai Sintov
― 8 min Lesedauer
Erforsche, wie Roboter effektiv mit der Action Value Gradient Methode lernen.
Gautham Vasan, Mohamed Elsayed, Alireza Azimi
― 9 min Lesedauer
Eine Studie zeigt, dass Chatbots Schwierigkeiten haben, ihre Persönlichkeiten genau einzuschätzen.
Huiqi Zou, Pengda Wang, Zihan Yan
― 6 min Lesedauer
Bewerten, ob Sprachmodelle räumliche Beziehungen effektiv verstehen können.
Anthony G Cohn, Robert E Blackwell
― 6 min Lesedauer
Das ATTUNE-Modell für bessere Mensch-Roboter-Interaktionen erkunden.
Giannis Petousakis, Angelo Cangelosi, Rustam Stolkin
― 5 min Lesedauer
Lerne, wie Computer menschliche Emotionen durch Gesichtsausdrücke erkennen.
Dylan Waldner, Shyamal Mitra
― 7 min Lesedauer
Forscher wollen das schmarotzende Verhalten in KI-Sprachmodellen reduzieren.
Henry Papadatos, Rachel Freedman
― 7 min Lesedauer
Entdecke, wie die Tiefe der Gespräche und die Themen die AI-Interaktionen beeinflussen.
Junhyuk Choi, Yeseon Hong, Minju Kim
― 6 min Lesedauer
Die Erkundung des Konzepts der Selbstidentität in KI-Systemen.
Minhyeok Lee
― 8 min Lesedauer
Eine Methode, die Spielagenten schlauer macht und das Befolgen von Anweisungen erleichtert.
Guangyu Zhao, Kewei Lian, Haowei Lin
― 5 min Lesedauer
Neue Techniken verbessern die Genauigkeit bei der Erkennung der Kopfposition mit synthetischen Bildern.
Ting-Ruen Wei, Haowei Liu, Huei-Chung Hu
― 7 min Lesedauer
Wie Roboter sich anpassen und im Alltag kommunizieren.
Khairidine Benali, Praminda Caleb-Solly
― 9 min Lesedauer
Neue Methoden verbessern die Genauigkeit der Spracherkennung in Echtzeit erheblich.
Hyeonseung Lee, Ji Won Yoon, Sungsoo Kim
― 5 min Lesedauer
HaGRIDv2 bietet eine Million Bilder, um die Handgesten-Technologie zu verbessern.
Anton Nuzhdin, Alexander Nagaev, Alexander Sautin
― 8 min Lesedauer
DGODE verbessert die Emotionserkennung, indem es Stimme, Text und visuelle Hinweise in Gesprächen kombiniert.
Yuntao Shou, Tao Meng, Wei Ai
― 6 min Lesedauer
Lerne, wie autonome Cyber-Agenten gegen unvorhersehbare digitale Bedrohungen kämpfen.
Ankita Samaddar, Nicholas Potteiger, Xenofon Koutsoukos
― 7 min Lesedauer
TCDSG verbessert die Videoanalyse, indem es die Beziehungen von Objekten über die Zeit verfolgt.
Raphael Ruschel, Md Awsafur Rahman, Hardik Prajapati
― 10 min Lesedauer
Entdecke, wie Maschinen lernen, Audio wie Menschen zu verstehen und zu beschreiben.
Jisheng Bai, Haohe Liu, Mou Wang
― 6 min Lesedauer
Neuer EMG-Controller ermöglicht intuitive Steuerung von Maschinen durch Muskelsignale.
Joel Biju Thomas, Brokoslaw Laschowski
― 7 min Lesedauer
Forscher wollen Robotern beibringen, menschliche Emotionen durch Berührung und Klang zu erkennen.
Qiaoqiao Ren, Remko Proesmans, Frederick Bossuyt
― 8 min Lesedauer
Entdecke, wie aktives Curriculum-Sprachmodellierung das Sprachenlernen für KI revolutioniert.
Xudong Hong, Sharid Loáiciga, Asad Sayeed
― 7 min Lesedauer
Entdecke, wie Verstärkungslernen grosse Sprachmodelle für bessere Interaktionen mit Menschen verfeinert.
Shuhe Wang, Shengyu Zhang, Jie Zhang
― 8 min Lesedauer
Entdecke, wie Roboter Hindernisse umgehen, während sie mit Menschen zusammenarbeiten.
Simone Borelli, Francesco Giovinazzo, Francesco Grella
― 7 min Lesedauer
Roboter lernen, effektiver mit Menschen zusammenzuarbeiten.
Negin Amirshirzad, Mehmet Arda Eren, Erhan Oztop
― 9 min Lesedauer
KI-Sprachagenten bringen Sicherheitsrisiken mit sich, wegen Schwächen in der Verarbeitung von Anweisungen.
Xuying Li, Zhuo Li, Yuji Kosuga
― 7 min Lesedauer
Diese Studie verbessert die Augenblick-Modellierung mit Generativen Adversarialen Netzwerken.
Shailendra Bhandari, Pedro Lencastre, Rujeena Mathema
― 7 min Lesedauer
Entdecke, wie Modelle aus Fehlern im visuellen Denken lernen können.
Jiali Chen, Xusen Hei, Yuqi Xue
― 7 min Lesedauer
Eine Studie zeigt, wie Menschen und KI zusammen in Echtzeit das Gleichgewicht lernen können.
Sheikh Mannan, Nikhil Krishnaswamy
― 8 min Lesedauer
Forscher entwickeln Benchmarks für Vision-Language-Modelle, um über unerwartete Ereignisse in Videos nachzudenken.
Aditya Chinchure, Sahithya Ravi, Raymond Ng
― 7 min Lesedauer
Forscher bringen KI bei, einfache Befehle für Aktionen in der echten Welt zu verstehen.
Harshit Sikchi, Siddhant Agarwal, Pranaya Jajoo
― 7 min Lesedauer
Ein genauer Blick auf die aktuellen Mängel bei der Bewertung von Sprachmodellen.
Sourav Banerjee, Ayushi Agarwal, Eishkaran Singh
― 7 min Lesedauer
Neue Methode hilft Computern, visuelle Entscheidungen klarer zu erklären.
Xingyi Yang, Xinchao Wang
― 7 min Lesedauer
Ein neuer Ansatz verbessert die Fähigkeit von Sprachmodellen, lange Texte zu verarbeiten.
Kaleel Mahmood, Shaoyi Huang
― 5 min Lesedauer
Erforschen, wie wir die moralischen Handlungen und Verantwortungen von KI bewerten.
Aikaterina Manoli, Janet V. T. Pauketat, Jacy Reese Anthis
― 5 min Lesedauer
Lern, wie menschliches Feedback die Antworten von KI-Sprachmodellen beeinflusst.
Zhenyu Hou, Pengfan Du, Yilin Niu
― 8 min Lesedauer