Eine neue Methode verfolgt das Lernen von Schülern über Gespräche mit KI-Tutoren.
Alexander Scarlatos, Andrew Lan
― 7 min Lesedauer
Hochmoderne Wissenschaft einfach erklärt
Eine neue Methode verfolgt das Lernen von Schülern über Gespräche mit KI-Tutoren.
Alexander Scarlatos, Andrew Lan
― 7 min Lesedauer
Die Übersetzungsgenauigkeit von natürlicher Sprache in Aussagenlogik verbessern.
Ramya Keerthy Thatikonda, Jiuzhou Han, Wray Buntine
― 6 min Lesedauer
Wir stellen FMDLlama vor, ein Sprachmodell zur Erkennung falscher Finanzinformationen.
Zhiwei Liu, Xin Zhang, Kailai Yang
― 6 min Lesedauer
Ein neues Tagging-System verbessert die Erkennung von diskontinuierlichen benannten Entitäten.
Caio Corro
― 6 min Lesedauer
Das EuroLLM-Projekt hat das Ziel, vielfältige Sprachmodelle für eine bessere Kommunikation in Europa zu entwickeln.
Pedro Henrique Martins, Patrick Fernandes, João Alves
― 5 min Lesedauer
Diese Forschung untersucht die Rolle von LLMs bei der Verbesserung der Datenaus extraction und Interaktion.
Omar Mussa, Omer Rana, Benoît Goossens
― 7 min Lesedauer
Die Qualität von KI-generierten Notizen für bessere medizinische Dokumentation bewerten.
Jon Oleson
― 6 min Lesedauer
Eine neue ASR-Methode hilft der Technik, die Sprache von Kindern besser zu verstehen.
Zhonghao Shi, Harshvardhan Srivastava, Xuan Shi
― 5 min Lesedauer
Lern, wie LoRA-LEGO Modelle vereint, um Aufgaben besser zu meistern.
Ziyu Zhao, Tao Shen, Didi Zhu
― 6 min Lesedauer
Untersuche die Datenschutzbedenken rund um Membership-Inference-Angriffe im maschinellen Lernen.
Hongyan Chang, Ali Shahin Shamsabadi, Kleomenis Katevas
― 6 min Lesedauer
Bewertung verbessern mit der Item-Response-Theorie für besseres Sprachenlernen.
Jue Hou, Anisia Katinskaia, Anh-Duc Vu
― 8 min Lesedauer
Eine Studie zu Datensätzen und Metriken in der Frage-Antwort-Forschung.
Jamshid Mozafari, Abdelrahman Abdallah, Bhawna Piryani
― 4 min Lesedauer
Märkte verbinden, um die Beantwortung produktbezogener Fragen zu verbessern.
Yifei Yuan, Yang Deng, Anders Søgaard
― 6 min Lesedauer
Untersuchung der Auswirkungen von kognitiven Verzerrungen auf Bewertungen von Sprachmodellen und Entscheidungsfindungen.
Nuo Chen, Jiqun Liu, Xiaoyu Dong
― 6 min Lesedauer
Eine neue Auktionsmethode verbessert die Effizienz bei der Sammlung von Präferenzdaten für KI-Modelle.
Guoxi Zhang, Jiuding Duan
― 6 min Lesedauer
Eine neue Methode verbessert die Texteinschätzung, indem sie weiche Wahrscheinlichkeiten für mehr Genauigkeit nutzt.
Vatsal Raina, Adian Liusie, Mark Gales
― 6 min Lesedauer
Analysieren, wie Musik Geschlechterwahrnehmungen durch Texte widerspiegelt und formt.
Danqing Chen, Adithi Satish, Rasul Khanbayov
― 6 min Lesedauer
Eine neue Methode zur Bewertung von KI-Agenten im Kundenservice durch Testgenerierung.
Samuel Arcadinho, David Aparicio, Mariana Almeida
― 5 min Lesedauer
Dieses Papier stellt ein Framework zur Verbesserung der NER in der italienischen Sprache mit fortgeschrittenen Modellen vor.
Andrew Zamai, Leonardo Rigutini, Marco Maggini
― 6 min Lesedauer
Eine neue Methode verbessert die Vorhersage der Forschungsrelevanz mithilfe von Wortembeddings.
Lucie Dvorackova, Marcin P. Joachimiak, Michal Cerny
― 7 min Lesedauer
Eine neue Methode, die Wissensgraphen nutzt, um genaue Antworten auf einfache Fragen zu liefern.
Maria Lysyuk, Mikhail Salnikov, Pavel Braslavski
― 6 min Lesedauer
Ein neuer Massstab bewertet, wie gut KI-Modelle menschliche Sprache nachahmen.
Xufeng Duan, Bei Xiao, Xuemei Tang
― 5 min Lesedauer
Dieser Benchmark bewertet Datenschutzbedrohungen und Abwehrmechanismen in NLP-Modellen.
Wei Huang, Yinggui Wang, Cen Chen
― 9 min Lesedauer
Eine anpassungsfähige Methode zur Verfolgung der Nutzerbedürfnisse in Dialogsystemen vorstellen.
Abdulfattah Safa, Gözde Gül Şahin
― 7 min Lesedauer
Diese Studie zeigt, wie Neuronen mit bestimmten Sprachaufgaben in GPT-2-XL zusammenhängen.
Xufeng Duan, Xinyu Zhou, Bei Xiao
― 6 min Lesedauer
Diese Studie zeigt, wie LLMs ihr Lernen durch Aufmerksamkeitsmuster anpassen.
Yang Zhao, Li Du, Xiao Ding
― 7 min Lesedauer
Kleine Sprachmodelle verändern, wie Technologie in Alltagsgeräten funktioniert.
Zhenyan Lu, Xiang Li, Dongqi Cai
― 7 min Lesedauer
Ein Blick darauf, wie KI Online-Betrug erkennt und analysiert.
Antonis Papasavva, Shane Johnson, Ed Lowther
― 9 min Lesedauer
DiaSynth erstellt hochwertige Dialoge für ein effektives Training von Konversationssystemen.
Sathya Krishnan Suresh, Wu Mengjun, Tushar Pranav
― 6 min Lesedauer
Ein neues Framework verbessert die Erkennung von falschen Ausgaben in Sprachmodellen mit unbeschrifteten Daten.
Xuefeng Du, Chaowei Xiao, Yixuan Li
― 5 min Lesedauer
Eine neue Methode verbessert die Leistung von LLMs und reduziert gleichzeitig die Komplexität.
Gongfan Fang, Hongxu Yin, Saurav Muralidharan
― 7 min Lesedauer
Dieses Framework verbessert die Modellleistung, indem es sich mit niedrigqualitativen augmentierten Daten auseinandersetzt.
Guanyi Mou, Yichuan Li, Kyumin Lee
― 6 min Lesedauer
Die Bedeutung von Ethik in der Forschung zu Hassrede-Erkennung erkunden.
Sidney Gig-Jan Wong
― 7 min Lesedauer
Die Fallstricke von Sprachmodellen bei der Dateninterpretation erkunden.
Yuqing Zhou, Ruixiang Tang, Ziyu Yao
― 6 min Lesedauer
Wir verbessern die Direkte Präferenzoptimierung, um besser mit Unentschieden bei Entscheidungen umzugehen.
Jinghong Chen, Guangyu Yang, Weizhe Lin
― 7 min Lesedauer
Eine Methode, um die Effizienz von Sprachmodellen mit langen Texteingaben zu verbessern.
Zhenmei Shi, Yifei Ming, Xuan-Phi Nguyen
― 6 min Lesedauer
Neue Methode verbessert das Wissen von Sprachmodellen aus begrenzten Daten.
Zitong Yang, Neil Band, Shuangping Li
― 7 min Lesedauer
Forschung über LLMs in mehrsprachigen psychischen Gesundheitssettings zeigt Erfolge und Herausforderungen.
Konstantinos Skianis, John Pavlopoulos, A. Seza Doğruöz
― 6 min Lesedauer
Eine neue Methode verbessert die Vorhersagen von Spracheigenschaften mithilfe von Textdaten.
Hamidreza Amirzadeh, Sadegh Jafari, Anika Harju
― 6 min Lesedauer
Eine neue Methode verbessert die Sprachinteraktionen, indem sie Erkennungs- und Antwortprozesse integriert.
Robin Shing-Hei Yuen, Timothy Tin-Long Tse, Jian Zhu
― 5 min Lesedauer