Lerne, wie Sprachmodelle In-Context-Lernen nutzen und mit Herausforderungen umgehen.
Shuo Wang, Issei Sato
― 6 min Lesedauer
New Science Research Articles Everyday
Lerne, wie Sprachmodelle In-Context-Lernen nutzen und mit Herausforderungen umgehen.
Shuo Wang, Issei Sato
― 6 min Lesedauer
Entdecke, wie Curriculum Learning mit rauschenden Daten bei der Textgenerierung umgeht.
Kancharla Aditya Hari, Manish Gupta, Vasudeva Varma
― 4 min Lesedauer
Sprachrecognitionstechnik verbessert die Erkennung von Ziffern, besonders in lauten Umgebungen.
Ali Nasr-Esfahani, Mehdi Bekrani, Roozbeh Rajabi
― 5 min Lesedauer
Forscher bringen eine Methode raus, um faktische Fehler in Textzusammenfassungen zu finden.
Onkar Thorat, Philippe Laban, Chien-Sheng Wu
― 4 min Lesedauer
Die Verbesserung der mehrsprachigen ASR-Leistung für Japanisch durch gezieltes Feintuning.
Mark Bajo, Haruka Fukukawa, Ryuji Morita
― 5 min Lesedauer
Eine neue Methode ermöglicht effiziente Trojaner-Angriffe auf Sprachmodelle durch breitere Konzepte.
Keltin Grimes, Marco Christiani, David Shriver
― 6 min Lesedauer
NAVCON hilft Maschinen, Navigationsanweisungen durch Sprache und visuelle Hinweise zu verstehen.
Karan Wanchoo, Xiaoye Zuo, Hannah Gonzalez
― 5 min Lesedauer
Die Möglichkeiten von LLMs erkunden, um Ursache-Wirkungs-Beziehungen zu erkennen.
Nick Huntington-Klein, Eleanor J. Murray
― 6 min Lesedauer
Forschung zeigt, dass KI visuelle Konzepte nur mit Textbeschreibungen lernen kann.
Dasol Choi, Guijin Son, Soo Yong Kim
― 7 min Lesedauer
Die Textgenerierung revolutionieren, indem kleine und grosse Modelle kombiniert werden, um die Leistung zu beschleunigen.
Seungeun Oh, Jinhyuk Kim, Jihong Park
― 7 min Lesedauer
Erforschen, wie Sprachmodelle mit Denkaufgaben umgehen durch generalisierte assoziative Erinnerung.
Ruikang Ni, Da Xiao, Qingye Meng
― 8 min Lesedauer
Verbesserung von Sprachmodellen für Isländisch durch innovative Trainingsmethoden.
Jenny Kunz
― 7 min Lesedauer
LLMs verändern, wie wir Embeddings für KI-Aufgaben erstellen und nutzen.
Chongyang Tao, Tao Shen, Shen Gao
― 5 min Lesedauer
Die Bedeutung der Entwicklung grosser Sprachmodelle in lokalen Sprachen erkunden.
Koshiro Saito, Sakae Mizuki, Masanari Ohi
― 6 min Lesedauer
Lern, wie LLMs die Leistung bei Vorhersagen verbessern, ohne viel Ressourcen zu brauchen.
Xiangjue Dong, Maria Teleki, James Caverlee
― 7 min Lesedauer
Ein neues Modell aus Singapur verbessert das Verständnis von maschineller Sprache.
Muhammad Huzaifah, Geyu Lin, Tianchi Liu
― 7 min Lesedauer
Ein neues Framework hilft Sprachmodellen, präzise Antworten zu generieren.
Seoha Song, Junhyun Lee, Hyeonmok Ko
― 7 min Lesedauer
Innovative Methoden push Sprachmodelle für ressourcenarme Sprachen wie Nepali.
Sharad Duwal, Suraj Prasai, Suresh Manandhar
― 8 min Lesedauer
Neue Methoden verbessern die Bewertung von Sprachmodellen mit menschlich geschriebenen Antworten.
Xinxi Lyu, Yizhong Wang, Hannaneh Hajishirzi
― 8 min Lesedauer
Überprüfung von Datenschutzbedenken im Zusammenhang mit der Nutzung von Sprachmodellen.
Tianchen Zhang, Gururaj Saileshwar, David Lie
― 6 min Lesedauer
Lern, wie man kleine Sprachmodelle effektiv mit praktischen Strategien anpasst.
Aldo Pareja, Nikhil Shivakumar Nayak, Hao Wang
― 7 min Lesedauer
Sind KI-Modelle sicher in ihren Antworten oder haben die einfach Glück?
Yudi Pawitan, Chris Holmes
― 8 min Lesedauer
Entdeck, wie neue Modelle das Sprachenlernen und die Leistung verbessern.
Thomas F Burns, Tomoki Fukai, Christopher J Earls
― 5 min Lesedauer
Lern, wie Multi-Hop QA unsere Fähigkeit verbessert, komplexe Fragen zu beantworten.
Xiangsen Chen, Xuming Hu, Nan Tang
― 5 min Lesedauer
M-ALERT testet Sprachmodelle auf Sicherheit in fünf Sprachen.
Felix Friedrich, Simone Tedeschi, Patrick Schramowski
― 6 min Lesedauer
Eine neue Methode verbessert, wie Maschinen Pronomen genauer übersetzen.
Gongbo Tang, Christian Hardmeier
― 5 min Lesedauer
Hier ist NCVC-slm-1, ein spezielles Sprachmodell für den japanischen Medizinbereich.
Shogo Watanabe
― 6 min Lesedauer
Entdecke, wie CAG die Wissensintegration in Sprachmodellen vereinfacht.
Brian J Chan, Chao-Ting Chen, Jui-Hung Cheng
― 7 min Lesedauer
Eine neue Bibliothek zur Bewertung der KI-Ausrichtung mit menschlichen Standpunkten.
Leon Fröhling, Pietro Bernardelle, Gianluca Demartini
― 7 min Lesedauer
Neue Methoden verbessern die Verarbeitung von Kontext durch grosse Sprachmodelle für bessere Leistung.
Zhisong Zhang, Yan Wang, Xinting Huang
― 6 min Lesedauer
Wie Quantenideen die Sprachinterpretation und maschinelles Lernen beeinflussen.
Kin Ian Lo, Mehrnoosh Sadrzadeh, Shane Mansfield
― 8 min Lesedauer
Eine Studie über den Einsatz von KI zur Erkennung von Hassrede in Hindi und Nepali.
Rushendra Sidibomma, Pransh Patwa, Parth Patwa
― 5 min Lesedauer
Forscher beschäftigen sich mit Halluzinationen in Sprachmodellen, um genaue Antworten zu gewährleisten.
Fabian Ridder, Malte Schilling
― 7 min Lesedauer
Die Hürden, die Sprachmodelle beim Beantworten komplexer Fragen haben.
Jie He, Nan Hu, Wanqiu Long
― 6 min Lesedauer
Entdecke, wie Reversed Attention das Lernen und die Entscheidungsfindung von Sprachmodellen verbessert.
Shahar Katz, Lior Wolf
― 6 min Lesedauer
Forschung verbessert grosse Sprachmodelle mit innovativen Trainingsmethoden.
Dian Yu, Yuheng Zhang, Jiahao Xu
― 8 min Lesedauer
Ein tiefgehender Blick auf die Bedeutung von Mehrwortausdrücken in der Sprachverarbeitung.
Yusuke Ide, Joshua Tanner, Adam Nohejl
― 7 min Lesedauer
Untersuchen, wie Sprachmodelle mit Gedächtnisaufgaben wie dem n-back-Test umgehen.
Xiaoyang Hu, Richard L. Lewis
― 7 min Lesedauer
Ein neues Gedächtnissystem hilft Sprachmodellen, genaue Informationen zu liefern.
Mingda Chen, Yang Li, Karthik Padthe
― 7 min Lesedauer
Entdeck, wie Neuronen das Sprachverständnis in KI formen.
Xin Zhao, Zehui Jiang, Naoki Yoshinaga
― 4 min Lesedauer