Eine neue Methode zur Bewertung von KI-generierten medizinischen Erklärungen mithilfe von Proxy-Aufgaben.
Iker De la Iglesia, Iakes Goenaga, Johanna Ramirez-Romero
― 5 min Lesedauer
Hochmoderne Wissenschaft einfach erklärt
Eine neue Methode zur Bewertung von KI-generierten medizinischen Erklärungen mithilfe von Proxy-Aufgaben.
Iker De la Iglesia, Iakes Goenaga, Johanna Ramirez-Romero
― 5 min Lesedauer
Untersuchen, wie kleinere Modelle mit Ungenauigkeiten von grösseren Modellen kämpfen.
Phil Wee, Riyadh Baghdadi
― 6 min Lesedauer
LLM-Ref hilft Forschern dabei, klarere und gut strukturierte Arbeiten ganz einfach zu erstellen.
Kazi Ahmed Asif Fuad, Lizhong Chen
― 6 min Lesedauer
Erforschen, wie gut KI menschliche Kommunikation versteht.
Mingyue Jian, Siddharth Narayanaswamy
― 6 min Lesedauer
Forschung zeigt neue Methoden, um LLMs besser auf menschliches Feedback abzustimmen.
Zichen Liu, Changyu Chen, Chao Du
― 6 min Lesedauer
Eine Studie vergleicht die Kreativität von Menschen und KI beim Geschichtenerzählen.
Mete Ismayilzada, Claire Stevenson, Lonneke van der Plas
― 7 min Lesedauer
Die Relevanz von Prompt Engineering bei neuen Denkmodellen bewerten.
Guoqing Wang, Zeyu Sun, Zhihao Gong
― 7 min Lesedauer
Ein Blick auf kontextbezogene Datenbanken und ihr Potenzial mit Sprachmodellen.
Yu Pan, Hongfeng Yu, Tianjiao Zhao
― 6 min Lesedauer
Die Rolle von mehrsprachigen Modellen zur Unterstützung von bilingualen Schülern bewerten.
Anand Syamkumar, Nora Tseng, Kaycie Barron
― 6 min Lesedauer
Untersuchung von Schwachstellen in Wasserzeichenverfahren gegen Umschreibungsangriffe.
Saksham Rastogi, Danish Pruthi
― 7 min Lesedauer
Bewertung des Verständnisses von Sprachmodellen für Sprichwörter in ressourcenarmen Sprachen.
Israel Abebe Azime, Atnafu Lambebo Tonja, Tadesse Destaw Belay
― 5 min Lesedauer
Untersuchen, wie Wohlstand Sprachmodelle in Reisenerzählungen beeinflusst.
Kirti Bhagat, Kinshuk Vasisht, Danish Pruthi
― 7 min Lesedauer
Scar verbessert Sprachmodelle, indem es toxische Sprache in der Textgenerierung reduziert.
Ruben Härle, Felix Friedrich, Manuel Brack
― 5 min Lesedauer
Forschung zeigt, dass Variation in der Sprache das Training von Sprachmodellen verbessert.
Akari Haga, Akiyo Fukatsu, Miyu Oba
― 6 min Lesedauer
Untersuche den Einfluss von Frageformaten auf die Leistung von KI-Modellen.
Jia He, Mukund Rungta, David Koleczek
― 5 min Lesedauer
Eine neue Methode, um Leitplanken für grosse Sprachmodelle ohne reale Daten zu entwickeln.
Gabriel Chua, Shing Yee Chan, Shaun Khoo
― 7 min Lesedauer
Eine neue Methode verbessert die Sicherheit des Codes, der von Sprachmodellen erzeugt wird.
Xiangzhe Xu, Zian Su, Jinyao Guo
― 5 min Lesedauer
SpecTool bringt Klarheit in LLM-Fehlern bei der Nutzung von Tools.
Shirley Kokane, Ming Zhu, Tulika Awalgaonkar
― 5 min Lesedauer
Eine Studie zeigt, wie Prompt-Injection Sprachmodelle gefährden kann.
Jiashuo Liang, Guancheng Li, Yang Yu
― 10 min Lesedauer
Diese Studie untersucht, wie gut LLMs Kreativität im Alternativen Nutzungstest bewerten.
Abdullah Al Rabeyah, Fabrício Góes, Marco Volpe
― 5 min Lesedauer
PEFT-Methoden verbessern Sprachmodelle und schützen dabei private Daten.
Olivia Ma, Jonathan Passerat-Palmbach, Dmitrii Usynin
― 7 min Lesedauer
Eine Studie darüber, wie gut Sprachmodelle Fakten ohne Abkürzungen verbinden.
Sohee Yang, Nora Kassner, Elena Gribovskaya
― 7 min Lesedauer
Eine neue Methode für Sprachmodelle, um ihre Antworten durch selbstgenerierte Kritiken zu verbessern.
Yue Yu, Zhengxing Chen, Aston Zhang
― 6 min Lesedauer
Wie sich die Low-Bit-Quantisierung auf grosse Sprachmodelle während des Trainings auswirkt.
Xu Ouyang, Tao Ge, Thomas Hartvigsen
― 7 min Lesedauer
Eine neue Methode automatisiert die Nachrichtenklassifizierung und spart Zeit und Ressourcen für Organisationen.
Taja Kuzman, Nikola Ljubešić
― 5 min Lesedauer
Bewerten, ob Sprachmodelle räumliche Beziehungen effektiv verstehen können.
Anthony G Cohn, Robert E Blackwell
― 6 min Lesedauer
Entdecke, wie man grosse Sprachmodelle verbessern kann, um mit symmetrischen Aufgaben besser umzugehen.
Mohsen Dehghankar, Abolfazl Asudeh
― 8 min Lesedauer
Bewertung der Fähigkeiten von Sprachmodellen bei der Erstellung synthetischer Daten mit AgoraBench.
Seungone Kim, Juyoung Suk, Xiang Yue
― 5 min Lesedauer
Wie Sprachmodelle ihr Verständnis von Grammatik und Satzstrukturen verbessern.
Tian Qin, Naomi Saphra, David Alvarez-Melis
― 8 min Lesedauer
Erforschen, wie Transformer Unsicherheit ausdrücken können, um die Zuverlässigkeit von KI zu verbessern.
Greyson Brothers, Willa Mannering, Amber Tien
― 6 min Lesedauer
Grosse Sprachmodelle sind in manchen Bereichen echt gut, haben aber Schwierigkeiten mit allgemeinen Aufgaben.
Basab Jha, Ujjwal Puri
― 8 min Lesedauer
Entdecke, wie Aktivierungssparsamkeit die Effizienz und Geschwindigkeit von KI steigert.
Vui Seng Chua, Yujie Pan, Nilesh Jain
― 5 min Lesedauer
Erkunde die Verbindungen zwischen Sprachmodellen und physikalischen Phänomenen auf eine interessante Weise.
Yuma Toji, Jun Takahashi, Vwani Roychowdhury
― 9 min Lesedauer
Forscher verbessern die Fähigkeit von KI, komplexe Fragen mit AutoReason zu beantworten.
Arda Sevinc, Abdurrahman Gumus
― 5 min Lesedauer
Forscher gehen Vorurteile in Sprachmodellen für Filipinos an und verbessern die kulturelle Relevanz.
Lance Calvin Lim Gamboa, Mark Lee
― 5 min Lesedauer
Dieser Artikel untersucht die komplexe Rolle des Englischen in mehrsprachigen Bewertungen.
Wessel Poelman, Miryam de Lhoneux
― 7 min Lesedauer
Lern, wie Sloth die Vorhersagen zur Leistung von Sprachmodellen verändert.
Felipe Maia Polo, Seamus Somerstep, Leshem Choshen
― 7 min Lesedauer
BatchTopK spärliche Autoencoder verbessern die Sprachverarbeitung durch clevere Datenauswahl.
Bart Bussmann, Patrick Leask, Neel Nanda
― 5 min Lesedauer
Herausforderungen im Multi-Hop-Fragen-Antworten angehen für bessere KI-Antworten.
George Arthur Baker, Ankush Raut, Sagi Shaier
― 9 min Lesedauer
Das Kombinieren von Sprachmodellen verbessert das Befolgen von Anweisungen bei Chip-Design-Aufgaben.
Chenhui Deng, Yunsheng Bai, Haoxing Ren
― 7 min Lesedauer