Neue Methoden verbessern, wie maschinelles Lernen mit verrauschten Daten umgeht.
― 6 min Lesedauer
Hochmoderne Wissenschaft einfach erklärt
Neue Methoden verbessern, wie maschinelles Lernen mit verrauschten Daten umgeht.
― 6 min Lesedauer
Eine Untersuchung, wie CoT-Prompting das Verhalten und die Leistung von Sprachmodellen beeinflusst.
― 6 min Lesedauer
Wir stellen Verifizierbarkeitsanpassung vor für klarere und vertrauenswürdige KI-Erklärungen.
― 7 min Lesedauer
Umgang mit Datenschutzrisiken, während man wertvolle Einblicke aus Machine-Learning-Modellen liefert.
― 6 min Lesedauer
Eine neue Methode verbessert die Sicherheit von Sprachmodellen gegen schädliche Eingaben.
― 5 min Lesedauer
Untersuchen, wie robuste Machine-Learning-Modelle die Effektivität von Erklärungen beeinflussen.
― 8 min Lesedauer
Die Herausforderungen von Selbst-Erklärungen bei grossen Sprachmodellen untersuchen.
― 6 min Lesedauer
SpLiCE hilft, die dichten Daten von CLIP zu klären, damit man sie besser versteht.
― 6 min Lesedauer
Bewertung, wie Datenvergiftung die Methoden zur Evaluierung von Politiken beeinflusst.
― 6 min Lesedauer
Das Verständnis von KI-Entscheidungen ist wichtig für Vertrauen und ethischen Gebrauch.
― 6 min Lesedauer
Die Wirksamkeit von Argumentation in grossen Sprachmodellen untersuchen.
― 8 min Lesedauer
Vorschriften leiten die sichere und faire Nutzung von KI-Technologien in verschiedenen Sektoren.
― 8 min Lesedauer
Forschung zeigt, dass es Ähnlichkeiten in den internen Darstellungen von Bildmodellen gibt.
― 6 min Lesedauer
Die Überprüfung von Datenschutzrisiken bei Modellerklärungen und Strategien zur Verbesserung der Sicherheit.
― 8 min Lesedauer
Eine Methode, um die Vorlieben der Nutzer für die Anpassung von Machine-Learning-Ergebnissen zu verstehen.
― 6 min Lesedauer
Ein einfacher Blick auf grosse Sprachmodelle und wie sie funktionieren.
― 5 min Lesedauer
Untersuchen, wie Feintuning das Denken in Sprachmodellen beeinflusst.
― 8 min Lesedauer