Cette étude utilise des autoencodeurs épars pour interpréter les sorties de la couche d'attention dans les transformers.
― 7 min lire
La science de pointe expliquée simplement
Cette étude utilise des autoencodeurs épars pour interpréter les sorties de la couche d'attention dans les transformers.
― 7 min lire
Les JumpReLU SAEs améliorent la représentation des données tout en restant simples et clairs.
― 8 min lire
Gemma Scope propose des outils pour mieux comprendre les modèles de langage et améliorer la sécurité de l'IA.
― 8 min lire
Une méthode pour améliorer l’efficacité du vecteur de direction dans les modèles linguistiques.
― 6 min lire