Esse estudo usa autoencoders esparsos pra interpretar as saídas da camada de atenção em transformers.
― 7 min ler
Ciência de ponta explicada de forma simples
Esse estudo usa autoencoders esparsos pra interpretar as saídas da camada de atenção em transformers.
― 7 min ler
JumpReLU SAEs melhoram a representação dos dados mantendo tudo simples e claro.
― 8 min ler
Gemma Scope oferece ferramentas pra entender melhor os modelos de linguagem e melhorar a segurança da IA.
― 7 min ler
Um método pra melhorar a eficácia do vetor de direcionamento em modelos de linguagem.
― 5 min ler