Este estudio usa autoencoders dispersos para interpretar las salidas de la capa de atención en los transformers.
― 7 minilectura
Ciencia de vanguardia explicada de forma sencilla
Este estudio usa autoencoders dispersos para interpretar las salidas de la capa de atención en los transformers.
― 7 minilectura
JumpReLU SAEs mejoran la representación de datos manteniéndolo simple y claro.
― 8 minilectura
Gemma Scope ofrece herramientas para entender mejor los modelos de lenguaje y mejorar la seguridad de la IA.
― 7 minilectura
Un método para mejorar la efectividad del vector de dirección en modelos de lenguaje.
― 5 minilectura