Um framework pra melhorar a segurança em agentes LLM em várias aplicações.
― 9 min ler
Ciência de ponta explicada de forma simples
Um framework pra melhorar a segurança em agentes LLM em várias aplicações.
― 9 min ler
Um novo método enfrenta ameaças escondidas em grandes modelos de linguagem.
― 8 min ler
Uma olhada nas categorias de risco da IA e na necessidade de políticas unificadas.
― 7 min ler
Um novo método melhora o desempenho dos modelos de linguagem em problemas complexos.
― 6 min ler
Um novo benchmark tem como objetivo avaliar os riscos de segurança da IA de forma eficaz.
― 9 min ler
Um novo método melhora a resistência a manipulações em modelos de linguagem de peso aberto.
― 8 min ler
AutoScale melhora a mistura de dados para um treinamento eficiente de grandes modelos de linguagem.
― 7 min ler
Revolucionando o treinamento de robôs com foco em instruções baseadas em linguagem.
― 6 min ler
Descubra como o "machine unlearning" melhora a segurança da IA e a qualidade das imagens.
― 6 min ler
Novo método permite ataques de backdoor sem dados limpos ou mudanças no modelo.
― 7 min ler