Esse artigo fala sobre as preocupações com a privacidade ao usar modelos GPT em ambientes de nuvem.
― 5 min ler
Ciência de ponta explicada de forma simples
Esse artigo fala sobre as preocupações com a privacidade ao usar modelos GPT em ambientes de nuvem.
― 5 min ler
A análise de ataques de jailbreak mostra fraquezas na segurança dos modelos de linguagem.
― 6 min ler
LLMs customizados levantam preocupações de segurança, principalmente com ataques de backdoor por instrução.
― 7 min ler
A amostragem diversa aumenta a eficácia do roubo de modelos de machine learning.
― 7 min ler
Um novo framework avalia a eficácia dos classificadores de segurança de imagem contra conteúdo prejudicial.
― 12 min ler
GNNs indutivos enfrentam ameaças de privacidade por causa de ataques de roubo de links.
― 7 min ler
Um novo framework controla o aprendizado em contexto pra evitar o uso indevido em modelos de IA.
― 9 min ler
Analisando as ameaças que os agentes autônomos de modelos de linguagem trazem e suas fraquezas.
― 7 min ler
Analisando os efeitos das atualizações na segurança, viés e autenticidade na geração de imagens.
― 8 min ler
Analisando como pontos de dados importantes atraem mais riscos de segurança em machine learning.
― 7 min ler
Analisando como os modelos SSL memorizam pontos de dados e suas implicações.
― 9 min ler