Descobrindo os riscos que os ataques de backdoor trazem para sistemas inteligentes.
― 6 min ler
Ciência de ponta explicada de forma simples
Descobrindo os riscos que os ataques de backdoor trazem para sistemas inteligentes.
― 6 min ler
Novos métodos como o PromptFix ajudam a proteger modelos de linguagem de ameaças ocultas.
― 6 min ler
Apresentando um método pra avaliar a resiliência de modelos contra ataques de envenenamento de dados.
― 8 min ler
Explorando vulnerabilidades no Aprendizado Federado Personalizado e novas formas de ataque por backdoor.
― 7 min ler
Novo método foca em mudanças de ritmo para ataques de fala discretos.
― 6 min ler
Este artigo explora o impacto da contaminação de dados no alinhamento de modelos de linguagem.
― 7 min ler
Aprenda como ataques de backdoor ameaçam sistemas de aprendizado de máquina e métodos para se defender deles.
― 7 min ler
Uma nova estratégia de defesa para LLMs contra ataques de backdoor.
― 6 min ler
Um novo método enfrenta ameaças escondidas em grandes modelos de linguagem.
― 8 min ler
Examinando riscos e defesas contra ataques de backdoor em modelos de IA.
― 8 min ler
Explorando ataques de backdoor e métodos de redução de grafo em GNNs.
― 6 min ler
Venomancer é um ataque sorrateiro de backdoor em sistemas de aprendizado federado.
― 6 min ler
Um novo método de defesa pra aumentar a segurança em modelos de difusão de texto pra imagem.
― 5 min ler
As preocupações aumentam sobre ataques por trás das cortinas em modelos de linguagem, afetando a segurança e a confiabilidade.
― 7 min ler
Analisando vulnerabilidades em modelos de linguagem clínica e como isso afeta a segurança dos pacientes.
― 8 min ler
Novos métodos têm como objetivo proteger modelos de aprendizado de máquina contra ameaças de backdoor.
― 5 min ler
Novos modelos ajudam os desenvolvedores, mas ataques de backdoor representam sérios riscos de segurança.
― 10 min ler
Uma nova abordagem pra aumentar a segurança no aprendizado federado contra ataques de backdoor.
― 6 min ler
Um novo método melhora a segurança dos modelos de aprendizado profundo contra ameaças ocultas.
― 8 min ler
Um novo método tem como objetivo proteger o aprendizado semi-supervisionado contra ameaças de backdoor.
― 7 min ler
Esse artigo fala sobre como proteger GNNs de envenenamento de dados e ataques de backdoor.
― 9 min ler
Analisando técnicas eficazes de ataque backdoor com rótulo limpo em aprendizado de máquina.
― 8 min ler
Analisando as vulnerabilidades e possíveis ataques na tecnologia NeRF.
― 6 min ler
Este artigo analisa ataques de backdoor e suas implicações na segurança de machine learning.
― 7 min ler
Este estudo analisa a eficácia de ataques físicos de porta dos fundos com rótulo limpo em redes neurais profundas.
― 6 min ler
Esse artigo discute um método pra introduzir backdoors em redes neurais durante o treinamento.
― 6 min ler
Uma olhada nas fraquezas dos LLMs e estratégias pra melhorar.
― 9 min ler
Analisando como pistas emocionais podem sabotar a tecnologia de identificação de falantes.
― 7 min ler
Analisando vulnerabilidades e defesas em modelos de difusão para geração de conteúdo seguro.
― 7 min ler
Novos métodos expõem vulnerabilidades em modelos médicos através de ataques por porta dos fundos.
― 6 min ler
Esse estudo investiga a vulnerabilidade dos modelos VSS a ataques de backdoor.
― 5 min ler
Uma nova abordagem melhora a eficácia dos ataques de backdoor em modelos de NLP.
― 6 min ler
Esse artigo fala sobre um jeito de manipular redes neurais sem gatilhos.
― 7 min ler
EmoAttack usa conversão de voz emocional pra explorar falhas em sistemas de fala.
― 6 min ler
Investigando ataques por backdoor e os riscos que eles trazem para sistemas de detecção de objetos.
― 7 min ler
NoiseAttack altera várias classes em ataques de backdoor usando padrões de ruído sutis.
― 7 min ler
Aprenda como gatilhos ocultos podem manipular modelos de linguagem e representar riscos sérios.
― 7 min ler
Analisando como pontos de dados importantes atraem mais riscos de segurança em machine learning.
― 7 min ler
Estudo revela vulnerabilidades em modelos de IA por causa de ataques de backdoor.
― 6 min ler
Explorando vulnerabilidades de sistemas multiagente cooperativos a ataques de backdoor.
― 6 min ler