Um novo método ajuda a identificar vulnerabilidades escondidas em modelos biométricos.
― 5 min ler
Ciência de ponta explicada de forma simples
Um novo método ajuda a identificar vulnerabilidades escondidas em modelos biométricos.
― 5 min ler
Uma nova abordagem pra encontrar amostras de backdoor sem precisar de dados limpos.
― 10 min ler
Um estudo revela novas técnicas para ataques de backdoor em modelos de linguagem com impacto mínimo.
― 12 min ler
Apresentando o TABDet, um novo método pra detectar ataques de backdoor em tarefas de NLP.
― 6 min ler
Pesquisa revela riscos de segurança significativos em modelos de chat por causa de ataques de backdoor.
― 8 min ler
Pesquisas mostram as vulnerabilidades dos sistemas MNMT a ataques de backdoor.
― 9 min ler
Uma nova abordagem pra proteger modelos de linguagem de dados prejudiciais.
― 8 min ler
Explorando os desafios de segurança trazidos pelo aprendizado autossupervisionado e ataques backdoor sem rótulo.
― 7 min ler
Analisando ameaças e defesas em aprendizado federado contra ataques maliciosos.
― 6 min ler
Uma olhada em ataques de backdoor focados dentro de sistemas de aprendizado de máquina federados.
― 5 min ler
BadFusion usa dados da câmera pra lançar ataques de backdoor em sistemas de direção autônoma.
― 7 min ler
Este artigo apresenta o EFRAP, uma defesa contra ataques de backdoor condicionados à quantização em modelos de aprendizado profundo.
― 8 min ler
Pesquisa sobre como agentes prejudiciais podem corromper agentes bons em RL descentralizada.
― 8 min ler
Uma abordagem eficiente em termos de recursos para ataques de backdoor em modelos avançados de aprendizado de máquina.
― 6 min ler
Novo método reduz ameaças de backdoor em redes neurais profundas.
― 8 min ler
Este artigo analisa os riscos de segurança de ataques por backdoor em aprendizado de máquina em sistemas de grafos.
― 8 min ler
Novos métodos combatem ataques de backdoor em modelos de machine learning pra aumentar a segurança.
― 6 min ler
A gente propõe um método pra criar gatilhos de backdoor invisíveis em modelos de difusão.
― 7 min ler
Descobrindo os riscos que os ataques de backdoor trazem para sistemas inteligentes.
― 6 min ler
Novos métodos como o PromptFix ajudam a proteger modelos de linguagem de ameaças ocultas.
― 6 min ler
Apresentando um método pra avaliar a resiliência de modelos contra ataques de envenenamento de dados.
― 8 min ler
Explorando vulnerabilidades no Aprendizado Federado Personalizado e novas formas de ataque por backdoor.
― 7 min ler
Novo método foca em mudanças de ritmo para ataques de fala discretos.
― 6 min ler
Este artigo explora o impacto da contaminação de dados no alinhamento de modelos de linguagem.
― 7 min ler
Aprenda como ataques de backdoor ameaçam sistemas de aprendizado de máquina e métodos para se defender deles.
― 7 min ler
Uma nova estratégia de defesa para LLMs contra ataques de backdoor.
― 6 min ler
Um novo método enfrenta ameaças escondidas em grandes modelos de linguagem.
― 8 min ler
Examinando riscos e defesas contra ataques de backdoor em modelos de IA.
― 8 min ler
Explorando ataques de backdoor e métodos de redução de grafo em GNNs.
― 6 min ler
Venomancer é um ataque sorrateiro de backdoor em sistemas de aprendizado federado.
― 6 min ler
Um novo método de defesa pra aumentar a segurança em modelos de difusão de texto pra imagem.
― 5 min ler
As preocupações aumentam sobre ataques por trás das cortinas em modelos de linguagem, afetando a segurança e a confiabilidade.
― 7 min ler
Analisando vulnerabilidades em modelos de linguagem clínica e como isso afeta a segurança dos pacientes.
― 8 min ler
Novos métodos têm como objetivo proteger modelos de aprendizado de máquina contra ameaças de backdoor.
― 5 min ler
Novos modelos ajudam os desenvolvedores, mas ataques de backdoor representam sérios riscos de segurança.
― 10 min ler
Uma nova abordagem pra aumentar a segurança no aprendizado federado contra ataques de backdoor.
― 6 min ler
Um novo método melhora a segurança dos modelos de aprendizado profundo contra ameaças ocultas.
― 8 min ler
Um novo método tem como objetivo proteger o aprendizado semi-supervisionado contra ameaças de backdoor.
― 7 min ler
Esse artigo fala sobre como proteger GNNs de envenenamento de dados e ataques de backdoor.
― 9 min ler
Analisando técnicas eficazes de ataque backdoor com rótulo limpo em aprendizado de máquina.
― 8 min ler