Este artigo apresenta o EFRAP, uma defesa contra ataques de backdoor condicionados à quantização em modelos de aprendizado profundo.
― 8 min ler
Ciência de ponta explicada de forma simples
Este artigo apresenta o EFRAP, uma defesa contra ataques de backdoor condicionados à quantização em modelos de aprendizado profundo.
― 8 min ler
Um olhar sobre a confiabilidade e as vulnerabilidades dos PUFs em dispositivos IoT.
― 7 min ler
Uma nova abordagem melhora a segurança das redes neurais contra exemplos adversariais.
― 7 min ler
Um estudo revela o ataque WordGame, explorando as fraquezas nas medidas de segurança dos LLMs.
― 6 min ler
Uma grande vulnerabilidade no XMPU expõe dados sensíveis após a terminação do processo.
― 6 min ler
Buscando uma gestão de energia eficiente através de redes inteligentes e novas tecnologias.
― 9 min ler
Esse estudo analisa as fraquezas dos modelos SER em relação a ataques adversariais em diferentes línguas.
― 6 min ler
Um esquema pra melhorar a gestão de atualizações de firmware pra inversores inteligentes.
― 11 min ler
Um método pra proteger redes neurais contra vulnerabilidades na memória.
― 7 min ler
Apresentando uma nova maneira de avaliar os riscos de privacidade em modelos de aprendizado de máquina.
― 6 min ler
Explorando sistemas automatizados pra investigar de forma eficiente ameaças cibernéticas e violações.
― 12 min ler
A autenticação quântica oferece um jeito seguro de verificar dados usando mecânica quântica.
― 6 min ler
Esse artigo fala sobre a importância e as estratégias pra garantir a segurança das cadeias de suprimento de software.
― 7 min ler
WPS pode ajudar nos serviços de localização, mas ameaça bastante a privacidade do usuário.
― 5 min ler
Melhorar a robustez do aprendizado de máquina contra exemplos adversariais é crucial para aplicações seguras.
― 8 min ler
Um estudo apresenta o RepNoise pra proteger modelos de linguagem grandes de ajustes prejudiciais.
― 7 min ler
Melhorando o aprendizado distribuído através de técnicas adaptativas de clipping robusto.
― 7 min ler
Um estudo sobre como melhorar a robustez contra ataques em modelos de linguagem.
― 7 min ler
Uma nova estrutura melhora a eficiência dos testes de penetração automatizados usando aprendizado por reforço.
― 9 min ler
Explorando o papel da IA em consertar vulnerabilidades de software.
― 8 min ler
Analisando os riscos que os TEEs enfrentam por causa dos métodos de ataque que estão mudando.
― 6 min ler
Analisando o impacto dos empurrões na mudança de senha depois de vazamentos de dados.
― 12 min ler
Explorando o impacto da IA na eficiência, privacidade e segurança em sistemas vitais.
― 8 min ler
Pesquisa sobre como agentes prejudiciais podem corromper agentes bons em RL descentralizada.
― 8 min ler
Esse artigo analisa como os ataques afetam a segurança dos LLMs e a geração de respostas.
― 6 min ler
NCS permite gerar exemplos adversariais de forma eficaz com custos computacionais mais baixos.
― 7 min ler
Um clipe de áudio universal pode silenciar modelos avançados de ASR como o Whisper.
― 7 min ler
Um novo método melhora os ataques de jailbreak em modelos avançados de IA usando interpretação de personagens.
― 8 min ler
Uma abordagem eficiente em termos de recursos para ataques de backdoor em modelos avançados de aprendizado de máquina.
― 6 min ler
Estudo sobre como melhorar a segurança e a eficiência na comunicação quântica.
― 8 min ler
Novos métodos em criptografia baseada em código melhoram a proteção dos dados de forma eficaz.
― 5 min ler
Explorando novas formas de garantir privacidade na comunicação sem fio.
― 7 min ler
Novo método reduz ameaças de backdoor em redes neurais profundas.
― 8 min ler
Explore o papel vital do controle de acesso na computação de borda.
― 8 min ler
Explora como os jogadores usam engano em situações competitivas.
― 7 min ler
Analisando os desafios de segurança e soluções para RIC em redes Open RAN.
― 8 min ler
Este estudo melhora a segurança do aprendizado de máquina quântico contra ataques adversariais através de canais de ruído e métodos de privacidade.
― 9 min ler
Esse artigo investiga vulnerabilidades em modelos de fala e maneiras de aumentar a segurança deles.
― 6 min ler
Apresentando um jeito prático de trocar chaves de forma segura entre usuários clássicos.
― 6 min ler
Analisando os perigos dos modelos de linguagem quantizados e seu possível uso indevido.
― 6 min ler