Uma nova abordagem para o treinamento adversarial melhora o desempenho e a segurança dos sistemas de IA.
― 7 min ler
Ciência de ponta explicada de forma simples
Uma nova abordagem para o treinamento adversarial melhora o desempenho e a segurança dos sistemas de IA.
― 7 min ler
Uma nova técnica expõe vulnerabilidades em sistemas de IA avançados que combinam imagens e texto.
― 6 min ler
Esse estudo avalia como o GPT-4 ajuda nas tarefas de engenharia reversa.
― 10 min ler
M2CVD melhora a detecção de vulnerabilidades de software através de abordagens de modelo colaborativo.
― 8 min ler
Um novo método ajuda as organizações a priorizar melhor as vulnerabilidades de software.
― 7 min ler
Uma abordagem nova melhora a detecção de vulnerabilidades de segurança em software usando modelos avançados.
― 8 min ler
Apresentando um método pra avaliar a resiliência de modelos contra ataques de envenenamento de dados.
― 8 min ler
Explorando vulnerabilidades no Aprendizado Federado Personalizado e novas formas de ataque por backdoor.
― 7 min ler
Uma nova abordagem pra encontrar falhas de segurança em processadores usando a estrutura Shesha.
― 6 min ler
Esse artigo fala sobre os riscos de alucinações de pacotes em modelos que geram código.
― 7 min ler
Usando modelos de linguagem pra melhorar a detecção de bugs em software e a eficiência dos testes.
― 7 min ler
Novo benchmark CTIBench avalia a eficácia de LLMs em enfrentar ameaças cibernéticas.
― 6 min ler
Um olhar sobre métodos de segurança do kernel pra combater ataques avançados como o Spectre.
― 8 min ler
Um novo sistema de assinatura digital melhora a velocidade e a segurança em aplicações de data centers.
― 7 min ler
Analisando a falha do Rowhammer e suas implicações para a segurança dos dados.
― 9 min ler
Investigando as falhas de segurança na Extensão de Marcação de Memória e ataques de execução especulativa.
― 7 min ler
Analisando os riscos de segurança e soluções para as novas tecnologias de assistentes de IA.
― 8 min ler
Um olhar sobre vulnerabilidades e soluções para sistemas de aprendizado profundo.
― 7 min ler
O método FSBI melhora a detecção de mídias digitais manipuladas.
― 7 min ler
Uma nova ferramenta melhora a análise estática com gráficos simplificados e aprendizado de máquina.
― 9 min ler
A competição revela vulnerabilidades e defesas na segurança dos modelos de linguagem.
― 4 min ler
Um método pra identificar ataques em sistemas que combinam imagens e texto.
― 7 min ler
Novo método foca em mudanças de ritmo para ataques de fala discretos.
― 6 min ler
Novos métodos melhoram o desaprendizado de dados prejudiciais em sistemas de aprendizado de máquina.
― 6 min ler
Uma olhada em modelos de aprendizado robustos e sua importância na segurança dos dados.
― 8 min ler
Analisando os riscos de segurança em redes mmWave usando transferência simultânea de informações e energia sem fio.
― 7 min ler
Um estudo sobre como melhorar as técnicas de extração de modelos pra segurança em deep learning.
― 7 min ler
Uma nova abordagem combina conhecimento e tecnologia pra melhorar a detecção de vulnerabilidades em software.
― 8 min ler
Esse documento apresenta uma estrutura pra avaliar as vulnerabilidades em modelos de linguagem grandes.
― 4 min ler
Centauros combinam a sacada humana e a IA pra melhorar a tomada de decisões em várias áreas.
― 10 min ler
Um novo método para controle criptografado melhora a segurança enquanto realiza funções necessárias.
― 5 min ler
Um plano pra fortalecer a resiliência e a confiabilidade da rede elétrica diante dos riscos digitais que tão surgindo.
― 7 min ler
Este artigo explora o impacto da contaminação de dados no alinhamento de modelos de linguagem.
― 7 min ler
O P3GNN melhora a detecção de APT enquanto protege a privacidade dos dados em redes SDN.
― 8 min ler
Aprenda como ataques de backdoor ameaçam sistemas de aprendizado de máquina e métodos para se defender deles.
― 7 min ler
A Tracemax oferece rastreamento de pacotes melhorado para defender melhor contra ataques DDoS.
― 7 min ler
Um framework pra melhorar a detecção de APT enquanto protege a privacidade.
― 6 min ler
Explorando os desafios de segurança trazidos por ataques adversariais em agentes multimodais.
― 7 min ler
Abordando as preocupações de segurança do código produzido por grandes modelos de linguagem.
― 8 min ler
Os LLMs podem ajudar na proteção contra engenharia social e também trazer novos riscos.
― 7 min ler