Um método pra identificar ataques em sistemas que combinam imagens e texto.
― 7 min ler
Ciência de ponta explicada de forma simples
Um método pra identificar ataques em sistemas que combinam imagens e texto.
― 7 min ler
Um novo método ajuda a identificar rapidamente os pontos fracos em modelos de aprendizado profundo.
― 6 min ler
Uma nova abordagem para garantir a privacidade enquanto mantém a utilidade do texto em modelos de PNL.
― 8 min ler
Técnicas de super resolução tão tão dificultando bastante os esforços pra detectar deepfakes.
― 6 min ler
TrackPGD testa os limites do rastreamento de objetos através de ataques adversariais avançados.
― 6 min ler
Um estudo sobre como os VAEs se saem em diferentes grupos demográficos sob ataque.
― 7 min ler
Novo método melhora a segurança de redes neurais usando computação estocástica.
― 5 min ler
Explorando as ameaças aos sistemas de DRL na gestão cibernética de energia.
― 7 min ler
Analisando as vulnerabilidades de modelos leves contra ataques adversariais.
― 6 min ler
Novas ideias sobre classificadores robustos melhoram a capacidade deles de resistir a ataques.
― 8 min ler
Esse estudo mostra como ataques não adversariais impactam algoritmos de incorporação de grafos de conhecimento.
― 9 min ler
Apresentando o HO-FMN pra avaliar melhor a robustez de modelos de machine learning contra ataques adversariais.
― 7 min ler
Novo método melhora ataques adversariais em modelos 3D usando técnicas de difusão.
― 6 min ler
Analisando as vulnerabilidades e possíveis ataques na tecnologia NeRF.
― 6 min ler
Apresentando um método pra melhorar a resiliência de sistemas de IA através de ataques adversariais multitarefa.
― 6 min ler
Pesquisas mostram como comandos amistosos podem enganar sistemas de IA.
― 6 min ler
Examinando os desafios de cibersegurança e o papel da IA na Indústria 5.0.
― 8 min ler
A Preempção Rápida oferece uma defesa proativa para sistemas de aprendizado profundo contra ataques.
― 8 min ler
Um estudo sobre como melhorar as CNNs usando rótulos parciais e modelos de ataques adversariais.
― 7 min ler
Esse artigo analisa as fraquezas dos modelos multimodais contra vários tipos de ataque.
― 6 min ler
Explorando as ameaças que os ataques adversariais trazem para a imagem médica.
― 7 min ler
MALT melhora a eficiência e o sucesso de ataques adversariais em modelos de classificação de imagem.
― 6 min ler
Esse artigo analisa métodos pra proteger sistemas de qualidade de imagem contra ataques adversariais.
― 7 min ler
Um novo método aumenta a resistência dos VAEs contra manipulações de dados complicadas.
― 7 min ler
Examinando vulnerabilidades em transformers de visão e modelos downstream através de ataques de transferência.
― 7 min ler
Analisando vulnerabilidades e defesas em modelos de difusão para geração de conteúdo seguro.
― 7 min ler
Explorando o impacto de ataques adversariais na explicabilidade em deep learning.
― 6 min ler
Novas metodologias melhoram a resistência dos modelos de deep learning a alterações adversariais.
― 7 min ler
Abordando os riscos nas imagens de RM na diagnose da doença de Alzheimer através de métodos de detecção avançados.
― 7 min ler
Ataques de shuffling revelam vulnerabilidades nas avaliações de justiça em IA usando métodos como SHAP.
― 7 min ler
Este artigo fala sobre como melhorar a robustez dos modelos de aprendizado de máquina quântica contra ataques adversariais.
― 7 min ler
Uma nova abordagem busca melhorar a resiliência da aprendizagem ativa contra ataques.
― 10 min ler
Um novo método mira sistemas de autenticação facial múltipla de forma eficiente.
― 10 min ler
Um novo método usa maquiagem pra melhorar a privacidade em sistemas de reconhecimento facial.
― 6 min ler
Enfrentando os desafios dos ataques adversariais em redes neurais de séries temporais.
― 7 min ler
Novos métodos melhoram a defesa dos modelos de machine learning contra ataques adversariais.
― 6 min ler
Novo método usa IWMF pra melhorar o reconhecimento facial contra ataques adversariais.
― 8 min ler
Um novo método de ataque enfraquece os sistemas de detecção de deepfake.
― 6 min ler
Melhorando os métodos de detecção de botnets com aprendizado de máquina e estratégias de defesa contra ataques.
― 6 min ler
Aprenda como a marca d'água protege os modelos de IA e apoia os direitos dos criadores.
― 5 min ler