Un nuovo metodo aiuta a identificare vulnerabilità nascoste nei modelli biometrici.
― 5 leggere min
Scienza all'avanguardia spiegata semplicemente
Un nuovo metodo aiuta a identificare vulnerabilità nascoste nei modelli biometrici.
― 5 leggere min
Un nuovo modo per trovare campioni di backdoor senza avere dati puliti.
― 9 leggere min
Uno studio rivela nuove tecniche per attacchi backdoor sui modelli linguistici con impatto minimo.
― 10 leggere min
Presentiamo TABDet, un nuovo metodo per rilevare attacchi backdoor in vari compiti NLP.
― 6 leggere min
La ricerca rivela rischi di sicurezza significativi nei modelli di chat a causa di attacchi backdoor.
― 7 leggere min
La ricerca evidenzia le vulnerabilità dei sistemi MNMT agli attacchi backdoor.
― 8 leggere min
Un nuovo modo per proteggere i modelli di linguaggio dai dati nocivi.
― 7 leggere min
Esplorare le sfide di sicurezza poste dall'apprendimento auto-supervisionato e dagli attacchi backdoor senza etichette.
― 6 leggere min
Analizzare minacce e difese nel federated learning contro attacchi malevoli.
― 5 leggere min
Uno sguardo agli attacchi backdoor mirati nei sistemi di machine learning federato.
― 5 leggere min
BadFusion usa i dati della fotocamera per lanciare attacchi backdoor sui sistemi di guida autonoma.
― 6 leggere min
Questo documento presenta EFRAP, una difesa contro gli attacchi backdoor condizionati dalla quantizzazione nei modelli di deep learning.
― 7 leggere min
Ricerca su come agenti dannosi possano corrompere agenti buoni nel RL decentralizzato.
― 7 leggere min
Un approccio efficiente in termini di risorse agli attacchi backdoor sui modelli di machine learning avanzati.
― 6 leggere min
Nuovo metodo riduce le minacce backdoor nei reti neurali profonde.
― 7 leggere min
Questo articolo esamina i rischi di sicurezza degli attacchi backdoor sul machine learning nei sistemi grafo.
― 7 leggere min
Nuovi metodi combattono gli attacchi backdoor sui modelli di machine learning per una maggiore sicurezza.
― 6 leggere min
Proponiamo un metodo per creare attivatori backdoor invisibili nei modelli di diffusione.
― 7 leggere min
Svelare i rischi dovuti agli attacchi backdoor sui sistemi intelligenti.
― 6 leggere min
Nuovi metodi come PromptFix aiutano a proteggere i modelli di linguaggio da minacce nascoste.
― 5 leggere min
Presentiamo un metodo per valutare la resilienza dei modelli contro gli attacchi di avvelenamento dei dati.
― 7 leggere min
Esplorare le vulnerabilità nel Federated Learning Personalizzato e i nuovi metodi di attacco backdoor.
― 6 leggere min
Nuovo metodo punta sui cambiamenti di ritmo per attacchi vocali furtivi.
― 6 leggere min
Questo articolo esplora l'impatto del data poisoning sulla sintonizzazione dei modelli linguistici.
― 6 leggere min
Scopri come gli attacchi backdoor minacciano i sistemi di apprendimento automatico e i metodi per difendersi da essi.
― 7 leggere min
Una nuova strategia di difesa per i LLM contro gli attacchi backdoor.
― 6 leggere min
Un nuovo metodo affronta minacce nascoste nei modelli di linguaggio di grandi dimensioni.
― 6 leggere min
Esaminare i rischi e le difese contro gli attacchi backdoor nei modelli di intelligenza artificiale.
― 7 leggere min
Esplorando attacchi backdoor e metodi di riduzione dei grafi nelle GNN.
― 5 leggere min
Venomancer è un attacco furtivo che sfrutta le vulnerabilità nei sistemi di apprendimento federato.
― 6 leggere min
Un nuovo metodo di difesa per migliorare la sicurezza nei modelli di diffusione da testo a immagine.
― 5 leggere min
Crescono le preoccupazioni per gli attacchi backdoor nei modelli linguistici, che influenzano la sicurezza e l'affidabilità.
― 6 leggere min
Esaminare le vulnerabilità nei modelli di linguaggio clinico e il loro impatto sulla sicurezza dei pazienti.
― 7 leggere min
Nuovi metodi puntano a proteggere i modelli di apprendimento automatico dalle minacce di backdoor.
― 4 leggere min
Nuovi modelli aiutano gli sviluppatori, ma gli attacchi backdoor rappresentano seri rischi per la sicurezza.
― 9 leggere min
Un nuovo modo per migliorare la sicurezza nel federated learning contro gli attacchi backdoor.
― 5 leggere min
Un nuovo metodo migliora la sicurezza dei modelli di deep learning contro minacce nascoste.
― 7 leggere min
Un nuovo metodo mira a mettere al sicuro l'apprendimento semi-supervisionato dalle minacce dei backdoor.
― 6 leggere min
Questo articolo parla di come proteggere le GNN dagli attacchi di avvelenamento dei dati e dai backdoor.
― 8 leggere min
Analizzando tecniche di attacco backdoor clean-label efficaci nel machine learning.
― 7 leggere min