Questo articolo esamina come gli esempi avversariali influenzano i sistemi di rilevamento del malware.
― 5 leggere min
Scienza all'avanguardia spiegata semplicemente
Questo articolo esamina come gli esempi avversariali influenzano i sistemi di rilevamento del malware.
― 5 leggere min
Questo studio analizza come cambiare la lingua influisce sui classificatori di testo.
― 6 leggere min
Esaminare la robustezza di SAM contro attacchi avversariali per una tecnologia di guida autonoma più sicura.
― 5 leggere min
Presentiamo DUCD, un metodo incentrato sulla privacy per proteggere i DNN dagli attacchi avversari.
― 8 leggere min
Uno sguardo a come l'IA può dimenticare i dati privati durante il restauro delle immagini.
― 5 leggere min
La ricerca si concentra sulla generazione di esempi avversariali per testare i sistemi di valutazione della credibilità.
― 6 leggere min
Un nuovo modo per avere una visualizzazione più chiara e comprendere meglio i modelli di deep learning.
― 4 leggere min
La ricerca svela vulnerabilità nel rilevamento delle corsie per veicoli autonomi a causa di ombre negative.
― 7 leggere min
Uno sguardo su come valutare l'affidabilità delle spiegazioni dell'IA attraverso la sensibilità agli attacchi.
― 7 leggere min
Un nuovo metodo migliora la comprensione e l'affidabilità delle reti neurali.
― 5 leggere min
Uno studio rivela le vulnerabilità dei modelli di DNA agli attacchi avversari.
― 7 leggere min
Esaminare i rischi e le difese dei modelli linguistici multimodali nell'IA.
― 7 leggere min
Esplorare come l'ironia confonde i sistemi di machine learning.
― 5 leggere min
Quest'articolo parla dei problemi di sicurezza e protezione nei sistemi di intelligenza artificiale multimodali.
― 6 leggere min
Nuovo metodo migliora la sicurezza del deep learning con impronte neurali randomiche.
― 8 leggere min
Uno sguardo più da vicino alle affermazioni di una nuova difesa per la classificazione delle immagini contro esempi avversariali.
― 9 leggere min
Esplorare l'importanza delle classi individuali nei modelli di classificazione delle immagini.
― 6 leggere min
I LLMs hanno delle difficoltà a riconoscere le truffe intelligenti e devono migliorare.
― 6 leggere min
Scopri come NODE-AdvGAN inganna l'IA con immagini sottili.
― 6 leggere min
Scopri come gli esempi avversari mettono alla prova la cybersicurezza e le difese contro di essi.
― 5 leggere min
L'addestramento avversariale migliora la difesa dell'IA contro attacchi ingannevoli usando la misura SDI.
― 6 leggere min