Un nuovo framework migliora il completamento dei grafi di conoscenza con diversi tipi di dati.
― 8 leggere min
Scienza all'avanguardia spiegata semplicemente
Un nuovo framework migliora il completamento dei grafi di conoscenza con diversi tipi di dati.
― 8 leggere min
Un nuovo approccio per migliorare le mappe di salienza basate sui gradienti per una migliore interpretazione del modello.
― 6 leggere min
Un sistema migliora la privacy nella condivisione dei dati per le applicazioni di visione artificiale.
― 9 leggere min
Scopri cosa sono gli attacchi avversariali e come influenzano i modelli di apprendimento automatico.
― 7 leggere min
Un metodo per aumentare l'affidabilità del classificatore contro la manipolazione dei dati.
― 5 leggere min
Un nuovo approccio per migliorare i modelli di deep learning contro attacchi avversariali.
― 6 leggere min
Un nuovo metodo di training migliora la capacità delle reti neurali di valutare l'incertezza.
― 6 leggere min
Un nuovo modello migliora il recupero delle immagini per la diagnosi della istopatologia mammaria.
― 10 leggere min
Un nuovo metodo migliora le prestazioni delle reti neurali contro gli attacchi avversari.
― 9 leggere min
Un nuovo metodo per migliorare l'addestramento avversariale per le reti neurali profonde.
― 5 leggere min
Uno studio su come migliorare la robustezza contro gli attacchi nei modelli linguistici.
― 7 leggere min
Nuovi metodi migliorano la sicurezza dei modelli linguistici mantenendo intatta la funzionalità.
― 8 leggere min
AdvUnlearn migliora la sicurezza nella generazione di immagini combinando l'unlearning con l'addestramento avversariale.
― 6 leggere min
Un nuovo metodo punta a migliorare la sicurezza della generazione di immagini da testo.
― 7 leggere min
Uno sguardo a come gli esempi avversari sfidano i modelli di intelligenza artificiale.
― 6 leggere min
Un nuovo approccio migliora l'equità nell'identificare l'odio tra diversi gruppi.
― 8 leggere min
Un nuovo metodo migliora la rilevazione dei guasti nelle macchine grazie a un apprendimento delle caratteristiche migliore.
― 6 leggere min
Presentiamo PART, un metodo per migliorare l'accuratezza e la robustezza dei modelli di machine learning.
― 5 leggere min
Un nuovo approccio all'addestramento avversariale migliora le prestazioni e la sicurezza dei sistemi AI.
― 6 leggere min
Questo articolo esamina i miglioramenti agli SSM per la resilienza contro le perturbazioni avversarie.
― 6 leggere min
Presentiamo ProFeAT per migliorare la robustezza dei modelli contro gli attacchi avversariali.
― 6 leggere min
ADEP punta a migliorare la sicurezza prevedendo effetti avversi da più farmaci.
― 7 leggere min
Questo studio analizza i limiti di precisione e robustezza nei modelli di machine learning.
― 6 leggere min
Un modo nuovo per creare dati sintetici senza preoccupazioni per la privacy.
― 7 leggere min
Questo articolo parla di feature unlearning e del suo impatto sulla privacy e sull'equità nel machine learning.
― 6 leggere min
Un nuovo modello affronta i pregiudizi e migliora le previsioni sui prezzi delle azioni usando dati diversi.
― 6 leggere min
Nuove intuizioni sui classificatori robusti migliorano la loro capacità di resistere agli attacchi.
― 7 leggere min
Combinare le reti neurali con la crittografia migliora i metodi di comunicazione sicuri.
― 5 leggere min
Esaminando la vulnerabilità delle reti neurali a piccole variazioni nell'input.
― 8 leggere min
Esaminare gli attacchi avversari e la robustezza del modello nella segmentazione semantica.
― 6 leggere min
Esplorare rischi e strategie di difesa per i modelli di linguaggio grandi.
― 7 leggere min
Nuova architettura ViT migliora la precisione resistendo alle minacce avversarie.
― 6 leggere min
Questo articolo analizza i metodi per proteggere i sistemi di qualità delle immagini da attacchi avversari.
― 6 leggere min
Un nuovo metodo aumenta la resilienza degli agenti RL contro i cambiamenti di input dannosi.
― 7 leggere min
Un nuovo metodo migliora l'apprendimento da dati complessi usando i prossimali di Wasserstein.
― 6 leggere min
L'addestramento avversariale migliora l'accuratezza del riconoscimento delle parole chiave nel parlato sintetico e reale.
― 5 leggere min
Nuovi metodi migliorano il riconoscimento vocale in ambienti rumorosi.
― 5 leggere min
CLAT migliora la robustezza del modello contro attacchi avversariali mantenendo l'accuratezza sulle immagini normali.
― 5 leggere min
Nuovi metodi migliorano la difesa dei modelli di machine learning contro gli attacchi avversari.
― 5 leggere min
Una tecnica per aiutare i robot a riprendersi dagli attacchi rimanendo conformi alla missione.
― 5 leggere min