Uno sguardo ai rischi degli attacchi di inferenza di appartenenza sulla privacy dei dati.
― 7 leggere min
Scienza all'avanguardia spiegata semplicemente
Uno sguardo ai rischi degli attacchi di inferenza di appartenenza sulla privacy dei dati.
― 7 leggere min
Uno sguardo su come i Modelli Sparse migliorano l'efficienza dell'Apprendimento Federato.
― 5 leggere min
Nuovo modello di intelligenza artificiale migliora la diagnosi dei problemi ossei usando raggi X e dati di referto.
― 7 leggere min
Scopri come la privacy differenziale può migliorare la sicurezza dei dati nella regressione LLS.
― 6 leggere min
Un sistema che impara dai dati dei pazienti garantendo la privacy.
― 7 leggere min
I professionisti dell'IA condividono le loro opinioni su AI affidabile e le sue sfide.
― 7 leggere min
Un nuovo approccio unisce protezioni della privacy con l'apprendimento dei banditi contestuali.
― 5 leggere min
Un nuovo metodo per rilevare il comportamento scorretto dei veicoli proteggendo la privacy.
― 7 leggere min
Uno studio su come migliorare il rilevamento dei video in streaming mantenendo la privacy degli utenti.
― 7 leggere min
Un metodo per cancellare identità dai modelli generativi mantenendo la qualità dell'immagine.
― 5 leggere min
Nuovi metodi migliorano l'accuratezza nella stima delle dimensioni delle join proteggendo i dati sensibili.
― 6 leggere min
Una strategia per proteggere le connessioni sensibili nei dati grafici mentre si rilasciano informazioni utili.
― 4 leggere min
Uno sguardo alla privacy differenziale e al suo utilizzo nel machine learning.
― 8 leggere min
Un nuovo metodo migliora l'apprendimento federato decentralizzato mantenendo la privacy dei dati.
― 7 leggere min
Un nuovo approccio migliora il rilevamento delle intrusioni nei sistemi decentralizzati.
― 7 leggere min
Migliorare le applicazioni di rilevamento mobile attraverso un nuovo framework per gestire i dati mancanti.
― 8 leggere min
Questo studio esamina come i creatori rispondono quando le loro opere vengono utilizzate per l'addestramento dell'IA.
― 7 leggere min
Questo documento presenta EFRAP, una difesa contro gli attacchi backdoor condizionati dalla quantizzazione nei modelli di deep learning.
― 7 leggere min
Un nuovo metodo migliora la capacità dei modelli di dimenticare informazioni visive specifiche.
― 8 leggere min
Metodi per fornire stime di popolazione affidabili garantendo la riservatezza dei rispondenti.
― 6 leggere min
La ricerca migliora l'interpretazione dell'ECG, garantendo la privacy dei dati dei pazienti.
― 6 leggere min
Un nuovo framework migliora l'apprendimento federato e previene l'oblio nei modelli di intelligenza artificiale.
― 7 leggere min
Uno studio rivela l'attacco WordGame, che sfrutta le debolezze nelle misure di sicurezza degli LLM.
― 6 leggere min
Esplorare come il Federated Learning possa migliorare la privacy dei dati nella sanità.
― 6 leggere min
Un nuovo approccio migliora le prestazioni e l'equità nell'apprendimento federato.
― 7 leggere min
Nuovo framework aiuta a proteggere le statistiche di sintesi sensibili durante la condivisione dei dati.
― 7 leggere min
Introducendo un nuovo modo per valutare i rischi per la privacy nei modelli di machine learning.
― 6 leggere min
Scopri come l'apprendimento distribuito può migliorare l'efficienza del machine learning e l'addestramento dei modelli.
― 6 leggere min
Una panoramica su come l'anonimizzazione protegge l'identità personale mentre si usano i biometrics.
― 6 leggere min
Introduzione di un framework per bilanciare la privacy dei dati e l'utilità.
― 7 leggere min
Un nuovo metodo per proteggere la privacy nei modelli di testo-in-immagine.
― 8 leggere min
Esaminando il legame tra la privacy differenziale locale e l'equità nei sistemi di ML.
― 5 leggere min
Nuovi metodi migliorano l'audit della privacy, concentrandosi sui modelli di stato nascosto nel machine learning.
― 7 leggere min
Migliorare l'apprendimento distribuito attraverso tecniche di clipping adattive e robuste.
― 6 leggere min
Un nuovo metodo migliora la rimozione dei dati nei modelli di grafi dinamici, garantendo allo stesso tempo la privacy.
― 6 leggere min
L'inferenza federata bayesiana consente un'analisi di sopravvivenza che rispetta la privacy nella ricerca sul cancro.
― 8 leggere min
FedSC migliora l'addestramento dei modelli mantenendo la privacy degli utenti nell'apprendimento federato.
― 5 leggere min
Nuove tecniche migliorano la scalabilità nel machine learning differenzialmente privato.
― 5 leggere min
L'approccio basato su cohort migliora l'efficienza e l'accuratezza nei sistemi di Federated Learning.
― 6 leggere min
Scopri come i Piani Comportamentali Federati migliorano la comprensione delle azioni dei clienti nel federated learning.
― 8 leggere min