Nuovi metodi rivelano gravi minacce alla privacy derivanti dalla condivisione dei dati sulla posizione.
― 6 leggere min
Scienza all'avanguardia spiegata semplicemente
Nuovi metodi rivelano gravi minacce alla privacy derivanti dalla condivisione dei dati sulla posizione.
― 6 leggere min
Un nuovo metodo promette un'azzeramento dei dati efficiente mantenendo le prestazioni del modello.
― 6 leggere min
Un nuovo metodo aiuta a mantenere al sicuro i dati privati nei modelli linguistici.
― 8 leggere min
Introducendo FC-EM per proteggere i dati delle nuvole di punti 3D da accessi non autorizzati.
― 6 leggere min
Esaminare le sfide e le implicazioni del disapprendimento nei modelli di IA.
― 5 leggere min
Uno sguardo all'algoritmo FedQ-Advantage nell'apprendimento per rinforzo federato.
― 6 leggere min
FedMap migliora l'efficienza dell'apprendimento federato garantendo la privacy dei dati.
― 6 leggere min
Nuovi metodi generano dati sintetici per proteggere la privacy in scenari collaborativi.
― 7 leggere min
La Privacy Differenziale Locale consente la condivisione sicura dei dati proteggendo le informazioni individuali degli utenti.
― 7 leggere min
Un nuovo approccio ai boxplot garantisce la privacy dei dati mantenendo un'analisi utile.
― 6 leggere min
Un nuovo approccio combina l'analisi vocale con la protezione della privacy per la rilevazione della demenza.
― 6 leggere min
Formazione collaborativa di algoritmi medici proteggendo la privacy dei pazienti.
― 6 leggere min
Esaminando il rapporto tra tecniche di privacy e pregiudizi nei modelli linguistici.
― 6 leggere min
AAggFF introduce strategie adattive per un rendimento equo dei modelli nel Federated Learning.
― 6 leggere min
Nuovi metodi migliorano la privacy e la coerenza usando collocazioni nei dati linguistici.
― 7 leggere min
Un nuovo metodo per riscrivere testi che garantisce la privacy e mantiene il significato.
― 6 leggere min
Il poisoning del codice aumenta i rischi di attacchi di inferenza sui membri dei dati sensibili.
― 7 leggere min
La ricerca mostra quanto sia facile rimuovere le funzionalità di sicurezza dai modelli Llama 3.
― 6 leggere min
Nuove tecniche migliorano gli studi genomici collaborativi garantendo la privacy dei dati.
― 7 leggere min
Un nuovo metodo riduce il consumo energetico migliorando i risultati di apprendimento nei sistemi decentralizzati.
― 7 leggere min
QUEEN offre protezione in tempo reale contro gli attacchi di estrazione del modello nel deep learning.
― 5 leggere min
Ottimizzazione di grandi modelli di linguaggio direttamente sugli smartphone, proteggendo i dati degli utenti.
― 6 leggere min
Un nuovo metodo per un recupero dati efficiente in ambienti decentralizzati.
― 5 leggere min
Un framework per condividere in modo sicuro le informazioni sanitarie proteggendo la privacy del paziente.
― 13 leggere min
Questo articolo esplora i vantaggi dell'uso di FP8 nell'apprendimento federato.
― 5 leggere min
Uno sguardo a come i modelli di linguaggio possono far trapelare dati sensibili.
― 4 leggere min
Questo articolo esamina i rischi legati ai LLM e propone modi per migliorare la sicurezza.
― 5 leggere min
Esplorando le sfide legali sollevate dall'evoluzione rapida dell'AI generativa.
― 7 leggere min
Un nuovo framework migliora l'apprendimento federato garantendo la privacy dei dati.
― 7 leggere min
Questo studio valuta modelli avanzati per generare dati di viaggio falsi e le loro applicazioni pratiche.
― 10 leggere min
Venomancer è un attacco furtivo che sfrutta le vulnerabilità nei sistemi di apprendimento federato.
― 6 leggere min
CLAMP-ViT offre un nuovo modo per comprimere i vision transformer usando dati sintetici.
― 7 leggere min
Un sistema di rilevamento potenzia la sicurezza dei veicoli contro le minacce informatiche usando tecniche avanzate.
― 5 leggere min
Nuova tecnologia radar monitora la frequenza cardiaca durante il sonno e la meditazione senza fastidi.
― 9 leggere min
Zero-X migliora la cybersecurity per i veicoli connessi contro le minacce emergenti.
― 7 leggere min
Un nuovo framework migliora l'efficienza nell'apprendimento federato edge ottimizzando risorse e dati.
― 6 leggere min
Esaminando gli attacchi di inferenza di appartenenza sui modelli di previsione delle serie temporali nella sanità.
― 7 leggere min
Migliorare la sicurezza delle reti intelligenti usando honeypot e approcci di apprendimento federato.
― 6 leggere min
Una panoramica dei metodi per proteggere le informazioni personali senza compromettere l'utilità dei dati.
― 5 leggere min
Un metodo per stimare i membri della comunità proteggendo la privacy individuale.
― 8 leggere min