Uno studio rivela l'attacco WordGame, che sfrutta le debolezze nelle misure di sicurezza degli LLM.
― 6 leggere min
Scienza all'avanguardia spiegata semplicemente
Uno studio rivela l'attacco WordGame, che sfrutta le debolezze nelle misure di sicurezza degli LLM.
― 6 leggere min
Una grossa vulnerabilità in XMPU espone dati sensibili dopo la terminazione del processo.
― 6 leggere min
Puntare a una gestione energetica efficiente attraverso reti intelligenti e nuove tecnologie.
― 8 leggere min
Questo studio esamina le debolezze dei modelli SER contro attacchi avversari in diverse lingue.
― 5 leggere min
Un framework per migliorare la gestione degli aggiornamenti del firmware per gli inverter smart.
― 10 leggere min
Un metodo per proteggere le reti neurali contro le vulnerabilità nella memoria.
― 6 leggere min
Introducendo un nuovo modo per valutare i rischi per la privacy nei modelli di machine learning.
― 6 leggere min
Esplorando sistemi automatizzati per un'indagine efficiente sulle minacce informatiche e le violazioni.
― 10 leggere min
L'autenticazione quantistica offre un metodo sicuro per la verifica dei dati utilizzando la meccanica quantistica.
― 5 leggere min
Questo articolo parla dell'importanza e delle strategie per mettere in sicurezza le catene di approvvigionamento del software.
― 7 leggere min
WPS può aiutare i servizi di localizzazione ma minaccia seriamente la privacy degli utenti.
― 5 leggere min
Migliorare la robustezza del machine learning contro gli esempi avversari è fondamentale per applicazioni sicure.
― 7 leggere min
Uno studio introduce RepNoise per proteggere i grandi modelli linguistici da un fine-tuning dannoso.
― 6 leggere min
Migliorare l'apprendimento distribuito attraverso tecniche di clipping adattive e robuste.
― 6 leggere min
Uno studio su come migliorare la robustezza contro gli attacchi nei modelli linguistici.
― 7 leggere min
Un nuovo framework migliora l'efficienza dei test di penetrazione automatizzati usando il reinforcement learning.
― 8 leggere min
Esplorare il ruolo dell'IA nella risoluzione delle vulnerabilità del software.
― 7 leggere min
Esaminando i rischi che affrontano i TEE a causa dei metodi di attacco in evoluzione.
― 6 leggere min
Esaminare l'impatto dei nudges sul comportamento di cambio password dopo le violazioni dei dati.
― 11 leggere min
Esplorando l'impatto dell'IA su efficienza, privacy e sicurezza nei sistemi vitali.
― 7 leggere min
Ricerca su come agenti dannosi possano corrompere agenti buoni nel RL decentralizzato.
― 7 leggere min
Questo articolo esamina come gli attacchi influenzano la sicurezza dei LLM e la generazione delle risposte.
― 6 leggere min
NCS permette di generare esempi avversari in modo efficace e con costi computazionali più bassi.
― 6 leggere min
Un clip audio universale può silenziare modelli ASR avanzati come Whisper.
― 6 leggere min
Un nuovo metodo migliora gli attacchi di jailbreak su modelli AI avanzati usando il gioco di ruolo.
― 7 leggere min
Un approccio efficiente in termini di risorse agli attacchi backdoor sui modelli di machine learning avanzati.
― 6 leggere min
Studio su come migliorare la sicurezza e l'efficienza nella comunicazione quantistica.
― 7 leggere min
Nuovi metodi nella crittografia basata su codice migliorano effettivamente la protezione dei dati.
― 4 leggere min
Esplorare nuovi modi per garantire la privacy nelle comunicazioni wireless.
― 6 leggere min
Nuovo metodo riduce le minacce backdoor nei reti neurali profonde.
― 7 leggere min
Esplora il ruolo fondamentale del controllo degli accessi nell'edge computing.
― 7 leggere min
Esplora come i giocatori usano la deceptione in scenari competitivi.
― 6 leggere min
Esaminando le sfide di sicurezza e le soluzioni per il RIC nelle reti Open RAN.
― 7 leggere min
Questo studio migliora la sicurezza del machine learning quantistico contro attacchi avversari tramite canali di rumore e metodi di privacy.
― 7 leggere min
Questo articolo esplora le vulnerabilità nei modelli di discorso e i modi per migliorare la loro sicurezza.
― 6 leggere min
Presentiamo un metodo pratico per lo scambio sicuro di chiavi tra utenti classici.
― 5 leggere min
Esaminando i pericoli dei modelli linguistici quantizzati e il loro potenziale uso improprio.
― 5 leggere min
Fast-FedUL offre metodi rapidi per rimuovere i dati nell'apprendimento federato, garantendo al contempo la privacy.
― 6 leggere min
Questo articolo esamina i rischi di sicurezza degli attacchi backdoor sul machine learning nei sistemi grafo.
― 7 leggere min
Un nuovo approccio migliora l'efficacia degli attacchi sui modelli di linguaggio focalizzati sulla sicurezza.
― 6 leggere min