Un nuovo framework migliora la sicurezza dei modelli linguistici contro la manipolazione dannosa dei dati.
― 4 leggere min
Scienza all'avanguardia spiegata semplicemente
Un nuovo framework migliora la sicurezza dei modelli linguistici contro la manipolazione dannosa dei dati.
― 4 leggere min
Uno sguardo ai nuovi metodi per combattere gli attacchi di avvelenamento dei dati nel machine learning.
― 6 leggere min
Il tuning delle istruzioni solleva preoccupazioni riguardo alle vulnerabilità di sicurezza nei modelli di linguaggio grandi.
― 4 leggere min
Un nuovo modello migliora il rilevamento di clip audio false attraverso l'analisi stereo.
― 6 leggere min
Un nuovo metodo migliora la privacy nei decision tree senza compromettere l'accuratezza.
― 5 leggere min
Esplorare i rischi dei modelli di linguaggio grandi nelle minacce informatiche.
― 5 leggere min
Valutare i modelli AI è fondamentale per evitare conseguenze negative nello sviluppo tecnologico.
― 7 leggere min
LLMDet identifica la fonte del testo, aumentando la fiducia nelle informazioni.
― 7 leggere min
Un nuovo metodo migliora il realismo nei campioni avversariali mantenendo l'efficacia.
― 5 leggere min
Il fingerprinting radio migliora la sicurezza dei satelliti contro attacchi di spoofing e replay.
― 6 leggere min
Esplorare metodi per rilevare frodi in DeFi usando tecniche avanzate di analisi dei dati.
― 4 leggere min
Questo studio esamina gli attacchi alle reti di distribuzione dell'acqua e propone metodi per una migliore rilevazione delle perdite.
― 7 leggere min
Un metodo per migliorare i modelli di classificazione del testo contro cambiamenti avversi.
― 7 leggere min
Un nuovo modello migliora il rilevamento delle minacce informatiche negli ambienti cloud.
― 8 leggere min
Un nuovo metodo migliora l'anonimato nelle firme ad anello per una sicurezza migliore.
― 7 leggere min
Esaminando il ruolo delle tecniche FPGA nel migliorare la sicurezza hardware.
― 6 leggere min
Un nuovo metodo prevede l'affidabilità delle reti in modo efficiente usando tecniche di deep learning.
― 6 leggere min
Un nuovo modello migliora l'accuratezza nella rilevazione delle vulnerabilità usando tecniche di deep learning.
― 7 leggere min
Uno sguardo ai nuovi metodi di codifica per una migliore privacy dei dati.
― 6 leggere min
MeTTa punta a unificare la programmazione per gli umani e le AGI.
― 4 leggere min
Valutare i rischi per la privacy nel deep learning contro vari attacchi.
― 6 leggere min
Un nuovo protocollo per proteggere la privacy degli utenti nel slicing delle reti 5G.
― 5 leggere min
PPA-AFL migliora la privacy dei dati nell'apprendimento automatico collaborativo tra i dispositivi.
― 6 leggere min
Un nuovo metodo per rilevare modelli insoliti nei dati usando il machine learning.
― 5 leggere min
L'apprendimento incrementale migliora il machine learning ma affronta seri minacce dagli attacchi backdoor.
― 4 leggere min
Questo studio esplora come gli operatori di rete si sono adattati durante il conflitto tra Russia e Ucraina.
― 8 leggere min
Un'immersione profonda negli attacchi di morphing facciale e nei metodi di rilevamento.
― 8 leggere min
UMD offre un nuovo modo per identificare efficacemente attacchi backdoor complessi.
― 5 leggere min
Uno studio sull'efficacia degli attacchi nei quartieri nel rivelare i dati di addestramento.
― 7 leggere min
Un nuovo framework migliora il rilevamento dei percorsi di attacco informatico.
― 7 leggere min
T800 offre una soluzione di sicurezza efficiente per i dispositivi IoT vulnerabili.
― 6 leggere min
Esplora strategie per garantire un routing sicuro in reti vulnerabili.
― 7 leggere min
Un nuovo metodo migliora il rilevamento del ransomware con più test per una maggiore precisione.
― 6 leggere min
Uno sguardo ai rischi e alle vulnerabilità della sicurezza tramite impronte digitali sugli smartphone.
― 5 leggere min
Un nuovo metodo che utilizza grafi per identificare attacchi avversariali sulle reti neurali.
― 7 leggere min
Questa ricerca esplora come gli attacchi avversariali influenzano i modelli di inferenza bayesiana.
― 8 leggere min
Esplorare attacchi e difese clean-label nei modelli di machine learning NLP.
― 6 leggere min
Esaminando come piccoli cambiamenti influenzano la qualità dell'immagine nei sistemi di compressione.
― 5 leggere min
Questa recensione esplora la resilienza dell'apprendimento non supervisionato agli attacchi avversari.
― 9 leggere min
Questo articolo esamina gli attacchi di inferenza degli attributi sulle GNN e il loro impatto sulla privacy.
― 9 leggere min