Quest'articolo parla dei problemi di sicurezza e protezione nei sistemi di intelligenza artificiale multimodali.
Ruoxi Sun, Jiamin Chang, Hammond Pearce
― 6 leggere min
Scienza all'avanguardia spiegata semplicemente
Quest'articolo parla dei problemi di sicurezza e protezione nei sistemi di intelligenza artificiale multimodali.
Ruoxi Sun, Jiamin Chang, Hammond Pearce
― 6 leggere min
Le FPGA offrono flessibilità ma introducono rischi di sicurezza significativi che devono essere affrontati.
Endres Puschner, Maik Ender, Steffen Becker
― 6 leggere min
Scopri come gli incidenti recenti mettono in evidenza le vulnerabilità nei pacchetti Linux.
Duc-Ly Vu, Trevor Dunlap, Karla Obermeier-Velazquez
― 8 leggere min
Scopri come nuove strumenti aiutano a proteggere i programmi da minacce nascoste come Spectre.
Fangzheng Lin, Zhongfa Wang, Hiroshi Sasaki
― 6 leggere min
Insegnare alle macchine a imparare senza svelare i segreti degli esperti è fondamentale per la privacy.
Navodita Sharma, Vishnu Vinod, Abhradeep Thakurta
― 6 leggere min
Scopri cos'è il browser fingerprinting e come influisce sulla tua privacy online.
Alexander Lawall
― 7 leggere min
Esaminando le complessità delle tecnologie di voto a distanza per i membri militari.
Andrew W. Appel, Philip B. Stark
― 8 leggere min
Uno sguardo al mining di Bitcoin, ricompense e le sfide che i miner affrontano.
Roozbeh Sarenche, Alireza Aghabagherloo, Svetla Nikova
― 5 leggere min
Scopri come le nuove tecniche di watermarking proteggono l'arte digitale e le idee creative.
Liangqi Lei, Keke Gai, Jing Yu
― 6 leggere min
Un nuovo approccio migliora il recupero delle patch per le vulnerabilità software.
Xueqing Liu, Yuchen Xiong, Qiushi Liu
― 8 leggere min
Questo articolo parla di problemi di privacy e soluzioni per interagire con modelli di linguaggio.
Robin Carpentier, Benjamin Zi Hao Zhao, Hassan Jameel Asghar
― 5 leggere min
Un modo per proteggere l'arte generata dall'AI senza perdere qualità dell'immagine.
Kareem Shehata, Aashish Kolluri, Prateek Saxena
― 4 leggere min
I contenitori riservati migliorano la sicurezza dei dati e le prestazioni negli ambienti cloud.
Chulmin Lee, Jaewon Hur, Sangho Lee
― 7 leggere min
Uno sguardo alla contabilità a tripla entrata e al suo ruolo nel migliorare la fiducia nel settore finanziario.
Abraham Itzhak Weinberg, Alessio Faccia
― 8 leggere min
Un nuovo metodo migliora la sicurezza del codice generato dai modelli linguistici.
Xiangzhe Xu, Zian Su, Jinyao Guo
― 5 leggere min
Uno sguardo a come i ricercatori proteggono la privacy nei dati delle indagini mentre condividono le intuizioni.
Jeremy Seeman, Yajuan Si, Jerome P Reiter
― 6 leggere min
Metodi per proteggere i dati sensibili senza compromettere le prestazioni del modello.
Yuxiao Chen, Gamze Gürsoy, Qi Lei
― 5 leggere min
Uno sguardo su come i trucchi nascosti influenzano i modelli di linguaggio e le loro spiegazioni.
Huaizhi Ge, Yiming Li, Qifan Wang
― 6 leggere min
Valutare le vulnerabilità nella privacy del federated learning tramite attacchi di inferenza degli attributi.
Francesco Diana, Othmane Marfoq, Chuan Xu
― 8 leggere min
StrTune identifica in modo efficiente funzioni simili nel codice binario, migliorando la sicurezza del software.
Kaiyan He, Yikun Hu, Xuehui Li
― 7 leggere min
Un nuovo modo per prevedere e prevenire le violazioni dei dati usando dati tecnici e sociali.
Hicham Hammouchi, Narjisse Nejjari, Ghita Mezzour
― 5 leggere min
Esplora il ruolo dei problemi di punto di sella stocastici nell'ottimizzazione delle ricette e nella privacy.
Raef Bassily, Cristóbal Guzmán, Michael Menart
― 6 leggere min
Scopri un nuovo metodo per trasferire file in modo sicuro ed efficiente.
Chaitanya Rahalkar, Anushka Virgaonkar
― 6 leggere min
I modelli di linguaggio mostrano abilità impressionanti ma anche vulnerabilità significative che dobbiamo affrontare.
Sanjay Das, Swastik Bhattacharya, Souvik Kundu
― 5 leggere min
Un nuovo metodo per rilevare e correggere il data poisoning nei modelli di machine learning.
Wenjie Li, Jiawei Li, Christian Schroeder de Witt
― 6 leggere min
I modelli di intelligenza artificiale possono aiutare a trovare vulnerabilità nei sistemi crittografici per una sicurezza migliore.
Cristian Curaba, Denis D'Ambrosi, Alessandro Minisini
― 7 leggere min
Scopri come le distanze tra stringhe possono aiutare la privacy nell'analisi dei dati sensibili.
Jerry Yao-Chieh Hu, Erzhi Liu, Han Liu
― 6 leggere min
Scopri le minacce dell'IA e come proteggere i dati sensibili.
Sarbartha Banerjee, Prateek Sahu, Mulong Luo
― 5 leggere min
Un nuovo framework migliora la sicurezza dei fornitori usando la tecnologia blockchain per ridurre i rischi.
Deepti Gupta, Lavanya Elluri, Avi Jain
― 7 leggere min
Un nuovo modello punta a proteggere gli agricoltori dagli attacchi informatici in aumento nell'agricoltura intelligente.
Lopamudra Praharaj, Deepti Gupta, Maanak Gupta
― 7 leggere min
Esaminare attacchi avversariali e promuovere l'equità attraverso il mixup training.
Meiyu Zhong, Ravi Tandon
― 7 leggere min
Pulsar Consensus offre un metodo moderno ed efficiente per la validazione delle transazioni nelle valute digitali.
Samer Afach, Benjamin Marsh, Enrico Rubboli
― 4 leggere min
L'AI e i nuovi metodi puntano a migliorare la rilevazione di malware e la sicurezza informatica.
Jinting Zhu, Julian Jang-Jaccard, Ian Welch
― 7 leggere min
Un nuovo modo per migliorare la sicurezza in RISC-V usando Funzioni Fisiche Non Clonabili.
Chenghao Chen, Xiaolin Zhang, Kailun Qin
― 8 leggere min
Uno sguardo a come varie misurazioni di distanza influenzano forme e dati.
Carlos Pinzón
― 6 leggere min
Uno studio su come migliorare la privacy dei dati limitando l'accesso agli script.
Gayatri Priyadarsini Kancherla, Dishank Goel, Abhishek Bichhawat
― 8 leggere min
Esaminare come i siti web gestiscono il consenso degli utenti e la privacy.
Gayatri Priyadarsini Kancherla, Nataliia Bielova, Cristiana Santos
― 6 leggere min
Un nuovo metodo genera dati realistici per addestrare modelli nella verifica dell'identità.
Hitesh Laxmichand Patel, Amit Agarwal, Bhargava Kumar
― 6 leggere min
Uno sguardo più da vicino alle affermazioni di una nuova difesa per la classificazione delle immagini contro esempi avversariali.
Jie Zhang, Kristina Nikolić, Nicholas Carlini
― 9 leggere min
Uno studio rivela come l'iniezione di prompt può compromettere i modelli di linguaggio.
Jiashuo Liang, Guancheng Li, Yang Yu
― 10 leggere min