Questo articolo parla delle preoccupazioni sulla privacy nell'uso dei modelli GPT nei cloud.
― 5 leggere min
Scienza all'avanguardia spiegata semplicemente
Questo articolo parla delle preoccupazioni sulla privacy nell'uso dei modelli GPT nei cloud.
― 5 leggere min
L'esame degli attacchi di jailbreak mostra debolezze nella sicurezza dei modelli linguistici.
― 5 leggere min
I LLM personalizzati sollevano preoccupazioni di sicurezza, soprattutto per quanto riguarda gli attacchi con backdoor tramite istruzioni.
― 6 leggere min
Campioni diversi aumentano l'efficacia del furto di modelli di machine learning.
― 6 leggere min
Un nuovo framework valuta l'efficacia dei classificatori di sicurezza delle immagini contro contenuti nocivi.
― 11 leggere min
Le GNN induttive affrontano minacce alla privacy dagli attacchi di furto di link.
― 6 leggere min
Un nuovo framework controlla l'apprendimento in contesto per prevenire abusi nei modelli di intelligenza artificiale.
― 8 leggere min
Esaminare le minacce poste dagli agenti autonomi di modelli linguistici e le loro debolezze.
― 7 leggere min
Esaminando gli effetti degli aggiornamenti su sicurezza, pregiudizi e autenticità nella generazione di immagini.
― 7 leggere min
Esaminando come i dati importanti attirano più rischi di sicurezza nel machine learning.
― 6 leggere min
Esaminando come i modelli SSL memorizzano i punti dati e le sue implicazioni.
― 8 leggere min