La ricerca mette in evidenza i metodi per rilevare attacchi backdoor nel fine-tuning dei modelli di linguaggio.
― 9 leggere min
Scienza all'avanguardia spiegata semplicemente
La ricerca mette in evidenza i metodi per rilevare attacchi backdoor nel fine-tuning dei modelli di linguaggio.
― 9 leggere min
La ricerca svela vulnerabilità nei generatori di immagini AI a causa della manipolazione dei prompt.
― 6 leggere min
Un database per combattere i difetti di backdoor nei modelli di deep learning.
― 10 leggere min
L'apprendimento in ensemble migliora i filtri di sicurezza nei sistemi di controllo, rendendo la decisione tecnologica più efficace.
― 7 leggere min
Granite Guardian protegge le conversazioni AI da contenuti dannosi in modo efficace.
― 5 leggere min
Un nuovo metodo per assicurare che i modelli linguistici rimangano sicuri mentre funzionano in modo efficace.
― 7 leggere min
Impostare regole per la sicurezza dell'IA evitando trucchetti subdoli.
― 6 leggere min