Un metodo per mantenere la privacy mentre si condividono statistiche sul traffico urbano.
― 5 leggere min
Scienza all'avanguardia spiegata semplicemente
Un metodo per mantenere la privacy mentre si condividono statistiche sul traffico urbano.
― 5 leggere min
Questo articolo esplora strategie per proteggere la privacy individuale nel machine learning.
― 7 leggere min
Scopri come la privacy differenziale protegge i dati personali pur permettendo analisi utili.
― 6 leggere min
Un approccio nuovo all'IA combina modelli linguistici con programmi simbolici per una migliore interpretabilità.
― 8 leggere min
Impara le migliori pratiche per sviluppare modelli di AI in modo responsabile ed efficace.
― 5 leggere min
Uno sguardo alle categorie di rischio dell'IA e alla necessità di politiche unificate.
― 6 leggere min
Nuovi metodi rivelano gravi minacce alla privacy derivanti dalla condivisione dei dati sulla posizione.
― 6 leggere min
Questo articolo esamina se i modelli linguistici grandi hanno credenze e intenzioni.
― 6 leggere min
Discutere della giustizia a lungo termine nella tecnologia e del suo impatto sociale.
― 7 leggere min
AAggFF introduce strategie adattive per un rendimento equo dei modelli nel Federated Learning.
― 6 leggere min
Strumenti come OxonFair aiutano a garantire equità nelle decisioni dell'IA.
― 6 leggere min
La ricerca mostra quanto sia facile rimuovere le funzionalità di sicurezza dai modelli Llama 3.
― 6 leggere min
La ricerca mostra come piccoli aggiustamenti possano migliorare le risposte dell'IA a culture diverse.
― 6 leggere min
Questo articolo esamina i rischi legati ai LLM e propone modi per migliorare la sicurezza.
― 5 leggere min
Un nuovo framework punta a rilevare e correggere gli errori nei risultati degli LVLM.
― 7 leggere min
Questo studio esamina i problemi di privacy e i metodi di protezione per i classificatori AI.
― 6 leggere min
Questo studio valuta quanto bene i modelli di IA capiscono diverse culture.
― 4 leggere min
Un nuovo metodo di difesa per migliorare la sicurezza nei modelli di diffusione da testo a immagine.
― 5 leggere min
NFARD offre metodi innovativi per proteggere i diritti d'autore dei modelli di deep learning.
― 7 leggere min
Questo studio si concentra sul ridurre il bias di genere nei modelli linguistici IA attraverso un linguaggio inclusivo.
― 7 leggere min
Migliorare la fiducia e la conformità nei modelli linguistici tramite un'adeguata attribuzione delle fonti.
― 6 leggere min
Questo studio rivela che i modelli LLM preferiscono i propri risultati rispetto ai contenuti scritti da umani.
― 4 leggere min
Uno studio rivela le difficoltà per gli umani e l'IA nel riconoscersi a vicenda.
― 6 leggere min
Esaminando come il linguaggio influisce sulle opinioni di genere attraverso i pregiudizi nei modelli di IA.
― 4 leggere min
CEIPA aiuta a scoprire vulnerabilità nei modelli linguistici di grandi dimensioni per migliorare la loro sicurezza.
― 7 leggere min
Esaminare i rischi e le misure di sicurezza per i robot alimentati da LLM.
― 8 leggere min
Esaminare l'impatto dei LLM sui stereotipi sociali e i modi per migliorare i risultati.
― 5 leggere min
Uno studio rivela rischi sorprendenti nel condividere dati sensibili con chatbot.
― 8 leggere min
Esaminando la privacy differenziale e la regressione NTK per proteggere i dati degli utenti nell'AI.
― 7 leggere min
Esplorando la privacy differenziale per proteggere info sensibili nelle applicazioni di IA.
― 5 leggere min
Honest Computing punta sulla fiducia e sull'etica nella gestione dei dati.
― 10 leggere min
Un sistema che permette ai proprietari dei dati di controllare usi non autorizzati dei loro dati nel ML.
― 7 leggere min
Questo metodo migliora la privacy mentre aumenta l'accuratezza del modello nell'IA.
― 6 leggere min
Esplorando tecniche per rimuovere i dati in modo efficace dai modelli di IA.
― 8 leggere min
Esaminare gli effetti sociali e ambientali dei modelli di fondazione AI.
― 6 leggere min
Esaminando la privacy differenziale nella elaborazione del linguaggio naturale per una migliore protezione dei dati.
― 8 leggere min
Esaminando come gli strumenti di intelligenza artificiale possano rafforzare i pregiudizi nella selezione dei curriculum.
― 5 leggere min
Il metodo CrossWalk migliora l'equità nelle rappresentazioni dei nodi tenendo in considerazione informazioni sensibili.
― 5 leggere min
Le spiegazioni ingannevoli dell'AI possono influenzare le credenze, complicando la lotta contro la disinformazione.
― 5 leggere min
Questo documento esamina l'efficacia dei metodi attuali di verifica dell'unlearning delle macchine.
― 7 leggere min