La ricerca presenta un framework per ridurre il bias nei testi generati dall'IA.
― 7 leggere min
Scienza all'avanguardia spiegata semplicemente
La ricerca presenta un framework per ridurre il bias nei testi generati dall'IA.
― 7 leggere min
I workshop migliorano la comprensione dell'AI Responsabile per i professionisti del settore.
― 9 leggere min
La ricerca mostra come suggerimenti amichevoli possano ingannare i sistemi AI.
― 5 leggere min
Un dataset solido per addestrare sistemi AI avanzati basati su chat.
― 5 leggere min
Un framework per includere le voci delle minoranze nei processi di annotazione.
― 9 leggere min
Scopri come il Text Style Transfer cambia lo stile del testo mantenendo il significato.
― 9 leggere min
Un nuovo metodo migliora l'allineamento dei modelli di intelligenza artificiale senza la necessità di riqualificazione.
― 8 leggere min
PUFFLE offre una soluzione per le sfide di privacy, utilità e giustizia nell'apprendimento automatico.
― 6 leggere min
Nuovo modello crea in modo efficiente rappresentazioni 3D realistiche di teste umane.
― 7 leggere min
Questo articolo parla di come il ragionamento degli LLM migliori i sistemi di raccomandazione e presenta Rec-SAVER.
― 7 leggere min
Un metodo per ridurre il bias nei modelli di linguaggio facendoli dimenticare informazioni dannose.
― 6 leggere min
Combinare il machine learning con il ragionamento automatico per spiegazioni dell'AI più chiare.
― 6 leggere min
Tecniche per bypassare la sicurezza nei modelli di linguaggio.
― 5 leggere min
Esplorare l'uso delle filigrane per affrontare problemi di copyright nei modelli linguistici.
― 6 leggere min
Un nuovo dataset sintetico permette una precisa rilevazione delle teste e la modellazione 3D.
― 10 leggere min
Uno studio dettagliato su come i modelli memorizzano il testo e le sue implicazioni.
― 6 leggere min
Un'analisi su come i sondaggi influenzano la ricerca sull'IA, i valori e il coinvolgimento del pubblico.
― 9 leggere min
Questo progetto punta a identificare e ridurre i pregiudizi nei modelli linguistici delle lingue europee.
― 4 leggere min
Un'immersione profonda nell'importanza di interpretare i modelli NLP.
― 4 leggere min
Esaminando i metodi per preparare i dati nell'addestramento dei modelli.
― 6 leggere min
Un nuovo modo per valutare l'affidabilità dei metodi che spiegano il processo decisionale dell'IA.
― 8 leggere min
Esaminando le questioni di equità negli algoritmi di rilevamento delle anomalie per immagini facciali.
― 6 leggere min
Esplorare l'unlearning delle macchine e il suo ruolo nel migliorare la sicurezza e la privacy dell'AI generativa.
― 7 leggere min
Esplorare i bias umani e il loro impatto sulla giustizia dell'AI.
― 8 leggere min
Nuovi metodi rilevano e rispondono alla memorizzazione nei contenuti generati dall'AI.
― 8 leggere min
Esplorare principi per relazioni etiche tra le persone e i loro dati.
― 6 leggere min
Nuovi metodi affrontano i problemi di copia nei modelli di generazione delle immagini.
― 6 leggere min
Esaminare i pregiudizi e l'equità nei grandi modelli di linguaggio.
― 6 leggere min
Esplorare il ruolo e le sfide degli LLM nella conoscenza ingegneristica.
― 7 leggere min
Uno studio mette in luce le lacune nella rappresentanza degli utenti emarginati di Stable Diffusion.
― 7 leggere min
Un nuovo modello per un cambio facciale realistico usando tecniche avanzate.
― 7 leggere min
Una panoramica dei rischi e dei metodi legati alla sicurezza dei modelli linguistici.
― 5 leggere min
Uno sguardo al bias e all'equità nella tecnologia della visione computazionale.
― 8 leggere min
I modelli di linguaggio più grandi mostrano una maggiore vulnerabilità a comportamenti dannosi nei dati.
― 6 leggere min
Metodi innovativi per migliorare l'equità nei modelli di linguaggio grandi.
― 7 leggere min
Esaminare i rischi del jailbreaking a più tentativi nei modelli linguistici italiani.
― 4 leggere min
Gli attacchi di shuffling rivelano vulnerabilità nelle valutazioni di equità dell'IA utilizzando metodi come SHAP.
― 6 leggere min
Questo articolo analizza come contesti diversi influenzano i risultati dei test di equità nell'IA.
― 6 leggere min
Scopri gli ultimi sviluppi nei modelli da testo a immagine e il loro impatto.
― 8 leggere min
Presentiamo BMFT: un metodo per migliorare l'equità nel machine learning senza i dati di addestramento originali.
― 4 leggere min