Affrontare il pregiudizio di genere nella didascalia delle immagini
Questo studio esamina e affronta il bias di genere nelle didascalie delle immagini nel machine learning.
― 7 leggere min
Indice
- Motivazione per lo Studio
- Annotazione Umana e Pregiudizio
- Pregiudizio nei Dataset Esistenti
- Problemi nei Modelli Avanzati
- Il Nostro Approccio per Affrontare il Pregiudizio di Genere
- Selezione del Dataset per la Valutazione
- Esperimenti e Risultati
- Conclusione
- Direzioni Future
- Fonte originale
- Link di riferimento
Il nostro mondo ha molti tipi di pregiudizi, incluso quello di genere. Questo pregiudizio influisce su come vediamo i ruoli per uomini e donne in vari ambiti, come il lavoro e la vita quotidiana. Queste idee sui ruoli di genere vengono dalla società e spesso si riflettono nei dati usati nell'apprendimento automatico. Poiché l'apprendimento automatico si basa sui dati, qualsiasi pregiudizio presenti in quelli può portare a risultati distorti. Questo articolo esplora il Pregiudizio di genere nel captioning delle immagini, che è quando i computer descrivono le immagini generando didascalie.
Motivazione per lo Studio
Studi recenti mostrano che il pregiudizio di genere è comune in molti modelli di apprendimento automatico, specialmente quelli che si occupano di linguaggio. I ricercatori hanno scoperto che quando questi modelli vengono addestrati su dati pregiudiziali, creano connessioni sbagliate tra genere e diverse attività. Ad esempio, un Modello potrebbe associare "uomo" con "dottore" e "donna" con "casalinga." Questo schema è un riflesso delle opinioni sociali piuttosto che una rappresentazione accurata della realtà. I pregiudizi che esistono nei Dati di addestramento influiscono alla fine sui modelli, rendendoli meno affidabili.
Annotazione Umana e Pregiudizio
Uno dei principali motivi del pregiudizio di genere nell'apprendimento automatico è come gli esseri umani etichettano i dati. Ad esempio, in un dataset popolare chiamato MS-COCO, i ricercatori hanno trovato che quando gli esseri umani descrivono immagini di persone il cui genere non è chiaro, spesso indovinano basandosi sui propri pregiudizi. Se un'immagine mostra una persona in bicicletta, molti potrebbero etichettare quella persona come "uomo" semplicemente perché pensano che andare in bicicletta sia qualcosa che fanno più gli uomini delle donne. Questa pratica porta a molti malintesi e rafforza i pregiudizi esistenti.
Pregiudizio nei Dataset Esistenti
Alcuni dataset mostrano chiari schemi di pregiudizio di genere. In dataset come MS-COCO e imSitu, le parole legate alle attività tendono ad essere collegate più a un genere rispetto all'altro. Ad esempio, le parole associate ai compiti domestici vengono usate più spesso con termini "femminili", mentre le parole legate ai compiti tecnici potrebbero essere legate di più a termini "maschili". Questa mancanza di equilibrio nei dati può ulteriormente distorcere i risultati forniti dai modelli di apprendimento automatico.
Problemi nei Modelli Avanzati
Il problema del pregiudizio di genere non si ferma a livello di dati. Modelli avanzati, come i sistemi di traduzione, possono anche riflettere questi pregiudizi. Ad esempio, quando si traducono frasi da una lingua che non specifica il genere in inglese, questi modelli tendono ad assegnare ruoli maschili a certe professioni, come "dottore", e ruoli femminili ad altre, come "infermiera". Inoltre, nei modelli di captioning delle immagini, il pregiudizio di genere può portare a etichette errate. Se il modello è addestrato su dati pregiudiziali, potrebbe assumere che una persona che usa un computer sia maschio, anche se l'immagine mostra chiaramente una femmina.
Il Nostro Approccio per Affrontare il Pregiudizio di Genere
In questo progetto, volevamo capire il pregiudizio di genere nel captioning delle immagini e vedere come affrontarlo. Abbiamo studiato il modello "Show, Attend and Tell", che è un sistema di captioning delle immagini molto noto. Attraverso la nostra analisi, abbiamo scoperto che le connessioni che il modello ha appreso dai dati pregiudiziali portavano spesso a didascalie errate. Per affrontare questo problema, abbiamo pensato a modi per rimuovere questi pregiudizi dai dati, in modo che il modello non facesse assunzioni sbagliate.
Inizialmente, abbiamo considerato di bilanciare i dati assicurandoci che ci fosse una rappresentazione uguale dei generi in ogni attività. Tuttavia, questo metodo non si è rivelato praticabile a causa del grande numero di attività e delle varie istanze in cui una certa attività potrebbe essere associata solo a un genere. Così, abbiamo esplorato una soluzione diversa.
Il nostro obiettivo principale era prevenire che il modello sviluppasse forti associazioni tra genere e attività. Volevamo che il modello si concentrasse esclusivamente sull'immagine mentre generava didascalie, senza considerare idee preconcette sui ruoli di genere. Così, abbiamo diviso il nostro obiettivo in due compiti: creare un modello di captioning delle immagini neutro rispetto al genere e concentrarci sull'identificazione del genere delle persone nelle immagini.
Per creare un modello neutro rispetto al genere, abbiamo rimosso tutti i termini specifici di genere dai dati di addestramento, sostituendoli con termini neutri come "persona" o "persone." Dopo questo passaggio, abbiamo addestrato un nuovo modello chiamato Gender Agnostic Show, Attend and Tell network. Per il secondo compito, abbiamo utilizzato un modello esistente che identifica il genere basandosi sulle immagini. Combinando i risultati di entrambi i compiti, puntavamo a generare didascalie più accurate.
Selezione del Dataset per la Valutazione
Per valutare le prestazioni del nostro modello, abbiamo utilizzato il dataset MS-COCO e lo abbiamo diviso in tre sottoinsiemi:
Dataset Gender Confident: Questo set include immagini dove tutte le didascalie si riferiscono costantemente allo stesso genere. Abbiamo raccolto casi in cui ogni descrizione utilizzava un termine come "uomo" o "donna". Questo ci ha fornito un sottoinsieme di 2036 immagini.
Dataset Umani: Abbiamo selezionato immagini contenenti figure umane, assicurandoci che almeno una didascalia menzionasse un identificatore umano. Questo dataset conteneva 19.051 immagini.
Dataset Nature: Questo set includeva immagini senza umani. Abbiamo filtrato le immagini in cui nessuna delle didascalie menzionava identificatori umani. Questo ci ha permesso di concentrarci sulle rimanenti 21.453 immagini.
Esperimenti e Risultati
Per i nostri esperimenti, abbiamo valutato il nostro modello sui tre dataset menzionati sopra. La nostra rete agnostica rispetto al genere ha fornito previsioni usando il termine "persona" come output, così da poter confrontare la qualità generale delle didascalie. Abbiamo anche generato previsioni neutre rispetto al genere per confronto.
I modelli che abbiamo valutato erano i seguenti:
- Show, Attend and Tell (SAT): Il modello di base che abbiamo usato.
- SAT-N: Previsioni dal modello SAT aggiustate per essere neutre rispetto al genere.
- Show, Attend and Identify (SAI): Il nostro modello completo che separa l'identificazione di genere dal captioning delle immagini.
- SAI-N: La componente neutra rispetto al genere del nostro modello.
Abbiamo riportato risultati di prestazione utilizzando diversi metriche, tra cui punteggi BLEU, METEOR, ROUGE e CIDEr attraverso i diversi dataset.
Anche se il nostro modello ha mostrato risultati promettenti, una sfida significativa è stata l'accuratezza del modello di identificazione di genere. Sebbene sia un modello affidabile, la sua accuratezza era sorprendentemente bassa, intorno al 50%, per il dataset Gender Confident, il che ha influenzato le prestazioni complessive del nostro sistema.
Conclusione
Attraverso questo progetto, abbiamo dimostrato che il pregiudizio di genere è un problema significativo sia nei dataset che nei modelli. Implementando una tecnica per rimuovere il pregiudizio dal captioning delle immagini, siamo riusciti a vedere miglioramenti nella qualità delle didascalie mantenendo però buone prestazioni nelle immagini senza umani. Tuttavia, abbiamo anche notato che rimuovere i termini specifici di genere dai dati di addestramento ha portato a un aumento dell'uso di termini come 'maschio' e 'femmina', rivelando una connessione tra le rappresentazioni di queste parole.
In generale, questo lavoro suggerisce che per ottenere modelli privi di pregiudizi sia cruciale separare le informazioni di genere dal processo di captioning delle immagini, prevenendo il bias dall'influenzare i risultati.
Direzioni Future
Inizialmente, volevamo rimuovere il pregiudizio di genere dai modelli VQA (Visual Question Answering). Tuttavia, quest'area rimane altamente complessa e sfidante. Come prossimo passo, ulteriori lavori potrebbero coinvolgere l'uso di embedding di parole modificati per eliminare il pregiudizio di genere. Un'altra potenziale direzione potrebbe riguardare lo sviluppo di un modello di identificazione di genere più avanzato, consentendo di avere una terza categoria di "persona" per affrontare i casi in cui non si può determinare il genere. Esplorare queste idee potrebbe migliorare le prestazioni complessive del nostro modello e renderlo più equo nelle sue operazioni.
Titolo: Fairness in AI Systems: Mitigating gender bias from language-vision models
Estratto: Our society is plagued by several biases, including racial biases, caste biases, and gender bias. As a matter of fact, several years ago, most of these notions were unheard of. These biases passed through generations along with amplification have lead to scenarios where these have taken the role of expected norms by certain groups in the society. One notable example is of gender bias. Whether we talk about the political world, lifestyle or corporate world, some generic differences are observed regarding the involvement of both the groups. This differential distribution, being a part of the society at large, exhibits its presence in the recorded data as well. Machine learning is almost entirely dependent on the availability of data; and the idea of learning from data and making predictions assumes that data defines the expected behavior at large. Hence, with biased data the resulting models are corrupted with those inherent biases too; and with the current popularity of ML in products, this can result in a huge obstacle in the path of equality and justice. This work studies and attempts to alleviate gender bias issues from language vision models particularly the task of image captioning. We study the extent of the impact of gender bias in existing datasets and propose a methodology to mitigate its impact in caption based language vision models.
Autori: Lavisha Aggarwal, Shruti Bhargava
Ultimo aggiornamento: 2023-05-03 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2305.01888
Fonte PDF: https://arxiv.org/pdf/2305.01888
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.