Misurare il Bias di Genere nei Grandi Modelli Vision-Linguistici
Nuovo benchmark valuta il bias di genere nei modelli di intelligenza artificiale legati ai ruoli lavorativi.
― 6 leggere min
Indice
- Perché dobbiamo controllare il pregiudizio
- Il nuovo benchmark
- Costruire il benchmark
- Creazione delle immagini di occupazione
- Trovare coppie di lavori
- Creazione di domande visive
- Valutazione dei modelli
- Risultati principali
- Pregiudizio di genere diffuso
- Il pregiudizio aumenta con la potenza del modello
- Pregiudizi comuni delle coppie di lavoro
- Implicazioni del pregiudizio
- Modelli di pregiudizio
- Direzione del pregiudizio
- Pregiudizio visivo e linguistico
- Lavoro futuro
- Conclusione
- Fonte originale
- Link di riferimento
I grandi modelli di linguaggio visivo (LVLM) sono strumenti avanzati che uniscono immagini e testo e oggi vengono usati in molti ambiti. Però, questi modelli mostrano spesso un forte pregiudizio nei confronti dei generi. Le metodologie esistenti per controllare il pregiudizio tendono a concentrarsi su gruppi di persone, piuttosto che trattare tutti equamente come individui. Questo significa che alcuni comportamenti ingiusti potrebbero passare inosservati perché non corrispondono alle medie di gruppo. Questo articolo presenta un nuovo modo per testare il Pregiudizio di genere in questi modelli, che analizza come gestiscono diversi ruoli lavorativi in base al genere.
Perché dobbiamo controllare il pregiudizio
Essere consapevoli del pregiudizio di genere nell'IA è cruciale. Ad esempio, quando un modello associa i medici agli uomini e le infermiere alle donne, rafforza stereotipi dannosi. Questi stereotipi influenzano come i diversi gruppi vengono visti e trattati nella società. Man mano che i LVLM diventano più popolari nelle applicazioni del mondo reale, è essenziale iniziare a controllare questi pregiudizi con maggiore attenzione.
Il nuovo benchmark
Abbiamo introdotto un nuovo benchmark per testare il pregiudizio di genere relativo ai lavori all'interno dei LVLM. Questo benchmark utilizza un metodo chiamato interrogazione controfattuale, che sostanzialmente chiede al modello cosa pensa di un lavoro quando il genere della persona nell'immagine viene cambiato. Ad esempio, se il modello vede un'immagine di una donna come amministratore delegato e poi gli viene mostrata la stessa immagine ma con il genere cambiato in maschile, possiamo vedere come cambiano le sue risposte.
Per creare questo benchmark, abbiamo prima generato immagini di diversi lavori utilizzando modelli di testo in immagine. Poi, abbiamo identificato coppie di lavori che le persone tradizionalmente associano a generi specifici. Combinando questi elementi, abbiamo creato una grande collezione di domande che ci ha permesso di testare efficacemente diversi LVLM.
Costruire il benchmark
Creazione delle immagini di occupazione
Abbiamo utilizzato tecniche avanzate di generazione di immagini per creare foto di persone in vari lavori. Il primo passo è stato ideare buoni prompt per generare queste immagini con precisione. Poi, abbiamo prodotto immagini che potevano essere scambiate tra generi per creare controfattuali. Questo processo ha comportato prendere un'immagine base di una donna in un lavoro e poi creare una versione con un uomo nello stesso ruolo mantenendo altri dettagli coerenti.
Trovare coppie di lavori
Per scoprire il pregiudizio, dovevamo trovare lavori che erano stereotipicamente considerati per un certo genere. Abbiamo analizzato statistiche sul lavoro per vedere quali lavori erano dominati dagli uomini e quali dalle donne. Abbiamo poi creato coppie di questi lavori che avevano grandi similitudini in termini di responsabilità ma venivano percepiti diversamente in base al genere.
Creazione di domande visive
Per i nostri test, abbiamo costruito domande utilizzando le immagini che abbiamo generato insieme alle coppie di lavoro. Ogni domanda includeva un'immagine, un chiaro quesito sull'occupazione rappresentata e due opzioni tra cui scegliere. Modificando il genere in queste immagini, abbiamo potuto creare diverse versioni della stessa domanda per vedere come rispondeva il modello.
Valutazione dei modelli
Abbiamo testato 15 LVLM popolari, inclusi modelli open-source e commerciali, utilizzando il nostro benchmark. La nostra valutazione mirava a rivelare quanto pregiudizio di genere esiste in questi modelli.
Risultati principali
Pregiudizio di genere diffuso
I nostri test hanno mostrato che il pregiudizio di genere è comune in quasi tutti i modelli valutati. In media, abbiamo trovato che l'accuratezza prevista nell'identificare correttamente le occupazioni cambiava di un margine significativo quando il genere della domanda visiva veniva alterato. Questo pregiudizio era particolarmente pronunciato in certas coppie di lavoro, come amministratore delegato versus segretario esecutivo.
Il pregiudizio aumenta con la potenza del modello
Interessante, abbiamo notato che i modelli più potenti spesso mostrano maggiore pregiudizio. Man mano che questi modelli diventano più accurati nelle loro previsioni, sembrano riflettere di più i pregiudizi sociali presenti nei dati di addestramento. Ad esempio, abbiamo osservato che modelli più grandi e avanzati si impegnavano in ragionamenti di pregiudizio più frequentemente rispetto ai loro omologhi più piccoli.
Pregiudizi comuni delle coppie di lavoro
Abbiamo scoperto che certe coppie di lavoro mostravano costantemente alti livelli di pregiudizio. Ad esempio, lavori come pilota e assistente di volo sono stati identificati come aventi forti differenze di genere su come i modelli li percepivano. Questo indica che non solo il pregiudizio esiste, ma è anche legato a specifiche occupazioni che la società associa fortemente ai ruoli di genere.
Implicazioni del pregiudizio
Modelli di pregiudizio
La nostra analisi ha rivelato che il pregiudizio non è solo casuale; tende a seguire determinati schemi. I lavori dominati dagli uomini ricadevano spesso in categorie come gestione o finanza, mentre i lavori dominati dalle donne erano tipicamente nel servizio o nel supporto amministrativo. Questo riflette stereotipi sociali più ampi su quali generi sono adatti per diversi ruoli.
Direzione del pregiudizio
Abbiamo notato che la maggior parte dei LVLM mostrava una preferenza per associare ruoli maschili a immagini maschili e ruoli femminili a immagini femminili. Tuttavia, alcuni ruoli lavorativi che tradizionalmente si inclinano verso il femminile, come la gestione finanziaria, venivano a volte visti come più maschili dai modelli. Questo evidenzia la complessità e l'incoerenza del pregiudizio di genere nell'IA.
Pregiudizio visivo e linguistico
Ulteriori indagini hanno rivelato una connessione stretta tra il pregiudizio visivo e quello linguistico in questi modelli. In altre parole, quando le rappresentazioni visive erano di parte, le uscite linguistiche spesso riflettevano questi stessi pregiudizi. Questa correlazione deriva probabilmente dal modo in cui questi modelli elaborano e collegano informazioni attraverso diversi tipi di dati.
Lavoro futuro
Sebbene questo benchmark iniziale fornisca preziose intuizioni, ci sono alcune limitazioni. Una grande preoccupazione è che i nostri metodi potrebbero portare con sé alcuni pregiudizi sottostanti che potrebbero influenzare i risultati. Inoltre, poiché ci siamo affidati a una visione binaria del genere, riconosciamo l'importanza di includere una gamma più ampia di identità di genere nel lavoro futuro.
Man mano che lo sviluppo dell'IA continua a un ritmo rapido, è cruciale che la società rimanga informata su questi pregiudizi e prenda provvedimenti per mitigare il loro impatto. Utilizzando benchmark come il nostro, i ricercatori possono valutare meglio i modelli prima che vengano utilizzati nel mondo reale.
Conclusione
Questo nuovo benchmark è un passo importante per misurare il pregiudizio di genere nei LVLM, soprattutto rispetto ai ruoli lavorativi. I pregiudizi persistenti che abbiamo osservato sottolineano la necessità di garantire che i modelli di IA trattino tutti gli individui equamente. Affrontare queste questioni può portare a un futuro più equo in cui la tecnologia serve tutti senza perpetuare stereotipi dannosi.
La continua ricerca e sviluppo sarà fondamentale per creare strumenti che non solo comprendano il nostro mondo, ma lo facciano in un modo che promuove equità e uguaglianza.
Titolo: GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing
Estratto: Large Vision-Language Models (LVLMs) have been widely adopted in various applications; however, they exhibit significant gender biases. Existing benchmarks primarily evaluate gender bias at the demographic group level, neglecting individual fairness, which emphasizes equal treatment of similar individuals. This research gap limits the detection of discriminatory behaviors, as individual fairness offers a more granular examination of biases that group fairness may overlook. For the first time, this paper introduces the GenderBias-\emph{VL} benchmark to evaluate occupation-related gender bias in LVLMs using counterfactual visual questions under individual fairness criteria. To construct this benchmark, we first utilize text-to-image diffusion models to generate occupation images and their gender counterfactuals. Subsequently, we generate corresponding textual occupation options by identifying stereotyped occupation pairs with high semantic similarity but opposite gender proportions in real-world statistics. This method enables the creation of large-scale visual question counterfactuals to expose biases in LVLMs, applicable in both multimodal and unimodal contexts through modifying gender attributes in specific modalities. Overall, our GenderBias-\emph{VL} benchmark comprises 34,581 visual question counterfactual pairs, covering 177 occupations. Using our benchmark, we extensively evaluate 15 commonly used open-source LVLMs (\eg, LLaVA) and state-of-the-art commercial APIs, including GPT-4o and Gemini-Pro. Our findings reveal widespread gender biases in existing LVLMs. Our benchmark offers: (1) a comprehensive dataset for occupation-related gender bias evaluation; (2) an up-to-date leaderboard on LVLM biases; and (3) a nuanced understanding of the biases presented by these models. \footnote{The dataset and code are available at the \href{https://genderbiasvl.github.io/}{website}.}
Autori: Yisong Xiao, Aishan Liu, QianJia Cheng, Zhenfei Yin, Siyuan Liang, Jiapeng Li, Jing Shao, Xianglong Liu, Dacheng Tao
Ultimo aggiornamento: 2024-06-30 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2407.00600
Fonte PDF: https://arxiv.org/pdf/2407.00600
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.