Affrontare il bias nell'apprendimento automatico per una tecnologia più equa
Uno sguardo alle pratiche di equità nel machine learning e al loro impatto sulla società.
― 5 leggere min
Indice
Il mondo del mobile, dei dispositivi indossabili e dell'informatica quotidiana sta cambiando grazie all'uso dell'apprendimento automatico. Ora, i dispositivi possono aiutare a individuare problemi di salute, prevedere malattie cardiache e migliorare il nostro modo di pensare. Tuttavia, gli Algoritmi che alimentano questi dispositivi possono essere di parte, specialmente su questioni delicate come genere e razza. Questo può portare a risultati ingiusti. I ricercatori nell'interazione uomo-computer (HCI) e nell'etica dell'AI stanno iniziando a indagare su come condividere informazioni sui dati utilizzati per addestrare queste macchine per scoprire e affrontare questi pregiudizi. Questo articolo vuole esaminare quanto bene la comunità che studia queste tecnologie abbia adottato pratiche di reporting per promuovere l'Equità e segnalare aree che necessitano di miglioramenti.
Stato attuale dell'equità nell'apprendimento automatico
Anche se l'apprendimento automatico ha permesso notevoli progressi nella sanità e nel monitoraggio personale, è anche importante riconoscere che gli algoritmi non sono sempre privi di pregiudizi. Il pregiudizio è una questione cruciale, poiché può portare a effetti nocivi, in particolare per i gruppi emarginati. Ci sono stati casi in cui i modelli di apprendimento automatico hanno mostrato una minore precisione per determinati gruppi demografici. Ad esempio, alcuni algoritmi progettati per rilevare condizioni della pelle hanno dato risultati scarsi su persone con tonalità di pelle più scure.
Nonostante queste disparità, gran parte della ricerca nella comunità dell'informatica ubiquitaria si è concentrata principalmente sulla precisione, trascurando spesso l'equità di questi algoritmi. Questo documento rivela che pochissimi studi affrontano attivamente l'equità, poiché la maggior parte dei ricercatori è più preoccupata di migliorare le prestazioni dei loro modelli.
Focus della ricerca
Abbiamo condotto una revisione degli studi pubblicati in una rivista importante nel campo dell'UbiComp negli ultimi cinque anni. L'obiettivo era identificare quanti articoli trattano l'equità nel loro lavoro e valutare lo stato delle pratiche di equità in questa comunità. Abbiamo setacciato numerose pubblicazioni per tracciare come viene definita l'equità e se i ricercatori stanno facendo gli sforzi necessari per garantire che i loro algoritmi siano equi.
Concentrandoci sulle pubblicazioni di questa rivista specifica, volevamo ottenere informazioni sulle tendenze emergenti e sui metodi riguardanti l'equità nelle applicazioni di apprendimento automatico pertinenti all'informatica ubiquitaria. In totale, abbiamo esaminato 523 articoli, di cui solo 49 hanno discusso l'equità in qualche modo.
Risultati chiave
Focus limitato sull'equità
Tra gli articoli che abbiamo esaminato, è stato allarmante scoprire che solo un piccolo 5% ha riportato valutazioni di equità. La maggior parte degli articoli ha enfatizzato invece la precisione o i tassi di errore. Inoltre, anche tra i pochi articoli che hanno considerato l'equità, molti hanno solo incorporato meccanismi minori per affrontare i potenziali pregiudizi.
Mancanza di dataset diversificati
Una delle principali preoccupazioni è la mancanza di diversità nei dataset utilizzati per addestrare e testare gli algoritmi. Molti studi si basano su dataset che non riflettono la diversità demografica della popolazione più ampia. Questo può portare a modelli che funzionano bene per alcuni gruppi mentre falliscono per altri. Senza un insieme di dati vario, i pregiudizi presenti nella fase di addestramento possono facilmente trasferirsi sulle prestazioni dell'algoritmo in scenari reali.
Pratiche di reporting
È stato anche notato che la maggior parte degli studi si è concentrata su Metriche di Prestazione piuttosto che su metriche di equità. Sebbene le metriche di prestazione siano essenziali, basarsi solo su di esse può offuscare i pregiudizi sottostanti e impedire ai ricercatori di avere un quadro completo di come i loro modelli si comportano tra diversi gruppi demografici.
Storia degli Attributi Sensibili
Gli attributi sensibili, come età, genere, razza e altri fattori identitari, sono fondamentali per comprendere l'equità nei modelli di apprendimento automatico. Sorprendentemente, la nostra revisione ha rivelato che molti articoli non riportavano adeguatamente questi attributi sensibili. Mentre età e genere venivano spesso menzionati, altri attributi come razza, lingua e status socioeconomico venivano spesso trascurati.
Raccomandazioni per il miglioramento
Dare priorità all'equità fin dall'inizio
Per i ricercatori e gli sviluppatori nella comunità UbiComp, è fondamentale dare priorità all'equità sin dall'inizio di qualsiasi progetto. Questo significa considerare come possono essere progettati algoritmi equi per ridurre al minimo i potenziali danni a specifici gruppi demografici. Comprendere i tipi di pregiudizi che possono sorgere è cruciale per creare soluzioni tecnologiche eque.
Valutare la diversità dei dati
Quando raccolgono dati, i ricercatori dovrebbero puntare a un campione più rappresentativo che includa gruppi demografici diversificati. Questo implica sia migliori pratiche di reclutamento sia la garanzia che i metodi di raccolta dati siano inclusivi. Inoltre, i ricercatori dovrebbero prestare attenzione a convalidare il loro dataset controllando per possibili pregiudizi o omissioni.
Implementare metriche di equità
Introdurre metriche di equità insieme a metriche di prestazione tradizionali può aiutare i ricercatori a capire meglio come funzionano i loro algoritmi tra vari gruppi. Sottolineando l'equità durante le valutazioni, i ricercatori possono rilevare pregiudizi che altrimenti potrebbero passare inosservati.
Monitoraggio e aggiustamenti continui
Una volta che i modelli sono stati implementati, il monitoraggio continuo è essenziale per garantire che mantengano equità e precisione nel tempo. Questo richiede una comprensione di come i cambiamenti demografici possano influenzare le prestazioni del modello e la necessità di apportare aggiustamenti di conseguenza.
Conclusione
Sebbene l'intersezione tra apprendimento automatico e informatica ubiquitaria abbia grandi potenzialità, l'importanza dell'equità in queste tecnologie non può essere sottovalutata. Prestando attenzione ai potenziali pregiudizi e cercando di creare soluzioni eque, i ricercatori possono garantire che i progressi tecnologici beneficino tutti, non solo alcuni. Solo adottando un approccio proattivo all'equità la comunità UbiComp può davvero fare progressi verso uno sviluppo tecnologico responsabile ed etico.
Attraverso revisioni sistematiche, una migliore raccolta dei dati e l'implementazione di metriche di equità, la comunità può lavorare per sviluppare sistemi di apprendimento automatico che siano sia efficaci che giusti. È fondamentale dare priorità a pratiche inclusive e responsabilità per prevenire che i pregiudizi minino i benefici che queste tecnologie offrono.
Titolo: Beyond Accuracy: A Critical Review of Fairness in Machine Learning for Mobile and Wearable Computing
Estratto: The field of mobile and wearable computing is undergoing a revolutionary integration of machine learning. Devices can now diagnose diseases, predict heart irregularities, and unlock the full potential of human cognition. However, the underlying algorithms powering these predictions are not immune to biases with respect to sensitive attributes (e.g., gender, race), leading to discriminatory outcomes. The goal of this work is to explore the extent to which the mobile and wearable computing community has adopted ways of reporting information about datasets and models to surface and, eventually, counter biases. Our systematic review of papers published in the Proceedings of the ACM Interactive, Mobile, Wearable and Ubiquitous Technologies (IMWUT) journal from 2018-2022 indicates that, while there has been progress made on algorithmic fairness, there is still ample room for growth. Our findings show that only a small portion (5%) of published papers adheres to modern fairness reporting, while the overwhelming majority thereof focuses on accuracy or error metrics. To generalize these results across venues of similar scope, we analyzed recent proceedings of ACM MobiCom, MobiSys, and SenSys, IEEE Pervasive, and IEEE Transactions on Mobile Computing Computing, and found no deviation from our primary result. In light of these findings, our work provides practical guidelines for the design and development of mobile and wearable technologies that not only strive for accuracy but also fairness.
Autori: Sofia Yfantidou, Marios Constantinides, Dimitris Spathis, Athena Vakali, Daniele Quercia, Fahim Kawsar
Ultimo aggiornamento: 2023-09-22 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2303.15585
Fonte PDF: https://arxiv.org/pdf/2303.15585
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.
Link di riferimento
- https://ai.google/responsibilities/responsible-ai-practices/?category=fairness
- https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/
- https://aws.amazon.com/machine-learning/responsible-machine-learning/
- https://www.bell-labs.com/institute/blog/introducing-nokias-6-pillars-of-responsible-ai/
- https://scholar.google.co.uk/citations?view_op=top_venues&hl=en&vq=eng_humancomputerinteraction
- https://archive.ics.uci.edu/ml/index.php
- https://pair-code.github.io/what-if-tool/
- https://www.synthesized.io/fairlens
- https://github.com/tensorflow/fairness-indicators
- https://aif360.mybluemix.net/
- https://fairlearn.org/