Simple Science

La science de pointe expliquée simplement

# Informatique# Ordinateurs et société# Intelligence artificielle# Apprentissage automatique

Réévaluer l'équité de l'IA à travers l'intersectionnalité

Explorer comment l'intersectionnalité influence l'équité dans les systèmes d'IA et ses implications sociales.

― 7 min lire


Équité de l'IA etÉquité de l'IA etintersectionnalitéinégalités sociales.Examiner le lien entre l'IA et les
Table des matières

L'Intersectionnalité, c'est une façon de voir comment différentes parties de notre identité-comme la race, le genre et la classe-se combinent pour créer des expériences uniques. Ça nous aide à comprendre comment les gens font face à des défis différents dans la société. Ce concept est super important quand on parle d'équité dans l'intelligence artificielle (IA). Quand on conçoit des systèmes d'IA, il faut s'assurer qu'ils traitent tout le monde de manière juste. Pourtant, beaucoup de chercheurs simplifient souvent l'intersectionnalité et ignorent les problèmes sociaux plus profonds qui la sous-tendent. Cet article explore comment l'intersectionnalité est utilisée dans la recherche sur l'équité de l'IA et propose des suggestions pour de meilleures pratiques.

L'Importance de l'Intersectionnalité

L'intersectionnalité met en lumière comment différentes formes d'inégalité se chevauchent et affectent les individus de manière différente. Par exemple, les femmes noires peuvent faire face à de la discrimination qui est différente de celle vécue par les hommes noirs ou les femmes blanches. Quand on parle d'équité dans l'IA, il est essentiel de reconnaître que différents groupes peuvent faire face à des défis uniques à cause de leurs identités sociales.

Pour vraiment rendre les systèmes d'IA équitables, les chercheurs devraient se concentrer sur le Contexte social de la technologie. Ça veut dire aller au-delà des solutions techniques et comprendre les communautés touchées par ces systèmes. L'équité ne devrait pas juste être une question d'atteindre l'égalité dans les résultats, mais aussi d'aborder les problèmes sous-jacents qui causent l'inégalité.

État Actuel de la Recherche sur l'Équité de l'IA

Beaucoup d'études sur l'équité de l'IA se concentrent sur l'amélioration des algorithmes pour éviter les biais. Les chercheurs définissent souvent l'équité à l'aide de mesures statistiques sans considérer les implications dans la vie réelle. Bien que ces métriques soient utiles, elles ne capturent pas toute la complexité de l'intersectionnalité.

La plupart des articles sur l'équité de l'IA abordent l'intersectionnalité comme si elle ne concernait que l'optimisation de l'équité pour des groupes spécifiques. Cette approche passe à côté des problèmes sociétaux plus larges qui mènent à un traitement inégal. De plus, beaucoup d'articles mentionnent le "pouvoir" mais échouent à explorer comment les Dynamiques de pouvoir influencent les systèmes d'IA et leur impact sur les communautés marginalisées.

Lacunes Courantes dans la Littérature sur l'Équité de l'IA

  1. Interprétation Rétrécie de l'Intersectionnalité : Beaucoup de chercheurs se concentrent uniquement sur les aspects démographiques de l'intersectionnalité. Ils peuvent examiner comment la race et le genre affectent les résultats, mais souvent ils ignorent les complexités du pouvoir et du contexte social qui influencent ces expériences.

  2. Manque de Contexte Social : Souvent, les articles ne discutent pas des facteurs sociaux et historiques qui contribuent à l'inégalité. Ne pas considérer ces contextes entraîne une compréhension superficielle des problèmes en jeu.

  3. Dominance des Solutions Techniques : Le domaine de l'équité de l'IA a tendance à privilégier les solutions techniques plutôt qu'une enquête sociale critique. Les chercheurs peuvent être plus préoccupés par le réglage des algorithmes pour répondre aux métriques d'équité plutôt que d'interagir avec les communautés touchées par ces technologies.

  4. Engagement Inadéquat avec les Dynamiques de Pouvoir : Bien que les dynamiques de pouvoir soient reconnues dans certaines études, l'engagement est généralement limité. Les chercheurs décrivent souvent le pouvoir en termes abstraits plutôt que d'examiner comment leurs méthodes et choix impactent la distribution du pouvoir dans la société.

Principes Clés de l'Intersectionnalité

Pour faire avancer la recherche sur l'équité de l'IA, il est crucial d'adopter des principes clés de l'intersectionnalité :

  1. Justice Sociale : L'équité de l'IA ne devrait pas seulement viser l'égalité, mais aussi s'efforcer de promouvoir la justice. Cela implique de lutter activement contre les systèmes qui perpétuent l'oppression et l'inégalité.

  2. Inégalité Sociale : Les chercheurs doivent s'engager profondément avec les inégalités sociales, en comprenant comment elles se forment et se maintiennent. Il est essentiel de remettre en question les systèmes en place qui créent ces disparités.

  3. Relationalité : Ce principe encourage à examiner les relations entre différentes formes d'identité et de pouvoir. Comprendre comment différentes catégories sociales interagissent peut donner des idées sur la façon dont les inégalités se manifestent.

  4. Pouvoir Social : Les chercheurs doivent réfléchir de manière critique à la manière dont le pouvoir est distribué dans leurs travaux. Cela implique de se demander qui bénéficie des systèmes d'IA et qui est marginalisé.

  5. Contexte Social : Reconnaître les facteurs sociaux et historiques spécifiques qui façonnent les expériences des gens est crucial. Cette prise de conscience peut aider les chercheurs à concevoir des systèmes d'IA qui soient plus inclusifs et équitables.

  6. Complexité : Reconnaître la complexité des problèmes sociaux est essentiel pour développer des solutions significatives. Les chercheurs devraient résister à la tentation de simplifier les problèmes et plutôt accepter les nuances impliquées.

Recommandations pour les Chercheurs en Équité de l'IA

  1. Élargir les Perspectives : Les chercheurs devraient aller au-delà de la vision étroite de l'intersectionnalité comme simple équité pour des sous-groupes. Ils doivent intégrer une compréhension plus profonde des structures sociétales en jeu.

  2. S'engager avec les Communautés Affectées : Il est vital d'impliquer les communautés touchées par les systèmes d'IA dans le processus de conception et d'évaluation. Cet engagement peut fournir des informations précieuses sur les réalités sociales auxquelles elles font face.

  3. Évaluer de Manière Critique les Dynamiques de Pouvoir : Les chercheurs devraient examiner activement leurs propres positions de pouvoir dans le processus de recherche. Cette réflexion peut les aider à reconnaître comment leurs choix impactent les groupes marginalisés.

  4. Incorporer le Contexte Social : Les études devraient clairement indiquer les contextes sociaux qu'elles examinent. En faisant cela, les chercheurs peuvent mieux comprendre les implications de leur travail pour différentes communautés.

  5. Encourager des Approches Interdisciplinaires : Collaborer avec des experts d'autres domaines peut enrichir la recherche sur l'équité de l'IA. Apporter des perspectives des sciences sociales, des humanités et de l'activisme communautaire peut favoriser une compréhension plus profonde.

  6. Promouvoir la Transparence : Les chercheurs devraient être ouverts sur leurs méthodologies et les hypothèses qui sous-tendent leur travail. Cette transparence peut conduire à des systèmes d'IA plus robustes et équitables.

Conclusion

L'équité de l'IA est un domaine d'étude crucial, et l'intersectionnalité fournit un cadre précieux pour comprendre les complexités des inégalités sociales. En s'engageant avec les principes de l'intersectionnalité, les chercheurs peuvent travailler à créer des systèmes d'IA qui ne soient pas seulement techniquement solides mais aussi socialement justes. L'appel à l'action est clair : il est temps que la recherche sur l'équité de l'IA reconnaisse et aborde les problèmes profondément enracinés d'inégalité dans la société. Ce n'est qu'en embrassant toute l'étendue de l'intersectionnalité que nous pourrons espérer créer des technologies d'IA plus justes et équitables pour tout le monde.

Source originale

Titre: Factoring the Matrix of Domination: A Critical Review and Reimagination of Intersectionality in AI Fairness

Résumé: Intersectionality is a critical framework that, through inquiry and praxis, allows us to examine how social inequalities persist through domains of structure and discipline. Given AI fairness' raison d'etre of "fairness", we argue that adopting intersectionality as an analytical framework is pivotal to effectively operationalizing fairness. Through a critical review of how intersectionality is discussed in 30 papers from the AI fairness literature, we deductively and inductively: 1) map how intersectionality tenets operate within the AI fairness paradigm and 2) uncover gaps between the conceptualization and operationalization of intersectionality. We find that researchers overwhelmingly reduce intersectionality to optimizing for fairness metrics over demographic subgroups. They also fail to discuss their social context and when mentioning power, they mostly situate it only within the AI pipeline. We: 3) outline and assess the implications of these gaps for critical inquiry and praxis, and 4) provide actionable recommendations for AI fairness researchers to engage with intersectionality in their work by grounding it in AI epistemology.

Auteurs: Anaelia Ovalle, Arjun Subramonian, Vagrant Gautam, Gilbert Gee, Kai-Wei Chang

Dernière mise à jour: 2023-07-20 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2303.17555

Source PDF: https://arxiv.org/pdf/2303.17555

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires