EARR : Façonner le développement équitable de l'IA
EARR vise à garantir que l'IA éthique impacte toutes les communautés de manière équitable.
― 8 min lire
Table des matières
La montée de l'intelligence artificielle (IA) change plein de trucs dans nos vies. Mais y'a de plus en plus de gens qui s'inquiètent de l'impact de cette technologie sur les groupes vulnérables. Pour régler ces problèmes, le Roundtable de Recherche sur l'IA Équitable (EARR) a été créé. Ce groupe regroupe des experts de différents domaines pour parler des implications éthiques de l'IA et s'assurer que son développement soit juste et équitable.
C'est quoi EARR ?
EARR est un groupe collaboratif formé au sein d'une grosse entreprise tech. Ça inclut des chercheurs, des experts juridiques, des éducateurs et des défenseurs de la justice sociale. L'objectif est de créer un espace où la voix de ceux qu'on oublie souvent dans les discussions tech puisse se faire entendre. En faisant ça, EARR veut comprendre comment l'IA peut affecter différentes Communautés, surtout celles qui sont les plus à risque.
Pourquoi EARR est important ?
L'IA, c'est pas juste une question technique ; ça a des implications sociales et éthiques. Beaucoup de systèmes d'IA en place ont tendance à favoriser certains groupes tout en marginalisant d'autres. Cette disparité crée des risques sérieux pour ceux qui sont déjà en difficulté. EARR veut s'attaquer à ces risques en se concentrant sur trois grands axes : élargir l'expertise, mesurer les valeurs plutôt que des chiffres, et favoriser l'apprentissage mutuel.
Élargir l'expertise dans le développement de l'IA
Traditionnellement, le domaine de l'IA a été dominé par des experts techniques comme des ingénieurs et des data scientists. Même si leur savoir est crucial, EARR reconnaît que comprendre les problèmes sociaux est tout aussi important. Pour développer l'IA de manière responsable, il faut inclure des experts des sciences sociales, du droit et de l'engagement communautaire dans la conversation.
En intégrant des perspectives variées, EARR s'assure que les systèmes d'IA sont développés avec une meilleure compréhension de leurs implications sociales. Cet élargissement de l'expertise permet un dialogue plus riche sur les risques et les bénéfices de la technologie IA.
Mesurer les valeurs, pas juste des chiffres
Dans l'industrie tech, on a souvent tendance à vouloir quantifier l'Équité. Mais cette approche peut être trompeuse. Compter des chiffres ne capte pas toute l'ampleur de l'impact de l'IA sur la vie des gens. EARR souligne l'importance de discuter des valeurs et des éthiques au lieu de se fier uniquement à des métriques.
Par exemple, une équipe produit peut vouloir mesurer comment un système IA performe selon différents groupes démographiques. Même si c'est un bon début, il est aussi essentiel de considérer le contexte plus large sur pourquoi ces groupes sont affectés différemment. EARR encourage des discussions qui mettent l'accent sur les expériences vécues des individus, incitant les équipes à réfléchir de manière critique aux implications morales de leur travail.
Créer des opportunités d'apprentissage mutuel
EARR favorise un environnement d'apprentissage mutuel entre les équipes tech et les experts extérieurs. Cet échange d'idées permet de mieux comprendre les défis éthiques posés par l'IA. Lors des sessions de roundtable, les équipes tech présentent leur travail et reçoivent des retours d'experts qui représentent des communautés marginalisées. Ces retours peuvent mener à des idées concrètes pour améliorer l'équité des systèmes IA.
Le processus d'apprentissage n'est pas à sens unique. Les experts externes obtiennent aussi des insights sur comment la technologie est développée, ce qui leur permet de fournir de meilleurs retours et plaidoyers. Cette approche collaborative construit la confiance et facilite le dialogue continu entre les entreprises tech et les communautés qu'elles servent.
Objectifs initiaux de l'EARR
Quand EARR a été créé, ses principaux objectifs étaient de créer une plateforme pour le partage des connaissances, de régler les problèmes d'équité et d'équité, et de plaider pour des méthodes communautaires. La coalition a été conçue pour englober une large gamme d'expertises pour s'assurer que des perspectives diverses soient incluses dans les discussions autour de l'IA.
Avec le temps, les objectifs ont évolué. Le groupe s'est tourné vers un engagement plus direct avec les équipes produits, en se concentrant sur des technologies IA spécifiques et des processus de développement. Ce changement a permis un échange d'idées et d'insights plus riche, faisant d'EARR une partie intégrante du cycle de développement de l'IA.
La structure de l'EARR
EARR est structuré comme une coalition de divers acteurs, incluant des représentants d'organisations à but non lucratif, d'institutions académiques, et de l'industrie tech. Cette diversité de membres permet un large échange d'idées et favorise les discussions sur les implications éthiques de la technologie IA.
Les réunions se tiennent régulièrement, permettant aux membres de donner des retours sur des projets IA et de soulever des préoccupations concernant l'équité. Ces sessions portent sur divers sujets, y compris l'équité en éducation, l'équité raciale, et les droits humains. Le dialogue continu encourage la collaboration et facilite la compréhension mutuelle.
L'impact de l'EARR sur le développement de l'IA
Les insights tirés des réunions de l'EARR ont entraîné des changements significatifs dans la manière dont les produits IA sont développés. En intégrant les retours de divers experts, les équipes tech sont mieux équipées pour comprendre les dommages potentiels de leurs produits. Par exemple, si une équipe développe un modèle IA pour le recrutement, les membres de l'EARR peuvent donner leur avis sur la manière dont les biais pourraient affecter différents candidats, menant à des résultats plus équitables.
L'échange d'idées aide aussi les équipes tech à identifier les lacunes dans leur compréhension et à envisager des approches alternatives. En reformulant les questions sur l'équité, EARR encourage les équipes à penser au-delà des spécifications techniques et à prendre en compte les implications sociales de leur travail.
Aborder les dommages sociaux grâce à l'EARR
La technologie IA renforce souvent les inégalités sociales existantes. De nombreuses personnes issues de communautés marginalisées font face à des risques additionnels quand elles interagissent avec des systèmes IA. L'EARR vise à aborder ces questions en impliquant des experts qui comprennent ces défis.
En s'engageant avec les communautés les plus affectées par l'IA, EARR aide les équipes tech à découvrir des biais cachés dans leurs modèles. Ce processus permet une compréhension plus profonde de la façon dont la technologie interagit avec les problèmes sociétaux. Par exemple, des discussions autour de la surveillance, de la discrimination au travail, et des inégalités en matière de santé fournissent un contexte crucial qui informe la conception et le fonctionnement des systèmes IA.
Défis en matière d'IA responsable
Malgré les progrès réalisés grâce à l'EARR, des défis demeurent dans le domaine de l'IA responsable. Un des principaux obstacles est la tendance à quantifier l'équité et la performance sans prendre en compte le contexte social plus large. Comme mentionné plus tôt, les entreprises tech privilégient souvent des métriques qui ne capturent pas toutes les complexités des expériences humaines.
De plus, il y a une tendance au sein des entreprises tech à fonctionner en silo, ce qui limite l'échange de connaissances entre les domaines. L'EARR cherche à briser ces barrières, mais cela nécessite un effort continu pour encourager la collaboration et la communication entre les différents acteurs.
Les innovations de l'EARR dans la gouvernance de l'IA
L'EARR propose un nouveau modèle de gouvernance de l'IA qui intègre les retours des communautés dans le processus de développement. En plaçant les voix des groupes marginalisés au centre, l'EARR montre que le développement éthique de l'IA doit inclure des perspectives diverses. Cette approche permet aux entreprises tech d'être plus responsables des impacts sociétaux de leurs produits.
Grâce à des réunions et à des discussions régulières, les membres de l'EARR aident les équipes tech à comprendre l'importance de considérer la justice sociale dans le développement de l'IA. Cette collaboration encourage un shift vers des pratiques plus équitables, s'assurant que la technologie IA serve tous les membres de la société de manière juste.
Conclusion
L'EARR représente un pas en avant significatif dans la quête d'un développement responsable de l'IA. En priorisant des perspectives diverses, en promouvant l'apprentissage mutuel, et en soulignant l'importance des valeurs plutôt que des métriques, la coalition fait des progrès vers un paysage technologique plus équitable.
Au fur et à mesure que l'IA continue d'évoluer, il est essentiel que des initiatives comme l'EARR soient soutenues pour s'assurer qu'elles puissent efficacement aborder les défis éthiques posés par cette technologie puissante. Grâce à la collaboration et au dialogue, l'EARR contribue à façonner l'avenir de l'IA d'une manière qui peut bénéficier à tout le monde, surtout à ceux qui sont les plus vulnérables.
Le chemin vers une IA juste et éthique est en cours, et les leçons apprises grâce à l'EARR continueront d'informer l'approche de l'industrie face à ces problèmes pour les années à venir. En reconnaissant les complexités de l'inégalité sociale, l'EARR ouvre la voie à un avenir technologique plus juste et inclusif.
Titre: The Equitable AI Research Roundtable (EARR): Towards Community-Based Decision Making in Responsible AI Development
Résumé: This paper reports on our initial evaluation of The Equitable AI Research Roundtable -- a coalition of experts in law, education, community engagement, social justice, and technology. EARR was created in collaboration among a large tech firm, nonprofits, NGO research institutions, and universities to provide critical research based perspectives and feedback on technology's emergent ethical and social harms. Through semi-structured workshops and discussions within the large tech firm, EARR has provided critical perspectives and feedback on how to conceptualize equity and vulnerability as they relate to AI technology. We outline three principles in practice of how EARR has operated thus far that are especially relevant to the concerns of the FAccT community: how EARR expands the scope of expertise in AI development, how it fosters opportunities for epistemic curiosity and responsibility, and that it creates a space for mutual learning. This paper serves as both an analysis and translation of lessons learned through this engagement approach, and the possibilities for future research.
Auteurs: Jamila Smith-Loud, Andrew Smart, Darlene Neal, Amber Ebinama, Eric Corbett, Paul Nicholas, Qazi Rashid, Anne Peckham, Sarah Murphy-Gray, Nicole Morris, Elisha Smith Arrillaga, Nicole-Marie Cotton, Emnet Almedom, Olivia Araiza, Eliza McCullough, Abbie Langston, Christopher Nellum
Dernière mise à jour: 2023-03-14 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2303.08177
Source PDF: https://arxiv.org/pdf/2303.08177
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.