Outils d'IA dans la prise de décision du secteur public
Examiner les défis de l'adoption de l'IA dans les agences publiques.
― 9 min lire
Table des matières
Les outils d'IA deviennent de plus en plus courants dans les agences du secteur public aux États-Unis, surtout dans des domaines comme les services sociaux, la santé publique et l'éducation. Cependant, avec leur introduction, beaucoup de questions et de préoccupations émergent sur la façon dont les décisions d'utilisation sont prises. Cet article explore comment les décideurs dans ces agences réfléchissent et interagissent avec les outils d'IA, en soulignant certains défis qu'ils rencontrent.
Prise de décision dans les agences du secteur public
Quand les agences du secteur public adoptent des outils d'IA, il est important de savoir comment ces décisions sont prises. Beaucoup de gens pensent que les agences sont juste un grand groupe qui prend des décisions ensemble, mais la réalité est bien différente. Les désaccords internes et les points de vue divergents parmi le personnel, y compris les dirigeants d'agence, les travailleurs de première ligne et les développeurs, influencent comment l'IA est utilisée et perçue.
Conflits internes
Dans ces agences, il peut y avoir des différences significatives sur la façon dont le personnel perçoit les outils d'IA. Certains employés peuvent voir ces outils comme utiles pour améliorer l'efficacité et la prise de décision, tandis que d'autres peuvent avoir de sérieuses préoccupations sur leur utilité et leur équité. Ces opinions variées peuvent mener à des désaccords sur l'adoption ou non de certains outils d'IA.
Les dirigeants d'agence ressentent souvent le besoin de communiquer les avantages de l'IA à leurs collègues, surtout aux travailleurs de première ligne qui pourraient s'inquiéter de l'impact de ces outils sur leur travail. Les dirigeants pensent que montrer comment les outils d'IA peuvent aider dans leur travail apaisera ces préoccupations. Cependant, leurs efforts sont parfois accueillis avec scepticisme, car les travailleurs de première ligne peuvent sentir que leurs expériences ne sont pas prises en compte.
Par exemple, les dirigeants d'agence peuvent penser que les travailleurs de première ligne sont simplement résistants au changement. Cependant, des conversations avec ces travailleurs peuvent révéler des peurs plus profondes sur comment les outils d'IA pourraient affecter leurs rôles et responsabilités.
Pressions des institutions externes
En plus des conflits internes, il y a des pressions venant de l'extérieur de l'agence qui influencent la prise de décision. Les agences doivent souvent suivre des directives et des normes établies par des autorités supérieures, comme les gouvernements fédéral ou étatiques. Ces exigences peuvent parfois créer des conflits sur la manière dont les outils d'IA sont adoptés et utilisés.
Par exemple, beaucoup d'agences se sentent contraintes par des contrats d'approvisionnement avec des entreprises privées qui développent des outils d'IA. Ces contrats peuvent limiter leur capacité à obtenir des informations nécessaires sur le fonctionnement des outils ou sur leur développement. Ce manque de transparence peut frustrer les décideurs de l'agence, qui veulent s'assurer que les outils sont efficaces et équitables.
Naviguer dans les pressions légales
Les problèmes juridiques peuvent également compliquer l'utilisation des outils d'IA dans le secteur public. Les agences s'inquiètent de la façon dont les résultats des outils d'IA, comme les évaluations des risques, peuvent être interprétés dans des contextes juridiques. Si un outil d'IA suggère qu'un enfant devrait être retiré de son foyer, par exemple, cette recommandation pourrait être utilisée dans une affaire judiciaire contre l'agence.
Ces craintes peuvent mener à une prise de décision prudente. Certains dirigeants peuvent même hésiter à adopter de nouveaux outils d'IA parce qu'ils craignent les répercussions juridiques d'une dépendance excessive à la technologie dans des situations sensibles.
Engagement communautaire
Obstacles à l'Un domaine avec lequel les agences ont souvent du mal est d'impliquer les communautés qu'elles servent dans le processus de prise de décision concernant les outils d'IA. Beaucoup de décideurs expriment un souhait de s'engager avec les communautés affectées par leurs décisions, mais ils rencontrent des obstacles significatifs en essayant de le faire.
Manque de soutien et d'infrastructure
Les agences manquent souvent des ressources et des structures nécessaires pour impliquer efficacement les membres de la communauté. Bien que certains dirigeants souhaitent contacter les membres de la communauté pour obtenir des avis sur les outils d'IA, ils se sentent incertains sur la façon de procéder. Ils peuvent ne pas savoir quels groupes communautaires contacter ou comment établir un lien de confiance avec ces groupes.
De plus, les décideurs reconnaissent souvent le déséquilibre de pouvoir entre eux et les membres de la communauté. Ils comprennent que les membres de la communauté n'ont peut-être pas l'expertise technique pour participer aux discussions sur l'IA, mais ils se sentent également que leur propre expérience technique peut les empêcher de comprendre pleinement les préoccupations de la communauté.
La nécessité de collaboration
Pour relever ces défis, il y a un appel croissant à des approches collaboratives pour développer des outils d'IA au sein des agences du secteur public. En créant des opportunités pour les membres de la communauté de participer à la conception et à la mise en œuvre des outils d'IA, les agences peuvent s'assurer que ces outils répondent mieux aux besoins des populations qu'elles servent.
Les participants à ces discussions soulignent l'importance d'écouter la communauté et d'incorporer leurs avis dans les processus de décision concernant l'IA. Les membres de la communauté peuvent fournir des informations précieuses sur les problèmes que les agences essaient de résoudre et aider à garantir que les solutions sont pertinentes et efficaces.
Le rôle de la formation et de l'éducation
Un autre élément important pour améliorer l'utilisation de l'IA dans les agences du secteur public est la nécessité de formation et d'éducation pour les décideurs. Former les dirigeants d'agence et le personnel peut favoriser une culture qui valorise les contributions de toutes les parties prenantes, y compris les travailleurs de première ligne et les membres de la communauté.
Former les dirigeants d'agence
Les programmes de formation peuvent aider les dirigeants à mieux comprendre les rôles et les expériences des travailleurs de première ligne, ainsi que des communautés qu'ils servent. Cela peut créer un environnement plus inclusif où les opinions de chacun sont valorisées et prises en compte dans le processus de décision.
Les dirigeants peuvent également bénéficier d'une formation sur la façon de faciliter les conversations entre différents acteurs, s'assurant que tout le monde a l'opportunité de contribuer. En développant ces compétences, les dirigeants peuvent être mieux équipés pour gérer les complexités et les défis de la mise en œuvre des outils d'IA dans leurs agences.
Engager les travailleurs de première ligne
Les travailleurs de première ligne ont souvent une expérience directe des défis et des limites des systèmes existants. Les engager dans des discussions sur les outils d'IA peut fournir des informations critiques sur les implications réelles de ces technologies. Une formation sur les concepts d'IA et comment ils impactent le travail quotidien peut habiliter les travailleurs de première ligne à partager efficacement leurs pensées et leurs préoccupations.
Recommandations pour la recherche future et les politiques
Alors que les agences continuent d'adopter des outils d'IA, il est essentiel d'examiner comment améliorer les pratiques de décision et s'assurer que le déploiement de l'IA est responsable et équitable. Voici quelques recommandations pour les recherches futures et les initiatives politiques.
Améliorer les canaux de communication
Renforcer la communication entre les agences et les parties prenantes externes, y compris les membres de la communauté et les entreprises privées, est crucial. Développer des canaux clairs pour le retour d'information et la discussion peut aider à instaurer la confiance et à garantir que toutes les voix soient entendues.
Documenter les meilleures pratiques
Créer un répertoire de cas documentés sur la manière dont diverses agences du secteur public ont réussi à mettre en œuvre des pratiques participatives en matière d'IA peut fournir des orientations précieuses pour d'autres agences. Ces études de cas peuvent mettre en lumière à la fois des stratégies réussies et des leçons tirées des défis rencontrés.
Soutenir les initiatives d'engagement communautaire
Fournir des financements et des ressources pour les initiatives d'engagement communautaire peut aider à combler le fossé entre les agences et les populations qu'elles servent. Le soutien aux programmes de sensibilisation et aux efforts de création de partenariats communautaires peut mener à un développement d'outils d'IA plus efficace.
Encourager la recherche collaborative
Encourager des partenariats entre les agences du secteur public et les chercheurs académiques peut promouvoir l'innovation dans les pratiques participatives en matière d'IA. Les projets de recherche collaborative peuvent explorer de nouvelles méthodes pour impliquer les membres de la communauté dans le processus de décision et évaluer l'impact des outils d'IA.
Conclusion
Alors que les agences du secteur public se tournent de plus en plus vers des outils d'IA pour améliorer leurs opérations, il est crucial de comprendre les processus de décision derrière leur adoption. En abordant les conflits internes, en naviguant dans les pressions externes et en favorisant l'engagement communautaire, les agences peuvent prendre des décisions plus éclairées qui profitent à la fois à leur personnel et aux communautés qu'elles servent. La formation, l'éducation et la collaboration seront des facteurs clés pour garantir que les outils d'IA sont utilisés de manière responsable et efficace dans les contextes du secteur public.
Dans le paysage en constante évolution du service public, ces idées peuvent servir de fondement à la création d'approches plus équitables et participatives pour l'IA dans la prise de décision. En gardant l'accent sur la collaboration, la transparence et l'implication de la communauté, les agences du secteur public peuvent mieux tirer parti du potentiel des technologies d'IA pour servir leurs concitoyens.
Titre: Studying Up Public Sector AI: How Networks of Power Relations Shape Agency Decisions Around AI Design and Use
Résumé: As public sector agencies rapidly introduce new AI tools in high-stakes domains like social services, it becomes critical to understand how decisions to adopt these tools are made in practice. We borrow from the anthropological practice to ``study up'' those in positions of power, and reorient our study of public sector AI around those who have the power and responsibility to make decisions about the role that AI tools will play in their agency. Through semi-structured interviews and design activities with 16 agency decision-makers, we examine how decisions about AI design and adoption are influenced by their interactions with and assumptions about other actors within these agencies (e.g., frontline workers and agency leaders), as well as those above (legal systems and contracted companies), and below (impacted communities). By centering these networks of power relations, our findings shed light on how infrastructural, legal, and social factors create barriers and disincentives to the involvement of a broader range of stakeholders in decisions about AI design and adoption. Agency decision-makers desired more practical support for stakeholder involvement around public sector AI to help overcome the knowledge and power differentials they perceived between them and other stakeholders (e.g., frontline workers and impacted community members). Building on these findings, we discuss implications for future research and policy around actualizing participatory AI approaches in public sector contexts.
Auteurs: Anna Kawakami, Amanda Coston, Hoda Heidari, Kenneth Holstein, Haiyi Zhu
Dernière mise à jour: 2024-05-20 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2405.12458
Source PDF: https://arxiv.org/pdf/2405.12458
Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.