Simple Science

Scienza all'avanguardia spiegata semplicemente

# Informatica# Interazione uomo-macchina# Intelligenza artificiale

Strumenti di IA nella presa di decisioni del settore pubblico

Esaminando le sfide dell'adozione dell'AI nelle agenzie pubbliche.

― 8 leggere min


AI nelle AgenzieAI nelle AgenziePubbliche: Sfide Futuraintelligenza artificiale.decisioni con gli strumenti diEsaminare le difficoltà nel prendere
Indice

Gli strumenti di intelligenza artificiale stanno diventando comuni nelle agenzie del settore pubblico negli Stati Uniti, soprattutto in settori come i servizi sociali, la salute pubblica e l'istruzione. Tuttavia, man mano che questi strumenti vengono introdotti, ci sono molte domande e preoccupazioni su come vengono prese le decisioni per utilizzarli. Questo articolo esplora come i decisori in queste agenzie pensano e interagiscono con gli strumenti di IA, evidenziando alcune delle sfide che affrontano.

Decisione nel Settore Pubblico

Quando le agenzie del settore pubblico adottano strumenti di IA, diventa importante sapere come vengono prese queste decisioni. Molti pensano che le agenzie siano solo un grande gruppo che prende decisioni insieme, ma la realtà è piuttosto diversa. Disaccordi interni e punti di vista diversi tra il personale, inclusi i leader dell'agenzia, i lavoratori in prima linea e gli sviluppatori, plasmano come l'IA viene usata e vista.

Conflitti Interni

All'interno di queste agenzie, ci possono essere differenze significative nel modo in cui il personale vede gli strumenti di IA. Alcuni dipendenti possono considerarli utili per migliorare l'efficienza e il processo decisionale, mentre altri possono avere serie preoccupazioni riguardo alla loro utilità e giustizia. Queste opinioni variegate possono portare a disaccordi su se adottare o meno certi strumenti di IA.

I leader delle agenzie spesso sentono l'esigenza di comunicare i benefici dell'IA ai loro colleghi, soprattutto ai lavoratori in prima linea che potrebbero preoccuparsi dell'impatto di questi strumenti sui loro lavori. I leader potrebbero credere che mostrare come gli strumenti di IA possano assisterli nel loro lavoro aiuterà a ridurre queste preoccupazioni. Tuttavia, i loro sforzi a volte vengono accolti con scetticismo, poiché i lavoratori in prima linea potrebbero sentirsi che le loro esperienze non vengono considerate.

Ad esempio, i leader dell'agenzia potrebbero pensare che i lavoratori in prima linea siano semplicemente resistenti ai cambiamenti. Tuttavia, conversazioni con questi lavoratori potrebbero rivelare paure più profonde su come gli strumenti di IA potrebbero influenzare i loro ruoli e responsabilità.

Pressioni da Istituzioni Esterne

Oltre ai conflitti interni, ci sono pressioni provenienti dall'esterno dell'agenzia che influenzano il processo decisionale. Le agenzie sono spesso obbligate a seguire linee guida e standard stabiliti da autorità superiori, come i governi federali o statali. Questi requisiti possono a volte creare conflitti su come gli strumenti di IA vengono adottati e utilizzati.

Ad esempio, molte agenzie si sentono vincolate da contratti di approvvigionamento con aziende private che sviluppano strumenti di IA. Questi contratti possono limitare la loro capacità di ottenere le informazioni necessarie su come funzionano gli strumenti o come sono stati sviluppati. Questa mancanza di trasparenza può frustrante i decisori dell'agenzia, che vogliono assicurarsi che gli strumenti siano efficaci e giusti.

Navigare Pressioni Legali

Le questioni legali possono anche complicare l'uso degli strumenti di IA nei contesti del settore pubblico. Le agenzie si preoccupano di come i risultati degli strumenti di IA, come le valutazioni del rischio, possano essere interpretati in ambito legale. Se uno strumento di IA suggerisce che un bambino debba essere allontanato dalla propria casa, ad esempio, quella raccomandazione potrebbe essere utilizzata in un caso legale contro l'agenzia.

Queste paure possono portare a decisioni prudenti. Alcuni leader potrebbero addirittura esitare ad adottare nuovi strumenti di IA perché temono le ripercussioni legali di fare troppo affidamento sulla tecnologia in situazioni delicate.

Barriere al Coinvolgimento della comunità

Un'area con cui le agenzie spesso lottano è coinvolgere le comunità che servono nel processo decisionale riguardo agli strumenti di IA. Molti decisori esprimono il desiderio di interagire con le comunità colpite dalle loro decisioni, ma affrontano barriere significative quando cercano di farlo.

Mancanza di Supporto e Infrastruttura

Le agenzie spesso non hanno le risorse e le strutture necessarie per coinvolgere efficacemente i membri della comunità. Anche se alcuni leader vogliono contattare i membri della comunità per un input sugli strumenti di IA, si sentono insicuri su come farlo. Potrebbero non sapere con quali gruppi comunitari connettersi o come costruire fiducia con questi gruppi.

Inoltre, i decisori riconoscono spesso il divario di potere tra loro e i membri della comunità. Capiscono che i membri della comunità potrebbero non avere le competenze tecniche per partecipare a discussioni sull'IA, ma sentono anche che il loro stesso background tecnico potrebbe impedire loro di comprendere appieno le preoccupazioni della comunità.

La Necessità di Collaborazione

Per affrontare queste sfide, c'è una crescente richiesta di approcci collaborativi per sviluppare strumenti di IA all'interno delle agenzie del settore pubblico. Creando opportunità per i membri della comunità di partecipare alla progettazione e all'implementazione di strumenti di IA, le agenzie possono assicurarsi che questi strumenti soddisfino meglio le esigenze delle popolazioni che servono.

I partecipanti a queste discussioni sottolineano l'importanza di ascoltare la comunità e di incorporare il loro input nei processi decisionali sull'IA. I membri della comunità possono fornire preziose intuizioni sui problemi che le agenzie stanno cercando di risolvere e contribuire a garantire che le soluzioni siano pertinenti ed efficaci.

Il Ruolo della Formazione e dell'Istruzione

Un altro elemento importante per migliorare l'uso dell'IA nelle agenzie del settore pubblico è la necessità di formazione e istruzione per i decisori. Potenziare i leader e il personale dell'agenzia può favorire una cultura che valorizza il contributo di tutti gli stakeholder, compresi i lavoratori in prima linea e i membri della comunità.

Formazione dei Leader dell'Agenzia

I programmi di formazione possono aiutare i leader a comprendere meglio i ruoli e le esperienze dei lavoratori in prima linea, così come le comunità che servono. Questo può creare un ambiente più inclusivo dove le opinioni di tutti sono valorizzate e tenute in considerazione nel processo decisionale.

I leader possono anche beneficiare di una formazione su come facilitare conversazioni tra diversi stakeholder, assicurando che tutti abbiano l'opportunità di contribuire. Sviluppando queste competenze, i leader possono essere meglio attrezzati per gestire le complessità e le sfide dell'implementazione degli strumenti di IA nelle loro agenzie.

Coinvolgimento dei Lavoratori in Prima Linea

I lavoratori in prima linea spesso hanno esperienza diretta con le sfide e le limitazioni dei sistemi esistenti. Coinvolgere questi lavoratori nelle discussioni sugli strumenti di IA può fornire intuizioni critiche sulle implicazioni reali di queste tecnologie. La formazione sui concetti di IA e su come influenzano il lavoro quotidiano può empower i lavoratori in prima linea a condividere efficacemente i loro pensieri e preoccupazioni.

Raccomandazioni per la Ricerca e le Politiche Future

Man mano che le agenzie continuano ad adottare strumenti di IA, è essenziale esaminare come migliorare le pratiche decisionali e garantire che l'implementazione dell'IA sia responsabile ed equa. Di seguito ci sono alcune raccomandazioni per future ricerche e iniziative politiche.

Migliorare i Canali di Comunicazione

Rafforzare la comunicazione tra le agenzie e le parti interessate esterne, compresi i membri della comunità e le aziende private, è cruciale. Sviluppare canali chiari per il feedback e la discussione può aiutare a costruire fiducia e garantire che tutte le voci siano ascoltate.

Documentare le Migliori Pratiche

Creare un repertorio di casi studio documentati su come varie agenzie del settore pubblico hanno implementato con successo pratiche di IA partecipativa può fornire indicazioni preziose per altre agenzie. Questi casi studio possono evidenziare sia le strategie di successo che le lezioni apprese dalle sfide affrontate.

Supportare Iniziative di Coinvolgimento della Comunità

Fornire finanziamenti e risorse per iniziative di coinvolgimento della comunità può aiutare a colmare il divario tra le agenzie e le popolazioni che servono. Il supporto per programmi di outreach e sforzi per costruire partenariati comunitari può portare a uno sviluppo più efficace degli strumenti di IA.

Incoraggiare la Ricerca Collaborativa

Incoraggiare partenariati tra agenzie del settore pubblico e ricercatori accademici può promuovere l'innovazione nelle pratiche di IA partecipativa. I progetti di ricerca collaborativa possono esplorare nuovi metodi per coinvolgere i membri della comunità nel processo decisionale e valutare l'impatto degli strumenti di IA.

Conclusione

Man mano che le agenzie del settore pubblico si rivolgono sempre più agli strumenti di IA per migliorare le loro operazioni, è cruciale comprendere i processi decisionali dietro la loro adozione. Affrontando i conflitti interni, navigando nelle pressioni esterne e promuovendo il coinvolgimento della comunità, le agenzie possono Prendere decisioni più informate che avvantaggiano sia il loro personale che le comunità che servono. Formazione, istruzione e collaborazione saranno fattori chiave per garantire che gli strumenti di IA siano utilizzati in modo responsabile ed efficace nei contesti del settore pubblico.

Nel panorama in continua evoluzione del servizio pubblico, queste intuizioni possono servire da base per creare approcci più equi e partecipativi all'IA nelle decisioni. Mantenendo il focus sulla collaborazione, la trasparenza e il coinvolgimento della comunità, le agenzie del settore pubblico possono meglio sfruttare il potenziale delle tecnologie IA per servire i loro cittadini.

Fonte originale

Titolo: Studying Up Public Sector AI: How Networks of Power Relations Shape Agency Decisions Around AI Design and Use

Estratto: As public sector agencies rapidly introduce new AI tools in high-stakes domains like social services, it becomes critical to understand how decisions to adopt these tools are made in practice. We borrow from the anthropological practice to ``study up'' those in positions of power, and reorient our study of public sector AI around those who have the power and responsibility to make decisions about the role that AI tools will play in their agency. Through semi-structured interviews and design activities with 16 agency decision-makers, we examine how decisions about AI design and adoption are influenced by their interactions with and assumptions about other actors within these agencies (e.g., frontline workers and agency leaders), as well as those above (legal systems and contracted companies), and below (impacted communities). By centering these networks of power relations, our findings shed light on how infrastructural, legal, and social factors create barriers and disincentives to the involvement of a broader range of stakeholders in decisions about AI design and adoption. Agency decision-makers desired more practical support for stakeholder involvement around public sector AI to help overcome the knowledge and power differentials they perceived between them and other stakeholders (e.g., frontline workers and impacted community members). Building on these findings, we discuss implications for future research and policy around actualizing participatory AI approaches in public sector contexts.

Autori: Anna Kawakami, Amanda Coston, Hoda Heidari, Kenneth Holstein, Haiyi Zhu

Ultimo aggiornamento: 2024-05-20 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2405.12458

Fonte PDF: https://arxiv.org/pdf/2405.12458

Licenza: https://creativecommons.org/licenses/by-nc-sa/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili