Équilibrer vitesse et précision dans les systèmes d'IA pour le bien-être
Le rôle de l'IA dans les aides sociales soulève des inquiétudes sur la vitesse par rapport à la précision.
― 7 min lire
Table des matières
- L'IA dans les systèmes de protection sociale
- Préférences du public sur la rapidité et la précision
- Opinions divergentes entre demandeurs et non-demandeurs
- Perspectives et malentendus
- L'importance de l'engagement des parties prenantes
- Confiance et communication publique
- Résultats des études aux États-Unis et au Royaume-Uni
- Préférences asymétriques
- Implications pour la politique sociale
- Importance de comprendre les perspectives
- Conclusion
- Source originale
- Liens de référence
L'utilisation de l'intelligence artificielle (IA) est en plein essor dans plein de domaines, y compris la façon dont les gouvernements fournissent des aides sociales. L'IA peut aider à accélérer les décisions sur qui reçoit du soutien, ce qui est super important pour les gens dans le besoin. Mais, il y a des risques qui peuvent venir avec ces systèmes. Par exemple, ils peuvent prendre de mauvaises décisions, ce qui peut conduire à des refus injustes ou des accusations de fraude contre des personnes innocentes. C'est important que les gouvernements trouvent un bon équilibre entre la rapidité des décisions et la garantie de leur Précision.
L'IA dans les systèmes de protection sociale
Les aides sociales sont cruciales pour plein de personnes et de familles, surtout dans les moments difficiles. Quand les gouvernements utilisent l'IA pour accélérer ces décisions, ça peut réduire le temps d'attente pour le soutien. Cependant, si la précision de ces systèmes d’IA est compromise, ça peut avoir des conséquences négatives. Par exemple, des gens peuvent se voir refuser des prestations qu'ils méritent ou être accusés à tort de fraude. Donc, il faut vraiment bien réfléchir au compromis entre rapidité et précision.
Préférences du public sur la rapidité et la précision
Savoir comment le public se sent par rapport à l'équilibre entre rapidité et précision, c'est essentiel. Si les gens pensent que l'IA utilisée pour les décisions d'aide sociale n'est pas fiable, ça pourrait entraîner une perte de Confiance envers le gouvernement en général. Même si la majorité des gens sont d'accord pour une décision rapide, ceux qui dépendent des aides sociales pourraient avoir des opinions différentes. Comprendre ces différentes perspectives est super important pour développer des systèmes d'IA qui fonctionnent pour tout le monde.
Opinions divergentes entre demandeurs et non-demandeurs
Des recherches montrent que les personnes qui réclament actuellement des aides (demandeurs) pourraient avoir des sentiments différents de ceux qui n'en réclament pas (non-demandeurs). Alors que le grand public peut accepter une petite perte de précision pour des décisions plus rapides, les demandeurs peuvent être plus réticents à faire confiance aux systèmes d’IA. Cette différence est importante parce que les préférences des demandeurs doivent être prioritaires quand il s'agit de créer des systèmes qui les affectent directement.
Perspectives et malentendus
C'est intéressant, les non-demandeurs pensent souvent qu'ils savent ce que veulent les demandeurs, mais ce n'est pas toujours vrai. Les non-demandeurs tendent à surestimer à quel point les demandeurs sont prêts à accepter la rapidité au détriment de la précision. Ce malentendu peut mener à des politiques qui ne reflètent pas les véritables sentiments de ceux qui sont concernés. Ça met en avant le besoin d'engager les demandeurs pour mieux comprendre leurs vues et leurs préférences, au lieu de s'appuyer sur des suppositions faites par d'autres.
L'importance de l'engagement des parties prenantes
Pour créer des systèmes d'IA en matière d'aides sociales qui fonctionnent bien, il est crucial d'impliquer les parties prenantes, surtout celles qui sont vulnérables. Engager directement ceux qui seront impactés par ces systèmes peut mener à de meilleurs résultats. Ça demande aussi une communication claire sur le fonctionnement des systèmes d’IA et les raisons des choix faits dans leur conception. C'est super important que les voix des demandeurs ne soient pas étouffées par les opinions des non-demandeurs qui n'ont peut-être pas les mêmes soucis.
Confiance et communication publique
Construire la confiance entre le public et le gouvernement est essentiel pour le succès de l'IA dans les systèmes d'aides sociales. Quand les gens se sentent en confiance que leurs besoins et opinions sont pris en compte, ils sont plus susceptibles d'avoir foi dans les décisions prises par les systèmes d'IA. Une communication ouverte et transparente sur le fonctionnement de ces systèmes et la logique derrière eux peut aider à maintenir cette confiance.
Résultats des études aux États-Unis et au Royaume-Uni
Dans des études menées aux États-Unis et au Royaume-Uni, il a été constaté que les gens étaient prêts à sacrifier une petite partie de la précision pour des décisions plus rapides, mais cette disposition variait considérablement entre demandeurs et non-demandeurs. Dans l'étude américaine, les participants étaient, en moyenne, prêts à accepter une perte de précision de 2,4 points pour un gain de Vitesse d'une semaine. Cependant, les demandeurs étaient plus réticents à laisser l'IA prendre des décisions que les non-demandeurs. Dans l'étude britannique, des résultats similaires ont été observés, avec les demandeurs encore moins disposés à laisser l'IA s'occuper des décisions d'aide sociale.
Préférences asymétriques
Un aspect important des études était la différence dans la compréhension des préférences entre demandeurs et non-demandeurs. Les demandeurs étaient relativement précis dans leurs estimations sur ce que préféraient les non-demandeurs, tandis que les non-demandeurs se trompaient souvent en jugeant la volonté des demandeurs d'accepter des décisions prises par l'IA. Ce désalignement représente un risque, car cela pourrait entraîner des politiques qui ne reflètent pas vraiment ce dont les demandeurs ont besoin ou ce qu'ils veulent.
Implications pour la politique sociale
Les résultats suggèrent que se baser sur les opinions moyennes pour guider les décisions politiques pourrait mener à des malentendus. Comme les perspectives des demandeurs peuvent être ignorées au profit de ceux qui sont plus vocaux ou mieux compris, il est crucial que les décideurs politiques prêtent attention aux besoins uniques de ceux qui sont le plus touchés par les systèmes d'IA en matière d'aides sociales. Ces résultats soulignent la nécessité de plus de recherches pour capturer la diversité des opinions et améliorer la conception des systèmes d'IA dans le secteur social.
Importance de comprendre les perspectives
Comprendre les différentes perspectives des demandeurs et des non-demandeurs est vital pour élaborer des politiques sociales efficaces. Les études révèlent que supposer simplement que les gens comprennent les points de vue des autres peut mener à des erreurs de jugement significatives. Les non-demandeurs manquent souvent d'expérience ou de perspicacité pour évaluer correctement les sentiments des demandeurs, ce qui appelle à une approche plus nuancée de l'engagement des parties prenantes.
Conclusion
L'intégration de l'IA dans les systèmes d'aides sociales présente à la fois des opportunités et des défis. Bien que l'accélération des décisions soit bénéfique, il est essentiel de prioriser la précision pour protéger les droits et la dignité de ceux qui dépendent de ces services. S'engager directement avec les demandeurs et s'assurer que leurs voix sont entendues mènera à de meilleurs résultats pour tous. Alors que les gouvernements continuent d'explorer l'utilisation de l'IA, il est crucial de rester conscient des diverses opinions et préférences qui existent au sein de la société. En favorisant le dialogue et la compréhension, les décideurs peuvent créer des systèmes qui non seulement fonctionnent efficacement, mais servent aussi efficacement les besoins des populations les plus vulnérables.
Titre: False consensus biases AI against vulnerable stakeholders
Résumé: The deployment of AI systems for welfare benefit allocation allows for accelerated decision-making and faster provision of critical help, but has already led to an increase in unfair benefit denials and false fraud accusations. Collecting data in the US and the UK (N = 2449), we explore the public acceptability of such speed-accuracy trade-offs in populations of claimants and non-claimants. We observe a general willingness to trade off speed gains for modest accuracy losses, but this aggregate view masks notable divergences between claimants and non-claimants. Although welfare claimants comprise a relatively small proportion of the general population (e.g., 20% in the US representative sample), this vulnerable group is much less willing to accept AI deployed in welfare systems, raising concerns that solely using aggregate data for calibration could lead to policies misaligned with stakeholder preferences. Our study further uncovers asymmetric insights between claimants and non-claimants. The latter consistently overestimate claimant willingness to accept speed-accuracy trade-offs, even when financially incentivized for accurate perspective-taking. This suggests that policy decisions influenced by the dominant voice of non-claimants, however well-intentioned, may neglect the actual preferences of those directly affected by welfare AI systems. Our findings underline the need for stakeholder engagement and transparent communication in the design and deployment of these systems, particularly in contexts marked by power imbalances.
Auteurs: Mengchen Dong, Jean-François Bonnefon, Iyad Rahwan
Dernière mise à jour: 2024-05-17 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2407.12143
Source PDF: https://arxiv.org/pdf/2407.12143
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.