Simple Science

La science de pointe expliquée simplement

# Informatique# Robotique# Interaction homme-machine

Comment le timing affecte l'équité dans les interactions humain-robot

Une étude révèle comment le timing et le bénéficiaire influencent les perceptions de justice lors des interactions avec des robots.

Houston Claure, Kate Candon, Inyoung Shin, Marynel Vázquez

― 7 min lire


Changements de justiceChangements de justicedans les interactionsavec les robotsl'équité des robots.influencent notre perception deLe timing et les bénéficiaires
Table des matières

Les gens se soucient de l'Équité, surtout quand des robots sont impliqués. Traditionnellement, les chercheurs analysaient l'équité seulement après que les gens aient interagi avec un robot. Cependant, les interactions peuvent évoluer avec le temps, ce qui peut influencer la manière dont les gens perçoivent l'équité pendant ces échanges.

Pour étudier cela, on a mené une expérience avec 40 participants. On voulait voir comment le moment où un robot agit de manière injuste et qui profite de ces actions injustes influençaient la perception de l'équité des gens. On a découvert que les Perceptions d'équité peuvent changer selon le moment où les actions injustes se produisent.

Dans notre étude, les participants ont joué à un jeu multijoueur contre un robot. Pendant ce jeu, un deuxième robot apportait du Soutien, mais parfois de manière injuste. En observant les réactions des participants à différents moments du jeu, notre but était de comprendre comment les jugements d'équité peuvent évoluer.

Équité et Robots

L'équité est une valeur importante pour les humains. De nombreuses études montrent que les gens placent souvent l'équité au-dessus de leurs propres intérêts. Ils peuvent même sacrifier leurs propres bénéfices pour assurer l'équité pour les autres. Avec l'utilisation croissante des robots dans des situations où leurs actions peuvent affecter les gens, il est crucial qu'ils agissent de manière équitable.

Par exemple, les robots d'assistance doivent répartir leur aide de manière équilibrée entre les patients, et les robots d'usine doivent organiser les tâches équitablement entre les travailleurs humains. Les actions injustes des robots peuvent créer des sentiments de méfiance et impacter la proximité des gens envers eux.

Malgré un intérêt croissant pour l'équité dans les interactions homme-robot, la plupart des recherches n'ont mesuré les perceptions d'équité qu'à la fin d'une interaction. Il n'y a pas eu de méthode claire pour étudier les facteurs qui rendent un robot semblant injuste.

Objectifs de l'Étude

Cette étude visait à combler ces lacunes. On voulait voir comment les perceptions d'équité des gens changent pendant les interactions avec les robots. On a aussi exploré une théorie de l'équité, qui affirme que les perceptions d'équité dépendent de trois facteurs : combien le bien-être d'une personne est affecté, comment un robot se comporte, et si cela viole des normes morales.

Dans un jeu multijoueur, les participants jouaient contre un robot. Un deuxième robot apportait de l'aide, mais parfois, il soutenait soit le joueur, soit son concurrent robot de manière injuste. On a étudié comment ces actions injustes et le timing affectaient les perceptions d'équité.

Questions de Recherche Clés

  1. Les perceptions des gens sur l'équité d'un robot changent-elles avec le temps ?
  2. Comment le timing d'un traitement injuste influence-t-il les perceptions globales d'équité ?
  3. Est-ce que ça compte si le comportement injuste profite au joueur ou au concurrent robot ?
  4. Les trois facteurs d'équité peuvent-ils prédire les perceptions d'équité à un moment donné ?

Perceptions d'Équité en Action

Pendant l'expérience, les participants jouaient à un jeu appelé Space Invaders contre un robot concurrent. Le robot de soutien pouvait choisir d'aider un joueur plus que l'autre. On a cherché des changements dans les perceptions d'équité en fonction du moment de cette aide.

On avait deux principales conditions pour le soutien injuste : tôt (au début du jeu) et tard (vers la fin). Il était important de mesurer aussi ce que les participants ressentaient sur l'équité tout au long du jeu.

Nos résultats ont montré que les actions injustes pouvaient mener à des perceptions d'équité plus faibles, surtout quand ces actions se produisaient tôt dans le jeu. Les participants estimaient que le traitement injuste diminuait leurs chances de gagner.

Comment le Timing Affecte l'Équité

Quand le soutien injuste était donné tôt dans le jeu, les sentiments des participants sur l'équité du robot ne semblaient pas s'améliorer avec le temps. En revanche, si le soutien injuste était donné tard dans le jeu, les participants montraient au moins des perceptions d'équité plus élevées au début et au milieu.

Inattendu, quand on a regardé les perceptions d'équité globales, on n'a pas trouvé de fortes différences entre les actions injustes données tôt ou tard. Ça pourrait être dû à la façon dont le jeu a été configuré et comment les participants ont réfléchi sur leurs expériences à travers des revues vidéo avant d'évaluer l'équité globale.

Bénéficiaire du Soutien

On voulait aussi voir comment le bénéficiaire du soutien injuste impactait les sentiments d'équité. Les participants se sentaient-ils différemment envers le robot selon qu'ils ou leur concurrent profitaient ?

Étonnamment, on a découvert que les participants qui bénéficiaient du soutien injuste évaluaient les actions du robot comme plus équitables. Ceux qui voyaient le robot aider leur concurrent ressentaient le contraire. Les participants considéraient souvent le robot comme stratégique quand il les soutenait, et injuste quand il favorisait le concurrent.

Confiance et Relations

On a ensuite examiné comment le comportement injuste du robot affectait les sentiments de proximité et de confiance des participants envers le robot et le concurrent. La confiance peut être facilement brisée quand quelqu'un se sent traité de manière injuste.

Nos résultats ont indiqué que les participants se sentaient plus proches du robot quand il leur offrait plus de soutien. À l'inverse, ils ressentaient une connexion plus forte entre le robot et le concurrent quand le robot aidait le concurrent.

Composants de la Théorie de l'Équité

On était curieux de voir si les trois composants de la théorie de l'équité pouvaient aider à prédire comment les participants voyaient l'équité à un moment donné. Les résultats ont suggéré que les perceptions de bien-être réduit et de violations morales étaient plus influentes que le comportement du robot.

Cette découverte soulève des questions sur la façon dont les gens perçoivent la capacité des robots à prendre leurs propres décisions. Il semble que les gens ne voient pas les robots comme ayant la même capacité à agir équitablement que ce qu'ils attendraient des humains.

Pensées de Clôture

Notre étude met en évidence que l'équité n'est pas constante ; elle peut évoluer durant les interactions avec des robots. Il est important que les futures recherches continuent d'explorer l'équité dans ces situations. Comprendre comment les perceptions d'équité changent avec le temps peut aider à concevoir des robots qui agissent conformément aux attentes humaines.

Plus de recherches sont nécessaires pour examiner les perceptions d'équité dans différents contextes et avec divers types d'interactions. À mesure que les robots deviennent plus courants dans les rôles humains, comprendre leurs actions et perceptions d'équité sera crucial pour favoriser la confiance et la collaboration.

En conclusion, la façon dont les humains perçoivent l'équité dans leurs interactions avec les robots peut changer selon le timing et qui bénéficie des actions du robot. Cette compréhension aidera à concevoir de meilleurs robots qui s'alignent sur les valeurs humaines d'équité.

Source originale

Titre: Dynamic Fairness Perceptions in Human-Robot Interaction

Résumé: People deeply care about how fairly they are treated by robots. The established paradigm for probing fairness in Human-Robot Interaction (HRI) involves measuring the perception of the fairness of a robot at the conclusion of an interaction. However, such an approach is limited as interactions vary over time, potentially causing changes in fairness perceptions as well. To validate this idea, we conducted a 2x2 user study with a mixed design (N=40) where we investigated two factors: the timing of unfair robot actions (early or late in an interaction) and the beneficiary of those actions (either another robot or the participant). Our results show that fairness judgments are not static. They can shift based on the timing of unfair robot actions. Further, we explored using perceptions of three key factors (reduced welfare, conduct, and moral transgression) proposed by a Fairness Theory from Organizational Justice to predict momentary perceptions of fairness in our study. Interestingly, we found that the reduced welfare and moral transgression factors were better predictors than all factors together. Our findings reinforce the idea that unfair robot behavior can shape perceptions of group dynamics and trust towards a robot and pave the path to future research directions on moment-to-moment fairness perceptions

Auteurs: Houston Claure, Kate Candon, Inyoung Shin, Marynel Vázquez

Dernière mise à jour: 2024-09-11 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2409.07560

Source PDF: https://arxiv.org/pdf/2409.07560

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Articles similaires