Simple Science

La science de pointe expliquée simplement

# Informatique# Robotique

Construire la confiance dans les équipes humain-robot

Un nouveau modèle explique les dynamiques de confiance dans les interactions humain-robot.

― 12 min lire


Dynamique de confianceDynamique de confiancedans les équipes derobotiquede travail d'équipe homme-robot.Explorer la confiance dans les modèles
Table des matières

La confiance entre les humains et les robots est super importante pour bien bosser ensemble. Cette confiance se base sur l’idée qu’un robot va aider une personne à atteindre ses objectifs, surtout quand les situations sont incertaines ou risquées. Pour que le travail d’équipe soit efficace, il faut qu’il y ait le bon niveau de confiance entre les humains et les robots.

La plupart des études sur la confiance envers les robots se sont concentrées sur un humain travaillant avec un robot. Par contre, il y a peu de recherches sur comment la confiance fonctionne dans des groupes avec plusieurs humains et plusieurs robots.

Imagine une situation où deux travailleurs humains et deux robots doivent accomplir une tâche. Ces quatre agents peuvent former des équipes plus petites pour mieux s’organiser, par exemple en augmentant l’efficacité et en réduisant le temps pour finir le job. Par exemple, ils peuvent commencer par former deux équipes d’un humain et d’un robot chacune pour finir la première partie de la tâche. Ensuite, ils pourraient se rassembler en une plus grande équipe pour la suite, et finalement se redistribuer en différentes paires pour la dernière partie. Cette idée de changer d’équipe au besoin, c’est ce qu’on appelle une "équipe d’équipes." Ici, les membres de l’équipe peuvent changer de rôle au fur et à mesure que le travail évolue.

Dans ce scénario, on propose que les humains peuvent avoir deux types d’expériences avec un robot : directe et indirecte. L’Expérience directe c’est quand un humain interagit avec le robot lui-même. L’Expérience Indirecte, c’est quand leur interaction est influencée par l’expérience de quelqu’un d’autre avec le robot.

Par exemple, si l’humain A travaille directement avec le robot X, son expérience va influencer sa confiance envers le robot X. Même si l’humain B ne travaille pas directement avec le robot X par la suite, il peut toujours changer sa confiance selon ce que l’humain A dit sur le robot X après leur tâche ensemble. Donc, l’humain B peut apprendre de la confiance de l’humain A envers le robot X grâce à cette expérience indirecte.

En utilisant ce cadre d’expériences directes et indirectes, on peut comprendre comment la confiance se construit entre plusieurs humains et robots. On pense que les deux types d’expériences jouent un rôle dans la manière dont la confiance est établie et mise à jour dans ces équipes plus grandes.

Dans cette étude, on introduit le modèle de Confiance, Inférence et Propagation (TIP) conçu pour ces équipes multi-humains et multi-robots. Le modèle TIP prend en compte à la fois les expériences directes et indirectes et montre comment la confiance évolue dans le temps. On montre à l’aide de preuves mathématiques que la confiance se stabilise après des interactions répétées.

Pour tester le modèle TIP, on a réalisé une expérience avec 15 paires de participants. Chaque paire a travaillé avec deux drones pour détecter des menaces sur plusieurs sessions. On a comparé notre modèle TIP, qui considère à la fois les expériences directes et indirectes, avec un modèle plus simple qui ne prend en compte que les expériences directes. Les résultats ont démontré que le modèle TIP captait mieux comment la confiance changeait avec le temps, ce qui a conduit à des prédictions plus précises.

Les principales contributions de notre travail sont les suivantes :

  1. Le modèle TIP est le premier du genre pour comprendre la confiance dans des groupes d’humains et de robots. Il prend en compte à la fois les expériences directes et indirectes entre les membres d’équipe.
  2. On a prouvé que la confiance se stabilise après plusieurs interactions dans notre modèle. Cette stabilisation peut être calculée efficacement.
  3. Nos expériences ont montré que le modèle TIP surpasse les modèles plus simples dans le suivi de la Dynamique de confiance dans des scénarios multi-humains et multi-robots.

Travaux Liés

Cette section passe en revue deux grands domaines de recherche pertinents à notre étude : la confiance dans les équipes humains-robots et les systèmes de gestion de réputation dans la technologie.

Modélisation de la Confiance dans l’Interaction Humain-Robot

Les recherches sur la confiance envers les robots viennent de divers domaines. Une ligne d’enquête se concentre sur les facteurs qui influencent la confiance d’une personne envers un robot, comme les traits individuels et la performance du robot dans les tâches. D’autres études ont examiné comment la confiance peut évoluer avec le temps à travers des interactions répétées avec des robots.

On a identifié certaines propriétés importantes des dynamiques de confiance, comme la continuité, la tendance à se concentrer plus sur les expériences négatives que positives, et la stabilisation de la confiance à terme. Divers modèles mathématiques ont été créés pour représenter comment la confiance opère dans des situations en tête-à-tête entre humains et robots.

Certains modèles récents utilisent des méthodes avancées pour évaluer la confiance basée sur la performance d’un robot ou le comportement de l’utilisateur humain. Ces modèles ont montré des promesses pour comprendre la confiance dans les interactions humain-robot.

Gestion de la Réputation

Bien que les recherches sur la confiance dans des équipes avec de nombreux humains et robots soient limitées, on peut apprendre des systèmes de gestion de réputation trouvés sur des marchés en ligne. Ces systèmes aident les acheteurs à évaluer la fiabilité des vendeurs. Ils peuvent être centralisés, où toutes les informations de réputation sont stockées à un seul endroit, ou décentralisés, où les individus gardent une trace de leurs propres évaluations.

Différentes méthodes ont été développées pour partager des informations de réputation entre acheteurs, ce qui fournit des insights utiles sur comment la confiance peut être mise à jour en fonction des expériences avec d’autres dans un réseau.

Modèle Mathématique

Le modèle TIP est introduit dans cette section. Notre but est de créer un modèle qui calcule la confiance d’une manière qui peut être appliquée à différents groupes d’humains et de robots.

Hypothèses

On fait trois hypothèses principales dans notre modèle :

  1. Chaque humain peut exprimer la confiance comme une seule valeur. Des études précédentes ont utilisé des représentations plus complexes, mais on se concentre sur une valeur de confiance simple et unidimensionnelle pour faciliter les choses pour les participants.
  2. On suppose que les agents humains sont coopératifs, c’est-à-dire qu’ils sont honnêtes et partagent leurs expériences de confiance honnêtement avec leurs coéquipiers.
  3. On considère que la confiance est principalement influencée par la performance du robot. Cette vue est courante dans les recherches précédentes sur les interactions humain-robot axées sur les tâches.

Modèle Proposé

Dans le modèle TIP, on voit la confiance comme une variable qui peut changer au fil du temps. À tout moment, la confiance qu’un humain ressent envers un robot est basée sur ses expériences directes avec ce robot.

Mise à Jour de la Confiance par l’Expérience Directe

Le modèle met à jour la confiance en fonction des interactions directes. Quand un humain travaille directement avec un robot, ses succès et échecs aident à définir sa confiance envers ce robot.

Mise à Jour de la Confiance par l’Expérience Indirecte

Pour les expériences indirectes, quand un humain partage sa confiance avec un autre humain, ce deuxième humain peut mettre à jour sa confiance en se basant sur le retour d’expérience du premier humain. Cela permet à la confiance d’être influencée même sans interaction directe, car les individus apprennent des expériences des autres.

Comportement Asymptotique de la Confiance

On a examiné le comportement du modèle TIP lorsque les humains interagissent à tour de rôle avec les robots de manière répétée. Nos découvertes suggèrent qu’avec le temps, la confiance que les humains ont envers les robots se stabilisera et atteindra un équilibre.

On a également développé des formules pour calculer les niveaux de confiance et confirmé que la confiance se stabiliserait plus rapidement lorsque les humains peuvent apprendre des expériences des autres.

Inférence des Paramètres

Le modèle TIP utilise plusieurs paramètres pour quantifier la confiance d’un humain envers un robot en fonction de ses expériences. On peut calculer ces paramètres en utilisant une méthode qui maximise la probabilité des évaluations de confiance basées sur les données collectées lors des interactions.

Estimation de la Confiance

Dans les interactions réel entre humains et robots, il n’est souvent pas pratique de demander des évaluations de confiance après chaque interaction. Au lieu de cela, on estime la confiance en utilisant les données disponibles des interactions passées. On calcule les valeurs manquantes en fonction de ce qui est connu et utilise cela pour faire des estimations éclairées sur les niveaux de confiance.

Étude sur les Sujets Humains

Pour évaluer le modèle TIP, on a mené une expérience avec 30 participants qui ont travaillé en équipes dans une tâche simulée de détection de menaces avec des drones. Cette étude a fourni des insights précieux sur le fonctionnement de la confiance dans des environnements d’équipe.

Design Expérimental

Au cours de l’expérience, des paires de participants ont réalisé une tâche de recherche et de détection avec deux drones sur plusieurs sessions. Chaque participant a été assigné à travailler avec un drone spécifique et devait rapporter sa confiance envers chaque drone et son coéquipier après chaque session.

Procédure Expérimentale

Avant de commencer, les participants ont signé des formulaires de consentement et répondu à des enquêtes démographiques. Ils ont participé à des sessions pratiques pour se familiariser avec le matériel.

Pour encourager des évaluations honnêtes, les participants ont été informés que leurs performances d’équipe influenceraient leur prime.

Résultats et Discussion

Notre analyse s’est concentrée sur comment les niveaux de confiance changeaient tout au long de l’expérience. On a examiné à la fois les évaluations moyennes de confiance et les différences de confiance entre les membres de l’équipe.

Résultats de Confiance Moyenne

On a observé que les niveaux moyens de confiance envers les robots avaient tendance à se stabiliser après plusieurs sessions. Il n’y avait pas de différence significative dans les niveaux de confiance initiaux, mais les niveaux finaux de confiance indiquaient clairement qu’un drone était plus fiable que l’autre à la fin de la tâche.

Déviation de Confiance au Sein de l’Équipe

On a également mesuré à quel point les évaluations de confiance étaient alignées entre les membres de l’équipe. On a constaté que les différences de niveaux de confiance au sein des équipes diminuaient à mesure que l’expérience avançait, indiquant que les membres de l’équipe parvenaient à aligner leurs points de vue sur la confiance plus étroitement au fil du temps.

Déviation de Confiance entre les Équipes

En plus de mesurer la confiance au sein de l’équipe, on a comparé les évaluations de confiance entre différentes équipes. On a trouvé que les déviations de confiance au sein des équipes étaient significativement plus petites que celles entre les équipes à la fin de l’expérience. Ce résultat suggère que le partage des expériences parmi les membres de l’équipe a conduit à des niveaux de confiance plus uniformes au sein des équipes.

Ajustement du Modèle

En utilisant les données de l’expérience, on a appliqué notre modèle TIP pour voir à quel point il pouvait prédire la dynamique de confiance. Les résultats ont montré que notre modèle représentait avec précision les niveaux de confiance d’une manière qui surpassait les modèles plus simples ne prenant en compte que les expériences directes.

Précision de l’Estimation de la Confiance

On a également mesuré à quel point notre modèle pouvait estimer avec précision les niveaux de confiance, même lorsque certaines évaluations de confiance manquaient dans les données. Le modèle TIP s’est avéré efficace pour estimer la confiance en fonction des interactions précédentes, avec des résultats montrant une petite marge d’erreur.

Conclusion

Dans cette étude, on a introduit le modèle TIP pour comprendre la confiance dans les équipes multi-humains et multi-robots. On a souligné l’importance des expériences directes et indirectes pour construire la confiance au fil du temps.

Nos expériences ont montré que la confiance peut se stabiliser grâce à des expériences partagées, ce qui conduit à une dynamique d’équipe plus efficace. Le modèle TIP a le potentiel d’être appliqué dans divers scénarios de travail d’équipe impliquant à la fois des humains et des robots.

Cependant, il y a des limites à nos découvertes. On a supposé que les participants seraient toujours coopératifs et honnêtes dans le partage de leur confiance. Dans des environnements moins coopératifs, établir la confiance pourrait prendre plus de temps ou même devenir plus difficile.

D’autres recherches sont nécessaires pour explorer la confiance dans des environnements plus complexes et pour voir comment d’autres dimensions de confiance pourraient être incluses dans notre modèle.

En examinant comment la confiance évolue dans les environnements de travail en équipe, on peut améliorer les interactions humain-robot, les rendant plus efficaces et fiables.

Source originale

Titre: Enabling Team of Teams: A Trust Inference and Propagation (TIP) Model in Multi-Human Multi-Robot Teams

Résumé: Trust has been identified as a central factor for effective human-robot teaming. Existing literature on trust modeling predominantly focuses on dyadic human-autonomy teams where one human agent interacts with one robot. There is little, if not no, research on trust modeling in teams consisting of multiple human agents and multiple robotic agents. To fill this research gap, we present the trust inference and propagation (TIP) model for trust modeling in multi-human multi-robot teams. In a multi-human multi-robot team, we postulate that there exist two types of experiences that a human agent has with a robot: direct and indirect experiences. The TIP model presents a novel mathematical framework that explicitly accounts for both types of experiences. To evaluate the model, we conducted a human-subject experiment with 15 pairs of participants (${N=30}$). Each pair performed a search and detection task with two drones. Results show that our TIP model successfully captured the underlying trust dynamics and significantly outperformed a baseline model. To the best of our knowledge, the TIP model is the first mathematical framework for computational trust modeling in multi-human multi-robot teams.

Auteurs: Yaohui Guo, X. Jessie Yang, Cong Shi

Dernière mise à jour: 2024-07-15 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2305.12614

Source PDF: https://arxiv.org/pdf/2305.12614

Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires