Simple Science

La science de pointe expliquée simplement

# Informatique# Interaction homme-machine

Construire la confiance dans les agents autonomes

Explorer comment la confiance se développe dans les interactions humain-agent au fil du temps.

― 5 min lire


Confiance dans les robotsConfiance dans les robotsexpliquéeautonomes.entre les humains et les agentsExaminer les dynamiques de confiance
Table des matières

Les humains travaillent de plus en plus avec des Agents autonomes ou des robots pour diverses tâches. À mesure que ces machines deviennent plus intelligentes et capables, c'est important de comprendre comment les gens leur font Confiance. La confiance joue un rôle crucial dans l'efficacité de ces collaborations.

Le Rôle de la Confiance

Pour faire simple, la confiance, c’est croire que l’agent va aider à atteindre les objectifs d’une personne, surtout quand il y a des incertitudes. Dans les moments de doute, à quel point une personne dépend d’un agent peut refléter son niveau de confiance. La confiance peut changer en fonction de plusieurs facteurs, y compris les performances de l’agent et son comportement pendant les tâches.

Le But de l’Étude

L'objectif de cette étude était d'examiner comment la confiance se développe avec le temps lorsque les gens interagissent avec des agents autonomes. La recherche s'est concentrée sur l'impact des changements dans les Capacités et les Stratégies de l’agent sur la confiance des humains.

Conception de l’Expérience

Dans l'expérience, les participants devaient travailler avec un agent autonome pour rechercher des objets spéciaux appelés outliers sur une grille à l'écran. Les agents variaient en capacités et stratégies lors des différents essais.

Chaque essai avait des caractéristiques spécifiques :

  • Différents agents avaient différentes capacités pour trouver des outliers.
  • Les agents utilisaient des stratégies de recherche variées, comme se déplacer en ligne droite ou au hasard.
  • Les participants devaient estimer combien d'outliers étaient dans la grille en fonction de leur propre recherche et du rapport de l’agent.

Mesure de la Confiance

Après chaque essai, les participants remplissaient un questionnaire sur leur confiance envers l’agent. Ils évaluaient à quel point ils pensaient que l'agent était fiable et à quel point ils se sentaient à l’aise avec sa stratégie. Cette confiance auto-évaluée a aidé les chercheurs à comprendre comment les opinions des gens changeaient en interagissant avec les agents.

Répartition des Groupes

Les participants étaient divisés en deux groupes :

  • Le groupe 1 interagissait avec des agents ayant un niveau de capacité constant tout au long d'un ensemble d'essais.
  • Le groupe 2 faisait face à des agents avec des capacités changeantes à chaque essai.

Cette configuration a permis aux chercheurs de voir comment la confiance était affectée par la manière dont les agents révélaient leurs capacités.

Aperçu des Résultats

Les participants des deux groupes variaient dans leurs évaluations de confiance. Les variations dépendaient de la performance des agents pendant leurs Interactions. Le groupe 1 avait des évaluations de confiance plus stables car ils interagissaient avec les mêmes agents capables. La confiance du groupe 2 était plus erratique, car ils devaient s'adapter rapidement à des agents avec des capacités et des méthodes différentes.

Dynamiques de la Confiance

L’étude a révélé que la confiance n'est pas statique; elle évolue. Chaque interaction avec un agent influençait les sentiments des participants à son égard lors d'interactions futures. Les participants qui voyaient bien agir les agents étaient plus susceptibles d'avoir un niveau de confiance plus élevé, tandis que de mauvaises performances diminuaient la confiance.

L’Importance de la Stratégie et de la Capacité

La stratégie et la capacité de l'agent ont fortement influencé les évaluations de confiance. Des stratégies plus prévisibles entraînaient une confiance plus élevée, tandis que des performances incohérentes suscitaient des doutes. Les participants ont appris au fil du temps à interpréter le comportement des agents et à ajuster leur confiance en conséquence.

Analyse des Séries Temporelles

Pour analyser comment la confiance a changé au fil du temps, les chercheurs ont utilisé la modélisation des séries temporelles. Cette approche a aidé à capturer comment la confiance de chaque participant a évolué en fonction de ses expériences antérieures avec les agents. Les résultats ont indiqué que les rencontres précédentes jouaient un rôle significatif dans la formation des niveaux de confiance actuels.

Implications pour les Interactions Futures

À mesure que les agents autonomes deviennent une partie plus importante des tâches quotidiennes, comprendre la confiance humaine peut aider à améliorer leur conception. Si les systèmes peuvent s'adapter en fonction de leur compréhension de la confiance humaine, les interactions pourraient devenir plus fluides et plus productives.

Applications Réelles

Les enseignements tirés de cette étude peuvent s'appliquer à divers domaines, y compris la santé, les transports et le service client. À mesure que les machines travaillent en étroite collaboration avec les gens, s'assurer que ces personnes font confiance à ces systèmes améliorera la performance et la satisfaction globales.

Conclusion

La confiance est un facteur clé dans la relation entre les humains et les agents autonomes. Comprendre comment elle change au fil du temps aidera à concevoir de meilleurs systèmes qui peuvent fonctionner efficacement aux côtés des humains. À mesure que la technologie progresse, surveiller et renforcer la confiance sera vital pour une collaboration réussie entre les personnes et les machines.

Recommandations pour les Recherches Futures

D'autres études devraient être menées pour explorer les facteurs qui affectent la confiance dans les agents autonomes. Cela inclut l'examen des différences individuelles entre les personnes, les tâches spécifiques à accomplir, et les facteurs contextuels présents lors des interactions.

Dernières Réflexions

Alors que l'on avance vers un avenir où les systèmes autonomes sont toujours présents, instaurer la confiance entre les humains et les machines sera essentiel. Cette recherche est un pas vers garantir que les agents autonomes peuvent efficacement assister les gens tout en gagnant leur confiance au fil du temps.

Source originale

Titre: Dynamic Human Trust Modeling of Autonomous Agents With Varying Capability and Strategy

Résumé: Objective We model the dynamic trust of human subjects in a human-autonomy-teaming screen-based task. Background Trust is an emerging area of study in human-robot collaboration. Many studies have looked at the issue of robot performance as a sole predictor of human trust, but this could underestimate the complexity of the interaction. Method Subjects were paired with autonomous agents to search an on-screen grid to determine the number of outlier objects. In each trial, a different autonomous agent with a preassigned capability used one of three search strategies and then reported the number of outliers it found as a fraction of its capability. Then, the subject reported their total outlier estimate. Human subjects then evaluated statements about the agent's behavior, reliability, and their trust in the agent. Results 80 subjects were recruited. Self-reported trust was modeled using Ordinary Least Squares, but the group that interacted with varying capability agents on a short time order produced a better performing ARIMAX model. Models were cross-validated between groups and found a moderate improvement in the next trial trust prediction. Conclusion A time series modeling approach reveals the effects of temporal ordering of agent performance on estimated trust. Recency bias may affect how subjects weigh the contribution of strategy or capability to trust. Understanding the connections between agent behavior, agent performance, and human trust is crucial to improving human-robot collaborative tasks. Application The modeling approach in this study demonstrates the need to represent autonomous agent characteristics over time to capture changes in human trust.

Auteurs: Jason Dekarske, Zhaodan Kong, Sanjay Joshi

Dernière mise à jour: 2024-04-30 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2404.19291

Source PDF: https://arxiv.org/pdf/2404.19291

Licence: https://creativecommons.org/licenses/by-sa/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires