Simple Science

La science de pointe expliquée simplement

# Informatique# Robotique# Intelligence artificielle# Ordinateurs et société# Interaction homme-machine# Apprentissage automatique

Expliquer les décisions dans les voitures autonomes

Une étude examine comment les explications influencent la sécurité des passagers et la prise de décision dans les voitures autonomes.

― 7 min lire


Voitures autonomes : leVoitures autonomes : ledébat sur l'explicationle contrôle et le confort desexplications des véhicules influencentUne étude montre comment les
Table des matières

Le sujet de comment les machines expliquent leurs décisions attire de plus en plus l'attention, surtout dans le monde des voitures autonomes. Cette étude examine comment la manière dont ces explications sont données influence les personnes à l'intérieur de la voiture, en particulier en ce qui concerne leur sentiment de Sécurité et d'Anxiété, ainsi que leur envie de prendre le contrôle du véhicule.

L'Importance des Explications dans les Voitures Autonomes

Avec l'automatisation des voitures, elles commencent aussi à prendre des décisions importantes qui impactent la sécurité des passagers. Ça veut dire qu'il est essentiel que ces véhicules expliquent ce qu'ils font et pourquoi. Être clair peut aider les passagers à se sentir en sécurité et à développer une confiance dans les actions du véhicule. Cependant, le niveau de détail de ces explications est crucial pour atteindre cet objectif.

Différents Niveaux de Spécificité

Dans cette étude, deux types d'explications ont été testés. L'une était “abstraite,” ce qui veut dire qu'elle offrait des détails vagues sur ce que la voiture était en train de faire. L'autre était “spécifique,” fournissant des informations détaillées sur les actions de la voiture. Par exemple, une explication abstraite pourrait dire : "La voiture s'arrête," alors qu'une explication spécifique dirait : "La voiture s'arrête parce qu'il y a un feu rouge."

Comprendre comment les spécificités affectent la perception des passagers est crucial. Les gens qui sont responsables de la construction et de la réparation des voitures autonomes pourraient avoir besoin d'une information très détaillée sur les décisions de la voiture pour s'assurer que tout fonctionne correctement. Cependant, il n'est pas certain que ce niveau de détail aide ou gêne les passagers ordinaires.

Mise en Place de l'Étude

Pour explorer cela, les chercheurs ont créé un environnement de test utilisant un simulateur de conduite qui a permis aux participants de vivre une balade virtuelle en voiture autonome. Ils portaient des casques de réalité virtuelle et interagissaient avec le simulateur à l'aide d'un volant et de pédales. L'objectif était de voir comment les différents types d'explications affectaient les sentiments de sécurité des passagers et leurs niveaux d'anxiété pendant le trajet.

Participants à l'Étude

Trente-neuf personnes ont participé à cette étude. C'était un mélange d'étudiants et de personnel universitaire, âgés de 18 à 59 ans. Tous n'avaient pas d'expérience avec des voitures autonomes, mais la majorité avait un permis de conduire. Chaque participant a expérimenté les deux types d'explications pendant deux trajets simulés différents.

Les Scénarios de Conduite

Les chercheurs ont créé deux scénarios pour le test de conduite. Dans l'un, la voiture donnait des explications abstraites pour ses actions. Dans l'autre, elle fournissait des explications Spécifiques. Les itinéraires étaient conçus pour refléter des conditions de conduite réelles. Chaque trajet durait environ quatre minutes, avec différentes situations de circulation.

Scénario Abstrait

Dans le scénario abstrait, les explications étaient larges et manquaient de détails. Par exemple, tous les feux de circulation étaient simplement appelés "panneaux de signalisation," sans mentionner s'ils étaient rouges, verts ou jaunes. Cette imprécision signifiait que les passagers pourraient ne pas avoir une compréhension claire des choix faits par la voiture, ce qui pourrait mener à de la confusion.

Scénario Spécifique

Dans le scénario spécifique, la voiture donnait des explications détaillées, qui révélaient parfois même de petites erreurs de perception, comme le fait de classer une voiture comme une fourgonnette. Bien que ces erreurs n'aient pas été nuisibles à la conduite, elles permettaient aux passagers de voir le niveau de précision dans le traitement de la voiture.

Mesurer les Réactions des Passagers

Après chaque trajet, les participants ont rempli des enquêtes mesurant leur sentiment de sécurité, leurs niveaux d'anxiété, et combien ils ressentaient l'envie de prendre le contrôle de la voiture. Les chercheurs ont utilisé une échelle de 7 points pour évaluer leurs sentiments concernant chacun de ces facteurs.

Analyse des Résultats

Les résultats ont montré que les deux types d'explications avaient des effets généralement positifs sur la façon dont les passagers se sentaient en sécurité et leurs niveaux d'anxiété. Fait intéressant, il n'y avait pas de différences significatives en matière de sécurité perçue ou d'anxiété que les explications soient abstraites ou spécifiques.

Cependant, pour le sentiment de vouloir prendre le contrôle de la voiture, les explications spécifiques ont conduit à des scores plus élevés. Cela suggère que lorsque la voiture expliquait ses actions en détail, les passagers étaient plus enclins à envisager de prendre le contrôle, même s'ils n'étaient pas censés le faire.

Perspectives des Passagers

Les participants ont fourni des retours qualitatifs sur leurs expériences. Beaucoup se sont sentis rassurés par les explications données pendant les deux types de trajets, indiquant que les explications peuvent favoriser un sentiment de sécurité. Cependant, certains ont trouvé les explications abstraites confuses, notant qu'ils auraient préféré plus de clarté.

Par exemple, un passager a mentionné que le fait d'appeler un feu de circulation un “panneau de signalisation” ne fournissait pas assez d'informations, ce qui lui a fait douter des actions du véhicule. En revanche, d'autres ont apprécié les explications détaillées dans le scénario spécifique, car ils sentaient que cela représentait fidèlement la situation.

Dynamiques du Véhicule et Confort des Passagers

Plusieurs commentaires ont porté sur la façon dont le comportement de la voiture affectait leurs sentiments. Certains participants ont noté que le véhicule semblait parfois effectuer des manœuvres agressives, ce qui les rendait inconfortables. De plus, le mouvement soudain du volant a surpris certaines personnes, ce qui a été particulièrement noté dans le scénario d'explications spécifiques.

Points Clés à Retenir

De cette étude, on peut conclure que fournir des explications claires dans les voitures autonomes aide à améliorer le sentiment de sécurité des passagers et à réduire l'anxiété. Cependant, bien que les explications abstraites et spécifiques aient atteint ces résultats, les explications spécifiques semblaient également augmenter la probabilité que les passagers veuillent prendre le contrôle du véhicule.

Les résultats suggèrent que bien que les détails puissent aider à la compréhension, ils pourraient aussi mener à une envie d'intervenir. Cela reflète une tendance naturelle des gens à vouloir être en contrôle, surtout quand ils se sentent incertains sur les actions du véhicule.

À Venir

Dans les recherches futures, il serait bénéfique d'explorer comment divers niveaux d'erreurs dans la perception d'un véhicule affectent les sentiments des passagers et si des explications plus spécifiques mènent toujours à un désir plus élevé de contrôle. Comprendre ces facteurs peut aider les développeurs à créer de meilleurs systèmes de communication entre les voitures autonomes et leurs passagers.

En Résumé, alors que la technologie autonome continue de croître, il sera crucial d'équilibrer le niveau de détail fourni dans les explications pour s'assurer que les passagers se sentent en sécurité sans être submergés ou confus. Cet équilibre pourrait finalement conduire à de meilleures expériences globales dans les véhicules autonomes.

Source originale

Titre: Effects of Explanation Specificity on Passengers in Autonomous Driving

Résumé: The nature of explanations provided by an explainable AI algorithm has been a topic of interest in the explainable AI and human-computer interaction community. In this paper, we investigate the effects of natural language explanations' specificity on passengers in autonomous driving. We extended an existing data-driven tree-based explainer algorithm by adding a rule-based option for explanation generation. We generated auditory natural language explanations with different levels of specificity (abstract and specific) and tested these explanations in a within-subject user study (N=39) using an immersive physical driving simulation setup. Our results showed that both abstract and specific explanations had similar positive effects on passengers' perceived safety and the feeling of anxiety. However, the specific explanations influenced the desire of passengers to takeover driving control from the autonomous vehicle (AV), while the abstract explanations did not. We conclude that natural language auditory explanations are useful for passengers in autonomous driving, and their specificity levels could influence how much in-vehicle participants would wish to be in control of the driving activity.

Auteurs: Daniel Omeiza, Raunak Bhattacharyya, Nick Hawes, Marina Jirotka, Lars Kunze

Dernière mise à jour: 2023-07-02 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2307.00633

Source PDF: https://arxiv.org/pdf/2307.00633

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires