Comprendre l'anthropomorphisme dans les systèmes de dialogue
Explorer comment les traits humains dans la technologie influencent la perception et la confiance des utilisateurs.
― 8 min lire
Table des matières
Les Systèmes de dialogue automatisés, souvent appelés agents conversationnels, sont de plus en plus présents dans nos vies quotidiennes. Les gens peuvent traiter ces systèmes comme s'ils étaient humains. Cette tendance, connue sous le nom d'Anthropomorphisme, se produit quand les utilisateurs voient des traits humains dans des entités non humaines. Bien qu'un certain niveau d'anthropomorphisme puisse être utile, cela peut aussi entraîner des malentendus et des problèmes comme une Confiance mal placée.
Les développeurs ont un rôle dans la façon dont ces systèmes sont perçus. Ils conçoivent souvent des fonctionnalités qui encouragent les utilisateurs à penser que les systèmes sont semblables à des humains. Mais cela peut créer des problèmes, surtout lorsque les utilisateurs dépendent trop des systèmes pour des tâches sérieuses, ce qui peut mener à des conséquences dangereuses.
Les chercheurs étudient comment les utilisateurs personnifient ces systèmes et comment les choix de design peuvent influencer ce comportement. Toutefois, les travaux dans ce domaine sont encore éparpillés, et de nombreux facteurs importants sont négligés. Cet article discutera de la manière dont le langage et les choix de design peuvent impacter la façon dont les gens perçoivent les systèmes de dialogue et les dangers potentiels qui pourraient en résulter.
Qu'est-ce que l'anthropomorphisme ?
L'anthropomorphisme signifie donner des caractéristiques ou des comportements humains à des choses non humaines, comme des animaux ou des machines. Un exemple classique est les fables d'Ésope, où des animaux se comportent comme des humains. Dans le cas des systèmes de dialogue, l'anthropomorphisme peut rendre ces systèmes plus accessibles, augmentant la satisfaction et l'engagement des utilisateurs.
Quand les utilisateurs considèrent les systèmes comme humains, ils peuvent établir des liens émotionnels, ce qui les rend plus susceptibles d'utiliser ces outils fréquemment. Cependant, même lorsque ces liens sont établis, les systèmes eux-mêmes ne peuvent pas répondre aux sentiments humains. Cela crée un décalage où les utilisateurs peuvent faire trop confiance aux systèmes ou s'attendre à ce qu'ils se comportent comme des humains.
Facteurs humains dans l'anthropomorphisme
Les gens anthropomorphisent souvent les systèmes sans même y penser. Ce processus se produit automatiquement, guidé par des indices dans le design du système. Les recherches montrent que ce comportement est souvent un réflexe, ce qui signifie que les gens tendent à attribuer des traits humains à moins qu'ils ne l'apprennent autrement.
Les enfants sont plus susceptibles de voir des caractéristiques humaines dans les machines parce qu'ils ont moins d'expérience avec la technologie. Les adultes, ayant plus de connaissances, peuvent également s'engager dans l'anthropomorphisme pour deux motivations principales : le besoin d'interagir avec leur environnement (efficacité) et le désir de connexions sociales (sociabilité). Ceux qui se sentent seuls ou isolés peuvent même être plus susceptibles de traiter les machines comme des compagnons.
Caractéristiques des systèmes de dialogue
Tous les systèmes de dialogue ne semblent pas également humains. Des facteurs de base comme l'interactivité, la capacité à communiquer en utilisant le langage, et l'adoption de rôles habituellement tenus par des humains contribuent à cette perception. Plus un système intègre de fonctionnalités-comme avoir des noms, des personas, ou des préférences supposées-plus il apparaît humain.
Langage et choix de design
Les concepteurs utilisent des fonctionnalités spécifiques pour créer des réponses anthropomorphiques. Par exemple, les systèmes avec des voix humaines peuvent facilement être confondus avec de vraies personnes. La façon dont une voix sonne peut donner aux utilisateurs des indices sur l'état émotionnel ou la personnalité du locuteur. Cela peut mener à des attentes humaines quant à ce que le système peut faire.
D'autres facteurs comme le ton, la hauteur, et même les schémas de discours peuvent influencer les perceptions. L'inclusion d'hésitations humaines, connues sous le nom de disfluences, peut rendre le système plus accessible, mais cela peut aussi tromper les utilisateurs en leur faisant croire que le système est incertain ou en difficulté.
De plus, des réponses qui brouillent les frontières entre humain et machine peuvent créer de la confusion. Par exemple, quand un système exprime des opinions ou des préférences, cela peut amener les utilisateurs à croire que le système a des pensées humaines. Donc, une attention particulière doit être portée à la manière dont ces systèmes sont conçus et aux indices qu'ils fournissent.
Les risques de l'anthropomorphisme
Bien que l'anthropomorphisme puisse améliorer l'expérience utilisateur, il comporte aussi des risques. Une confiance mal placée dans les systèmes automatisés peut entraîner des conséquences graves. Par exemple, il y a eu des cas où quelqu'un a agi sur les conseils d'un système, entraînant du tort.
Les enfants et les populations vulnérables, comme les personnes âgées ou celles ayant des handicaps, pourraient être particulièrement sensibles à ces risques. Ils pourraient ne pas reconnaître pleinement les limites de ces systèmes. Ainsi, comprendre comment l'anthropomorphisme affecte le comportement des utilisateurs est crucial dans le développement de ces technologies.
Gendering et stéréotypes
Les gens assignent souvent un genre aux systèmes de dialogue en se basant sur des indices minimaux, comme le type de voix, même s'il n'y a pas de marqueur de genre explicite. Cela peut renforcer les stéréotypes existants et créer un environnement où les systèmes sont perçus comme subalternes, surtout s'ils sont perçus comme ayant des caractéristiques féminines.
En retour, ces perceptions peuvent entraîner des conséquences négatives, comme des utilisateurs exprimant de la frustration ou de l'hostilité envers les systèmes. Les développeurs doivent être conscients des dynamiques de genre lors de la conception de systèmes pour éviter de perpétuer des stéréotypes nuisibles.
Langage et représentation
Les systèmes de dialogue reflètent souvent les préférences linguistiques de certaines démographies, généralement celles issues de milieux blancs et aisés. Ce biais peut aliéner les utilisateurs issus de communautés marginalisées. Dans un effort de communiquer efficacement, les utilisateurs peuvent se sentir contraints d'ajuster leur langage pour s'adapter aux capacités du système, ce qui peut mener à une forme de contrôle du langage.
Ce problème est aggravé lorsque les systèmes génèrent des réponses qui reflètent des normes d'acceptabilité étroites basées sur des normes culturelles dominantes. En conséquence, les voix marginalisées peuvent être encore plus marginalisées dans les conversations avec ces technologies.
Recommandations pour les développeurs
Étant donné les différentes manières dont l'anthropomorphisme peut se manifester dans les systèmes de dialogue, il est essentiel que les concepteurs reconsidèrent leurs approches :
Reconnaître la tendance à personnifier
Les développeurs devraient reconnaître que les utilisateurs attribueront probablement des qualités humaines aux systèmes par défaut. Cette tendance devrait guider le processus de conception, car des indices anthropomorphiques inutiles peuvent conduire à des malentendus.
Considérer les contextes appropriés pour l'utilisation
Toutes les situations ne nécessitent pas de fonctionnalités anthropomorphiques. Les développeurs devraient évaluer si un système doit être humain en fonction de son utilisation prévue. Par exemple, traiter un robot nettoyeur avec frustration est généralement inoffensif, mais s'attendre à de l'empathie de la part d'un système qui prétend fournir un soutien émotionnel pourrait entraîner des problèmes.
Réévaluer les objectifs de recherche
L'objectif traditionnel de la recherche en IA a souvent été de créer des systèmes indiscernables des humains. Cependant, cet objectif peut entraîner des conséquences non intentionnelles, comme favoriser une confiance mal placée. Au lieu de cela, les développeurs devraient viser la transparence sur les capacités réelles d'un système.
Utiliser des descriptions claires
Le langage que les développeurs utilisent pour présenter leurs systèmes est crucial. Utiliser des termes qui suggèrent des qualités humaines peut semer la confusion chez les utilisateurs sur ce que le système peut faire. En évitant le langage anthropomorphique, les développeurs peuvent aider à clarifier les limitations et les fonctionnalités de leurs systèmes.
Conclusion
La présence croissante des systèmes de dialogue dans nos vies soulève des questions importantes sur la façon dont nous percevons ces technologies. Bien que l'anthropomorphisme puisse améliorer l'expérience utilisateur, il présente aussi des risques potentiels, comme des malentendus sur les capacités et le renforcement de stéréotypes nuisibles.
À mesure que la technologie évolue, il est crucial que les développeurs soient conscients de la manière dont leurs choix de conception influencent les perceptions des utilisateurs. En considérant consciemment les implications de l'anthropomorphisme, nous pouvons créer des systèmes de dialogue qui soient à la fois efficaces et éthiques, minimisant les malentendus et favorisant des interactions positives.
En attirant l'attention sur l'importance d'une communication claire et d'un design responsable, la conversation autour des systèmes de dialogue automatisés peut se déplacer vers une compréhension plus informée de leur rôle dans la société.
Titre: Mirages: On Anthropomorphism in Dialogue Systems
Résumé: Automated dialogue or conversational systems are anthropomorphised by developers and personified by users. While a degree of anthropomorphism may be inevitable due to the choice of medium, conscious and unconscious design choices can guide users to personify such systems to varying degrees. Encouraging users to relate to automated systems as if they were human can lead to high risk scenarios caused by over-reliance on their outputs. As a result, natural language processing researchers have investigated the factors that induce personification and develop resources to mitigate such effects. However, these efforts are fragmented, and many aspects of anthropomorphism have yet to be explored. In this paper, we discuss the linguistic factors that contribute to the anthropomorphism of dialogue systems and the harms that can arise, including reinforcing gender stereotypes and notions of acceptable language. We recommend that future efforts towards developing dialogue systems take particular care in their design, development, release, and description; and attend to the many linguistic cues that can elicit personification by users.
Auteurs: Gavin Abercrombie, Amanda Cercas Curry, Tanvi Dinkar, Verena Rieser, Zeerak Talat
Dernière mise à jour: 2023-10-23 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2305.09800
Source PDF: https://arxiv.org/pdf/2305.09800
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.