Como o Tempo Afeta a Justiça nas Interações Humano-Robo
Estudo revela como o timing e o beneficiário influenciam as percepções de justiça durante interações com robôs.
― 6 min ler
Índice
As pessoas se importam com a Justiça, ainda mais quando robôs estão envolvidos. Antigamente, os pesquisadores olhavam pra justiça só depois que as pessoas interagiam com um robô. Mas as interações podem mudar com o tempo, o que pode afetar como as pessoas percebem a justiça durante essas interações.
Pra estudar isso, fizemos um experimento com 40 participantes. Queríamos ver como o timing de ações injustas de um robô e quem se beneficia dessas ações injustas influenciam as percepções de justiça das pessoas. Descobrimos que as percepções de justiça podem mudar dependendo de quando as ações injustas acontecem.
No nosso estudo, os participantes jogaram um jogo multiplayer contra um robô. Durante esse jogo, um segundo robô dava suporte, mas às vezes de um jeito injusto. Ao observar como os participantes reagiam em momentos diferentes durante o jogo, tentamos entender como os julgamentos de justiça podem mudar.
Justiça e Robôs
A justiça é um valor importante pra gente. Muitos estudos mostram que as pessoas costumam colocar a justiça acima de seus próprios interesses. Elas podem até sacrificar seus próprios benefícios pra garantir a justiça pros outros. Com o uso crescente de robôs em situações onde suas ações podem afetar as pessoas, é essencial que eles ajam de forma justa.
Por exemplo, robôs cuidadores precisam distribuir sua ajuda igualmente entre os pacientes, e robôs de fábrica devem agendar tarefas de forma justa entre os trabalhadores humanos. Ações injustas de robôs podem criar desconfiança e impactar como as pessoas se sentem em relação a eles.
Apesar do interesse crescente em justiça na interação humano-robô, a maioria das pesquisas só mediu percepções de justiça no final de uma interação. Não havia um método claro pra estudar os fatores que fazem um robô parecer injusto.
Objetivos do Estudo
Esse estudo tinha como objetivo preencher essas lacunas. Queríamos ver como as percepções de justiça das pessoas mudam durante as interações com robôs. Também exploramos uma Teoria da Justiça, que diz que as percepções de justiça dependem de três fatores: quanto o bem-estar de uma pessoa é afetado, como um robô se comporta e se ele viola normas morais.
Num jogo multiplayer, os participantes jogaram contra um robô. Um segundo robô ofereceu ajuda, mas em alguns momentos, ajudou injustamente um jogador ou seu competidor robô. Estudamos como essas ações e o timing afetaram as percepções de justiça.
Perguntas de Pesquisa Principais
- As percepções das pessoas sobre a justiça de um robô mudam com o tempo?
- Como o timing do tratamento injusto influencia as percepções gerais de justiça?
- Faz diferença se o comportamento injusto beneficia o jogador ou o competidor robô?
- Os três fatores de justiça conseguem prever as percepções momentâneas de justiça?
Percepções de Justiça em Ação
Durante o experimento, os participantes jogaram um jogo chamado Space Invaders contra um robô competidor. O robô de Apoio podia escolher ajudar um jogador mais do que o outro. Procuramos mudanças nas percepções de justiça baseadas no timing dessa ajuda.
Tivemos duas condições principais pro suporte injusto: cedo (no começo do jogo) e tarde (perto do final). Importante, também medimos como os participantes se sentiam sobre a justiça durante todo o jogo.
Nossos achados mostraram que ações injustas poderiam levar a percepções mais baixas de justiça, especialmente quando essas ações aconteciam cedo no jogo. Os participantes sentiram que o tratamento injusto diminuía suas chances de ganhar.
Como o Timing Afeta a Justiça
Quando o suporte injusto foi dado cedo no jogo, os sentimentos dos participantes sobre a justiça do robô não pareceram melhorar com o tempo. Em contraste, se o suporte injusto foi dado tarde no jogo, pelo menos os participantes mostraram percepções de justiça mais altas no começo e no meio.
Surpreendentemente, quando olhamos as percepções gerais de justiça, não encontramos grandes diferenças entre ações injustas dadas cedo ou tarde. Isso pode ser por causa de como o jogo foi configurado e como os participantes refletiram sobre suas experiências através de análises em vídeo antes de avaliar a justiça geral.
Beneficiário do Suporte
Também queríamos ver como o destinatário do suporte injusto impactava os sentimentos de justiça. Os participantes se sentiam diferentes em relação ao robô dependendo de quem se beneficiava?
Curiosamente, descobrimos que os participantes que se beneficiavam do suporte injusto avaliavam as ações do robô como mais justas. Aqueles que viam o robô ajudando seu competidor sentiam o oposto. Os participantes costumavam ver o robô como estratégico quando ajudava eles, e injusto quando favorecia o competidor.
Confiança e Relacionamentos
Em seguida, examinamos como o comportamento injusto do robô afetou os sentimentos de proximidade e confiança dos participantes tanto em relação ao robô quanto ao competidor. A confiança pode ser quebrada facilmente quando alguém se sente injustamente tratado.
Nossos achados indicaram que os participantes se sentiam mais próximos do robô quando ele oferecia mais apoio. Por outro lado, eles sentiam uma conexão mais forte entre o robô e o competidor quando o robô ajudava o competidor.
Componentes da Teoria da Justiça
Tivemos curiosidade se os três componentes da Teoria da Justiça poderiam ajudar a prever como os participantes viam a justiça em qualquer momento. Os resultados sugeriram que percepções de bem-estar reduzido e violações morais eram mais influentes que a conduta do robô.
Esse achado levanta questões sobre como as pessoas veem as habilidades dos robôs de tomar suas próprias decisões. Parece que as pessoas podem não ver os robôs como tendo a mesma capacidade de agir de forma justa como esperariam dos humanos.
Considerações Finais
Nosso estudo destaca que a justiça não é constante; ela pode mudar durante interações com robôs. É importante que futuras pesquisas continuem explorando a justiça nessas situações. Entender como as percepções de justiça mudam com o tempo pode ajudar a projetar robôs que ajam de acordo com as expectativas humanas.
Mais pesquisas são necessárias pra olhar as percepções de justiça em diferentes contextos e com tipos variados de interações. À medida que os robôs se tornam mais comuns em papéis humanos, entender suas ações e percepções de justiça será crucial pra fomentar confiança e colaboração.
Em conclusão, a forma como os humanos percebem a justiça em suas interações com robôs pode mudar com base no timing e em quem se beneficia das ações do robô. Essa compreensão ajudará a projetar robôs melhores que alinhem com os valores humanos de justiça.
Título: Dynamic Fairness Perceptions in Human-Robot Interaction
Resumo: People deeply care about how fairly they are treated by robots. The established paradigm for probing fairness in Human-Robot Interaction (HRI) involves measuring the perception of the fairness of a robot at the conclusion of an interaction. However, such an approach is limited as interactions vary over time, potentially causing changes in fairness perceptions as well. To validate this idea, we conducted a 2x2 user study with a mixed design (N=40) where we investigated two factors: the timing of unfair robot actions (early or late in an interaction) and the beneficiary of those actions (either another robot or the participant). Our results show that fairness judgments are not static. They can shift based on the timing of unfair robot actions. Further, we explored using perceptions of three key factors (reduced welfare, conduct, and moral transgression) proposed by a Fairness Theory from Organizational Justice to predict momentary perceptions of fairness in our study. Interestingly, we found that the reduced welfare and moral transgression factors were better predictors than all factors together. Our findings reinforce the idea that unfair robot behavior can shape perceptions of group dynamics and trust towards a robot and pave the path to future research directions on moment-to-moment fairness perceptions
Autores: Houston Claure, Kate Candon, Inyoung Shin, Marynel Vázquez
Última atualização: 2024-09-11 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2409.07560
Fonte PDF: https://arxiv.org/pdf/2409.07560
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.