Simple Science

Ciência de ponta explicada de forma simples

# Informática# Robótica# Interação Homem-Computador

Robôs e Confiança: Explicando Falhas

Explorando como os robôs explicam falhas pra manter a confiança humana durante a colaboração.

― 7 min ler


Problemas de Confiança:Problemas de Confiança:Explicação das Falhas dosRobôsconfiança.comunicar falhas pra manter aAnalisando como os robôs podem
Índice

Os robôs estão se tornando mais comuns no nosso dia a dia, principalmente em tarefas que envolvem trabalhar ao lado de humanos. No entanto, os robôs ainda enfrentam desafios, especialmente quando encontram problemas inesperados enquanto tentam completar suas tarefas. Este artigo discute como os robôs explicam suas Falhas para os humanos durante tarefas colaborativas e por que essa explicação é essencial para manter a Confiança entre humanos e robôs.

Importância das Explicações de Falhas

Enquanto os robôs trabalham junto com as pessoas, eles podem ter problemas que atrapalham seu trabalho. Esses problemas podem acontecer por várias razões, tipo o robô não conseguir pegar um objeto por causa do formato ou peso, ou falhar em colocá-lo no lugar certo. Quando essas falhas acontecem, o humano que está trabalhando com o robô pode começar a perder a confiança nas habilidades do robô. A confiança é vital para garantir que as pessoas estejam dispostas a trabalhar com robôs no futuro.

Para ajudar a recuperar a confiança perdida, é útil que os robôs expliquem suas falhas. Se os humanos entendem o que deu errado e por quê, eles podem ficar mais dispostos a ajudar o robô a superar esses desafios. Essa compreensão pode melhorar a Colaboração geral entre humanos e robôs.

O Estudo com Usuários

Para investigar como diferentes tipos de explicações dos robôs afetam a confiança e a percepção dos humanos, foi realizado um estudo com usuários. O estudo envolveu um robô realizando uma tarefa em colaboração com humanos. A tarefa específica era abastecer uma prateleira, onde o robô precisava pegar e colocar objetos nos locais corretos. Durante o estudo, o robô encontrou vários tipos de falhas, e os pesquisadores notaram como essas falhas afetaram as interações dos humanos com o robô.

Configuração da Tarefa

No estudo, um robô chamado Baxter foi encarregado de colocar objetos em uma prateleira. O participante humano era responsável por entregar esses objetos ao robô. Isso envolvia colocar os itens em uma mesa na frente do Baxter, que então precisava identificar cada objeto, pegá-lo, transportá-lo e colocá-lo na prateleira. O humano e o robô tinham que trabalhar juntos para completar a tarefa.

Vários desafios comuns foram antecipados. Por exemplo, às vezes o robô pode não conseguir pegar um objeto porque ele não cabia na garra. Outras vezes, o robô pode ter dificuldade em carregar um objeto se ele for muito pesado. Por fim, o robô pode ter dificuldade em colocar um objeto em um local que estava muito baixo para seu braço alcançar.

Quando o robô encontrou esses desafios, ele precisou de ajuda do humano para completar a tarefa.

Níveis de Explicação

Para ver como as explicações do robô influenciaram a percepção do humano, diferentes níveis de explicações foram dados após uma falha ocorrer. O estudo definiu quatro níveis:

  1. Explicação Não-verbal: Essa era a forma mais simples de explicação, envolvendo o robô balançando a cabeça após uma falha. O robô mostraria sua dificuldade sem fornecer detalhes específicos.

  2. Explicação Baseada em Ações: Nesse caso, o robô dizia o que não conseguiu fazer e pedia ajuda. Por exemplo, poderia dizer: "Eu falhei em pegar o objeto. Você poderia me passar?"

  3. Explicação Baseada em Contexto: Aqui, o robô fornecia uma razão para sua falha. Um exemplo seria: "Eu não consigo pegar o objeto porque ele não cabe na minha garra. Você pode me passar?"

  4. Explicação Baseada em Contexto + História: A explicação mais detalhada incluía ações anteriores, razões para a falha atual e como o humano poderia ajudar. Por exemplo, o robô poderia dizer: "Eu consigo detectar o objeto, mas não consigo pegar porque ele não cabe na minha garra. Você pode me passar colocando-o na minha garra?"

Esses diferentes níveis de explicação foram essenciais para entender como os humanos percebiam o robô e sua disposição em continuar colaborando com ele após as falhas.

Design do Estudo

O estudo com usuários envolveu quatro rodadas de interações, cada uma exigindo que o robô abastecesse a prateleira com vários objetos. Durante cada rodada, diferentes tipos de falhas foram introduzidos, e o robô forneceu diferentes explicações com base no nível que estava definido para aquela rodada.

Para examinar o efeito de explicações constantes versus mudando, os pesquisadores usaram duas abordagens:

  1. Nível Fixo de Explicação: O robô forneceu o mesmo nível de explicação em todas as quatro rodadas para ver como os humanos respondiam a um estilo de comunicação consistente.

  2. Desagregação Progressiva na Explicação: O robô começou com um alto nível de explicação na primeira rodada e depois reduziu o nível de explicação nas rodadas seguintes para ver como isso impactava a confiança e a Interação do humano.

Os participantes não sabiam que as falhas fariam parte da tarefa, o que permitiu reações mais genuínas quando surgiram problemas.

Processo de Interação

Durante a interação, o robô cumprimentou o humano e pediu que colocasse os objetos na mesa. Então, o robô tentaria concluir sua tarefa seguindo passos específicos para cada objeto. Aqui está uma visão geral de como o processo funcionou:

  1. Detectando o Objeto: O robô anunciava qual objeto pretendia pegar e escaneava a mesa.

  2. Lidando com Falhas: Se o robô falhasse em qualquer etapa, ele forneceria uma explicação com base no tipo de falha que enfrentou.

  3. Buscando Ajuda do Humano: Para quaisquer falhas, o robô entraria em uma pose de entrega, pedindo ajuda ao humano.

  4. Executando Tarefas: Se o robô conseguisse pegar o objeto, tentaria levá-lo até a prateleira.

  5. Colocação: Para objetos que eram muito difíceis de colocar, o robô pediria novamente ajuda do humano.

  6. Feedback e Classificação: Após colocar o último objeto em uma rodada, os participantes foram convidados a responder perguntas sobre sua experiência com o robô.

Observações e Resultados

Durante todo o estudo, os pesquisadores observaram as reações humanas, focando em seus níveis de confiança e satisfação nas interações. Essas observações incluíam tanto respostas verbais quanto pistas físicas, como a linguagem corporal.

Analisando as respostas, os pesquisadores buscavam determinar a eficácia dos diferentes níveis de explicação sobre a confiança dos humanos e sua disposição em cooperar com o robô. A comparação de níveis fixos versus níveis de explicação decrescentes forneceu insights sobre como as pessoas se adaptam a falhas robóticas ao longo do tempo.

Conclusão e Direções Futuras

Este estudo com usuários destacou a importância de como os robôs comunicam suas falhas durante tarefas colaborativas. Ao fornecer explicações claras, especialmente em casos de problemas persistentes, os robôs podem ajudar a manter a confiança e incentivar interações contínuas com humanos.

À medida que os robôs se tornam cada vez mais prevalentes em vários ambientes, incluindo casas e locais de trabalho, entender a dinâmica da colaboração humano-robô se tornará mais crucial. Pesquisas futuras podem construir sobre essas descobertas, refinando ainda mais os tipos de explicações que os robôs oferecem e avaliando seu impacto na confiança e na colaboração em tarefas mais complexas.

Em conclusão, à medida que os robôs continuam a ajudar os humanos, torná-los melhores em explicar suas falhas pode melhorar significativamente sua integração na vida cotidiana. O objetivo é garantir que as pessoas se sintam confortáveis trabalhando ao lado dos robôs, mesmo quando surgem desafios, promovendo assim uma coexistência mais cooperativa e produtiva.

Fonte original

Título: User Study Exploring the Role of Explanation of Failures by Robots in Human Robot Collaboration Tasks

Resumo: Despite great advances in what robots can do, they still experience failures in human-robot collaborative tasks due to high randomness in unstructured human environments. Moreover, a human's unfamiliarity with a robot and its abilities can cause such failures to repeat. This makes the ability to failure explanation very important for a robot. In this work, we describe a user study that incorporated different robotic failures in a human-robot collaboration (HRC) task aimed at filling a shelf. We included different types of failures and repeated occurrences of such failures in a prolonged interaction between humans and robots. The failure resolution involved human intervention in form of human-robot bidirectional handovers. Through such studies, we aim to test different explanation types and explanation progression in the interaction and record humans.

Autores: Parag Khanna, Elmira Yadollahi, Mårten Björkman, Iolanda Leite, Christian Smith

Última atualização: 2023-03-28 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2303.16010

Fonte PDF: https://arxiv.org/pdf/2303.16010

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes