Simple Science

Ciencia de vanguardia explicada de forma sencilla

# Informática# Robótica# Aprendizaje automático

Percepciones humanas sobre robots de aprendizaje continuo

El estudio examina cómo los usuarios perciben a los robots que aprenden continuamente de las interacciones.

― 12 minilectura


Problemas de confianzaProblemas de confianzacon los robots queaprendende las tareas.les preocupa que los robots se olvidenUn estudio revela que a los usuarios
Tabla de contenidos

Los robots asistenciales están siendo cada vez más comunes en nuestra vida diaria, ayudando con tareas como el cuidado, la limpieza y la asistencia en casa. Para que estos robots sean efectivos a lo largo del tiempo, necesitan adaptarse a las necesidades cambiantes de sus usuarios y su entorno. Como no hay forma de preprogramar robots para cada tarea o objeto posible que puedan encontrar, deben aprender continuamente de los usuarios que pueden no estar familiarizados con la tecnología.

Una tarea clave para los robots es reconocer y entender los objetos a su alrededor. Esto es vital para varias actividades como buscar cosas, cocinar o hacer lavandería. Se han creado muchos modelos de aprendizaje automático en los últimos años para asegurar que los robots puedan identificar objetos con precisión. Sin embargo, un problema importante es que los robots pueden olvidar lo que aprendieron anteriormente al adquirir nueva información, lo que a menudo se refiere como "olvido catastrófico".

Si bien este término es ampliamente reconocido en el campo del aprendizaje automático, la forma en que el olvido impacta la percepción del usuario puede no ser tan grave. Los humanos pueden olvidar detalles específicos pero retener conocimientos importantes, a diferencia de muchos sistemas de aprendizaje automático que tienen dificultades al aprender de datos limitados. Un método para evitar el olvido incluye guardar datos de tareas anteriores y volver a entrenar modelos con información tanto antigua como nueva. Sin embargo, este enfoque puede llevar a problemas de rendimiento, ya que los robots a menudo tienen memoria y potencia de procesamiento limitadas.

Los investigadores han desarrollado nuevos métodos para ayudar a los robots a aprender con menos ejemplos y mitigar el olvido. Estas técnicas, conocidas como Aprendizaje Incremental de Pocos Ejemplares (FSIL), permiten a los modelos aprender de solo un puñado de ejemplos. Si bien han surgido resultados prometedores de modelos probados en laboratorio, no está claro cómo se desempeñan estos robots en escenarios del mundo real o cómo los humanos los perciben durante las interacciones.

La Confianza es un factor crucial en cómo las personas se relacionan con los robots autónomos. Los estudios indican que las personas tienden a perder la confianza en los robots cuando no funcionan bien, especialmente si olvidan tareas aprendidas previamente. Algunas investigaciones sugieren que involucrar a los usuarios en la enseñanza de robots podría ayudar a construir confianza, pero estudios previos a menudo utilizaron robots simulados que no aprendieron de manera interactiva de los usuarios. Comprender las percepciones humanas de los robots durante las interacciones continuas es esencial para diseñar mejores sistemas robóticos.

Este estudio tiene como objetivo explorar cómo los humanos perciben un robot que aprende continuamente de ellos a lo largo de múltiples interacciones. Desarrollamos un sistema donde los usuarios pueden enseñarle a un robot a reconocer objetos y probamos esta configuración con participantes a lo largo de varias sesiones. El objetivo era observar cómo cambian las percepciones de confianza, Usabilidad y carga de trabajo a medida que los usuarios interactúan con el robot.

Antecedentes

Aprendizaje Continuo

El Aprendizaje Continuo (CL) implica entrenar un robot para aprender de datos entrantes a lo largo del tiempo mientras retiene conocimientos previos. Es esencial para tareas como el reconocimiento de objetos, donde un robot necesita identificar elementos en su entorno. Generalmente, el CL se puede clasificar en dos tipos: aprendizaje incremental por tareas y Aprendizaje Incremental por Clases.

En el aprendizaje incremental por tareas, el modelo se evalúa en nuevas tareas que son distintas de la formación anterior. Por otro lado, el aprendizaje incremental por clases (CIL) permite a un modelo aprender nuevas clases de objetos mientras se evalúa en todas las clases anteriores. Para los robots, el CIL a menudo es una configuración más realista, ya que los usuarios pueden no recordar detalles específicos durante las interacciones.

Aprendizaje Incremental por Clases

Históricamente, los métodos de CIL se centraron en evitar el olvido catastrófico al retener una parte de los datos de entrenamiento de clases anteriores y volver a entrenar modelos con datos antiguos y nuevos. Sin embargo, esto puede crear desafíos con la memoria y la capacidad de procesamiento. Algunos enfoques utilizan técnicas de regularización para gestionar la memoria sin perder rendimiento, mientras que otros generan datos antiguos utilizando estadísticas de clase almacenadas.

A pesar de los avances, muchos métodos de CIL luchan al aprender de datos limitados, que es a menudo el caso cuando los humanos interactúan con robots. La mayoría de los modelos existentes solo se han probado en conjuntos de datos controlados, así que su rendimiento en escenarios de la vida real con usuarios cotidianos sigue siendo incierto.

Aprendizaje Incremental de Pocos Ejemplares

En los últimos años, los investigadores han introducido modelos de Aprendizaje Incremental de Pocos Ejemplares (FSIL) que permiten a los robots aprender de solo unos pocos ejemplos por clase. Estos modelos están diseñados para comenzar con un gran conjunto de datos y luego aprender nuevas clases de manera incremental utilizando datos mínimos. Sin embargo, la mayoría de los enfoques de FSIL se han probado en entornos poco realistas y no han considerado cómo los usuarios regulares podrían proporcionar información al trabajar con robots.

Se ha explorado el aprendizaje de maestros humanos en ciertos estudios donde los participantes enseñaron a los robots cómo realizar tareas. Sin embargo, la mayoría de estos estudios se centraron en interacciones únicas, lo que puede no representar con precisión las percepciones del usuario a lo largo del tiempo. Los participantes pueden cambiar sus estilos de enseñanza o desarrollar nuevas expectativas después de varias interacciones, lo que lleva a diferentes percepciones de las capacidades del robot.

Percepciones de los Robots

Comprender cómo las personas perciben a los robots es vital para su implementación a largo plazo en entornos cotidianos. La investigación sugiere que los usuarios tienden a atribuir rasgos sociales a los robots, considerando a menudo su rendimiento al evaluar la confianza y la usabilidad. Los estudios han demostrado que los robots que cometen errores pueden llevar a una disminución de la confianza por parte de los usuarios.

La mayoría de las investigaciones previas sobre las percepciones humanas de los robots se centraron en interacciones a corto plazo y utilizaron métodos simples y heurísticos. En contraste, este estudio profundiza en cómo se percibe a un robot que aprende continuamente de los usuarios humanos a lo largo del tiempo.

Objetivos de la Investigación

Nuestra investigación tiene como objetivo investigar cómo los humanos perciben un robot que aprende de manera continua a través de la interacción en múltiples sesiones. Los objetivos principales son:

  1. Examinar los niveles de confianza en un robot de aprendizaje continuo a lo largo del tiempo en diferentes modelos de aprendizaje.
  2. Evaluar las percepciones de los usuarios sobre los atributos sociales y la competencia del robot durante interacciones repetidas.
  3. Evaluar la carga de trabajo experimentada por los usuarios al enseñar y probar el robot.
  4. Analizar las percepciones de usabilidad asociadas con el robot a lo largo de múltiples sesiones.

Metodología

Diseño del Sistema

Desarrollamos un sistema de aprendizaje continuo guiado socialmente (SGCL) que permite a los usuarios enseñar interactivamente a un robot a reconocer objetos del hogar. El sistema integró una interfaz gráfica de usuario (GUI) sencilla en una tableta Android, permitiendo a los usuarios nombrar y guardar objetos para que el robot los aprenda.

El robot, equipado con una cámara RGB y un sensor de profundidad, captura imágenes de los objetos y las envía al modelo de CL para su entrenamiento. Los usuarios pueden iniciar fases de enseñanza y prueba para evaluar el aprendizaje del robot.

Participantes

Invitamos a 63 participantes de la Universidad de Waterloo, todos estudiantes, con edades entre 18 y 37 años. Cada participante fue asignado aleatoriamente a una de tres condiciones experimentales, utilizando uno de los tres modelos de CL: Ajuste Individualizado (FT), Aprendizaje de Conceptos Basado en Centroides (CBCL) y Entrenamiento Conjunto (JT). Un total de 60 participantes completaron el estudio, participando en cinco sesiones a lo largo de varios días.

Para evaluar la configuración, se pidió a los participantes que completaran una encuesta previa al experimento, tras la cual aprendieron a interactuar con el robot. Cada sesión consistió en una fase de enseñanza, donde los participantes enseñaron al robot cinco objetos diferentes, seguida de una fase de prueba, durante la cual los participantes solicitaron al robot que encontrara objetos aprendidos.

Recolección de Datos

Utilizamos tanto medidas subjetivas como objetivas para recopilar datos de los participantes durante las sesiones. Las medidas subjetivas incluyeron cuestionarios que evaluaban la confianza, los atributos sociales, la carga de trabajo y la usabilidad, mientras que las medidas objetivas calcularon la precisión de clasificación en función del rendimiento del robot durante la fase de prueba.

Modelos de Aprendizaje

Evaluamos tres modelos distintos:

  1. Modelo FT: El enfoque base que olvida conocimientos previos mientras aprende nueva información. Utiliza una red neuronal convolucional entrenada de forma independiente en los datos de cada sesión.
  2. Modelo CBCL: Un modelo de FSIL de vanguardia diseñado para mitigar el olvido. Utiliza una red preentrenada para extraer características y las agrupa para evitar perder información sobre objetos aprendidos anteriormente.
  3. Modelo JT: Un modelo límite que retiene todos los datos de entrenamiento previos, reentrenando efectivamente tanto en datos antiguos como nuevos durante cada interacción.

Resultados

Confianza

Nuestros resultados indicaron que la confianza de los participantes en el robot disminuyó significativamente a lo largo de múltiples sesiones para el modelo FT. Los participantes tendieron a mantener un nivel consistente de confianza al usar los modelos CBCL y JT, que recordaban efectivamente los elementos anteriores. Sin embargo, incluso el modelo diseñado para retener conocimiento no inspiró una gran confianza, ya que los participantes notaron desafíos en la interacción.

Atributos Sociales

Mientras los participantes calificaron los niveles de calidez y malestar del robot como bajos en todas las sesiones, las percepciones de competencia fluctuaron. Los participantes encontraron que la capacidad del robot para recordar y usar información aprendida previamente afectaba su percepción de competencia. El modelo FT registró las calificaciones de competencia más bajas, ya que los participantes sintieron que tenía dificultades para recordar objetos pasados.

Carga de Trabajo

Curiosamente, los participantes informaron que la carga de trabajo asociada con enseñar al robot se mantuvo estable a través de las sesiones, a pesar del modelo de aprendizaje utilizado. Sin importar si estaban enseñando a un modelo que olvidaba o uno que recordaba, los participantes consideraron que la carga de trabajo era manejable.

Usabilidad

Las percepciones de usabilidad diferieron entre los modelos a lo largo de las cinco sesiones. Las calificaciones de usabilidad del modelo FT cayeron significativamente, mientras que los modelos CBCL y JT ofrecieron una experiencia de usuario más consistente.

En general, los hallazgos sugieren que la confianza, competencia y percepciones de usabilidad de los usuarios sufrieron debido a la naturaleza olvidadiza del modelo FT. El robot no fue visto como muy competente o confiable, lo que resalta la necesidad de modelos de aprendizaje más efectivos.

Conclusión

Este estudio arroja luz sobre cómo los usuarios perciben robots que aprenden continuamente de ellos a lo largo del tiempo. Al explorar factores como la confianza, los atributos sociales, la carga de trabajo y la usabilidad, identificamos tendencias importantes que sugieren que los usuarios pueden volverse cautelosos con los robots que olvidan información.

Si bien los modelos de aprendizaje continuo modernos han mostrado potencial, aún no cumplen con las expectativas de los usuarios respecto a confianza y competencia. A futuro, es esencial desarrollar sistemas que no solo mejoren los modelos computacionales de aprendizaje, sino que también tengan en cuenta las experiencias del usuario para crear robots que puedan ayudar mejor en tareas cotidianas.

Limitaciones y Futuro Trabajo

Aunque obtuvimos valiosas ideas sobre las percepciones de los usuarios de un robot que aprende continuamente, ciertas limitaciones deben ser abordadas. El estudio se llevó a cabo en un entorno de laboratorio, y la investigación futura debería intentar replicar estos hallazgos en entornos más naturales, como hogares inteligentes.

Además, no incorporamos señales sociales en el comportamiento del robot, lo que podría mejorar aún más el compromiso y las percepciones del usuario. Incluir a adultos mayores en futuros estudios también podría aportar información sobre la aplicabilidad de tales robots en roles de asistencia.

En general, está claro que solo hemos comenzado a arañar la superficie de entender las interacciones humano-robot en el contexto del aprendizaje continuo, y queda mucho por explorar. Es crucial que la investigación futura continúe examinando estas dinámicas para mejorar el desarrollo de sistemas robóticos efectivos para la vida cotidiana.

Fuente original

Título: Continual Learning through Human-Robot Interaction -- Human Perceptions of a Continual Learning Robot in Repeated Interactions

Resumen: For long-term deployment in dynamic real-world environments, assistive robots must continue to learn and adapt to their environments. Researchers have developed various computational models for continual learning (CL) that can allow robots to continually learn from limited training data, and avoid forgetting previous knowledge. While these CL models can mitigate forgetting on static, systematically collected datasets, it is unclear how human users might perceive a robot that continually learns over multiple interactions with them. In this paper, we developed a system that integrates CL models for object recognition with a Fetch mobile manipulator robot and allows human participants to directly teach and test the robot over multiple sessions. We conducted an in-person study with 60 participants who interacted with our system in 300 sessions (5 sessions per participant). We conducted a between-participant study with three different CL models (3 experimental conditions) to understand human perceptions of continual learning robots over multiple sessions. Our results suggest that participants' perceptions of trust, competence, and usability of a continual learning robot significantly decrease over multiple sessions if the robot forgets previously learned objects. However, the perceived task load on participants for teaching and testing the robot remains the same over multiple sessions even if the robot forgets previously learned objects. Our results also indicate that state-of-the-art CL models might perform unreliably when applied to robots interacting with human participants. Further, continual learning robots are not perceived as very trustworthy or competent by human participants, regardless of the underlying continual learning model or the session number.

Autores: Ali Ayub, Zachary De Francesco, Patrick Holthaus, Chrystopher L. Nehaniv, Kerstin Dautenhahn

Última actualización: 2023-05-21 00:00:00

Idioma: English

Fuente URL: https://arxiv.org/abs/2305.16332

Fuente PDF: https://arxiv.org/pdf/2305.16332

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.

Más de autores

Artículos similares