Mejorando las Interacciones Basadas en la Mirada con Señales Cerebrales
Usando señales cerebrales para mejorar las interacciones basadas en la vista en entornos virtuales.
― 7 minilectura
Tabla de contenidos
Las interacciones basadas en la mirada están ganando popularidad como una forma de que la gente se conecte con entornos virtuales. Estas interacciones, especialmente en entornos como la realidad virtual (VR) y la realidad aumentada (AR), permiten a los usuarios controlar lo que ven y hacen simplemente mirando las cosas. Este método ha ganado impulso porque cada vez más visores que la gente usa están incorporando tecnología para rastrear hacia dónde están mirando. Esto hace que interactuar sea más rápido y fácil, ya que los usuarios no tienen que señalar o tocar cosas para hacer selecciones.
Sin embargo, aunque las interacciones basadas en la mirada parecen intuitivas, tienen algunos desafíos. Un problema importante es el del "tacto de Midas", donde simplemente mirar algo puede hacer que se seleccione, incluso si el usuario no tiene la intención de hacerlo. Esto puede llevar a selecciones accidentales, causando frustración. Para resolver esto, los investigadores han buscado formas de hacer que las interacciones por mirada sean más confiables.
La técnica de Dwell
Un método común para mejorar la selección por mirada es la "técnica de Dwell". Con este enfoque, se requiere que los usuarios se concentren en un objeto durante un tiempo determinado para confirmar su selección. Si mantienen la mirada en el objeto el tiempo suficiente, se confirma que está seleccionado. Esta técnica tiene como objetivo separar los momentos en que los usuarios solo están mirando de aquellos en los que están eligiendo algo activamente. Aunque puede funcionar, también puede llevar accidentalmente a seleccionar mal los objetos, ya que los usuarios pueden fijarse en los objetivos más tiempo del que pretendían.
Para abordar el problema del tacto de Midas, algunos investigadores sugieren usar un disparador externo para confirmar las selecciones. Esto podría ser un simple parpadeo o presionar un botón. Aunque estos métodos pueden ayudar con la precisión, también pueden requerir un esfuerzo extra por parte de los usuarios, lo que podría llevar a fatiga con el tiempo. Además, estas acciones pueden hacer que la experiencia se sienta menos natural y romper la inmersión en los entornos virtuales.
Interfaces Cerebro-Computadora
Para facilitar las interacciones, se están explorando las interfaces cerebro-computadora (BCI) como una posible solución. Las BCI tienen la capacidad de leer señales cerebrales y traducirlas en comandos para el sistema. En teoría, esto podría permitir a los usuarios seleccionar elementos en un espacio virtual a través del pensamiento, sin necesidad de interactuar físicamente con dispositivos o incluso mirar directamente a los objetivos. Sin embargo, muchos métodos actuales de BCI pueden ser lentos y exigentes, requiriendo un gran esfuerzo mental. Esto los hace difíciles de usar durante períodos prolongados, especialmente para personas sin discapacidades.
Un enfoque más reciente dentro de las BCI es centrarse en sistemas pasivos que monitorean la actividad cerebral sin requerir que los usuarios piensen mucho en sus acciones. Las BCI pasivas buscan leer señales cerebrales naturales que ocurren cuando los usuarios anticipan algo, en lugar de esperar que creen esas señales conscientemente.
Un tipo de señal cerebral pasiva que muestra promesa es la Negatividad Precedente al Estímulo (SPN). Esta señal aparece cuando una persona espera que algo suceda, sugiriendo que están listos para responder. Al detectar estas señales, el sistema podría confirmar selecciones basándose en si el usuario está anticipando una respuesta, como un sonido o un cambio visual, al mirar un objetivo.
Cómo Funciona la SPN
Para ver cómo podría funcionar la SPN en términos prácticos, imagina a un usuario navegando por una app de música en VR. Cuando el usuario mira el botón de reproducir, su cerebro comienza a generar una SPN porque espera algún tipo de retroalimentación al seleccionarlo exitosamente, como escuchar música o ver que el botón cambie de color. Si el sistema puede detectar esta actividad cerebral a través de electrodos que miden señales eléctricas del cerebro, puede elegir reproducir la música sin que el usuario necesite hacer clic en nada físicamente.
Este método ofrece una interacción fluida donde el estado mental natural de un usuario impulsa el comando en lugar de requerir un esfuerzo consciente. Como resultado, la SPN podría ayudar a eliminar selecciones no intencionadas al responder solo cuando el usuario espera activamente una respuesta después de fijarse en un objetivo.
Estudio de Usuario
Para investigar la efectividad de la SPN, se realizó un estudio de usuario en un entorno de VR. El estudio tenía como objetivo determinar si la SPN podía ayudar a diferenciar cuándo los usuarios estaban intentando seleccionar un objeto intencionalmente frente a cuándo solo lo estaban observando. Los participantes fueron equipados con visores de VR y dispositivos EEG para monitorear su actividad cerebral mientras realizaban tareas en las que debían seleccionar o simplemente mirar objetos.
Los participantes llevaron a cabo tareas en diferentes condiciones: una en la que seleccionaban intencionalmente los objetivos, otra en la que solo observaban sin retroalimentación y una tercera en la que observaban pero aún así recibían retroalimentación. El objetivo era ver si la SPN aparecía durante estas tareas y cómo podría diferir según la Intención del usuario.
Resultados
Los hallazgos indicaron que cuando los participantes estaban seleccionando activamente los objetivos, mostraban una SPN, lo que demuestra que sus cerebros estaban anticipando algún tipo de respuesta. En contraste, cuando los participantes estaban simplemente observando los objetivos, incluso con retroalimentación, había poca o ninguna SPN detectada. Esto sugiere que la SPN está ligada a la intención detrás de las acciones de los usuarios, confirmando que la respuesta cerebral solo surge cuando los usuarios esperan interactuar activamente con algo.
Además, el estudio examinó si la familiaridad con el diseño de la interfaz-sabiendo dónde estaban ubicados los objetivos-podía llevar a respuestas más rápidas de SPN. Los participantes que se acostumbraron a las ubicaciones de los objetivos mostraron signos de una respuesta de SPN más rápida en comparación con aquellos que aún estaban aprendiendo el diseño.
Implicaciones para Futuros BCIs
Estas ideas tienen importantes implicaciones para el diseño de futuras BCI. Si la SPN puede usarse de manera confiable para determinar la intención del usuario, se abren caminos para métodos de interacción más intuitivos y eficientes, especialmente en entornos donde los usuarios pueden necesitar interactuar rápida y sin problemas.
Estos hallazgos podrían ayudar a los desarrolladores a crear sistemas que aprovechen las señales de SPN para tareas cotidianas, haciendo que las interacciones dependan menos de gestos físicos o controles precisos, que pueden ser desafiantes en entornos inmersivos.
Limitaciones y Direcciones Futuras
Si bien el estudio muestra el potencial de usar la SPN en interacciones basadas en la mirada, también tiene limitaciones. Por ejemplo, se necesita más investigación para refinar el proceso de detección de SPN y para integrarlo en sistemas en tiempo real que la gente pueda usar en la vida diaria. También hay necesidad de explorar más cómo estos métodos pueden combinarse con otras tecnologías para mejorar aún más la experiencia del usuario.
Además, futuros estudios deberían considerar una gama más amplia de experiencias y entornos de usuario, incluyendo aquellos que son menos controlados que los laboratorios. También sería valioso explorar cómo mejorar la comodidad y accesibilidad de estos sistemas para que una audiencia más amplia pueda utilizarlos de manera efectiva.
En general, la exploración de interacciones basadas en la mirada, señales de SPN y BCI intuitivas ofrece posibilidades emocionantes para el futuro de cómo interactuamos con la tecnología, haciéndola más natural y menos complicada para todos.
Título: Towards an Eye-Brain-Computer Interface: Combining Gaze with the Stimulus-Preceding Negativity for Target Selections in XR
Resumen: Gaze-assisted interaction techniques enable intuitive selections without requiring manual pointing but can result in unintended selections, known as Midas touch. A confirmation trigger eliminates this issue but requires additional physical and conscious user effort. Brain-computer interfaces (BCIs), particularly passive BCIs harnessing anticipatory potentials such as the Stimulus-Preceding Negativity (SPN) - evoked when users anticipate a forthcoming stimulus - present an effortless implicit solution for selection confirmation. Within a VR context, our research uniquely demonstrates that SPN has the potential to decode intent towards the visually focused target. We reinforce the scientific understanding of its mechanism by addressing a confounding factor - we demonstrate that the SPN is driven by the users intent to select the target, not by the stimulus feedback itself. Furthermore, we examine the effect of familiarly placed targets, finding that SPN may be evoked quicker as users acclimatize to target locations; a key insight for everyday BCIs. CCS CONCEPTSO_LIHuman-centered computing [->] Virtual reality; Mixed / augmented reality; Accessibility technologies; Interaction techniques. C_LI ACM Reference FormatG. S. Rajshekar Reddy, Michael J. Proulx, Leanne Hirshfield, and Anthony J. Ries. 2024. Towards an Eye-Brain-Computer Interface: Combining Gaze with the Stimulus-Preceding Negativity for Target Selections in XR. In Proceedings of the CHI Conference on Human Factors in Computing Systems (CHI 24), May 11-16, 2024, Honolulu, HI, USA. ACM, New York, NY, USA, 17 pages. https://doi.org/10.1145/3613904.3641925
Autores: G S Rajshekar Reddy, M. J. Proulx, L. Hirshfield, A. J. Ries
Última actualización: 2024-03-14 00:00:00
Idioma: English
Fuente URL: https://www.biorxiv.org/content/10.1101/2024.03.13.584609
Fuente PDF: https://www.biorxiv.org/content/10.1101/2024.03.13.584609.full.pdf
Licencia: https://creativecommons.org/licenses/by-nc/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a biorxiv por el uso de su interoperabilidad de acceso abierto.