Simple Science

La science de pointe expliquée simplement

# Informatique# Robotique# Apprentissage automatique

Robots à vision : un nouvel outil d'assistance

Des robots conçus pour aider les personnes malvoyantes en réagissant aux tirages humains.

― 7 min lire


Robots pour lesRobots pour lesmalvoyantsmalvoyants.navigation pour les utilisateursDes robots innovants améliorent la
Table des matières

Les robots de guidage sont conçus pour aider les personnes qui ne peuvent pas voir à se déplacer en toute sécurité. Ces robots pourraient vraiment changer la vie de beaucoup de gens. Même s'ils ne remplaceront pas complètement les chiens-guides, ils pourraient offrir une alternative moins chère, vu que les vrais chiens-guides coûtent cher et prennent beaucoup de temps à former.

Actuellement, certains robots ont déjà été testés, mais ils ne gèrent pas souvent le tirage ou la traction qui se produit quand une personne guide un chien. C'est un défi parce que les gens tirent généralement doucement sur le harnais pour indiquer où ils veulent aller. Cette étude vise à créer un robot qui peut bien gérer ces tirages tout en aidant la personne à naviguer autour des Obstacles.

Le défi de l'interaction humaine

Dans l'interaction classique entre une personne et un chien-guide, l'humain tire sur une poignée attachée au harnais du chien. Le chien aide l'humain à se déplacer autour des obstacles pendant que l'humain dirige le chien avec des tirages. Ça crée une coopération où le chien ressent l'environnement, et l'humain guide le trajet.

Malheureusement, former un chien-guide prend environ deux ans, et ils sont chers. Même si des efforts sont faits pour rendre les chiens-guides plus abordables, il n'y a toujours pas assez de chiens pour répondre à la demande. Ce manque a suscité un intérêt pour la création de robots qui peuvent aider de manière similaire.

Certains systèmes de robots sont déjà opérationnels, mais ils ne prennent souvent pas en compte l'aspect important des tirages humains. Il est essentiel que ces robots gèrent bien les forces humaines, ce qui peut changer leur Direction et les rendre moins stables.

Développement d'un nouveau système

Ce nouveau système est conçu pour être stable en marchant, mais aussi pour réagir précisément aux tirages de la personne qui les aide. Le robot utilise une méthode qui combine deux techniques d'Entraînement : l'une l'aide à apprendre à marcher de manière stable même quand on tire, et l'autre devine la direction et la force des tirages.

Quand on entraîne le robot, on l'expose à des situations où il doit faire face à différents types de tirages. Le robot apprend à détecter ces tirages et ajuste son chemin de marche en conséquence. Ainsi, même s'il ne sait pas où il va dans l'ensemble, il peut réagir à l'endroit où la personne veut aller et éviter les obstacles sur son chemin immédiat.

Mise en œuvre pratique

Pour évaluer comment bien le robot peut gérer ce type d'interaction, on l'a testé dans diverses situations en simulation informatique et sur un vrai robot. On a guidé une personne aveugle avec le robot pour montrer à quel point il pouvait s'adapter aux tirages et naviguer à travers une série d'obstacles.

Lors des essais, on a développé une méthode permettant au robot de sentir quand et dans quelle direction l'humain tirait. Si le robot détecte un tirage vers la gauche, il sait qu'il doit tourner dans ce sens, tandis qu'un tirage vers la droite signifie qu'il doit tourner à droite. Cette méthode de communication simple aide le robot à prendre des décisions sur où aller tout en s'appuyant sur ses capteurs pour éviter les obstacles.

Entraînement du robot

L'entraînement pour ce robot implique de créer un contrôleur spécial qui l'aide à savoir quand un tirage se produit et à quelle force. On a entraîné notre robot en utilisant des environnements simulés avec des robots virtuels pour qu'il puisse apprendre à gérer différents types de tirages.

Le robot utilise une combinaison d'informations provenant de ses capteurs pour estimer la direction et la force des tirages. Pendant ces sessions d'entraînement, le robot a été exposé à une gamme de forces différentes pour élargir ses capacités. Par exemple, on a simulé des petits tirages fréquents et des tirages plus grands, mais moins fréquents, pour aider le robot à apprendre à faire la différence entre les deux situations.

Avoir cette connaissance permet au robot de maintenir son chemin de marche et de gérer toute perturbation pour éviter les accidents. On s'est aussi assuré que le robot pouvait accomplir ses tâches avec des laisses ou des poignées ordinaires, rendant son utilisation facile pour les gens sans avoir besoin d'équipement spécialisé.

Tests dans des scénarios de la vie réelle

Pour voir comment le robot fonctionne dans la vraie vie, on a réalisé des essais avec une personne aveugle se déplaçant dans un espace désigné. L'individu tenait une laisse tendue attachée au robot, qui le guidait autour d'obstacles comme des boîtes et des portes. Chaque fois qu'un point de décision se présentait, l'humain faisait un tirage dans la direction souhaitée, et le robot répondait.

L'un des principaux objectifs lors des tests était de voir à quel point le robot pouvait éviter les obstacles tout en suivant le tirage de la personne. Ce dispositif nous a permis de démontrer que le contrôleur du robot fonctionnait comme prévu sans nécessiter d'ajustements supplémentaires. Cela a clairement montré que le robot pouvait travailler avec une personne pour naviguer dans un espace sans vue.

Résultats et performances

Lors des essais, le robot a très bien réussi à détecter la direction des tirages humains et à maintenir son équilibre en marchant. On a enregistré comment le robot réagissait en mesurant à quelle fréquence il restait debout et à quel point il suivait son chemin prévu. Ces résultats ont été comparés avec d'autres contrôleurs traditionnels qui ne tiennent pas compte des tirages humains, ce qui nous a donné une meilleure idée des capacités de notre robot.

Dans l'ensemble, notre robot a montré de fortes capacités à s'adapter et à rester sur la bonne voie, même sous diverses forces de tirage. Les résultats ont montré qu'utiliser un système qui prend en compte la direction humaine peut améliorer significativement la façon dont les robots assistent les personnes malvoyantes.

Limitations et améliorations futures

Malgré le succès de notre robot, il y a encore des domaines à améliorer. Notre version actuelle est principalement conçue pour une utilisation intérieure, tandis que le guidage dans le monde réel pourrait se dérouler en extérieur ou dans des environnements plus complexes. Les futures recherches pourraient se concentrer sur la conception de systèmes capables de naviguer à travers des terrains inconnus et de gérer plusieurs décisions de navigation.

Un autre aspect à considérer est la vitesse du robot. On a observé que l'effet combiné des tirages humains et de la méthode d'apprentissage du robot pourrait limiter sa vitesse. Plus d'exploration sur la façon d'accélérer ses réponses pourrait mener à de meilleures performances.

Conclusion

En résumé, on a développé un robot de guidage qui peut communiquer efficacement avec une personne à travers des tirages tout en naviguant autour des obstacles. Grâce à l'entraînement, on a obtenu un système capable d'estimer la direction des tirages et de réagir en conséquence, montrant des résultats prometteurs dans des scénarios réels. Cette innovation offre un aperçu de la façon dont la technologie peut améliorer la vie de ceux qui sont malvoyants et mener à une plus grande indépendance dans leurs activités quotidiennes.

Source originale

Titre: Seeing-Eye Quadruped Navigation with Force Responsive Locomotion Control

Résumé: Seeing-eye robots are very useful tools for guiding visually impaired people, potentially producing a huge societal impact given the low availability and high cost of real guide dogs. Although a few seeing-eye robot systems have already been demonstrated, none considered external tugs from humans, which frequently occur in a real guide dog setting. In this paper, we simultaneously train a locomotion controller that is robust to external tugging forces via Reinforcement Learning (RL), and an external force estimator via supervised learning. The controller ensures stable walking, and the force estimator enables the robot to respond to the external forces from the human. These forces are used to guide the robot to the global goal, which is unknown to the robot, while the robot guides the human around nearby obstacles via a local planner. Experimental results in simulation and on hardware show that our controller is robust to external forces, and our seeing-eye system can accurately detect force direction. We demonstrate our full seeing-eye robot system on a real quadruped robot with a blindfolded human. The video can be seen at our project page: https://bu-air-lab.github.io/guide_dog/

Auteurs: David DeFazio, Eisuke Hirota, Shiqi Zhang

Dernière mise à jour: 2023-10-12 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2309.04370

Source PDF: https://arxiv.org/pdf/2309.04370

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires