Simple Science

La science de pointe expliquée simplement

# Informatique# Robotique

Avancer la navigation des robots dans les terrains extérieurs

Une nouvelle méthode améliore la capacité des robots à naviguer dans des environnements extérieurs variés.

Mohamed Elnoor, Kasun Weerakoon, Gershom Seneviratne, Ruiqi Xian, Tianrui Guan, Mohamed Khalid M Jaffar, Vignesh Rajagopal, Dinesh Manocha

― 7 min lire


Les robots surmontent lesLes robots surmontent lesdéfis de navigationextérieure.variés.mouvement des robots sur des terrainsDe nouvelles techniques améliorent le
Table des matières

Les robots sont de plus en plus utilisés pour naviguer dans des environnements extérieurs, mais cette tâche présente beaucoup de défis. Les Terrains peuvent changer, rendant difficile pour les robots de rester sur la bonne voie. Cet article parle d'une nouvelle méthode pour aider les robots à mieux se déplacer à travers ces paysages variés.

Le défi de la navigation en extérieur

Les zones extérieures ne sont pas uniformes. Les surfaces peuvent être dures comme le béton ou molles comme la boue et le sable. De plus, la météo peut changer ces surfaces, rendant un chemin stable glissant ou mou. Les méthodes traditionnelles qui s'appuient sur des caméras et des lasers pour "voir" ces chemins échouent souvent. Par exemple, un terrain peut avoir l'air solide sur une photo, mais en réalité, il peut être faible et faire en sorte qu'un robot s'enfonce ou glisse s'il essaie de le traverser.

Utilisation de nouvelles technologies pour une meilleure navigation

Pour surmonter ces défis, un nouveau système de navigation combine des infos visuelles des caméras avec un retour physique du robot lui-même. Ce système utilise des modèles avancés capables de comprendre à la fois des images et du langage pour prendre de meilleures décisions sur la direction à prendre.

Comment fonctionne le nouveau système

Cette méthode de navigation prend diverses entrées pour aider le robot à décider d'un chemin sûr. Au départ, elle regarde les images venant du ciel et utilise cela pour se faire une idée générale du terrain. Elle utilise deux types de capteurs : des capteurs visuels pour comprendre la disposition et des Capteurs proprioceptifs pour sentir comment le robot interagit avec le sol.

Mesurer les conditions du terrain

Les capteurs proprioceptifs peuvent mesurer à quel point les jambes d'un robot s'enfoncent dans le sol ou à quel point la surface est glissante pour les robots à roues. Ce retour physique est crucial car il indique au robot comment se comporte le terrain en temps réel. Cette capacité est vitale pour naviguer dans des environnements difficiles où des surfaces variées peuvent affecter considérablement le mouvement.

Adaptation en temps réel

Alors que le robot se déplace, il met constamment à jour sa compréhension du terrain en utilisant des données proprioceptives. Si le robot ressent qu'une surface est plus molle que prévu, il peut ajuster son parcours en conséquence. Ce retour d'information en temps réel permet au robot de mettre à jour son plan rapidement, prenant de meilleures décisions basées sur ce qu'il ressent.

Planification locale vs globale

Cette méthode utilise deux approches de planification pour la navigation : globale et locale. Le planificateur global aide le robot à décider où aller ensuite en fonction d'une vue plus large de l'environnement. Il s'appuie sur des images aériennes pour créer une carte des chemins potentiels. En revanche, le planificateur local se concentre sur les ajustements immédiats à la route du robot en fonction de l'expérience récente.

Planification globale

Le planificateur global commence par identifier plusieurs points de passage sur une image plus grande, comme une carte obtenue à partir de photos aériennes. Cette approche aide le robot à établir une route cible. Quand le robot rencontre un terrain inattendu, le planificateur global peut réévaluer ces points de passage et ajuster l'itinéraire global en conséquence.

Planification locale

Le planificateur local fournit des ajustements précis en temps réel. Il aide le robot à faire des changements rapides de parcours en fonction des conditions actuelles. En vérifiant en continu son environnement avec des caméras et des capteurs proprioceptifs, le robot peut détecter de nouveaux obstacles ou des changements dans le sol et ajuster son chemin pour continuer à avancer en toute sécurité.

Test et validation

Pour s'assurer que le nouveau système fonctionne bien, des tests ont été menés avec deux types de robots : un robot à pattes et un robot à roues. Les deux robots ont été mis à l'épreuve dans divers environnements extérieurs comprenant différents types de terrains comme de l'herbe, du sable, de la boue et du béton.

Lors des tests, la méthode a montré des taux de succès de navigation améliorés, ce qui signifie que les robots ont pu atteindre leurs objectifs plus souvent qu'avec des méthodes plus anciennes. Le taux de succès a augmenté de près de 50%, ce qui montre l'efficacité de la combinaison des infos visuelles et proprioceptives dans la prise de décision.

Scénarios du monde réel

Les tests ont inclus divers scénarios pour mettre les robots à l'épreuve de différentes manières. Par exemple :

  1. Scénario 1 : Le robot à pattes a dû passer d'un béton solide à une herbe boueuse plus molle. La nouvelle méthode l'a aidé à ajuster son parcours quand il a senti des changements dans le sol.

  2. Scénario 2 : Le robot à pattes a rencontré du sable lâche, ce qui pose souvent problème. Cependant, grâce au retour proprioceptif, il a adapté son approche et réduit le risque de se retrouver coincé.

  3. Scénario 3 : Un robot à roues est passé entre des surfaces dures et des terrains plus doux. La nouvelle approche de navigation lui a permis de maintenir un chemin fluide tout en s'ajustant aux sols irréguliers.

  4. Scénario 4 : Ce scénario comportait de la neige glissante sur du béton. La nouvelle méthode a mieux fonctionné que les méthodes traditionnelles, gardant le robot stable tout en naviguant.

Comparaison avec les méthodes existantes

En évaluant la performance, la nouvelle méthode a constamment surpassé les autres. Elle a eu de meilleurs taux de succès, moins de consommation d'énergie, et a pu s'adapter plus efficacement aux conditions changeantes. Les méthodes traditionnelles rencontraient souvent des difficultés dans des environnements difficiles, entraînant plus d'erreurs et une navigation moins fiable.

Conclusion

L'intégration du retour visuel et proprioceptif améliore considérablement la capacité des robots à naviguer dans des environnements extérieurs complexes. Cette nouvelle approche est un outil précieux pour améliorer la prise de décision en traversant des terrains variés, rendant les robots autonomes pour l'extérieur plus capables et efficaces.

Développements futurs

Bien que prometteuse, la méthode a quelques limitations. Elle s'appuie beaucoup sur le GPS pour la précision de localisation, ce qui peut ne pas bien fonctionner dans toutes les zones, notamment dans les milieux urbains ou les forêts denses où les signaux peuvent être faibles. Les améliorations futures pourraient inclure l'utilisation d'autres types de capteurs, comme des caméras thermiques, pour améliorer les performances dans des conditions de visibilité difficiles.

L'objectif à venir est de renforcer ces avancées en développant des systèmes capables de fonctionner efficacement sans GPS et d'intégrer des données de capteurs supplémentaires. Améliorer la vitesse de traitement des informations est également une priorité pour s'assurer que les robots puissent réagir rapidement à des situations dynamiques.

Cette nouvelle façon d'utiliser les robots pour naviguer dans les espaces extérieurs représente un pas en avant significatif, leur permettant de relever des défis complexes plus efficacement que jamais.

Source originale

Titre: Robot Navigation Using Physically Grounded Vision-Language Models in Outdoor Environments

Résumé: We present a novel autonomous robot navigation algorithm for outdoor environments that is capable of handling diverse terrain traversability conditions. Our approach, VLM-GroNav, uses vision-language models (VLMs) and integrates them with physical grounding that is used to assess intrinsic terrain properties such as deformability and slipperiness. We use proprioceptive-based sensing, which provides direct measurements of these physical properties, and enhances the overall semantic understanding of the terrains. Our formulation uses in-context learning to ground the VLM's semantic understanding with proprioceptive data to allow dynamic updates of traversability estimates based on the robot's real-time physical interactions with the environment. We use the updated traversability estimations to inform both the local and global planners for real-time trajectory replanning. We validate our method on a legged robot (Ghost Vision 60) and a wheeled robot (Clearpath Husky), in diverse real-world outdoor environments with different deformable and slippery terrains. In practice, we observe significant improvements over state-of-the-art methods by up to 50% increase in navigation success rate.

Auteurs: Mohamed Elnoor, Kasun Weerakoon, Gershom Seneviratne, Ruiqi Xian, Tianrui Guan, Mohamed Khalid M Jaffar, Vignesh Rajagopal, Dinesh Manocha

Dernière mise à jour: 2024-09-30 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2409.20445

Source PDF: https://arxiv.org/pdf/2409.20445

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires

Vision par ordinateur et reconnaissance des formesFaire avancer le suivi de mouvement avec des méthodes basées sur des événements

Une nouvelle méthode améliore la précision du suivi dans des scènes en mouvement rapide en utilisant une technologie basée sur des événements.

Maria Zafeiri, Georgios Evangelidis, Emmanouil Psarakis

― 6 min lire