Simple Science

La science de pointe expliquée simplement

# Informatique# Robotique

Cadre de simulation conjointe pour les voitures autonomes

Un nouveau cadre améliore la perception et la planification de mouvement dans les véhicules autonomes.

― 7 min lire


Nouveau cadre pour lesNouveau cadre pour lesvoitures autonomesconduite plus sûre.planification du véhicule pour uneAméliore la perception et la
Table des matières

Les voitures autonomes reposent sur deux tâches principales : comprendre leur environnement et planifier leurs mouvements. Ces deux tâches sont essentielles pour que le véhicule fonctionne de manière sûre et efficace. Bien que de nombreuses études se concentrent sur l'amélioration de chaque tâche séparément, il n'est pas clair comment les erreurs de compréhension de l'environnement peuvent affecter la planification des mouvements. Cet article discute d'un nouveau cadre de simulation conjoint qui utilise la technologie LiDAR (Light Detection and Ranging) pour améliorer à la fois la Perception et la planification des mouvements pour les voitures autonomes.

Composantes clés de la conduite automatisée

Les voitures autonomes utilisent des capteurs pour recueillir des informations sur leur environnement. Ces informations sont traitées En temps réel, permettant aux véhicules de détecter et de suivre d'autres voitures, des piétons et des obstacles. En gros, le système de perception doit rapidement et précisément déterminer ce qui entoure le véhicule, ainsi que sa vitesse et sa direction.

Pour atteindre une conduite automatisée efficace, le système de perception inclut diverses techniques pour détecter et classer les objets. Les méthodes traditionnelles impliquent de détecter des objets individuels et leurs contours. Récemment, les techniques d'apprentissage profond ont amélioré la détection des objets, facilitant ainsi l'identification de plusieurs objets en même temps.

Une fois que le module de perception a traité les données, il envoie des informations cruciales au planificateur de mouvement. Le planificateur de mouvement doit prendre des décisions rapides sur la manière dont le véhicule doit se déplacer, y compris déterminer un chemin sûr et ajuster sa vitesse. Cette tâche est essentielle pour garantir que le véhicule fonctionne de manière sûre et efficace.

Configuration expérimentale

Le nouveau cadre a été testé en utilisant le simulateur CARLA, qui fournit des scénarios de conduite urbaine réalistes. Ce cadre combine la perception basée sur LiDAR et la planification des mouvements, permettant aux chercheurs d'évaluer comment les changements dans la compréhension de l'environnement affectent les décisions de mouvement du véhicule.

Dans la simulation, le système de perception LiDAR détecte et suit les véhicules en temps réel. Le système traite les données du simulateur CARLA, en tenant compte du bruit dans les lectures de capteurs. Cela permet au module de perception de fournir des informations précises sur la position et la vitesse des véhicules à proximité.

Pour améliorer la communication entre le système de perception et le planificateur de mouvement, une nouvelle façon de représenter les collisions potentielles a été introduite. Cette représentation réduit la quantité d'informations qui doivent être échangées, rendant l'ensemble du processus plus rapide et plus efficace.

Amélioration de la vérification des collisions

La vérification des collisions est une étape cruciale dans la planification des mouvements. Elle garantit que le chemin planifié ne croise pas d'autres véhicules ou obstacles. L'approche traditionnelle de vérification des collisions utilise souvent un système de grille pour représenter l'environnement, ce qui peut être long et gourmand en ressources.

Le nouveau système introduit une manière plus efficace de vérifier les collisions. Au lieu de s'appuyer sur une grille, il utilise des représentations géométriques des véhicules pour déterminer les collisions potentielles. Cette méthode permet au planificateur de vérifier les collisions de manière plus directe, améliorant la vitesse de l'ensemble du système.

Performance en temps réel

Le système complet, combinant la perception LiDAR et la planification des mouvements, fonctionne en temps réel, atteignant une vitesse de 25 Hz dans des scénarios de conduite urbaine. Cette vitesse répond aux exigences pour une conduite automatisée sûre, garantissant que le système peut réagir rapidement aux changements dans l'environnement.

L'exactitude du système de perception a également été évaluée, en particulier sur une portée de 20 mètres. Les résultats ont montré que le système pouvait détecter avec précision les véhicules et suivre leurs mouvements avec un haut degré de précision.

Défis dans les systèmes existants

Les méthodes précédentes pour la perception et la planification des mouvements ont souvent fonctionné de manière isolée, supposant des conditions parfaites pour chaque module. Par exemple, le planificateur de mouvement suppose généralement que le système de perception donne des informations précises et que la localisation est parfaite. Cependant, cette hypothèse néglige le fait que ces deux systèmes s'influencent mutuellement.

En testant directement comment les erreurs de perception impactent la planification des mouvements, le nouveau cadre aborde cette lacune. Il valide comment les modules de perception et de planification des mouvements fonctionnent ensemble en temps réel, donnant une représentation plus précise des opérations des véhicules autonomes.

Innovations clés

  1. Système de perception LiDAR en temps réel : Le système de perception utilise le regroupement de nuages de points pour détecter et suivre les véhicules sans avoir besoin d'algorithmes d'apprentissage profond. Cela garantit un traitement rapide tout en maintenant l'exactitude.

  2. Représentation des limites de collision : En introduisant une nouvelle manière de représenter les collisions potentielles, le cadre réduit le temps et les ressources nécessaires pour la communication entre les modules de perception et de planification des mouvements.

  3. Conception de système asynchrone : Le système est conçu pour fonctionner de manière à permettre à chaque module de tourner indépendamment et de communiquer selon les besoins, optimisant les performances dans des contextes en temps réel.

Observations des simulations

Les expériences ont été réalisées dans CARLA avec deux environnements urbains différents pour tester l'efficacité du système. Les résultats ont montré que le système maintenait une distance sécuritaire par rapport aux autres véhicules tout en s'adaptant aux conditions de conduite réelles.

Le temps pris pour la génération de chemin et la surveillance de la vitesse du véhicule a été enregistré. Le temps moyen pour que l'ensemble du système fonctionne est resté au-dessus de 20 Hz, indiquant qu'il peut gérer des scénarios complexes rapidement et efficacement.

Conclusion

Cette recherche introduit un nouveau cadre de simulation conjoint pour les véhicules autonomes, intégrant les systèmes de perception LiDAR et de planification des mouvements. Le cadre améliore non seulement l'exactitude et l'efficacité des tâches individuelles, mais démontre également comment les erreurs de perception peuvent influencer les décisions de mouvement dans des situations de conduite en temps réel.

Les résultats suggèrent qu'en travaillant ensemble, ces modules peuvent améliorer les systèmes de conduite automatisée, garantissant des opérations plus sûres et plus efficaces dans des environnements dynamiques. La performance en temps réel du cadre montre un grand potentiel pour de futures applications dans le domaine des voitures autonomes, ouvrant la voie à des expériences de conduite urbaine plus sûres.

À mesure que la technologie progresse, ces innovations peuvent encore améliorer la fiabilité des véhicules autonomes, les rendant plus viables pour le transport. La recherche continue et le développement seront essentiels pour affiner ces systèmes et relever les défis qui demeurent dans le domaine de la conduite automatisée.

Source originale

Titre: Real-Time Joint Simulation of LiDAR Perception and Motion Planning for Automated Driving

Résumé: Real-time perception and motion planning are two crucial tasks for autonomous driving. While there are many research works focused on improving the performance of perception and motion planning individually, it is still not clear how a perception error may adversely impact the motion planning results. In this work, we propose a joint simulation framework with LiDAR-based perception and motion planning for real-time automated driving. Taking the sensor input from the CARLA simulator with additive noise, a LiDAR perception system is designed to detect and track all surrounding vehicles and to provide precise orientation and velocity information. Next, we introduce a new collision bound representation that relaxes the communication cost between the perception module and the motion planner. A novel collision checking algorithm is implemented using line intersection checking that is more efficient for long distance range in comparing to the traditional method of occupancy grid. We evaluate the joint simulation framework in CARLA for urban driving scenarios. Experiments show that our proposed automated driving system can execute at 25 Hz, which meets the real-time requirement. The LiDAR perception system has high accuracy within 20 meters when evaluated with the ground truth. The motion planning results in consistent safe distance keeping when tested in CARLA urban driving scenarios.

Auteurs: Zhanhong Huang, Xiao Zhang, Xinming Huang

Dernière mise à jour: 2023-08-30 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2305.06966

Source PDF: https://arxiv.org/pdf/2305.06966

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires