Simple Science

La science de pointe expliquée simplement

# Génie électrique et science des systèmes# Vision par ordinateur et reconnaissance des formes# Traitement de l'image et de la vidéo

Avancées dans les systèmes de perception des véhicules autonomes

La recherche sur les réseaux de détection-segmentation améliore la sécurité des voitures autonomes.

― 8 min lire


Avancées dans laAvancées dans laperception des véhiculesautonomesconduite autonome.sécurité pour la technologie deDe nouveaux systèmes améliorent la
Table des matières

Les véhicules autonomes, comme les voitures sans conducteur, dépendent de Systèmes de perception avancés pour comprendre leur environnement. Ces systèmes aident le véhicule à identifier les obstacles, les piétons, les panneaux de signalisation et d'autres éléments importants sur la route. En gros, un système de perception agit comme les yeux du véhicule, fournissant des infos cruciales pour prendre des décisions de conduite en sécurité.

Un des points clés de cette recherche est l'utilisation d'un type spécifique de réseau de neurones, connu sous le nom de réseau de détection-segmentation. Ce type de réseau aide le véhicule à trouver des objets et à comprendre la disposition de la route. L'implémentation a été réalisée sur un dispositif spécial appelé Système sur Puce (SoC) FPGA. Ce dispositif est particulièrement utile car il peut gérer des calculs complexes rapidement et consommer moins d'énergie comparé aux systèmes informatiques traditionnels.

L'importance des systèmes de perception

Les systèmes de perception sont essentiels pour que les véhicules autonomes fonctionnent de manière sûre et efficace. Ils doivent bien fonctionner dans différentes conditions routières, reconnaître différents types d'obstacles et réagir en temps réel aux changements de l'environnement. Ces systèmes doivent aussi être économes en énergie, ce qui est crucial pour les véhicules alimentés par batterie.

Pour atteindre ces objectifs, une bonne combinaison d'algorithmes et de matériel informatique est nécessaire. Un système de perception bien conçu peut aider le véhicule à prendre des décisions éclairées, améliorant ainsi la sécurité routière.

Utilisation des réseaux de détection-segmentation

Les réseaux de détection-segmentation sont conçus pour effectuer deux tâches principales : détecter des objets et segmenter des images. La détection implique d'identifier quels objets sont présents dans l'image, comme des voitures ou des piétons, et de les marquer avec des boîtes englobantes. D'autre part, la segmentation attribue des étiquettes à chaque pixel de l'image pour indiquer ce qu'il représente, comme la route ou un panneau de signalisation.

Un réseau populaire utilisé dans cette recherche s'appelle MultiTask V3. Ce réseau peut gérer à la fois les tâches de détection et de segmentation dans un seul cadre, ce qui le rend efficace pour une utilisation dans des véhicules autonomes. Il a été entraîné et implémenté sur la plateforme AMD Xilinx Kria KV260 Vision AI, permettant au véhicule de traiter rapidement les informations visuelles.

Choix du matériel : SoC FPGA

La plateforme SoC FPGA a été choisie pour plusieurs raisons. D'abord, elle permet de réaliser beaucoup de calculs simultanément, ce qui est important pour le traitement en temps réel. Ensuite, elle consomme beaucoup moins d'énergie par rapport à un système basé sur CPU classique. Par exemple, la plateforme Kria KV260 utilise environ 5 watts, alors que certains CPU peuvent nécessiter plus de 55 watts.

En plus, la taille compacte de la plateforme Kria la rend adaptée aux petits véhicules où l'espace est limité. Avec ces avantages, la plateforme peut efficacement soutenir les exigences du système de perception d'un véhicule autonome.

Entraînement du réseau

Pour entraîner efficacement le réseau de détection-segmentation, des ensembles de données personnalisés ont été créés pour répondre aux besoins du modèle. L'entraînement a impliqué l'utilisation d'images capturées dans une ville fictive qui imitait les conditions réelles. Ces images ont été soigneusement étiquetées pour inclure divers objets et caractéristiques routières.

Pour le processus d'entraînement, le modèle a été exécuté en utilisant un GPU puissant. Après un entraînement suffisant, le modèle a été quantifié, ce qui l'optimise pour le fonctionnement sur le SoC FPGA sans compromettre ses performances. L'objectif était de préparer un modèle capable de détecter et de segmenter efficacement des images tout en consommant un minimum de ressources.

Construction du modèle de véhicule autonome

Un modèle de véhicule autonome a été construit pour tester le système de perception en action. Ce véhicule utilisait des roues Mecanum, qui offrent une excellente manœuvrabilité. Il était équipé de toute l'électronique nécessaire pour contrôler ses mouvements et traiter les informations visuelles.

L'ensemble de la conception incluait non seulement la mécanique du véhicule mais aussi l'électronique requise pour faire fonctionner le système de perception. Le véhicule a été testé dans un environnement contrôlé qui simulait des scénarios de conduite réels, permettant aux chercheurs de suivre comment le système de perception fonctionnait.

Comment fonctionne le système de perception

Le système de perception se compose de plusieurs composants clés. La première étape consiste à capturer des images depuis une caméra montée sur le véhicule. Ces images sont prétraitées pour correspondre aux exigences d'entrée du réseau de détection-segmentation. Après traitement, les images sont envoyées au réseau de neurones, qui analyse le contenu.

Le réseau fournit différentes sorties, y compris des masques pour les objets détectés et des cartes de segmentation pour la route et d'autres caractéristiques. Ces informations sont ensuite utilisées pour prendre des décisions de conduite. Par exemple, si un piéton est détecté, le véhicule est programmé pour s'arrêter. S'il y a un obstacle, il peut initier une manœuvre de dépassement.

Le rôle des caméras et des capteurs

L'utilisation de caméras est cruciale pour fournir au système de perception les informations visuelles nécessaires. Ces caméras capturent des images en temps réel, permettant au véhicule de réagir à son environnement. La qualité de l'image et la vitesse de traitement sont essentielles pour la fiabilité du système.

En plus des caméras, les travaux futurs pourraient impliquer l'intégration d'autres types de capteurs, comme des capteurs de profondeur. Ceux-ci peuvent fournir des informations supplémentaires sur les environs, améliorant la capacité du véhicule à naviguer en toute sécurité dans des environnements complexes.

Tests et évaluation

Pour évaluer l'efficacité du système de perception implémenté, une série de tests ont été réalisés avec le modèle de véhicule autonome. Le véhicule a été mis à l'épreuve dans divers scénarios pour tester sa capacité à reconnaître des obstacles, respecter les règles de circulation et réagir aux changements de l'environnement.

Les résultats ont montré que le véhicule pouvait détecter efficacement des piétons, des véhicules et des marquages routiers. Il était capable de réagir correctement à différentes situations, démontrant la capacité du réseau de détection-segmentation. Les performances du système indiquaient qu'il pouvait être étendu à des véhicules plus grands fonctionnant dans des conditions réelles.

Défis et orientations futures

Bien que l'implémentation actuelle ait montré des résultats prometteurs, plusieurs défis demeurent. Le développement continu d'algorithmes et de matériel est essentiel pour améliorer encore les performances. Des efforts seront faits pour optimiser le code afin d'utiliser efficacement toutes les ressources de traitement disponibles, ce qui pourrait légèrement augmenter la consommation d'énergie.

Dans les recherches futures, l'accent sera également mis sur le perfectionnement de l'ensemble de données utilisé pour entraîner le modèle. Des ensembles de données plus importants et plus diversifiés aideront à améliorer la précision du modèle dans différentes conditions de conduite. Explorer des méthodes d'apprentissage faiblement supervisé et auto-supervisé pourrait rationaliser le processus d'étiquetage pour les données d'entraînement.

L'intégration de caractéristiques supplémentaires, telles que l'estimation de profondeur et le flux optique, pourrait encore améliorer les capacités de perception du véhicule. Ces avancées seront cruciales pour avancer vers des véhicules entièrement autonomes capables de fonctionner en toute sécurité et efficacement dans divers environnements.

Conclusion

L'implémentation d'un système de perception pour les véhicules autonomes utilisant un réseau de détection-segmentation sur un SoC FPGA montre un grand potentiel. Cette recherche a posé les bases pour développer des systèmes efficaces et en temps réel capables de naviguer dans des environnements complexes.

Avec des améliorations continues et une exploration plus poussée de techniques avancées, la vision de véhicules entièrement autonomes pouvant s'intégrer en toute sécurité dans le trafic quotidien devient de plus en plus réalisable. L'avenir de la technologie des véhicules autonomes offre des possibilités passionnantes qui pourraient transformer notre façon de penser le transport.

Source originale

Titre: Implementation of a perception system for autonomous vehicles using a detection-segmentation network in SoC FPGA

Résumé: Perception and control systems for autonomous vehicles are an active area of scientific and industrial research. These solutions should be characterised by high efficiency in recognising obstacles and other environmental elements in different road conditions, real-time capability, and energy efficiency. Achieving such functionality requires an appropriate algorithm and a suitable computing platform. In this paper, we have used the MultiTaskV3 detection-segmentation network as the basis for a perception system that can perform both functionalities within a single architecture. It was appropriately trained, quantised, and implemented on the AMD Xilinx Kria KV260 Vision AI embedded platform. By using this device, it was possible to parallelise and accelerate the computations. Furthermore, the whole system consumes relatively little power compared to a CPU-based implementation (an average of 5 watts, compared to the minimum of 55 watts for weaker CPUs, and the small size (119mm x 140mm x 36mm) of the platform allows it to be used in devices where the amount of space available is limited. It also achieves an accuracy higher than 97% of the mAP (mean average precision) for object detection and above 90% of the mIoU (mean intersection over union) for image segmentation. The article also details the design of the Mecanum wheel vehicle, which was used to test the proposed solution in a mock-up city.

Auteurs: Maciej Baczmanski, Mateusz Wasala, Tomasz Kryjak

Dernière mise à jour: 2023-07-17 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2307.08682

Source PDF: https://arxiv.org/pdf/2307.08682

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires