Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Robotik

Neuer Filter verbessert die Terrainwahrnehmung von Robotern

Eine neue Methode hilft Robotern, Oberflächen in natürlichen Umgebungen besser zu verstehen.

― 6 min Lesedauer


Roboter sehen anders mitRoboter sehen anders mitneuem FilterLandschaften.die Roboternavigation in komplexenEin fortschrittlicher Filter verbessert
Inhaltsverzeichnis

Mobile Roboter müssen die Oberflächen um sich herum sehen und verstehen, um sicher eigenständig zu navigieren. Normalerweise nutzen sie Tiefensensoren, wie LiDAR, um Informationen über ihre Umgebung zu sammeln. Allerdings haben diese Sensoren oft Probleme mit hohem Gras oder anderen Pflanzen, die man durchqueren kann. In diesem Artikel geht's um eine neue Methode, den Semantic Pointcloud Filter (SPF), der Robotern hilft, ihre Wahrnehmung von Oberflächen anzupassen, selbst wenn diese durch Vegetation verdeckt sind.

Die Herausforderung

Wenn Roboter in natürlichen Umgebungen unterwegs sind, nehmen sie oft an, dass alles, was sie antreffen, fest und unveränderlich ist. Sie könnten denken, dass Gras ein fester Boden ist oder dass ein Busch eine Wand ist. Das kann zu Fehlern führen, wie zum Beispiel zu versuchen, über etwas zu treten, das eigentlich gar nicht da ist. Menschen können hingegen hohes Gras ansehen und erkennen, dass es weich ist und man darüber laufen kann. Sie nutzen, was sie sehen, um ihre Schritte anzupassen.

Roboter müssen lernen, dasselbe zu tun, damit sie effektiver in Freiluftumgebungen agieren können.

Was ist SPF?

Der Semantic Pointcloud Filter ist ein Tool, das darauf abzielt, die Wahrnehmung von Oberflächen durch Roboter zu verbessern. Anstatt rohe Daten von Sensoren zu verwenden, kombiniert der SPF Informationen von LiDAR und Kamerabildern, um besser zu verstehen, wo der Boden ist. Der Filter nutzt eine Art neuronales Netzwerk, um die Daten zu analysieren und zu modifizieren, was es ihm ermöglicht, ein genaueres Bild der darunterliegenden Oberfläche zu erstellen.

Wie SPF funktioniert

Der SPF nimmt zwei Eingaben: eine Punktwolke von LiDAR und ein Bild von einer Kamera. Die Punktwolke ist eine Ansammlung von 3D-Punkten, die die Umgebung darstellen. Diese Daten können chaotisch sein, besonders in Bereichen mit hohen Pflanzen. Das Kamerabild liefert zusätzliche visuelle Details, die dem Filter helfen, Oberflächen besser zu identifizieren.

SPF nutzt einen Prozess namens semi-selbstüberwachtes Lernen. Das bedeutet, dass ein Teil des Trainings mit gekennzeichneten Daten (wo Menschen unterschiedliche Oberflächen identifiziert haben) und ein Teil mit Daten erfolgt, die aus der Erfahrung des Roboters generiert wurden.

Training des Filters

Um den SPF zu trainieren, sammelte das Team Bilder und Punktwolken-Daten in verschiedenen Freiluftumgebungen, wie Feldern und Wäldern. Einige Bilder wurden manuell gekennzeichnet, um starre (feste) Hindernisse und tragfähige Oberflächen (Orte, an denen der Roboter gehen kann) anzuzeigen. Der SPF lernte, diese Oberflächen zu identifizieren, indem er die Beziehung zwischen den Daten von LiDAR und der Kamera betrachtete.

Der Filter ist so konzipiert, dass er eine binäre Maske vorhersagt, also eine vereinfachte Sicht, die zeigt, welche Teile der Punktwolke angepasst werden müssen, um genaue Tiefeninformationen zu erhalten. Der Filter sagt auch vorher, wie weit die Oberflächen entfernt sind, was einen realistischeren Blick auf das Terrain ermöglicht.

Vorteile von SPF

Mit dem SPF können Roboter bessere Entscheidungen treffen, wenn sie herausfordernde Gelände navigieren. Der Filter hat sich als effektiv erwiesen, um die Fähigkeit des Roboters zur Erstellung von Höhenkarten und zur Bewertung, welche Bereiche sicher zu überqueren sind, zu verbessern.

Tests in der realen Welt

Die Effektivität des SPF wurde an einem geländegängigen Roboter namens ANYmal getestet. Der Roboter wurde in verschiedenen Freiluftumgebungen eingesetzt, wo er über Gras, durch Wälder und über hügeliges Terrain navigieren musste. Die Ergebnisse zeigten, dass die gefilterten Daten vom SPF die Genauigkeit der Höhenkartierung und der Beurteilung der Traversierbarkeit des Roboters erheblich verbesserten.

Als der Roboter die rohen Punktwolken-Daten verwendete, hatte er Schwierigkeiten, zu bestimmen, wo der Boden war, besonders in Grasgebieten. Nach der Anwendung des SPF hatte der Roboter jedoch ein viel klareres Verständnis des Terrains.

Höhenkartierung

Höhenkartierung ist für Roboter wichtig, da sie ihnen erlaubt zu wissen, wie hoch oder niedrig der Boden in unterschiedlichen Bereichen ist. Diese Informationen sind entscheidend für die Planung sicherer Bewegungen.

Mit dem SPF waren die erzeugten Höhenkarten viel genauer als die mit ungefilterten Daten erstellten. Zum Beispiel führte die Höhenkarte, die mit SPF in einer Wiese erstellt wurde, zu deutlich niedrigeren Fehlerquoten im Vergleich zu rohen Sensordaten oder einfachen Glättungstechniken. Das bedeutet, dass das Verständnis des Roboters für das Terrain mit dem SPF viel besser war.

Traversierbarkeitsabschätzung

Traversierbarkeitsabschätzung bezieht sich darauf, wie ein Roboter bestimmt, ob eine Oberfläche sicher zu überqueren ist. Wenn er die rohen Punktwolken oder sogar eine geglättete Version verwendet, trifft der Roboter oft falsche Annahmen darüber, was er überqueren kann und was nicht. Der SPF verbesserte die Fähigkeit des Roboters, die Traversierbarkeit genau vorherzusagen.

In Tests, als der Roboter in einem Bereich mit Gras war, filterte der SPF das Rauschen heraus, das durch die Vegetation erzeugt wurde, sodass der Roboter den wahren Boden darunter sehen konnte. Dies führte zu genaueren Traversierbarkeitskarten, die für Navigation und Bewegungsplanung entscheidend sind.

Bedeutung des multimodalen Ansatzes

Der SPF nutzt sowohl LiDAR- als auch Kamera-Eingaben, um seine Leistung zu verbessern. Dieser multimodale Ansatz ermöglicht es dem Roboter, geometrische Daten von LiDAR mit visuellen Informationen von der Kamera zu kombinieren. Eine solche Fusion ist entscheidend für die Verbesserung des Verständnisses des Roboters für seine Umgebung.

Wenn man nur eine Datenquelle nutzt, wie nur LiDAR oder nur Kamerabilder, führt das oft zu Problemen in komplexeren Umgebungen. Durch die Kombination beider Quellen nutzt der SPF die Stärken jeder einzelnen und verbessert die Gesamtleistung.

Zukünftige Richtungen

Obwohl der SPF grosse Fortschritte gezeigt hat, gibt es noch Herausforderungen zu bewältigen. Zum Beispiel kann der Filter in Situationen mit schlechtem Licht oder wenn sich die Arten von Vegetation stark verändern, Schwierigkeiten haben.

In Zukunft suchen Forscher nach Möglichkeiten, Anomalieerkennung in den Trainingsprozess zu integrieren. Das könnte weniger Abhängigkeit von manueller Kennzeichnung bedeuten, was das System einfacher zu trainieren und in verschiedenen Umgebungen anzuwenden macht.

Zusätzlich könnte die Integration des SPF mit anderen Robotersystemen, wie Fortbewegung und Routenplanung, seine Nützlichkeit weiter steigern. Wenn diese Systeme zusammenarbeiten, könnten sie eine umfassendere Lösung für Roboter bieten, die in Freiluftumgebungen operieren.

Fazit

Der Semantic Pointcloud Filter stellt einen bedeutenden Fortschritt darin dar, wie Roboter ihre Umgebung wahrnehmen. Indem er die Art und Weise verbessert, wie Roboter Oberflächen verstehen, kann der SPF ihre Navigationsfähigkeiten verbessern. Mit erfolgreichen Tests an realen Robotern hat diese Technologie das Potenzial, die Autonomie von Robotern, die in natürlichen Umgebungen operieren, zu erhöhen, was sie sicherer und effizienter macht.

Während die Forschung fortschreitet, können wir weitere Fortschritte in der Art und Weise erwarten, wie Roboter mit ihrer Umgebung interagieren, was letztendlich zu intelligenteren und leistungsfähigeren Maschinen führt, die komplexe Freiluftszenarien mühelos navigieren können.

Originalquelle

Titel: Seeing Through the Grass: Semantic Pointcloud Filter for Support Surface Learning

Zusammenfassung: Mobile ground robots require perceiving and understanding their surrounding support surface to move around autonomously and safely. The support surface is commonly estimated based on exteroceptive depth measurements, e.g., from LiDARs. However, the measured depth fails to align with the true support surface in the presence of high grass or other penetrable vegetation. In this work, we present the Semantic Pointcloud Filter (SPF), a Convolutional Neural Network (CNN) that learns to adjust LiDAR measurements to align with the underlying support surface. The SPF is trained in a semi-self-supervised manner and takes as an input a LiDAR pointcloud and RGB image. The network predicts a binary segmentation mask that identifies the specific points requiring adjustment, along with estimating their corresponding depth values. To train the segmentation task, 300 distinct images are manually labeled into rigid and non-rigid terrain. The depth estimation task is trained in a self-supervised manner by utilizing the future footholds of the robot to estimate the support surface based on a Gaussian process. Our method can correctly adjust the support surface prior to interacting with the terrain and is extensively tested on the quadruped robot ANYmal. We show the qualitative benefits of SPF in natural environments for elevation mapping and traversability estimation compared to using raw sensor measurements and existing smoothing methods. Quantitative analysis is performed in various natural environments, and an improvement by 48% RMSE is achieved within a meadow terrain.

Autoren: Anqiao Li, Chenyu Yang, Jonas Frey, Joonho Lee, Cesar Cadena, Marco Hutter

Letzte Aktualisierung: 2023-05-13 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2305.07995

Quell-PDF: https://arxiv.org/pdf/2305.07995

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel