Neue kamera-basierte Navigation für Agrarroboter
Ein Kamerasystem verbessert, wie Roboter zwischen den Pflanzenreihen wechseln.
― 4 min Lesedauer
Inhaltsverzeichnis
In der Landwirtschaft werden Roboter immer häufiger eingesetzt, um bei Aufgaben wie Pflanzen und Ernten zu helfen. Eine wichtige Aufgabe für diese Roboter ist es, effizient zwischen den Reihen der Pflanzen zu navigieren. Bisher wurde das meist mit teuren GPS-Systemen oder mehreren Kameras gemacht. Dieser Artikel spricht über eine neue Methode, die nur eine Kamera verwendet, damit Roboter von einer Pflanzenreihe zur anderen wechseln können.
Das Problem
Die meisten bestehenden Navigationssysteme für landwirtschaftliche Roboter verlassen sich auf fortschrittliche Sensoren, die teuer sein können. Roboter folgen den Pflanzenreihen perfekt, haben aber Schwierigkeiten, wenn sie von einer Reihe zur anderen wechseln müssen. Das kann ihre Arbeit verlangsamen und zu weniger effizienten Anbaumethoden führen.
Die Lösung
Der neue Ansatz, der hier beschrieben wird, ist ein visuelles Navigationssystem, das landwirtschaftlichen Robotern erlaubt, zwischen Pflanzenreihen zu wechseln, indem nur eine einzelne Kamera an der Vorderseite des Roboters montiert ist. Es hilft dem Roboter, das Ende einer Pflanzenreihe zu finden und den besten Weg in die nächste Reihe zu berechnen.
Wichtige Komponenten der Methode
Kameraeinsatz: Eine einzige Kamera nimmt Bilder der Pflanzen auf. Das ist kostengünstiger als mehrere Kameras oder GPS-Systeme.
Bildverarbeitung: Der Roboter nutzt fortschrittliche Bildverarbeitungstechniken, um das Ende einer Pflanzenreihe zu erkennen und zu bestimmen, wo er in die nächste Reihe zurückkehren kann.
Feedback-System: Während der Roboter sich bewegt, verwendet er Feedback von seinen Rädern, um sicherzustellen, dass er richtig zwischen den Pflanzenreihen navigiert.
Wie es funktioniert
Der Prozess beginnt, wenn der Roboter das Ende einer Pflanzenreihe erkennt. Das wird als Ende der Reihe (EOR) bezeichnet. Sobald der EOR identifiziert ist, bereitet sich der Roboter darauf vor, zur nächsten Reihe zu wechseln. Der gesamte Vorgang kann in mehrere Schritte unterteilt werden.
Schritt 1: Identifizierung des Endes der Reihe
Der Roboter nutzt seine Kamera, um den EOR zu entdecken. Das ist wichtig, weil es den Punkt markiert, an dem der Roboter die aktuelle Reihe verlassen muss. Die Kamera verarbeitet die Bilder, um Muster zu finden, die anzeigen, wo die Pflanzenreihe endet.
Schritt 2: Verlassen der aktuellen Reihe
Nachdem der Roboter den EOR identifiziert hat, muss er seine aktuelle Pflanzenreihe verlassen. Der Roboter verwendet seine Radsensoren, um sicherzustellen, dass er die richtige Entfernung aus der Reihe fährt.
Schritt 3: Wenden
Sobald er aus der Reihe ist, muss der Roboter sich drehen, um der nächsten Reihe gegenüber zu stehen. Dieser Schritt umfasst zwei 90-Grad-Drehungen. Der Roboter muss vorsichtig navigieren, um sicherzustellen, dass er nach dem Wenden in die richtige Richtung blickt.
Schritt 4: Eintreten in die nächste Reihe
Nach dem Wenden muss der Roboter genau in die nächste Pflanzenreihe eintreten. Er nutzt die Kamera, um den passenden Einstiegspunkt für die neue Reihe zu finden und bewegt sich entsprechend.
Tests in echten Feldern
Diese neue Methode wurde in einem echten Zuckerrübenfeld getestet. Das Feld stellte Herausforderungen wie sich ändernde Lichtverhältnisse und unebene Flächen dar, was die Tests realistischer machte. Der Roboter wechselte erfolgreich die Reihen mit einem durchschnittlichen Fehler von etwa 19,25 cm in der Entfernung und 6,77 Grad in der Richtung.
Vorteile der neuen Methode
Kosteneffektiv: Durch den Einsatz von nur einer Kamera werden die Kosten für mehrere Kameras oder GPS-Sensoren erheblich gesenkt.
Effizienz: Der Roboter kann Felder effektiver navigieren, was sicherstellt, dass er schneller arbeitet und Zeit sowie Ressourcen besser nutzt.
Flexibilität: Da diese Navigationsmethode nicht von bestimmten Pflanzenarten abhängt, kann sie bei verschiedenen Pflanzen ohne Anpassungen verwendet werden.
Herausforderungen und Verbesserungen
Während der Tests wurden einige Herausforderungen festgestellt. Der Roboter hatte manchmal Schwierigkeiten beim Wenden, wenn er beim Verlassen der Pflanzenreihe einen schlechten Kurs hatte. Ausserdem bewegte er sich gelegentlich unbeabsichtigt während des Wendeprozesses. Zukünftige Versionen dieses Navigationssystems werden wahrscheinlich Sensoren beinhalten, um diese Probleme zu beheben und das System noch zuverlässiger zu machen.
Fazit
Die neue visuelle Methode zur Navigation in Pflanzenreihen bietet eine vielversprechende Lösung für landwirtschaftliche Roboter. Durch die Vereinfachung des Navigationsprozesses und die Reduzierung der Kosten hilft dieser Ansatz, den Einsatz von Robotertechnik in der Landwirtschaft zu fördern. Es ermöglicht effizientere und präzisere Anbaumethoden und verringert die Abhängigkeit von teurer Ausrüstung. Mit weiteren Verbesserungen könnte diese Technologie eine wichtige Rolle in der Zukunft der Landwirtschaft spielen und das Farming effizienter und zugänglicher machen.
Titel: A Vision-Based Navigation System for Arable Fields
Zusammenfassung: Vision-based navigation systems in arable fields are an underexplored area in agricultural robot navigation. Vision systems deployed in arable fields face challenges such as fluctuating weed density, varying illumination levels, growth stages and crop row irregularities. Current solutions are often crop-specific and aimed to address limited individual conditions such as illumination or weed density. Moreover, the scarcity of comprehensive datasets hinders the development of generalised machine learning systems for navigating these fields. This paper proposes a suite of deep learning-based perception algorithms using affordable vision sensors for vision-based navigation in arable fields. Initially, a comprehensive dataset that captures the intricacies of multiple crop seasons, various crop types, and a range of field variations was compiled. Next, this study delves into the creation of robust infield perception algorithms capable of accurately detecting crop rows under diverse conditions such as different growth stages, weed density, and varying illumination. Further, it investigates the integration of crop row following with vision-based crop row switching for efficient field-scale navigation. The proposed infield navigation system was tested in commercial arable fields traversing a total distance of 4.5 km with average heading and cross-track errors of 1.24{\deg} and 3.32 cm respectively.
Autoren: Rajitha de Silva, Grzegorz Cielniak, Junfeng Gao
Letzte Aktualisierung: 2024-05-28 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2309.11989
Quell-PDF: https://arxiv.org/pdf/2309.11989
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.