Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# ロボット工学

GNSSなしでUAVを操縦する: 新しいアプローチ

GNSSなしでUAVナビゲーションのための視覚データと慣性データを組み合わせたシステム。

― 1 分で読む


GNSSなしのUAVナビゲGNSSなしのUAVナビゲーションUAVの位置決めが改善された。新しい方法でGNSSが使えない条件下での
目次

無人航空機(UAV)は、監視や荷物配送など、さまざまな作業にますます人気が高まってる。彼らの操作の重要な側面はナビゲーションで、これは多くの場合、全地球測位システム(GNSS)に依存してるんだけど、技術的な障害や干渉によってGNSS信号が失われる場合もあって、そうなるとナビゲーションに問題が生じる。この文章では、GNSSなしでUAVをナビゲートする方法を説明するよ。視覚データと慣性データを使って正確な位置を維持するシステムに焦点を当ててる。

GNSSが使えないナビゲーションの問題

GNSS信号が利用できないと、UAVはかなりの課題に直面する。従来の慣性ナビゲーションシステム(INS)は、加速度計やジャイロスコープといったセンサーに依存して、位置と向きを推定するんだけど、GNSSなしでも機能はするものの、時間とともにドリフトが発生して位置推定が不正確になっちゃう。このドリフトは、絶対位置の参照がないまま、測定された速度を継続的に統合するから起こるんだ。

対照的に、視覚オドメトリ(VO)は、カメラの画像を使って時間の経過とともにキャプチャされた画像の変化に基づいてUAVの位置を推定するんだけど、VOだけでは絶対位置を提供できないし、特に長い飛行中はドリフトしがち。信頼できる位置データがないと、UAVがコースを外れてしまって、緊急時に指定された回収地点に到達するのが難しくなっちゃう。

提案するナビゲーションアプローチ

これらの課題を解決するために、この記事では、GNSSが使えない環境で位置合わせを改善するために、視覚センサーと慣性センサーを組み合わせた統一的なナビゲーションシステムを提案してる。中心的なアイデアは、慣性ナビゲーションシステムと視覚オドメトリシステムの間にフィードバックループを作ることで、両方が互いの推定を助け合い、強化できるようにすること。

システムの主要コンポーネント

  1. 慣性センサー: 加速度計やジャイロスコープを含み、UAVの動きと向きに関するデータを提供する。

  2. 視覚センサー: 搭載されたカメラが地面の画像をキャプチャして、UAVの位置を計算するために処理される。

  3. データ融合: システムは、慣性センサーと視覚センサーからのデータを統合して、正確な位置推定を生成する。

  4. 相対的変位: GNSSからの絶対位置データを要求するのではなく、システムは画像で検出された相対的な変化を使って動きを推定する。

フィードバックループ

フィードバックループは、慣性ナビゲーションシステムが視覚オドメトリに情報を提供することで機能する。例えば、慣性システムはピッチ、ロール、高度の推定値を提供して、視覚システムのターゲットとなり、視覚推定が慣性の読み取りから大きく逸脱しないようにする。この相乗効果によって、両システムの精度が向上する。

  1. データ共有: 視覚出力が慣性ナビゲーションシステムに供給され、位置推定の誤差を減少させる。

  2. 誤差補正: 視覚データが慣性推定のドリフトを時間とともに修正し、慣性データが視覚推定の精度を向上させる基準を提供する。

ナビゲーションシステムのテスト

提案されたナビゲーションシステムの性能を評価するために、GNSS信号が失われた際にUAVが直面する現実の状況を反映した2つのシナリオに基づいてシミュレーションを実施する。

  • シナリオ1: UAVは、GNSS信号を失った後に変化する天候や風条件に直面しながら回収地点にナビゲートする必要がある。

  • シナリオ2: UAVは、天候の変動なしで連続的に旋回し、GNSSなしでコースを維持する能力が試される。

各シナリオは、ナビゲーションシステムの平均性能と変動性を評価するために複数の実行から構成される。

シナリオテストからの結果

  1. 位置推定: ナビゲーションシステムは、慣性データのみを使用した場合と比べて、水平位置推定で大幅な改善を示す。慣性システムと視覚システムの両方がドリフトする可能性があるが、統合的アプローチがこのドリフトを効果的に減少させる。

  2. ストレス下での精度: 天候や飛行マニューバに直面したときも、システムは高い精度を維持し、UAVが事前に定義された回収地点に到達する可能性を大幅に向上させる。

  3. 堅牢性: 視覚データと慣性データの両方を活用することで、システムはGNSSが使えない条件下での課題に対して強靭である。

統合アプローチの利点

統合された視覚-慣性ナビゲーションシステムは、いくつかの利点を提供する。

  1. 精度の向上: データを統合することで、システムはどちらのナビゲーション戦略が単独で達成できるよりも良い位置推定を得る。

  2. ドリフトの減少: 視覚データが慣性データのドリフトを修正することで、全体的な推定が改善され、GNSSなしでの長時間の飛行が可能になる。

  3. 適応性: システムはさまざまな環境条件に適応できるため、広範なUAVアプリケーションに実用的。

  4. 安全性の向上: より正確な位置推定により、UAVはより信頼性のあるナビゲーションができ、GNSSが中断されるかもしれない任務中も安全な操作が確保できる。

ナビゲーションシステムの実用的なアプリケーション

この新しいナビゲーションシステムは、UAVにとって幅広い実用的アプリケーションを持ってる。

  1. 捜索と救助: GNSSが失敗した緊急時でも、UAVは正確に個人を捜索したり、災害現場を監視したりできる。

  2. 農業: 作物監視にUAVを利用する農家は、GNSS信号が不安定な時でも重要なデータを収集し続けられる。

  3. インフラ検査: 電力線やパイプラインを検査するUAVは、ルートの逸脱なしに徹底的な検査を行える。

  4. 配送サービス: 配送のためにUAVを活用する企業は、このシステムに依存して、荷物が正しく目的地に届くことを確実にできる。特にGNSS信号が妨げられる都市部では特に重要。

結論

視覚と慣性のナビゲーションシステムの統合は、GNSSが使えない条件で正確な位置を維持するための実行可能な解決策を提供する。両システムが互いに助け合うことで、UAVのナビゲーションの全体的な効果が大幅に向上する。このアプローチは、緊急対応から農業までのさまざまな分野での実用的なアプリケーションを示していて、UAV技術の今後の発展に向けた有望な道を切り開いてる。

要するに、自律型ドローンの需要が高まる中で、GNSSに依存せずに機能する頑丈なナビゲーションシステムの開発は、運用の安全性と信頼性を最大限に高めるために重要だ。この提案された視覚-慣性ナビゲーションシステムは、GNSSが使えないという課題に対応するだけでなく、さまざまな挑戦的な環境でのより先進的なUAV操作への道を開いてる。

オリジナルソース

タイトル: Long Distance GNSS-Denied Visual Inertial Navigation for Autonomous Fixed Wing Unmanned Air Vehicles: SO(3) Manifold Filter based on Virtual Vision Sensor

概要: This article proposes a visual inertial navigation algorithm intended to diminish the horizontal position drift experienced by autonomous fixed wing UAVs (Unmanned Air Vehicles) in the absence of GNSS (Global Navigation Satellite System) signals. In addition to accelerometers, gyroscopes, and magnetometers, the proposed navigation filter relies on the accurate incremental displacement outputs generated by a VO (Visual Odometry) system, denoted here as a Virtual Vision Sensor or VVS, which relies on images of the Earth surface taken by an onboard camera and is itself assisted by the filter inertial estimations. Although not a full replacement for a GNSS receiver since its position observations are relative instead of absolute, the proposed system enables major reductions in the GNSS-Denied attitude and position estimation errors. In order to minimize the accumulation of errors in the absence of absolute observations, the filter is implemented in the manifold of rigid body rotations or SO (3). Stochastic high fidelity simulations of two representative scenarios involving the loss of GNSS signals are employed to evaluate the results. The authors release the C++ implementation of both the visual inertial navigation filter and the high fidelity simulation as open-source software.

著者: Eduardo Gallo, Antonio Barrientos

最終更新: 2023-03-07 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2303.03804

ソースPDF: https://arxiv.org/pdf/2303.03804

ライセンス: https://creativecommons.org/licenses/by-sa/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事