Nothing Special   »   [go: up one dir, main page]

JP2012006587A - 無人機、特に自動操縦下でホバリング飛行を行うことができる無人機の水平速度を評価する方法 - Google Patents

無人機、特に自動操縦下でホバリング飛行を行うことができる無人機の水平速度を評価する方法 Download PDF

Info

Publication number
JP2012006587A
JP2012006587A JP2011137925A JP2011137925A JP2012006587A JP 2012006587 A JP2012006587 A JP 2012006587A JP 2011137925 A JP2011137925 A JP 2011137925A JP 2011137925 A JP2011137925 A JP 2011137925A JP 2012006587 A JP2012006587 A JP 2012006587A
Authority
JP
Japan
Prior art keywords
algorithm
image
drone
scene
optical flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011137925A
Other languages
English (en)
Other versions
JP5854655B2 (ja
Inventor
Thomas Derbanne
デーベネ トーマス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Parrot SA
Original Assignee
Parrot SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Parrot SA filed Critical Parrot SA
Publication of JP2012006587A publication Critical patent/JP2012006587A/ja
Application granted granted Critical
Publication of JP5854655B2 publication Critical patent/JP5854655B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】本発明の目的の1つは、無人機の水平並進速度を評価するための方法を提供することである。
【解決手段】該方法は、垂直方向カメラによって取得されるシーンの差分の動きを推定することによって動作する。推定は、連続的に減少する異なる解像度においてシーンの所与の取得された画像をモデル化する画像ピラミッドタイプの多重解像度表現を周期的かつ継続的に更新することを含む。新たに取得される画像毎に、上記表現にオプティカルフロータイプの反復アルゴリズムが適用される。また、該方法は、オプティカルフローアルゴリズムによって生成されたデータに応答して、取得されたシーン内のマイクロコントラストのレベルを表す少なくとも1つのテクスチャリングパラメーターを取得し、速度の近似値を取得する。そのパラメーターには、後に一連の所定の判定基準が適用される。一連の判定基準が満たされる場合には、システムは、オプティカルフローアルゴリズムからコーナー検出器タイプのアルゴリズムに切り替わる。
【選択図】図1

Description

本発明は、無人機、詳細にはヘリコプター、クアッドリコプター(quadricopter:4翼ヘリコプター)等の回転翼無人機を操縦することに関する。
そのような無人機の一般的な例は、フランスのパリにあるParrot SAが提供しているARドローン(AR Drone)である。このARドローンは、一連のセンサー(3軸加速度計及びジャイロ、高度計)が取り付けられたクアッドリコプターである。その無人機は、その無人機が向けられるシーンの画像を捕捉する前方カメラ、及び無人機がその上空を飛行している地形の画像を捕捉する、垂直方向のカメラも設けられている。
無人機は、無線リンクを介して無人機に接続される遠隔制御デバイスによって、ユーザが操縦することができる。無人機は、安定してホバリング飛行するための自動システムも設けられ、自動システムは、特に無人機が自動的に平衡点に達することができるようにする役割を果たし、一旦、平衡点に達すると、空気の動き及びセンサーのドリフトのような外部作用に起因する並進の小さな動きを補正することによって、定点を保持するために必要とされるトリミング補正を与える役割を果たす。無人機の下に位置する超音波テレメーターである高度計は垂直速度の測定値を与え、それにより、無人機の高度を安定させるために、推力をサーボ制御できるようにする。さらに、慣性センサー(加速度計及びジャイロ)は、無人機の角速度及び姿勢角を或る特定の精度で測定する役割を果たし、それゆえ、重力の方向と反対の方向に沿って無人機の推力方向を動的にサーボ制御するために用いることができる。
ホバリング飛行を確立するために、無人機の線速度を除去するという問題が残されている。残念なことに、使用される低コストの加速度計は、一般的に雑音が多すぎて、それらの加速度計からの信号が2度積分されると、無人機の速度に関する満足のいく推定値を与えることはできない。
特許文献1(Parrot)は、前方監視カメラの画像から、そのカメラによって取得される一連の画像を解析し、画像内の種々の特徴的な点の動きを識別することによって、無人機の水平速度を推定することを提案している。
しかしながら、その技法は、特に最も遅い速度において、精度不足に陥る(無人機が低速で前方に動いているときに、捕捉されるシーンは、画像が切り替わっても、ほとんど変化を与えない)。また、その技法は、カメラによって捕捉されるシーンにおいて取り上げられる特徴点の有無に大きく依存する。すなわち、画像が一様であるとき、たとえば、壁又は屋外では空を示しているときには、特徴的な点は存在しないに等しいので、その技法は役に立たない。
本発明は、無人機の水平速度を評価するために、前方監視カメラによってではなく、垂直方向カメラによって供給される画像を使用することに基づく。
しかしながら、上記カメラによって取得された画像内の種々の点の動きを識別するには、難しい作業が残されており、その作業は、i)シーンの特性(コントラストの大小、すなわち、大きくなる方に変化しているか、小さくなる方に変化しているか)、ii)速度、及びiii)計算の複雑さを限定することの制約に同時に強く依存する。
具体的には、ホバリング中に自動安定化サーボ制御を実行することが望ましい場合には、サーボ制御を実効的かつ反応的に実行できるように、同時に正確であり、高感度であり(平衡点付近の線速度は非常に低い場合があるため)、そしてリアルタイムに入手可能である速度測定値を有することが適切である。
それにもかかわらず、本発明は、無人機のホバリング飛行を安定させるという目的のために速度を評価することには限定されないこと、そして、無人機が最大速度(約5メートル/秒(m/s))に近い値で動いている場合をも含んだ、無人機の全ての飛行形態に広く適用可能であることに気づくべきである。
ビデオカメラによって捕捉されるシーンにおける移動速度を推定できるようにする種々のアルゴリズムがある。
第1のタイプのアルゴリズムは、非特許文献1及び非特許文献2において記述されるものに基づく、いわゆる「オプティカルフローアルゴリズム」である。
また、非特許文献3も参照することができ、その文献は、着陸中に無人機を操縦するために、異なる解像度を用いてオプティカルフローを推定するための多重解像度技法を記述する。
オプティカルフロー法は、シーンに課される制約が非常に少ない(コントラスト、コンテンツをほとんど必要としない)という利点を与える。さらに、「多重解像度」手法を用いることによって、高速及び低速の両方の速度を推定することができる。その一方で、その方法は、回転、及び姿勢の変化に対して影響されやすいので、所与の結果の品質を本質的に検証することはできず、すなわち、そのアルゴリズムは常に大きな勾配を与えるだけの十分な点をもたらす結果を供給するが、その結果は無意味な場合であっても供給される。
要するに、オプティカルフロー法は、非常に広範囲の速度にわたって機能することができる「全地形」法であるが、必ずしも信頼性があるとは限らないばかりか、特に低速においてあまり正確ではない結果をもたらす。
別のタイプのアルゴリズムは、いわゆる、「コーナー検出器」又は「特徴点検出器」アルゴリズムを含み、その基本原理は、たとえば、非特許文献4及び非特許文献5において詳述される。
コーナー検出器アルゴリズムは正確かつロバストであり、回転を考慮に入れ、異常な評価結果を検出することができ、かつそれらの結果を除去することができる。さらに、その絶対精度は、速度にかかわらず一定であり(オプティカルフロー法とは異なる)、特に低速において優れた結果を得ることができ、その利点は、ホバリング飛行の安定化及びサーボ制御のためにその結果を用いることが望ましい場合に特に顕著である。
その一方で、その方法は、コントラスト及びテクスチャに関して、シーンに対してはるかに多くの制約を課し、それは遭遇する場合がある全ての状況に適用できないことを意味する。
最後に、全ての状況下で、無人機の或る特定の自動操縦制御をサーボ制御するためにその計算結果を用いるには、そのデータが実際にリアルタイムに入手可能である必要があり、何が起きても、可能な限りの反応度で無人機を自動操縦できることを確保するのに十分迅速に入手可能である必要がある。
この制約は、多くの場合に高速のプロセッサ及び大きな記憶容量を有するコンピューター上で実行されるように設計される従来のアルゴリズムを実施する可能性を制限する。
国際公開第2009/109711号
LUCAS B. D. 及びKANADE T.著「An Iterative Image Registration Technique with an Application to Stereo Vision」(Proc. DARPA Image Understanding Workshop, pp. 121-130, 1981) HORN B. K. P.及びSCHUNK B.著「Determining Optical Flow」(Artificial Intelligence, (17): pp. 185-204, 1981) MONDRAGON I.他著「3D Pose Estimation Based on Planar Object Tracking for UAVs Control」(Proc. IEEE Conf. on Robotics and Automation, pp. 35-41, May 3-8, 2010) ROSTEN E.及びDRUMMOND T.著「Fusing Points and Lines for High Performance Tracking」(IEEE International Conference on Computer Vision, pp. 1508-1511, 2005) ROSTEN E.及びDRUMMOND T.著「Machine Learning for High-Speed Corner Detection」(European Conference on Computer Vision, pp. 430-443, 2006)
本発明の目的の1つは、上記の2つの技法、すなわち、オプティカルフロー及びコーナー検出の利点を併せ持つ新規の方法を提供すること、そして限定はしないが、特に、ホバリング飛行中の無人機をサーボ制御するために速度を検出することとの関連で、その方法を提供することである。
本発明の別の目的は、無人機が非常に変わりやすく、予測不可能である地形の上空を飛行しているときに生じるような、コントラストが非常に低く雑音が高いシーン、又は、画像内で識別される形状の外見が予測不可能に変化しやすいシーンであっても、これらの利点から利益を得ることができるようにすることである。
本発明のさらに別の利点は、無人機内に組み込まれる、それゆえ、計算能力に関して制限される能力を有する機上コンピューターによって速度のリアルタイム測定値を供給するように実施されるのに適している、水平速度を測定する方法を提案することである。
この目的を達成するために、本発明は、無人機、特に、無人機がその上空を飛行している地形に対して無人機の高度を測定するのに適している高度計と、その地形のシーンの連続したデジタル画像を取得するのに適している、下方監視垂直方向ビデオカメラとを備える無人機の水平並進速度を評価する方法を提供する。
本発明は、画像間でカメラによって取得されるシーンの動きを推定することによって、かつその推定された動きに対して、測定された高度の関数であるスケールファクターを適用することによって機能する。
それ自体が知られているように、動きの推定は、シーンの所与の取得される画像を連続的に減少する異なる解像度においてモデル化する画像ピラミッドタイプの多重解像度表現を周期的かつ継続的に更新すること;及び画像間でシーンの差分の動きを推定するために、新たに取得された画像毎に、上記多重解像度表現にオプティカルフロータイプの反復アルゴリズムを適用することを含む。
本発明の特徴的な態様では、その方法はさらに、オプティカルフローアルゴリズムによって生成されたデータから、取得されたシーン内のマイクロコントラストのレベルを表す少なくとも1つのテクスチャリングパラメーターを得ること;無人機の水平並進速度の近似値を得ること;そのテクスチャリングパラメーター(複数可)及びその速度近似値に第1の一連の所定の判定基準を適用すること;並びに第1の一連の所定の判定基準が満たされる場合には、画像間でシーンの差分の動きを推定するために、オプティカルフローアルゴリズムからコーナー検出器タイプのアルゴリズムに切り替えることを含む。テクスチャリングパラメーターは、画像の勾配成分の行列:
Figure 2012006587
から導出されるパラメーターである。ただし、I及びIは画像の勾配成分であり、Eは、勾配が所定の第1の有用なしきい値よりも大きなノルムを与える点の集合である。
テクスチャリングパラメーター(複数可)は、詳細には、上記行列のトレースの値、及び勾配が第1の所定の有用なしきい値よりも大きなノルムを与える点の集合Eのカージナル数とすることができる。
オプティカルフローアルゴリズムからコーナー検出器アルゴリズムに切り替わるか否かを判断するための第1の一連の所定の判定基準は、詳細には、以下の条件、すなわち、トレースの値が第2の所与のしきい値よりも大きいこと;及びカージナル数の値が第3の所与のしきい値よりも大きいこと;及び速度推定値が第4の所与のしきい値よりも小さいこと、を累積的に含むことができる。
選択されたアルゴリズムがコーナー検出器アルゴリズムであり、速度近似値が第5のしきい値よりも小さいとき、コーナー検出器アルゴリズムも、有利には、少なくともいくつかの選択されたトラッカーに対して、トラッカーの探索パラメーター、及び制限方向における画像内の探索ゾーンの大きさを変更することによって適合する。有利には、そのような状況下で、無人機を所定の位置にサーボ制御する自動操縦モードを起動することも提供される。
本発明の第2の態様では、その方法は、コーナー検出器アルゴリズムに切り替えた後に:コーナー検出器アルゴリズムによって生成されたデータから、コーナー検出器アルゴリズムによって画像間でシーンの差分の動きを推定する際に失敗するリスクを表す少なくとも1つのパラメーターを得ること;無人機の水平並進速度の近似値を得ること;失敗リスクパラメーター(複数可)及び速度近似値に第2の一連の所定の判定基準を適用すること;並びに、第2の一連の所定の判定基準が満たされる場合には、画像間でシーンの差分の動きを推定するために、オプティカルフローアルゴリズムに戻ることを含む。失敗リスクパラメーターは、詳細には、コーナー検出器アルゴリズムによって用いられるロックオンされたトラッカーの数を含むことができる。
オプティカルフローアルゴリズムに戻るか否かを判断するための第2の一連の所定の判定基準は、詳細には、以下の条件、すなわち、ロックオンされたトラッカーの数が第6の所与のしきい値未満であること;又は速度推定値が第7の所与のしきい値よりも大きいこと、のいずれかを含むことができる。
最後に、その方法は、第1のアルゴリズム、すなわち、オプティカルフローアルゴリズム又はコーナー検出器アルゴリズムから他方のアルゴリズムに切り替わった後に取得された連続した画像の数をカウントすること、及び他方のアルゴリズムに切り替わった後に或る最小画像数をカウントすることを条件として、第1のアルゴリズムに戻ることを提供することができる。
無人機、及びその無人機を遠隔で操縦できるようにする関連する遠隔制御装置を示す概略図である。 画像ピラミッド、すなわち、垂直方向カメラによって取得されるシーンの多重解像度表現の図である。 オプティカルフロータイプのアルゴリズムの種々のステップの包括的な流れ図である。 コーナー検出器アルゴリズムの種々のステップの包括的な流れ図である。 一方のアルゴリズムから他方のアルゴリズムに切り替わるための或る特定の数の判定基準に応じて、推定器(オプティカルフロー又はコーナー検出器)を選択するための本発明のアルゴリズムの不可欠なステップを示す図である。
これ以降、添付の図面を参照しながら本発明の実施態様を説明する。
以下に、本発明の実施態様を説明する。
図1において、参照番号10は無人機、たとえば、フランスのパリにあるParrot SAが提供しているARドローンのようなクアッドリコプターの全体を参照する。無人機10は同一平面の4つのローター12を有し、該ローターのモーターは、統合された、飛行及び姿勢制御システムによって独立して制御される。
また、無人機10は、無人機が向けられるシーンの画像を取得する役割を果たす第1の前方監視カメラ14と、無人機がその上空を飛行している地形18の連続したデジタル画像を取得するのに適している、下方監視垂直方向カメラ16とを備える。図式的に20で示される、このカメラの視角は、たとえば、64度の斜めの線を有することができ、解像度は176×144ピクセルである(これらの値は、もちろん、単に例示として与えられる)。
また、無人機10には、超音波高度計22も設けられており、超音波高度計は、地面に向かってビーム24を放射し、地面に対する無人機の高度を常に特定する役割を果たす。この情報は、詳細には、画像が取得されるときに該画像内のシーンの動きを地形18に対する速度に関する情報に変換できるように、カメラ16によって取得される画像に適用されるスケールファクターを推定するために用いられる。
最後に、その無人機は、無人機の角速度及び姿勢角を或る特定の精度で測定する役割を果たす慣性センサー(加速度計及びジャイロ)を備える。
無人機10は、遠隔制御装置26、たとえば、前方監視カメラ14によって取得される画像を表示するタッチスクリーン28を有する装置を、単にスクリーン28に指30で触れることによってユーザが操縦コマンドを起動できるようにするために、その上に重ね合わせられる或る特定の数の記号と共に用いて、操縦することができる。遠隔制御装置26は、ロール軸及びピッチ軸を中心に遠隔制御装置を対応するように傾けることによって、無人機の姿勢を制御できるようにする傾斜センサーも設けられる。
また、その無人機は、ユーザによって適用される外部コマンドが存在しない場合に、ホバリング飛行を安定させるための独立したシステムも設けられる。
そのシステムは、適切なトリムコマンド、すなわち、空気の動き及びセンサーのドリフトのような外部作用に起因する並進の最低限の動きを補正するためのコマンドを発令することによって、定点での平衡を保持するために必要とされる補正をもたらす役割を果たす。
動作できるようにするために、自動スタビライザーシステムは、速度情報、詳細には、無人機の並進の水平線速度についての情報を有する必要がある。
カメラによって取得されるシーンの画像内の変化に応じて、連続した画像間で検出され、追跡される形状の動きから、上記線速度の方向及び大きさを推定するために、本発明は、無人機に設けられた垂直監視ビデオカメラ22を用いることを提案する。
以下の仮定が行なわれる。
・第一に、そのシーンは「平坦な」シーンである、すなわち、地形18が水平であると仮定される。機上テレメーターは、無人機からシーン(地形18)までの距離の測定値を与えるが、用いられる技術(超音波)は、この距離が評価される画像内の正確な点を特定することはできない。それゆえ、そのシーンにわたって、テレメーターによって与えられるデータに対して高度がほとんど変化しないと仮定され、かつシーン内の全ての点が画像の焦点面から同じ距離に位置すると仮定され、シーン深度のいかなる影響も無視する。具体的には、この仮定は、通常、カメラ及びテレメーターが地面を監視しているときにはいつでも当てはまる。
・第二に、シーンの輝度は一定であると仮定され、カメラの反応は一定であると暗黙的に仮定される。
・最後に、一連の画像から速度を推定する際の難しさを削減するために、観測中のシーンは動かないと仮定される。
一定のオプティカルフローに基づくアルゴリズム
以下において、上記の刊行物である非特許文献1及び非特許文献2から知られている、このタイプのアルゴリズムの主要な特徴を説明し、さらなる詳細については、それらの文献を参照することができる。
詳細には、オプティカルフローが局所的に一定であるという条件で、すなわち、カメラによって取得されるシーン内の点毎にオプティカルフローの動きが同じであるという条件でLucas-Kanade推定法を用いることができ、その方法は簡単かつ迅速である(この仮定は、シーンが正確に平面であり、動きが、光軸を中心にする回転を伴うことなく、カメラの焦点面に対して平行であり、かつシーンの輝度が一定であるという条件の場合に当てはまる)。
この方法の欠点は、該方法が画像信号のテイラー近似に基づいており、それにより、確実に検出することができる最大速度が数ピクセルのみに低減されることである。
その欠点を軽減するために、元の画像の一連の連続的な縮小画像を作成することによって、多重解像度手法によって理論的に検出可能である最大速度を高めることができる。この手法は、「画像ピラミッド」としても知られており、図2において図示される。この例では、176×144ピクセルの解像度を有する完全な画像(レベル0)から始めて、同じ画像が2分の1ずつ縮小して再利用され、レベル1は88×72ピクセルであり、レベル2は44×36ピクセルであり、レベル3は22×18ピクセルである。
推定されるオプティカルフローの精度は、実行される縮小に反比例するが、対応する最大検出可能速度は縮小のレベルに比例して増加する。
多重解像度手法は、最も低い解像度(ここでは、レベル3)において一定のオプティカルフローを推定し、その後、その結果を次の解像度(レベル2)のための予測として再び導入することからなる。画像の粗いバージョン(たとえば、レベル3)で作業する利点は、画像内で非常に小さな動きしか許されず、それゆえ、点追跡が非常に速いということにある。その後、このようにして得られた動き情報を用いて、より低いレベルにおける画像内の動きを予測することができる。十分な精度が得られるまで、このようして、レベルからレベルへと進行し続ける。具体的には、レベル3(3段階の連続的な縮小)において推定を開始し、レベル1(1段階の縮小)において終了すれば十分であり、それにより、極めて迅速に正確な結果を得ることができる。レベル0(完全な画像)を諦めることによって、計算の約75%の節減を達成できるようになり、それにより、計算時間と、結果の精度との間の有効な歩み寄りを確保することができる。
最も低いレベル(ここでは、レベル1)において用いられる予測は、この解像度のスケールに一致する、最後に推定された速度である。
低解像度誤差は、解像度が高くなるときに、さらに大きな誤差を引き起こすので、連続した各推定値が先行する推定値と同じ方向にあること、そして、その推定値が或る特定のしきい値よりも大きいときに、平滑化された信号と同じ方向にあることを検証することによって、各予測の確度を検証することが適切である。平滑化された信号は、カメラの動きを指数平滑化することによって得られる。この信号は、速度の推定に失敗した場合において十分直ちに更新されないときは、0に向かうように減衰する。これが行なわれない場合、この信号そのものが異常になるであろう。
図3は、フローチャートの形で、上記のオプティカルフローアルゴリズムによって実施される種々のステップを要約する。
このアルゴリズムを適用することによって一定のオプティカルフロー(F,F)を推定した後に、2つの画像間での動きの推定値を推定するためには、基準座標系の変更(カメラの基準座標系以外の基準座標系において撮影するため)、及びスケールの変更(カメラの焦点距離Length及びシーンまでの距離Altitudeを使用する)を実行すれば十分である。
Figure 2012006587
オプティカルフローを推定するために用いられる画像間での任意の回転を補償することも適切である。この回転情報は慣性ユニットによってもたらされ、導入されるおそれがある誤差(像平面と回転軸に対して垂直な平面との間の交線に沿って成分を追加する回転)は、推定されたフローに、2つの画像間での回転に起因する光心の動きを加算することによって補償することができる。
Figure 2012006587
ただし、
rotationは補償されるべき回転であり、
projは空間内の点をスクリーン上に投影する関数であり、
(C,C)は画像の中心であり、
Gは補償の利得である。
その補償は、非常に大きなベースにおいて最適な利得Gを計算することによって最適化することができる。並進が0の場合の理想的な利得は1に等しいので、結果として生成される最適利得は1未満であり、平均的にのみ最適である。したがって、速度が0の状況の場合に1の利得を保つ(ホバリング中に定点をサーボ制御する)ことが、より有効である場合がある。
回転を補償することによって、ホバリング中に回転の発生に直面しても、計算をロバストに行なうことが可能になり、とりわけ、この計算が線形動きモデルを保存することが可能になり、この線形動きモデルによって、計算に関して準トランスペアレントに予測を適用することが可能になる(画像全体の変化が、ポインターを移動させることになる)。
コーナー検出に基づくアルゴリズム
以下において、それ自体が特に上記の刊行物である非特許文献3及び非特許文献4から知られている、このタイプのアルゴリズムの主な特徴を説明し、さらなる詳細については、それらの文献が参照することができる。
このアルゴリズムは、画像内の種々の特徴点(「コーナー」)の動きを推定することによって機能する。このために、そのアルゴリズムは、特徴点を追跡する役割を果たす、いわゆる「トラッカー(tracker)」構造を使用し、トラッカー構造は後続の画像において上記点を見つけるために必要とされる情報を提供する。トラッカーが画像間で点を追跡できるとき、「ロックオンされた」と言われる。そうでない場合には、「失われた」と言われる。
画像の第1の解析は、たとえば、「加速セグメントテストからの特徴点(FAST:feature from accelerated segment test)」として知られているタイプのコーナー検出を用いることによって、特徴点を検出する役割を果たす。その後、そのアルゴリズムは、そのコンテンツが有効であることを検証した後に、これらのコーナー上にトラッカーを配置するか、又は1つの画像内の特徴点が多くの場合に後続の画像内でも特徴点のままであると仮定して、これらの点のうちの1つにおいてトラッカーの新たな位置を探し出そうとする。したがって、新たな画像内のトラッカーのための探索ゾーンは、特徴位置のリストに限定される。また、計算時間及びロバスト性を最適化するために、探索ゾーンはトラッカーの先行する動きに応じて限定される。
FASTコーナー検出器は、コントラストしきい値を一定にし、かつ経路半径を一定にして、さらには50%まで縮小された画像のバージョンにおいて捕捉が実行されるようにして、メモリアクセス回数を低減するように最適化される。検出器に反応する位置はテーブル内に格納され、画像上にマークされる。そのテーブルは、(新たなトラッカーを位置決めするための)位置に関していかなる制約も課すことなく、コーナーに迅速にアクセスできるようにし、その画像は、それらの位置が(位置決めされたトラッカーを探すために)ランダムにアクセスされることを可能にする。
後続のステップは、二重指数平滑化によってトラッカーの将来の位置を予測することからなる。トラッカーが非常に遅いとき、その予測される位置は、その現在の位置と同一であるとみなされる。トラッカーのための探索長方形は、予測される位置と、先行する画像内の実際の位置との間の距離に応じてサイズを変更する。探索半径は、大きすぎるときには縮小され、実際の距離に近すぎるときは伸長される(最大半径は、新たに配置されたトラッカー毎に用いられる)。
トラッカーが画像上に配置されるときに、その位置を中心にして固定のサイズ(たとえば、7×7ピクセル)の画像断片又は「パッチ」が記録され、このパッチが、後続の画像において探索される。異なるパッチを比較するために用いられる距離は、絶対差の和である。
Figure 2012006587
トラッカーを探索するために、予測された位置の周囲の位置が、螺旋経路に従って走査され、コーナー毎に記述子に対する距離が計算され、その距離が以下の3つのしきい値と比較される。
・高いしきい値であり、そのしきい値未満では、特徴位置でない場合であっても、現在の位置に直に隣接する8つの位置のテストが許される。
・低いしきい値であり、そのしきい値未満では、半ピクセル探索後に探索が中止される。
・中間のしきい値であり、そのしきい値は、低いしきい値を通過するために、半ピクセル探索を許可する。
コーナー検出器は、画像内の本物のコーナーに反応するだけではないので、しばしば、望ましくない位置が特徴位置として分類されることが起こり得る。
これらの望ましくない位置は、本物のコーナーで生じるように、明確な最小値を与える代わりに、その周囲において絶対差の和が概ね一定であり、かつ雑音を含む位置である。したがって、最低限のコントラスト量が必要とされ、その際、潜在的な記述子であると見なされる各パッチにおいてテストが実行される。2値化された経路は、テストによって、そのコンテンツが表面的なものであるか否かを判断し、解析中のパッチを拒否又は容認する役割を果たす。
図4は、上記のコーナー検出器アルゴリズムによって実施される種々のステップを要約するフローチャートである。
定点サーボ制御において用いるための速度を推定することに関連して、一旦これらの種々の動作が実行されると、以下に記述されるように、コーナー検出を非常に低い速度に適合するように変更することが好都合である場合があり、それは「ゴールドモード」と呼ばれる。
速度が遅いとき、その推定値は、より雑音を多く含む。トラッカー精度はピクセルの半分に限定されており、それゆえ、速度誤差は、高度が高くなるにつれて大きくなる。その際、任意の速度を相殺する代わりに、カメラの位置を定位置にサーボ制御することが好ましい場合がある。
言い換えると、ドリフト(誤差の累積、風等)を避けるために、サーボ制御が速度値(その値そのものは非常に低い)から独立するように、無人機を速度においてではなく、位置においてサーボ制御することが好ましい。
位置に対するサーボ制御を提供するために、かつトラッカーがメモリを一切持たない(失われたトラッカーを見つけることができない)と仮定すると、長い寿命を与えるトラッカーに頼る必要がある。それゆえ、カメラの速度が遅いときには、特定のトラッカーを、より長く動作し続けられるようにする特殊なモードに変更することができる。用いられるアルゴリズムは実際にはさらに複雑であるが、この複雑さは、探索ゾーンを小さくすることによって補償される。
このために、限られた半径にわたって、トラッカーによって網羅的な探索が実行され、その後、半ピクセル探索によって追随される。さらに、トラッカーの基準パッチにおいて、さらには、トラッカーが比較されることになるパッチにおいても、ローパスフィルタリングが実行され、それにより、エイリアシング(スペクトルフォールディング)及びモアレ図形のような干渉するサンプリング現象に直面するときのロバスト性を高める。
「ゴールド」モードに変更するためには、トラッカーの動きの平均量が所与のしきい値よりも低くなる必要があり、その際、最小限の画像数にわたってロックオンされているトラッカーは変更されて、「ゴールド」トラッカーになり、優先権は中央のトラッカーに与えられる。
少なくとも1つのトラッカーが「ゴールド」モードに変更されたとき、並進の付加的な動きが推定され、速度には変換されない。その際、サーボ制御は、最新の動きを補償する代わりに、「ゴールド」モードが確立された時点で監視していた場所にカメラを戻そうとする。トラッカーを追加することが基準位置を現在の位置で更新することを伴う場合であっても、「ゴールド」トラッカーを追加しようとする試みが規則的に行なわれる。
コーナー検出器アルゴリズムによって速度を評価する際の最後のステップは、画像間で並進の動きを推定するからなる。
追跡アルゴリズムは、シーン内の複数の点の画像における動きを与えるので、シーンが平面であると仮定すると(カメラが地面を監視しているので、その仮定は理にかっている)、これらの点から欠けているのは、深度情報だけである。
カメラの動きは、反復再重み付け最小二乗逆投影誤差の和を最小にすることによって、トラッカーの動きから推定される(逆投影誤差は、最新の画像内で見られる位置と、カメラが動いた後の理論的な位置との間の距離である)。
トラッカーの動きの量がしきい値よりも大きい場合には、瞬間速度を推定する代わりに、最新の画像の捕捉時点と早期の画像の捕捉時点との間の動きを推定することもできる。これは、計算ために利用することができるトラッカーの数を最小限に抑えるという効果を有するが、最終的に推定される速度の値を平滑化しながら、トラッカーの位置に関する雑音の大きさを相応に低減する。
より適切なアルゴリズムを選択すること
序文において詳述されるように、これら2つのアルゴリズム、すなわち、オプティカルフロー及びコーナー検出はそれぞれ特有の利点及び欠点を与える。
本発明の創意は、これら2つのアルゴリズムを選択肢として用いることにあり、いかなるときでも、それらのアルゴリズムのうちのいずれが種々の制約(低速又は高速、より大きなレベル又はより小さなレベルのコントラスト及びテクスチャを有するシーン等)に、より適合しているかを選択するからなる。
新たに画像が処理される度に、次の画像に対してアルゴリズムが変更されるべきであるか否かに関する問題が生じ、アルゴリズムのうちのいずれが、より良好な結果を与えることを先験的に予想することができるかを判断することによって、これが行なわれる。
それにもかかわらず、アルゴリズム間の切替えは、計算時間に関して付加的な犠牲を伴うので、切り替える場合に、最初の2つの連続した画像が取り込まれたら、新たなアルゴリズムが最適に機能することができるか否かを判断することも重要である。
上記で説明されたように、それらのアルゴリズムはいずれも、初期に適用される前処理ステージと、その後に適用される更新ステージとを必要とする。したがって、
・オプティカルフローに基づくアルゴリズムは、カメラによって捕捉される各画像から画像ピラミッドを形成し、その処理の終了時に、この画像ピラミッドの古いバージョンを更新する。そして、
・コーナー検出器アルゴリズムは、前処理中に画像の縮小されたバージョンにおいてコーナーを入手する必要があり、その更新は、後続の画像の前に、コーナー上にトラッカーを置き換えることを含む。
それゆえ、コーナー検出器アルゴリズムは、先行する画像からコーナーが既に入手されていなかった場合には、動作することはできない。コーナーが一切ない場合、トラッカーを一切配置することができないので、次の画像において追跡されるべきトラッカーが存在しなくなる。古いトラッカーを保存することは、あまりにも大きな画像ゾーンにおいてそれらのトラッカーを探索することを伴うことになり、その間に回転を受けている場合もあるので、考えることはできない。
残念なことに、縮小された画像であっても、コーナーを入手することは、計算時間に関してコストがかかる演算であるので、不必要なときには、すなわち、オプティカルフローアルゴリズムの方が適合していると考えられる場合には、この演算を避けることが見込まれなければならない。
対照的に、オプティカルフローアルゴリズムの前処理は高速であり、更新は、単にポインターを交換することによって実行することができるので、計算時間に関してコストがかからないことに気づくべきである。さらに、第1の画像縮小(レベル0からレベル1への移行)は、両方のアルゴリズムにとって有益であるので、決して無駄ではない。
それゆえ、オプティカルフローアルゴリズムの前処理及び更新を毎回実行する一方で、コーナー検出器アルゴリズムは特に速度が遅いので、コーナー検出器アルゴリズムの方が良好なアルゴリズムであるときにのみ、その前処理及び更新を実行することが適切である。
さらに、オプティカルフローアルゴリズムは任意のタイプのシーンにより良好に適合するので、デフォルトで用いられるアルゴリズムはオプティカルフローアルゴリズムである。
最後に、各アルゴリズムは、第1のアルゴリズムへの逆方向の切替えは回避される或る量の「クレジット」、すなわち、アルゴリズムを切り替えた後の或る最小画像数を与えられる。このクレジットはオプティカルフローからコーナー検出への切替えを制御する場合には通常10画像であるが、反対の切替えの場合には数画像のみである(相対的に長いコーナー入手前処理が計算速度を過度に遅らせないようにするため)。
図5を参照して、これ以降、どちらの推定器アルゴリズムが、より良好に適合するかを選択するためのアルゴリズムが説明される。
上記のように、画像ピラミッドが形成され、新たな画像毎に毎回更新される(ブロック100)。或る最小限の数の画像が経過した(クレジットが使い果たされた)場合で(テスト102)、かつ選択されたアルゴリズムがオプティカルフローである場合には(テスト104)、問題は、オプティカルフローからコーナー検出への移行を行なうべきであるか否かである。このために、そのシーン及び動きがコーナー検出とって相応しいか否かを判断することが適切である。
オプティカルフローアルゴリズム(ブロック106)は、予測及び整合性テストのために用いられるような、推定された速度のバージョンを既に知っている。このデータは、動きは速い傾向にあるか、遅い傾向にあるかを良好に示す。それは、粗いアルゴリズム誤差に対してロバストであり、コーナー検出器アルゴリズムの場合の予測として再導入されることもできる。
1つの変形では、又はさらに、この速度推定は、慣性ユニットによってもたらされる情報から得ることができる。
上記のように、動作できるようにするために、コーナー検出器アルゴリズムのみが特殊なコンテンツを必要とする。
それにもかかわらず、シーンコンテンツ推定器を実現することは難しく、その唯一の目的が、オプティカルフローアルゴリズムからコーナー検出器アルゴリズムに切り替わる際の潜在的な利点の評価に用いられることであるとすると、複雑さの点から余分な犠牲を払うことになる。
その代わりに、推定に関するオプティカルフロー法の「副産物」が使用される。この方法は、各画像において、Lucas-Kanade公式を計算することを伴う。
Figure 2012006587
ただし、
及びIは画像の勾配の成分であり、
Eは、勾配が第1の所定の有用なしきい値よりも高いノルム(絶対値)を与える点の集合である。
この公式において、画像の勾配の成分の行列である、反転のための中央の正方行列
Figure 2012006587
がいずれにしても計算される。
その結果が画像全体にわたって一定であるという条件がある限りにおいて、その行列は、画像全体の勾配についての情報を保持し、そのために、この行列が調べられることに気づくべきである。
この行列のトレースの値が使用され、この値はEにわたる勾配の平均ノルムの推定値を与える。
Eが十分な点を含む場合(すなわち、そのカージナル数が所与のしきい値よりも高い場合)で、かつそのトレースの値が十分に大きい場合に、このことは、取得されたシーンがテクスチャを有する、すなわち、シーンが、そのアルゴリズムを満足のいくように実行することができるだけ十分なマイクロコントラストを含むという良好な指示となる。
判断しきい値は、コーナー検出器において用いられるコントラストしきい値に応じて調整されるべきである。
数学的には、急な平均勾配は、コーナーが存在することを確実に保証するものではないが、統計的には、この指標は有効に機能し、この急な平均勾配を超えると、いかなる付加的な計算も伴わない。
シーンに関するこの「テクスチャ指標」は、それだけでは、コーナー検出器が用いられる場合に十分な数のトラッカーを保証するシーン品質を測定することはできないので、この指標を他のパラメーターと組み合わせる必要がある。
以下のものが代表的なパラメーターとして選択される。
・特徴ゾーンが画像内によく分散しているか否かを示すテクスチャ指標に用いられる点の数(Eのカージナル数);及び
・速度が「概して速い」か、又は「概して遅い」かを判断できるようにする、速度推定値(平滑化された信号によって与えられる速度をいくつかの画像にわたって平均したもの)。
こうして、以下の条件の3つ全てが合わせられる場合(テスト108):すなわち、
・テクスチャ指標のスコア(行列のトレース)が第1のしきい値よりも高く、かつ
・用いられる点の数(カージナル数E)が第2のしきい値よりも大きく、かつ
・推定された速度が第3の所与のしきい値よりも小さい場合には、コーナー検出器アルゴリズムに切り替わることが決定される(ブロック110)。
上記のように、現在の画像の処理は、画像ピラミッドを更新することで終了し、これがあらゆる場合に行なわれる(ブロック112)。
ここで、現時点で選択されたアルゴリズムがコーナー検出器であると仮定される(ブロック114)。
したがって、検討すべき事柄は、オプティカルフローアルゴリズムに戻ることが好ましいか、それともコーナー検出器アルゴリズムのままでいることが好ましいかを判断することである。なお、この場合において、いくつかのトラッカーに対して上記の「ゴールド」モードを起動することが適切であろうとなかろうと、コーナー検出器アルゴリズムのままでいることが好ましいかを判断する。
コーナー検出器アルゴリズムがLucas-Kanade公式を使用しない限り、オプティカルフローアルゴリズムと共に用いられたシーンテクスチャ指標はもはや利用することはできない。
しかしながら、コーナー検出器アルゴリズムが現在の画像を処理するのに依然として適切であるか否かを判断するために、コーナー検出器アルゴリズムの動作に依拠することができる。
処理の終了時にロックオンされたトラッカーの数は、並進の動きが推定された品質のための指標ではない(それゆえ、速度が評価された)。すなわち、多数のトラッカーを使用していても質の悪い推定値を得る可能性もあるし、1つのトラッカーしか使用していなくても優れた推定値を得る可能性もある。同様に、トラッカーが動かされる画像ゾーンに関してトラッカーによって得られる類似度スコアは、位置決め誤差には関連付けられない。トラッカーの数を増やすことによってのみ、平均して、満足のいく結果を保証することができる。
それゆえ、ロックオンされたトラッカーの数は、コーナー検出器アルゴリズムが長期的に見て失敗するリスクに関する指標を与え、その状況はオプティカルフローアルゴリズムに直ちに切り替わることによって避けることができる(オプティカルフローアルゴリズムは概ね失敗しないが、誤差がわずかに増加することを犠牲にする)。
したがって、以下の2つの条件のうちのいずれか一方が満たされる場合には(テスト116)、システムはオプティカルフローアルゴリズムに戻る。
・平滑化された速度推定値が所与のしきい値よりも大きいか、又は
・ロックオンされたトラッカーの数が別の所与のしきい値よりも小さい。
これらの条件のいずれかが満たされる場合には、オプティカルフローアルゴリズムへの逆の切替えが実行される(ブロック118)。
上記のように、現時点でどちらのアルゴリズムであるかにかかわらず、画像ピラミッド更新はいつでも実行されるので、その画像の処理は画像ピラミッドを更新することで終了になる(ブロック112)。
テスト116において、コーナー検出器アルゴリズムが維持されるべきであることがわかった場合には、「ゴールド」モードが稼働されているか否かが検証される(テスト120)。
・「ゴールド」モードが稼働されている場合には、現在の状況が保たれ、コーナー検出器アルゴリズムが現状のまま維持される(ブロック110);
・そうでない場合には、トラッカーの動きの平均量が推定され(テスト122)、所与のしきい値未満である場合には、i)或る最小限の数の画像にわたってロックオンされていたトラッカーが「ゴールド」モードに移行され、ii)基準位置が格納され、iii)アルゴリズムがコーナー検出器モードに保持される(ブロック124)。
再び、画像処理は画像ピラミッドを更新することで終了になる(ブロック112)。

Claims (10)

  1. 無人機、特に、自動操縦下でホバリング飛行することができる回転翼無人機の水平並進速度を評価する方法であって、前記無人機は、
    該無人機がその上を飛行している地形に対する該無人機の高度を測定するのに適している高度計と、
    前記地形のシーンの連続したデジタル画像を取得するのに適している、下方監視垂直方向ビデオカメラとを備え、
    該方法は、画像間で、前記カメラによって取得された前記シーンの動きを推定すること、及び前記推定された動きに対して、前記測定された高度の関数であるスケールファクターを適用することを含み、
    前記動きの推定は、
    連続的に減少する異なる解像度において前記シーンの所与の取得された画像をモデル化する画像ピラミッドタイプの多重解像度表現を周期的かつ継続的に更新すること、及び
    新たに取得された画像毎に、画像間での前記シーンの差分の動きを推定するために、前記多重解像度表現にオプティカルフロータイプの反復アルゴリズムを適用することを含み、
    該方法は、
    前記オプティカルフローアルゴリズムによって生成されたデータから、前記取得されたシーン内のマイクロコントラストのレベルを表すと共に、前記画像の勾配成分の行列
    Figure 2012006587
    から導出される少なくとも1つのテクスチャリングパラメーターを得ること、ただし、I及びIは前記画像の前記勾配成分であり、Eは、前記勾配が所定の第1の有用なしきい値よりも大きいノルムを与える点の集合である、
    前記無人機の前記水平並進速度の近似値を得ること、
    前記テクスチャリングパラメーター(複数可)及び前記速度近似値に第1の一連の所定の判定基準を適用すること、及び
    前記第1の一連の所定の判定基準が満たされる場合には、画像間での前記シーンの差分の動きを推定するために、前記オプティカルフローアルゴリズムからコーナー検出器タイプのアルゴリズムに切り替わること、
    をさらに含む、方法。
  2. 前記少なくとも1つのテクスチャリングパラメーターは、前記画像の前記勾配成分の前記行列のトレースの値である、請求項1に記載の方法。
  3. 前記少なくとも1つのテクスチャリングパラメーターは、前記勾配が第1の所定の有用なしきい値よりも大きいノルムを与える点の前記集合Eのカージナル数である、請求項1に記載の方法。
  4. 前記少なくとも1つのテクスチャリングパラメーターは、前記画像の前記勾配成分の前記行列のトレースの値であり、かつ前記少なくとも1つのテクスチャリングパラメーターは、前記勾配が第1の所定の有用なしきい値よりも大きいノルムを与える点の前記集合Eのカージナル数であり、前記オプティカルフローアルゴリズムから前記コーナー検出器アルゴリズムに切り替わるか否かを判断するための前記第1の一連の所定の判定基準は、以下の条件、
    前記トレースの値が第2の所与のしきい値よりも大きいこと、及び
    前記カージナル数の値が第3の所与のしきい値よりも大きいこと、及び
    前記速度推定値が第4の所与のしきい値よりも小さいこと、
    を累積的に含む、請求項1に記載の方法。
  5. 前記選択されたアルゴリズムが前記コーナー検出器アルゴリズムであり、前記速度近似値が第5のしきい値未満であるとき、前記方法は、少なくともいくつかの選択されたトラッカーに対して、該トラッカーの探索パラメーター、及び制限方向における前記画像内の探索ゾーンの大きさを変更することによって、前記コーナー検出器アルゴリズムを適合させることをさらに含む、請求項1に記載の方法。
  6. 前記選択されたアルゴリズムが前記コーナー検出器アルゴリズムであり、前記速度近似値が第5のしきい値未満であるとき、前記方法は、前記無人機を所定の位置にサーボ制御する自動操縦モードを起動することをさらに含む、請求項1に記載の方法。
  7. 前記コーナー検出器アルゴリズムに切り替わった後に、
    前記コーナー検出器アルゴリズムによって生成されたデータから、前記コーナー検出器アルゴリズムによって画像間でのシーンの差分の動きを推定する際に失敗するリスクを表す少なくとも1つのパラメーターを得ること、
    前記無人機の前記水平並進速度の近似値を得ること、
    前記失敗リスクパラメーター(複数可)及び前記速度近似値に第2の一連の所定の判定基準を適用すること、並びに
    前記第2の一連の所定の判定基準が満たされる場合には、画像間での前記シーンの差分の動きを推定するために、前記オプティカルフローアルゴリズムに戻ること、
    をさらに含む、請求項1に記載の方法。
  8. 前記失敗リスクパラメーターは、前記コーナー検出器アルゴリズムによって用いられるロックオンされたトラッカーの数を含む、請求項7に記載の方法。
  9. 前記オプティカルフローアルゴリズムに戻るか否かを判断する前記第2の一連の所定の判定基準は、以下の条件、
    ロックオンされたトラッカーの数が第6の所与のしきい値よりも小さいこと、又は
    前記速度推定値が第7の所与のしきい値よりも大きいこと、
    のいずれかを含む、請求項8に記載の方法。
  10. 第1のアルゴリズム、すなわち、前記オプティカルフローアルゴリズム又は前記コーナー検出器アルゴリズムから他方のアルゴリズムに切り替わった後に取得された連続した画像の数をカウントすること、及び前記他方のアルゴリズムへの前記切り替えの後に或る最小画像数をカウントすることを条件として前記第1のアルゴリズムに戻ることをさらに含む、請求項1に記載の方法。
JP2011137925A 2010-06-22 2011-06-22 無人機、特に自動操縦下でホバリング飛行を行うことができる無人機の水平速度を評価する方法 Expired - Fee Related JP5854655B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1054945A FR2961601B1 (fr) 2010-06-22 2010-06-22 Procede d'evaluation de la vitesse horizontale d'un drone, notamment d'un drone apte au vol stationnaire autopilote
FR1054945 2010-06-22

Publications (2)

Publication Number Publication Date
JP2012006587A true JP2012006587A (ja) 2012-01-12
JP5854655B2 JP5854655B2 (ja) 2016-02-09

Family

ID=43562038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011137925A Expired - Fee Related JP5854655B2 (ja) 2010-06-22 2011-06-22 無人機、特に自動操縦下でホバリング飛行を行うことができる無人機の水平速度を評価する方法

Country Status (6)

Country Link
US (1) US8498447B2 (ja)
EP (1) EP2400460B1 (ja)
JP (1) JP5854655B2 (ja)
CN (1) CN102298070B (ja)
FR (1) FR2961601B1 (ja)
HK (1) HK1164450A1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102902277A (zh) * 2012-10-19 2013-01-30 北京航空航天大学 一种六旋翼飞行器有一个电机停机时的安全着陆方法
JP2013139256A (ja) * 2012-01-05 2013-07-18 Parrot 外乱を引き起こす動きを最小化しながら搭載型カメラによる撮影を行うための回転翼無人機の操縦方法
JP2013212832A (ja) * 2012-03-30 2013-10-17 Parrot 複数のローターを有する回転翼無人機用の高度推定器
JP2014063411A (ja) * 2012-09-24 2014-04-10 Casio Comput Co Ltd 遠隔制御システム、制御方法、及び、プログラム
KR101436555B1 (ko) 2013-06-25 2014-09-02 서울대학교산학협력단 무인비행로봇의 인터넷 기반 원격제어 시스템
CN105799923A (zh) * 2016-04-28 2016-07-27 南京信息工程大学 一种基于四旋翼飞行器的运载机械手
JP2016211878A (ja) * 2015-04-30 2016-12-15 新日本非破壊検査株式会社 浮上ロボットを用いた構造物検査装置及び構造物の検査方法
KR20170028839A (ko) * 2015-09-04 2017-03-14 홍유정 드론 컨트롤러
WO2017047118A1 (ja) * 2015-09-19 2017-03-23 ソフトバンク株式会社 無人航空機を利用した基地局設計支援システムおよび当該システムに使用されるサーバ
WO2017068998A1 (ja) * 2015-10-23 2017-04-27 ソニー株式会社 飛行制御装置、および飛行制御方法、マルチコプタ、並びにプログラム
JP6631900B1 (ja) * 2018-09-25 2020-01-15 株式会社エアロネクスト 飛行体
JP2020050340A (ja) * 2019-11-28 2020-04-02 株式会社エアロネクスト 飛行体
JP2021075276A (ja) * 2015-10-02 2021-05-20 インサイツ インク. 無人航空機のための空中発射及び/又は回収、並びに関連するシステム及び方法

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013105926A1 (en) 2011-03-22 2013-07-18 Aerovironment Inc. Invertible aircraft
FR2977333B1 (fr) * 2011-06-28 2014-01-31 Parrot Procede de controle dynamique d'attitude d'un drone, pour l'execution automatique d'une figure de type vrille ou salto
WO2013033954A1 (zh) 2011-09-09 2013-03-14 深圳市大疆创新科技有限公司 陀螺式动态自平衡云台
DE102012002033A1 (de) * 2012-02-03 2013-08-08 Aibotix GmbH Flugsystem
FR2988868B1 (fr) 2012-03-30 2015-04-24 Parrot Procede de pilotage d'un drone a voilure tournante a rotors multiples avec estimation et compensation du vent lateral
US9011250B2 (en) 2012-10-05 2015-04-21 Qfo Labs, Inc. Wireless communication system for game play with multiple remote-control flying craft
CN103365297B (zh) * 2013-06-29 2016-03-09 天津大学 基于光流的四旋翼无人机飞行控制方法
US8903568B1 (en) 2013-07-31 2014-12-02 SZ DJI Technology Co., Ltd Remote control method and terminal
JP2016541026A (ja) 2013-10-08 2016-12-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 安定化と振動低減のための装置および方法
CN103646384B (zh) 2013-12-20 2016-06-22 江苏大学 一种遥感扫描成像平台飞行速度的优化方法
CN104901727B (zh) * 2014-02-26 2018-02-09 清华大学 无人机队列编队协同的通信控制系统和方法
USD763133S1 (en) 2014-03-17 2016-08-09 Xray Airframe Design & Development, LLC Drone system component including rings
CN103913588B (zh) * 2014-04-10 2016-06-22 深圳市大疆创新科技有限公司 无人飞行器的飞行参数的测量方法及装置
WO2015154286A1 (zh) * 2014-04-10 2015-10-15 深圳市大疆创新科技有限公司 无人飞行器的飞行参数的测量方法及装置
US9798322B2 (en) 2014-06-19 2017-10-24 Skydio, Inc. Virtual camera interface and other user interaction paradigms for a flying digital assistant
US9678506B2 (en) 2014-06-19 2017-06-13 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US12007763B2 (en) 2014-06-19 2024-06-11 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
EP3161658B1 (en) 2014-12-19 2019-03-20 SZ DJI Technology Co., Ltd. Optical-flow imaging system and method using ultrasonic depth sensing
WO2016106715A1 (en) * 2014-12-31 2016-07-07 SZ DJI Technology Co., Ltd. Selective processing of sensor data
FR3032052B1 (fr) * 2015-01-26 2017-03-10 Parrot Drone muni d'une camera video et de moyens de compensation des artefacts produits aux angles de roulis les plus importants
NO339419B1 (en) * 2015-03-25 2016-12-12 FLIR Unmanned Aerial Systems AS Path-Based Flight Maneuvering System
FR3034554B1 (fr) * 2015-04-01 2017-04-28 Parrot Drone muni d'une camera video a visee verticale compensee des rotations instantanees pour l'estimation des vitesses horizontales
KR20160131720A (ko) * 2015-05-08 2016-11-16 엘지전자 주식회사 이동단말기 및 그 제어방법
CN113093808A (zh) * 2015-05-23 2021-07-09 深圳市大疆创新科技有限公司 使用惯性传感器和图像传感器的传感器融合
FR3037672B1 (fr) 2015-06-16 2017-06-16 Parrot Drone comportant des moyens perfectionnes de compensation du biais de la centrale inertielle en fonction de la temperature
CN105988474A (zh) * 2015-07-06 2016-10-05 深圳市前海疆域智能科技股份有限公司 一种飞行器的偏差补偿方法和飞行器
JP6673371B2 (ja) 2015-07-08 2020-03-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 可動物体を使用して障害物を検出する方法及びそのシステム
CN106170676B (zh) * 2015-07-14 2018-10-09 深圳市大疆创新科技有限公司 用于确定移动平台的移动的方法、设备以及系统
US9922282B2 (en) 2015-07-21 2018-03-20 Limitless Computing, Inc. Automated readiness evaluation system (ARES) for use with an unmanned aircraft system (UAS)
US9738399B2 (en) * 2015-07-29 2017-08-22 Hon Hai Precision Industry Co., Ltd. Unmanned aerial vehicle control method and unmanned aerial vehicle using same
CN106428619B (zh) * 2015-08-07 2019-03-12 中国电力科学研究院 一种输电线路无人机的性能检测方法
DE102015013104A1 (de) * 2015-08-22 2017-02-23 Dania Lieselotte Reuter Verfahren zur Zielanflungsteuerung von unbemannten Flugobjekten, insbesondere Lieferdrohen
FR3041136A1 (fr) * 2015-09-14 2017-03-17 Parrot Procede de determination d'une duree d'exposition d'une camera embarque sur un drone, et drone associe.
CN105120230B (zh) * 2015-09-15 2018-08-24 成都时代星光科技有限公司 无人机图像监控和传输系统
CN105120232B (zh) * 2015-09-15 2018-08-14 成都时代星光科技有限公司 无人机图像监控和传输方法
CN105120237B (zh) * 2015-09-17 2018-08-14 成都时代星光科技有限公司 基于4g技术的无线图像监控方法
CN105141924B (zh) * 2015-09-17 2018-03-30 成都时代星光科技有限公司 基于4g技术的无线图像监控系统
CN105120240B (zh) * 2015-09-22 2018-08-28 成都时代星光科技有限公司 高倍变焦无人机空中高清多维实时侦查传输监控装置
CN105208336B (zh) * 2015-09-22 2018-08-24 成都时代星光科技有限公司 高倍变焦无人机空中高清多维实时侦查传输方法
CN105208335B (zh) * 2015-09-22 2018-08-28 成都时代星光科技有限公司 高倍变焦无人机空中高清多维实时侦查传输系统
CN105208348B (zh) * 2015-10-08 2018-08-21 成都时代星光科技有限公司 铁路线空中无人机自动巡查与实时图像采集传输系统
CN105262989B (zh) * 2015-10-08 2018-08-14 成都时代星光科技有限公司 铁路线空中无人机自动巡查与实时图像采集传输方法
CN105208347B (zh) * 2015-10-08 2018-08-14 成都时代星光科技有限公司 铁路线空中无人机自动巡查与实时图像采集传输监控装置
CN105223575B (zh) 2015-10-22 2016-10-26 广州极飞科技有限公司 无人机、无人机的测距滤波方法及基于该方法的测距方法
CN105763842A (zh) * 2015-11-03 2016-07-13 天津艾思科尔科技有限公司 带有消防探测功能的飞行器
CN105763841A (zh) * 2015-11-03 2016-07-13 天津艾思科尔科技有限公司 探测器带有防护装置的飞行器
CN105763840A (zh) * 2015-11-03 2016-07-13 天津艾思科尔科技有限公司 带有热成像探测功能的防火减灾飞行器
CN105447853B (zh) * 2015-11-13 2018-07-13 深圳市道通智能航空技术有限公司 飞行装置、飞行控制系统及方法
CN105346706B (zh) * 2015-11-13 2018-09-04 深圳市道通智能航空技术有限公司 飞行装置、飞行控制系统及方法
US10258888B2 (en) 2015-11-23 2019-04-16 Qfo Labs, Inc. Method and system for integrated real and virtual game play for multiple remotely-controlled aircraft
CN105491338A (zh) * 2015-12-10 2016-04-13 天津艾思科尔科技有限公司 一种具有防盗功能的无人飞行器
CN105516667A (zh) * 2015-12-10 2016-04-20 天津艾思科尔科技有限公司 一种用于入侵预警的无人飞行器
CN105404306B (zh) * 2015-12-30 2017-12-01 谭圆圆 一种无人飞行器的操控评级方法及设备
KR20170081488A (ko) 2016-01-04 2017-07-12 삼성전자주식회사 무인 촬영 장치를 이용한 이미지 촬영 방법 및 전자 장치
US9963230B2 (en) 2016-01-11 2018-05-08 The Procter & Gamble Company Aerial drone cleaning device and method of cleaning a target surface therewith
FR3047064B1 (fr) 2016-01-26 2018-03-02 Parrot Drones Estimateur d'altitude pour drone
KR102505949B1 (ko) * 2016-02-05 2023-03-06 한화테크윈 주식회사 무인 비행 시스템
CN105807083B (zh) * 2016-03-15 2019-03-12 深圳市高巨创新科技开发有限公司 一种无人飞行器实时测速方法及系统
CN107077140B (zh) * 2016-03-28 2018-11-30 深圳市大疆创新科技有限公司 无人飞行器的悬停控制方法、控制系统和无人飞行器
WO2017189198A1 (en) * 2016-04-29 2017-11-02 Honeywell International Inc. Self-healing mesh network based location tracking and information exchange using drones as mobile access point
US10212346B2 (en) 2016-06-08 2019-02-19 Amazon Technologies, Inc. Multi-sensor image stabilization techniques
CN106199039B (zh) * 2016-07-06 2019-04-26 深圳市高巨创新科技开发有限公司 一种无人机速度监测方法及系统
KR20180010884A (ko) * 2016-07-22 2018-01-31 삼성전자주식회사 무인 이동체를 제어하는 전자 장치, 그 제어 방법 및 저장 매체
US10520943B2 (en) 2016-08-12 2019-12-31 Skydio, Inc. Unmanned aerial image capture platform
CN106767682A (zh) * 2016-12-01 2017-05-31 腾讯科技(深圳)有限公司 一种获取飞行高度信息的方法及飞行器
US11295458B2 (en) 2016-12-01 2022-04-05 Skydio, Inc. Object tracking by an unmanned aerial vehicle using visual sensors
KR20180068411A (ko) * 2016-12-14 2018-06-22 삼성전자주식회사 무인 비행 전자 장치의 운행 제어 방법 및 이를 지원하는 전자 장치
CN106647806A (zh) * 2016-12-27 2017-05-10 东华大学 一种社区安防无人机
US10602056B2 (en) * 2017-01-13 2020-03-24 Microsoft Technology Licensing, Llc Optimal scanning trajectories for 3D scenes
FR3067196A1 (fr) * 2017-05-31 2018-12-07 Parrot Drones Dispositif electronique de determination de la distance d'un drone par rapport a un obstacle avec filtrage adapte a la vitesse du drone, drone, procede de determination et programme d'ordinateur
CN107390704B (zh) * 2017-07-28 2020-12-04 西安因诺航空科技有限公司 一种基于imu姿态补偿的多旋翼无人机光流悬停方法
CN107609635A (zh) * 2017-08-28 2018-01-19 哈尔滨工业大学深圳研究生院 一种基于物体检测与光流计算的物体物理速度估计方法
TWI657011B (zh) 2017-11-30 2019-04-21 財團法人工業技術研究院 無人機、無人機控制系統及控制方法
CN111492249B (zh) * 2017-12-22 2022-06-17 大陆-特韦斯贸易合伙股份公司及两合公司 具有提高的分辨率和多个开关阈的转速传感器
CN108521558A (zh) * 2018-04-10 2018-09-11 深圳慧源创新科技有限公司 无人机图传方法、系统、无人机和无人机客户端
US11030721B2 (en) * 2018-04-24 2021-06-08 Snap Inc. Efficient parallel optical flow algorithm and GPU implementation
CN109214288B (zh) * 2018-08-02 2021-08-10 广州市鑫广飞信息科技有限公司 基于多旋翼无人机航拍视频的帧间场景匹配方法及装置
CN109085376B (zh) * 2018-08-20 2020-09-18 东阳市维创工业产品设计有限公司 一种目标速度自适应估计方法
CN109102194B (zh) * 2018-08-20 2021-06-18 安徽佳略信息科技有限公司 一种基于全球定位系统与惯性传感器的驾驶行为评分方法
WO2020092178A1 (en) 2018-10-29 2020-05-07 Dji Technology, Inc. Techniques for real-time mapping in a movable object environment
TWI693829B (zh) * 2018-12-24 2020-05-11 緯創資通股份有限公司 電子裝置及其影像測距方法
WO2020219665A1 (en) * 2019-04-25 2020-10-29 Triangulate Labs, Llc System and method for navigating over water
US11176682B2 (en) * 2019-11-27 2021-11-16 Nvidia Corporation Enhanced optical flow estimation using a varied scan order
CN113220013A (zh) * 2021-04-07 2021-08-06 同济大学 一种多旋翼无人机隧洞悬停方法及系统
KR102610397B1 (ko) * 2021-06-08 2023-12-05 금오공과대학교 산학협력단 멀티 카메라 기반 드론을 이용한 객체추적방법 및 이를 이용한 객체추적시스템
CN113916136A (zh) * 2021-11-19 2022-01-11 招商局重庆交通科研设计院有限公司 一种基于无人机航拍的高耸结构动位移测量方法
CN114877876B (zh) * 2022-07-12 2022-09-23 南京市计量监督检测院 一种无人机悬停精度评估方法
CN114936430B (zh) * 2022-07-25 2022-10-25 西北工业大学 一种宽速域高超声速飞行器气动布局设计方法及系统
CN115586798B (zh) * 2022-12-12 2023-03-24 广东电网有限责任公司湛江供电局 一种无人机防坠毁方法和系统
CN116909319B (zh) * 2023-09-14 2023-12-08 中国空气动力研究与发展中心空天技术研究所 一种分布式无人机集群编队控制方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0896267A2 (en) * 1997-08-04 1999-02-10 Fuji Jukogyo Kabushiki Kaisha Position recognizing system of autonomous running vehicle
JP2008047991A (ja) * 2006-08-11 2008-02-28 Hitachi Kokusai Electric Inc 画像処理装置
EP1901153A1 (en) * 2006-09-12 2008-03-19 OFFIS e.V. Control system for unmanned 4-rotor-helicopter
EP2015253A1 (en) * 2007-07-09 2009-01-14 Sanyo Electric Co., Ltd. Driving support system and vehicle
WO2009109711A2 (fr) * 2008-02-13 2009-09-11 Parrot Procédé de pilotage d'un drone à voilure tournante avec stabilisation automatique en vol stationnaire
WO2010044963A1 (en) * 2008-10-15 2010-04-22 Innovative Technology Distributors Llc Digital processing method and system for determination of optical flow

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6600833B1 (en) * 1999-07-23 2003-07-29 Intel Corporation Methodology for color correction with noise regulation
US7945121B2 (en) * 2006-08-29 2011-05-17 Ati Technologies Ulc Method and apparatus for interpolating image information
CN101059425A (zh) * 2007-05-29 2007-10-24 浙江大学 基于多光谱图像的纹理分析鉴别不同品种绿茶的方法和装置
US8189945B2 (en) * 2009-05-27 2012-05-29 Zeitera, Llc Digital video content fingerprinting based on scale invariant interest region detection with an array of anisotropic filters
US8068657B2 (en) * 2008-07-25 2011-11-29 Carestream Health, Inc. Method of microcalcification detection in mammography
JP4752918B2 (ja) * 2009-01-16 2011-08-17 カシオ計算機株式会社 画像処理装置、画像照合方法、および、プログラム
CN101617947A (zh) * 2009-07-17 2010-01-06 重庆医科大学 一种基于斑点跟踪技术的心肌纹理自动分析方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0896267A2 (en) * 1997-08-04 1999-02-10 Fuji Jukogyo Kabushiki Kaisha Position recognizing system of autonomous running vehicle
JPH1151650A (ja) * 1997-08-04 1999-02-26 Fuji Heavy Ind Ltd 移動体の3次元自己位置認識装置
US6025790A (en) * 1997-08-04 2000-02-15 Fuji Jukogyo Kabushiki Kaisha Position recognizing system of autonomous running vehicle
JP2008047991A (ja) * 2006-08-11 2008-02-28 Hitachi Kokusai Electric Inc 画像処理装置
EP1901153A1 (en) * 2006-09-12 2008-03-19 OFFIS e.V. Control system for unmanned 4-rotor-helicopter
US20090015675A1 (en) * 2007-07-09 2009-01-15 Sanyo Electric Co., Ltd. Driving Support System And Vehicle
EP2015253A1 (en) * 2007-07-09 2009-01-14 Sanyo Electric Co., Ltd. Driving support system and vehicle
JP2009017462A (ja) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd 運転支援システム及び車両
WO2009109711A2 (fr) * 2008-02-13 2009-09-11 Parrot Procédé de pilotage d'un drone à voilure tournante avec stabilisation automatique en vol stationnaire
US20110049290A1 (en) * 2008-02-13 2011-03-03 Parrot method of piloting a rotary-wing drone with automatic stabilization of hovering flight
JP2011511736A (ja) * 2008-02-13 2011-04-14 パルロ 自動ホバリング飛行安定化を備えた回転翼無人機を操縦する方法
WO2010044963A1 (en) * 2008-10-15 2010-04-22 Innovative Technology Distributors Llc Digital processing method and system for determination of optical flow
US20100124361A1 (en) * 2008-10-15 2010-05-20 Gaddy William L Digital processing method and system for determination of optical flow
JP2012506092A (ja) * 2008-10-15 2012-03-08 イノベイティブ テクノロジー ディストリビューターズ エルエルシー オプティカルフローの決定のためのデジタル処理方法およびシステム

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013139256A (ja) * 2012-01-05 2013-07-18 Parrot 外乱を引き起こす動きを最小化しながら搭載型カメラによる撮影を行うための回転翼無人機の操縦方法
JP2013212832A (ja) * 2012-03-30 2013-10-17 Parrot 複数のローターを有する回転翼無人機用の高度推定器
JP2014063411A (ja) * 2012-09-24 2014-04-10 Casio Comput Co Ltd 遠隔制御システム、制御方法、及び、プログラム
CN102902277A (zh) * 2012-10-19 2013-01-30 北京航空航天大学 一种六旋翼飞行器有一个电机停机时的安全着陆方法
KR101436555B1 (ko) 2013-06-25 2014-09-02 서울대학교산학협력단 무인비행로봇의 인터넷 기반 원격제어 시스템
JP2016211878A (ja) * 2015-04-30 2016-12-15 新日本非破壊検査株式会社 浮上ロボットを用いた構造物検査装置及び構造物の検査方法
KR102366311B1 (ko) 2015-09-04 2022-02-22 디스이즈엔지니어링 주식회사 드론 컨트롤러
KR20170028839A (ko) * 2015-09-04 2017-03-14 홍유정 드론 컨트롤러
WO2017047118A1 (ja) * 2015-09-19 2017-03-23 ソフトバンク株式会社 無人航空機を利用した基地局設計支援システムおよび当該システムに使用されるサーバ
JPWO2017047118A1 (ja) * 2015-09-19 2018-05-10 ソフトバンク株式会社 無人航空機を利用した基地局設計支援システムおよび当該システムに使用されるサーバ
JP2021075276A (ja) * 2015-10-02 2021-05-20 インサイツ インク. 無人航空機のための空中発射及び/又は回収、並びに関連するシステム及び方法
US11858631B2 (en) 2015-10-02 2024-01-02 Insitu, Inc. Aerial launch and/or recovery for unmanned aircraft with submersible devices, and associated systems and methods
WO2017068998A1 (ja) * 2015-10-23 2017-04-27 ソニー株式会社 飛行制御装置、および飛行制御方法、マルチコプタ、並びにプログラム
CN105799923A (zh) * 2016-04-28 2016-07-27 南京信息工程大学 一种基于四旋翼飞行器的运载机械手
JP6631900B1 (ja) * 2018-09-25 2020-01-15 株式会社エアロネクスト 飛行体
WO2020065719A1 (ja) * 2018-09-25 2020-04-02 株式会社エアロネクスト 飛行体
JP2020050340A (ja) * 2019-11-28 2020-04-02 株式会社エアロネクスト 飛行体

Also Published As

Publication number Publication date
FR2961601B1 (fr) 2012-07-27
EP2400460B1 (fr) 2012-10-03
CN102298070A (zh) 2011-12-28
EP2400460A1 (fr) 2011-12-28
CN102298070B (zh) 2015-01-21
JP5854655B2 (ja) 2016-02-09
US8498447B2 (en) 2013-07-30
FR2961601A1 (fr) 2011-12-23
US20110311099A1 (en) 2011-12-22
HK1164450A1 (en) 2012-09-21

Similar Documents

Publication Publication Date Title
JP5854655B2 (ja) 無人機、特に自動操縦下でホバリング飛行を行うことができる無人機の水平速度を評価する方法
US10948297B2 (en) Simultaneous location and mapping (SLAM) using dual event cameras
US9071829B2 (en) Method and system for fusing data arising from image sensors and from motion or position sensors
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN109461208B (zh) 三维地图处理方法、装置、介质和计算设备
EP3837492A1 (en) Distance measuring method and device
CN111666891B (zh) 用于估计障碍物运动状态的方法和装置
TW201832185A (zh) 利用陀螺儀的相機自動校準
US20180075614A1 (en) Method of Depth Estimation Using a Camera and Inertial Sensor
EP3966595A1 (en) Techniques for co-optimization of motion and sensory control
WO2016077703A1 (en) Gyroscope assisted scalable visual simultaneous localization and mapping
Zhang et al. Vision-aided localization for ground robots
CN109631894A (zh) 一种基于滑动窗口的单目视觉惯性紧耦合方法
Motlagh et al. Position Estimation for Drones based on Visual SLAM and IMU in GPS-denied Environment
CN117739972B (zh) 一种无全球卫星定位系统的无人机进近阶段定位方法
JP2017524932A (ja) ビデオ支援着艦誘導システム及び方法
CN112731503A (zh) 一种基于前端紧耦合的位姿估计方法及系统
US11715229B2 (en) Moving body and system
JP2021096805A (ja) 画像キャプチャ方法および画像キャプチャ装置
KR102406240B1 (ko) 강인한 스테레오 비주얼 관성 항법 장치 및 방법
CN113310484A (zh) 一种移动机器人定位方法和系统
KR101376536B1 (ko) 센서 융합을 이용한 모바일 객체의 위치 인식방법 및 그 장치
JP6704307B2 (ja) 移動量算出装置および移動量算出方法
Babu et al. Gyroscope assisted scalable visual simultaneous localization and mapping
WO2023220972A1 (zh) 移动设备及其位姿估计方法、装置、存储介质

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151208

R150 Certificate of patent or registration of utility model

Ref document number: 5854655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees