Nothing Special   »   [go: up one dir, main page]

JP2006520459A - 未知の障害物の中の予測不可能な目標物の実時間追跡 - Google Patents

未知の障害物の中の予測不可能な目標物の実時間追跡 Download PDF

Info

Publication number
JP2006520459A
JP2006520459A JP2005518132A JP2005518132A JP2006520459A JP 2006520459 A JP2006520459 A JP 2006520459A JP 2005518132 A JP2005518132 A JP 2005518132A JP 2005518132 A JP2005518132 A JP 2005518132A JP 2006520459 A JP2006520459 A JP 2006520459A
Authority
JP
Japan
Prior art keywords
escape
target
risk
robot
path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005518132A
Other languages
English (en)
Other versions
JP3875988B2 (ja
Inventor
ゴンザレツ バノス ヘクター
チェン ユー リー
クロード ラトンベ ジーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2006520459A publication Critical patent/JP2006520459A/ja
Application granted granted Critical
Publication of JP3875988B2 publication Critical patent/JP3875988B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0217Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本発明の実施例は、環境内の障害物の配置についての事前の知識を必要とせず、ロボットが追跡する目標物の軌跡も知らずに、障害物のある環境内で動作する移動ロボットの運動を計算するための計画を提供する。本発明の実施例は、目標物の位置と環境内の障害物の位置の測定結果に基づいて、監視ロボットの運動を支配するアルゴリズムを提供する。アルゴリズムは目標物と障害物によって作られた監視者の視野領域との間の幾何学的配置を計算によって記述し、この記述を用いて連続的な制御則を計算する。本発明の実施例は、逃走経路ツリーデータ構造を使用して目標物の監視ロボット検出器からの逃走について起こり得るモードを分類し、逃走経路ツリーを用いて目標物の最短逃走経路を決定する。

Description

本発明は、目標物の追跡能力を持つロボットシステムに関する。より具体的には、本発明は、未知の障害物の中に置かれた予測不可能な目標物の実時間追跡等を提供する目標物追跡アルゴリズムに関する。
移動目標物の追跡、特に移動監視ロボットを用いた移動目標物の追跡は多くの難問を提起している。移動目標物の軌跡が未知で、移動監視ロボットが目標物及びロボット自身が移動するワークスペースに関して事前の知識をもたない場合は、これらの難問の解決はますます難しくなる。
図1はワークスペース100の中で移動目標物101を追跡する監視ロボット103を示す。監視ロボット103はワークスペース100の局所化された視野領域109をロボットに与える検出器を含む。監視ロボット103はワークスペース100および目標物の軌跡について事前の知識を持たない。従って、監視ロボット103にとって、目標物の移動の変化を追跡するために目標物101を視野領域109の内部にとどめることが望ましい。監視ロボットの作業を複雑化するのはさまざまな障害物105、111及びこれらの障害物に起因するオクルージョンである。目標物101が目標物101自身と監視ロボット103の間に、これらの障害物105及び111の1つ、またはオクルージョンを挟むと、監視ロボット103は視野領域109内で目標物103を識別できず、目標物101を完全に見失うことになる。図1でワークスペース100は囲まれた領域として示されているが、理論的にワークスペース100は囲まれていない。
図2は監視ロボット103が使用する追跡アルゴリズムが目標物101を追跡するために視覚サーボだけを使用する場合の問題を示す。監視ロボットの検出装置は視野領域109a−109cを生成する。監視ロボット103は視野領域109a−109cのそれぞれで目標物101を識別し、目標物が位置101aから位置101cまで移動するに従って位置103aから位置103cまで漸次移動する。しかしながら、目標物101が障害物111の端部に近づくと、目標物の軌跡は端部の後ろ側の位置101dへと進む。監視ロボット103は障害物111の端部が障害となって視野領域109dから目標物101を識別できない。従って、監視ロボットの視覚サーボ制御は視覚ロボット103にいかなる操舵コマンドを与えるべきか分からない。このように、挟まれている障害物111を単純に通過するように目標物の軌跡が取られなければ、監視ロボット103は目標物101を見失うであろう。
図2に示された追跡問題は、大型の牽引トラックが回転内側の縁石に乗り上げることなくコーナーを曲がろうとする時に直面する問題に幾分似ている。しかしながら図2に示す例においては、監視ロボット103は障害物111を見通せないし、通過することもできない。従って、純粋な視覚サーボはワークスペース100のようなワークスペースに対して適切な解を与えない。
他のさまざまな分野において追跡問題が持ち上がっている。しかしながら、オクルージョンを回避することは追跡問題の一般的な懸念事項ではない。例えば、ミサイル制御システムでは、オクルージョン問題を解決する必要は一般には無い。同様に、既知の環境で障害物中の目標物を追跡することは一般にさしたる問題ではない。もし監視ロボットがワークスペースに関して先験的に知識を持てば、ロボットは目標物が選んだ軌跡に反応できる。例えば、先行技術には図1に示したものと類似のワークスペース(美術館)の中を未知の軌跡で目標物が移動する「美術館の警備」として知られている問題の解決方法が含まれる。この問題では移動目標物を追跡するためにワークスペース内のさまざまな場所に固定された検出器が使用される。この問題の定式化において固定の検出器はワークスペースの知識と他の検出器の位置に関する知識を持っている。同様に、もし監視ロボットが目標物の軌跡について事前に知識を持てば、監視ロボットは目標物の移動を計画し、検出器データへの依存を低減する。事前の知識によってオフラインで進める解決策と、さらに小型のロボットで使用可能なものよりもっと能力の高い計算装置を監視ロボットの外部で使用することが可能になる。
同様に、オンラインのゲーム理論計画法は目標物の行動の確率的モデルの作成と、一般にワークスペースについての事前知識を含む。しかしながら、そのような解決策は一般に計算過程としては集約的で、ロボットへの応用には適さないことが多い。
従って、移動監視ロボットによって未知のワークスペースの中を未知の軌跡を持つ目標物を追跡するという課題に対して解決策を見つけ出すことが必要である。その解決策は移動監視ロボットの計算機リソースに及ぼす影響を最小化するのに十分なほど洗練されている必要がある。
発明の要約
本発明の実施例は、未知の環境で目標物の意図についても環境内の障害物の配置についても事前の知識を持たずに、目標物を追跡する監視ロボットの運動を計算するための計画を提示する。本発明の実施例は、環境内の目標物の位置と障害物の位置の計測に基づいて監視ロボットの運動を決定するアルゴリズムを提供する。アルゴリズムによって、障害物によって生成される監視者の視野領域と目標物との間の幾何学的な配置が計算されて記述され、この記述を用いて連続の制御則が計算される。
本発明の他の実施例では、ワークスペース内で複数の障害物の中を移動する目標物を追跡するための方法が提供される。この方法は複数の障害物から障害物の位置を識別する視野領域の作成を必要とし、検出器から受信したデータを用いて目標物の位置を識別する。目標物に対する複数の逃走経路は視野領域を用いて計算され、それぞれの逃走経路は目標物を検出器による検出から遮蔽する経路を表している。複数の逃走経路の中から、長さが最小の逃走経路となる1つの逃走経路セットが識別される。目標物を追跡する監視ロボットに対して操舵コマンドを作成するために使用することができる逃走経路セットに対して逃走リスク勾配が計算される。
本発明の他の実施例では、ワークスペース内で複数の障害物の中を移動する目標物を追跡するシステムが提供される。システムには検出器から受信されたデータを使用して複数の障害物から障害物の位置を識別する視野領域を作成するように構成された視野取得モジュールが含まれる。目標物捕捉モジュールは視野領域内で目標物の位置を決めるように構成されている。逃走経路ツリー構築モジュールは視野領域を用いて目標物に対して複数の逃走経路を識別し、それぞれの逃走経路は目標物を検出器による更なる検出から遮蔽する経路を表している。最短逃走経路ツリー計算モジュールは、最短距離となるように複数の逃走経路の中から1つの逃走経路セットを識別するように構成されている。リスク勾配計算モジュールは、目標物を追跡する監視ロボットに提供可能な逃走経路セットに対して逃走リスク勾配を計算する。
本発明の他の実施例では、ワークスペース内で目標物を追跡する方法が提供される。この方法は目標物と少なくとも1つの障害物を識別する視野領域を得るためにワークスペースを検出することが必要である。逃走リスクは視野領域から計算され、逃走リスクは目標物の軌跡が監視ロボットによる更なる検出から逃れるリスクを表している。監視ロボットからの逃走には、視野領域外への移動と少なくとも1つの障害物によって生成されるオクルージョン内への移動とが含まれる。監視ロボットに対する操舵コマンドは逃走リスクを用いて作成される。操舵コマンドによって目標物が監視ロボットによる検出から逃れる能力が低減される。
本発明の他の実施例では、ワークスペース内で目標物を追跡するシステムが提供される。検出器がワークスペースを記述するデータを取得する。視野領域取得モジュールは検出器から受信したデータを使用してワークスペース内で複数の障害物を識別する視野領域を生成する。目標物捕捉モジュールはワークスペース内で目標物を識別するように構成されている。リスク割付けモジュールは視野領域を用いて、目標物が監視ロボットの検出から逃れる逃走リスクを決める。監視ロボットからの逃走には、監視領域外への目標物の移動と複数の障害物の内の少なくとも1つの障害物によって生成されるオクルージョン内への目標物の移動とが含まれる。運動コマンド計算モジュールは目標物が監視ロボットによる検出から逃れる能力を低減する操舵コマンドを監視ロボットに対して作成する。
本発明の他の実施例では、ワークスペース内で移動する目標物を追跡するための方法が提供される。この方法は目標物をヘッドノードとする逃走経路ツリーの作成を必要とする。複数の逃走経路が目標物に対して識別され、それぞれの逃走経路は目標物を少なくとも1つの検出器から遮蔽するワークスペース経由の経路を表している。複数の逃走経路のそれぞれの逃走経路は逃走経路ツリーにおいてチャイルドノードとして配置され、それぞれの逃走経路は、長さの短い逃走経路が長さの長い逃走経路よりも逃走経路ツリーで高位置を占めるように整理される。より長さの短い逃走経路の1セットが逃走経路ツリーから選ばれる。この逃走経路セットを用いて目標物に対する逃走リスクが計算される。
本発明の他の実施例では、ワークスペース内を移動する目標物を追跡するシステムが提供される。逃走経路ツリー構築モジュールは目標物をヘッドノードとする逃走経路ツリーを作成し、目標物に対して複数の逃走経路を識別するように構成されている。それぞれの逃走経路は目標物を少なくとも1つの検出器から遮蔽するワークスペース経由の経路を表す。また構築モジュールは、複数の逃走経路のそれぞれの逃走経路を逃走経路ツリーのチャイルドノードに配置し、長さの短い逃走経路が長さの長い逃走経路よりも高位置に配置されるように逃走経路がツリーで整理されるように構成されている。最短逃走経路ツリー計算モジュールは逃走経路ツリーからより長さの短い逃走経路の1セットを選択する。リスク割付けモジュールはこの選択された逃走経路のセットを用いて目標物に対して逃走リスクを計算する。
本発明の他の実施例では、逃走経路ツリーデータ構造、目標物に対する位置データ及び目標物を追跡する監視ロボットに対する位置データからなる計算機が読取可能な媒体が提供される。逃走経路ツリーデータ構造は、目標物が検出器による検出から逃れるために使用可能な逃走経路を表すように構成されている。
実施形態の詳細な説明
多くの適用例は制御可能な検出システムへアクセスできる監視ロボットによる移動目標物の連続的な監視を必要とする。目標物を追跡することは目新しいことではないが、従来の技術では障害物の存在が無視され、画像化および目標物の認識問題に焦点が合わされている。障害物の中を移動する目標物に対しては、追跡を達成するためには複雑な移動問題が避けられない。即ち、制御可能な監視ロボットは目標物が障害物によって遮蔽されることを予想して、そのような事態の発生を防止するために移動することが必要である。本発明の実施例は目標物の意図に関する知識も環境内の障害物の配置に関する知識も無い状態で動作する移動ロボットの運動を計算するための手順を提供する。本発明の実施例はまた目標物の位置測定と環境内の障害物の配置測定に基づいて監視ロボットの運動を決定するアルゴリズムを提供する。このアルゴリズムは障害物によってできる監視者の視野領域と目標物との間の幾何学的配置を計算して記述し、この記述を用いて連続的な制御則を計算する。
図3は移動目標物301が障害物111の回りを移動する時に、追跡アルゴリズムを使用して移動目標物301を追跡する本発明の実施例の監視ロボット303の動きを説明する。目標物301はどのような移動物の形も取ることが可能で、ロボットを始めとして、機械装置、人間のような動物まで可能である。監視ロボット303は制御可能な検出器からデータを受信する。例えば、監視ロボット303には、追跡アルゴリズムを実行するソフトウェアを始めとして、ロボットに搭載された制御可能な視覚検出器が含まれる。監視ロボット303は、追跡アルゴリズムが監視ロボット303に適切な指示を出せるように事前に目標物の軌跡を知る必要が無い。監視ロボット303はまた事前に準備されたワークスペース305のモデル、地図を必要とせず、障害物111のような障害物の位置も知らない。従って、追跡アルゴリズムは、監視ロボット303と移動目標物301の間で検出(例えば視覚的な)の喪失を避けることを目指している。本願の実施例による追跡アルゴリズムは、監視ロボットの視野を妨害するワークスペース305内のいかなる障害物も監視ロボット303と目標物301の両者の運動を制約すると仮定し、逆もまた同様に仮定する(例えば透明な物体および煙幕は除外する)。
それぞれの検出器の掃引から、監視ロボット303はワ−クスペース305に対して視野領域309a−309e(例えば局所地図)を決定する。監視ロボット303は目標物301を追跡しながら、自分自身の軌跡を決定するために、計測に基づいて追跡中に計算され、本発明の実施例のロボットの検出器によって生成された視野領域309a−309eに依存する。例えば、目標物の軌跡が進むに連れて、監視ロボットの追跡アルゴリズムは目標物301が障害物111の周りを移動するかを決定し、その後監視ロボット303は目標物301と検出器のコンタクトを失う。従って、図2の監視ロボットの動きとは対照的に、監視ロボット303は目標物301の追跡に応じて障害物111から少し離れるように移動する。このようにして、目標物301が障害物111を回り込む時に、視野領域309eに示されている検出器の掃引によって、監視ロボット303は目標物301と検出器コンタクトを失わない。
簡単化すると、監視ロボットの追跡アルゴリズムは1平面内だけで光を照射する懐中電灯を使用して未知の環境内を移動する目標物を追跡する人の行動に類似している。さらに、その人の懐中電灯が不規則に明滅して、目標物を見失ったか、目標物を追いかけて再度位置特定ができるか予想できないケースに類似している。追跡問題と解法の詳細な数学的説明は図13を参照して後述する。
ワークスペースの視野領域
追跡アルゴリズムはワークスペース305の形状を解析する必要がある。ロボットの移動の妨害に加えて、障害物は監視ロボット303が見ることができるワークスペース305の範囲を制限する。例えば、監視ロボット303は障害物111のコーナーを回った先を見ることができない。このことによって、追跡アルゴリズムは監視ロボットの動きを位置303aから303cにかけて障害物111から少し離れて移動させ、目標物301と検出器のコンタクトを維持させると言う監視ロボットの目標を実現している。
監視ロボットの装備配置によってその検出器の視野が決定される。監視ロボットの視野は固定の円錐(サイズは選び得る)に制限されるか、検出器レンジの下限及び/又は上限によって制約される。例えば、図3に示された視野領域は309a−309eで示された扇形からなる。追跡アルゴリズムは、人為的モデル又は検出器による測定から視野領域を計算できる。前者の場合、光線掃引アルゴリズムを用いて従来の多角形モデルに対して視野領域を計算できる。後者の場合は、視野領域は従来の手法を用いてレーザーレンジファインダーで測定が可能である。好ましい光線掃引アルゴリズムについて詳細な数学的な説明が図13を参照してなされる。
追跡計画
目標物追跡は、目標物301が監視ロボット303の視野に常に存在するような、関数(追跡計画)の計算からなる。さらに、追跡計画は、監視ロボット303が通過するトータル距離、監視ロボット303から目標物301までの距離、又は検知器情報の質の程度のような他の判断基準を最適化することも可能である。いずれかの実施例において、目標物303を見失うことは不可避的であろうが、この場合には最適追跡計画は、監視ロボット303が最初に目標物301を見失う時刻、「逃走時刻」または「逃走予定時刻」(tsec)を最大化することからなるだろう。例えば、図2に示されるように、逃走時刻は、目標物の移動によって、障害物111が目標物301と監視ロボット303との間に挟まれる瞬時の時刻である。
もし、目標物の行動が全ての時刻にわたって事前に知られていれば、目標物301は「予測可能」と呼ばれる。そのような場合には、監視ロボット303が目標物301の追跡を開始する前に、最適追跡計画は一般にオフラインで計算される。全ての時刻にわたって目標物301の位置が知られているので、目標物301が見失われた場合には、監視ロボット303は目標物301を再捕捉することができる。目標物301の常時追跡が不可能な場合には、目標物301が監視ロボット303によって視認可能なトータル時間、「露出」の最大化を逃走時刻の最大化に代えれば代替案となる。例えば、図2に示すように、監視ロボット103の目標物101に対する露出は監視ロボットの位置103a−103cに概略対応する。
追跡計画がある特定の時刻における目標物の状態の関数として計算される場合は、計画は閉ループ内で動作する。さもなければ、追跡計画は開ループ内で処理される。目標物の運動モデルと位置測定が正確と言う保証が無ければ、予測可能な場合も含めて閉ループの計画のほうが開ループのものより一般的に好まれる。
目標物の行動が知られていない場合、目標物301は「予測不可能」と呼ばれ、問題の解決法はもっと複雑になる。図2及び図3はいずれも予測不可能な目標物の移動を示す。予測不可能な場合は2つの方法で解析が可能である。目標物の行動が「非決定論的不確定性」としてモデル化される場合、目標物が取り得る行動のセットは分かっているが、特定の時刻において取られる特定の行動については分からないと仮定する。このように、行動のセットは分かっているが、いずれの時刻においても目標物301が選択した特定の行動は分かっていない。この場合、それぞれの与えられた時刻に対して最悪ケースの選択がされた場合に、最善の実行をする追跡計画が設計できる。代わりに確率的不確定性モデルが利用可能場合は(例えば確率密度関数が知られている場合)、予測の意味合いで最善の運動計画を計算することができる。
予測不可能な場合は一般に実時間のオンラインで解決される必要がある。コンタクトが失われ目標物301の再捕捉の機能が無い場合、監視ロボット303に設けられた優れた追跡アルゴリズムは露出の最大化とは対照的に逃走時刻の最大化を試みる。最悪ケースのシナリオに対して設計された計画は未来の時間範囲で目標物の最も不都合な行動を予期し、計算された追跡計画の小さな(場合によっては差分の)初期部分を実行した後、再度全体の手順を繰り返す。一方、目標物の予想行動を予想するように設計された追跡計画は、監視ロボット303が検知器によって目標物301を視野に捕る今後の可能性の最大化を目指す。
逃走予定時刻の最大化に基づく最悪ケースの追跡は、監視ロボットを積極的に回避しようとする敵対的な目標物に特に適している。特に小型ロボットの場合に当てはまるのだが、この追跡問題の解決には高額の計算処理費用を要する。本発明の実施例では逃走リスクの考えを逃走時刻の代理関数として使用する。後述のように、逃走リスク勾配は解析的に計算され、高速の追跡アルゴリズムとなる。
図4は本発明の実施例による追跡アルゴリズムが実行するステップを示すフローチャートである。それぞれのステップにおいて、追跡アルゴリズムは、監視ロボット(例えば図3に示す監視ロボット303)に対して、目標物(例えば図3に示す目標物301)が監視ロボットの視野領域から逃れるリスクを最小化する。追跡アルゴリズムはワークスペース(例えば図3に示すワークスペース305)の事前に準備されたモデルを必要としない。追跡アルゴリズムは未知の軌跡を持つ一時的な目標物に対しても対応できる。後述するように、追跡アルゴリズムは監視ロボットが目標物とのコンタクトを維持する能力を協調して改善する反応項と予測項の両者を組み合わせる。高度に予測不可能な軌跡を持つ活動的な目標物を用いて、追跡アルゴリズムの良好な動作が実験で示された。
追跡アルゴリズムはステップ401−411を繰返し実行する。追跡アルゴリズムは2つの幾何学的計算を用いてそれぞれの時間ステップで目標物の逃走リスク(φ)における変化を評価する。第1の計算では、追跡アルゴリズムはワークスペースの視野領域(例えば図3に示す視野領域309a)を取得する401。ステップ401ではワークスペース (例えば図3に示すワークスペース305) 内の監視ロボットの視野領域(例えば領域309a)が出力される。目標物の位置及び視野領域に含まれる視野妨害障害物と同様に、検出器の特性(例えば最小及び最大レンジ)が視野領域を制限する。この視野データは他の方法(例えばワークスペース内の他の検出器から)で追跡アルゴリズムに提供することもできる。視野データを持つと、追跡アルゴリズムは視野領域内で目標物(例えば図3の目標物301)の位置を決めることができる403。障害物と目標物の検出方法の具体的な選択は一般に個々の適用ケースに基づいて行われる。
第2の幾何学的計算405では、目標物が監視者の視野領域から逃れるために選択する可能性のある最悪ケースの経路を含むデータ構造、即ち逃走経路ツリー(EPT)を生成する。目標物の位置を用いて追跡アルゴリズムは目標物に対して最短の逃走経路を計算する。追跡アルゴリズムは次にEPTの情報を用いて目標物の最短経路に逃走リスクを割付ける407。EPTの計算と適用の詳細について以下に述べる。
追跡アルゴリズムは次にリスク勾配を計算する409。監視ロボット位置の差分変化は一般にEPTの差分変化を生み、EPTの差分変化はリスクφの差分変化を生む。追跡アルゴリズムはこの差分変化を解析的に計算するので、φの勾配は監視ロボットの運動を指示するために使用できる。この方法は差分計画(例えばフィードバック制御器)と同じように移動ロボットを制御するためのオンライン計画を提供する。
Figure 2006520459
追跡アルゴリズムは監視ロボット(例えば図3に示す監視ロボット303)に対して運動コマンドをリスク勾配の再帰平均として計算する411。
Figure 2006520459
追跡アルゴリズムのステップ401−411は明確化の目的で図4では連続的に示されている。しかしながら、実行に際してこれらのステップを混ぜれば一般により効率的である。ステップ401−403及び411は実行形態に依存する。位置及び目標物のデータ取得は配置される検出器に依存し、ロボットの操舵制御は実際に使用されるロボットの設計仕様に依存する。ステップ407は逃走方程式(後述)の勾配を逃走経路に対して計算することからなる。ステップ409はステップ405で生成されたEPTのさまざまな逃走経路のリスクの再帰平均の計算からなる。
従って、ステップ405が実行される際の速さと効率が追跡アルゴリズムの全体性能に影響を与える。実時間で動作する追跡アルゴリズムに対しては、EPTの計算は効率的に実行されるべきである。本発明の実施例によれば、光線掃引アルゴリズムはEPTの性能を効率化するのに適した方法である。光線掃引アルゴリズムの特徴について以下に述べる。
本発明の実施例によれば、追跡アルゴリズムは目標物がその視野から逃れるリスクの程度φの差分変化に基づいて1秒当たり数回の頻度で監視ロボット(例えば図3に示す監視ロボット303)の向きを再変更する。追跡アルゴリズムは、目標物がいかに早く逃走できるかと、監視ロボットがそのような出来事に対していかに簡単に反応できるかの関数として決定論的にφを計算する。例えば、目標物がコーナー(例えば図3に示す障害物111)を回って移動することにより逃走できる場合、φは監視ロボットとコーナーの間の距離に応じて増加する。この方法では、監視ロボットがオクルージョンを起こす端部から離れている場合、オクルージョンを取り除くことは難しいと認識している。
図5−8は、視野領域の取得、目標物の位置取得、EPTの構築及び最短逃走経路の決定に関する追加情報を示す。
図5は本発明の実施例による検出器データ509を示す。検出器データ509は検出器503によって追跡アルゴリズムに送られ、視野領域(例えば図3に示す視野領域309a)の決定および目標物の位置決めに使用できる。図示の検出器データ509はワークスペースについての単一平面の情報を表す。追跡アルゴリズムは、障害物501a−501bと目標物301を識別して監視ロボットの視野領域を決定するために検出器データ509を使用する。図5に示すように、追跡アルゴリズムは、目標物301を囲む滑らかな円によって示されるように、目標物を既に識別している。実施例によっては、目標物の何らかの特徴が追跡アルゴリズムに知らされている場合、目標物の識別は簡単化される可能性がある。例えば、追跡アルゴリズムが目標物は監視ロボットの検出器に対して半径rの円イメージで現れると知っていれば、追跡アルゴリズムはそのような情報が無い場合より簡単に目標物を検出できる可能性がある。障害物501a−501bを示すぎざぎざマークは追跡アルゴリズムがまだこの検出器データを視野領域の「障害物」として識別していないことを表している。
図6は本発明の実施例による追跡アルゴリズムによって識別された障害物601a−601eを含んだ視野領域609を表す。前述のように、障害物の1つが監視者と目標物の間に挟まれると、障害物601a−601eは監視ロボットが目標物との検出器コンタクトを喪失する逃走リスクの構成要素となる。視野領域609は瞬時のワークスペース地図(少なくとも監視ロボットの検出器によって認識可能なワークスペースの一部分)を追跡アルゴリズムに与える。
図7は本発明の実施例による、視野領域609の逃走経路ツリー(EPT)への移行における第1のステップを表す。視野領域609で障害物(例えば障害物601a−601e)の位置を決定しているので、追跡アルゴリズムは次にそれらの障害物によって現出される可能性のあるオクルージョン703a−703fを決定できる。例えば、目標物301が監視ロボットの位置に基づいてオクルージョン703a内へ移動すると、監視ロボット303は障害物601bによって目標物301の追跡を喪失する。個々のオクルージョン703a−703fによって表された領域は目標物に逃走の機会を提供する。換言すれば、監視ロボット303から逃走するために、目標物301は1つの障害物(例えば障害物601b)の横をすり抜ける必要は無く、代わりに目標物301は障害物のオクルージョン領域(例えばオクルージョン領域703aの任意の場所)に入り込みさえすればよい。従って、目標物の最短逃走経路は目標物のオクルージョン領域の端部までの距離に基づいて決定できる。
例えば、目標物301が監視ロボット303によって視認されていると仮定する。目標物303に対する「逃走経路」は目標物303と監視ロボットの視野領域外(例えばオクルージョン703c)の点を結んだ任意の衝突なしの経路である。この経路の逃走点はその経路が監視ロボットの視野領域の境界と交差する点に一致し、自由端に沿って起きる。この実施例では目標物301が障害物を貫通できないと仮定しているので、オクルージョン領域の自由端は一般に、障害物(例えば障害物601a)には該当しないオクルージョン(例えばオクルージョン703c)の一部分を表す。当然のことながら、目標物301と監視ロボット303の特定の構成に対して、無限数の逃走経路が存在する。しかしながら、特定の逃走点に対しては、逃走点と目標物間の長さが最低の経路が存在する。さらに、任意の自由端eに対して、端部に沿った全ての逃走点の中で長さが最低の逃走経路が存在する。そのような経路を目標物に対する自由端経由の最短逃走経路(SEP)と呼ぶ。SEPの長さは自由端eを経由する最短逃走距離(SDE)である。目標物301が逃走経路を通過する最短時刻が逃走経路の「逃走時刻」である。任意の自由端eと与えられた目標物位置に対して、逃走時刻が最小の経路が存在するが、この経路は一般にはSEPと同じではない。
図8は本発明の実施例による、視野領域609に組み合わされた逃走経路ツリー811を示す。前述のように、EPT811は一般に監視ロボットのメモリーに保存されるデータ構造を表す。しかし、読者のEPTの理解と、EPTと追跡アルゴリズムによって受信される検知器データ間の関係の理解を助けるために、EPT811を視野領域609に組み合して示した。
ある構成に対して全ての逃走経路が計算されれば、ツリー構造、即ち「逃走経路ツリー」が形成される。このツリーの根元には目標物(例えば目標物301)があり、ツリーのそれぞれの枝は自由端で終わっている。EPTの各々のノード(例えばノード807)が視野領域の頂点であるので、このツリー複合体は線形である。
EPT811は目標物301が監視ロボット303の視野から逃れるために取ることができる経路を地図で示している。経路はオクルージョンの端部又は障害物の端部へ引くことができる。EPT811は逃走経路間の距離の関係をも示している。例えば、EPT811は逃走経路801aが逃走経路801dの親であることを示している。換言すると、目標物301は逃走経路801aに沿って移動し逃走経路801dへ到達する。EPT811を見れば、目標物301に対する最短の2つの逃走経路は逃走経路801bと801cであることが分かる。
最悪ケースシナリオの予想に基づく追跡計画は目標物が最も速い経路(例えば逃走経路801b)を取って逃走すると仮定しているので、逃走経路の計算は重要である。そのような計画の1つは局所的にSDEを最小化する位置へ監視ロボット303を移動させることである。ここでは追跡アルゴリズムは最短の追跡経路を計算できると仮定する。SDEは目標物が監視ロボットの視野領域を外れる可能性の最悪ケースの程度である。SDEが大きくなればそれだけ目標物が監視ロボットの視野内に留まる可能性が高くなる。代替案としては、全ての経路SEPにわたり平均長さを最小化するか、全ての個々の経路にわたって動作する類似の関数を最適化することが上げられる。
図9−図12は追跡アルゴリズムに取り込まれ、監視ロボットが目標物(例えば目標物301)とコンタクトを保つ能力を改善する反応項と予測項を示す。
図9は本発明の実施例による、追跡アルゴリズムのリスク基準の計画に対する初期の考慮事項を示す。前述のように、目標物301がオクルージョンに向かって移動するにつれて、監視ロボット303はオクルージョンから離れるように移動して反応する。直線901は、障害物105の端部によって現出するオクルージョン内へ入った目標物の経路に基づいて、監視ロボットが目標物301と検出器コンタクトを喪失した状態を示す。このように目標物301が障害物105によるオクルージョンに向かって逃走経路903に沿って移動すると、監視ロボット303は経路905に沿って移動して反応する。目標物301が監視ロボットから逃走するリスクは、最短逃走経路(例えば経路903)の長さの逆数の単調増加関数で表すことができる。
図10は本発明の実施例による、障害物105によって作られるオクルージョンに向かってさらに移動する目標物301と反応コンポーネントの役割を示す。監視ロボット303が経路905に沿って移動すると、目標物301の最短逃走経路はもはや経路903ではなくて、経路1003が代替する。従って、障害物105によって現出されたオクルージョン内へ目標物の経路が移動することを基に、監視ロボットの目標物301に対する検出器コンタクトの喪失が直線1001によって表される。このようにして、この新しい逃走経路が監視ロボット303に対して別の位置を決定するために使用される。
図9及び図10は本発明の実施例による、追跡アルゴリズムの反応コンポーネントを示す。この反応コンポーネントは、最短逃走経路に割付けられたリスクの最小化を試みて目標物301の移動に反応する追跡アルゴリズムの一部分である。しかしながら、このリスクを最小化することだけが追跡アルゴリズムで考慮されるべき事柄ではない。例えば、目標物が障害物105によるオクルージョンに向かう軌跡を取れば、追跡アルゴリズム(予測コンポーネントの無い状態)は目標物301とのコンタクト喪失を遅らせるために障害物105から離れるように移動を継続する。不幸にして監視ロボット303が反応コンポーネント軌跡に従い続ける場合は、目標物301と障害物105の間の距離は増加しつづける。この距離の増加は、目標物301が取る今後の軌跡において、監視ロボット303に対する問題を引起す可能性がある。
図11は本発明の実施例による、反応コンポーネント905と予測コンポーネント1103との組合せ、および監視ロボットに対する軌跡1107を示す。図12は、目標物301が監視ロボットと同様に障害物105と同じ側にある例を示すことによって、予測コンポーネント1103の役割を説明する。この例では、目標物の最短逃走経路1201は障害物105へ向かう。従って、監視ロボットの軌跡は(図示の時間内で)監視ロボットのオクルージョンライン1203に沿った移動になる。予測コンポーネントは監視ロボットとオクルージョン点との間の距離の2乗で表される。
図11に戻ると、監視ロボットの経路は反応コンポーネント905の軌跡にも予測コンポーネント1103の軌跡にも従わない。追跡アルゴリズムは監視ロボットが軌跡1107に沿って移動するように反応コンポーネント905と予測コンポーネント1103を合成する。
前述のように、逃走予定時刻の代理として追跡アルゴリズムで使用される関数が「逃走リスク」で、全ての自由端eに対して次のように定義される。
Figure 2006520459
ここでh=SDE(e、qt)は目標物と端部eの間の最短距離を、roは監視ロボット(qo)からeでオクルージョンを発生するコーナー迄の距離を、dは目標物(qt)とこのコーナーの間の距離を、cは正の定数を、f(1/h)は1/hの単調増加関数を表す。cro 2の最小化は監視ロボットの今後の追跡能力を増加させるので、この項が予測コンポーネントである。f(1/h)の項の最小化は目標物が現在の視野領域から逃走する可能性を減少させるので、この項が反応コンポーネントである。具体的なf(1/h)の実施例としてlog(1/h2+1)および(1/h)m+2が上げられる。ここでmは負でない整数である。
クローズドフォームで監視者の位置に関する追跡方程式の勾配を計算することが可能である。逃走経路SEP(e、qt)がV(qo)(例えば頂点V(qo)またはコーナー経由で)を退去する仕方により、勾配は異なる式で表される。一般にリスク関数の勾配は全ての端部eで次の形を取る。
Figure 2006520459
ここでf'(1/h)はf(1/h)の微分で、▽hはhの勾配である。▽hは端部eに関連した逃走経路SEP(e、qt)の幾何学に従って計算される。目標物が単一点の場合に勾配の計算は悪化するが、物理的な寸法のある目標物に対しては勾配がうまく定まる。▽φeは解析的に計算するので、追跡アルゴリズムは現在の検出器情報しか必要としない。例えば本発明の実施例では関数f(1/h)は(1/h)2に等しい。図11のシナリオに対してリスク勾配は次式で表される。
Figure 2006520459
図12に示すシナリオに対してリスク勾配は次式で表される。
Figure 2006520459
Figure 2006520459
このように追跡計画は監視ロボット(例えば図3の監視ロボット303)をV(qo)内の全ての自由端eにわたる▽φeの平均値とは逆の方向へ移動させることからなる。
Figure 2006520459
しかしながら、個々のリスクを集める他の方法も可能である。
図13は本発明の実施例による追跡アルゴリズムを実行するように構成された監視ロボット1301のブロック図である。追跡アルゴリズムを実行する時、ロボット1301のCPU1305は追跡アルゴリズムのさまざまなステップ(例えば図4に示すステップ401−411)を実行に移すための指示を含んでいる。従って、CPU1305は、視野領域取得モジュール1303、目標物捕捉モジュール1307、逃走経路ツリー構築モジュール1309、最短EPT計算モジュール1311、リスク割付けモジュール1313、リスク勾配計算モジュール1321および運動コマンド計算モジュール1323のようなソフトウェアモジュールを含んでいる。
視野領域取得モジュール1303は追跡アルゴリズムが使用する視野領域(例えば図4のステップ401に示す視野領域)を検出器データから生成する。目標物捕捉モジュール1307は視野領域の目標物を識別するステップ(例えば図4に示す目標物捕捉ステップ405)を実行する。逃走経路ツリー構築モジュール1309は視野領域に含まれているデータからEPTを構築する。最短EPT計算モジュール1307はモジュール1309が生成したEPT内の目標物に対して最短の逃走経路を決定する。リスク割付けモジュール1313はモジュール1307が決めた最短逃走経路にリスクを割付けるステップ(例えば図4のステップ407)を実行する。リスク勾配計算モジュール1321はリスク勾配を計算するステップ(例えば図4のステップ409)を実行する。運動コマンド計算モジュール1323はモジュール1321が出力するリスク勾配計算結果を用いてロボット1301に運動コマンドを送る。
説明の明確化の目的で、追跡アルゴリズム全てが図13のCPU1305の内部にあるものとして示されている。実施に際しては、1つのモジュール(場合によっては1つのモジュールの一部分)が、指示を実行に移すことが必要な瞬間にCPU1305内部にありさえすれば良い。同様に、追跡アルゴリズムはさまざまなソフトウェアモジュールからなるとして説明して来たが、追跡アルゴリズムは特定用途向け集積回路(ASIC)または適当なハードウェアの形で物理的なハードウェアとして実現することが可能である。従って、追跡アルゴリズムはさまざまなロボットプラットフォームに展開することができる。
ロボット1301は必要に応じてCPU1305にコピーされる追跡ソフトウェアの不揮発性コピーを収納するデータ格納庫1315も含む。データ格納庫1315は、追跡アルゴリズムのさまざまなモジュールによって生成されたデータとともに、EPTモジュール1309が生成したEPTも収納できる。検出器1319は、視野領域を形成するためと、目標物捕捉モジュール1307が視野領域の目標物を識別するために使用する検出器の生データを視野領域取得モジュール1303へ送る。アクチュエータ1317は運動コマンド計算モジュール1323によって生成された運動コマンドを受信して、ロボット1301を目標物(例えば図3の目標物301)との検出器コンタクトを維持するように移動させる。
監視ロボット1301は検出器1319が取得するデータ量が多いにもかかわらず、かなりすばやい移動目標物を成功裏に捕捉できる。実施例の一例として示すと、EPTモジュール1309とリスク勾配計算モジュールの制御レートは約10Hzである。従って、ロボット1301のアクチュエータ1317はかなり速いベースで新規のコマンドを受信している。
追跡プロセスの改善は追跡アルゴリズムをより高速のプロセッサまたは専用の回路に埋め込むことによって実現が可能である。目標物の捕捉と障害物の識別のプロセスを補助する他の検出器(例えば他のカメラ)の追加とともに、検出器1319の速さを改善することによっても追跡プロセスの向上が図られる。
追跡問題はロボットの自己位置同定問題と相互に関連していることが多い。このことは、追跡アルゴリズムが監視ロボットの行動を計算するために事前に準備された環境の地図を用いる場合に起きる。自己位置同定は一般に目印を用いる。従来技術のシステムのあるものでは、目印はワークスペース全体に分散した人工的な天井目印からなる。目印が見えれば監視ロボットは良い精度で自己の位置を同定する。そうでない場合は、監視ロボットは推測航法で操縦され、監視者の位置の不確定性は次の目印の視認まで増加する。
ある先行技術は自己位置同定のためにロボットが目印を見ることを明示的には要求していない。またそれに関連したアルゴリズムは、最良の追跡運動を実行すべきか、又は目印を発見してより良い自己位置同定を実現するために最良の追跡運動から外れることが好ましいのかをそれぞれの段階で決定する。当然のことながら、監視ロボットが事前に用意される地図を必要とせず、検出器の入力を使用する局所地図計算機に基づいて全ての決定をする場合は、自己位置同定問題は潜在的に解決され、他の自己位置同定機構を必要としない。
追跡アルゴリズムはここまで単一平面に対する検出器データに基づいた動作として説明して来た。追加の平面に対するデータが与えられれば、追跡アルゴリズムは類似の仕方で動作する。例えば、この追加の情報は目標物と監視ロボットが通過できない障害物をより正確に識別するために使用される。さらに、追跡アルゴリズムは、穴、階段および目標物が上り下りに利用できる柱のような物を障害物としてモデル化することができる。
数式を用いた詳細な説明
次のセクションでは、図3−図13に示した追跡アルゴリズムについてさらに詳しく数式を用いて説明する。
Figure 2006520459
監視ロボット303と目標物301は剛体と仮定され、それぞれの自由配置空間(自由コンフィギュレーション空間)はCoとCtで表される。χが問題の状態空間で、監視ロボット303と目標物301の両者のそれぞれの状態空間の直積演算であるとする。直積演算Co×Ctはダイナミクスが無いときはχに等しい。一般にCo×Ctは状態空間のサブスペースである。
Figure 2006520459
関数foは監視者のダイナミクスをモデル化し、非ホロノミック制約又は他の制約の符号化が可能である。例えば、関数foは図3の303aから303bへの監視ロボットの移動を表す。
Figure 2006520459
しかしながら、前述のようにここで説明する追跡アルゴリズムは目標物の動きに関して事前の知識を必要とはしない。
Figure 2006520459
ワークスペース内の視野領域
監視者のコンフィギュレーションは検出器(例えば図5の検出器503)の視野を決める。
Figure 2006520459
セットV(qo)は監視者の位置qoにおける視野領域であり、いくつかの仕方で定義が可能である。例えば、監視者は360度の視野を持ち、目標物はW内の1つの点である。この場合、監視者の視線が妨害されない場合のみ目標物は視認されると言える。他の例では、固定の円錐に限定されるか、検出器レンジの下限及び/又は上限によって制限される。例えば、図7に示す視野領域は目標物301を含む半円の陰をつけた部分からなる。追跡アルゴリズムは人為的モデルまたは検出器の測定結果から視野領域を計算できる。前者の場合、光線掃引アルゴリズムが従来の多角形モデルに対して視野領域を計算するために使用することができる。後者の場合、視野領域は従来の技術を用いレーザーレンジファインダーで計測可能である。
追跡計画
Figure 2006520459
さらに、追跡計画は、監視ロボット303が通過するトータル距離、監視ロボット303から目標物301までの距離、あるいは視覚情報の品質の程度のような他の判断基準を最適化しても良い。いずれかの実施例においては、目標物301の追跡喪失を避けられない。その場合には、最適追跡計画は監視ロボット303が初めて目標物301を見失う時刻、「逃走時刻」又は「逃走予定時刻」(tesc)の最大化を含む。例えば、図2に示すように、逃走時刻は目標物101が障害物111に沿って曲がる瞬間である。
Figure 2006520459
このような場合、最適追跡計画は監視ロボット303が目標物301を追跡する前にオフラインで計算できる。目標物301の位置が全てのtに対して知られているので、監視ロボット303は目標物301を見失ったときに目標物301を再捕捉できる。
Figure 2006520459
例えば、図2に示すように監視ロボット103の目標物101に対する露出はほぼ監視ロボットの位置103a−103cに対応している。
もし追跡計画u*(t)が状態x(t)の関数として計算されれば、計画は閉ループで動作する。そうでなければ、追跡計画は開ループで動作する。目標物の運動モデルと位置測定が正確でなければ、予測可能な場合も含めて閉ループの追跡計画が開ループのものより一般に好まれる。
目標物の行動が知られていない場合、目標物301は「予測不可能」と呼ばれ、問題の解法はもっと複雑化する。図2及び3は予測不可能な目標物の移動を示す。予測不可能な場合は2つの方法で解析できる。
Figure 2006520459
このように行動セットは既知であるが任意の時刻における目標物301が選択する具体的な行動は分からない。この場合、θ(t)に対する最悪ケースの選択が与えられれば、追跡計画は最善策を実行するように設計できる。代替案として、確率的不確定性モデルが利用可能であれば(例えば確率密度関数p(θ(t)が既知)、予測の意味合いで最適の運動計画を計算できる。
光線掃引アルゴリズムを用いた逃走経路の計算
V(qo)は目標物(例えば図3の目標物301)が監視ロボット(例えば図3の監視ロボット303)によって視認される全ての位置のセットであることを思い起こそう。V(qo)は反時計回りに整理された頂点のリストによって表されると仮定する。リストの内容は、LlとLrに分けられ、Llはl(qo、qt)の左側のV(qo)の全ての頂点のリストで、Lrはl(qo、qt)の右側の全ての頂点のリストである。Lrの順番はその内容を時計回りに整理されるように逆にすることができる。従って、光線掃引アルゴリズムは、Llの連続掃引に引き続き、Lrの類似の掃引を実行することにより、qtからV(qo)内の全ての頂点までの最短経路を計算することからなる。
ここでLlに対する代表的な掃引について述べる。
Figure 2006520459
アルゴリズムによる更新は次のように行われる。

ピボットリスト更新:
(πi)のサイズ<3またはステップ2が不成功に終わるまで以下を繰り返す。
1.ur+1=viで、ur-1、urおよびur+1をπiの最後の3エレメントとする
2.ur+1が直線(ur-1、ur)の右側にあればπiからurを取り除く
光線掃引アルゴリズムではひとつの頂点が一旦逃走経路でなくなると再び逃走経路にはならないという事実を利用している。これは以下で説明する定理1から派生する結果である。
最短逃走経路SEP(qt、e)は現在取り上げている頂点viでピボットリストπiから計算される。viに対して互いに排他的な3ケースがあり、それぞれのケースでアルゴリズムは異なる実行をする。
1.viが自由端になければπiは逃走経路ではない。
2.viが自由端の終点でセグメント(vi-1、vi)が障害物の端部であれば、πiは新しい逃走経路SEP(qt、e)である。
3.viが自由端の終点であるが、セグメント(vi-1、vi)が自由空間内にあれば、逃走点をviの前の自由端に沿ってずらすことにより、新規に発見された逃走経路を短縮できる可能性がある。この計算は一定時間内で簡単に実行できる。
実行時間解析
本発明の実施例によれば、効率的な動作を実現するためにLlとLr内の個々の頂点は厳密に一回だけピボットリストに加えられる。同様に、取り除かれた頂点はいずれもリストに再度入れられることは無い。このようにして、V(qo)を表す入力リストが事前に分類されると、光線掃引アルゴリズムの計算費用はLlとLr内に保存された頂点の数に比例する。逃走経路を全て計算するための費用はO(n)である。ツリー内の個々のノードはV(qo)内の頂点であるので、この費用は逃走経路ツリーの計算に必要な費用でもある。
逃走経路ツリー
視線視野モデルでは多角形のワークスペース内の領域V(qo)も多角形である(実際には、多角形は星型の多角形である)。この視野多角形は線形複雑度を有し、その境界は固定および自由端で構成される。固定端はワークスペースの監視されたセクション(例えば物理的障害物の部分)を表す。
Figure 2006520459
目標物301が監視ロボット303に視認される場合を想定する。
Figure 2006520459
tに位置する目標物301に対する「逃走経路」はqtとV(qo)の外部のWにある点を結ぶ任意の衝突のない経路である。例えば目標物301に対する逃走経路は、障害物111または障害物111によって作られるオクルージョンを、目標物301自身と監視ロボット303との間に配置する。逃走経路の「逃走点」は逃走経路がV(qo)の境界を横切る点であり、常に自由端に沿って発生する。当然、目標物301と監視ロボット303のある特定のコンフィギュレーションに対して無限数の逃走経路が存在する。しかしながら、ある特定の逃走点に対して、逃走点と目標物間の距離が最小となる経路が存在する。さらに、任意の自由端に対して、この自由端に沿う全ての逃走点の中で距離が最小となる逃走経路が存在する。そのような経路SEP(qt、e)は自由端e経由の目標物の最短逃走経路と呼ばれる。SEP(qt、e)の長さはe(SDE(qt、e))を経由して逃れる最短距離である。
目標物301が逃走経路を通過する最短時間がその経路に対する「逃走時刻」である。任意の自由端eおよび目標物の位置qtに対して逃走時刻が最小となる経路が存在し、一般にはSEP(qt、e)に一致しない。これらの経路は目標物がホロノーム系で慣性が無視できる場合に限って一致する。
記号tesc(qt、qo)はqtを起点としてV(qo)から出る全ての逃走経路を移動する場合の最小時間を示す。
Figure 2006520459
このようにV(qo)がnfの自由端によって境を限られればnfの最短逃走経路が存在する。V(qo)の境を限定するe全体にわたる最短のSEP(qt,e)がコンフィギュレーション(qt、qo)に対する最短逃走経路SEP(qt、qo)になる。その長さはSDE(qt、qo)である。目標物がホロノーム系で慣性が無視できれば、SDE(qt、qo)はtesc(qt、qo)に目標物の最大スピードを乗じたものと等しくなる。
逃走経路の特性
Figure 2006520459
目標物が点と仮定すると、多角形のワークスペースに対して経路SEP(qt、e)は次の基本的な特性を満たす。

特性1:SEP(qt、e)はqtとV(qo)を限定する自由端eの点を結ぶ多角形の直線である。この多角形の直線の頂点がある場合は、個々の頂点はV(qo)の頂点になる。
特性2:経路SEP(qt、e)は放射状の直線l(qt、qo)を厳密には横切ることはできない。この経路は全てがl(qt、qo)の一方の側(右又は左)にあるか、l(qt、qo)に含まれるかのいずれかである。
Figure 2006520459
lをl(qt、qo)の左側にあり反時計回りに分類されるV(qo)の頂点のリストとする。同様に、Lrをl(qt、qo)の右側にあり時計回りに分類されるV(qo)の頂点のリストとする。l(qt、qo)がV(qo)の頂点を通過すれば、この頂点はLlとLrの両者に含まれるとする。
次の定理が上述の光線掃引アルゴリズムの基礎となっている。
定理1:qtからLl(又はLr)に含まれる障害物の頂点vまでの最短経路が、Ll(又はLr)に含まれる前の頂点uを通過しない場合は、qtからLl(又はLr)に含まれる頂点vの後に現れる任意の頂点wまでの最短経路が頂点uを通過しない。
証明:qtからwまでの最短経路がuを通過すれば、qtからvまでの最短経路はqt以外の点でqtからwまでの最短経路を通過することになる。従って、2つの経路の内の1つがより短くなる。
定理1はSEP(qt、e)が上述のような光線掃引アルゴリズムを用いて漸増的に構築できることを示唆している。Ll(又はLr)の掃引時に、qtから直前に処理した障害物の頂点までの最短経路を記憶しておくだけで充分である。
逃走経路ツリー
逃走経路ツリーを見ると多くの経路が同一の初期構造を共有していることが分かる。この特性は、全ての経路SEP(qt、e)に対する平均距離を最小化する計画にとって基本的な問題を提示している。同じ枝に沿う逃走経路は孤立の逃走経路を犠牲にした全体平均を取ることにより過剰に表される。椅子、テーブルの脚、類似の小さな障害物が同一の枝に沿う多くの逃走経路を生み出す実際の適用時に、この問題が起きる。この問題は、逃走経路ツリーの子供から親ノードへ逆行させて再帰平均を計算することにより軽減される。同じノードから分岐する子供はまず子供同士の平均が計算され、その結果が前のノードへ逆伝播される。
逃走リスクの最小化による追跡
目標物追跡問題の解法は小型のロボットでは特に計算費用が高額になる。充分高速のアルゴリズムを提供するために、小さな時間領域Δtを対象として計画する方法が実際上有効であることがある。従って、適切なアルゴリズムを実現するためには、小さな時間刻みΔtの段階毎の問題に離散化することがその一方法として含まれる。与えられた段階kに対してアルゴリズムは次の方程式を解いて監視ロボットに対する制御アクションukを見つける。
Figure 2006520459
ここで目標物は次段階の計算まで、例えば次の視野領域の取得まで同じ位置に留まると仮定する。上記の方程式の解法のかぎはtescの計算である。これは計算機を用いた計算としては費用のかかる計算である。
キノダイナミックな制約条件下の任意の目標物に対しては、tescはSDEに比例する因子によって上限が限定され、計算が格段に容易なる。次の方程式が上記の方程式の近似解を与える。
Figure 2006520459
ここではSDEを逃走時刻の代理関数として使用している。実際には、この方法は一般にシミュレーション実験とダイナミクスの無いホロノミック系の監視者を除いた全ての場合に不十分な結果をもたらす。上記の方程式には2つの問題がある。1つはSDE関数に特有な問題である。監視ロボットが動くと、新しいオクルージョンが形成され古いオクルージョンは消滅し、新しい逃走経路が最短逃走経路になる。
Figure 2006520459
モデル化されていない監視ロボットのダイナミクスはシャタリング信号によって励起するので、監視ロボットに誤った予測不可能な運動を与える。第2の問題はSDEがtescの適切な代理関数ではないことである。SDEとtescの関係は線形ではない。実際、大きなSDEは目標物が逃走するのを格段に難しくする。これを理解するためには、SDEがだんだん大きくなる状況を想像してみれば良い。目標物が逃走するために長い距離を移動しなければならないばかりでなく、監視ロボットが今後の目標物の追跡の能力を改善する時間があることにもよって、追跡がより簡単になる。tescに対して次の代理関数を用いれば、第2の方程式に付随する両方の問題は解決することができる。この関数が「逃走リスク」で、すべての自由端eに次のように定義される。
Figure 2006520459
ここでh=SDE(e、qt)は目標物と端部eとの間の最短距離を、roは監視ロボット(qo)からeでオクルージョンを起こすコーナー迄の距離を、dは目標物(qt)からコーナーまでの距離を、cは正の定数を、f(1/h)は1/hの単調増加関数を表す。項cro 2はこの最小化によって監視ロボットが追跡する今後の能力が増加するので予測コンポーネントである。項f(1/h)はこの最小化によって目標物が現在の視野領域から逃走する可能性を減少させるので反応コンポーネントである。log(1/h2+1)及び(1/h)m+2(mは負でない整数)がf(1/h)の例である。
追跡アルゴリズムの適用
本発明の実施例を用いた移動検出器を持つロボットを適用することにより多くの恩恵を被る。本発明を利用したロボットは障害物が散乱する環境内を移動する予測不可能な目標物を自律的に監視できる。例えば、自立的監視者(AO)として知られているカメラを搭載されたロボットは地域に分布したチームがロボットのソフトウェアをデバッグするのを補助できる。AOは独立のタスクを実行しながら第2のロボット(目標物)を連続的に追跡する。AOによって取得された情報は、目標物とその環境の3次元グラフィック化によってプログラマーが目標物のソフトウェアのバグを発見し修正することが可能なリモートワークステーションへ送られる。
障害物のある環境内の目標物追跡技術は、デジタルアクターのグラフィックアニメーションで、アクターが環境内を移動するにつれて映し出される連続的な視点(仮想のカメラ位置)を選ぶことに用いられる。手術に用いられる制御可能なカメラは、予測不可能な人または器具による潜在的な妨害となる動きがあるにもかかわらず、患者の臓器または組織を連続的に観察できる。
空港の環境では、旅行者が荷物の搬送に利用できる移動ロボットは空港内を移動する際、自律的に旅行者の動きに従うことができる。軍事利用の分野では、障害物中の目標物の追跡にさまざまな形で利用できる。これらの適用例と従来の追跡例(例えばミサイル制御と純視覚的追跡)の差異のかぎは、検出器の視野を遮蔽し検出器と目標物の運動を妨害する障害物を導入した点にある。検出器は好ましくないオクルージョンの発生を防止するために移動する必要がある。
追跡アルゴリズムは他のロボットに対して新しい環境の地図を作成するためにも使用できる。例えば、追跡アルゴリズムは新しい環境の調査に当てられたロボットに使用できる。簡単な事務所の例では、追跡アルゴリズムを持つ監視ロボットがフロア全体に渡って目標物を追跡し、目標物を追跡しながらフロアの地図を作成するようにできる。この地図はフロアでさまざまなタスクを実行するために準備された監視業務を行うロボットに与えられる。監視ロボットは複数の検出器を具備することも可能である。例えば、ロボットの航法のための視野領域を与える低分解能の検出器と、監視ロボットがフロアを通過する際にフロア計画の詳細地図を作成するための高分解能の検出器が上げられる。詳細地図は別のアルゴリズムで制御される後継ロボットに与えることが可能である。
追跡アルゴリズムは本田のアシモロボットのような擬人ロボットを含むあらゆるタイプの移動ロボットに利用することが可能である。さらに、本発明の実施例によれば、追跡コマンドが監視ロボットに与えられれば(例えば送信されれば)、視野領域を最終的に与える検出器も、追跡アルゴリズムそのものも監視ロボット上に必ずしもある必要は無い。
上記の詳細説明の観点から、以上の変更を含めて本発明に変更を加えることができる。一般に、請求項において、使用されている用語が本発明を明細書に開示されている具体的な実施例に限定すると解釈されてはならず、請求項の下で動作する全てのシステムと方法とを含むと解釈されるべきである。
図1はワークスペース内で移動目標物を追跡する移動監視ロボットを示す。 図2は監視ロボット用の追跡アルゴリズムが目標物を追跡するために視覚サーボしか使わない場合に起きる問題を示す。 図3は本発明の一実施例による、監視ロボットが障害物の回りを移動する時に、移動目標物を追跡する追跡アルゴリズムを適用している視覚ロボットの動作を説明する。 図4は本発明の一実施例による追跡アルゴリズムが実行するステップを示すフローチャートである。 図5は本発明の一実施例による、検出器によって追跡アルゴリズムに送られ、視野領域の決定と目標物の位置決定に使用される検出器データを示す。 図6は本発明の一実施例による、追跡アルゴリズムによって識別された障害物を含む視野領域を示す。 図7は本発明の一実施例による、視野領域の逃走経路ツリー(EPT)への遷移における第1のステップを示す。 図8は本発明の一実施例による、視野領域に対して設定された逃走経路ツリーを示す。 図9は本発明の一実施例による、追跡アルゴリズムのリスク基準の計画に対する初期の考慮事項を示す。 図10は本発明の一実施例による、障害物によって作られたオクルージョンに向かってさらに移動する目標物と反応コンポーネントの役割を示す。 図11は本発明の一実施例による反応コンポーネントと予測コンポーネントとの組合せ、および監視ロボットに対する軌跡を示す。 図12は、目標物が監視ロボットと同様に障害物と同じ側にある例を示すことによって、予測コンポーネントの役割を説明する。 図13は本発明の一実施例による、追跡アルゴリズムを実行するように構成された監視ロボットのブロック図である。

Claims (28)

  1. ワークスペース内の複数の障害物の間を移動する目標物を追跡する方法であって、
    前記複数の障害物から障害物の位置を識別し、検出器から受信したデータを用いて前記目標物の位置を識別する視野領域を作成するステップと、
    前記視野領域を用いて複数の逃走経路を前記目標物に対して計算するステップと、ここでそれぞれの逃走経路は前記検出器による前記目標物の検出を遮蔽する経路を表す、
    前記複数の逃走経路の中で最短長さの経路を表すように1つの逃走経路セットを前記複数の逃走経路の中から識別するステップと、
    前記逃走経路セットに対して逃走リスクと逃走リスク勾配とを計算するステップとからなる方法。
  2. 目標物を追尾する監視ロボットに対して前記逃走リスク勾配を用いて運動コマンドを作成するステップをさらに含む請求項1の方法。
  3. 前記運動コマンドを作成するステップは前記逃走リスク勾配の再帰平均を計算するステップを更に含む請求項2の方法。
  4. 複数の逃走経路を計算するステップが、
    オクルージョン領域は前記検出器が目標物を検知できない領域からなり、前記複数の障害物の妨害によって発生するオクルージョン領域を識別するステップをさらに含む請求項1の方法。
  5. 前記視野領域を用いて複数の逃走経路を前記目標物に対して計算するステップが、
    前記逃走経路を識別するために計算機で実行する光線掃引アルゴリズムの適用をさらに含むことを特徴とする請求項1の方法。
  6. ワークスペース内の目標物を追跡する方法であって、
    前記目標物と少なくとも1つの障害物を識別する視野領域を取得するために前記ワークスペースを検出するステップと、
    前記視野領域を用いて前記目標物の軌跡が監視ロボットによる検出から逃れる逃走リスク勾配を計算するステップと、ここで前記監視ロボットからの逃走は視野領域外の移動と少なくとも1つの障害物によってできるオクルージョン内への移動を含む、
    前記逃走リスク勾配を用いて、前記監視ロボットによる検出から逃れる前記目標物の能力を低減させる操舵コマンドを監視ロボットに対して作成するステップとからなる方法。
  7. 逃走リスクの計算ステップは、
    複数の逃走経路に対して前記目標物の軌跡を補正する反応項を計算することと、前記監視ロボットと前記少なくとも1つの障害物間の距離を補正する予測項を計算することとによって、前記逃走リスクを最小化するステップを更に含むことを特徴とする請求項6の方法。
  8. 前記視野領域のそれぞれの自由端に対する前記逃走リスク計算が、下記の式の実行によってなされることを特徴とする請求項6の方法。
    Figure 2006520459
    ここで、cは正の定数、hは前記目標物と、前記監視ロボット/ターゲット間のオクルージョンとの間の最短距離、roは前記監視ロボットからオクルージョンを引起す障害物までの距離、f(1/h)は1/hの単調増加関数とする。
  9. 前記視野領域に対して複数の逃走リスクの計算と、
    前記複数の逃走リスクに対して逃走リスク勾配の計算とをさらに含む請求項6の方法。
  10. 前記逃走リスクを用いて前記監視ロボットに対して前記操舵コマンドを作成するステップは前記リスク勾配の再帰平均を計算するステップからなることを特徴とする請求項9の方法。
  11. ワークスペース内を移動する目標物を追跡する方法であって、
    前記目標物をヘッドノードとして持つ逃走経路ツリーを作成するステップと、
    前記目標物に対して複数の逃走経路を識別するステップと、ここでそれぞれの逃走経路は前記目標物を少なくとも1つの検出器から遮蔽する前記ワークスペースを通る経路を表す、
    前記複数の逃走経路のそれぞれの逃走経路を前記逃走経路ツリーにおいてチャイルドノードとして設定し、長さの短い逃走経路が長さの長い逃走経路よりも前記逃走経路ツリーにおいてより高い位置にあるように前記逃走経路ツリー内のそれぞれの逃走経路を整理するステップと、
    前記逃走経路ツリーから、より長さの短い逃走経路からなる1セットを選択するステップと、
    前記逃走経路のセットに対して逃走リスクを計算するステップとからなる方法。
  12. 前記目標物に対して前記複数の逃走経路を識別するステップは、前記逃走経路を識別するために計算機が実行する光線掃引アルゴリズムの適用をさらに含むことを特徴とする請求項11の方法。
  13. 前記視野領域の全ての自由端eに対する逃走リスクの計算が、下記の式の実行によってなされることを特徴とする請求項11の方法。
    Figure 2006520459
    ここで、cは正の定数、hは前記目標物と前記監視ロボット/ターゲット間のオクルージョンとの間の最短距離、roは前記監視ロボットからオクルージョンを引起す障害物までの距離、f(1/h)は1/hの単調増加関数である。
  14. 複数の逃走リスクの計算と、
    前記複数の逃走リスクに対して逃走リスク勾配の計算とをさらに含む請求項11の方法。
  15. 前記目標物を追跡する監視ロボットに対して前記逃走リスク勾配を用いて運動コマンドを作成するステップをさらに含む請求項14の方法。
  16. ワークスペース内の複数の障害物の間を移動する目標物を追跡するシステムであって、
    検出器から受信するデータを用いて複数の障害物から障害物の位置を識別する視野領域を作成するように構成された視野取得モジュールと、
    前記視野領域内の前記目標物の位置決定をするように構成された目標物捕捉モジュールと、
    前記視野領域を用いて前記目標物に対して複数の逃走経路を識別するように構成された逃走経路ツリー構築モジュールと、ここでそれぞれの逃走経路は前記目標物を前記検出器の検知から遮蔽する経路を表す、
    前記複数の逃走経路の中で逃走経路セットが最短長さの経路となるように前記複数の逃走経路から1つの逃走経路セットを識別するように構成された最短逃走経路ツリー計算モジュールと、
    前記逃走経路セットに対して逃走リスク勾配を計算するように構成されたリスク勾配計算モジュールとからなるシステム。
  17. 前記逃走リスク勾配を用いて前記監視ロボットに対して、前記目標物が前記検出器の検知から逃れる能力を低減する操舵コマンドを作成するように構成された運動コマンド計算モジュールをさらに含む請求項16のシステム。
  18. 前記リスク勾配計算モジュールは、前記視野領域における全ての端部eに関連させたリスク関数上で動作を実行することにより、前記逃走経路セットに対して前記逃走リスク勾配を計算するように構成され、前記動作は、下記の式によって与えられることを特徴とする請求項16のシステム。
    Figure 2006520459
    ここで、f'(1/h)はf(1/h)の導関数、hの勾配▽hは端部eに関連した逃走経路SEP(e、qt)の幾何学に従って計算され、cは正の定数、hは前記目標物とターゲットを追跡する監視ロボット/ターゲット間のオクルージョンとの間の最短距離、roは前記監視ロボットからオクルージョンを引起す障害物までの距離である。
  19. 前記逃走経路構築モジュールが、計算機が実行する光線掃引アルゴリズムを実行することによって、前記目標物に対して複数の逃走経路を識別することを特徴とする請求項16のシステム。
  20. ワークスペース内の目標物を追跡するシステムであって、
    前記ワークスペースを記述するデータを取得するように構成された検出器と、
    前記検出器から受信したデータを使用して、前記ワークスペース内の複数の障害物を識別する視野領域を生成するように構成された視野領域取得モジュールと、
    前記ワークスペース内の前記目標物を識別するように構成された目標物捕捉モジュールと、
    前記視野領域を使用して、前記目標物が監視ロボットの検出から逃れる逃走リスクを決定するように構成されたリスク割付けモジュールと、ここで前記監視ロボットからの逃走には、視野領域外での目標物の移動と前記複数の障害物の少なくとも1つの障害物が引き起こすオクルージョン内への目標物の移動が含まれ、
    前記逃走リスクを用いて、前記目標物の前記監視ロボットによる検出から逃走する能力を低減する操舵コマンドを、前記監視ロボットに対して作成するように構成された運動コマンド計算モジュールとからなるシステム。
  21. 前記リスク割付けモジュールによって決定された前記逃走リスクを用いてリスク勾配を計算し、前記操舵コマンド作成のために前記逃走リスク勾配を前記運動コマンド計算モジュールに与えるように構成されたリスク勾配計算モジュールをさらに含む請求項20のシステム。
  22. 前記リスク勾配計算モジュールが、前記視野領域における全ての端部eに割付けたリスク関数上で動作を実行することにより前記逃走リスク勾配を計算するように構成され、前記動作は、下記の式によって与えられることを特徴とする請求項21のシステム。
    Figure 2006520459
    ここで、f'(1/h)はf(1/h)の導関数、hの勾配▽hは端部eに関連した逃走経路SEP(e、qt)の幾何学に従って計算され、cは正の定数、hは前記目標物と前記ターゲットを追跡する監視ロボット/ターゲット間のオクルージョンとの間の最短距離、roは前記監視ロボットからオクルージョンを引起す障害物までの距離である。
  23. 前記監視ロボットが検出器に取付けられたことを特徴とする請求項20のシステム。
  24. 前記監視ロボットが擬人的ロボットであって、前記運動コマンド計算モジュールが擬人的アクチュエータによる実行のために前記操舵コマンドを作成することを特徴とする請求項20のシステム。
  25. 前記目標物は哺乳動物で、前記検出器は前記ワークスペースを記述する熱関連のデータを取得するように構成されたことを特徴とする請求項20のシステム。
  26. ワークスペース内を移動する目標物を追跡するシステムであって、
    前記目標物をヘッドノードとする逃走経路ツリーを作成するように構成され、前記目標物に対して複数の逃走経路を識別するように構成され、ここでそれぞれの逃走経路は前記目標物を少なくとも1つの検出器から遮蔽する前記ワークスペースを通る経路を表す、前記複数の逃走経路のそれぞれの逃走経路を前記逃走経路ツリーにおいてチャイルドノードとして配置するように構成され、前記逃走経路ツリー内のそれぞれの逃走経路に対して、長さの短い逃走経路が長さの長い逃走経路よりも前記逃走経路ツリーの上位を占めるような整理をするように構成された逃走経路ツリー構築モジュールと、
    前記逃走経路ツリーからより長さの短い逃走経路のセットを選択するように構成された最短逃走経路ツリー計算モジュールと、
    前記逃走経路セットを用いて前記目標物に対して逃走リスクを計算するように構成されたリスク割付けモジュールとからなるシステム。
  27. 前記逃走経路ツリーを保持するように構成されたデータ格納庫をさらに含む請求項26のシステム。
  28. ワークスペース内を移動する目標物を追跡するように構成された計算システムの中の計算機が判読できる媒体であって、
    前記目標物が検出器による検出を逃れるために使用可能な逃走経路を表すように構成された逃走経路ツリー構造と、
    前記目標物に対する位置データと、
    前記目標物を追跡する監視ロボットに対する位置データとからなる媒体。
JP2005518132A 2002-05-10 2003-05-12 未知の障害物の中の予測不可能な目標物の実時間追跡 Expired - Fee Related JP3875988B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US37801502P 2002-05-10 2002-05-10
PCT/US2003/014809 WO2003096054A2 (en) 2002-05-10 2003-05-12 Real-time target tracking of an unpredictable target amid unknown obstacles

Publications (2)

Publication Number Publication Date
JP2006520459A true JP2006520459A (ja) 2006-09-07
JP3875988B2 JP3875988B2 (ja) 2007-01-31

Family

ID=29420361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005518132A Expired - Fee Related JP3875988B2 (ja) 2002-05-10 2003-05-12 未知の障害物の中の予測不可能な目標物の実時間追跡

Country Status (5)

Country Link
US (1) US6917855B2 (ja)
EP (1) EP1504277B1 (ja)
JP (1) JP3875988B2 (ja)
AU (1) AU2003229008A1 (ja)
WO (1) WO2003096054A2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009205644A (ja) * 2008-02-29 2009-09-10 Mitsubishi Electric Corp 複数ロボットによる探索監視方法
JP2010015194A (ja) * 2008-06-30 2010-01-21 Ihi Corp 自律移動ロボット装置及び自律移動ロボット装置の制御方法
JP2017068298A (ja) * 2015-09-28 2017-04-06 株式会社日立システムズ 自律飛行移動体、ターゲット追跡方法
WO2018180454A1 (ja) * 2017-03-28 2018-10-04 日本電産株式会社 移動体
CN110103237A (zh) * 2019-05-13 2019-08-09 湖北经济学院 基于视觉目标跟踪的跟随型伙伴机器人
CN112748720A (zh) * 2019-10-29 2021-05-04 北京百度网讯科技有限公司 自动驾驶车辆的控制方法、装置、设备及存储介质

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3968501B2 (ja) * 2001-11-30 2007-08-29 ソニー株式会社 ロボットの自己位置同定システム及び自己位置同定方法
JP3875988B2 (ja) 2002-05-10 2007-01-31 本田技研工業株式会社 未知の障害物の中の予測不可能な目標物の実時間追跡
WO2004009303A1 (ja) * 2002-07-18 2004-01-29 Kabushiki Kaisha Yaskawa Denki ロボット制御装置およびロボットシステム
US7015831B2 (en) 2002-12-17 2006-03-21 Evolution Robotics, Inc. Systems and methods for incrementally updating a pose of a mobile device calculated by visual simultaneous localization and mapping techniques
JP2004298977A (ja) * 2003-03-28 2004-10-28 Sony Corp 行動制御装置、行動制御方法及び行動制御プログラム、並びに移動型ロボット装置
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
EP1587162B1 (en) * 2004-04-16 2008-05-14 Honda Research Institute Europe GmbH Self-calibrating sensor orienting system
EP1586421B1 (en) 2004-04-16 2008-03-05 Honda Research Institute Europe GmbH Self-calibrating orienting system for a manipulating device
US7908040B2 (en) 2004-07-15 2011-03-15 Raytheon Company System and method for automated search by distributed elements
US7409295B2 (en) * 2004-08-09 2008-08-05 M/A-Com, Inc. Imminent-collision detection system and process
US8000837B2 (en) 2004-10-05 2011-08-16 J&L Group International, Llc Programmable load forming system, components thereof, and methods of use
KR100703692B1 (ko) * 2004-11-03 2007-04-05 삼성전자주식회사 공간상에 존재하는 오브젝트들을 구별하기 위한 시스템,장치 및 방법
JP4316477B2 (ja) * 2004-11-18 2009-08-19 パナソニック株式会社 移動ロボットの追従方法
JP2006220521A (ja) * 2005-02-10 2006-08-24 Hitachi Ltd 自己位置計測装置及び自己位置計測方法を実行するためのプログラム
US20060235610A1 (en) * 2005-04-14 2006-10-19 Honeywell International Inc. Map-based trajectory generation
EP1728600B1 (en) * 2005-05-31 2008-03-12 Honda Research Institute Europe GmbH Controlling the trajectory of an effector
JP4241673B2 (ja) * 2005-06-17 2009-03-18 本田技研工業株式会社 移動体の経路生成装置
DE602005008234D1 (de) * 2005-08-10 2008-08-28 Honda Res Inst Europe Gmbh Erhöhung der Robustheit von online Kalibrierung durch Bewegungsdetektion
ATE524784T1 (de) 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
JP4375320B2 (ja) * 2005-10-27 2009-12-02 株式会社日立製作所 移動ロボット
US7533073B2 (en) 2005-12-05 2009-05-12 Raytheon Company Methods and apparatus for heuristic search to optimize metrics in generating a plan having a series of actions
JP4699426B2 (ja) * 2006-08-08 2011-06-08 パナソニック株式会社 障害物回避方法と障害物回避移動装置
KR100811886B1 (ko) * 2006-09-28 2008-03-10 한국전자통신연구원 장애물 회피 진행이 가능한 자율이동로봇 및 그 방법
JP2008084135A (ja) * 2006-09-28 2008-04-10 Toshiba Corp 移動制御方法、移動ロボットおよび移動制御プログラム
JP2008191781A (ja) * 2007-02-01 2008-08-21 Hitachi Ltd 衝突回避システム
JP5080333B2 (ja) * 2007-04-06 2012-11-21 本田技研工業株式会社 自律移動体のための物体認識装置
US8260485B1 (en) * 2007-04-26 2012-09-04 The Boeing Company Adaptive multi-vehicle area coverage optimization system and method
US7625314B2 (en) * 2007-04-30 2009-12-01 Nike, Inc. Adaptive training system with aerial mobility system
JP5060619B2 (ja) * 2007-06-08 2012-10-31 本田技研工業株式会社 モーション計画方法、モーション計画システム及び記録媒体
JP4371153B2 (ja) * 2007-06-15 2009-11-25 トヨタ自動車株式会社 自律移動装置
JP5047709B2 (ja) * 2007-07-04 2012-10-10 株式会社日立製作所 移動装置、システム、移動方法及び移動プログラム
EP2107504A1 (en) * 2008-03-31 2009-10-07 Harman Becker Automotive Systems GmbH Method and device for generating a real time environment model for vehicles
US7961137B2 (en) * 2008-11-10 2011-06-14 The Boeing Company System and method for detecting performance of a sensor field at all points within a geographic area of regard
CA2748136C (en) * 2008-12-23 2019-07-23 Evan Baumgarten Chasing training device
KR101554515B1 (ko) * 2009-01-07 2015-09-21 삼성전자 주식회사 로봇의 경로계획장치 및 그 방법
US20110161060A1 (en) * 2009-12-29 2011-06-30 Changkyu Kim Optimization-Based exact formulation and solution of crowd simulation in virtual worlds
US9286810B2 (en) 2010-09-24 2016-03-15 Irobot Corporation Systems and methods for VSLAM optimization
US20120150573A1 (en) * 2010-12-13 2012-06-14 Omar Soubra Real-time site monitoring design
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
US20130197736A1 (en) * 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
US8525836B1 (en) * 2012-02-07 2013-09-03 Google Inc. Systems and methods for representing information associated with objects in an area
US9760092B2 (en) 2012-03-16 2017-09-12 Waymo Llc Actively modifying a field of view of an autonomous vehicle in view of constraints
US9321173B2 (en) 2012-06-22 2016-04-26 Microsoft Technology Licensing, Llc Tracking and following people with a mobile robotic device
US9020637B2 (en) 2012-11-02 2015-04-28 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US9037396B2 (en) 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
KR20140137893A (ko) * 2013-05-24 2014-12-03 한국전자통신연구원 객체 추적 방법 및 장치
US10431105B2 (en) * 2014-01-07 2019-10-01 Honeywell International Inc. Enhanced awareness of obstacle proximity
US10963133B2 (en) 2014-01-07 2021-03-30 Honeywell International Inc. Enhanced awareness of obstacle proximity
CN104317299B (zh) * 2014-11-11 2017-01-25 东南大学 一种基于轮式移动机器人轨迹跟踪的混合控制方法
US20160188977A1 (en) * 2014-12-24 2016-06-30 Irobot Corporation Mobile Security Robot
CN104932506B (zh) * 2015-06-09 2017-09-19 东南大学 基于快速终端滑模的轮式移动机器人轨迹跟踪方法
EP3403146A4 (en) 2016-01-15 2019-08-21 iRobot Corporation AUTONOMOUS MONITORING ROBOT SYSTEMS
US9744665B1 (en) * 2016-01-27 2017-08-29 X Development Llc Optimization of observer robot locations
CA3049726A1 (en) * 2017-01-10 2018-07-19 Babak Rezvani Emergency drone guidance device
AU2018210949B2 (en) * 2017-01-17 2022-08-11 Alarm.Com Incorporated Dynamic drone navigation
US10816974B2 (en) 2017-02-28 2020-10-27 Toyota Jidosha Kabushiki Kaisha Proactive acquisition of data for maintenance of appearance model by mobile robot
US10754351B2 (en) * 2017-02-28 2020-08-25 Toyota Jidosha Kabushiki Kaisha Observability grid-based autonomous environment search
JP7017025B2 (ja) * 2017-03-08 2022-02-08 日本電気株式会社 自律移動ロボット、自律移動ロボットの制御方法および制御プログラム
US11856938B1 (en) 2017-03-31 2024-01-02 Alarm.Com Incorporated Robotic rover
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
EP3693826B1 (en) * 2017-10-06 2022-02-23 Kabushiki Kaisha Toyota Jidoshokki Moving vehicle
CN108037767A (zh) * 2017-12-13 2018-05-15 王俊梅 一种无人机视线死角转向逃逸飞行系统
US12019452B2 (en) * 2018-03-26 2024-06-25 Jabil Inc Apparatus, system, and method of using depth assessment for autonomous robot navigation
JP6988637B2 (ja) * 2018-03-28 2022-01-05 トヨタ自動車株式会社 自動運転進路決定装置
WO2020018527A1 (en) * 2018-07-16 2020-01-23 Brain Corporation Systems and methods for optimizing route planning for tight turns for robotic apparatuses
CN109085836A (zh) * 2018-08-29 2018-12-25 深圳市浦硕科技有限公司 一种扫地机器人回指定位置最短路线的方法
US11325252B2 (en) * 2018-09-15 2022-05-10 X Development Llc Action prediction networks for robotic grasping
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
KR20200084449A (ko) * 2018-12-26 2020-07-13 삼성전자주식회사 청소 로봇 및 그의 태스크 수행 방법
US11498587B1 (en) * 2019-01-25 2022-11-15 Amazon Technologies, Inc. Autonomous machine motion planning in a dynamic environment
CN111714028A (zh) * 2019-03-18 2020-09-29 北京奇虎科技有限公司 清扫设备的禁区脱困方法、装置、设备及可读存储介质
CN112824832B (zh) * 2019-11-20 2024-07-19 炬星科技(深圳)有限公司 障碍物运动轨迹预测方法、系统、设备及计算机可读存储介质
US11438886B2 (en) * 2020-02-27 2022-09-06 Psj International Ltd. System for establishing positioning map data and method for the same
US20230185317A1 (en) * 2020-06-03 2023-06-15 Sony Group Corporation Information processing device, information processing system, method, and program
CN112965490B (zh) * 2021-02-07 2024-07-19 京东科技信息技术有限公司 控制机器人的方法、装置及非瞬时性计算机可读存储介质
US11417105B1 (en) 2021-02-16 2022-08-16 Motorola Solutions, Inc. Identifying individuals who witnessed a fleeing suspect
CN114049602B (zh) * 2021-10-29 2022-06-14 哈尔滨工业大学 一种基于意图推理的逃逸目标跟踪方法及系统
CN114518754B (zh) * 2022-01-28 2024-04-23 西北工业大学 一种多智能体追逃问题建模与围捕策略生成方法
US20240109177A1 (en) * 2022-10-01 2024-04-04 Tianqi (George) Sun Small intelligent robot system
CN118484000A (zh) * 2024-05-07 2024-08-13 浙江神州明月智能科技有限公司 基于多传感器融合的机器人自主导航避障系统及方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4023178A (en) * 1974-07-24 1977-05-10 Sanyo Electric Co., Ltd. Radio-controlled vehicle with RF noise elimination feature and with ultrasonic anti-collision means insensitive to mechanical shocks
US5506682A (en) * 1982-02-16 1996-04-09 Sensor Adaptive Machines Inc. Robot vision using targets
FR2566935B1 (fr) 1984-06-27 1986-12-12 Commissariat Energie Atomique Systeme de commande optimisee des mouvements d'un mobile sensible et actif par rapport a un environnement local passif a l'aide de capteurs proximetriques locaux
JPS6197711A (ja) * 1984-10-18 1986-05-16 Casio Comput Co Ltd 赤外線追尾ロボツトシステム
US4747758A (en) * 1986-04-17 1988-05-31 Saurwein Albert C Fluid pressure-intensifier
US4761595A (en) * 1987-05-01 1988-08-02 General Motors Corporation Motion control system having adaptive feedforward path tracking
JP2708458B2 (ja) * 1988-04-01 1998-02-04 株式会社豊田中央研究所 倣い制御ロボット
US4980626A (en) * 1989-08-10 1990-12-25 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method and apparatus for positioning a robotic end effector
JPH06139498A (ja) * 1992-10-30 1994-05-20 Mitsubishi Electric Corp 障害物回避装置
DE4326016C1 (de) 1993-08-03 1994-09-15 Bail Guenther Selbstfahrendes Fahrzeug, vorzugsweise Golfwagen
US5983161A (en) 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
DE19509320A1 (de) 1995-03-15 1996-09-19 Technologietransfer Anstalt Te Folgesteuerung für ein selbstfahrendes Fahrzeug
US5999881A (en) * 1997-05-05 1999-12-07 General Electric Company Automated path planning
DE19743652A1 (de) * 1997-10-02 1999-04-08 Diehl Stiftung & Co Testsystem zur Vermessung und Optimierung von Zielverfolgungssystemen
AUPP299498A0 (en) * 1998-04-15 1998-05-07 Commonwealth Scientific And Industrial Research Organisation Method of tracking and sensing position of objects
JP3555107B2 (ja) * 1999-11-24 2004-08-18 ソニー株式会社 脚式移動ロボット及び脚式移動ロボットの動作制御方法
JP3875988B2 (ja) 2002-05-10 2007-01-31 本田技研工業株式会社 未知の障害物の中の予測不可能な目標物の実時間追跡

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009205644A (ja) * 2008-02-29 2009-09-10 Mitsubishi Electric Corp 複数ロボットによる探索監視方法
JP2010015194A (ja) * 2008-06-30 2010-01-21 Ihi Corp 自律移動ロボット装置及び自律移動ロボット装置の制御方法
JP2017068298A (ja) * 2015-09-28 2017-04-06 株式会社日立システムズ 自律飛行移動体、ターゲット追跡方法
WO2018180454A1 (ja) * 2017-03-28 2018-10-04 日本電産株式会社 移動体
CN110103237A (zh) * 2019-05-13 2019-08-09 湖北经济学院 基于视觉目标跟踪的跟随型伙伴机器人
CN112748720A (zh) * 2019-10-29 2021-05-04 北京百度网讯科技有限公司 自动驾驶车辆的控制方法、装置、设备及存储介质

Also Published As

Publication number Publication date
JP3875988B2 (ja) 2007-01-31
AU2003229008A1 (en) 2003-11-11
WO2003096054A8 (en) 2005-07-14
US6917855B2 (en) 2005-07-12
AU2003229008A8 (en) 2003-11-11
WO2003096054A2 (en) 2003-11-20
EP1504277B1 (en) 2012-10-10
WO2003096054A3 (en) 2004-04-01
US20040073368A1 (en) 2004-04-15
EP1504277A4 (en) 2010-11-24
EP1504277A2 (en) 2005-02-09

Similar Documents

Publication Publication Date Title
JP3875988B2 (ja) 未知の障害物の中の予測不可能な目標物の実時間追跡
EP3814865B1 (en) Self-aware visual-textual co-grounded navigation agent
Cimurs et al. Goal-driven autonomous exploration through deep reinforcement learning
Fan et al. Getting robots unfrozen and unlost in dense pedestrian crowds
US8271132B2 (en) System and method for seamless task-directed autonomy for robots
Liang et al. Realtime collision avoidance for mobile robots in dense crowds using implicit multi-sensor fusion and deep reinforcement learning
Liu et al. Episodic memory-based robotic planning under uncertainty
Kojima et al. To learn or not to learn: Analyzing the role of learning for navigation in virtual environments
Bodhale et al. Path planning for a mobile robot in a dynamic environment
Molinos et al. Dynamic obstacle avoidance based on curvature arcs
Lopez et al. Space‐time planning in changing environments: using dynamic objects for accessibility
Radmard et al. Resolving occlusion in active visual target search of high-dimensional robotic systems
Nardi et al. Experience-based path planning for mobile robots exploiting user preferences
KR102617418B1 (ko) 센서 구성과 로봇 형태에 적응 가능한 강화학습 기반 자율주행 방법, 컴퓨터 시스템, 및 컴퓨터 프로그램
WO2022259600A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
Epstein et al. Metareasoning and path planning for autonomous indoor navigation
Missura et al. Fast footstep planning with aborting A
Korpan et al. Hierarchical freespace planning for navigation in unfamiliar worlds
Karakaya et al. A novel local motion planner: Navibug
Drenth Investigation of Frontier and Rapidly-Exploring Random Tree Based Robot Exploration Algorithms and Implementation of Multi Robot Exploration
Teh et al. Extended Dijkstra algorithm in path planning for vision based patrol robot
JP7459238B2 (ja) ユーザ選好による強化学習基盤の自律走行最適化方法およびシステム
US20230132280A1 (en) Robotic navigation and transport of objects
Teh et al. Vision Based Indoor Surveillance Patrol Robot Using Extended Dijkstra Algorithm in Path Planning: Manuscript Received: 18 October 2021, Accepted: 4 November 2021, Published: 15 December 2021
Wagner Online Unmanned Ground Vehicle Mission Planning using Active Aerial Vehicle Exploration

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20060623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061027

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131102

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees