Nothing Special   »   [go: up one dir, main page]

JP5528151B2 - 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム - Google Patents

対象物追跡装置、対象物追跡方法、および対象物追跡プログラム Download PDF

Info

Publication number
JP5528151B2
JP5528151B2 JP2010034849A JP2010034849A JP5528151B2 JP 5528151 B2 JP5528151 B2 JP 5528151B2 JP 2010034849 A JP2010034849 A JP 2010034849A JP 2010034849 A JP2010034849 A JP 2010034849A JP 5528151 B2 JP5528151 B2 JP 5528151B2
Authority
JP
Japan
Prior art keywords
likelihood
image
particles
particle
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010034849A
Other languages
English (en)
Other versions
JP2011170684A (ja
Inventor
雄二 里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2010034849A priority Critical patent/JP5528151B2/ja
Priority to US13/263,169 priority patent/US8891821B2/en
Priority to PCT/JP2011/000135 priority patent/WO2011102072A1/ja
Priority to CN201180001777.4A priority patent/CN102405483B/zh
Publication of JP2011170684A publication Critical patent/JP2011170684A/ja
Application granted granted Critical
Publication of JP5528151B2 publication Critical patent/JP5528151B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、パーティクルフィルタを用いて映像に映し出された対象物の位置を追跡する対象物追跡装置、対象物追跡方法、および対象物追跡プログラムに関する。
従来、映像に映し出された人間等の対象物の位置を、パーティクルフィルタ(particle filter)を用いて、追跡することが行われている(例えば特許文献1および非特許文献1参照)。
特許文献1および非特許文献1に記載の技術(以下、まとめて「従来技術」と称する)は、まず、映像中の対象物の画像の特徴量を求める。従来技術は、時刻t−1の対象物の位置から、次の時刻tにおける対象物の位置の候補を示すパーティクルを複数生成し、時刻tの各パーティクルと時刻t−1の対象物の位置との間で特徴量のマッチングを行う。そして、従来技術は、その類似度から、各パーティクルについて、そのパーティクルが時刻tの対象物の位置であることの尤度を算出する。そして、従来技術は、対象物毎に、最も尤度が高いパーティクルの位置を、時刻tにおける対象物の位置と推定する。これにより、従来技術は、同一の対象物の位置を追跡し続けることができる。
また、特に、特許文献1に記載の技術は、特徴量が対象物の輪郭曲線を示す形状特徴量である場合に、色特徴量を用いて上述の尤度を補正する。具体的には、特許文献1に記載の技術は、まず、例えば輪郭曲線内の領域の色ヒストグラムである色特徴量を、パーティクルごとに算出する。そして、特許文献1に記載の技術は、対象物の色特徴量の色ヒストグラムと各パーティクルの色ヒストグラム間の類似度を、ヒストグラムインターセクション(histogram intersection)により算出する。その後、特許文献1に記載の技術は、算出結果に基づいて上述の尤度を補正する。これにより、特許文献1に記載の技術は、輪郭曲線が類似する別の対象物が目的とする対象物の近傍に位置する場合でも、その別の対象物が誤って追跡される可能性を低減することができる。
特開2009−87090号公報
M. Isardand A. Blake, "Condensation - Conditional Density Propagation for Visual Tracking", International Journal of Computer Vision, vol.29, no.1, pp.5-28, 1998
しかしながら、従来技術では、例えば、工場などで同じ色の作業服を着ている複数の作業員が対象物である場合等、対象物間で画像の特徴量が類似する場合には、対象物の区別が困難である。したがって、従来技術では、別の対象物が誤って追跡されてしまうこと(以下「誤追跡」という)の可能性を十分に低減することができない。
本発明の目的は、誤追跡の可能性を更に低減することができる対象物追跡装置、対象物追跡方法、および対象物追跡プログラムを提供することである。
本発明の一態様に係る対象物追跡装置は、パーティクルフィルタを用いて映像に映し出された対象物の位置を追跡する対象物追跡装置であって、前記対象物の位置の候補を示すパーティクルを複数生成し、前記対象物の画像の特徴量と前記パーティクルのそれぞれの画像の特徴量とを算出する特徴量算出部と、前記パーティクル毎に、そのパーティクルの画像の特徴量と前記対象物の画像の特徴量との類似度から、そのパーティクルが前記対象物の位置であることの尤度を算出する尤度算出部と、算出された前記パーティクルの尤度に基づいて、前記対象物の位置を推定する位置推定部と、前記対象物が複数存在し、これらに対応して推定される複数の位置が重なるとき、前記尤度を補正する尤度補正部とを有する。
本発明の一態様に係る対象物追跡方法は、パーティクルフィルタを用いて映像に映し出された対象物の位置を追跡する対象物追跡方法であって、前記対象物の位置の候補を示すパーティクルを複数生成し、前記対象物の画像の特徴量と前記パーティクルのそれぞれの画像の特徴量とを算出するステップと、前記パーティクル毎に、そのパーティクルの画像の特徴量と前記対象物の画像の特徴量との類似度から、そのパーティクルが前記対象物の位置であることの尤度を算出するステップと、算出された前記パーティクルの尤度に基づいて、前記対象物の位置を推定するステップと、前記対象物が複数存在し、これらに対応して推定される複数の位置が重なるとき、前記尤度を補正するステップとを有する。
本発明の一態様に係る対象物追跡プログラムは、パーティクルフィルタを用いて映像に映し出された対象物の位置を追跡するための対象物追跡プログラムであって、コンピュータに対し、前記対象物の位置の候補を示すパーティクルを複数生成し、前記対象物の画像の特徴量と前記パーティクルのそれぞれの画像の特徴量とを算出する処理と、前記パーティクル毎に、そのパーティクルの画像の特徴量と前記対象物の画像の特徴量との類似度から、そのパーティクルが前記対象物の位置であることの尤度を算出する処理と、算出された前記パーティクルの尤度に基づいて、前記対象物の位置を推定する処理と、前記対象物が複数存在し、これらに対応して推定される複数の位置が重なるとき、前記尤度を補正する処理とを実行させる。
本発明によれば、対象物の間で推定位置が重なるときにパーティクルの尤度を補正し、誤追跡の可能性を更に低減することができる。
本発明の一実施の形態に係る対象物追跡装置を含む対象物追跡システムの構成を示すシステム構成図 本実施の形態における対象物の位置の定義を示す図 本実施の形態におけるパーティクルフィルタを用いた追跡を説明するための図 本実施の形態に係る対象物追跡装置の構成を示すブロック図 本実施の形態に係る対象物追跡装置の全体動作を示すフローチャート 本実施の形態における位置推定処理を示すフローチャート
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
図1は、本発明の一実施の形態に係る対象物追跡装置を含む対象物追跡システムの構成を示すシステム構成図である。本実施の形態は、本発明を、工場内における同じ作業服を着た複数の作業員の動きを撮影映像中で追跡するシステムに適用した例で説明する。
図1において、対象物追跡システム100は、撮像装置200、対象物追跡装置300、および表示装置400を有する。撮像装置200および表示装置400は、対象物追跡装置300にそれぞれ通信可能に接続されている。
撮像装置200は、画像取得機能を備えた機器であり、例えばデジタルビデオカメラである。撮像装置200は、例えば、工場内の様子を撮影し、撮影画像の時系列データ(撮影映像)を、対象物追跡装置300へ出力する。
対象物追跡装置300は、対象物追跡機能を備えた機器であり、例えばパーソナルコンピュータである。対象物追跡装置300は、撮像装置200から入力される撮影映像から、パーティクルフィルタを用いて、対象物の画像上の位置(以下、単に「位置」という)を追跡する(例えば特許文献1および非特許文献1参照)。但し、対象物追跡装置300は、対象物の位置の推定に用いられるパーティクルのうち、他の対象物の位置と重なるパーティクルの尤度を下げる。そして、対象物追跡装置300は、追跡結果を撮像映像に視覚的に重畳した画像(以下「結果表示画像」という)を生成し、表示装置400へ出力する。
表示装置400は、画像を表示する機能を備えた機器であり、例えば液晶ディスプレイである。表示装置400は、対象物追跡装置300から入力された画像(結果表示画像)を、画面上に表示する。
このように構成した対象物追跡装置300は、画像特徴が類似している対象物が存在する場合でも、誤追跡を低減することができる。
ここで、対象物追跡装置300が誤追跡を低減することができる理由について、パーティクルフィルタの概要と併せて簡単に説明する。
パーティクルフィルタは、ベイズフィルタの近似計算法である。時刻tにおける対象物の位置の確率分布は、時刻t−1において検出された位置に、位置の予測、尤度観測、およびリサンプリングを適用して得ることができる。ここで、位置の予測とは、状態遷移モデルに基づく時刻tにおける位置の予測である。また、尤度観測とは、基準画像の特徴量に対するその対象物の画像の特徴量の類似度に基づいて、各位置の尤度を求めることである。リサンプリングとは、各位置の確率密度分布を離散化した値をピックアップすることである。基準画像は、追跡対象として登録された画像であり、例えば、過去に取得された、追跡中の対象物の画像である。対象物追跡装置300は、画像処理により、撮影映像からの対象物の検出を周期的に行う。
図2は、本実施の形態における対象物の位置の定義を示す図である。図2に示すように、対象物追跡装置300は、画像面に設定したXY軸を用いて、検出した対象物510の位置を定義する情報を取得する。対象物510の位置を定義する情報は、例えば、対象物510に外接する矩形枠520の左上座標(x,y)、幅w、および高さhを含むパラメータセットである。なお、対象物510は、作業員の全身であっても良いし、作業員の上半身部分等、他の部分であっても良い。
図3は、パーティクルフィルタを用いた追跡の概要を説明するための図である。図3において、横軸は、各位置を概念的に示す。
図3に示すように、対象物追跡装置300は、対象物の位置が検出される各周期において、直前の周期の時刻t−1における検出結果である対象物の位置で、各位置の確率密度分布を実体化したパーティクルを生成する(S2)。ここで生成されたパーティクルで近似した確率密度分布の平均位置は、時刻tにおける対象物の実際の位置である可能性が高い位置である。
そして、対象物追跡装置300は、状態遷移モデルを用いて、各パーティクルを移動させる(S3)。ここで移動されたパーティクルの密度は、次の周期の時刻tにおける真の確率密度分布(線510で表す)を離散的に表す。すなわち、移動後のパーティクルの密度の平均位置は、時刻tにおける対象物の実際の位置である可能性が高い位置である。対象物追跡装置300は、移動後のパーティクル毎に、追跡対象として登録された画像に対する類似度を尤度として算出する(S4)。そして、対象物追跡装置300は、パーティクル毎の尤度を基に算出した確率分布の重み付き平均位置を、時刻tにおける対象物の位置と推定する。
但し、既に述べたように、従来技術では、対象物が映像上で接近したとき、誤追跡が発生する可能性が高い。そこで、本実施の形態に係る対象物追跡装置300は、対象物が複数存在し、これらに対応して推定される複数の位置が重なるとき、パーティクルの尤度を補正する。具体的には、対象物追跡装置300は、第1の対象物の位置に対する第2の対象物のパーティクルの重なり領域の大きさが、第1の所定値以上であるとき、該当するパーティクルの尤度を下げる。これにより、対象物追跡装置300は、他の対象物の画像に引きずられて誤追跡が発生する可能性を低減することができる。
また、対象物追跡装置300は、実際に対象物の位置が重なって映し出されている場合を考慮し、そのような場合には尤度があまり高くならないことを利用して、尤度が第2の所定値以上であるときのみに尤度の補正を制限する。これにより、対象物追跡装置300は、実際に対象物の位置が重なって映し出されているにもかかわらず尤度が下がり、位置検出不能となるのを防止することができる。
次に、対象物追跡装置300の構成について説明する。
図4は、対象物追跡装置300の構成を示すブロック図である。
図4において、対象物追跡装置300は、画像取得部310、画像記憶部320、追跡指示部330、特徴量算出部340、尤度算出部350、位置推定部360、位置記憶部370、重なり割合算出部380、および尤度補正部390を有する。
画像取得部310は、撮像装置200から画像を取得し、画像記憶部320へ出力する。
画像記憶部320は、画像取得部310から入力された画像を記憶する。
追跡指示部330は、画像記憶部320から画像を取得し、例えば背景差分法を適用することによって、画像から移動物体を検出する。ここでは、画像に映し出される移動物体は作業員のみであるものとする。したがって、追跡指示部330は、画像から、対象物を検出する。
また、追跡指示部330は、対象物毎に、新規に検出された対象物、または追跡中の対象物のいずれに該当するかを判定する。新規に検出された対象物とは、移動を開始した対象物、または画面に進入した対象物を指し、以下「新規対象物」という。また、追跡中の対象物とは、直前の時刻における位置が検出されている対象物を指し、以下「追跡中対象物」という。この判定の詳細については後述する。
追跡指示部330は、画像と、検出された各対象物の位置情報とを、特徴量算出部340へ出力する。位置情報は、対象物の位置(対象物に外接する矩形枠520の左上座標(x,y)、幅w、および高さhを含む)と、対象物が新規対象物と追跡中対象物のいずれであるか(以下「追跡状態」という)を示す状態フラグとを含む。また、追跡指示部330は、追跡中対象物について後述の特徴量算出部340が登録した参照ヒストグラムを、その追跡中対象物に対応付けて特徴量算出部340へ出力する。参照ヒストグラムについては後述する。
特徴量算出部340は、入力される位置情報から、各対象物の位置および追跡状態を取得する。
そして、特徴量算出部340は、新規対象物については、その画像を、追跡対象として登録する。具体的には、特徴量算出部340は、新規対象物の位置の画像領域のカラーヒストグラム(以下「参照ヒストグラム」という)を算出すると共に、状態フラグを追跡中対象物に変更する。そして、特徴量算出部340は、画像と、追跡対象として新規に登録された対象物の位置情報および参照ヒストグラムを、尤度算出部350へ出力する。追跡対象として新規に登録された対象物の位置情報および参照ヒストグラムは、つまり、追跡中対象物の初期登録情報である。
また、特徴量算出部340は、追跡中対象物については、パーティクルフィルタ方式に基づき、その位置周辺において、パーティクルのリサンプリングと、位置の予測と、尤度観測とを実行する。具体的には、まず、特徴量算出部340は、追跡中対象物の位置の周辺に、尤度の高いパーティクルを優先させて、所定の個数(例えば200個)のパーティクルをリサンプリングする(図3のS1、S2)。
そして、特徴量算出部340は、リサンプリングしたパーティクルを状態遷移モデルに基づいて遷移させる(図3のS3)。例えば、特徴量算出部340は、対象物は等速直線運動をするとの仮定の下、単位時刻あたりの移動量とガウスノイズとを考慮した位置に移動させる状態遷移モデルを採用する。そして、特徴量算出部340は、画像と、各追跡中対象物の位置情報、参照ヒストグラム、およびパーティクル情報とを、尤度算出部350へ出力する。パーティクル情報は、生成された各パーティクルを定義する情報であり、各パーティクルの位置、つまり、パーティクルを定義する矩形枠の左上座標、幅、および高さのパラメータセット(図2参照)である。
尤度算出部350は、入力される画像および各対象物の参照ヒストグラムを、位置推定部360へ出力する。また、尤度算出部350は、パーティクル情報が入力されたとき、パーティクル情報から、パーティクル毎に、パーティクルフィルタにおける尤度を算出する。具体的には、尤度算出部350は、パーティクル毎に、カラーヒストグラムを算出する。そして、尤度算出部350は、算出結果と参照ヒストグラムとの類似度をヒストグラムインターセクションにより算出し、算出結果を、そのパーティクルが追跡中対象物の位置であることの尤度とする。そして、尤度算出部350は、各対象物の位置情報と、各パーティクルのパーティクル情報および尤度とを、重なり割合算出部380へ出力する。
重なり割合算出部380は、追跡中対象物のパーティクル毎に、他の対象物との重なり割合を算出する。重なり割合は、例えば、パーティクルの面積に対する重なり領域の面積の割合である。そして、重なり割合算出部380は、各対象物の位置情報と、各パーティクルのパーティクル情報、尤度、および重なり割合とを、尤度補正部390へ出力する。
尤度補正部390は、追跡中対象物が複数存在し、これらに対応して後述の位置推定部360により推定される複数の位置が重なるとき、パーティクルの尤度を補正する。具体的には、尤度補正部390は、重なり割合が第1の所定値以上であり、かつ、尤度が第2の所定値以上であるパーティクルの尤度を下げる。そして、尤度補正部390は、各対象物の位置情報と、各パーティクルのパーティクル情報および尤度を、位置推定部360へ出力する。
位置推定部360は、追跡中対象物毎に、移動後の各パーティクルの尤度により重み付けした確率分布の平均位置を算出する。次に、位置推定部360は、各パーティクルの尤度の合計値(以下「尤度合計値」という)を算出する。そして、位置推定部360は、算出した位置を、その追跡中対象物の時刻tにおける位置と推定し、推定した位置とその尤度合計値と後述のN個のパーティクル情報を、位置記憶部370へ出力する。
位置記憶部370は、入力された各追跡中対象物の時刻tにおける位置およびその尤度合計値とN個のパーティクル情報を記憶する。位置記憶部370が記憶する各追跡中対象物の位置は、上述の追跡指示部330および重なり割合算出部380によって参照される。また、位置記憶部370は、記憶する一連の位置の時系列データと撮影画像とを時刻で対応付けて記憶し、追跡中対象物の位置を追跡結果として撮像映像に視覚的に重畳した結果表示画像を生成し、表示装置400へ出力する。
このような構成を有する対象物追跡装置300は、対象物の位置の推定に用いられるパーティクルのうち、他の対象物の位置と大きく重なるパーティクルの尤度を下げて、位置推定を行うことができる。
以下、対象物追跡装置300の動作について説明する。
図5は、対象物追跡装置300の全体動作を示すフローチャートである。
対象物追跡装置300の画像記憶部320には、撮像装置200から送られてきた撮影映像が格納されているものとする。
まず、ステップS1000において、追跡指示部330は、ユーザ操作(システムの利用者によりプログラムの終了ボタンが押される等)等により追跡処理の終了を指示されたか否かを判定する。追跡指示部330は、追跡処理の終了を指示された場合には(S1000:YES)、そのまま処理を終了し、追跡処理の終了を指示されていない場合には(S1000:NO)、ステップS2000へ進む。
ステップS2000において、追跡指示部330は、画像記憶部320に記憶している時刻t−1の画像から、対象物を検出し、対象物毎に、位置情報を生成する。具体的には、追跡指示部330は、例えば、対象物追跡システム100の起動時に取得した画像を背景画像として、背景差分法により差分画像を生成する。そして、追跡指示部330は、差分画像において対象物と推定される大きさあるいは形等の画像特徴を有する領域を、対象物の画像領域として検出し、その位置を定義する。そして、追跡指示部330は、検出した各対象物に対して、追跡状態の判定を行い、状態フラグを対応付ける。
そして、ステップS3000において、追跡指示部330は、時刻t−1の画像から検出された対象物の中から1つを選択する。
そして、ステップS4000において、追跡指示部330は、選択した対象物が追跡を開始した対象物(以下「追跡開始対象物」という)または追跡中対象物であるか否かを判定する。
この判定は、例えば、後述の位置記憶部370に記憶されている時刻t−1における追跡開始対象物または追跡中対象物の位置の中に、一致の度合いが一定値以上となる位置が存在するか否かに基づいて行われる。このとき、追跡指示部330は、過去の複数の位置情報から追跡中対象物の移動方向を算出しても良い。そして、この場合、追跡指示部330は、追跡中対象物が等速直線運動を行うと仮定した時の移動量および移動方向で時刻t−1の位置を移動させた位置に対して、重なり割合を算出するようにしても良い。
追跡指示部330は、選択した対象物が追跡開始対象物または追跡中対象物ではない場合、つまり新規対象物である場合には(S4000:NO)、ステップS5000へ進む。また、追跡指示部330は、選択した対象物が追跡開始対象物または追跡中対象物である場合には(S4000:YES)、ステップS8000へ進む。
ステップS5000において、特徴量算出部340は、選択されている対象物を追跡対象として登録する。すなわち、特徴量算出部340は、新規対象物の参照ヒストグラムを生成して位置情報に含むと共に、対応する状態フラグを、追跡開始対象物であることを示す内容に修正する。
そして、ステップS7000において、特徴量算出部340は、時刻t−1の画像から検出された対象物の全てに対してステップS4000の処理を行ったか否かを判断する。特徴量算出部340は、全ての対象物を処理した場合には(S7000:YES)、ステップS1000へ戻り、処理していない対象物が残っている場合には(S7000:NO)、ステップS3000へ戻り、未処理の対象物を選択する。
また、ステップS6000において、追跡指示部330は、選択されている対象物の位置情報の尤度合計値が高いか否かを判定する。追跡指示部330は、選択されている対象物が追跡中対象物であって上述の尤度合計値が第3の所定値以上である場合に、尤度合計値が追跡を継続するのに十分に高いと判定する。また、追跡指示部330は、追跡中対象物であって後述の尤度平均値が第3の所定値未満である場合に、尤度合計値が追跡を継続するには低いと判定する。追跡指示部330は、尤度合計値が高い場合には(S6000:YES)、ステップS8000へ進み、尤度合計値が低い場合には(S6000:NO)、ステップS9000へ進む。
ステップS8000において、対象物追跡装置300は、位置推定処理を行い、ステップS7000へ進む。位置推定処理については後述する。
また、ステップS9000において、追跡指示部330は、追跡継続が困難であるとして、選択されている対象物の追跡対象としての登録を破棄し、ステップS7000へ進む。すなわち、追跡指示部330は、選択されている対象物の位置情報を破棄する。
次に、図6に示すフローチャートを用いて、位置推定処理について説明する。
まず、ステップS8010において、特徴量算出部340は、追跡中対象物の位置の周辺に、時刻tの実際の追跡中対象物の位置の候補となるパーティクルを生成して配置する。このとき、特徴量算出部340は、選択した対象物が追跡開始対象物である場合には、N個のパーティクルをランダムに配置する。また、特徴量算出部340は、選択した対象物が追跡中対象物である場合には、パーティクルの重複を許して時刻t−1のパーティクルからN個のパーティクルを選択(リサンプリング)し、選択しないパーティクルについては破棄する。また、特徴量算出部340は、尤度の高いパーティクルをより多く選択することが望ましい。例えば、特徴量算出部340は、尤度が大きい順に、i番目のパーティクルの尤度にNをかけた値の数の分だけ選択することを、N個になるまで繰り返すようにしても良い。
そして、ステップS8020において、特徴量算出部340は、N個のパーティクルのそれぞれを、状態遷移モデルに基づいて移動させて、次の時刻tのパーティクルを生成する。状態遷移モデルは、例えば、等速直線運動の仮定の下、一定時間の移動量dとガウスノイズnとを加えて、座標(x、y)に位置するi番目のパーティクルを、(x+d+ni,x、y+d+ni,y)に移動させる内容である。
そして、ステップS8030において、尤度算出部350は、対応する参照ヒストグラムに対するヒストグラムインターセクションを、移動後の各パーティクルの尤度Lとして算出する。ヒストグラムインターセクションは、参照ヒストグラムにおけるカラー値cの度数aと、パーティクルのヒストグラムにおけるカラー値cの度数bとのうち小さい方の値を全てのカラー値について合計したときの値である。
そして、ステップS8040において、重なり割合算出部380は、選択されている追跡中対象物のパーティクルの中から1つを選択する。
そして、ステップS8050において、重なり割合算出部380は、他の対象物毎に、例えば以下の式(1)を用いて、選択したパーティクルの他の対象物との重なり割合Crを算出する。ここで、Paは選択されているパーティクルの面積、Bは選択されているパーティクルと他の対象物の領域(対象物に外接する矩形枠の領域、図2参照)との重なり部分の面積である。
Cr = B / Pa ・・・・・・(1)
重なり割合算出部380は、他の対象物が複数存在する場合には、最も大きな重なり割合を最終的な演算結果として採用する。なお、重なり割合算出部380は、他の対象物の位置を、位置記憶部370から取得しても良いし、尤度算出部350から入力される位置情報から取得しても良い。
そして、ステップS8060において、尤度補正部390は、選択されているパーティクルが尤度の補正対象か否かを判定する。尤度補正部390は、重なり割合が第1の所定値以上であり、かつ、尤度が第2の所定値以上であるパーティクルを、尤度の補正対象であると判定し、他のパーティクルを、尤度の補正対象ではないと判定する。
第2の所定値は、例えば、選択されている追跡中対象物のN個のパーティクルの、尤度のヒストグラムの最頻値、または尤度の平均値である。第2の所定値を最頻値とした場合には、他の対象物の影響で高くなった尤度のみを低くし易いので、外れ値の影響を受け難くなり、例えば、追跡中対象物の周囲にパーティクルが均等に配置されていない場合に有効であるという利点がある。また、第2の所定値を平均値とした場合には、事前に第2の所定値を用意しておく必要が無く、計算が容易という利点がある。
尤度補正部390は、選択されているパーティクルが尤度の補正対象である場合には(S8060:YES)、ステップS8070へ進む。また、尤度補正部390は、選択されているパーティクルが尤度の補正対象ではない場合には(S8060:NO)、次のステップS8080へ進む。
ステップS8070において、尤度補正部390は、選択されているパーティクルの尤度を下げる。具体的には、尤度補正部390は、補正後の尤度の値を予め定めた手法で求める。パーティクルの尤度の補正の仕方は、様々な手法を採用することができる。
例えば、尤度補正部390は、上述の第2の所定値に対する尤度の差分を求め、重なり割合と差分との組み合わせに応じて予め求めておいた補正値を採用する。
または、尤度補正部390は、選択されている追跡中対象物のパーティクルの尤度の平均値に対する尤度の差分を求め、重なり割合と差分との組み合わせに応じて予め求めておいた補正値を採用する。
または、尤度補正部390は、選択されているパーティクルの尤度のヒストグラムの最頻値に対する尤度の差分を求め、重なり割合と差分との組み合わせに応じて予め求めておいた補正値を採用する。
または、尤度補正部390は、例えば、元の尤度Laと重なり割合Crから、以下の式(2)を用いて補正後の尤度La'を算出する。
La' = La × (1 − Cr) ・・・・・・(2)
そして、ステップS8080において、尤度補正部390は、選択されている追跡開始対象物または追跡中対象物の全てのパーティクルについて、ステップS8060の処理を行ったか否かを判断する。尤度補正部390は、全てのパーティクルを処理した場合には(S8080:YES)、ステップS8090へ進む。また、尤度補正部390は、処理していないパーティクルが残っている場合には(S8080:NO)、ステップS8040へ戻り、未処理のパーティクルを選択する。ステップS8040〜S8080の処理を繰り返すことにより、尤度補正部390は、他の対象物に引きずられて尤度が高くなっているパーティクルの尤度を下げることができる。
そして、ステップS8090において、位置推定部360は、N個のパーティクルに対して、パーティクル毎の尤度を重みとして、パーティクルの位置について重み付き平均を求め、求めた値を、次の時刻tの位置と推定する。すなわち、位置推定部360は、求めた値で、位置記憶部370に格納された時刻t−1の位置情報を更新する。この結果、位置記憶部370は、追跡中対象物の追跡結果を撮像映像に重畳した結果表示画像を、表示装置400を用いて表示する。
また、位置推定部360は、追跡開始対象物であれば状態フラグを追跡中対象物を表す内容に修正し、選択されている追跡中対象物の参照ヒストグラムを位置記憶部370に格納する。また、位置推定部360は、選択されている追跡中対象物のN個のパーティクルの尤度合計値を、位置記憶部370に格納する。この尤度合計値が低い場合、追跡結果が誤っている可能性が高いため、提示すべきではない。したがって、上述のように、対象物追跡装置300は、尤度合計値が第3の所定値未満の場合には、該当する追跡中対象物に対する追跡を終了する(図5のステップS6000、S9000参照)。
このような処理により、対象物追跡装置300は、パーティクルフィルタを用いて対象物の位置を追跡し、複数の対象物の追跡位置が重なるとき、パーティクルの尤度を補正することができる。なお、ステップS1000からステップS5000へと流れる処理は、ある対象物に対する追跡初期化時の動作といえる。また、ステップS1000からステップS8000へと流れる処理は、ある対象物に対する追跡処理開始時および追跡処理継続時の動作といえる。また、ステップS1000からステップS9000へと流れる処理は、ある対象物に対する追跡処理終了時の動作といえる。
なお、対象物毎およびパーティクル毎に順に各部で処理を行う例について説明したが、対象物追跡装置300は、複数の対象物について、また、複数のパーティクルについて一斉に上述の各処理を行っても良い。
以上説明したように、本実施の形態に係る対象物追跡装置300は、パーティクルフィルタを用いて対象物の位置を追跡し、複数の対象物の追跡位置が重なるとき、パーティクルの尤度を補正する。これにより、複数の対象物の画像特徴が類似している場合に、従来技術では他の対象物の画像に引きずられて誤追跡が発生する可能性があるところ、対象物追跡装置300は、このような可能性を低減することができる。
なお、以上説明した実施の形態では、対象物追跡装置300は、尤度補正部390の前に、パーティクル毎に、その重なり割合を基に近接状態を判定する近接状態判定部を設けるようにしても良い。
この場合、例えば、近接状態判定部は、重なり割合が第4の所定値以上である場合にそのパーティクルが近接状態であると判定し、重なり割合が第4の所定値未満である場合にそのパーティクルが近接状態ではないと判定する。第4の所定値は、例えば、対象物の全てのパーティクルの他の対象物との重なり割合の平均値である。または、第4の所定値は、例えば、対象物の全てのパーティクルの他の対象物との重なり割合のヒストグラムの最頻値である。そして、対象物追跡装置300は、近接状態であると判定されたパーティクルについてのみ、尤度の補正対象であるか否かの判定を行う。
このような近接状態判定を行うことにより、近接状態判定部は、重なりが発生するパーティクルであっても、尤度の補正対象外のパーティクルと判定することができ、過度に尤度を低下させることによる誤追跡を低減することが出来る。
また、対象物追跡装置300は、対象物の移動による画像上での大きさの変化を考慮して、対象物の移動に応じてパーティクルの幅と高さをスケーリングしても良い。
例えば、撮像装置200が床を見下ろすように撮影を行っている環境を考える。状態遷移モデルによる移動の結果、パーティクルのY座標の値が大きくなっている場合(図2参照)、つまり、パーティクルが画像上で鉛直下方向に移動した場合、対象物は撮像装置200に対して近づいていると考えられる。
したがって、例えば、特徴量算出部340は、対象物の画像上でのY軸方向における移動量および移動方向と対象物のサイズ変更の比率とを対応付けたテーブルを予め格納する。そして、特徴量算出部340は、このテーブルを用いて、対象物が手前に移動しているときにはサイズが大きくなるように、また、対象物が奥に移動しているときにはサイズが小さくなるように、パーティクルの幅と高さとを補正する。
また、対象物追跡装置300は、個々のパーティクルの他の対象物との重なり割合に基づいてではなく、パーティクルから推定される複数の対象物の位置が重なるか否かに基づいて、パーティクルの尤度を補正しても良い。この場合、対象物追跡装置300は、例えば、尤度の補正を行わないまま対象物の位置を推定し、推定した位置が他の対象物の位置と重なるにもかかわらず類似度が高いようなときに、その位置付近の確率密度を下げる。
また、対象物追跡装置300は、重なり領域の大きさが第1の所定値以上のパーティクルの尤度を下げるのではなく、重なり領域の大きさが第1の所定値未満のパーティクルの尤度を上げても良い。
また、本実施の形態では、撮像装置200と対象物追跡装置300とが分離された構成について説明したが、撮像装置200と対象物追跡装置300とは一体化された構成であっても良い。
また、本実施の形態では、本発明を、工場内における同じ作業服を着た複数の作業員の動きを撮影映像中で追跡するシステムに適用した例について説明したが、本発明の適用はこれに限定されない。本発明は、映像から対象物を追跡する他の各種装置やシステムに適用することができる。
本発明に係る対象物追跡装置、対象物追跡方法、および対象物追跡プログラムは、誤追跡の可能性を更に低減することができる対象物追跡装置、対象物追跡方法、および対象物追跡プログラムとして有用である。
100 対象物追跡システム
200 撮像装置
300 対象物追跡装置
310 画像取得部
320 画像記憶部
330 追跡指示部
340 特徴量算出部
350 尤度算出部
360 位置推定部
370 位置記憶部
380 重なり割合算出部
390 尤度補正部
400 表示装置

Claims (9)

  1. パーティクルフィルタを用いて映像に映し出された対象物の位置を追跡する対象物追跡装置であって、
    前記対象物の位置の候補を示すパーティクルを複数生成し、前記対象物の画像の特徴量と前記パーティクルのそれぞれの画像の特徴量とを算出する特徴量算出部と、
    前記パーティクル毎に、そのパーティクルの画像の特徴量と前記対象物の画像の特徴量との類似度から、そのパーティクルが前記対象物の位置であることの尤度を算出する尤度算出部と、
    算出された前記パーティクルの尤度に基づいて、前記対象物の位置を推定する位置推定部と、
    前記映像における第1の対象物の画像領域に対応する領域に対する、第2の対象物のパーティクルの重なり領域の大きさを算出する重なり割合算出部と、
    前記重なり領域の大きさが第1の所定値以上であるとき、前記第2の対象物のパーティクルの前記尤度を下げる尤度補正部と、
    を有する対象物追跡装置。
  2. 前記第1の対象物の画像領域に対応する領域は、前記映像における前記第1の対象物の画像領域に外接する矩形領域によって定義され、前記重なり領域の大きさは、前記第2の対象物のパーティクルの面積に対する重なり領域の面積の割合である、
    請求項1記載の対象物追跡装置。
  3. 前記類似度は、前記対象物の画像の色ヒストグラムと、前記パーティクルの画像の色ヒストグラムとの類似度である、
    請求項1記載の対象物追跡装置。
  4. 前記尤度補正部は、
    前記重なり領域の大きさが前記第1の所定値以上であり、かつ、前記第2の対象物のパーティクルの尤度が第2の所定値以上であるとき、前記第2の対象物のパーティクルの尤度を補正する、
    請求項1記載の対象物追跡装置。
  5. 前記第2の所定値は、前記第2の対象物のパーティクルの尤度の平均値である、
    請求項4記載の対象物追跡装置。
  6. 前記第2の所定値は、前記第2の対象物のパーティクルの尤度のヒストグラムの最頻値である、
    請求項4記載の対象物追跡装置。
  7. 前記尤度補正部は、
    前記重なり領域の大きさと前記尤度の所定値との差分とに応じた大きさで、前記尤度を補正する、
    請求項4記載の対象物追跡装置。
  8. パーティクルフィルタを用いて映像に映し出された対象物の位置を追跡する対象物追跡方法であって、
    前記対象物の位置の候補を示すパーティクルを複数生成し、前記対象物の画像の特徴量と前記パーティクルのそれぞれの画像の特徴量とを算出するステップと、
    前記パーティクル毎に、そのパーティクルの画像の特徴量と前記対象物の画像の特徴量との類似度から、そのパーティクルが前記対象物の位置であることの尤度を算出するステップと、
    算出された前記パーティクルの尤度に基づいて、前記対象物の位置を推定するステップと、
    前記映像における第1の対象物の画像領域に対応する領域に対する、第2の対象物のパーティクルの重なり領域の大きさを算出するステップと、
    前記重なり領域の大きさが第1の所定値以上であるとき、前記第2の対象物のパーティクルの前記尤度を下げるステップと、
    を有する対象物追跡方法。
  9. パーティクルフィルタを用いて映像に映し出された対象物の位置を追跡するための対象物追跡プログラムであって、
    コンピュータに対し、
    前記対象物の位置の候補を示すパーティクルを複数生成し、前記対象物の画像の特徴量と前記パーティクルのそれぞれの画像の特徴量とを算出する処理と、
    前記パーティクル毎に、そのパーティクルの画像の特徴量と前記対象物の画像の特徴量との類似度から、そのパーティクルが前記対象物の位置であることの尤度を算出する処理と、
    算出された前記パーティクルの尤度に基づいて、前記対象物の位置を推定する処理と、
    前記映像における第1の対象物の画像領域に対応する領域に対する、第2の対象物のパーティクルの重なり領域の大きさを算出する処理と、
    前記重なり領域の大きさが第1の所定値以上であるとき、前記第2の対象物のパーティクルの前記尤度を下げる処理と、
    を実行させる対象物追跡プログラム。
JP2010034849A 2010-02-19 2010-02-19 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム Expired - Fee Related JP5528151B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010034849A JP5528151B2 (ja) 2010-02-19 2010-02-19 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム
US13/263,169 US8891821B2 (en) 2010-02-19 2011-01-13 Object tracking device, object tracking method, and object tracking program
PCT/JP2011/000135 WO2011102072A1 (ja) 2010-02-19 2011-01-13 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム
CN201180001777.4A CN102405483B (zh) 2010-02-19 2011-01-13 对象物追踪装置以及对象物追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010034849A JP5528151B2 (ja) 2010-02-19 2010-02-19 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム

Publications (2)

Publication Number Publication Date
JP2011170684A JP2011170684A (ja) 2011-09-01
JP5528151B2 true JP5528151B2 (ja) 2014-06-25

Family

ID=44482681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010034849A Expired - Fee Related JP5528151B2 (ja) 2010-02-19 2010-02-19 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム

Country Status (4)

Country Link
US (1) US8891821B2 (ja)
JP (1) JP5528151B2 (ja)
CN (1) CN102405483B (ja)
WO (1) WO2011102072A1 (ja)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5841390B2 (ja) * 2011-09-30 2016-01-13 セコム株式会社 移動物体追跡装置
CN102521612B (zh) * 2011-12-16 2013-03-27 东华大学 一种基于协同关联粒子滤波的多视频目标主动跟踪方法
TWI479431B (zh) * 2012-04-03 2015-04-01 Univ Chung Hua 物件追蹤方法
US9256781B2 (en) * 2012-05-10 2016-02-09 Pointguard Ltd. System and method for computer vision based tracking of an object
CN103679743B (zh) * 2012-09-06 2016-09-14 索尼公司 目标跟踪装置和方法,以及照相机
WO2014071400A1 (en) 2012-11-05 2014-05-08 360 Heros, Inc. 360 degree camera mount and related photographic and video system
KR101447671B1 (ko) * 2012-11-19 2014-10-07 홍익대학교 산학협력단 대상의 위치를 확률적으로 예측하는 방법
CN103162629B (zh) * 2013-01-31 2015-04-15 浙江大学 一种一维光阱微粒位移检测方法
JP5786879B2 (ja) * 2013-02-21 2015-09-30 カシオ計算機株式会社 被写体追跡装置、被写体追跡方法及びプログラム
US20150018666A1 (en) * 2013-07-12 2015-01-15 Anant Madabhushi Method and Apparatus for Registering Image Data Between Different Types of Image Data to Guide a Medical Procedure
CN104424648B (zh) * 2013-08-20 2018-07-24 株式会社理光 对象跟踪方法和设备
JP6110256B2 (ja) * 2013-08-21 2017-04-05 株式会社日本自動車部品総合研究所 対象物推定装置および対象物推定方法
CN103489001B (zh) * 2013-09-25 2017-01-11 杭州智诺科技股份有限公司 图像目标追踪方法和装置
JP6206804B2 (ja) 2013-09-27 2017-10-04 パナソニックIpマネジメント株式会社 移動体追跡装置、移動体追跡システムおよび移動体追跡方法
US11615460B1 (en) 2013-11-26 2023-03-28 Amazon Technologies, Inc. User path development
JP6277736B2 (ja) * 2014-01-23 2018-02-14 富士通株式会社 状態認識方法及び状態認識装置
JP6295122B2 (ja) * 2014-03-27 2018-03-14 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
US10169661B2 (en) * 2014-03-28 2019-01-01 International Business Machines Corporation Filtering methods for visual object detection
JP6415196B2 (ja) * 2014-09-08 2018-10-31 キヤノン株式会社 撮像装置および撮像装置の制御方法
JP6403509B2 (ja) * 2014-09-08 2018-10-10 キヤノン株式会社 画像処理装置および画像処理装置の制御方法
JP6399869B2 (ja) * 2014-09-09 2018-10-03 キヤノン株式会社 被写体追尾装置、撮像装置、被写体追尾方法及びプログラム
JP5999394B2 (ja) 2015-02-20 2016-09-28 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
US10679177B1 (en) 2015-03-25 2020-06-09 Amazon Technologies, Inc. Using depth sensing cameras positioned overhead to detect and track a movement of a user within a materials handling facility
US10586203B1 (en) 2015-03-25 2020-03-10 Amazon Technologies, Inc. Segmenting a user pattern into descriptor regions for tracking and re-establishing tracking of a user within a materials handling facility
US10810539B1 (en) 2015-03-25 2020-10-20 Amazon Technologies, Inc. Re-establishing tracking of a user within a materials handling facility
US11205270B1 (en) 2015-03-25 2021-12-21 Amazon Technologies, Inc. Collecting user pattern descriptors for use in tracking a movement of a user within a materials handling facility
KR101635973B1 (ko) * 2015-04-23 2016-07-04 국방과학연구소 Ir 영상 추적에서 파티클 필터를 이용한 기억 추적 성능 향상 방법 및 장치
JP6284086B2 (ja) 2016-02-05 2018-02-28 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6656987B2 (ja) * 2016-03-30 2020-03-04 株式会社エクォス・リサーチ 画像認識装置、移動体装置、及び画像認識プログラム
JP6744123B2 (ja) * 2016-04-26 2020-08-19 株式会社日立製作所 動体追跡装置および放射線照射システム
JP6760767B2 (ja) * 2016-05-31 2020-09-23 東芝テック株式会社 販売データ処理装置およびプログラム
JP6715120B2 (ja) * 2016-07-25 2020-07-01 株式会社Screenホールディングス 基材処理装置および蛇行予測方法
JP2018197945A (ja) * 2017-05-23 2018-12-13 株式会社デンソーテン 障害物検出装置および障害物検出方法
JP7149953B2 (ja) * 2017-11-02 2022-10-07 株式会社Nttドコモ 検出装置及び検出プログラム
US11328513B1 (en) 2017-11-07 2022-05-10 Amazon Technologies, Inc. Agent re-verification and resolution using imaging
KR101982942B1 (ko) * 2017-12-21 2019-05-27 건국대학교 산학협력단 객체 추적 방법 및 이를 수행하는 장치들
WO2019170024A1 (zh) 2018-03-06 2019-09-12 北京市商汤科技开发有限公司 目标跟踪方法和装置、电子设备、存储介质
CN108460787B (zh) * 2018-03-06 2020-11-27 北京市商汤科技开发有限公司 目标跟踪方法和装置、电子设备、程序、存储介质
US11386306B1 (en) 2018-12-13 2022-07-12 Amazon Technologies, Inc. Re-identification of agents using image analysis and machine learning
JP7238962B2 (ja) * 2019-03-13 2023-03-14 日本電気株式会社 物体追跡装置、物体追跡方法、及び、プログラム
US11915433B2 (en) * 2019-03-14 2024-02-27 Nec Corporation Object tracking system, tracking parameter setting method, and non-transitory computer readable medium
US12094186B2 (en) 2019-04-25 2024-09-17 Nec Corporation Information processing device, information processing method, and program recording medium
US11113541B2 (en) * 2019-10-25 2021-09-07 7-Eleven, Inc. Detection of object removal and replacement from a shelf
CN113473378A (zh) * 2020-03-31 2021-10-01 宇龙计算机通信科技(深圳)有限公司 一种移动轨迹上报方法、装置、存储介质及电子设备
TWI786409B (zh) * 2020-06-01 2022-12-11 聚晶半導體股份有限公司 影像偵測裝置以及影像偵測方法
JP2022032776A (ja) * 2020-08-14 2022-02-25 富士通株式会社 画像処理装置及び画面処理プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7219032B2 (en) * 2002-04-20 2007-05-15 John Louis Spiesberger Estimation algorithms and location techniques
US7352359B2 (en) * 2002-07-27 2008-04-01 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to inertial tracking
JP2005165688A (ja) * 2003-12-02 2005-06-23 Fuji Xerox Co Ltd 複数対象物追跡方法及びシステム
JP4686663B2 (ja) 2006-07-10 2011-05-25 国立大学法人京都大学 歩行者トラッキング方法及び歩行者トラッキング装置
JP4766495B2 (ja) * 2007-09-28 2011-09-07 株式会社ソニー・コンピュータエンタテインメント 対象物追跡装置および対象物追跡方法
US8311276B2 (en) * 2008-01-07 2012-11-13 JVC Kenwood Corporation Object tracking apparatus calculating tendency of color change in image data regions
JP4991595B2 (ja) * 2008-02-21 2012-08-01 株式会社東芝 パーティクルフィルタを使用する追跡システム
JP5213486B2 (ja) * 2008-03-14 2013-06-19 株式会社ソニー・コンピュータエンタテインメント 対象物追跡装置および対象物追跡方法
JP4730431B2 (ja) * 2008-12-16 2011-07-20 日本ビクター株式会社 目標追尾装置
JP2010165052A (ja) * 2009-01-13 2010-07-29 Canon Inc 画像処理装置及び画像処理方法
US20120020518A1 (en) * 2009-02-24 2012-01-26 Shinya Taguchi Person tracking device and person tracking program
JP5177030B2 (ja) * 2009-03-17 2013-04-03 株式会社Jvcケンウッド 目標追尾装置
JP5488076B2 (ja) * 2010-03-15 2014-05-14 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム

Also Published As

Publication number Publication date
WO2011102072A1 (ja) 2011-08-25
JP2011170684A (ja) 2011-09-01
CN102405483B (zh) 2014-11-12
US20120093364A1 (en) 2012-04-19
US8891821B2 (en) 2014-11-18
CN102405483A (zh) 2012-04-04

Similar Documents

Publication Publication Date Title
JP5528151B2 (ja) 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム
US10234957B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US9478033B1 (en) Particle-based tracking of objects within images
US8989448B2 (en) Moving object detecting device, moving object detecting method, moving object detection program, moving object tracking device, moving object tracking method, and moving object tracking program
US9542745B2 (en) Apparatus and method for estimating orientation of camera
JP4728432B2 (ja) 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム
US10957068B2 (en) Information processing apparatus and method of controlling the same
US9727787B2 (en) System and method for deriving accurate body size measures from a sequence of 2D images
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
US9208395B2 (en) Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
JP4991595B2 (ja) パーティクルフィルタを使用する追跡システム
JP6641163B2 (ja) オブジェクト追跡装置及びそのプログラム
JP6793151B2 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
US20170140574A1 (en) Image processing device and image processing method
US20190370977A1 (en) Moving object detection apparatus, moving object detection method and program
JP2009510541A (ja) オブジェクト追跡方法及びオブジェクト追跡装置
CN108140291A (zh) 烟雾检测装置、方法以及图像处理设备
US20150169947A1 (en) Posture estimation device, posture estimation method, and posture estimation program
JP2013105285A5 (ja)
JP2018113021A (ja) 情報処理装置およびその制御方法、プログラム
US12033406B2 (en) Method and device for identifying presence of three-dimensional objects using images
JP2016170603A (ja) 移動物体追跡装置
CN114202797A (zh) 行为识别方法、装置和存储介质
JP2021081804A (ja) 状態認識装置、状態認識方法及び状態認識プログラム
KR101320922B1 (ko) 가중 탐색 영역을 이용한 움직임 추적 및 아바타 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140415

R151 Written notification of patent or utility model registration

Ref document number: 5528151

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees