JP2016123044A - 被写体追跡装置、その制御方法およびプログラム - Google Patents
被写体追跡装置、その制御方法およびプログラム Download PDFInfo
- Publication number
- JP2016123044A JP2016123044A JP2014263335A JP2014263335A JP2016123044A JP 2016123044 A JP2016123044 A JP 2016123044A JP 2014263335 A JP2014263335 A JP 2014263335A JP 2014263335 A JP2014263335 A JP 2014263335A JP 2016123044 A JP2016123044 A JP 2016123044A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- matching
- area
- image
- histogram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/44—Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/87—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
- G06V10/7515—Shifting the patterns to accommodate for positional errors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Geometry (AREA)
Abstract
【解決手段】撮像装置100は、供給される画像に含まれる被写体を追跡する被写体追跡装置として機能し、被写体を示す部分画像をテンプレートとして登録して、このテンプレートを用いて領域を推定するテンプレートマッチングと、被写体を示す部分画像のヒストグラムを登録して、このヒストグラムを用いて領域を推定するヒストグラムマッチングとを行う。このとき、ヒストグラムマッチングによる推定領域とテンプレートマッチングによる推定領域の距離が所定範囲であれば、テンプレートマッチングによる推定領域を被写体領域として採用し、ヒストグラムマッチングによる推定領域とテンプレートマッチングによる推定領域の距離が所定範囲でなければ、ヒストグラムマッチングによる推定領域を被写体領域として採用する。
【選択図】図5
Description
この課題に対して、マッチングの評価尺度に画像データそのものではなくヒストグラムを利用する方法がある(ヒストグラムマッチング)。被写体を示す情報を画像データからヒストグラムに変換することで、曖昧性を持たせ、被写体の姿勢変動にロバストな被写体追跡が実現できる。一方で、ヒストグラム基づくヒストグラムマッチングでは、画像データに基づくテンプレートマッチングと比較して、被写体の見えの変化が少ない場合等は、推定の位置精度が劣る側面がある。
そこで、ヒストグラムマッチングとテンプレートマッチングを併用する方法が考えられる。この場合は、複数のマッチングによる評価値から被写体領域を推定する必要がある。
図1は、実施形態に係る撮像装置100の概略構成を示すブロック図である。本実施形態では、撮像装置100は、被写体の画像を撮像するデジタルカメラとして具現化される。また、撮像装置100は、時系列的に逐次供給される画像に含まれる被写体を追跡する被写体追跡装置としても機能する。
撮像装置100は、撮像光学系101と、撮像素子102と、アナログ信号処理部103と、A/D変換部104と、制御部105と、画像処理部106と、表示部107と、記録媒体108と、被写体指定部109と、被写体追跡部110とを備える。
撮像素子102から出力された映像信号は、アナログ信号処理部103で相関二重サンプリング(CDS)等のアナログ信号処理が行われる。アナログ信号処理部103から出力された映像信号は、A/D変換部104でデジタルデータの形式に変換され、制御部105および画像処理部106に入力される。
また、画像処理部106から出力された映像信号は、記録媒体108(例えば着脱可能なメモリーカード)に記録される。なお、映像信号の記録先は、撮像装置100の内蔵メモリであっても、通信インターフェイスにより通信可能に接続された外部装置(いずれも図示しない)であってもよい。
被写体追跡部110は、画像処理部106から時系列的に逐次供給される(即ち、撮像された時刻の異なる)画像(画像信号)に含まれる被写体を追跡する。被写体追跡部110は、被写体の画素パターンやヒストグラムに基づき、被写体指定部109によって指定された被写体を追跡する。また、顔検出等の特定の被写体検出部(図示しない)を有し、検出された被写体を追跡する構成としても良い。被写体追跡部110の詳細は後述する。
201、202、203は、被写体追跡部110の入力画像の例である。画像201は、被写体指定部109により追跡対象が指定された画像であり、追跡処理の開始画像となる。画像202は、被写体追跡処理を実施した画像のうち、現在時刻に最も近い画像である。画像203は、現在時刻の画像であり、被写体領域を推定する処理を実施する画像となる。
204は、追跡の開始画像201における追跡対象となる被写体を示す部分画像である。部分画像204からヒストグラム205を生成し、このヒストグラム205を登録しておく。
206は、被写体追跡処理の直前結果を示す部分画像であり、この画像をテンプレートとして登録する。
207は、被写体追跡処理の探索範囲である。探索範囲207に対して、ヒストグラム205を用いたヒストグラムマッチング、テンプレート206を用いたテンプレートマッチングが実行される。すなわち、フレームnに対して、追跡の開始フレーム(フレーム1)に基づくヒストグラムマッチングと、追跡の直前フレーム(フレームn−1)に基づくテンプレートマッチングを行う。
図3(a)は、テンプレートマッチングにおける被写体モデル(テンプレート)の例を示す。301は追跡対象となる被写体を示す部分画像(テンプレート)であり、この画像の画素パターンを特徴量として扱う。302はテンプレート301の特徴量を表現したものであり、画素データの輝度信号を特徴量とする。特徴量T(i,j)は、テンプレート領域内の座標を(i,j)、水平画素数をW、垂直画素数をHとすると、式(1)で表現される。
ここでは、特徴量として輝度信号の1次元の情報を用いる例を示したが、明度・色相・彩度の信号等の3次元の情報を特徴量として扱ってもよい。また、マッチングの評価値の演算方法としてSAD値に関して説明したが、正規化相互相関いわゆるNCC(Normalized Correlation Coffiecient)等の異なる演算方法を用いても良い。
図4(a)は、ヒストグラムマッチングにおける被写体モデルの例を示す。401は追跡対象となる被写体を示す部分画像であり、この画像の画素データから生成するヒストグラムを特徴量として扱う。402は部分画像401の特徴量を表現したものであり、特徴量は、輝度信号のM階調のヒストグラムとすると、式(4)で表現される。
ここでは、特徴量として輝度信号の1次元の情報を用いる例を示したが、明度・色相・彩度の信号等の3次元の情報を特徴量として扱ってもよい。また、マッチングの評価値の演算方法としてBhattacharyya係数に関して説明したが、ヒストグラムインタセクション等の異なる演算方法を用いても良い。
上述した数式からわかるように、ヒストグラムマッチングは、テンプレートマッチングと比較して、特徴量に曖昧性を持たせている。テンプレートマッチングでは、輝度信号の画素値のパターンが類似しているかを評価尺度とするが、ヒストグラムマッチングでは、輝度信号の画素値の割合が類似しているかを評価尺度している。したがって、被写体モデルと探索画像における被写体の状態において、被写体の姿勢変動が大きい場合は、ヒストグラムマッチングの方が推定の成功確率が高い。一方で、特徴量に曖昧性を持たせることにより、ヒストグラムマッチングはテンプレートマッチングより、位置の推定精度は劣る。被写体領域の推定において、ヒストグラムマッチングはテンプレートマッチングと比較して、大まかな被写体領域を推定する能力は高いが、詳細な位置合わせ能力は低いことを意味している。
テンプレートマッチングは、ヒストグラムマッチングと比較して、被写体の姿勢変動等、見えの変化が大きい場合は、正しい被写体領域を推定するのは困難である。一方で、被写体の見えの変化が少ない場合は、位置の推定精度が高い(位置合わせ能力が高い)。
画像処理部106から被写体追跡部110に画像が供給されると(ステップS501)、被写体追跡部110は、この入力画像と被写体指定部109の情報に基づいて、追跡対象となる被写体を示す部分画像を決定する(ステップS502)。
次に、被写体追跡部110は、追跡対象となる被写体を示す部分画像に基づいて、ヒストグラムマッチングの被写体モデルであるヒストグラムを登録する(ステップS503)。また、被写体追跡部110は、追跡対象となる被写体を示す部分画像を、テンプレートマッチングの被写体モデルであるテンプレートとして登録する(ステップS504)。
次に、被写体追跡部110は、ヒストグラムマッチングとテンプレートマッチングの評価値とその領域情報に基づいて、被写体領域を決定する(ステップS508)。
まず、被写体追跡部110は、ヒストグラムマッチングの評価値の信頼性が高いか否か否かを判定する(ステップS601)。信頼性判定の例としては、式(6)のBhattacharyya係数D(x,y)の最大値が所定の閾値以上であれば信頼性が高いと判定し、Bhattacharyya係数D(x,y)の最大値が所定の閾値未満であれば信頼性が低いと判定する。
ヒストグラムマッチングの評価値の信頼性が高い場合(ステップS601でYES)、ステップS602に進み、ヒストグラムマッチングの推定領域の近傍にテンプレートマッチングの推定領域があるか否かを判定する。判定の例としては、式(6)のBhattacharyya係数D(x,y)の最大値の座標(x,y)と式(3)のSAD値V(x,y)の最小値の座標(x,y)との距離を算出し、算出した距離が所定範囲であるか否かに基づいて判定する。
ヒストグラムマッチングの推定距離の近傍にテンプレートマッチングの推定領域がない場合(ステップS602でNO)、ステップS604に進み、ヒストグラムマッチングによる推定領域を採用する。すなわち、式(6)のBhattacharyya係数D(x,y)の最大値の座標(x,y)を被写体位置として決定する。それに対して、ヒストグラムマッチングの推定距離の近傍にテンプレートマッチングの推定領域がある場合(ステップS602でYES)、ステップS605に進み、テンプレートマッチングによる推定領域を採用する。すなわち、式(3)のSAD値V(x,y)の最小値の座標(x,y)を被写体位置として決定する。
テンプレートマッチングの評価値の信頼性が高い場合(ステップS603でYES)、ステップS605に進み、テンプレートマッチングに推定領域を採用する。それに対して、テンプレートマッチングの評価値の信頼性が低い場合(ステップS603でNO)、ステップS606に進み、テンプレートマッチング、ヒストグラムマッチングの推定領域を共に採用しない。
上述した実施形態では、撮像装置に被写体追跡装置を適用した場合を例示したが、被写体追跡装置を適用する機器は撮像装置に限定しない。例えば外部機器や記録媒体等から供給される画像(再生データ)を表示する表示装置に被写体追跡装置を適用してもよい。表示装置では、再生データを被写体追跡処理のデータとし、被写体追跡処理が行われることとなる。この表示装置におけるマイクロコントローラ等の制御部は、被写体追跡処理により抽出された被写体の情報(画像中の被写体の位置、大きさ等)に基づいて、画像を表示する際の表示条件を制御する。具体的には、画像中の被写体の位置に枠等の被写体を示す情報の重畳表示や、被写体部分の輝度や色情報に応じた表示画像の輝度や色合い等の制御を行う。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 撮像光学系
102 撮像素子
103 アナログ信号処理部
104 A/D変換部
105 制御部
106 画像処理部
107 表示部
108 記録媒体
109 被写体指定部
110 被写体追跡部
Claims (9)
- 逐次供給される画像に含まれる被写体を追跡する被写体追跡装置であって、
供給される画像のうちの所定の画像における被写体を示す部分画像をテンプレートとして登録する第1の登録手段と、
前記第1の登録手段により登録されたテンプレートを用いて、供給された画像の部分領域と照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する第1のマッチング手段と、
供給される画像のうちの所定の画像における被写体を示す部分画像のヒストグラムを登録する第2の登録手段と、
前記第2の登録手段により登録されたヒストグラムを用いて、供給された画像の部分領域のヒストグラムと照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する第2のマッチング手段と、
前記第1のマッチング手段および前記第2のマッチング手段による推定の結果に基づいて、被写体領域を決定する被写体領域決定手段とを備え、
前記被写体領域決定手段は、
前記第2のマッチング手段による推定領域と前記第1のマッチング手段による推定領域の距離が所定範囲であれば、前記第1のマッチング手段による推定領域を被写体領域として採用し、
前記第2のマッチング手段による推定領域と前記第1のマッチング手段による推定領域の距離が所定範囲でなければ、前記第2のマッチング手段による推定領域を被写体領域として採用することを特徴とする被写体追跡装置。 - 前記第1の登録手段は、該被写体追跡装置による追跡の直前フレームに基づいてテンプレートを更新していき、
前記第2の登録手段は、該被写体追跡装置による追跡の開始フレームに基づいてヒストグラムを登録することを特徴する請求項1に記載の被写体追跡装置。 - 前記第2のマッチング手段による推定領域の信頼度を判定する第2のマッチング手段のための判定手段をさらに備え、
前記被写体領域決定手段は、前記第2のマッチング手段のための判定手段による信頼度が低ければ、前記第2のマッチング手段よる推定領域を採用しないことを特徴とする請求項1又は2に記載の被写体追跡装置。 - 前記第1のマッチング手段による推定領域の信頼度を判定する第1のマッチング手段のための判定手段をさらに有し、
前記被写体領域決定手段は、
前記第2のマッチング手段のための判定手段による信頼度が低ければ、前記第1のマッチング手段のための判定手段による信頼度に基づいて前記第1のマッチング手段による推定領域を採用するか否かを判定し、
前記第2のマッチング手段のための判定手段による信頼度が高ければ、前記第1のマッチング手段のための判定手段による信頼度に依存せず、前記第1のマッチング手段による推定領域を採用するか、前記第2のマッチング手段による推定領域を採用するかを判定することを特徴とする請求項3に記載の被写体追跡装置。 - 前記被写体領域決定手段は、前記第2のマッチング手段のための判定手段による信頼度および前記第1のマッチング手段のための判定手段による信頼度が共に低い場合は、被写体は消失したと判定することを特徴とする請求項4に記載の被写体追跡装置。
- 撮像した画像を逐次供給する撮像手段と、
請求項1乃至5のいずれか1項に記載の被写体追跡装置と、
前記撮像手段が撮像する際の撮像条件を、前記被写体追跡装置が出力する被写体の情報に応じて制御する制御手段とを備えることを特徴とする撮像装置。 - 逐次供給される画像を表示する表示手段と、
請求項1乃至5のいずれか1項に記載の被写体追跡装置と、
前記表示手段が表示する表示条件を、前記被写体追跡装置が出力する被写体の情報に応じて制御する制御手段とを備えることを特徴とする表示装置。 - 逐次供給される画像に含まれる被写体を追跡する被写体追跡装置の制御方法であって、
前記被写体追跡装置は、
供給される画像のうちの所定の画像における被写体を示す部分画像をテンプレートとして登録する第1の登録手段と、
前記第1の登録手段により登録されたテンプレートを用いて、供給された画像の部分領域と照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する第1のマッチング手段と、
供給される画像のうちの所定の画像における被写体を示す部分画像のヒストグラムを登録する第2の登録手段と、
前記第2の登録手段により登録されたヒストグラムを用いて、供給された画像の部分領域のヒストグラムと照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する第2のマッチング手段とを備え、
前記第1のマッチング手段および前記第2のマッチング手段による推定の結果に基づいて、被写体領域を決定する被写体領域決定手順を行い、
前記被写体領域決定手順では、
前記第2のマッチング手段による推定領域と前記第1のマッチング手段による推定領域の距離が所定範囲であれば、前記第1のマッチング手段による推定領域を被写体領域として採用し、
前記第2のマッチング手段による推定領域と前記第1のマッチング手段による推定領域の距離が所定範囲でなければ、前記第2のマッチング手段による推定領域を被写体領域として採用することを特徴とする被写体追跡装置の制御方法。 - 逐次供給される画像に含まれる被写体を追跡するためのプログラムであって、
供給される画像のうちの所定の画像における被写体を示す部分画像をテンプレートとして登録する第1の登録手段と、
前記第1の登録手段により登録されたテンプレートを用いて、供給された画像の部分領域と照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する第1のマッチング手段と、
供給される画像のうちの所定の画像における被写体を示す部分画像のヒストグラムを登録する第2の登録手段と、
前記第2の登録手段により登録されたヒストグラムを用いて、供給された画像の部分領域のヒストグラムと照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する第2のマッチング手段と、
前記第1のマッチング手段および前記第2のマッチング手段による推定の結果に基づいて、被写体領域を決定する被写体領域決定手段としてコンピュータを機能させ、
前記被写体領域決定手段は、
前記第2のマッチング手段による推定領域と前記第1のマッチング手段による推定領域の距離が所定範囲であれば、前記第1のマッチング手段による推定領域を被写体領域として採用し、
前記第2のマッチング手段による推定領域と前記第1のマッチング手段による推定領域の距離が所定範囲でなければ、前記第2のマッチング手段による推定領域を被写体領域として採用することを特徴とするプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014263335A JP6521626B2 (ja) | 2014-12-25 | 2014-12-25 | 被写体追跡装置、方法およびプログラム |
US14/967,057 US10013632B2 (en) | 2014-12-25 | 2015-12-11 | Object tracking apparatus, control method therefor and storage medium |
CN201510993768.8A CN105744152B (zh) | 2014-12-25 | 2015-12-25 | 被摄体追踪设备、摄像设备和被摄体追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014263335A JP6521626B2 (ja) | 2014-12-25 | 2014-12-25 | 被写体追跡装置、方法およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016123044A true JP2016123044A (ja) | 2016-07-07 |
JP2016123044A5 JP2016123044A5 (ja) | 2018-02-01 |
JP6521626B2 JP6521626B2 (ja) | 2019-05-29 |
Family
ID=56164831
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014263335A Active JP6521626B2 (ja) | 2014-12-25 | 2014-12-25 | 被写体追跡装置、方法およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10013632B2 (ja) |
JP (1) | JP6521626B2 (ja) |
CN (1) | CN105744152B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020049935A1 (ja) * | 2018-09-05 | 2020-03-12 | 日本電産株式会社 | 物体認識装置および物体認識方法 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6444835B2 (ja) | 2015-09-07 | 2018-12-26 | 株式会社東芝 | 画像処理装置、画像処理プログラムおよび画像処理システム |
US10579879B2 (en) * | 2016-08-10 | 2020-03-03 | Vivint, Inc. | Sonic sensing |
CN106327526B (zh) | 2016-08-22 | 2020-07-07 | 杭州保新科技有限公司 | 图像目标跟踪方法与系统 |
CN107480605B (zh) * | 2017-07-28 | 2020-05-08 | 广州翼拍联盟网络技术有限公司 | 图像维度信息评判方法、装置及计算设备 |
JP7215485B2 (ja) * | 2018-08-23 | 2023-01-31 | 日本電気株式会社 | 物体照合装置 |
JP7569169B2 (ja) * | 2020-06-12 | 2024-10-17 | キヤノン株式会社 | 撮像装置及びその制御方法及びプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008250772A (ja) * | 2007-03-30 | 2008-10-16 | Secom Co Ltd | 移動物体追跡装置 |
JP2011130384A (ja) * | 2009-12-21 | 2011-06-30 | Canon Inc | 被写体追跡装置及びその制御方法 |
JP2013098746A (ja) * | 2011-10-31 | 2013-05-20 | Jvc Kenwood Corp | 撮像装置、撮像方法およびプログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3768073B2 (ja) | 1999-06-15 | 2006-04-19 | 株式会社日立国際電気 | 物体追跡方法及び物体追跡装置 |
US20020198681A1 (en) | 2001-06-13 | 2002-12-26 | Kouritzin Michael A. | Flexible efficient branching particle tracking algorithms |
JP4154400B2 (ja) | 2004-04-01 | 2008-09-24 | キヤノン株式会社 | 撮像装置及びその制御方法及びプログラム |
CN101051385B (zh) | 2006-04-07 | 2011-11-23 | 欧姆龙株式会社 | 特定被摄体跟踪方法和装置以及特征部跟踪方法和装置 |
CN101369346B (zh) | 2007-08-13 | 2010-09-15 | 北京航空航天大学 | 一种视频运动目标自适应窗口的跟踪方法 |
CN101212658B (zh) | 2007-12-21 | 2010-06-02 | 北京中星微电子有限公司 | 一种目标跟踪方法及装置 |
JP5090474B2 (ja) | 2008-02-06 | 2012-12-05 | パナソニック株式会社 | 電子カメラおよび画像処理方法 |
US8509482B2 (en) | 2009-12-21 | 2013-08-13 | Canon Kabushiki Kaisha | Subject tracking apparatus, subject region extraction apparatus, and control methods therefor |
JP2012033022A (ja) * | 2010-07-30 | 2012-02-16 | Panasonic Corp | 空間における変化領域検出装置及び方法 |
-
2014
- 2014-12-25 JP JP2014263335A patent/JP6521626B2/ja active Active
-
2015
- 2015-12-11 US US14/967,057 patent/US10013632B2/en active Active
- 2015-12-25 CN CN201510993768.8A patent/CN105744152B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008250772A (ja) * | 2007-03-30 | 2008-10-16 | Secom Co Ltd | 移動物体追跡装置 |
JP2011130384A (ja) * | 2009-12-21 | 2011-06-30 | Canon Inc | 被写体追跡装置及びその制御方法 |
JP2013098746A (ja) * | 2011-10-31 | 2013-05-20 | Jvc Kenwood Corp | 撮像装置、撮像方法およびプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020049935A1 (ja) * | 2018-09-05 | 2020-03-12 | 日本電産株式会社 | 物体認識装置および物体認識方法 |
Also Published As
Publication number | Publication date |
---|---|
US20160189392A1 (en) | 2016-06-30 |
CN105744152A (zh) | 2016-07-06 |
JP6521626B2 (ja) | 2019-05-29 |
US10013632B2 (en) | 2018-07-03 |
CN105744152B (zh) | 2019-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6521626B2 (ja) | 被写体追跡装置、方法およびプログラム | |
JP5219795B2 (ja) | 被写体追跡装置、その制御方法、撮像装置、表示装置及びプログラム | |
US8509482B2 (en) | Subject tracking apparatus, subject region extraction apparatus, and control methods therefor | |
JP5159515B2 (ja) | 画像処理装置およびその制御方法 | |
CN107707871B (zh) | 图像处理设备、摄像设备、图像处理方法和存储介质 | |
JP6049448B2 (ja) | 被写体領域追跡装置、その制御方法及びプログラム | |
JP2013228930A (ja) | 被写体領域検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置 | |
JP6924064B2 (ja) | 画像処理装置およびその制御方法、ならびに撮像装置 | |
US20210256713A1 (en) | Image processing apparatus and image processing method | |
JP2015148532A (ja) | 距離計測装置、撮像装置、距離計測方法、およびプログラム | |
JP5395650B2 (ja) | 被写体領域抽出装置およびその制御方法、被写体追跡装置、並びにプログラム | |
JP5167236B2 (ja) | 被写体追跡装置及びその制御方法 | |
JP2016081095A (ja) | 被写体追跡装置、その制御方法、撮像装置、表示装置及びプログラム | |
JP5539565B2 (ja) | 撮像装置及び被写体追跡方法 | |
JP6099973B2 (ja) | 被写体領域追跡装置、その制御方法及びプログラム | |
JP5451364B2 (ja) | 被写体追跡装置及びその制御方法 | |
JP6555940B2 (ja) | 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法 | |
JP2009009206A (ja) | 画像中の輪郭抽出方法及びその画像処理装置 | |
JP5222429B2 (ja) | 被写体追跡装置及びその制御方法 | |
JP7034781B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP5247419B2 (ja) | 撮像装置および被写体追跡方法 | |
JP7566471B2 (ja) | 画像処理装置、撮像装置、画像処理方法およびプログラム | |
US20220309706A1 (en) | Image processing apparatus that tracks object and image processing method | |
JP6525693B2 (ja) | 画像処理装置及び画像処理方法 | |
JP2024056441A (ja) | 画像処理装置、画像処理装置の制御方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171215 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190423 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6521626 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |