Nothing Special   »   [go: up one dir, main page]

JP2016123044A - 被写体追跡装置、その制御方法およびプログラム - Google Patents

被写体追跡装置、その制御方法およびプログラム Download PDF

Info

Publication number
JP2016123044A
JP2016123044A JP2014263335A JP2014263335A JP2016123044A JP 2016123044 A JP2016123044 A JP 2016123044A JP 2014263335 A JP2014263335 A JP 2014263335A JP 2014263335 A JP2014263335 A JP 2014263335A JP 2016123044 A JP2016123044 A JP 2016123044A
Authority
JP
Japan
Prior art keywords
subject
matching
area
image
histogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014263335A
Other languages
English (en)
Other versions
JP2016123044A5 (ja
JP6521626B2 (ja
Inventor
良介 辻
Ryosuke Tsuji
良介 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014263335A priority Critical patent/JP6521626B2/ja
Priority to US14/967,057 priority patent/US10013632B2/en
Priority to CN201510993768.8A priority patent/CN105744152B/zh
Publication of JP2016123044A publication Critical patent/JP2016123044A/ja
Publication of JP2016123044A5 publication Critical patent/JP2016123044A5/ja
Application granted granted Critical
Publication of JP6521626B2 publication Critical patent/JP6521626B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Geometry (AREA)

Abstract

【課題】ヒストグラムマッチングとテンプレートマッチングを併用するとともに、各マッチングの特性を踏まえて、被写体追跡の性能を向上させる。
【解決手段】撮像装置100は、供給される画像に含まれる被写体を追跡する被写体追跡装置として機能し、被写体を示す部分画像をテンプレートとして登録して、このテンプレートを用いて領域を推定するテンプレートマッチングと、被写体を示す部分画像のヒストグラムを登録して、このヒストグラムを用いて領域を推定するヒストグラムマッチングとを行う。このとき、ヒストグラムマッチングによる推定領域とテンプレートマッチングによる推定領域の距離が所定範囲であれば、テンプレートマッチングによる推定領域を被写体領域として採用し、ヒストグラムマッチングによる推定領域とテンプレートマッチングによる推定領域の距離が所定範囲でなければ、ヒストグラムマッチングによる推定領域を被写体領域として採用する。
【選択図】図5

Description

本発明は、逐次供給される画像に含まれる被写体を追跡する被写体追跡装置、その制御方法、撮像装置、表示装置およびプログラムに関する。
時系列的に逐次供給される画像から特定の被写体を抽出し、その抽出した被写体を追跡する技術は非常に有用であり、例えば動画像における人間の顔領域や人体領域の特定に利用されている。このような技術は、例えば通信会議、マン・マシン・インターフェース、セキュリティ、任意の被写体を追跡するためのモニタ・システム、画像圧縮等の多くの分野で使用することができる。
また、デジタルスチルカメラやデジタルビデオカメラでは、タッチパネル等を用いて指定された撮像画像に含まれる任意の被写体を抽出および追跡して、かかる被写体に対する焦点状態や露出状態を最適化する技術が提案されている(特許文献1および2参照)。例えば特許文献1には、撮像画像に含まれる顔の位置を検出(抽出)および追跡し、かかる顔に対して、焦点を合わせると共に最適な露出で撮像する撮像装置が開示されている。また、特許文献2には、テンプレートマッチングを用いて、特定の被写体を自動で追跡する技術が開示されている。ここで、テンプレートマッチングとは、追跡対象となる特定の被写体を含む画像領域を切り出した部分画像をテンプレート画像として登録し、テンプレート画像と最も類似度が高い又は相違度が低い領域を画像内において推定し、特定の被写体を追跡する手法である。なお、テンプレートマッチングでは、タッチパネル等の入力インターフェイスを用いて画像に含まれる任意の領域を指定し、かかる領域を基準としてテンプレート画像が登録される。
特開2005−318554号公報 特開2001−60269号公報
テンプレートマッチングでは、画像データを評価尺度として用いる。テンプレート画像と探索する画像とにおいて、姿勢変化等、被写体の見えの変化が大きい場合には、正しい領域を推定できないという課題がある。
この課題に対して、マッチングの評価尺度に画像データそのものではなくヒストグラムを利用する方法がある(ヒストグラムマッチング)。被写体を示す情報を画像データからヒストグラムに変換することで、曖昧性を持たせ、被写体の姿勢変動にロバストな被写体追跡が実現できる。一方で、ヒストグラム基づくヒストグラムマッチングでは、画像データに基づくテンプレートマッチングと比較して、被写体の見えの変化が少ない場合等は、推定の位置精度が劣る側面がある。
そこで、ヒストグラムマッチングとテンプレートマッチングを併用する方法が考えられる。この場合は、複数のマッチングによる評価値から被写体領域を推定する必要がある。
本発明は上述した課題に鑑みてなされたものであり、ヒストグラムマッチングとテンプレートマッチングを併用するとともに、各マッチングの特性を踏まえて、被写体追跡の性能を向上させることを目的とする。
本発明の被写体追跡装置は、逐次供給される画像に含まれる被写体を追跡する被写体追跡装置であって、供給される画像のうちの所定の画像における被写体を示す部分画像をテンプレートとして登録する第1の登録手段と、前記第1の登録手段により登録されたテンプレートを用いて、供給された画像の部分領域と照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する第1のマッチング手段と、供給される画像のうちの所定の画像における被写体を示す部分画像のヒストグラムを登録する第2の登録手段と、前記第2の登録手段により登録されたヒストグラムを用いて、供給された画像の部分領域のヒストグラムと照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する第2のマッチング手段と、前記第1のマッチング手段および前記第2のマッチング手段による推定の結果に基づいて、被写体領域を決定する被写体領域決定手段とを備え、前記被写体領域決定手段は、前記第2のマッチング手段による推定領域と前記第1のマッチング手段による推定領域の距離が所定範囲であれば、前記第1のマッチング手段による推定領域を被写体領域として採用し、前記第2のマッチング手段による推定領域と前記第1のマッチング手段による推定領域の距離が所定範囲でなければ、前記第2のマッチング手段による推定領域を被写体領域として採用することを特徴とする。
本発明によれば、ヒストグラムマッチングとテンプレートマッチングを併用するとともに、各マッチングの特性を踏まえて被写体領域を精度良く推定することができ、被写体追跡の性能を向上させることができる。
実施形態に係る撮像装置の概略構成を示すブロック図である。 被写体追跡のフレームワークを示す図である。 テンプレートマッチングを説明するための図である。 ヒストグラムマッチングを説明するための図である。 実施形態における被写体追跡処理の流れを示すフローチャートである。 図5の被写体領域決定処理の流れを示すフローチャートである。
以下、添付図面を参照して、本発明の好適な実施形態について説明する。
図1は、実施形態に係る撮像装置100の概略構成を示すブロック図である。本実施形態では、撮像装置100は、被写体の画像を撮像するデジタルカメラとして具現化される。また、撮像装置100は、時系列的に逐次供給される画像に含まれる被写体を追跡する被写体追跡装置としても機能する。
撮像装置100は、撮像光学系101と、撮像素子102と、アナログ信号処理部103と、A/D変換部104と、制御部105と、画像処理部106と、表示部107と、記録媒体108と、被写体指定部109と、被写体追跡部110とを備える。
被写体の像を表す光は、撮像光学系101によって集光され、CCDイメージセンサやCMOSイメージセンサ等で構成された撮像素子102に入射する。撮像素子102は、入射する光の強度に応じた電気信号を画素単位で出力する(即ち、撮像光学系101によって形成された被写体の像を光電変換する)。撮像素子102から出力される電気信号は、撮像素子102で撮像された被写体の像を示すアナログの画像信号である。
撮像素子102から出力された映像信号は、アナログ信号処理部103で相関二重サンプリング(CDS)等のアナログ信号処理が行われる。アナログ信号処理部103から出力された映像信号は、A/D変換部104でデジタルデータの形式に変換され、制御部105および画像処理部106に入力される。
制御部105は、CPUやマイクロコントローラ等で構成され、撮像装置100の動作を中央制御する。制御部105は、撮像素子102で撮像する際の焦点状況や露出状況等の撮像条件を制御する。具体的には、制御部105は、A/D変換部104から出力された映像信号に基づいて、撮像光学系101の焦点制御機構や露出制御機構(いずれも図示しない)を制御する。例えば焦点制御機構は撮像光学系101に含まれるレンズを光軸方向へ駆動させるアクチュエータ等であり、露出制御機構は絞りやシャッタを駆動させるアクチュエータ等である。また、制御部105は、撮像素子102の出力タイミングや出力画素等、撮像素子102の読み出し制御を行う。制御部105は、ROMに記憶されたプログラムコードをRAMの作業領域に展開して順次実行することで、撮像装置100の各部を制御する。
画像処理部106は、A/D変換部104から出力された映像信号に対して、ガンマ補正、ホワイトバランス処理等の画像処理を行う。また、画像処理部106は、通常の画像処理に加え、後述する被写体追跡部110から供給される画像中の被写体領域に関する情報を用いた画像処理を行う機能も有する。
画像処理部106から出力された映像信号は、表示部107に送られる。表示部107は、例えばLCDや有機ELディスプレイで構成され、映像信号を表示する。撮像素子102で時系列的に逐次撮像した画像を表示部107に逐次表示させることで、表示部107を電子ビューファインダ(EVF)として機能させることができる。また、表示部107では、被写体追跡部110によって追跡している被写体を含む被写体領域を矩形等で表示する。
また、画像処理部106から出力された映像信号は、記録媒体108(例えば着脱可能なメモリーカード)に記録される。なお、映像信号の記録先は、撮像装置100の内蔵メモリであっても、通信インターフェイスにより通信可能に接続された外部装置(いずれも図示しない)であってもよい。
被写体指定部109は、例えばタッチパネルやボタン等を含む入力インターフェイスで構成される。ユーザ(撮像者)は、被写体指定部109を介して、画像に含まれる任意の被写体を追跡対象に指定することができる。
被写体追跡部110は、画像処理部106から時系列的に逐次供給される(即ち、撮像された時刻の異なる)画像(画像信号)に含まれる被写体を追跡する。被写体追跡部110は、被写体の画素パターンやヒストグラムに基づき、被写体指定部109によって指定された被写体を追跡する。また、顔検出等の特定の被写体検出部(図示しない)を有し、検出された被写体を追跡する構成としても良い。被写体追跡部110の詳細は後述する。
制御部105は、上述した焦点制御機構や露出制御機構の制御に、被写体追跡部110から供給された被写体領域の情報を用いることができる。具体的には、被写体領域のコントラスト値を用いた焦点制御や、被写体領域の輝度値を用いた露出制御を行う。これにより、撮像装置100では、撮像画像における特定の被写体領域を考慮した撮像処理を行うことができる。
ここで、被写体追跡部110に関して詳細を説明する。被写体追跡部110は、2種のマッチング手段として機能する。一つは、目的とする被写体を示す部分画像をテンプレートとして、供給された画像の部分領域と照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する(以下、テンプレートマッチングと呼称)マッチング手段である。もう一つは、目的とする被写体を示す部分画像のヒストグラムを用いて、供給された画像の部分領域のヒストグラムと照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する(以下、ヒストグラムマッチングと呼称)マッチング手段である。各々のマッチング評価値に基づいて被写体領域を決定する。
図2に、被写体追跡部110による被写体追跡のフレームワークを示す。
201、202、203は、被写体追跡部110の入力画像の例である。画像201は、被写体指定部109により追跡対象が指定された画像であり、追跡処理の開始画像となる。画像202は、被写体追跡処理を実施した画像のうち、現在時刻に最も近い画像である。画像203は、現在時刻の画像であり、被写体領域を推定する処理を実施する画像となる。
204は、追跡の開始画像201における追跡対象となる被写体を示す部分画像である。部分画像204からヒストグラム205を生成し、このヒストグラム205を登録しておく。
206は、被写体追跡処理の直前結果を示す部分画像であり、この画像をテンプレートとして登録する。
207は、被写体追跡処理の探索範囲である。探索範囲207に対して、ヒストグラム205を用いたヒストグラムマッチング、テンプレート206を用いたテンプレートマッチングが実行される。すなわち、フレームnに対して、追跡の開始フレーム(フレーム1)に基づくヒストグラムマッチングと、追跡の直前フレーム(フレームn−1)に基づくテンプレートマッチングを行う。
図3を参照して、テンプレートマッチングの詳細に関して説明する。
図3(a)は、テンプレートマッチングにおける被写体モデル(テンプレート)の例を示す。301は追跡対象となる被写体を示す部分画像(テンプレート)であり、この画像の画素パターンを特徴量として扱う。302はテンプレート301の特徴量を表現したものであり、画素データの輝度信号を特徴量とする。特徴量T(i,j)は、テンプレート領域内の座標を(i,j)、水平画素数をW、垂直画素数をHとすると、式(1)で表現される。
Figure 2016123044
図3(b)は、追跡対象を探索する画像の情報を示す。303はマッチング処理を行う範囲の画像である。探索画像における座標は(x,y)で表現する。304はマッチングの評価値を取得するための部分領域である。305は部分領域304の特徴量を表現したものであり、テンプレート301と同様に画像データの輝度信号を特徴量とする。特徴量S(i,j)は、部分領域内の座標を(i,j)、水平画素数をW、垂直画素数をHとすると、式(2)で表現される。
Figure 2016123044
テンプレート301と部分領域304との類似性を評価する演算方法として、差分絶対和、いわゆるSAD(Sum of Absolute Difference)値を用いる。SAD値は、式(3)により算出される。
Figure 2016123044
部分領域304を探索範囲303の左上から順に1画素ずつずらしながら、SAD値V(x,y)を演算する。演算されたV(x,y)が最小値を示す座標(x,y)がテンプレート301と最も類似した位置を示す。つまり、最小値を示す位置が探索画像において目的とする追跡対象が存在する可能性の高い位置となる。
ここでは、特徴量として輝度信号の1次元の情報を用いる例を示したが、明度・色相・彩度の信号等の3次元の情報を特徴量として扱ってもよい。また、マッチングの評価値の演算方法としてSAD値に関して説明したが、正規化相互相関いわゆるNCC(Normalized Correlation Coffiecient)等の異なる演算方法を用いても良い。
図4を参照して、ヒストグラムマッチングの詳細に関して説明する。
図4(a)は、ヒストグラムマッチングにおける被写体モデルの例を示す。401は追跡対象となる被写体を示す部分画像であり、この画像の画素データから生成するヒストグラムを特徴量として扱う。402は部分画像401の特徴量を表現したものであり、特徴量は、輝度信号のM階調のヒストグラムとすると、式(4)で表現される。
Figure 2016123044
図4(b)は、追跡対象を探索する画像の情報を示す。403はマッチング処理を行う範囲の画像である。探索画像における座標は(x,y)で表現する。404はマッチングの評価値を取得するための部分領域である。405は部分領域404から生成される特徴量を表現したものであり、特徴量は、部分画像401と同様に輝度信号のM階調のヒストグラムとすると、式(5)で表現される。
Figure 2016123044
部分画像301のヒストグラムと部分領域404のヒストグラムとの類似性を評価する演算方法として、Bhattacharyya係数を用いる。Bhattacharyya係数は、式(6)により算出される。
Figure 2016123044
部分領域404を探索範囲403の左上から順に1画素ずつずらしながら、Bhattacharyya係数D(x,y)を演算する。演算されたD(x,y)が最大値を示す座標(x,y)が部分画像401と最も類似した位置を示す。つまり、最大値を示す位置が探索画像において目的とする追跡対象が存在する可能性の高い位置となる。
ここでは、特徴量として輝度信号の1次元の情報を用いる例を示したが、明度・色相・彩度の信号等の3次元の情報を特徴量として扱ってもよい。また、マッチングの評価値の演算方法としてBhattacharyya係数に関して説明したが、ヒストグラムインタセクション等の異なる演算方法を用いても良い。
本実施形態に係る撮像装置100では、テンプレートマッチングおよびヒストグラムマッチングによる評価値、推定領域(推定位置)より被写体領域を決定する。
上述した数式からわかるように、ヒストグラムマッチングは、テンプレートマッチングと比較して、特徴量に曖昧性を持たせている。テンプレートマッチングでは、輝度信号の画素値のパターンが類似しているかを評価尺度とするが、ヒストグラムマッチングでは、輝度信号の画素値の割合が類似しているかを評価尺度している。したがって、被写体モデルと探索画像における被写体の状態において、被写体の姿勢変動が大きい場合は、ヒストグラムマッチングの方が推定の成功確率が高い。一方で、特徴量に曖昧性を持たせることにより、ヒストグラムマッチングはテンプレートマッチングより、位置の推定精度は劣る。被写体領域の推定において、ヒストグラムマッチングはテンプレートマッチングと比較して、大まかな被写体領域を推定する能力は高いが、詳細な位置合わせ能力は低いことを意味している。
テンプレートマッチングは、ヒストグラムマッチングと比較して、被写体の姿勢変動等、見えの変化が大きい場合は、正しい被写体領域を推定するのは困難である。一方で、被写体の見えの変化が少ない場合は、位置の推定精度が高い(位置合わせ能力が高い)。
上述した特性を踏まえて、被写体追跡部110では、追跡の開始フレームから被写体モデルを登録するヒストグラムマッチングと、追跡の直前フレームから被写体モデルを登録するテンプレートマッチングとを行う構成としている。ヒストグラムマッチングでは、被写体指定部109の情報に基づく被写体モデルを登録し、テンプレートマッチングでは、被写体追跡部110の結果に基づく被写体モデルを逐次更新する。そのため、被写体モデルが正しく目的とする被写体を含んでいるかという観点では、逐次更新しないヒストグラムマッチングの方が優位である。テンプレートマッチングでは、被写体追跡部110の推定誤差や誤りの影響を含み、被写体モデル内に背景等の目的とする被写体以外の情報を含む可能性がある。各マッチング機能の評価値に基づきマッチングの信頼度判定が実施されるが、この信頼度判定の精度は、被写体モデルの信頼性に起因する。つまり、ヒストグラムマッチングは信頼度判定の精度は高く、テンプレートマッチングの信頼度判定の精度は低い。
なお、これは一例であって、被写体の姿勢変化や見えの変化の程度によっては被写体領域のヒストグラムも変化することが考えられるため、ヒストグラムマッチングにおいても追跡の直前フレームから被写体モデルを登録するようにしてもよい。ただし、被写体モデルに背景が含まれてしまうことを抑制するため、位置の推定精度が高いテンプレートマッチングによる被写体追跡が成功した場合に限り、ヒストグラムマッチングの被写体モデルを更新するようにするのが望ましい。また、ヒストグラムマッチングとテンプレートマッチングのいずれにおいても、追跡の開始フレームと追跡の直前のフレームの両方から被写体モデルを登録し、両方のフレームから得られた被写体モデルを併用して用いるようにしてもよい。
上述した特性を活かした各々のマッチング評価値から被写体領域を決定する手法について説明する。ヒストグラムマッチングによる推定領域の近傍にテンプレートマッチングによる推定領域があれば、テンプレートマッチングによる推定領域を被写体領域として採用する。ヒストグラムマッチングによる推定領域の近傍にテンプレートマッチングによる推定領域がなければ、ヒストグラムマッチングによる推定領域を被写体領域として採用する。いずれのマッチングによる推定領域を採用するかを決定する処理は、ヒストグラムマッチングの信頼度が高い場合に限定することで、ヒストグラムマッチングの探索の失敗や目的とする被写体が探索範囲の画像から消失した場合に対応できる。
図5に、実施形態における被写体追跡処理の流れを示す。
画像処理部106から被写体追跡部110に画像が供給されると(ステップS501)、被写体追跡部110は、この入力画像と被写体指定部109の情報に基づいて、追跡対象となる被写体を示す部分画像を決定する(ステップS502)。
次に、被写体追跡部110は、追跡対象となる被写体を示す部分画像に基づいて、ヒストグラムマッチングの被写体モデルであるヒストグラムを登録する(ステップS503)。また、被写体追跡部110は、追跡対象となる被写体を示す部分画像を、テンプレートマッチングの被写体モデルであるテンプレートとして登録する(ステップS504)。
次に、画像処理部106から被写体追跡部110に画像が供給される(ステップS505)。ステップS505の入力画像は被写体追跡部110の探索画像を示し、ステップS501の入力画像とステップS505の入力画像とは、時刻の異なる画像である。ステップS505の入力画像に基づいて、ヒストグラムマッチング(ステップS506)、テンプレートマッチング(ステップS507)を行う。
次に、被写体追跡部110は、ヒストグラムマッチングとテンプレートマッチングの評価値とその領域情報に基づいて、被写体領域を決定する(ステップS508)。
ここで、図6を参照して、ステップS508の被写体領域決定処理に流れについて説明する。
まず、被写体追跡部110は、ヒストグラムマッチングの評価値の信頼性が高いか否か否かを判定する(ステップS601)。信頼性判定の例としては、式(6)のBhattacharyya係数D(x,y)の最大値が所定の閾値以上であれば信頼性が高いと判定し、Bhattacharyya係数D(x,y)の最大値が所定の閾値未満であれば信頼性が低いと判定する。
ヒストグラムマッチングの評価値の信頼性が高い場合(ステップS601でYES)、ステップS602に進み、ヒストグラムマッチングの推定領域の近傍にテンプレートマッチングの推定領域があるか否かを判定する。判定の例としては、式(6)のBhattacharyya係数D(x,y)の最大値の座標(x,y)と式(3)のSAD値V(x,y)の最小値の座標(x,y)との距離を算出し、算出した距離が所定範囲であるか否かに基づいて判定する。
ヒストグラムマッチングの推定距離の近傍にテンプレートマッチングの推定領域がない場合(ステップS602でNO)、ステップS604に進み、ヒストグラムマッチングによる推定領域を採用する。すなわち、式(6)のBhattacharyya係数D(x,y)の最大値の座標(x,y)を被写体位置として決定する。それに対して、ヒストグラムマッチングの推定距離の近傍にテンプレートマッチングの推定領域がある場合(ステップS602でYES)、ステップS605に進み、テンプレートマッチングによる推定領域を採用する。すなわち、式(3)のSAD値V(x,y)の最小値の座標(x,y)を被写体位置として決定する。
一方、ヒストグラムマッチングの評価値の信頼性が低い場合(ステップS601でNO)、テンプレートマッチングの評価値の信頼性が高いか否かを判定する(ステップS603)。信頼性判定の例としては、式(3)のSAD値V(x,y)の最小値が所定の閾値未満であれば信頼性が高いと判定し、SAD値V(x,y)の最小値が所定の閾値以上であれば信頼性が低いと判定する。
テンプレートマッチングの評価値の信頼性が高い場合(ステップS603でYES)、ステップS605に進み、テンプレートマッチングに推定領域を採用する。それに対して、テンプレートマッチングの評価値の信頼性が低い場合(ステップS603でNO)、ステップS606に進み、テンプレートマッチング、ヒストグラムマッチングの推定領域を共に採用しない。
上述したように、ヒストグラムマッチングの信頼性判定による信頼度が高ければ、テンプレートマッチング信頼性判定による信頼度に依存せず、テンプレートマッチングによる推定領域を採用するか、ヒストグラムマッチングによる推定領域を採用するかを判定することとなる。
図5に説明を戻して、ステップS508で被写体領域が決定されると、被写体追跡部110は、その結果に基づいて追跡を継続するか否かを判定する(ステップS509)。判定の例としては、ステップS606のようにテンプレートマッチング、ヒストグラムマッチングの推定領域を共に採用しなければ、継続しないと判定する。一方で、ステップS604、ステップS605のようにテンプレートマッチング、ヒストグラムマッチングの推定領域のいずれかが採用されれば、追跡を継続する。追跡を継続しないと判定すれば(ステップS509でNO)、被写体追跡の処理を終了する。この処理は、目的とする追跡の被写体が探索範囲の画像に存在しなくなった場合に実行されることを期待している。追跡を継続すると判定すれば(ステップS509でYES)、推定した被写体領域に基づきテンプレートを更新する(ステップS510)。そして、ステップS505に戻り、逐次供給される画像に基づいて、繰り返し処理が実行される。
以上のように、ヒストグラムマッチングとテンプレートマッチングを併用するとともに、各マッチングの特性を踏まえて被写体領域を精度良く推定することができ、被写体追跡の性能を向上させることができる。
以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
上述した実施形態では、撮像装置に被写体追跡装置を適用した場合を例示したが、被写体追跡装置を適用する機器は撮像装置に限定しない。例えば外部機器や記録媒体等から供給される画像(再生データ)を表示する表示装置に被写体追跡装置を適用してもよい。表示装置では、再生データを被写体追跡処理のデータとし、被写体追跡処理が行われることとなる。この表示装置におけるマイクロコントローラ等の制御部は、被写体追跡処理により抽出された被写体の情報(画像中の被写体の位置、大きさ等)に基づいて、画像を表示する際の表示条件を制御する。具体的には、画像中の被写体の位置に枠等の被写体を示す情報の重畳表示や、被写体部分の輝度や色情報に応じた表示画像の輝度や色合い等の制御を行う。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 撮像装置
101 撮像光学系
102 撮像素子
103 アナログ信号処理部
104 A/D変換部
105 制御部
106 画像処理部
107 表示部
108 記録媒体
109 被写体指定部
110 被写体追跡部

Claims (9)

  1. 逐次供給される画像に含まれる被写体を追跡する被写体追跡装置であって、
    供給される画像のうちの所定の画像における被写体を示す部分画像をテンプレートとして登録する第1の登録手段と、
    前記第1の登録手段により登録されたテンプレートを用いて、供給された画像の部分領域と照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する第1のマッチング手段と、
    供給される画像のうちの所定の画像における被写体を示す部分画像のヒストグラムを登録する第2の登録手段と、
    前記第2の登録手段により登録されたヒストグラムを用いて、供給された画像の部分領域のヒストグラムと照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する第2のマッチング手段と、
    前記第1のマッチング手段および前記第2のマッチング手段による推定の結果に基づいて、被写体領域を決定する被写体領域決定手段とを備え、
    前記被写体領域決定手段は、
    前記第2のマッチング手段による推定領域と前記第1のマッチング手段による推定領域の距離が所定範囲であれば、前記第1のマッチング手段による推定領域を被写体領域として採用し、
    前記第2のマッチング手段による推定領域と前記第1のマッチング手段による推定領域の距離が所定範囲でなければ、前記第2のマッチング手段による推定領域を被写体領域として採用することを特徴とする被写体追跡装置。
  2. 前記第1の登録手段は、該被写体追跡装置による追跡の直前フレームに基づいてテンプレートを更新していき、
    前記第2の登録手段は、該被写体追跡装置による追跡の開始フレームに基づいてヒストグラムを登録することを特徴する請求項1に記載の被写体追跡装置。
  3. 前記第2のマッチング手段による推定領域の信頼度を判定する第2のマッチング手段のための判定手段をさらに備え、
    前記被写体領域決定手段は、前記第2のマッチング手段のための判定手段による信頼度が低ければ、前記第2のマッチング手段よる推定領域を採用しないことを特徴とする請求項1又は2に記載の被写体追跡装置。
  4. 前記第1のマッチング手段による推定領域の信頼度を判定する第1のマッチング手段のための判定手段をさらに有し、
    前記被写体領域決定手段は、
    前記第2のマッチング手段のための判定手段による信頼度が低ければ、前記第1のマッチング手段のための判定手段による信頼度に基づいて前記第1のマッチング手段による推定領域を採用するか否かを判定し、
    前記第2のマッチング手段のための判定手段による信頼度が高ければ、前記第1のマッチング手段のための判定手段による信頼度に依存せず、前記第1のマッチング手段による推定領域を採用するか、前記第2のマッチング手段による推定領域を採用するかを判定することを特徴とする請求項3に記載の被写体追跡装置。
  5. 前記被写体領域決定手段は、前記第2のマッチング手段のための判定手段による信頼度および前記第1のマッチング手段のための判定手段による信頼度が共に低い場合は、被写体は消失したと判定することを特徴とする請求項4に記載の被写体追跡装置。
  6. 撮像した画像を逐次供給する撮像手段と、
    請求項1乃至5のいずれか1項に記載の被写体追跡装置と、
    前記撮像手段が撮像する際の撮像条件を、前記被写体追跡装置が出力する被写体の情報に応じて制御する制御手段とを備えることを特徴とする撮像装置。
  7. 逐次供給される画像を表示する表示手段と、
    請求項1乃至5のいずれか1項に記載の被写体追跡装置と、
    前記表示手段が表示する表示条件を、前記被写体追跡装置が出力する被写体の情報に応じて制御する制御手段とを備えることを特徴とする表示装置。
  8. 逐次供給される画像に含まれる被写体を追跡する被写体追跡装置の制御方法であって、
    前記被写体追跡装置は、
    供給される画像のうちの所定の画像における被写体を示す部分画像をテンプレートとして登録する第1の登録手段と、
    前記第1の登録手段により登録されたテンプレートを用いて、供給された画像の部分領域と照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する第1のマッチング手段と、
    供給される画像のうちの所定の画像における被写体を示す部分画像のヒストグラムを登録する第2の登録手段と、
    前記第2の登録手段により登録されたヒストグラムを用いて、供給された画像の部分領域のヒストグラムと照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する第2のマッチング手段とを備え、
    前記第1のマッチング手段および前記第2のマッチング手段による推定の結果に基づいて、被写体領域を決定する被写体領域決定手順を行い、
    前記被写体領域決定手順では、
    前記第2のマッチング手段による推定領域と前記第1のマッチング手段による推定領域の距離が所定範囲であれば、前記第1のマッチング手段による推定領域を被写体領域として採用し、
    前記第2のマッチング手段による推定領域と前記第1のマッチング手段による推定領域の距離が所定範囲でなければ、前記第2のマッチング手段による推定領域を被写体領域として採用することを特徴とする被写体追跡装置の制御方法。
  9. 逐次供給される画像に含まれる被写体を追跡するためのプログラムであって、
    供給される画像のうちの所定の画像における被写体を示す部分画像をテンプレートとして登録する第1の登録手段と、
    前記第1の登録手段により登録されたテンプレートを用いて、供給された画像の部分領域と照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する第1のマッチング手段と、
    供給される画像のうちの所定の画像における被写体を示す部分画像のヒストグラムを登録する第2の登録手段と、
    前記第2の登録手段により登録されたヒストグラムを用いて、供給された画像の部分領域のヒストグラムと照合し、照合する部分領域を変化させて、類似度が高い又は相違度が低い領域を推定する第2のマッチング手段と、
    前記第1のマッチング手段および前記第2のマッチング手段による推定の結果に基づいて、被写体領域を決定する被写体領域決定手段としてコンピュータを機能させ、
    前記被写体領域決定手段は、
    前記第2のマッチング手段による推定領域と前記第1のマッチング手段による推定領域の距離が所定範囲であれば、前記第1のマッチング手段による推定領域を被写体領域として採用し、
    前記第2のマッチング手段による推定領域と前記第1のマッチング手段による推定領域の距離が所定範囲でなければ、前記第2のマッチング手段による推定領域を被写体領域として採用することを特徴とするプログラム。
JP2014263335A 2014-12-25 2014-12-25 被写体追跡装置、方法およびプログラム Active JP6521626B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014263335A JP6521626B2 (ja) 2014-12-25 2014-12-25 被写体追跡装置、方法およびプログラム
US14/967,057 US10013632B2 (en) 2014-12-25 2015-12-11 Object tracking apparatus, control method therefor and storage medium
CN201510993768.8A CN105744152B (zh) 2014-12-25 2015-12-25 被摄体追踪设备、摄像设备和被摄体追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014263335A JP6521626B2 (ja) 2014-12-25 2014-12-25 被写体追跡装置、方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2016123044A true JP2016123044A (ja) 2016-07-07
JP2016123044A5 JP2016123044A5 (ja) 2018-02-01
JP6521626B2 JP6521626B2 (ja) 2019-05-29

Family

ID=56164831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014263335A Active JP6521626B2 (ja) 2014-12-25 2014-12-25 被写体追跡装置、方法およびプログラム

Country Status (3)

Country Link
US (1) US10013632B2 (ja)
JP (1) JP6521626B2 (ja)
CN (1) CN105744152B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020049935A1 (ja) * 2018-09-05 2020-03-12 日本電産株式会社 物体認識装置および物体認識方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6444835B2 (ja) 2015-09-07 2018-12-26 株式会社東芝 画像処理装置、画像処理プログラムおよび画像処理システム
US10579879B2 (en) * 2016-08-10 2020-03-03 Vivint, Inc. Sonic sensing
CN106327526B (zh) 2016-08-22 2020-07-07 杭州保新科技有限公司 图像目标跟踪方法与系统
CN107480605B (zh) * 2017-07-28 2020-05-08 广州翼拍联盟网络技术有限公司 图像维度信息评判方法、装置及计算设备
JP7215485B2 (ja) * 2018-08-23 2023-01-31 日本電気株式会社 物体照合装置
JP7569169B2 (ja) * 2020-06-12 2024-10-17 キヤノン株式会社 撮像装置及びその制御方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250772A (ja) * 2007-03-30 2008-10-16 Secom Co Ltd 移動物体追跡装置
JP2011130384A (ja) * 2009-12-21 2011-06-30 Canon Inc 被写体追跡装置及びその制御方法
JP2013098746A (ja) * 2011-10-31 2013-05-20 Jvc Kenwood Corp 撮像装置、撮像方法およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3768073B2 (ja) 1999-06-15 2006-04-19 株式会社日立国際電気 物体追跡方法及び物体追跡装置
US20020198681A1 (en) 2001-06-13 2002-12-26 Kouritzin Michael A. Flexible efficient branching particle tracking algorithms
JP4154400B2 (ja) 2004-04-01 2008-09-24 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
CN101051385B (zh) 2006-04-07 2011-11-23 欧姆龙株式会社 特定被摄体跟踪方法和装置以及特征部跟踪方法和装置
CN101369346B (zh) 2007-08-13 2010-09-15 北京航空航天大学 一种视频运动目标自适应窗口的跟踪方法
CN101212658B (zh) 2007-12-21 2010-06-02 北京中星微电子有限公司 一种目标跟踪方法及装置
JP5090474B2 (ja) 2008-02-06 2012-12-05 パナソニック株式会社 電子カメラおよび画像処理方法
US8509482B2 (en) 2009-12-21 2013-08-13 Canon Kabushiki Kaisha Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP2012033022A (ja) * 2010-07-30 2012-02-16 Panasonic Corp 空間における変化領域検出装置及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250772A (ja) * 2007-03-30 2008-10-16 Secom Co Ltd 移動物体追跡装置
JP2011130384A (ja) * 2009-12-21 2011-06-30 Canon Inc 被写体追跡装置及びその制御方法
JP2013098746A (ja) * 2011-10-31 2013-05-20 Jvc Kenwood Corp 撮像装置、撮像方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020049935A1 (ja) * 2018-09-05 2020-03-12 日本電産株式会社 物体認識装置および物体認識方法

Also Published As

Publication number Publication date
US20160189392A1 (en) 2016-06-30
CN105744152A (zh) 2016-07-06
JP6521626B2 (ja) 2019-05-29
US10013632B2 (en) 2018-07-03
CN105744152B (zh) 2019-06-18

Similar Documents

Publication Publication Date Title
JP6521626B2 (ja) 被写体追跡装置、方法およびプログラム
JP5219795B2 (ja) 被写体追跡装置、その制御方法、撮像装置、表示装置及びプログラム
US8509482B2 (en) Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP5159515B2 (ja) 画像処理装置およびその制御方法
CN107707871B (zh) 图像处理设备、摄像设备、图像处理方法和存储介质
JP6049448B2 (ja) 被写体領域追跡装置、その制御方法及びプログラム
JP2013228930A (ja) 被写体領域検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
JP6924064B2 (ja) 画像処理装置およびその制御方法、ならびに撮像装置
US20210256713A1 (en) Image processing apparatus and image processing method
JP2015148532A (ja) 距離計測装置、撮像装置、距離計測方法、およびプログラム
JP5395650B2 (ja) 被写体領域抽出装置およびその制御方法、被写体追跡装置、並びにプログラム
JP5167236B2 (ja) 被写体追跡装置及びその制御方法
JP2016081095A (ja) 被写体追跡装置、その制御方法、撮像装置、表示装置及びプログラム
JP5539565B2 (ja) 撮像装置及び被写体追跡方法
JP6099973B2 (ja) 被写体領域追跡装置、その制御方法及びプログラム
JP5451364B2 (ja) 被写体追跡装置及びその制御方法
JP6555940B2 (ja) 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法
JP2009009206A (ja) 画像中の輪郭抽出方法及びその画像処理装置
JP5222429B2 (ja) 被写体追跡装置及びその制御方法
JP7034781B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5247419B2 (ja) 撮像装置および被写体追跡方法
JP7566471B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
US20220309706A1 (en) Image processing apparatus that tracks object and image processing method
JP6525693B2 (ja) 画像処理装置及び画像処理方法
JP2024056441A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190423

R151 Written notification of patent or utility model registration

Ref document number: 6521626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151