以下、添付図面を参照して、本発明に係るAF枠自動追尾機能を備えたオートフォーカスシステムについて詳細に説明する。
図1は、本発明が適用されたビデオカメラシステムの全体構成を示したブロック図である。このビデオカメラシステムは、例えば、放送用テレビカメラでの撮影に用いられる撮像システムである。
同図に示すように、本実施形態のビデオカメラシステム1は、テレビカメラ10、画像処理ユニット18等を有して構成されている。
テレビカメラ10は、ハイビジョンテレビ[HD(High Definition)TV]方式に対応したHDカメラからなるカメラ本体12と、カメラ本体12のレンズマウントに装着される撮影レンズ(光学系)を備えたレンズ装置14とから構成される。
カメラ本体12には、撮像素子(例えばCCD)や所要の信号処理回路等が搭載されており、レンズ装置14の撮影レンズにより結像された像は、撮像素子により光電変換された後、信号処理回路によって所要の信号処理が施されてHDTV方式の映像信号(HDTV信号)として、カメラ本体12の映像信号出力端子等から外部に出力される。
また、カメラ本体12は、ビューファインダ13を備えており、テレビカメラ10により現在撮影されている映像等がビューファインダ13に表示されるようになっている。また、ビューファインダ13には、各種情報が表示されるようになっており、例えば、後述のオートフォーカスにおいてピント合わせの対象範囲となるAF枠が撮影映像に重畳されて表示されるようになっている。
レンズ装置14は、カメラ本体12のレンズマウントに装着される撮影レンズ(ズームレンズ)24を備えている。撮影レンズ24により、被写体16がカメラ本体12の撮像素子の撮像面に結像されるようになっている。撮影レンズ24には、図示を省略するが、その構成部としてフォーカスレンズ群、ズームレンズ群、絞りなどの撮影条件を調整するための可動部が設けられており、それらの可動部は、モータ(サーボ機構)によって電動駆動されるようになっている。例えば、フォーカスレンズ群やズームレンズ群は光軸方向に移動し、フォーカスレンズ群が移動することによってフォーカス(被写体距離)調整が行われ、またズームレンズ群が移動することによって焦点距離(ズーム倍率)調整が行われる。
なお、オートフォーカス(AF)に関するシステムにおいては、少なくともフォーカスレンズ群が電動で駆動できればよく、その他の可動部は手動でのみ駆動可能であってもよい。また、所定の可動部を操作者の操作に従って電動駆動する場合には、図示しない操作手段(レンズ装置14に接続されるコントローラの操作手段等)から操作者の操作に従って出力されるコントロール信号に基づいて可動部の動作が制御されるが詳細は省略する。
また、レンズ装置14には、AFユニット26及び図示しないレンズCPU等が搭載されている。レンズCPUはレンズ装置14全体を統括制御するものである。また、AFユニット26は、AFによるフォーカス制御(自動ピント調整)を行うために必要な情報を取得するための処理部であり、図示を省略するが、AF処理部、AF用撮像回路等から構成されている。AF用撮像回路はAF処理用の映像信号を取得するためにレンズ装置14に配置されており、撮像素子CCD等の撮像素子(AF用撮像素子という)やAF用撮像素子の出力信号を所定形式の映像信号として出力する処理回路等を備えている。なお、AF用撮像回路から出力される映像信号は輝度信号である。
AF用撮像素子の撮像面には、撮影レンズ24の光路上に配置されたハーフミラー等によってカメラ本体12の撮像素子に入射する被写体光から分岐された被写体光が結像するようになっている。AF用撮像素子の撮像エリアに対する撮影範囲及び被写体距離(ピントが合う被写体の距離)は、カメラ本体12の撮像素子の撮像エリアに対する撮影範囲及び被写体距離に一致するように構成されており、AF用撮像素子により取り込まれる被写体画像は、カメラ本体12の撮像素子により取り込まれる被写体画像と一致している。なお、両者の撮影範囲に関しては完全に一致している必要はなく、例えば、AF用撮像素子の撮影範囲の方がカメラ本体12の撮像素子の撮影範囲を包含する大きな範囲であってもよい。
AF処理部は、AF用撮像回路から映像信号を取得し、その映像信号に基づいて被写体画像のコントラストの高低を示す焦点評価値を算出する。例えば、AF用撮像素子から得られた映像信号の高域周波数成分の信号をハイパスフィルタによって抽出した後、その高域周波数成分の信号のうちAFの対象とするAFエリアに対応する範囲の信号を1画面(1フレーム)分ずつ積算する。このようにして1画面分ごとに得られる積算値は被写体画像のコントラストの高低を示し、焦点評価値としてレンズCPUに与えられる。
レンズCPUは、AFエリアの範囲(輪郭)を示すAF枠の情報(AF枠情報)を、後述するように画像処理ユニット18から取得し、そのAF枠情報により指定されたAF枠内の範囲をAFエリアとしてAF処理部に指定する。そして、そのAFエリア内の画像(映像信号)により求められる焦点評価値をAF処理部から取得する。
このようにしてAF用撮像回路から1画面分の映像信号が取得されるごとに(AF処理部で焦点評価値が求められるごとに)AF処理部から焦点評価値を取得すると共に、取得した焦点評価値が最大(極大)、即ち、AF枠内の被写体画像のコントラストが最大となるようにフォーカスレンズ群を制御する。例えば、焦点評価値に基づくフォーカスレンズ群の制御方式として山登り方式が一般的に知られており、フォーカスレンズ群を焦点評価値が増加する方向に移動させて行き、焦点評価値が減少し始める点を検出すると、その位置にフォーカスレンズ群を設定する。これにより、AF枠内の被写体に自動でピントが合わせられる。
尚、上述のAF処理部は、焦点評価値を算出するためにレンズ装置に搭載されたAF用撮像素子から映像信号を取得しているが、カメラ本体12の撮像素子より撮影された映像の映像信号をカメラ本体12から取得するような構成としてもよい。また、AF枠内の被写体に自動でピントを合わせるためのAFの手段はどのようなものであってもよい。
また、カメラ本体12とレンズ装置14、レンズ装置14と後述の画像処理ユニット18とは、各装置に設けられたシリアル通信コネクタが直接的又はケーブル等を介して接続される。これによって、カメラ本体12とレンズ装置14とが、それぞれに設けられたシリアル通信インターフェイス(SCI)12a及び14aを介して様々な情報の送受信をシリアル通信により行うようになっている。また、レンズ装置14と画像処理ユニット18とが、それぞれに設けられたシリアル通信インターフェイス14a及び30aとの間で様々な情報の送受信をシリアル通信により行うようになっている。
また、カメラ本体12の映像出力コネクタと画像処理ユニット18の映像入力コネクタとが、ダウンコンバータ28を介してケーブルで接続される。これによって、カメラ本体12の映像出力コネクタから出力されたHDTV信号は、ダウンコンバータ28によって、標準テレビ[NTSC(National Television System Committee)]方式の映像信号(SDTV信号)に変換(ダウンコンバート)されて、画像処理ユニット18に入力されるようになっている。
画像処理ユニット18は、上記のようにレンズ装置14のAFユニット26によりAFによるフォーカス制御を実施する際のAF枠の範囲(位置、大きさ、形状(縦横比))の指定を行うための装置であり、テレビカメラ10の撮影画像(撮影画面)内でのAF枠の範囲を指定するAF枠情報が画像処理ユニット18からレンズ装置14に上記シリアル通信により与えられるようになっている。AFユニット26では、画像処理ユニット18からのAF枠情報に基づいてAF枠の範囲を設定して上記のようにAFの処理を実行する。
画像処理ユニット18は、主としてメインボード30、パターンマッチング処理演算ボード32、顔検出処理演算ボード34から構成されている。メインボード30、パターンマッチング処理演算ボード32、顔検出処理演算ボード34の各々にはCPU38、50、52が搭載されており、各ボード毎に個別の演算処理が行われると共に、各CPU38、50、52は、バスや制御線で接続され、相互にデータのやり取りや、演算処理の同期等が図られるようになっている。
画像処理ユニット18における処理は、メインボード30において統括的に行われるようになっている。そのメインボード30には、演算処理を行う上記CPU38の他に、SCI30a、デコーダ(A/D変換器)36、スーパーインポーザ42、RAM40等が搭載されている。
SCI30aは、上述のようにレンズ装置14のSCI14aとの間でシリアル通信を行うためのインターフェイス回路であり、上記AF枠情報等をレンズ装置14に送信する。
デコーダ36は、上記ダウンコンバータ28から画像処理ユニット18に入力されるテレビカメラ10において撮影映像の映像信号(SDTV信号)を、画像処理ユニット18においてデジタル処理可能なデータに変換するための回路であり、アナログのSDTV信号をデジタルデータの映像信号に変換するA/D変換処理等を行っている。
RAM40は、CPU38の演算処理において使用するデータを一時的に格納するメモリである。
一方、パターンマッチング処理演算ボード32や顔検出処理演算ボード34は、パターンマッチングと顔検出処理を個別に行うための演算ボードであり、各々、演算処理を行うCPU50、52の他に画像データを一時的に格納するVRAM54、56等を備えている。
また、画像処理ユニット18には、操作部20が一体的に設けられ、又は、操作部20の一部又は全ての操作部材が画像処理ユニット18とは別体の装置に設けられてケーブル等で接続されている。
詳細は省略するが、操作部20には、AF枠の位置をユーザの手動操作により上下左右に移動させるための位置操作部材60(例えば、ジョイスティックやトラックボール)、AF枠の大きさを手動操作により変更するためのサイズ操作部材62(例えば、ツマミ)、AF枠の形状を手動操作により変更するための形状操作部材64(例えば、ツマミ)、自動追尾の開始を指示する追尾開始スイッチ68、自動追尾の停止を指示する追尾停止スイッチ70が設けられており、これらの操作部材60、62、64、68、70の設定状態が、画像処理ユニット18におけるメインボード30のCPU38により読み取られるようになっている。
尚、タッチパネル付きLCD66は、AF枠の自動追尾に関するモード等の設定をタッチ操作で入力できるようにしたもので、画像処理ユニット18のCPU38によりLCD66に表示される画像は、設定内容に応じて適宜切り換えられるようになっている。
また、タッチパネル付きLCD66に表示される画像は、メインボード30のスーパーインポーザ42を介して与えられるようになっており、そのスーパーインポーザ42では、デコーダ36から与えられるテレビカメラ10の撮影映像の映像信号と、CPU38で生成される画像信号の合成が行えるようになっている。これによって、カメラ本体12に設定されているビューファインダ13と同様にテレビカメラ10で撮影されている撮影映像と現在設定されているAF枠の画像とを重畳させた映像をタッチパネル付きLCD66に表示させることが可能であり、この画面上でのタッチ操作により、ユーザは、上記操作部材60、62、64、68、70で行うのと同様の操作を行うことができるようになっている。
以上のような構成を有する本実施の形態の画像処理ユニット18においてレンズ装置14に指定するAF枠を設定する処理(AF枠設定処理)について、いくつかの態様を順に説明する。
AF枠設定処理の第1の実施の形態について図2のフロ−チャートを用いて説明する。本実施の形態は、人物の顔をAFによりピントを合わせる対象として追尾する場合に、AF枠の範囲をその追尾する顔に適合するように自動で変更するものである。尚、AF枠の範囲とは、AF枠の位置、大きさ、形状(縦横比)によって決まるAF枠内の範囲を示し、AF枠の範囲の変更とは、その位置、大きさ、形状のうち少なくとも一つの要素を変更することを示す。
まず、ユーザは、AFの対象として追尾させたい被写体が含まれるように操作部20を操作して初期のAF枠を指定する。このときユーザは、図3(A)に示すように所定の人物の顔を追尾する被写体としてAF枠100をその顔画像102を含むように指定するものとすると共に、AF枠内には一人の顔のみを含むように設定し、複数人の顔を含むようなAF枠の指定は想定しないものとする。尚、顔の一部がAF枠内に含まれるような場合もその顔はAF枠内に含まれるものとして扱う。
このようなユーザの操作に基づいてメインボード30のCPU38は、レンズ装置14に送信するAF枠を設定する(ステップS10)。そして、CPU38はAF枠の自動追尾処理を開始する(ステップS12)。尚、自動追尾処理は、例えば、操作部20の追尾開始スイッチ68がオンされると開始する。
自動追尾処理を開始すると、CPU38は、デコーダ36でデジタルデータに変換されて出力される撮影映像の映像信号により1フレーム分(1コマ分)の撮影画像の画像データを顔検出処理演算ボード34に取り込む(ステップS14)。
そして、顔検出処理演算ボード34のCPU52の顔検出処理により、撮影画像の中から顔の画像(顔画像)を検出する顔検出処理を行うと共にAF枠内に含まれる顔画像を検出する(ステップS16)。
続いて、AF枠内に含まれる顔画像の位置、大きさ、形状に応じて、その顔全体を含み、かつ、他の被写体をできるだけ含まないAF枠(即ち、顔全体を含む最小のAF枠)の位置、大きさ、形状を求め、レンズ装置14に送信するAF枠をその求めたAF枠に更新する(ステップS18)。図3(A)のようにAF枠をユーザが指定した場合、このステップS18の更新によって図3(B)のように顔画像102の大きさに適合した大きさのAF枠100に更新される。
このようにして顔画像に合わせてAF枠を更新すると、そのAF枠内の画像データを後述のパターンマッチング処理における基準パターンの画像データとして設定する(ステップS20)。尚、基準パターンの画像データは、AF枠の大きさと完全に一致している必要はなく、AF枠よりも大きい又は小さい範囲の画像データとしても良い。
以上の処理が終了すると、以下のステップS22からステップS36までの処理を繰り返し、AF枠内の顔画像を追尾すると共に、追尾する顔画像の大きさに合わせてAFの大きさ(サイズ)を更新する。尚、下記においてAF枠の大きさという場合には、AF枠の形状も含むものとし、AF枠の縦横比も顔画像に合わせて更新されるものとしてもよいし、AF枠の縦横比は一定としてもよい。
まず、ステップS22において、CPU38は、デコーダ36から1フレーム分の撮影画像の画像データをパターンマッチング処理演算ボード32と顔検出処理演算ボード34に取り込む。
そして、パターンマッチング処理演算ボード32のCPU50により、撮影画像の中から基準パターンと一致する画像を検出し、その位置を検出するパターンマッチング処理を実行する(ステップS24)。
CPU38は、ステップS24のパターンマッチング処理の結果、基準パターンの画像、即ち、追尾する顔画像が、撮影画像内で移動したか否かを判定する(ステップS26)。ここで、顔画像が移動したとの判定には、顔画像が、ズーミング又は被写体の前後移動によって拡大又は縮小された場合も含む。
ステップS26においてNOと判定した場合には、ステップS22の処理に戻る。
一方、YESと判定した場合には、顔検出処理演算ボード34のCPU52により、撮影画像の中から顔画像を検出する顔検出処理を行い(ステップS28)、AF枠の近傍範囲内に顔画像が検出されたか否かを判定する(ステップS30)。
このステップS30の判定処理によりYESと判定した場合には、AF枠の大きさを、検出した顔画像に適合する大きさ、即ち、顔全体を含む最小の大きさに変更(更新)すると共に(ステップS32)、AF枠の位置を、検出した顔画像の位置に変更(更新)する(ステップS34)。これによって、例えば、撮影画像が図3(B)から図3(C)のように変更され、追尾する顔画像の位置と大きさが変化した場合には、図3(C)のようにAF枠100の位置と大きさが変更され、顔画像102の位置と大きさに適合したものに変更される。
ステップS30の判定処理によりNOと判定した場合には、AF枠の大きさを変更することなく、ステップS24のパターンマッチング処理において検出した基準パターンの画像の位置にAF枠の位置を変更(更新)する(ステップS34)。尚、ステップS30においてYESと判定した場合のステップS34の処理においてもパターンマッチング処理により検出した基準パターンの画像の位置にAF枠の位置を変更するようにしてもよい。
ステップS34の処理によりAF枠の更新が終了すると、そのAF枠内の画像を基準パターンの画像として更新し(ステップS36)、ステップS22の処理に戻る。
尚、上記フローチャートの処理では、パターンマッチング処理(ステップS24)と顔検出処理(ステップS28)を順に行うことが可能であり、これらの処理を図1のように複数の演算部で個別に行う必要はなく、メインボード30において両方の処理を行ってもよいし、メインボード30以外の1つの画像処理専用の演算ボードを設け、この演算ボードで両方の処理、又は、メインボード30と演算ボードとの各々で1つずつの処理を行うようにしてもよい。
また、顔画像の大きさ等に応じて変更するAF枠の範囲は、必ずしも上記のように顔画像全体を含む最小の範囲とするものに限らない。AF枠内の被写体を対象とするAFにより、その顔画像にピントが適切に合わせられるような範囲、即ち、顔画像の位置及び大きさに適合するものであればよい。
以上のAF枠設定処理の第1の実施の形態によれば、AF枠内の被写体をパターンマッチング処理により自動追尾する際に、AF枠内に人物の顔が含まれる場合には、その顔の位置及び大きさに適合するようにAF枠の範囲が変更される。そのため、ユーザは、人物の顔を追尾対象としたい場合であっても、背景画像をできるだけ含まないように初期におけるAF枠の設定を正確に行う手間や時間が不要となる。また、ズーム操作により追尾する顔画像の大きさが変化した場合でも、その顔画像に適合するようにAF枠の範囲が変更されるため、AF枠内の背景画像によってAFによるピント合わせが適切に行われなくなるという不具合や、自動追尾が適切に行われなくなるという不具合が軽減される。
次に、AF枠設定処理の第2の実施の形態について図4(A)〜(C)のフローチャートを用いて説明する。本実施の形態では、第1の実施の形態で示した処理において、パターンマッチング処理と顔検出処理をパターンマッチング処理演算ボード32と顔検出処理演算ボード34とで並行して行い、追尾処理の高速化を図るようにしたものである。
図4(A)、図4(B)、図4(C)は各々、メインボード30のCPU38、パターンマッチング処理演算ボード32のCPU50、顔検出処理演算ボード34のCPU52において行われる処理の処理手順を示している。また、第1の実施の形態の図2のフローチャートに示した処理と処理内容が同一のものには図2のフローチャートと同一の符号を付し、詳細な説明を省略する。
まず、ユーザは、第1の実施の形態と同様にAFの対象として追尾させた被写体が含まれるように操作部20を操作して初期のAF枠を指定する。この指定に基づいて、メインボード30のCPU38は、レンズ装置14に送信するAF枠を設定する(図4(A)のステップS10)。そして、CPU38はAF枠の自動追尾処理を開始する(図4(A)のステップ12)。
自動追尾処理を開始すると、CPU38は、AF枠の位置、大きさ、形状に基づいて、パターンマッチング処理における基準パターンの位置、大きさ、形状を設定する(図4(A)のステップS50)。尚、この基準パターンの位置、大きさ、形状を特定するデータを、以下、基準パターン座標というものとする。
次に、CPU38は、基準パターン座標をパターンマッチング処理演算ボード32のCPU50に送信する(図4(A)のステップS52)。
一方、パターンマッチング処理演算ボード32のCPU50は、メインボード30のCPU38から基準パターン座標を受信すると(図4(B)のステップS70)、以下のステップS72〜S82(ステップS72、S24、S26、S80、S82)の処理を繰り返し実行する。但し、一回目の処理では、ステップS70で受信した基準パターン座標に基づいて、ステップS72とステップ80の処理により、撮影画像の基準パターンの画像データを設定する。
CPU50は、基準パターンの画像データを設定した後、デコーダ36でデジタルデータに変換されて出力される撮影映像の映像信号により1フレーム分(1コマ分)の撮影画像の画像データをパターンマッチング処理演算ボード32に取り込む(ステップS72)。そして、CPU50は、その撮影画像の中から基準パターンと一致する画像を検出し、その位置を検出するパターンマッチング処理を実行する(図4(B)のステップS24)。
続いて、CPU50は、ステップS24のパターンマッチング処理の結果、基準パターンの画像、即ち、追尾する顔画像が、撮影画像内で移動したか否か判定する(図4(B)のステップS26)。
ステップS30においてNOと判定した場合には、ステップS24の処理に戻る。
一方、YESと判定した場合には、検出した基準パターンの画像を新たな基準パターンの画像として更新し(図4(B)のステップS80)、基準パターン座標をメインボード30のCPU38に送信する(図4(B)のステップS82)。そして、ステップS72の処理に戻る。
パターンマッチング処理演算ボード32のCPU50では、以上のステップS72〜ステップS82の処理が繰り返し実行される。
また、顔検出処理演算ボード34のCPU52は、メインボード30のCPU38からの指示により(図示せず)、パターンマッチング処理演算ボード32におけるパターンマッチング処理の開始と共に、処理を開始し、図4(C)のステップS90〜ステップS94(S90、S28、S92、S94)の処理を繰り返し実行する。
即ち、顔検出処理演算ボード34のCPU52は、デコーダ36でデジタルデータに変換されて出力される撮影映像の映像信号により1フレーム分(1コマ分)の撮影画像の画像データを顔検出処理演算ボード34に取り込む(図4(C)のステップS90)。
続いて、撮影画像の中から顔画像を検出する顔検出処理を行い(図4(C)のステップS28)、顔画像が検出されたか否かを判定する(図4(C)のステップS92)。
このステップS92によりNOと判定した場合にはステップS90の処理に戻り、YESと判定した場合には、検出した顔画像の位置(座標)、大きさを示す情報をメインボード30のCPU38に送信し(ステップS94)、ステップS90の処理に戻る。
顔検出処理演算ボード34のCPU52では、以上のステップS90〜ステップS94の処理が繰り返し実行される。
メインボード30のCPU38は、図4(A)の上記ステップS52の処理の後、ステップS54〜S34(S54、S56、S30、S32、S34)の処理を繰り返し実行する。
まず、パターンマッチング処理演算ボード32から、図4(B)のステップS82の処理により送信される基準パターン座標を受信する(図4(A)のステップS54)。
続いて、顔検出処理演算ボード34から、図4(C)のステップS94の処理により送信される顔画像の位置、大きさの情報を受信する(図4(A)のステップS56)。
そして、CPU38は、現在のAF枠の位置の近傍において検出された顔画像があるか否かを判定する(図4(A)のステップS30)。
このステップS30においてNOと判定した場合には、ステップS54により取得した基準パターン座標に基づいてAF枠の位置を変更(更新)する(図4(A)のステップS34)。
一方、ステップS30においてYESと判定した場合には、AF枠の大きさを、AF枠の位置の近傍において検出された顔画像に合わせた大きさに変更する(更新)すると共に(図4(A)のステップS32)、AF枠の位置をその顔画像の位置に変更(更新)する(図4(A)のステップS34)。
ステップS34の処理が終了すると、ステップS54の処理に戻り、ステップS54〜ステップS34(S54、S56、S30、S32、S34)の処理を繰り返し実行する。
以上の処理により、パターンマッチング処理演算ボード32でのパターンマッチング処理と、顔検出処理演算ボード34での顔検出処理とが、分散して行われると共に並行して行われ、時間の要する画像処理によりAF枠の追尾が遅れるという不具合が軽減される。
次に、AF枠設定処理の第3の実施の形態について図5のフローチャートを用いて説明する。本実施の形態では、パターンマッチング処理によるAF枠の自動追尾と顔検出処理によるAF枠の自動追尾のうち、顔検出処理によるAF枠の自動追尾を優先して行い、顔検出処理によるAF枠の自動追尾が不能な状況となった場合に、パターンマッチング処理による自動追尾を行うようにしたものである。
まず、ユーザは、第1及び第2の実施の形態と同様にAFの対象として追尾させた被写体が含まれるように操作部20を操作して初期のAF枠を指定する。この指定に基づいて、メインボード30のCPU38は、レンズ装置14に送信するAF枠を設定する(ステップS100)。そして、CPU38はAF枠の自動追尾処理を開始する(ステップ102)。
自動追尾処理を開始すると、CPU38は、デコーダ36でデジタルデータに変換されて出力される撮影映像の映像信号により1フレーム分(1コマ分)の撮影画像の画像データをパターンマッチング処理演算ボード32に取り込む(ステップS104)。
そして、その撮影画像においてAF枠内の画像データをパターンマッチング処理における基準パターンの画像データとして設定する(ステップS106)。尚、基準パターンの画像データは、AF枠の大きさと完全に一致している必要はなく、AF枠よりも大きい又は小さい範囲の画像データとしても良い。
以上の処理が終了すると、以下のステップS108〜ステップS120の処理を繰り返し、AF枠内の顔画像を追尾する。
まず、ステップS108において、CPU38は、デコーダ36から1フレーム分の撮影画像の画像データをパターンマッチング処理演算ボード32と顔検出処理演算ボード34に取り込む。
そして、顔検出処理演算ボード34のCPU52により、撮影画像の中から顔画像を検出する顔検出処理を行い(ステップS110)、AF枠内(又はAF枠の近傍範囲内)に顔画像が検出されたか否かを判定する(ステップS112)。
このステップS112の判定処理によりYESと判定した場合には、S110で検出された顔画像の位置が撮影画像内で移動したか否かを判定する(ステップS116)。NOと判定した場合にはステップS108の処理に戻り、YESと判定した場合には、AF枠の位置を、検出した顔画像の位置に変更(更新)する(ステップS118)。また、AF枠内の画像を基準パターンの画像として更新し(ステップS120)、ステップS108の処理に戻る。尚、第1、第2の実施の形態と同様にAF枠の大きさを、検出した顔画像に合わせた大きさに変更(更新)してもよい。
一方、ステップS112においてNOと判定した場合には、パターンマッチング処理演算ボード32のCPU50により、撮影画像の中から基準パターンと一致する画像を検出し、その位置を検出するパターンマッチング処理を実行する(ステップS114)。
そして、CPU38は、ステップS114のパターンマッチング処理の結果、基準パターンの画像が、撮影画像内で移動したか否かを判定する(ステップS116)。
ステップS116においてNOと判定した場合には、ステップS108の処理に戻る。
一方、YESと判定した場合には、パターンマッチング処理により検出した基準パターンの画像の位置にAF枠の位置を変更(更新)する(ステップS118)。また、AF枠内の画像を基準パターンの画像として更新し(ステップS120)、ステップS108の処理に戻る。
尚、上記フローチャートの処理では、パターンマッチング処理(ステップS114)と顔検出処理(ステップS110)を順に行うことが可能であり、これらの処理を図1のように複数の演算部で個別に行う必要はなく、メインボード30において両方の処理を行ってもよいし、メインボード30以外の1つの画像処理専用の演算ボードを設け、この演算ボードで両方の処理、又は、メインボード30と演算ボードとの各々で1つずつの処理を行うようにしてもよい。
また、第2の実施の形態のようにパターンマッチング処理と顔検出処理とをパターンマッチング処理演算ボード32と顔検出処理演算ボード34とで並列して実行し、各々の結果をメインボード30のCPU38が必要時に取得するようにしてよい。
また、上記処理では、顔検出処理により顔画像が検出されている場合には優先的に顔検出処理によるAF枠の自動追尾を実行する態様であるが、パターンマッチング処理により基準パターンが検出されている場合には優先的にパターンマッチング処理によるAF枠の自動追尾を実行し、パターンマッチング処理が不能な状況となったときに顔検出処理によるAF枠の自動追尾を実行するようにしてもよい。
以上のAF枠設定処理の第3の実施の形態によれば、例えば、追尾する人物の顔が上下左右の正面(カメラ側)と異なる方向に向いてしまい、顔検出が不能となった場合であっても、パターンマッチング処理により自動追尾が適切に行われるため、自動追尾の信頼性が向上する。
尚、本第3の実施の形態においても第2の実施の形態と同様に、パターンマッチング処理と顔検出処理とをパターンマッチング処理演算ボード32と顔検出処理演算ボード34とで並行して行うようにすることは可能であり、これにより処理時間の短縮が図れる。
1…ビデオカメラシステム、10…テレビカメラ、12…カメラ本体、14…レンズ装置、16…被写体、18…画像処理ユニット、20…操作部、24…撮影レンズ、26…AFユニット、30…メインボード、32…パターンマッチング処理演算ボード、34…顔検出処理演算ボード、36…デコーダ、38…CPU、40…RAM、42…スーパーインポーザ