JP2004004923A - Automatic focus controller - Google Patents
Automatic focus controller Download PDFInfo
- Publication number
- JP2004004923A JP2004004923A JP2003196987A JP2003196987A JP2004004923A JP 2004004923 A JP2004004923 A JP 2004004923A JP 2003196987 A JP2003196987 A JP 2003196987A JP 2003196987 A JP2003196987 A JP 2003196987A JP 2004004923 A JP2004004923 A JP 2004004923A
- Authority
- JP
- Japan
- Prior art keywords
- value
- integrated value
- focal point
- frequency component
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
この発明は、自動焦点制御装置に関し、詳細には、ビデオカメラ、スチルビデオカメラ等の撮像素子を用いた画像入力機器に適用される自動焦点制御装置に関する。
【0002】
【従来の技術】
従来、自動焦点制御装置における合焦位置決定方式には、赤外線や超音波を用いたAF方式、外光パッシブや、山登りサーボ等のパッシブAF方式がある。特に、デジタルスチルビデオカメラ(以下、「DSVC」と略す)などでは、特別な測距部品を必要としないパッシブAF方式が多く採用されている。パッシブAF方式においては、近時ワンショットで合焦位置を検出するものとして、特許文献1の「電子カメラの合焦位置検出装置」がある。かかる合焦位置検出装置は、ワンショットAFを用いており、すなわち、復元フィルタを用いてワンショットで合焦位置を検出するものである。
【0003】
より具体的には、かかる合焦位置検出装置は、光学撮像系の点像分布関数又はそれを変換処理して得られる関数を焦点位置及びその前後のレンズ位置で複数点求めて記憶した特性値記憶手段と、1画面分又はその一部の撮像データを前記特性値記憶手段に記憶された特性値によって前記複数点のレンズ位置毎に画像復元する画像復元手段と、該画像復元された画像データからレンズ位置毎の合焦位置の評価値を求め各評価値を比較して合焦位置を推測する合焦位置推測手段と、を備えたことにより、合焦位置の検出をより早く、より正確に行うことを可能としている。
【0004】
【特許文献1】
特開平6−181532号公報
【0005】
【発明が解決しようとする課題】
しかしながら、従来技術においては、復元フィルタを用いたワンショットAFでは、高速・高精度な合焦点の特定において、疑似ピーク・輝度依存・演算量が大となる等の問題がある。
【0006】
また、従来のワンショットAFでは、AF評価値は、復元画像データの負値積算値(本来存在することがない)の最小値を用いている。しかるに、かかる方法は負値積算値の疑似ピークが存在しない場合のみ適用でき、実際には、疑似ピークが存在することが多く、合焦点指標が本来の合焦点以外に捕らわれてしまうという問題がある。
【0007】
また、従来のワンショットAFによって合焦点指標を算出する場合には、取り込んだAFエリアの輝度により合焦点指標がそれに追随してしまい、本来の合焦点からずれた位置を示すという問題がある。
【0008】
また、ワンショットAF処理を行う際には、通常フーリエ変換を行うが、このフーリエ変換(FFT)処理をAFエリアについて行う場合に、AFエリアの辺近傍がエッジとなり不要な高周波成分を生ずることがある。ワンショットAFでは、合焦点の特定に高周波成分積算値を利用することもあり、上記不要な高周波成分が混入すると合焦点特定の精度が低下するという問題がある。
【0009】
また、ワンショットAFにおいては、合焦点の特定をする場合に、実際には、合焦点は1点のみではなく、被写界深度などを考慮すれば、ある範囲の幅を持った、すなわち、見かけ上合焦している範囲で決定される。特に、被写体が遠方にあるほどこの合焦許容範囲は広くなり、この範囲で対応する復元フィルタを複数配置しても意味はない。逆に、至近距離であればあるほど、合焦許容範囲は狭くなるため、より、多くの対応する復元フィルタを配置しなければならないという問題がある。
【0010】
また、複数の被写体候補が存在し、撮影者がどの被写体を目標とするかを選考している場合、AFエリアが1つしかないとき、順次、AFエリアをその被写体候補に合わせ、その度にワンショットAF合焦動作をしなければならず、冗長な動作が行われるという問題がある。
【0011】
また、復元フィルタは、一般的に、多いほど高精度で多彩なレンズ対応が可能になるが、実際問題として、搭載されるROM(メモリ)容量などの制限から、多数の復元フィルタを用意することは難しいという問題がある。
【0012】
さらに、ワンショットAFでは、復元フィルタを用いた画像復元処理を伴うためその演算量は膨大となる。これらの一連の処理は全てソフトウエアで行った場合、アルゴリズムの変更や改善などの柔軟性は優れているが、CPUの処理速度は年々向上しているとはいえ、まだ速度の面からは十分とはいえないという問題がある。
【0013】
本発明は、上記に鑑みてなされたものであり、高速・高精度な合焦動作が可能な自動焦点制御装置を提供することを目的とする。
【0014】
【課題を解決するための手段】
請求項1に係る自動焦点制御装置は、初期焦点レンズ位置において撮像して画像データを出力し、当該画像データに対して、記憶手段に記憶された、点像半径に対応した複数の復元フィルタを用いて画像データの復元を行って各復元フィルタ毎に復元された画像データ群について各々AF評価値を算出し、当該算出した各AF評価値を照合して合焦位置を決定する自動焦点制御装置において、前記記憶手段には、至近距離では遠距離に比して細かい点像半径の間隔で、対応する復元フィルタが格納されているものである。
【0015】
【発明の実施の形態】
以下に添付図面を参照して、この発明に係る自動焦点制御装置をデジタルスチルカメラに適用した好適な実施の形態を詳細に説明する。
【0016】
(実施の形態共通部)
図1は、本実施の形態に共通して係るデジタルスチルカメラの構成図である。図1に示すデジタルスチルカメラは、大別すると、被写体像をCCDに結像するレンズ系1、絞り2,被写体像に応じた画像データを出力するフロントエンド部3,画像データの各種データ処理を行うイメージプリプロセッサ(Image Pre−Processor以下、「IPP」と称する)部4と、CPUI/F5と、デジタルスチルカメラの各部の動作を制御するCPU6と、レンズ系1を駆動制御する焦点レンズ制御部7と、絞り2の絞り値(f値)を制御する絞り制御部8と、を備えている。
【0017】
上記レンズ系1は撮像レンズと焦点レンズを備える。上記フロントエンド部3は、レンズ系1により結像された被写体像を電気信号(アナログ画像データ)に変換して出力するCCD31と、CCD31から入力される電気信号のノイズ除去やゲイン調整等を行う信号処理部32と、信号処理部32を介してCCD31から入力されるアナログ画像データをデジタル画像データに変換して、IPP部4に出力するA/D変換器33と、を備える。
【0018】
上記IPP部4は、フロントエンド部3から入力されるデジタル画像データを、R・G・Bの各成分(RGBデジタル信号)に分離するRGB分離部41と、分離したRGBデジタル信号の各色成分のゲインを夫々調整して、輝度値生成部43に出力するRGBゲイン調整部42と、入力されるRGBデジタル信号を輝度信号に変換してFFT(IFFT)演算部44に出力する輝度値生成部43と、輝度値生成部43から入力される輝度信号の空間成分を周波数成分に変換してフィルタリング部45に出力し、また、フィルタリング部45を経た周波数成分をIFFT変換して空間成分に逆変換して負値積算部48に出力するFFT(IFFT)演算部44と、を備える。
【0019】
さらに、上記IPP部4は、復元フィルタデータROM46に格納された復元フィルタに基づき、FFT(IFFT)演算部44で周波数成分に変換された信号の復元処理を行うフィルタリング部45と、複数の点像半径に各々対応した複数の復元フィルタのデータが格納された復元フィルタデータROM46と、周波数成分に変換された信号をフィルタリング処理を経た後、その特定の高周波成分を抽出して累積して得られる高周波成分積算値をCPU6に出力する高周波成分積算器47と、FFT(IFFT)演算部44から入力される空間周波数成分の負値を積算して得られる負値積算値をCPU6に出力する負値積算部48と、を備える。尚、IPP部4の各機能はソフトウエアでも実現可能であるが、図示の如くハードウエアで構成した方が、高速処理が可能となり好ましい。
【0020】
CPU6は、上記した如く、デジタルスチルカメラの各部の動作を制御を司るものであり、具体的には、例えば、CPU6は、入力される高周波成分積算値及び/又は負値積算値に基づき、AF評価値を算出し(AF評価値の詳細な算出方法は後述する)、AF制御等を行う。
【0021】
次に、上記構成のデジタルスチルカメラのAF(ワンショットAF)動作の概略を説明する。まず、CCD31からA/D変換器33を通じて得られたRGBデジタル色信号は、画像信号処理を行うIPP部4に入力する。IPP部4においては、まず、輝度値生成部43により、輝度信号に変換された後、FFT(IFFT)演算部44によって空間成分から周波数成分に変換される。フィルタリング部45では、この周波数成分に変換された信号に対し、復元フィルタデータROM46から読み込まれたデータ(1の復元フィルタ)に基づいて復元処理が行われる。このフィルタリング処理が施された信号は、高周波成分積算器47に出力されると共に、FFT(IFFT)演算部44に出力される。
【0022】
高周波成分積算器47では、入力される信号の特定の高周波成分が抽出され、この特定の高周波成分が累積された高周波成分積算値が、CPUI/F5を介してCPU6に出力される。
【0023】
他方、フィルタリング処理されたデータは、再度FFT(IFFT)演算部44に入力されて再び空間成分に変換され負値積算部48に出力される。ここで、この再変換されたデータ(画像データ)には負値が含まれることがある。負値積算部48では、再変換されたデータの負値の積算が行われ得られる負値積算値が、CPUI/F5を介してCPU6に出力される。すなわち、1の復元フィルタに対応する高周波成分積算値及び負値積算値がCPU6に入力されることになる。
【0024】
これら、フィルタリング処理→高周波成分積算→IFFT→負値積算の一連の処理は復元フィルタの数だけ繰り返され、復元フィルタの数だけの高周波成分積算値と負値積算値がCPU6に出力される。
【0025】
CPU6では、入力される高周波成分積算値及び/又は負値積算値に基づき、AF評価値を算出し、例えばその最小値を検索する。そして、検索された最小値に対応する復元フィルタナンバーを合焦点指標として、対応する焦点レンズ位置(目標位置)が特定される。そして、CPU6は、焦点レンズ制御部7に、焦点レンズを目標位置までの移動を指示する制御データを出力し、これに応じて、焦点レンズ制御部7は、焦点レンズを目標位置まで駆動する。以上の動作でAF動作は終了する。
【0026】
(実施の形態2(参考例))
実施の形態2(実施の形態1は欠番)について図2を参照して説明する。実施の形態2では、実施の形態共通部で示した構成のデジタルスチルカメラにおいて、合焦点を特定する第1の方法を説明する。
【0027】
図2は、合焦点を特定する第1の方法を説明するための説明図であり、特に、各復元フィルタ(No.1〜No.12)と負値積算値との関係の一例を示している。同図において、横軸は復元フィルタNo、縦軸は各復元フィルタで復元された画像データの負値積算値を示す。合焦点を特定する場合には、まず、復元された画像データの各々においてAFエリアの負値積算値を算出しAF評価値とする。
【0028】
通常、合焦点特定においては、合焦点では負値積算値が最も小さくなるため、その点を合焦点とすることが多い。本実施の形態2においては、算出された負値積算値群からの最小値を探索し、最小値が1つの場合にはそれを合焦点とし、他方、図2に示すように、複数存在する場合には点像半径(フィルタナンバー)の最も大きいものを合焦点とする。
【0029】
上記実施の形態2においては、AF評価値をAFエリアにおける負値積算値により算出し、この負値積算値の最小値の位置を合焦点とし、さらに、その最小値が複数存在する場合には、点像半径の最大のものを合焦点として合焦点を特定することとしたので、負値積算値に疑似ピークが存在する場合においても、高精度に合焦点を決定することが可能となる。
【0030】
(実施の形態3(参考例))
実施の形態3について図3を参照して説明する。実施の形態3では、実施の形態共通部で示した構成のデジタルスチルカメラにおいて、合焦点を特定する第2の方法を説明する。
【0031】
図3は、合焦点を特定する第2の方法を説明するための説明図であり、特に、各復元フィルタ(No.1〜No.12)と、負値積算値と高周波成分積算値との比の関係の一例を示している。同図において、横軸は復元フィルタNo、縦軸は各復元フィルタで復元された画像データの負値積算値と高周波成分積算値との比を示す。
【0032】
同図において、合焦点を特定する場合には、まず、復元された画像の各々において、AFエリアの負値積算値と特定域の高周波成分を各々算出する。ついで、算出された負値積算値群及び高周波成分積算値との比を算出しこれをAF評価値とし、その最小値を探索しそれを合焦点とする。上記を合焦点としたのは、負値積算値に関しては前述の理由と同じであり、また、高周波成分積算値に関しては、合焦点では最も高周波成分が大きくなるためである。これらの比で見た場合、合焦点では、負値積算値が最小・高周波成分積算値が最大となるため、その比は最小となるからである。
【0033】
ここで、負値積算値と高周波成分積算値との比は、例えば、下式(1)により算出することができる。
【0034】
(負値積算値と高周波成分積算値との比)
=|1000−(負値積算値)|/(高周波成分積算値)・・・(1)
ただし、||は絶対値を示す。
【0035】
上記の如く、(負値積算値と高周波成分積算値との比)の最小値を探索する方法とすれば、最小値が複数ある場合が上記した第1の方法に比して少なくなり、精度が向上する。他方、計算量は第1の方法が少ないため、合焦位置の特定に要する時間は第1の方法の方が優れている。
【0036】
尚、第2の方法において、負値積算値と高周波成分積算値との比の最小値が複数存在する場合には、点像半径(フィルタナンバー)の最も大きいものを合焦点とする。また、上記式(1)は、負値積算値と高周波成分積算値との比の定義の一例であり、本発明はこれに限られるものではない。
【0037】
以上説明したように、本実施の形態3においては、AF評価値をAFエリアにおける負値積算値と高周波成分積算値との比により算出し、負値積算値と高周波成分積算値の比の最小値を合焦点とし、さらに、その最小値が複数存在する場合、点像半径の最大のものを合焦点とすることによって合焦点を特定することとしたので、負値積算値に疑似ピークがあっても高精度に合焦点を算出することが可能となる。
【0038】
(実施の形態4(参考例))
実施の形態4について図4を参照して説明する。実施の形態4では、実施の形態共通部で示した構成のデジタルスチルカメラにおいて、合焦点を特定する第3の方法を説明する。
【0039】
図4は、合焦点を特定する第4の方法を説明するための説明図を示し、特に、各復元フィルタ(No.1〜No.12)と、負値積算値と高周波成分積算値との比の関係の一例を示している。同図において、横軸は復元フィルタNo、縦軸は各復元フィルタで復元された画像データの負値積算値と高周波成分積算値との比を示す。
【0040】
同図において、合焦点の特定は、まず、復元された画像データの各々において、AFエリアの負値積算値と特定域の高周波成分の積算値を各々算出する。ついで、算出された負値積算値と高周波成分積算値との比を算出しこれをAF評価値としてその最小値を探索して、その最小値に対応する位置を仮の合焦点とする(図中Fa)。この第3の方法においても、負値積算値と高周波成分積算値との比の定義としては、上記式(1)を用いる。
【0041】
次に、この仮の合焦点から点像半径(フィルタナンバー)の大きい方に向かい、再度走査する。このとき、負値積算値と高周波成分積算値との比が、特定閾値(Rth)以下となった場合(図中Fb、Fc、Fd)には、仮の合焦点と、閾値(Rth)以下となったフィルタナンバーに基づき、例えば、下式(2)により合焦点を算出する。
【0042】
(合焦点)
=Fa+(c1*Fb+c2*Fc+c3*Fd)/Num・・(2)
ただし、c1、c2,c3:係数c1=c2=c3=1.0
Fa:仮の合焦点(フィルタナンバー)
Fb、Fc、Fd:閾値Rth以下となったフィルタナンバー
Num:閾値Rth以下となった場合のフィルタナンバー数
上記式(2)は、合焦点を算出する際に、仮の合焦点に閾値Rth以下となったフィルタナンバーの加重平均値を加えたものである。尚、考慮する成分は、上記式(2)に限定されるものではなく、また、係数を、c1=c2=c3=1.0としているが、これに限定されるものではない。
【0043】
以上説明したように、本実施の形態4においては、AF評価値を、AFエリアにおける負値積算値と高周波成分積算値との比により算出し、負値積算値と高周波成分積算値との比の最小値を仮の合焦点とし、その仮の合焦点から点像半径が大きくなる方向に負値積算値と高周波成分積算値との比を再度走査し、その比が特定閾値以下になる場合、その時の点像半径分を重みとして仮の合焦点におり込むことによって真の合焦点を特定することとしたので、負値積算値に疑似ピークがあっても高精度に合焦点を算出することが可能となる。
【0044】
(実施の形態5(参考例))
実施の形態5について図5を参照して説明する。実施の形態5では、実施の形態共通部で示した構成のデジタルスチルカメラにおいて、合焦点を特定する第4の方法を説明する。
【0045】
図5は、合焦点を特定する第4の方法を説明するための説明図を示し、特に、各復元フィルタ(No.1〜No.12)と、負値積算値と高周波成分積算値との比の関係の一例を示している。同図において、横軸は復元フィルタNo、縦軸は各復元フィルタで復元された画像データの負値積算値と高周波成分積算値との比を示す。
【0046】
同図において、合焦点の特定は、まず、復元された画像データの各々において、AFエリアの負値積算値と特定域の高周波成分の積算値を各々算出する。ついで、算出された負値積算値及び高周波積分値との比を算出しこれをAF評価値とし、その最小値を探索しそれを仮の合焦点とする(図中Fa)。本実施の形態5では、負値積算値及び高周波積分値との比を比の定義としては、上記式(1)を用いる。
【0047】
次に、仮の合焦点から点像半径(フィルタナンバー)の大きい方に向かい、再度走査する。このとき、負値積算値及び高周波積分値との比と特定閾値(Rth)を比較し、負値積算値及び高周波積分値との比が特定閾値以下となるフィルタNo(図中Fb、Fc、Fd)を考慮して合焦点を算出する。具体的には、合焦点を算出する場合に、閾値Rth以下となったフィルタナンバーと、各々のフィルタナンバーにおける比の値と閾値との差、すなわち、深さ成分(図中Db、Dc、Dd)をファクタとして入れ、例えば、下式(3)により合焦点を算出する。
【0048】
(合焦点)
=Fa+(c1*Fb*Db+c2*Fc*Dc+c3*Fd*Dd)/Num・・・(3)
ただし、c1、c2,c3:係数
c1=c2=c3=1.0
Fa:仮の合焦点(フィルタナンバー)
Fb、Fc、Fd:閾値Rth以下となったフィルタナンバー
Db:閾値Rthからの深さのファクタDb=1−Rb/Rth
Dc:閾値Rthからの深さのファクタDc=1−Rc/Rth
Dd:閾値Rthからの深さのファクタDd=1−Rd/Rth
Num:閾値Rth以下となった場合のフィルタナンバー数
上記式(3)は、合焦点を算出する際に、仮の合焦点に閾値Rth以下となったフィルタナンバーと閾値Rthからの深さのファクタとの加重平均値を加えたものである。尚、考慮する成分は、上記式(3)に限定されるものではなく、また、係数を、c1=c2=c3=1.0としているが、これに限定されるものではない。
【0049】
以上説明したように、実施の形態5においては、AF評価値をAFエリアにおける負値積算値と高周波成分積算値との比により算出し、負値積算値と高周波成分積算値との比の最小値を仮の合焦位置とし、また、その仮の合焦点から点像半径が大きくなる方向に負値積算値と高周波成分積算値との比を再度走査し、その比が特定閾値以下になる場合、その時の点像半径分及びその比がどれくらい閾値以下になっているのかの程度分を重みとして仮の合焦点に付加することによって真の合焦点を特定しているので、負値積算値に疑似ピークがあっても高精度に合焦点を算出することが可能となる。
【0050】
(実施の形態6(参考例))
実施の形態6について図6を参照して説明する。実施の形態5では、実施の形態共通部で示した構成のデジタルスチルカメラにおいて、合焦点を特定する第5の方法を説明する。図6は、合焦点を特定する第5の方法を説明するためのフローチャートであり、本実施の形態6のワンショットAF動作の概略を示す。
【0051】
図6において、まず、初期焦点レンズ位置において、撮影して画像データ(例えば、画像取り込み8bit/画素)を取り込み(ステップS10)、AFエリア(例えば、256×256画素のエリア)を切り出す(ステップS11)。ついで、このAFエリアにおいて、平均輝度(Yave)を算出し(ステップS12)、この平均輝度(Yave)が特定輝度範囲(適正輝度範囲)内にあるか否かを判断する。具体的には、Ylow(例えば、100)≦Yave≦Yhigh(例えば、130)であるか否かを判断する(ステップS13)。この判断の結果、Ylow≦Yave≦Yhighである場合には、ステップS14に移行して、ワンショットAFの実質的な処理を開始する。
【0052】
他方、Ylow≦Yave≦Yhighでない場合にはステップS15に移行して、平均輝度値(Yave)が、特定輝度範囲(Ylow≦Yave≦Yhigh)に入るように調整を行う。具体的には、この調整は、AFエリアの全画素について算術的に行う。すなわち、目標平均輝度値を100とし、平均輝度が95であったとき、差分の5をオフセットとして加(減)算する。尚、この実施の形態では、適正輝度範囲の閾値を、Ylow=100、Yhigh=130とし、適正輝度範囲を超えていたときの調整する目標平均輝度を100としているが、A/D変換される最高輝度設定基準に対し40%〜50%であれば、これらの値に限定されない。また、平均輝度値を算術演算により調整する方法に限らず、撮影条件等を変えて再度撮影(画像取り込み)して平均輝度値を算出することにしても良い。さて、この平均輝度値の調整が終了すると、処理はステップS14に移行して、ワンショットAFの実質的な処理を開始する。
【0053】
以下、ワンショットAFの実質的な処理について説明する。まず、ステップS14では、AFエリアの画像データに対応する輝度信号を、FFT(IFFT)演算部44によって空間成分から周波数成分に変換する。そして、各復元フィルタ(例えば、FiltNo.0〜120)について、合焦点の検索が行われる(ステップS16)。具体的には、まず、フィルタリング部45は、この周波数成分に変換された信号に対し、復元フィルタデータROM46から読み込まれたデータ(1の復元フィルタ)にアクセスし(ステップS24)、復元処理を行う(ステップS17)。そして、高周波成分積算器47は、入力される信号の特定の高周波成分を抽出しこの特定の高周波成分を累積して高周波成分積算値を算出する(ステップS18)。また、FFT(IFFT)演算部44は、フィルタリング処理されたデータを空間成分に変換する(ステップS19)。負値積算部48は、再変換されたデータの負値を積算して負値積算値を算出する(ステップS20)。この高周波成分積算値及び負値積算値の算出は、全ての復元フィルタ(FiltNo.0〜120について行われる(ステップS21)。
【0054】
最後に、上記算出した高周波成分積算値群及び負値積算値群に基づき、合焦点位置を算出して(ステップS22)、合焦点位置に焦点レンズを駆動する(ステップS23)。
【0055】
以上説明したように、本実施の形態6においては、一連のワンショットAF動作を行うに先立ち、AFエリア内の平均輝度を算出し、その平均輝度が特定輝度範囲からはずれている場合に、当該AFエリア平均輝度が当該特定輝度範囲に入るように輝度調整し、その後ワンショットAF動作に入ることによって、合焦点を特定しているので、ワンショットAFによって合焦点指標を算出する際、取り込んだAFエリアの輝度により起因した本来の合焦点からのずれを防止することができ、高精度に合焦点を決定することが可能となる。
【0056】
(実施の形態7(参考例))
実施の形態7について図7及び図8を参照して説明する。実施の形態7では、実施の形態共通部で示した構成のデジタルスチルカメラにおいて、ワンショットAFを行うに先立ち、AFエリアに対し窓関数処理を施して、AFエリアの近傍の影響を少なくする例を説明する。
【0057】
図7は、AFエリア内の画素位置と相対強度の関係の一例を示す。同図において、横軸はAFエリア内の画素位置、縦軸は相対強度を示す。尚、同図では、説明を簡潔にするため一次元で示しているが、実際には2次元に拡張している。
【0058】
まず、初期焦点レンズ位置において、撮影(画像取り込み)を行い、AFエリアを切り出す。ここでは、256×256画素のサイズである。このAFエリアにおいて、下式(4)に示すような窓関数処理を2次元的に行う。
【0059】
V[i]
=data[i]*{0.54−0.46* cos(2.0*3.14*i/N)}・・・(4)
ただし、V:窓関数処理後の画素位置iの画素データ
i:画素位置0〜255
data:窓関数処理前の画素位置iの画素データ
N:窓サイズここではN=256
この窓関数処理は、いわゆる画素位置による重み付けであって、図7に示されるとおり、AFエリアのエッジ近くなるにしたがって画像情報としてのウェイトが落ちることを示している。そして、窓関数処理が終了した後、ワンショットAFの実質的な処理に入る。尚、この実施の形態では、窓関数としてハミング窓を使用しているが、本発明はこれに限定されるものではない。
【0060】
図8は、上記窓関数処理を行うための窓関数処理ユニットの構成例を示している。図8に示す窓関数処理ユニットは、セレクタ21で選択された窓関数に基づいて窓関数処理を行う窓関数処理部20と、複数種の窓関数1〜Mを記憶した窓関数データROM22と、複数の窓関数の中から最適な窓関数を選択するセレクタ21とを備える。
【0061】
次に、この窓関数処理ユニットの動作を簡単に説明する。まず、CCDから取り込まれた画像データはA/D変換された後、輝度データに変換される。そして、AFエリアの画像データ(輝度データ)が抽出され、窓関数処理部20に入力される。窓関数処理部20は、窓関数データROM22から読み出された窓関数データと画像輝度データとを演算し、窓関数処理した画像データを出力する。このとき、窓関数データROM22には、複数の窓関数が格納されており、セレクタ21により、どの窓関数処理を行うかが選択される。また、セレクタ21は、例えば、交換レンズからの情報や復元フィルタからの情報に基づき、窓関数を選択することにしても良い。尚、本実施の形態7を実施するためには、上記図8に示した窓関数処理ユニットを、実施の形態共通部で示した構成のデジタルスチルカメラに付加すれば良い。
【0062】
以上説明したように、本実施の形態7においては、一連のワンショットAFを行うに先立ち、AFエリアに対し窓関数処理を施しているので、AFエリアの近傍の影響を少なくすることが可能となる。付言すると、一般に、ワンショットAF処理を行う際の処理の1つであるフーリエ変換(FFT)処理をAFエリアについて行うとき、AFエリアの辺近傍がエッジとなり、不要な高周波成分を生じることがあり、また、ワンショットAFでは、合焦点の特定に高周波成分積算値を利用することもあり、上記不要な高周波成分が混入すると合焦点特定の精度が低下するが、本実施の形態7では、AFエリアに対し窓関数処理を施しているので、その影響を防止することができる。
【0063】
(実施の形態8(本発明の実施の形態))
実施の形態8について図9を参照して説明する。実施の形態8では、実施の形態共通部で示した構成のデジタルスチルカメラにおいて、効率的な復元フィルタの配置例を説明する。
【0064】
図9は、実施の形態8に係る復元フィルタを説明するための図を示し、(a)は従来の復元フィルタの配置例を示し、(b)は本実施の形態8に係る復元フィルタの配置例を示す。また、図9は初期焦点レンズ位置を無限大としたときのものを示す。ただし、同図は、復元フィルタの構造を分かり易く示したものであり、実際の距離にこのフィルタが存在するわけではない。
【0065】
図9(a)に示す従来の復元フィルタの構成では、120枚フィルタを使用し、図9(b)に示す本実施の形態の復元フィルタの構成では、復元フィルタを60枚使用しており、復元フィルタを30[cm]〜300[cm]∞の距離に割り付けている。
【0066】
ところで、合焦点を特定する場合、実際には、合焦点は1点のみではなく、被写界深度などを考慮すればある範囲の幅を持った、すなわち、見かけ上合焦しているとみなされる範囲で決定される。特に、被写体が遠方にあればあるほど、この合焦許容範囲は広くなり、この範囲で対応する復元フィルタを複数配置しても意味はない。これに対して、至近距離であるほど合焦許容範囲は狭くなるため、より多くの対応する復元フィルタを配置しなければならない。
【0067】
本実施の形態8では、図9(b)に示されるように、復元フィルタを、至近側で密、遠方側で粗になるように配置する。これにより精度の高いワンショットAFが実現できるようにしている。尚、この実施の形態では、速度・コスト・実装の面から、復元フィルタの数をなるべく減らすようにして、復元フィルタ数を120枚〜60枚にして各距離に割り振っているが、本発明はこれに限られるものではなく、復元フィルタ数を120枚のままで割り振っても良い。また、復元フィルタ数もここに列挙されたものに限られるものではない。
【0068】
(実施の形態9(参考例))
実施の形態9について図10を参照して説明する。実施の形態10では、実施の形態共通部で示した構成のデジタルスチルカメラにおいて、複数のAFエリアを設けて合焦する動作例を説明する。
【0069】
図10は、本実施の形態9に係るAFエリアを説明するための説明図を示し、図10(a)は画像フレームの中央付近の数カ所にAFエリアを設定した場合を示し、図10(b)は画像フレームの全体を均等に分割したAFエリアを示す。
【0070】
図10(a)は、画像フレームを1280×1024画素とし、画像フレームの中央近傍に、並列にAFエリア(256×256画素)3つ設定したものであり、便宜的に左から順に、左AFエリア、中央AFエリア、右AFエリアとする。また、図10(b)は、画像フレームを1280×1024画素とし、画像フレームを均等に5×4に分割したAFエリアを設定したものであり、便宜的に、左上から右下に向かって、AFエリア11,AFエリア12,・・・、AFエリア21,AFエリア22,・・・AFエリア45とする。
【0071】
図10(a)において、複数の被写体候補が存在し、撮影者がどの被写体を目標とするかを選定する場合を想定する。まず、デジタルスチルビデオカメラでは、一回のワンショットAF動作により、取り込まれた画像フレームから、左AFエリア、中央AFエリア、右AFエリアに対応する領域を切り出し、各々のエリア毎に合焦指標値が算出される。
【0072】
撮影者は、図示しない操作ボタンを操作し、目標とする被写体を含むAFエリアを選択する。これに応じて、デジタルスチルビデオカメラでは、選択されたAFエリアの合焦指標値を取り出し、その値を基に、焦点レンズを所定の位置に移動させるように制御する。これにより、AFエリアが1つしかないとき、順次、AFエリアをその被写体候補に合わせて、その度にワンショットAF動作を繰り返すような冗長動作が避けられ、高速なワンショットAF動作が得られる。
【0073】
図10(b)においても、上記図10(a)で説明したのと同様な動作が行われる。ただし、この場合は、合焦指標値を算出する場合には、全てのAFエリアでなくとも良く、撮影者によっていくつかのピックアップされたAFエリアについてのみ行うことにしても良い。また、全てのAFエリアについてその合焦指標値が算出される場合、その被写体距離情報が画像情報とともに格納されれば、ポスト処理として、パーソナルコンピュータとアプリケーションソフトウエアに代表される適当な画像処理手段により、至近から遠方に至るまで焦点の合った画像を生成することも可能となる。
【0074】
尚、本発明においては、上記図10に示すAFエリアのサイズ、形状、配置に限定されるものではなく、また、各AFエリアに重複部分があっても良い。
【0075】
(実施の形態10(参考例))
実施の形態10について図11及び図12を参照して説明する。実施の形態10では、実施の形態共通部で示した構成のデジタルスチルカメラにおいて、ワンショットAFを粗調に使用し、山登りサーボ法を微調に使用する動作例を説明する。
【0076】
本実施の形態10では、まず、ワンショットAFを粗調に使用して、概略の被写体位置を決定し、その対応位置まで焦点レンズを移動させ、ついで、山登りサーボ法により微調を行って、最終的な合焦位置まで焦点レンズを移動させる。
【0077】
図11は、従来のワンショットAF及び山登りサーボ法を説明するための説明図、図12は、実施の形態10に係るワンショットAF及び山登りサーボ法を説明するための説明図を示す。また、図11及び図12は、ワンショットAF動作を説明するための図(同図の上方に示す図)と山登りサーボ法を説明するための図(同図の下方に示す図)を対応づけて示す。
【0078】
図12において、上記ワンショットAF動作を説明するための図は、レンズ位置、被写体位置、復元フィルタ、及びワンショットAF評価値の関係を示している。同図に示す如く、焦点位置が∞〜Near(最至近)の間に、各々が各距離に対応した7つの復元フィルタNo.1〜No.7(フィルタ群)を備えている。各々の復元フィルタNo.1〜No.7によって画像を復元しAF評価値を求める。ここで、合焦点はAF評価値の最小値を示すフィルタナンバーであり、図12に示す例の場合、被写体位置近傍のフィルタNo.6において、AF評価値が合焦位置であることを出力する。この信号に基づき、焦点レンズをフィルタNo.5に相当する位置に移動させる。尚、従来では、図11に示すように、フィルタNo.6に移動していた。
【0079】
その後、山登りサーボ法の制御に切替えて微調を行う。従来では、図11に示すように、合焦点の方向を検出するため、少なくとも2点を移動してデータをとり、AF評価値の傾き方向(くだりスロープか上がりスロープ)かを知る必要があった。これに対して、本実施の形態では、図12に示すように、焦点レンズを粗調の合焦点指標値の1つ手前の指標値に移動し、続いて、山登りサーボ法により、No.5からNo.6の方向に移動させ、最終的な合焦位置に移動させる。山登りサーボ法ではAF評価値の最大となる位置が合焦位置として検出される。すなわち、山登りサーボ法で走査する方向は一方向(この実施例では、フィルタNo.の大きくなる方向)に定まる。よって、従来のように、新たに合焦方向を検出するような冗長な動作が不必要となる。
【0080】
尚、ワンショットAF粗調用に7個の復元フィルタを具備しているがこれに限定されるものではない。
【0081】
以上説明したように、本実施の形態10においては、ワンショットAFにより仮の合焦位置を決定し、ついで、当該仮の合焦位置よりも手前の位置から山登りサーボ法により走査して最終的な合焦位置を決定することとしたので、復元フィルタの数を低減することが可能となりメモリコストを安価にすることができ、安価な構成で、高精度・高速なワンショットAFが可能となる。
【0082】
また、本実施の形態10においては、山登りサーボ法で使用する高周波成分は、ワンショットAFで使用するFFTエンジン(FFT(IFFT)演算部44及び高周波成分積算器47等)を利用できるので、山登りサーボ法のための新たなデバイスを必要としない。
【0083】
尚、本発明は上記した実施の形態に限定されるものではなく、発明の要旨を変更しない範囲で適宜変更可能である。
【0084】
また、本発明の自動焦点制御装置は、ビデオカメラ、スチルビデオカメラ等の撮像素子を用いた画像入力機器に広く適用可能である。
【0085】
【発明の効果】
また、請求項1に係る自動焦点制御装置は、初期焦点レンズ位置において撮像して画像データを出力し、当該画像データに対して、記憶手段に記憶された、点像半径に対応した複数の復元フィルタを用いて画像データの復元を行って各復元フィルタ毎に復元された画像データ群について各々AF評価値を算出し、当該算出した各AF評価値を照合して合焦位置を決定する自動焦点制御装置において、記憶手段には、至近距離では遠距離に比して細かい点像半径の間隔で、対応する復元フィルタが格納されていることとしたので、無駄なく効率良く復元フィルタを配置でき、精度の高いワンショットAFを実現できる。
【図面の簡単な説明】
【図1】実施の形態に共通して係る自動焦点制御装置を適用したデジタルスチルカメラの構成を示すブロック図である。
【図2】実施の形態2(参考例)に係わり、合焦点を特定する第1の方法を説明するための説明図である。
【図3】実施の形態3(参考例)に係わり、合焦点を特定する第2の方法を説明するための説明図である。
【図4】実施の形態4(参考例)に係わり、合焦点を特定する第3の方法を説明するための説明図である。
【図5】実施の形態5(参考例)に係わり、合焦点を特定する第4の方法を説明するための説明図である。
【図6】実施の形態6(参考例)に係わり、合焦点を特定する第5の方法を説明するための説明図である。
【図7】実施の形態7(参考例)に係わり、ワンショットAFを行うに先立ち、AFエリアに対し窓関数処理を施して、AFエリアの近傍の影響を少なくした動作例を説明するための説明図である。
【図8】実施の形態7(参考例)に係わり、窓関数処理ユニットの構成を示すブロック図である。
【図9】実施の形態8(本発明の実施の形態)に係わり、復元フィルタの配置例を説明するための説明図である。
【図10】本実施の形態9(参考例)に係わり、AFエリアを説明するための説明図である。
【図11】従来技術に係わり、ワンショットAF及び山登りサーボ法を説明するための説明図である。
【図12】本実施の形態10(参考例)に係わり、ワンショットAF及び山登りサーボ法を説明するための説明図である。
【符号の説明】
1 レンズ系(初期焦点レンズ)[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an automatic focus control device, and more particularly, to an automatic focus control device applied to an image input device using an image pickup device such as a video camera and a still video camera.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as an in-focus position determining method in an automatic focus control device, there are an AF method using infrared rays or ultrasonic waves, an external light passive method, and a passive AF method such as a hill-climbing servo. In particular, in a digital still video camera (hereinafter abbreviated as "DSVC") and the like, a passive AF method that does not require a special distance measuring component is often used. In the passive AF method, there is an "in-focus position detecting device for an electronic camera" disclosed in
[0003]
More specifically, the in-focus position detection apparatus obtains a point spread function of an optical imaging system or a function obtained by converting the point spread function at a focal position and a plurality of lens positions before and after the focus position and stores and stores the characteristic values. Storage means, image restoration means for restoring image data of one screen or a part thereof for each lens position of the plurality of points using the characteristic values stored in the characteristic value storage means, and image restoration image data And a focus position estimating means for estimating a focus position by obtaining an evaluation value of a focus position for each lens position and comparing the respective evaluation values, thereby detecting the focus position faster and more accurately. It is possible to do.
[0004]
[Patent Document 1]
JP-A-6-181532
[0005]
[Problems to be solved by the invention]
However, in the related art, the one-shot AF using the restoration filter has problems such as a pseudo peak, a luminance dependence, and a large amount of calculation when specifying a high-speed and high-precision focal point.
[0006]
In the conventional one-shot AF, the minimum value of the negative integrated value of the restored image data (which does not originally exist) is used as the AF evaluation value. However, such a method can be applied only when there is no pseudo peak of the negative integrated value, and in fact, there is a problem that a pseudo peak often exists and the focusing index is caught other than the original focusing point. .
[0007]
Further, when the focus index is calculated by the conventional one-shot AF, there is a problem that the focus index follows the brightness of the captured AF area and indicates a position shifted from the original focus.
[0008]
Further, when performing the one-shot AF process, the normal Fourier transform is performed. However, when this Fourier transform (FFT) process is performed on the AF area, the vicinity of the side of the AF area becomes an edge, and unnecessary high-frequency components may be generated. is there. In the one-shot AF, an integrated value of a high-frequency component is sometimes used to specify a focal point, and there is a problem in that if the unnecessary high-frequency component is mixed, the accuracy of the focal point specification is reduced.
[0009]
Also, in the one-shot AF, when specifying the focal point, the focal point actually has a certain range of width in consideration of not only one point but also the depth of field, that is, It is determined in a range where the lens is apparently in focus. In particular, the farther the subject is, the wider the focusing allowable range becomes, and it is meaningless to arrange a plurality of corresponding restoration filters in this range. Conversely, the closer the distance is, the narrower the allowable focusing range becomes. Therefore, there is a problem that more corresponding restoration filters must be arranged.
[0010]
Also, when there are a plurality of subject candidates and the photographer is selecting which subject to target, and when there is only one AF area, the AF area is sequentially adjusted to the subject candidate, and One-shot AF focusing operation must be performed, and there is a problem that a redundant operation is performed.
[0011]
In general, as the number of restoration filters increases, the more accurate and versatile the lens can be, the more practically it is necessary to prepare a large number of restoration filters due to the limitation of the mounted ROM (memory). Is difficult.
[0012]
Further, the one-shot AF involves an image restoration process using a restoration filter, so that the amount of calculation becomes enormous. If all of these processes are performed by software, the flexibility of changing and improving the algorithm is excellent, but the processing speed of the CPU is improving year by year, but it is still not enough in terms of speed. There is a problem that cannot be said.
[0013]
The present invention has been made in view of the above, and an object of the present invention is to provide an automatic focus control device capable of performing a high-speed and high-accuracy focusing operation.
[0014]
[Means for Solving the Problems]
The automatic focus control device according to
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
A preferred embodiment in which an automatic focus control device according to the present invention is applied to a digital still camera will be described below in detail with reference to the accompanying drawings.
[0016]
(Common parts of the embodiment)
FIG. 1 is a configuration diagram of a digital still camera according to the present embodiment. The digital still camera shown in FIG. 1 is roughly divided into a
[0017]
The
[0018]
The IPP unit 4 separates the digital image data input from the front end unit 3 into R, G, and B components (RGB digital signals), and an
[0019]
Further, the IPP unit 4 includes a
[0020]
As described above, the CPU 6 controls the operation of each unit of the digital still camera. Specifically, for example, the CPU 6 performs the AF based on the input integrated value of the high-frequency component and / or the integrated value of the negative value. An evaluation value is calculated (a detailed calculation method of the AF evaluation value will be described later), and AF control and the like are performed.
[0021]
Next, an outline of the AF (one-shot AF) operation of the digital still camera having the above configuration will be described. First, the RGB digital color signals obtained from the
[0022]
The high-
[0023]
On the other hand, the data subjected to the filtering process is again input to the FFT (IFFT) calculation unit 44, converted into a spatial component again, and output to the negative
[0024]
These series of processes of filtering processing → high frequency component integration → IFFT → negative value integration are repeated by the number of restoration filters, and the high frequency component integration values and the negative value integration values by the number of restoration filters are output to the CPU 6.
[0025]
The CPU 6 calculates an AF evaluation value based on the input high-frequency component integrated value and / or negative value integrated value, and searches, for example, the minimum value. Then, the corresponding focus lens position (target position) is specified using the restoration filter number corresponding to the searched minimum value as the focus index. Then, the CPU 6 outputs control data for instructing the focus lens control unit 7 to move the focus lens to the target position. In response, the focus lens control unit 7 drives the focus lens to the target position. With the above operation, the AF operation ends.
[0026]
(Embodiment 2 (Reference Example))
The second embodiment (the first embodiment is omitted) will be described with reference to FIG. In the second embodiment, a first method for specifying a focal point in a digital still camera having the configuration shown in the common part of the embodiment will be described.
[0027]
FIG. 2 is an explanatory diagram for explaining a first method of specifying the focal point, and particularly shows an example of a relationship between each restoration filter (No. 1 to No. 12) and a negative value integrated value. I have. In the figure, the horizontal axis represents the restoration filter No. and the vertical axis represents the negative integrated value of the image data restored by each restoration filter. When specifying the focal point, first, a negative value integrated value of the AF area is calculated for each of the restored image data, and is used as an AF evaluation value.
[0028]
Normally, in specifying the focal point, since the negative value integrated value becomes smallest at the focal point, that point is often set as the focal point. In the second embodiment, a search is made for a minimum value from the calculated negative value integrated value group, and when there is one minimum value, that focus point is set. On the other hand, as shown in FIG. In this case, the focal point having the largest point image radius (filter number) is set as the focal point.
[0029]
In the second embodiment, the AF evaluation value is calculated from the negative value integrated value in the AF area, the position of the minimum value of the negative value integrated value is set as the focal point, and further, if there are a plurality of the minimum values, Since the focal point is determined using the largest point image radius as the focal point, the focal point can be determined with high accuracy even when a pseudo peak exists in the negative integrated value.
[0030]
(Embodiment 3 (Reference Example))
Embodiment 3 will be described with reference to FIG. In the third embodiment, a second method for specifying a focal point in a digital still camera having the configuration shown in the common part of the embodiment will be described.
[0031]
FIG. 3 is an explanatory diagram for explaining a second method of specifying the focal point. In particular, FIG. 3 shows the relationship between each restoration filter (No. 1 to No. 12), the negative value integrated value, and the high frequency component integrated value. 9 shows an example of a ratio relationship. In the figure, the horizontal axis represents the restoration filter No., and the vertical axis represents the ratio between the negative value integrated value and the high frequency component integrated value of the image data restored by each restoration filter.
[0032]
In the figure, when specifying the focal point, first, in each of the restored images, the negative value integrated value of the AF area and the high frequency component of the specific area are calculated. Next, a ratio between the calculated negative value integrated value group and the calculated high frequency component integrated value is calculated and used as an AF evaluation value, and a minimum value thereof is searched for and set as a focal point. The reason why the above-mentioned focus is set is that the negative value integrated value is the same as the reason described above, and the high-frequency component integrated value has the largest high-frequency component at the focal point. When viewed from these ratios, at the focal point, the negative value integrated value becomes the minimum and the high frequency component integrated value becomes the maximum, so that the ratio becomes the minimum.
[0033]
Here, the ratio between the negative value integrated value and the high frequency component integrated value can be calculated, for example, by the following equation (1).
[0034]
(Ratio between negative value integrated value and high frequency component integrated value)
= | 1000- (negative value integrated value) | / (high frequency component integrated value) ... (1)
Here, || indicates an absolute value.
[0035]
As described above, if the method of searching for the minimum value of (the ratio between the negative value integrated value and the high frequency component integrated value) is used, the number of minimum values is smaller than in the first method, and the accuracy is reduced. Is improved. On the other hand, since the amount of calculation is smaller in the first method, the time required for specifying the in-focus position is better in the first method.
[0036]
In the second method, when there are a plurality of minimum values of the ratio between the negative value integrated value and the high frequency component integrated value, the one with the largest point image radius (filter number) is set as the focal point. Expression (1) is an example of the definition of the ratio between the negative value integrated value and the high frequency component integrated value, and the present invention is not limited to this.
[0037]
As described above, in the third embodiment, the AF evaluation value is calculated by the ratio between the negative value integrated value and the high frequency component integrated value in the AF area, and the minimum value of the ratio between the negative value integrated value and the high frequency component integrated value is calculated. The focal point is defined as the value, and when there are a plurality of minimum values, the focal point is determined by determining the focal point with the largest point image radius.Therefore, there is a pseudo peak in the negative integrated value. However, it is possible to calculate the focal point with high accuracy.
[0038]
(Embodiment 4 (Reference Example))
Embodiment 4 will be described with reference to FIG. In the fourth embodiment, a third method for specifying the focal point in the digital still camera having the configuration shown in the common part of the embodiment will be described.
[0039]
FIG. 4 is an explanatory view for explaining a fourth method for specifying the focal point. In particular, FIG. 4 shows the relationship between each restoration filter (No. 1 to No. 12), the negative value integrated value, and the high frequency component integrated value. 9 shows an example of a ratio relationship. In the figure, the horizontal axis represents the restoration filter No., and the vertical axis represents the ratio between the negative value integrated value and the high frequency component integrated value of the image data restored by each restoration filter.
[0040]
In the figure, to specify the focal point, first, in each of the restored image data, the negative value integrated value of the AF area and the integrated value of the high frequency component in the specific area are calculated. Next, the ratio of the calculated negative value integrated value to the high frequency component integrated value is calculated, and the calculated value is used as the AF evaluation value to search for the minimum value, and the position corresponding to the minimum value is set as the temporary focus point (FIG. Middle Fa). Also in the third method, the above equation (1) is used to define the ratio between the negative value integrated value and the high frequency component integrated value.
[0041]
Next, scanning is performed again from the provisional focal point toward the larger point image radius (filter number). At this time, if the ratio between the negative value integrated value and the high frequency component integrated value is equal to or less than the specific threshold value (Rth) (Fb, Fc, Fd in the figure), the temporary focus point and the threshold value (Rth) or less are set. Based on the filter number obtained, the focal point is calculated by, for example, the following equation (2).
[0042]
(Focus)
= Fa + (c1 * Fb + c2 * Fc + c3 * Fd) / Num (2)
However, c1, c2, c3: coefficient c1 = c2 = c3 = 1.0
Fa: Temporary focusing point (filter number)
Fb, Fc, Fd: filter numbers below the threshold Rth
Num: the number of filter numbers when the value is equal to or less than the threshold value Rth
The above equation (2) is obtained by adding the weighted average value of the filter numbers that have become equal to or less than the threshold Rth to the temporary focus when calculating the focus. Note that the components to be considered are not limited to the above equation (2), and the coefficients are set to c1 = c2 = c3 = 1.0, but are not limited to this.
[0043]
As described above, in the fourth embodiment, the AF evaluation value is calculated by the ratio between the negative value integrated value and the high frequency component integrated value in the AF area, and the ratio between the negative value integrated value and the high frequency component integrated value is calculated. The minimum value of is set as a temporary focal point, and the ratio between the negative value integrated value and the high-frequency component integrated value is re-scanned in the direction in which the point image radius increases from the temporary focal point, and the ratio falls below a specific threshold value Since the true focal point is determined by fitting the point image radius at that time to the temporary focal point as a weight, the focal point is calculated with high precision even if there is a pseudo peak in the negative integrated value. It becomes possible.
[0044]
(Embodiment 5 (Reference Example))
[0045]
FIG. 5 is an explanatory diagram for explaining a fourth method for specifying the focal point. In particular, FIG. 5 shows the relationship between each restoration filter (No. 1 to No. 12), the negative value integrated value, and the high frequency component integrated value. 9 shows an example of a ratio relationship. In the figure, the horizontal axis represents the restoration filter No., and the vertical axis represents the ratio between the negative value integrated value and the high frequency component integrated value of the image data restored by each restoration filter.
[0046]
In the figure, to specify the focal point, first, in each of the restored image data, the negative value integrated value of the AF area and the integrated value of the high frequency component in the specific area are calculated. Next, the ratio between the calculated negative value integrated value and high frequency integrated value is calculated and used as an AF evaluation value, and the minimum value is searched for and set as a temporary focal point (Fa in the figure). In the fifth embodiment, the above equation (1) is used to define the ratio of the ratio between the negative integrated value and the high-frequency integrated value.
[0047]
Next, scanning is performed again from the temporary focal point toward the point image having a larger radius (filter number). At this time, the ratio between the negative integrated value and the high-frequency integrated value is compared with a specific threshold (Rth), and the filter No (Fb, Fc, Fc, The focal point is calculated in consideration of Fd). More specifically, when calculating the focal point, the difference between the filter number that is equal to or less than the threshold value Rth and the ratio value and the threshold value for each filter number, that is, the depth component (Db, Dc, Dd in the figure) ) As a factor, and the focal point is calculated by, for example, the following equation (3).
[0048]
(Focus)
= Fa + (c1 * Fb * Db + c2 * Fc * Dc + c3 * Fd * Dd) / Num (3)
Where c1, c2 and c3 are coefficients
c1 = c2 = c3 = 1.0
Fa: Temporary focusing point (filter number)
Fb, Fc, Fd: filter numbers below the threshold Rth
Db: Depth factor from threshold Rth Db = 1−Rb / Rth
Dc: Depth factor from threshold Rth Dc = 1−Rc / Rth
Dd: depth factor from threshold Rth Dd = 1−Rd / Rth
Num: the number of filter numbers when the value is equal to or less than the threshold value Rth
The above equation (3) is obtained by adding a weighted average value of the filter number that has become equal to or smaller than the threshold Rth and a factor of the depth from the threshold Rth to the temporary focus when calculating the focal point. Note that the components to be considered are not limited to the above equation (3), and the coefficients are set to c1 = c2 = c3 = 1.0, but are not limited thereto.
[0049]
As described above, in the fifth embodiment, the AF evaluation value is calculated by the ratio between the negative value integrated value and the high frequency component integrated value in the AF area, and the minimum value of the ratio between the negative value integrated value and the high frequency component integrated value is calculated. The value is set as a temporary focus position, and the ratio between the negative value integrated value and the high frequency component integrated value is re-scanned in a direction in which the point image radius increases from the temporary focus point, and the ratio becomes equal to or less than a specific threshold value. In this case, the true focus point is specified by adding the weight of the point image radius at that time and the ratio of the ratio to the threshold value or less to the temporary focus point. It is possible to calculate the focal point with high accuracy even if there is a pseudo peak.
[0050]
(Embodiment 6 (Reference Example))
Embodiment 6 will be described with reference to FIG. In the fifth embodiment, a fifth method for specifying the focal point in the digital still camera having the configuration shown in the common part of the embodiment will be described. FIG. 6 is a flowchart for explaining the fifth method for specifying the focal point, and shows an outline of the one-shot AF operation according to the sixth embodiment.
[0051]
In FIG. 6, first, at the initial focus lens position, an image is captured and image data (for example, image capture 8 bits / pixel) is captured (step S10), and an AF area (for example, an area of 256 × 256 pixels) is cut out (step S11). ). Next, in this AF area, an average luminance (Yave) is calculated (step S12), and it is determined whether or not this average luminance (Yave) is within a specific luminance range (appropriate luminance range). Specifically, it is determined whether or not Yellow (for example, 100) ≦ Yave ≦ Yhigh (for example, 130) (step S13). If the result of this determination is that Yellow ≦ Yave ≦ Yhigh, the flow shifts to step S14 to start the substantial processing of the one-shot AF.
[0052]
On the other hand, if Ylow ≦ Yave ≦ Yhigh, the process proceeds to step S15, and adjustment is performed so that the average brightness value (Yave) falls within the specific brightness range (Ylow ≦ Yave ≦ Yhigh). Specifically, this adjustment is performed arithmetically for all pixels in the AF area. That is, when the target average luminance value is 100 and the average luminance is 95, the difference of 5 is added (subtracted) as an offset. In this embodiment, the thresholds of the appropriate luminance range are set to Ylow = 100 and Yhigh = 130, and the target average luminance to be adjusted when the threshold is exceeded is set to 100. However, A / D conversion is performed. The value is not limited to these values as long as it is 40% to 50% with respect to the maximum luminance setting standard. The average luminance value is not limited to the method of adjusting the average luminance value by arithmetic operation, and the photographing (image capturing) may be performed again by changing photographing conditions and the like, and the average luminance value may be calculated. When the adjustment of the average luminance value is completed, the process proceeds to step S14, and the substantial processing of the one-shot AF is started.
[0053]
Hereinafter, the substantial processing of the one-shot AF will be described. First, in step S14, the luminance signal corresponding to the image data in the AF area is converted from a spatial component to a frequency component by the FFT (IFFT) calculation unit 44. Then, a search for a focal point is performed for each restoration filter (for example, FiltNo. 0 to 120) (step S16). Specifically, first, the
[0054]
Finally, based on the calculated high-frequency component integrated value group and negative value integrated value group, the in-focus position is calculated (step S22), and the focusing lens is driven to the in-focus position (step S23).
[0055]
As described above, in the sixth embodiment, prior to performing a series of one-shot AF operations, the average luminance in the AF area is calculated, and when the average luminance is out of the specific luminance range, the average luminance is calculated. Since the focal point is specified by adjusting the luminance so that the AF area average luminance falls within the specific luminance range, and then entering the one-shot AF operation, it is taken in when calculating the focal point index by the one-shot AF. It is possible to prevent deviation from the original focal point caused by the brightness of the AF area, and it is possible to determine the focal point with high accuracy.
[0056]
(Embodiment 7 (Reference Example))
Embodiment 7 will be described with reference to FIG. 7 and FIG. In the seventh embodiment, in the digital still camera having the configuration shown in the common part of the embodiment, an example in which window function processing is performed on an AF area prior to performing one-shot AF to reduce the influence of the vicinity of the AF area. Will be described.
[0057]
FIG. 7 shows an example of the relationship between the pixel position in the AF area and the relative intensity. In the figure, the horizontal axis indicates the pixel position in the AF area, and the vertical axis indicates the relative intensity. Although the drawing is shown in one dimension for simplicity, it is actually expanded to two dimensions.
[0058]
First, photographing (image capture) is performed at the initial focus lens position, and an AF area is cut out. Here, the size is 256 × 256 pixels. In this AF area, window function processing as shown in the following equation (4) is performed two-dimensionally.
[0059]
V [i]
= Data [i] * {0.54-0.46 * cos (2.0 * 3.14 * i / N)} (4)
Here, V: pixel data at pixel position i after window function processing
i:
data: pixel data at pixel position i before window function processing
N: window size N = 256 here
This window function process is a so-called weighting based on the pixel position, and indicates that the weight as the image information decreases as the edge of the AF area approaches the edge as shown in FIG. Then, after the window function process is completed, the subroutine enters the substantial process of the one-shot AF. In this embodiment, a Hamming window is used as a window function, but the present invention is not limited to this.
[0060]
FIG. 8 shows a configuration example of a window function processing unit for performing the window function processing. The window function processing unit shown in FIG. 8 includes a window
[0061]
Next, the operation of the window function processing unit will be briefly described. First, the image data taken in from the CCD is A / D converted and then converted into luminance data. Then, image data (luminance data) of the AF area is extracted and input to the window
[0062]
As described above, in the seventh embodiment, the window function processing is performed on the AF area before performing a series of one-shot AF, so that the influence near the AF area can be reduced. Become. In addition, generally, when Fourier transform (FFT) processing, which is one of the processings when performing the one-shot AF processing, is performed on the AF area, an edge near the side of the AF area becomes an edge, and unnecessary high-frequency components may be generated. In addition, in the one-shot AF, the high-frequency component integrated value may be used to specify the focal point. When the unnecessary high-frequency component is mixed, the precision of the focal point specification is reduced. Since the window function processing is performed on the area, the influence can be prevented.
[0063]
(Embodiment 8 (Embodiment of the present invention))
Embodiment 8 will be described with reference to FIG. In the eighth embodiment, an example of efficient arrangement of restoration filters in a digital still camera having the configuration shown in the common part of the embodiment will be described.
[0064]
FIGS. 9A and 9B are diagrams for explaining a restoration filter according to the eighth embodiment. FIG. 9A illustrates an example of the arrangement of a conventional restoration filter, and FIG. 9B illustrates the arrangement of the restoration filter according to the eighth embodiment. Here is an example. FIG. 9 shows the case where the initial focus lens position is set to infinity. However, FIG. 3 shows the structure of the restoration filter in an easy-to-understand manner, and this filter does not necessarily exist at an actual distance.
[0065]
In the configuration of the conventional restoration filter shown in FIG. 9A, 120 filters are used, and in the configuration of the restoration filter of the present embodiment shown in FIG. 9B, 60 restoration filters are used. The restoration filter is assigned to a distance of 30 [cm] to 300 [cm].
[0066]
By the way, when specifying the focal point, actually, the focal point is not only one point but has a certain range of width in consideration of the depth of field and the like, that is, it is considered that the focal point is apparently focused. Is determined within the range of In particular, the farther the subject is, the wider the allowable focus range becomes, and it is meaningless to arrange a plurality of corresponding restoration filters in this range. On the other hand, the closer the distance is, the narrower the permissible focusing range becomes. Therefore, it is necessary to arrange more corresponding restoration filters.
[0067]
In the eighth embodiment, as shown in FIG. 9B, the restoration filters are arranged so as to be dense on the near side and coarse on the far side. Thereby, highly accurate one-shot AF can be realized. In this embodiment, from the viewpoints of speed, cost, and mounting, the number of restoration filters is reduced as much as possible, and the number of restoration filters is set to 120 to 60 and allocated to each distance. However, the present invention is not limited to this. Also, the number of restoration filters is not limited to those listed here.
[0068]
(Embodiment 9 (Reference Example))
Embodiment 9 will be described with reference to FIG. In the tenth embodiment, an operation example in which a plurality of AF areas are provided for focusing in a digital still camera having the configuration shown in the common part of the embodiment will be described.
[0069]
FIG. 10 is an explanatory diagram for explaining an AF area according to the ninth embodiment. FIG. 10A shows a case where AF areas are set at several places near the center of an image frame. ) Indicates an AF area obtained by equally dividing the entire image frame.
[0070]
FIG. 10A shows an image frame of 1280 × 1024 pixels and three AF areas (256 × 256 pixels) set in parallel near the center of the image frame. Area, center AF area, and right AF area. FIG. 10B shows a case where an image frame is set to 1280 × 1024 pixels and an AF area in which the image frame is equally divided into 5 × 4 is set. For convenience, from the upper left to the lower right, ,
[0071]
In FIG. 10A, it is assumed that there are a plurality of subject candidates and the photographer selects which subject is to be a target. First, in a digital still video camera, areas corresponding to a left AF area, a center AF area, and a right AF area are cut out from a captured image frame by one-shot AF operation, and a focusing index is set for each area. A value is calculated.
[0072]
The photographer operates an operation button (not shown) to select an AF area including the target subject. In response to this, the digital still video camera takes out the focus index value of the selected AF area and controls the focus lens to move to a predetermined position based on the value. Accordingly, when there is only one AF area, a redundant operation in which the AF area is sequentially adjusted to the subject candidate and the one-shot AF operation is repeated each time is avoided, and a high-speed one-shot AF operation can be obtained. .
[0073]
In FIG. 10B, the same operation as that described in FIG. 10A is performed. However, in this case, when calculating the focus index value, the focus index value need not be calculated for all AF areas, but may be calculated only for some AF areas picked up by the photographer. When the focus index value is calculated for all AF areas, if the subject distance information is stored together with the image information, appropriate image processing means typified by a personal computer and application software can be used as post processing. Accordingly, it is possible to generate an in-focus image from near to far.
[0074]
In the present invention, the size, shape, and arrangement of the AF areas shown in FIG. 10 are not limited, and each AF area may have an overlapping portion.
[0075]
(Embodiment 10 (Reference Example))
Embodiment 10 will be described with reference to FIG. 11 and FIG. In the tenth embodiment, an operation example will be described in which a one-shot AF is used for coarse adjustment and a hill-climbing servo method is used for fine adjustment in a digital still camera having the configuration shown in the common part of the embodiment.
[0076]
In the tenth embodiment, one-shot AF is used for coarse adjustment to determine an approximate subject position, the focus lens is moved to the corresponding position, and then fine adjustment is performed by a hill-climbing servo method. The focus lens is moved to an in-focus position.
[0077]
FIG. 11 is an explanatory diagram for explaining the conventional one-shot AF and hill-climbing servo method, and FIG. 12 is an explanatory diagram for explaining the one-shot AF and the hill-climbing servo method according to the tenth embodiment. FIGS. 11 and 12 correspond to a diagram for explaining the one-shot AF operation (a diagram shown in the upper part of the figure) and a diagram for explaining the hill-climbing servo method (a figure shown in the lower part of the figure). Shown.
[0078]
In FIG. 12, a diagram for explaining the one-shot AF operation shows a relationship among a lens position, a subject position, a restoration filter, and a one-shot AF evaluation value. As shown in the figure, when the focal position is between ∞ and Near (closest), seven restoration filters No. 7 each corresponding to each distance. 1 to No. 7 (filter group). Each restoration filter No. 1 to No. 7, the image is restored, and the AF evaluation value is obtained. Here, the focal point is a filter number indicating the minimum value of the AF evaluation value. In the case of the example shown in FIG. In step 6, the AF evaluation value is output to indicate that it is the in-focus position. Based on this signal, the focus lens is set to the filter No. Move to the position corresponding to 5. Conventionally, as shown in FIG. Had moved to 6.
[0079]
After that, the control is switched to the control of the hill-climbing servo method to perform fine adjustment. Conventionally, as shown in FIG. 11, in order to detect the direction of the focal point, it is necessary to move at least two points to acquire data and to know whether the AF evaluation value is in the inclination direction (a hollow slope or a rising slope). . On the other hand, in the present embodiment, as shown in FIG. 12, the focus lens is moved to the index value immediately before the in-focus index value of the coarse adjustment, and then the No. 1 lens is moved by the hill-climbing servo method. 5 to No. 5 6 to move to the final focus position. In the hill-climbing servo method, the position at which the AF evaluation value becomes maximum is detected as the focus position. That is, the scanning direction by the hill-climbing servo method is determined to be one direction (in this embodiment, the direction in which the filter number increases). Therefore, a redundant operation for detecting a new focusing direction as in the related art is unnecessary.
[0080]
Although seven restoration filters are provided for the one-shot AF coarse adjustment, the invention is not limited to this.
[0081]
As described above, in the tenth embodiment, a temporary focus position is determined by one-shot AF, and then scanning is performed by a hill-climbing servo method from a position immediately before the temporary focus position to finally determine the focus position. Since the in-focus position is determined, the number of restoration filters can be reduced, the memory cost can be reduced, and a high-precision and high-speed one-shot AF can be realized with an inexpensive configuration. .
[0082]
In the tenth embodiment, the high-frequency component used in the hill-climbing servo method can use the FFT engine (FFT (IFFT) calculation unit 44 and high-
[0083]
It should be noted that the present invention is not limited to the above-described embodiment, and can be appropriately changed without changing the gist of the invention.
[0084]
Further, the automatic focus control device of the present invention is widely applicable to an image input device using an image sensor such as a video camera and a still video camera.
[0085]
【The invention's effect】
The automatic focus control device according to
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a digital still camera to which an automatic focus control device according to an embodiment is applied.
FIG. 2 is an explanatory diagram according to a second embodiment (reference example), for explaining a first method of specifying a focal point;
FIG. 3 is an explanatory diagram according to a third embodiment (reference example) for explaining a second method of specifying a focal point;
FIG. 4 is an explanatory diagram according to a fourth embodiment (reference example), for explaining a third method of specifying a focal point;
FIG. 5 is an explanatory diagram according to a fifth embodiment (reference example), for explaining a fourth method of specifying a focal point;
FIG. 6 is an explanatory diagram according to a sixth embodiment (reference example), for explaining a fifth method of specifying a focal point;
FIG. 7 is for describing an operation example in which a window function process is performed on an AF area to reduce the influence near the AF area before performing one-shot AF according to the seventh embodiment (reference example); FIG.
FIG. 8 is a block diagram showing a configuration of a window function processing unit according to the seventh embodiment (reference example).
FIG. 9 is an explanatory diagram related to Embodiment 8 (Embodiment of the present invention) for explaining an example of arrangement of restoration filters.
FIG. 10 is an explanatory diagram for describing an AF area according to the ninth embodiment (reference example).
FIG. 11 is an explanatory diagram for explaining a one-shot AF and a hill-climbing servo method according to the related art.
FIG. 12 is an explanatory diagram for explaining a one-shot AF and a hill-climbing servo method according to the tenth embodiment (reference example);
[Explanation of symbols]
1 lens system (initial focus lens)
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003196987A JP2004004923A (en) | 2003-07-15 | 2003-07-15 | Automatic focus controller |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003196987A JP2004004923A (en) | 2003-07-15 | 2003-07-15 | Automatic focus controller |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10112852A Division JPH11295589A (en) | 1998-04-09 | 1998-04-09 | Automatic focus controller |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004004923A true JP2004004923A (en) | 2004-01-08 |
Family
ID=30438462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003196987A Pending JP2004004923A (en) | 2003-07-15 | 2003-07-15 | Automatic focus controller |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004004923A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005124418A1 (en) * | 2004-06-21 | 2005-12-29 | Olympus Corporation | Focusing information acquisition device, and focusing information acquisition method |
KR100589654B1 (en) | 2004-12-23 | 2006-06-14 | 삼성전자주식회사 | A camcorder capable of restoring odm data and a restoration method of odm data |
JP2012100130A (en) * | 2010-11-04 | 2012-05-24 | Canon Inc | Image processing device and image processing method |
-
2003
- 2003-07-15 JP JP2003196987A patent/JP2004004923A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005124418A1 (en) * | 2004-06-21 | 2005-12-29 | Olympus Corporation | Focusing information acquisition device, and focusing information acquisition method |
US7421195B2 (en) | 2004-06-21 | 2008-09-02 | Olympus Corporation | Apparatus for acquiring focussing information and method of acquiring focusing information |
KR100589654B1 (en) | 2004-12-23 | 2006-06-14 | 삼성전자주식회사 | A camcorder capable of restoring odm data and a restoration method of odm data |
JP2012100130A (en) * | 2010-11-04 | 2012-05-24 | Canon Inc | Image processing device and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7382411B2 (en) | Method for focus adjusting and camera | |
JP5446076B2 (en) | Digital camera | |
JP4647885B2 (en) | camera | |
JP5374119B2 (en) | Distance information acquisition device, imaging device, and program | |
US7957633B2 (en) | Focus adjusting apparatus and focus adjusting method | |
JP2011150281A (en) | Imaging apparatus, method for controlling the imaging apparatus, and computer program | |
JP2004361484A (en) | Autofocus camera | |
JP2004325517A (en) | Imaging unit | |
US7733411B2 (en) | Image capturing apparatus performing filtering process with variable cut-off frequency | |
JP4668863B2 (en) | Imaging device | |
JPH05300421A (en) | Automatic focusing device | |
JP2005189634A (en) | Focus detector for camera | |
JP2008185823A (en) | Focus detector and camera | |
JP2004004923A (en) | Automatic focus controller | |
JP2007171807A (en) | Focus detection device and camera | |
JP4902946B2 (en) | Auto focus camera | |
JPH11331676A (en) | Automatic focus controller | |
JP2007256463A (en) | Automatic focusing device and camera | |
JP2000152064A (en) | Automatic focus controller | |
JPH11295589A (en) | Automatic focus controller | |
JP2005020061A (en) | Video signal processing apparatus and video signal processing method | |
JP3485762B2 (en) | Auto focus device | |
JP2001343581A (en) | Af system | |
JP3272186B2 (en) | Auto focus video camera | |
JP2001242371A (en) | Automatic focusing controller |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20040924 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20050609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060714 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060919 |