Nothing Special   »   [go: up one dir, main page]

JP4307648B2 - camera - Google Patents

camera Download PDF

Info

Publication number
JP4307648B2
JP4307648B2 JP24786799A JP24786799A JP4307648B2 JP 4307648 B2 JP4307648 B2 JP 4307648B2 JP 24786799 A JP24786799 A JP 24786799A JP 24786799 A JP24786799 A JP 24786799A JP 4307648 B2 JP4307648 B2 JP 4307648B2
Authority
JP
Japan
Prior art keywords
luminance
area
camera
output
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24786799A
Other languages
Japanese (ja)
Other versions
JP2001075141A (en
Inventor
昌孝 井出
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP24786799A priority Critical patent/JP4307648B2/en
Priority to US09/651,877 priority patent/US6792203B1/en
Publication of JP2001075141A publication Critical patent/JP2001075141A/en
Application granted granted Critical
Publication of JP4307648B2 publication Critical patent/JP4307648B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Stroboscope Apparatuses (AREA)

Description

【0001】
【発明の属する技術分野】
この発明はカメラに関し、より詳細には、夜景シーンを判定して夜景に適した撮影動作を行うことが可能なカメラに関するものである。
【0002】
【従来の技術】
従来より、夜景を撮影する場合に工夫されたカメラが多数開発されている。
【0003】
例えば、特開平7−199039号公報には、夜景シーンを撮影するときに撮影者が夜景モードに設定して、撮影を行うことが可能なカメラが開示されている。このカメラに於いては、補助光を被写体に投光してAFを行うようになっている。
【0004】
また、特開平5−249369号公報に記載のカメラでは、AFセンサの画素データが高輝度部と低輝度部に分かれて分布している場合は、明るい背景の人物と判定し、AFセンサの積分時間を長くして再度積分させることにより、低輝度部分を重視してAF検出を行う技術が開示されている。
【0005】
【発明が解決しようとする課題】
しかしながら、上記特開平7-199039号公報に記載のカメラでは、撮影者が撮影シーンに応じて夜景モードに設定するのは煩わしいという課題を有している。
【0006】
また、上記特開平5−249369号公報に記載のカメラに於いては、輝度を1つのラインセンサにより検出しているので、検出エリアが狭く、高コントラストの被写体を誤認識するという課題を有している。更に、また、明るい部分が検出エリアに入らないと夜景と判別できないという課題を有している。
【0007】
この発明は上記課題に鑑みてなされたもので、撮影者が設定しなくとも夜景シーンを自動的に判別して夜景に適した撮影動作を行うことのできるカメラを提供することを目的とする。
【0008】
【課題を解決するための手段】
すなわちこの発明は、撮像手段と、この撮像手段の出力結果に基き撮影画面内の輝度分布を検出する輝度分布検出手段と、この輝度分布検出手段の出力結果に基き所定の輝度が連続する領域を判別する輝度領域判別手段と、この輝度領域判別手段の出力結果に基き上記所定の輝度が連続する領域の面積を演算する演算手段と、この演算手段の出力より、所定輝度よりも高輝度である画素の分布が連続する領域の面積が所定値以下であるか否かの判定の結果、及び上記輝度分布検出手段の出力に基く撮影画面内の輝度が所定値よりも低輝度か否かの判定の結果とに基いて撮影モードを決定する撮影モード決定手段と、を具備することを特徴とする。
【0010】
この発明のカメラにあっては、撮像手段の出力結果に基いて、輝度分布検出手段で撮影画面内の輝度分布が検出される。そして、この輝度分布検出手段の出力結果に基いて、所定の輝度が連続する領域が輝度領域判別手段にて判別される。また、この輝度領域判別手段の出力結果に基いて、上記所定の輝度が連続する領域の面積が演算手段によって演算される。この演算手段の出力より、所定輝度よりも高輝度である画素の分布が連続する領域の面積が所定値以下であるか否かの判定の結果、及び上記輝度分布検出手段の出力に基く撮影画面内の輝度が所定値よりも低輝度か否かの判定の結果とに基いて、撮影モード決定手段によって撮影モードが決定される。
【0012】
【発明の実施の形態】
以下、図面を参照してこの発明の実施の形態を説明する。
【0013】
図1は、この発明の第1の実施の形態に係るカメラの構成を示したブロック図である。
【0014】
図1に於いて、マイクロコンピュータ11は、このカメラ全体の制御を司るシステムコントローラであり、内部に、CPU(中央処理装置)11a、ROM11b、RAM11c、アナログ−デジタル(A/D)コンバータ(ADC)11d及びEEPROM11eを有している。
【0015】
上記CPU11aは、ROM11bに格納されたシーケンスプログラムに従って一連の動作を行うものである。また、EEPROM11eは、AF、測光・露出演算等に関する補正データをカメラ毎に記憶している。
【0016】
上記マイクロコンピュータ11には、測距光学系により形成される被写体像を撮像して電気信号であるセンサデータに変換するAFエリアセンサ12が接続されている。このエリアセンサ12は、撮像領域12aである水平方向と垂直方向に二次元状に配置された受光素子群と、これら受光素子群の処理回路12bから構成される。
【0017】
また、上記マイクロコンピュータ11には、フォーカスレンズ13を駆動するためのフォーカスレンズ駆動部14と、該フォーカスレンズ13の移動量に対応するパルス信号を発生するフォーカスレンズエンコーダ15と、ズームレンズ駆動部16と、測光用受光素子17を有する測光部18と、シャッタ駆動部19と、フィルム駆動部20と、ストロボ23を有したストロボ回路部24と、表示部25と、ファーストレリーズスイッチ(1RSW)26及びセカンドレリーズスイッチ(2RSW)27とが接続されている。
【0018】
マイクロコンピュータ11では、上記AFエリアセンサ12の積分動作の制御、センサーデータの読出し制御が行われると共に、エリアセンサ12から出力されるセンサデータを処理して測距演算が行われる。そして、この測距演算結果に基いて、マイクロコンピュータ11からフォーカスレンズ駆動部14に駆動信号が出力され、フォーカスレンズエンコーダ15の出力がモニタされてフォーカスレンズ13の位置制御が行われる。
【0019】
上記ズームレンズ駆動部16では、マイクロコンピュータ11の司令によりズーム動作が行われる。
【0020】
上記測光部18では、測光用受光素子17の発生する光電流信号が処理されて測光出力が発生される。マイクロコンピュータ11では、この測光出力をがA/Dコンバータ11dによりA/D変換されて測光露出演算が行われる。
【0021】
また、シャッタ駆動部19では、マイクロコンピュータ11からの司令に基いて、図示されないシャッタが駆動される。
【0022】
上記フィルム駆動部20では、マイクロコンピュータ11の司令により、オートロード、1駒巻上げ、巻戻しのフィルム駆動動作が行われる。
【0023】
上記ストロボ回路24は、撮影時の補助光源としてストロボ23発光させる機能を有している。このストロボ回路部24の充電、発光制御は、マイクロコンピュータ11によりなされている。尚、ストロボ回路部24は、測距動作時のAF補助光としても動作される。
【0024】
そして、表示部25は、カメラ内部の情報をLCD等の表示素子により表示するもので、マイクロコンピュータ11により制御される。
【0025】
上記ファーストレリーズスイッチ26及びセカンドレリーズスイッチ27は、図示されないレリーズ釦に連動したスイッチである。レリーズ釦の第1段階の押し下げによりファーストレリーズスイッチ26がオンし、引続いて第2段階の押し下げによりセカンドレリーズスイッチ27がオンするようになっている。そして、ファーストレリーズスイッチ26のオンによりAF、測光動作が行われ、セカンドレリーズスイッチ27のオンにより露出動作、フィルム巻上げ動作が行われるよう、マイクロコンピュータ11により制御される。
【0026】
次に、測距光学系について説明する。
【0027】
図2は、上述した光学系、AFエリアセンサ12の配置を示した図である。
【0028】
尚、ここでは、被写体の像信号を基に測距する、いわゆるパッシブ方式について説明する。
【0029】
パッシブ方式に於いて、被写体までの距離を測定するにあたり、受光レンズ31a、31bは基線長Bを隔てて配置され、被写体30の像を2像に分割してAFエリアセンサ12の撮像領域12aに結像させる。
【0030】
上記2像の相対的な位置差xは、三角測距の原理によって、受光レンズの焦点距離fと基線長Bとから、被写体距離Lは下記(1)式により求められる。
L=(B・f)/x …(1)
図3は、撮影画面(ワイドとテレ)と測距エリアの関係を示した図である。
【0031】
外光パッシブ方式による測距なので、撮像画面と測距エリアとの間にはパララックスが存在する。
【0032】
図3に示されるように、AFエリアセンサ12の検出エリア(測距エリア)33に対し、スタンダード、テレ、ワイドそれぞれの撮影画面34、35、36のエリアは異なっている。
【0033】
そのため、撮像光学系の焦点距離情報(ズーム情報)に応じて、測距に使用するエリアを限定するようにする。
【0034】
このような焦点距離の変化に応じた測距エリア位置補正データは、EEPROM11eに予め記憶されており、マイクロコンピュータ11の初期化と共にRAM11cに展開されている。ズーム動作に応じてこの補正データが参照されて、AFエリアセンサ12の撮像領域内の測距動作に使用される測距エリアが決定される。そして、この測距エリア範囲内のセンサデータにより、測距演算が行われる。
【0035】
また、マイクロコンピュータ11からは、AFエリアセンサ12に対して、この測距エリア内に対応する積分制御用ピークモニタが発生されるように、制御信号が出力される。そして、AFエリアセンサ12からは、指定された測距エリアの範囲内のピーク信号がマイクロコンピュータ11に出力される。
【0036】
マイクロコンピュータ11では、このモニタ信号が参照されて積分量が所定のレベルとなるように制御される(図6参照)。
【0037】
このようにして、撮影画面外に被写体の影響を受けないようにしている。
【0038】
尚、センサデータの読出し時にも、上記撮影画面に対応する測距エリアの補正データが参照されて、不要な撮影画面外のセンサーデータは読飛ばしされてRAM11cに格納されないようにする。
【0039】
或いは、AFエリアセンサ12に読出し範囲設定信号が出力されて、必要なセンサデータだけ出力されるようにする。
【0040】
次に、図4のフローチャートを参照して、本実施の形態に於けるカメラのメインルーチンを説明する。
【0041】
図示されない電源スイッチがオンされるか電池がカメラ内に装填されると、マイクロコンピュータ11の動作が開始され、ROM11bに格納されたシーケンスプログラムが実行される。
【0042】
すなわち、先ず、ステップS1にて、カメラ内の各ブロックの初期化が行われる。そして、EEPROM11eに格納されたデータがRAM11cに展開される。
【0043】
次いで、ステップS2に於いて、ファーストレリーズスイッチ26の状態が検出される。ここで、ファーストレリーズスイッチ26がオンになっていなければステップS8に移行する。
【0044】
上記ステップS2にて、ファーストレリーズスイッチ26がオンされると、続くステップS3に移行してAF動作が実行される。次いで、ステップS4では測光、露出演算が行われる。
【0045】
そして、ステップS5に於いて、セカンドレリーズスイッチ27の状態が検出される。ここで、セカンドレリーズスイッチ27がオンされない場合は上記ステップS2に移行する。
【0046】
一方、セカンドレリーズスイッチ27がオンされると、ステップS6に移行してシャッタ動作によりフィルムに露出が行われる。次いで、ステップS7にて、フィルムの1駒巻上げが行われる。その後、上記ステップS2に移行する。
【0047】
上記ステップS8に於いては、ファーストレリーズスイッチ26及びセカンドレリーズスイッチ27以外のスイッチの入力状態が検出される。
【0048】
ステップS8にて、他のスイッチ入力がない場合は上記ステップS2に移行する。一方、上記ファーストレリーズスイッチ26及びセカンドレリーズスイッチ27以外のスイッチ入力があった場合は、ステップS9に移行して、そのスイッチ入力に応じた処理が実行される。例えば、ズームスイッチのアップ、ダウン入力に応じてズームアップ、ダウン処理を行う等である。この後、上記ステップS2に移行する。
【0049】
次に、図5のフローチャート及び図6のタイミングチャートを参照して、AF動作について説明する。
【0050】
先ず、ステップS11にて、AFエリアセンサ12から積分制御信号が出力されて、積分動作が行われる。AFエリアセンサ12からは、所定範囲内のピーク(最も明るい画素)出力に対応するモニタ信号が出力される。このモニタ信号が参照されながら、AFエリアセンサ12の受光部の受光量が適正となるように、積分時間が調節される(図6(a)、(b)参照)。
【0051】
次いで、ステップS12にて、AFエリアセンサ12に読出しクロックCLKが出力される。これにより、センサデータ(画素データ)がA/Dコンバータ11dに出力され、A/D変換されて読出されRAM11cに格納される(図6(c)、(d)参照)。
【0052】
そして、ステップS3にて夜景判定ルーチンが開始される。続くステップS14に於いて、夜景シーンか否かが判定される。ここで、夜景シーンである場合は、ステップS15に移行して夜景処理が実行される。一方、夜景シーンでない場合は、ステップS16に移行して通常処理が実行される。
【0053】
その後、ステップS17にてフォーカスレンズ13の駆動が行われると、本ルーチンを抜ける。
【0054】
尚、上述したステップS13〜S16は、サブルーチン“夜景判定処理”を構成している。
【0055】
次に、図6及び図7を参照して、夜景判定・処理ルーチンについて説明する。
【0056】
図7は、サブルーチン“夜景判定処理”の動作を説明するフローチャート(図5のステップS13〜S16に相当)である。
【0057】
先ず、ステップS21に於いて、低輝度か否かが判定される。これは、AFエリアセンサ12の全撮像領域のセンサデータと積分時間より、各画素の輝度データの平均値が求められて、所定値より小さいか否かにより低輝度か否かが判定されるものである。
【0058】
また、ステップS22では、高輝度画素の分布が調査される。ここでは、所定レベルより大きい値を示すセンサデータの画素がピックアップされる。そして、その分布が連続する領域の面積が、所定値より小さいものが多いか否かが判定される。
【0059】
上記ステップS21及びS22とも条件を満たす場合は、夜景シーンであると判定されて、夜景モードのステップS23に移行する。一方、何れかの条件が満たされない場合は、ノーマルモードであるとして、ステップS31に移行する。
【0060】
ステップS23では、ストロボ回路部24よりストロボ23がプリ発光される。そして、そのタイミングでAFエリアセンサ12が積分動作されて、ストロボプリ発光による被写体からの反射光が検出される(図6(a)、(b)、(e)参照)。
【0061】
次いで、ステップS24にて、AFエリアセンサ12からセンサデータが読出される(図6(c)参照)。ステップS25では、プリ発光なしの通常積分時のセンサデータと、プリ発光積分時のセンサデータの差が求められる。
【0062】
そして、ステップS26に於いて、所定の各測距エリアについて所定値以上の差があるか否かが判定される。ここで、センサデータの差が大きいエリアについては、ステップS27に移行して公知の測距演算が行われる(図14参照)。一方、所定値以上でなければステップS30へ移行する。
【0063】
次に、ステップS28に於いて、上記測距結果が近距離か否かが判定される。ここで、近距離の場合はステップS29に移行し、露出モードとして、夜景を背景にして人物を撮影する、いわゆる夜景ポートレートモードが設定される。夜景ポートレートモードでは、近距離の主要被写体が適正露出となるようにストロボ光が照射されると共に、背景の夜景も適正露出となるようにシャッタに露光時間が長く設定される。
【0064】
上記ステップS28に於いて近距離ではない場合、及び上記ステップS26で所定値以上の差がない場合は、ステップS30に移行して、通常風景の夜景を撮影する通常夜景モードが設定される。
【0065】
通常夜景モードの場合は、露出モードとして、ストロボ23は発光させず、夜景に対して適正露出となるようにシャッタの露光時間が長くされる。
【0066】
また、夜景モードではない場合は、ノーマルモードとして、ステップS31にて、予め決定された所定エリア毎の測距演算が行われ、より近距離側の測距結果が選択される。
【0067】
次に、夜景シーンの判定方法について説明する。
【0068】
図8は、夜景を背景として人物を撮影する典型的なシーンを示したものである。この場合、街灯38a〜38d及びネオンサイン39等が、主要被写体40の後方に配置されている。
【0069】
図9は、このような撮影シーンでのAFエリアセンサ12のセンサデータを3次元的に示した図である。
【0070】
したがって、夜景シーンの判定には以下のような特徴を有している。
すなわち、
(a) 全体的には低輝度である。
画素毎または所定エリア毎の輝度を求め、その平均値を算出し、所定値と比較する。
(b) 高輝度部分は面積的には小さく、且つ点在している。
(c) 低輝度部分は面積的に大きい範囲を占める。
【0071】
図10は、連続する高輝度部分及び低輝度部分の面積を算出し、輝度と面積の関係を示す分布図である。
【0072】
図10に示されるように、高輝度部分と低輝度部分の面積の比率により、夜景シーンが判定される。
【0073】
次に、図11のフローチャートを参照して、サブルーチン“夜景判定処理”の他の動作例について説明する。
【0074】
先ず、ステップS41に於いて、平均輝度と所定スレッシュBthが比較される。次いで、ステップS42にて、所定値より高輝度の画素が連続する部分の数がカウントされ(Sa)、続くステップS43にて、所定値より低輝度の画素が連続する部分の数がカウントされる(Sb)。
【0075】
そして、ステップS44に於いて、上記エリア数Saと所定の判定値mとが比較され、続いてステップS45にて、上記エリア数Sbと所定の判定値nとが比較される。
【0076】
上記ステップS44及びS45に於いて、Sa>m、Sb<nが満たされた場合は夜景シーンと判定され、夜景モードとなる。その他は、夜景シーン以外と判定されてノーマルモードに入る。
【0077】
これ以降の、夜景モード及びノーマルモードを実行するステップS46〜S53及びステップS54の処理動作は、上述した図7のフローチャートに於けるステップS23〜S30及びステップS31と同じであるので、説明は省略する。
【0078】
ここで、上述した夜景ポートレートモードと通常の夜景モードについて説明する。
【0079】
図12は、図9の撮影シーンに於いて、ストロボをプリ発光してAFエリアセンサ12が積分する場合のAFエリアセンサデータを3次元的に示した図である。
【0080】
また、図13は、プリ発光なしのデータとプリ発光ありのデータを比較して、差のある部分を抽出したデータを3次元的に示した図である。
【0081】
輝度ピーク値で、両方のデータを規格化してから対応するセンサデータまたはエリア毎に差をとる。
【0082】
このように、近距離に人物等の被写体が存在する場合は、画像に差が発生するので、この部分に主要被写体が存在すると判定される(夜景ポートレートモード)。
【0083】
そして、上記差が発生したエリアについてのみ、測距演算が行われる(図14参照)。
【0084】
次に、この発明の第2の実施の形態について説明する。
【0085】
この第2の実施の形態は、上述した第1の実施の形態に於ける夜景シーン判定方法を変形したものである。
【0086】
図15は、AFエリアセンサデータのコントラスト分布を示した図である。
【0087】
具体的なコントラスト値としては、1個の画素のセンサデータとその周辺画素のセンサデータとの差の絶対値の和が各画素について算出され、撮影画面に対応するエリアについて上記コントラスト値が総和される。
【0088】
夜景シーンの場合、高輝度部と低輝度部の輝度差が大きいので、このようにコントラストが大きくなる。
すなわち、
(d) 平均輝度が低い。上記(a)と同じ。
(e) 撮影画面内のコントラストの和が所定値より大きい。
【0089】
所定エリア毎のコントラストの和が求められ、更に撮影画面に対応する全エリアに上記コントラストが積算されて所定値と比較される。
【0090】
次に、図16のフローチャートを参照して、第2の実施の形態に於けるサブルーチン“夜景判定処理”の動作を説明する。
【0091】
先ず、ステップS61に於いて、平均輝度と所定値Bthとが比較される。次いで、ステップS62に於いて、撮影画面全体コントラストと所定スレッシュCthとが比較される。
【0092】
上記ステップS61及びS62にて、平均輝度<Bth、コントラスト>Cthの条件が満たされた場合、夜景シーンと判定され、そうでない場合はノーマルモードとなる。
【0093】
以降の夜景モード及びノーマルモードを実行するステップS63〜70及びステップS71の処理動作は、上述した図7のフローチャートに於けるステップS23〜S30及びステップS31と同じであるので、説明は省略する。
【0094】
次に、この発明の第3の実施の形態を説明する。
【0095】
この第3の実施の形態は、上述した第1の実施の形態と、夜景ポートレートモードと通常夜景モードの判定が異なっている。
【0096】
図17は、輝度と、対応する輝度の画素数(またはエリア数)の関係を示すグラフである。
【0097】
図17に示されるように、夜景シーンでは、低輝度部と高輝度部に分布が偏り、中輝度部の分布が少ない(図示実線部)。
【0098】
主要被写体が近距離に存在する場合は、プリ発光なしの場合とプリ発光ありの場合の分布が異なり、プリ発光ありの場合は中輝度部分が増加する(図示破線部)。
【0099】
被写体が近距離にいない場合は、上記分布の変化はほとんどない。
【0100】
以上より、
(f) 高輝度部分と低輝度部分に分布が偏り、中輝度部分に分布が少ない場合は夜景シーンと判定する。
(g) プリ発光なしとプリ発光ありとで分布に変化がある場合は、夜景を背景とする人物撮影と判定する。
(h) プリ発光なしとプリ発光ありとで分布に変化がない場合は、通常風景の夜景を撮影する通常夜景シーンと判定する。
【0101】
次に、図18のフローチャートを参照して、第3の実施の形態に於けるサブルーチン“夜景判定処理”の動作について説明する。
【0102】
ステップS81では、先ず、撮影画面に対応する測距エリアのうち所定値より高輝度な画素の数がカウントされてBHCとされる。次いで、ステップS82にて、同様に、所定の中輝度範囲に含まれる画素の数がカウントされてBMCとされる。更に、ステップS83では、同様に所定より低輝度の画素数がカウントされてBLCとされる。
【0103】
そして、ステップS84、S85及びS86に於いて、上記BMC、BMC及びBLCが、それぞれ所定の判定値a、b、cと比較される。
【0104】
上記ステップS84〜S86に於いて、BHC>a、BMC<b、且つBMC<cが満足された場合に、夜景シーンと判定され、夜景モードに入る。したがって、ステップS87では、ストロボプリ発光が行われながらAFエリアセンサ12の積分が行われる。
【0105】
次いで、ステップS88にて、AFエリアセンサ12よりセンサデータが読出される。更に、ステップS89では、撮影画面に対応する測距エリアから、中輝度の画素数がカウントされてBMC´とされる。
【0106】
そして、ステップS90に於いて、上記BMC´が所定値b´と比較される。ここで、BMC´>b´の場合は、夜景の前には主要被写体が存在すると判定され、ステップS91に移行して、中輝度画素が増加したエリアで測距演算が行われる。
【0107】
また、ステップS92では、上記測距演算の結果により被写体が近距離に存在するか否かが判定される。その結果、被写体が近距離である場合は、ステップS93に移行して、夜景ポートレートモードに設定される。
【0108】
上記ステップS90でBMC´>b´でない場合、及びステップS92に於いて近距離ではない場合は、ステップS94に移行して、通常夜景モードが設定される。
【0109】
上記ステップS84〜S86に於いて、何れかの条件が満たされない場合は、ノーマルモードであるとして、ステップS95に移行する。そして、予め決定された所定エリア毎の測距演算が行われる。
【0110】
ここで、図19を参照して、スーパーコンビネーションAFと称される新たなオートフォーカス技術について説明する。
【0111】
尚、このスーパーコンビネーションAFとは、アクティブ方式とバッシブ方式を単にハイブリッド的に組合わせたものではなく、2つの方式を用いて主要被写体検知まで行うようにしたものである。
【0112】
図19(a)は、被写体をこの方式のAFで測距しているところを示したもので、主要な部分の構成を示したブロック図である。
【0113】
同図に於いて、CPU50はカメラ制御用のマイクロコンピュータで構成されるもので、内部にパターン制御部51を有している。また、CPU50は、測光部52に接続されている。
【0114】
この測光部52には、被写体53からの光を導く2つの受光レンズ54a、54bと、上記被写体53からの光を受像する2つのエリアセンサ55a、55bと、A/Dコンバータ(ADC)56と、定常光除去回路57とを有して構成される。
【0115】
更に、上記CPU50には、光源59を発光制御するための発光部60と、音声信号発生部61とが接続されている。
【0116】
図19(a)に於いて、2つの受光レンズ54a、54bから入射された被写体53からの光は、2つのエリアセンサ55a、55bに入射される。これらのエリアセンサ55a、55bでは、被写体像が受像されて光電変換される。そして、その出力はA/Dコンバータ56で各画素のデジタル値に変換されて、CPU50に供給される。
【0117】
また、エリアセンサ55a、55bに接続されている定常光除去回路57が制御されると、被写体53から定常的に入射される直流的な光の信号が除去される。これにより、光源59からのパルス光のみが出力信号として得られるようになっている。
【0118】
したがって、定常光除去回路57を作動させた状態でCPU50が発光部60を制御して光源59等を照射すると、その反射信号光が、被写体53から返ってきて、例えばエリアセンサ55a上に、図19(b)に示されるような像が結ばれる。
【0119】
図19(b)は、黒い部分に光が入射したところを示した図である。こうしたエリアセンサ上の像のパターンを分析するソフトウエアがCPU50内には組込まれていて、人間の形であることが判定されれば、これを主要被写体と考えることができる。
【0120】
したがって、図20に示されるようなフローチャートによる測距が考えれる。
【0121】
先ず、ステップS101にて、測距に先立って光源59が照射され、定常光除去回路57により反射信号光のパターンのみが、図19(b)に示されるように取出される。次いで、ステップS102にて該反射信号光のパターンが判別され、更にステップS103にて、夜景部分が除外される。
【0122】
そして、ステップS104に於いて、このパターンが人物の形状等から主要被写体か否かが判定される。
【0123】
ここで、主要被写体が検知されない場合は、ステップS105に移行して、輝度情報等が加味されて、アクティブ方式、またはバッシブ方式が選択された後、被写体の存在確率の高い画面中央部が重点的に測距される。次いで、ステップS106にて、この中央測距に応じた音声が音声信号発生部61より発音される。
【0124】
一方、上記ステップS104に於いて、主要被写体が検知された場合は、ステップS107に移行して、上記パターンを形成する光信号が弱いかどうか、或いは十分なコントラストがあるかが判定される。すなわち、ステップS107では、測距方式が、信号光をカメラ側から投射して、その反射信号光を用いて測距する、いわゆるアクティブタイプと、被写体の像信号を基に測距する、いわゆるパッシブタイプの何れの方式を用いるかの選択が行われる。
【0125】
つまり、反射信号光が弱いと判定された場合は、パッシブ方式のAFの方が適しているとして、ステップS108に移行する。そして、このステップS108にて、すでに求められた主要被写体位置の像信号が重点的に用いられたパッシブ方式による測距が行われる。その後、ステップS109にて、このパッシブAFに対応した音声が音声信号発生部61から発音される。
【0126】
一方、上記ステップS107にて、像信号のコントラストが弱い場合には、ステップS110に移行する。そして、このステップS110及びS111にて、再度測距用光が照射されて、その反射信号光によるアクティブAFが、先に求められた主要被写体位置に対して重点的に行われる。その後、ステップS112にて、このアクティブAFに対応した音声が音声信号発生部61より発音される。
【0127】
これらの測距方式、または主要被写体の判定の可否に従って、CPU50が音声信号を選択して出力制御すれば、ユーザにわかりやすく、このスーパーコンビネーションAFの特徴をアピールしながら安心感のある測距が可能となる。
【0128】
図21は、この発明の第4の実施の形態として、上述したスーパーコンビネーションAFが適用されたカメラの外観図である。
【0129】
上述したスーパーコンビネーションAFが適用されたカメラであっても、図22に示されるようなシーンでは、画面が煩雑なので、カメラもどれが主要被写体かを判断できずに迷うことがある。
【0130】
基本的には、図22(a)に示されるように、真中にいる人物65の形のパターンを優先すればかなりの確率で合焦となる。しかしながら、条件によっては、誤って図22(b)に示されるようにビン66に合焦してしまったり、或いは撮影者が、図22(c)に示されるように周辺の人物67にピントを合わせたい場合もある。
【0131】
この場合は、カメラ63に設けられた次候補スイッチ64の操作によって、次のピント合わせ候補をCPUが判断して、ファインダ内のドットマトリックスLCDによって指示することによりユーザにわかるようにすれば、多くの不満は解消される。
【0132】
また、このように一眼レフレックスカメラに応用すれば、ピントが合っているか否かを撮影レンズを介して判別できるので、ユーザにはいっそうピント位置の確認が容易となり、失敗のないカメラを提供することができる。
【0133】
更に、上述した実施の形態以外に、次のような変形例が考えられる。
【0134】
夜景シーンと判定された場合、算出されたシャッタ秒時が手ぶれを発生するような長秒時の時には、表示部25により、三脚の使用を促す警告表示を行うようにしても良い。
【0135】
また、LCD表示上に点滅表示をさせたり、PCV等を使用して音声による警告を発しても良い。
【0136】
更に、磁気記録部付きフィルムを使用する場合は、三脚が不要となるような、より高ISOのフィルムを使用するように警告表示を行うようにしても良い。この場合、手ぶれが発生しないシャッタ秒時となるISO感度をLCD表示に表示しても良い。
【0137】
これにより、撮影者はMRC機能により、現在カメラ内にあるフィルムを巻戻して、取出し、代わりに高ISOフィルムに交換して撮影を行うことができ、三脚が不要で、且つ手ぶれのない撮影を行うことができる。
【0138】
次に、この発明の第5の実施の形態について説明する。
【0139】
この第5の実施の形態では、撮像素子で撮像して撮影するデジタルカメラに適用した場合を説明する。
【0140】
デジタルカメラは、夜景撮影の場合、高輝度部の色とび、S/Nの劣化等により、画像が不自然になるという問題がある。したがって、こうした夜景撮影に於ける画像の不自然さを解消することが望まれている。
【0141】
図23は、第5の実施の形態に係るデジタルカメラの構成を示したブロック図である。
【0142】
図23に於いて、撮影レンズ71を通過した被写体光は、絞り72を介して、CCD等で構成される撮像素子73に結像される。撮像素子73の出力は、相関2重サンプリングを行い画像信号からリセットノイズを除去するCDS部74及びサンプルホールド回路を構成するS/H部75、A/Dコンバータ(ADC)76を介して、デジタル画像信号に各種処理を行うプロセス処理部77に供給される。このプロセス処理部77は、オートゲインコントロールを行うAGC・γ補正部77aと、画像信号より夜景シーンを判定する夜景判定部77bとを有している。
【0143】
上記プロセス処理部77は、測光部79及び絞り制御部80を経て、絞り72を制御して撮像素子への入射光量を規制する。また、上記プロセス処理部77は、画像信号を記憶するDRAM81、画像信号を圧縮してデータ量を減らす圧縮伸長部82を介して、圧縮された静止画データを記録する記録媒体83が接続されている。
【0144】
次に、このように構成されたデジタルカメラの動作について説明する。
【0145】
撮影レンズ71、絞り72を通過した光束が、撮像素子73に入射される。そして、この撮像素子73に入射された光は、ここで光電変換された後、CDS部74、S/H部75を経て、A/Dコンバータ76にてA/D変換されてデジタル信号に変換される。
【0146】
プロセス処理部77では、上記デジタル信号を受けて、AGC・γ補正部77aによるゲインコントロール処理やγ変換処理等の処理が行われる。また、夜景判定部77bでは、画像データが処理されて夜景シーンが判定される。
【0147】
測光部79では、プロセス処理部77の出力に基いて測光露出演算が行われて、絞り72の開口値や撮像素子73の電子シャッタスピードが算出される。そして、絞り制御部80では、測光部79の出力に基いて絞り72の制御が行われる。
【0148】
プロセス処理部77により処理された画像信号は、DRAM81に一旦記憶された後、圧縮伸長部82にて圧縮されてデータ量が減らされる。そして、記録媒体83には上記圧縮伸長部82で圧縮された静止画データが記録される。
【0149】
次に、図24のフローチャートを参照して、夜景判定の動作について説明する。
【0150】
先ず、ステップS121にて、撮影レンズ71、絞り72を介して取込まれた被写体光束に対し、撮像素子73により撮像素子積分動作が行われる。次いで、ステップS122にて、CDS部74、S/H部75及びアナログ−デジタル変換器76により、画像信号が読出される。
【0151】
更に、ステップS123では、プロセス処理部77内の夜景判定部77bにより、分割エリア毎に輝度算出(以下、夜景判定部77bによる処理と記す)される。
【0152】
そして、ステップS124に於いて、平均輝度値と所定値Bthとが比較される。次いで、ステップS125にて、分割エリアコントラストと所定値Cthとが比較される。
【0153】
上記ステップS124及びS125に於いて、輝度平均値<Bth、且つ分割エリアコントラスト>Cthの場合、夜景シーンと判定されてステップS126に移行する。また、上記ステップS124、S125で何れかの条件が満たされていない場合は、ノーマルモードとして本ルーチンを抜ける。
【0154】
ステップS126では、夜景モードとして、AGC・γ補正部のゲインが低下される。
【0155】
尚、夜景判定部77bでは、撮像素子73の受光エリアを、図25に示されるように、複数の分割エリアに分割して処理が行われる。
【0156】
また、上記分割エリアコントラストとは、分割エリア毎にその周辺分割エリアとの輝度値の差を求め、その絶対値の和を求め、更に全分割エリアの上記値を加算したものを表している。
【0157】
夜景シーンのような低輝度では、AGC・γ補正部77aのゲインが非常に高く設定されるので、夜景の暗い部分のノイズが目立ってしまう。そこで、夜景シーンを自動的に判別してゲインを低下させることにより、ノイズの発生を抑えることができる。
【0158】
また、上述した第5の実施の形態の変形例として、図24に於けるフローチャートのステップS126の処理を、次のようにすることも可能である。
【0159】
すなわち、夜景モードと判定されると、高輝度部分の圧縮特性を変化させて色の改善が行われる。
【0160】
AGC・γ補正部77aの高輝度部圧縮特性を、図26に示されるように変化させてラチチュードを改善し、白くとびすぎるのを防止すると共に、色を改善する。
【0161】
以上のように、夜景シーンに於いて、低輝度部のノイズ低減、高輝度部分のラチチュード、色が改善され夜景シーンでも自然な画像が得られる。
【0162】
尚、この発明の上記実施の形態によれば、以下の如き構成を得ることができる。
【0163】
(1) 撮像素子の撮像出力に基いて夜景シーンを判別し、夜景シーンに適した撮影モードを設定することを特徴とするカメラ。
【0164】
(2) 被写体を撮像する撮像素子と、
上記撮像素子の出力に基いて夜景シーンを判別する判別手段と、
上記判別手段の出力に基いて撮影モードを設定する撮影モード設定手段と、
を具備することを特徴とするカメラ。
【0165】
(3) 上記撮像素子はAF用のエリアセンサであることを特徴とする上記(1)若しくは(2)に記載のカメラ。
【0166】
(4) 撮影画面内の輝度分布を検出する像検出手段と、
上記像検出手段の出力結果より、所定範囲内の輝度が連続する領域を判別する判別手段と、
上記判別された領域の面積判断を行う面積判断手段と、
を有することを特徴とするカメラ。
【0167】
(5) 撮影画面内の輝度分布を検出する像検出手段と、
上記像検出手段の出力結果より、その平均的な輝度情報と、連続して所定輝度を出力する領域の面積判断結果に基いて、撮影モードを決定する決定手段と、
を有することを特徴とするカメラ。
【0168】
(6) 上記判別手段は、撮像素子の出力の平均と、所定輝度より高輝度な部分の面積、及び所定輝度より低輝度な部分の面積と共に基いて夜景シーンを判別することを特徴とする上記(1)に記載のカメラ。
【0169】
【発明の効果】
以上のようにこの発明によれば、エリアセンサの撮像信号に基いて、夜景等の撮影シーンを判別し、それに応じたカメラ動作を行うので、使い勝手の良いカメラを提供することが可能となる。
【図面の簡単な説明】
【図1】この発明の第1の実施の形態に係るカメラの構成を示したブロック図である。
【図2】図1の光学系、AFエリアセンサ12の配置を示した図である。
【図3】撮影画面(ワイドとテレ)と測距エリアの関係を示した図である。
【図4】第1の実施の形態に於けるカメラのメインルーチンを説明するフローチャートである。
【図5】AF動作を説明するためのフローチャートである。
【図6】AF動作を説明するためのタイミングチャートである。
【図7】サブルーチン“夜景判定処理”の動作を説明するためのフローチャートである。
【図8】夜景を背景として人物を撮影する典型的なシーンを示した図である
【図9】図8のような撮影シーンでのAFエリアセンサ12のセンサデータを3次元的に示した図である。
【図10】連続する高輝度部分及び低輝度部分の面積を算出し、輝度と面積の関係を示す分布図である。
【図11】サブルーチン“夜景判定処理”の他の動作例について説明するフローチャートである。
【図12】図9の撮影シーンに於いて、ストロボをプリ発光してAFエリアセンサ12が積分する場合のAFエリアセンサデータを3次元的に示した図である。
【図13】プリ発光なしのデータとプリ発光ありのデータを比較して、差のある部分を抽出したデータを3次元的に示した図である。
【図14】近距離に人物等の被写体が存在する場合の撮影画面に対する選択された測距エリアを示した図である。
【図15】この発明の第2の実施の形態を説明するもので、AFエリアセンサデータのコントラスト分布を示した図である。
【図16】第2の実施の形態に於けるサブルーチン“夜景判定処理”の動作を説明するフローチャートである。
【図17】この発明の第3の実施の形態を説明するもので、輝度と、対応する輝度の画素数(またはエリア数)の関係を示すグラフである。
【図18】第3の実施の形態に於けるサブルーチン“夜景判定処理”の動作について説明するフローチャートである。
【図19】スーパーコンビネーションAFと称される新たなオートフォーカス技術について説明する図である。
【図20】スーパーコンビネーションAFに於ける測距の動作を説明するフローチャートである。
【図21】この発明の第4の実施の形態として、上述したスーパーコンビネーションAFが適用されたカメラの外観図である。
【図22】第4の実施の形態に於けるカメラによる合焦を説明する図である。
【図23】この発明の第5の実施の形態に係るデジタルカメラの構成を示したブロック図である。
【図24】第5の実施の形態による夜景判定の動作について説明するフローチャートである。
【図25】撮像素子73の受光エリアを複数の分割エリアに分割した例を示した図である。
【図26】AGC・γ補正部77aの高輝度部圧縮特性を示した図である。
【符号の説明】
11 マイクロコンピュータ、
11a CPU(中央処理装置)、
11b ROM、
11c RAM、
11d アナログ−デジタル(A/D)コンバータ(ADC)、
11e EEPROM、
12 AFエリアセンサ、
12a 撮像領域、
12b 処理回路、
13 フォーカスレンズ、
14 フォーカスレンズ駆動部、
15 フォーカスレンズエンコーダ、
16 ズームレンズ駆動部、
17 測光用受光素子、
18 測光部、
19 シャッタ駆動部、
20 フィルム駆動部、
23 ストロボ、
24 ストロボ回路部、
25 表示部、
26 ファーストレリーズスイッチ(1RSW)、
27 セカンドレリーズスイッチ(2RSW)、
30 被写体、
31a、31b 受光レンズ、
33 AFエリアセンサ12の検出エリア(測距エリア)。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a camera, and more particularly to a camera capable of determining a night scene and performing a shooting operation suitable for the night scene.
[0002]
[Prior art]
Conventionally, many cameras have been developed that are devised when shooting night scenes.
[0003]
For example, Japanese Patent Application Laid-Open No. Hei 7-199039 discloses a camera that allows a photographer to set a night view mode and take a picture when shooting a night view scene. This camera performs AF by projecting auxiliary light onto a subject.
[0004]
Further, in the camera described in Japanese Patent Laid-Open No. 5-249369, when the pixel data of the AF sensor is distributed in a high luminance part and a low luminance part, it is determined that the person has a bright background and the integration of the AF sensor A technique is disclosed in which AF detection is performed with emphasis on the low-luminance part by extending the time and integrating again.
[0005]
[Problems to be solved by the invention]
However, the camera described in Japanese Patent Laid-Open No. 7-199039 has a problem that it is troublesome for the photographer to set the night view mode in accordance with the photographing scene.
[0006]
Further, in the camera described in Japanese Patent Laid-Open No. 5-249369, since the luminance is detected by one line sensor, there is a problem that the detection area is narrow and a high-contrast subject is erroneously recognized. ing. Furthermore, there is a problem that it cannot be distinguished from a night view unless a bright part enters the detection area.
[0007]
The present invention has been made in view of the above problems, and an object of the present invention is to provide a camera capable of automatically discriminating a night scene and performing a photographing operation suitable for the night scene without setting by the photographer.
[0008]
[Means for Solving the Problems]
That is, the present invention provides an imaging unit, a luminance distribution detection unit that detects a luminance distribution in a photographing screen based on an output result of the imaging unit, and a region where predetermined luminance is continuous based on an output result of the luminance distribution detection unit. A luminance region discriminating unit for discriminating and a region where the predetermined luminance is continuous based on the output result of the luminance region discriminating unit Face of An arithmetic means for calculating the product and an output of the arithmetic means As a result of the determination as to whether or not the area of the region where the distribution of pixels having higher luminance than the predetermined luminance is less than or equal to the predetermined value and the luminance in the photographing screen based on the output of the luminance distribution detecting means is predetermined Based on the result of determining whether the brightness is lower than the value And a photographing mode determining means for determining the photographing mode.
[0010]
In the camera of the present invention, the luminance distribution in the photographing screen is detected by the luminance distribution detecting means based on the output result of the imaging means. Then, based on the output result of the luminance distribution detection means, an area where predetermined luminance continues is determined by the luminance area determination means. Further, based on the output result of the luminance region discriminating means, the region where the predetermined luminance is continuous Face of The product is calculated by the calculation means. Output of this calculation means As a result of the determination as to whether or not the area of the region where the distribution of pixels having higher luminance than the predetermined luminance is less than or equal to the predetermined value and the luminance in the photographing screen based on the output of the luminance distribution detecting means is predetermined Based on the result of determining whether the brightness is lower than the value The shooting mode is determined by the shooting mode determination means.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
[0013]
FIG. 1 is a block diagram showing the configuration of a camera according to the first embodiment of the present invention.
[0014]
In FIG. 1, a microcomputer 11 is a system controller that controls the entire camera, and includes a CPU (central processing unit) 11a, ROM 11b, RAM 11c, and an analog-digital (A / D) converter (ADC). 11d and EEPROM 11e.
[0015]
The CPU 11a performs a series of operations according to a sequence program stored in the ROM 11b. The EEPROM 11e stores correction data relating to AF, photometry / exposure calculation, and the like for each camera.
[0016]
The microcomputer 11 is connected to an AF area sensor 12 that captures a subject image formed by a distance measuring optical system and converts it into sensor data that is an electrical signal. The area sensor 12 includes a light receiving element group that is two-dimensionally arranged in the horizontal direction and the vertical direction as the imaging region 12a, and a processing circuit 12b for these light receiving element groups.
[0017]
The microcomputer 11 includes a focus lens driving unit 14 for driving the focus lens 13, a focus lens encoder 15 for generating a pulse signal corresponding to the amount of movement of the focus lens 13, and a zoom lens driving unit 16. A photometry unit 18 having a photometric light-receiving element 17, a shutter drive unit 19, a film drive unit 20, a strobe circuit unit 24 having a strobe 23, a display unit 25, a first release switch (1RSW) 26, and A second release switch (2RSW) 27 is connected.
[0018]
In the microcomputer 11, the integration operation of the AF area sensor 12 and the reading control of the sensor data are performed, and the distance measurement calculation is performed by processing the sensor data output from the area sensor 12. Based on the distance measurement calculation result, a drive signal is output from the microcomputer 11 to the focus lens drive unit 14, and the output of the focus lens encoder 15 is monitored to control the position of the focus lens 13.
[0019]
In the zoom lens driving unit 16, a zoom operation is performed under the command of the microcomputer 11.
[0020]
In the photometry unit 18, the photocurrent signal generated by the photometry light-receiving element 17 is processed to generate a photometry output. In the microcomputer 11, this photometric output is A / D converted by the A / D converter 11d to perform photometric exposure calculation.
[0021]
The shutter drive unit 19 drives a shutter (not shown) based on a command from the microcomputer 11.
[0022]
In the film driving unit 20, film driving operations such as auto-loading, one-frame winding, and rewinding are performed under the command of the microcomputer 11.
[0023]
The strobe circuit 24 has a function of causing the strobe 23 to emit light as an auxiliary light source during photographing. The microcomputer 11 performs charging and light emission control of the strobe circuit unit 24. The strobe circuit unit 24 is also operated as AF auxiliary light during the distance measuring operation.
[0024]
The display unit 25 displays information inside the camera on a display element such as an LCD, and is controlled by the microcomputer 11.
[0025]
The first release switch 26 and the second release switch 27 are switches linked to a release button (not shown). The first release switch 26 is turned on when the release button is pushed down in the first stage, and the second release switch 27 is turned on when the release button is pushed down. The microcomputer 11 controls the AF and photometry operations when the first release switch 26 is turned on and the exposure operation and film winding operation when the second release switch 27 is turned on.
[0026]
Next, the distance measuring optical system will be described.
[0027]
FIG. 2 is a diagram showing the arrangement of the optical system and the AF area sensor 12 described above.
[0028]
Here, a so-called passive method for measuring a distance based on an image signal of a subject will be described.
[0029]
In the passive method, when measuring the distance to the subject, the light receiving lenses 31a and 31b are arranged with a base line length B, and the image of the subject 30 is divided into two images to be captured in the imaging region 12a of the AF area sensor 12. Make an image.
[0030]
The relative position difference x between the two images is obtained from the focal length f of the light receiving lens and the base length B by the following formula (1) based on the principle of triangulation.
L = (B · f) / x (1)
FIG. 3 is a diagram showing the relationship between the shooting screen (wide and tele) and the ranging area.
[0031]
Since distance measurement is based on the external light passive method, there is a parallax between the imaging screen and the distance measurement area.
[0032]
As shown in FIG. 3, the areas of the standard, tele, and wide shooting screens 34, 35, and 36 are different from the detection area (ranging area) 33 of the AF area sensor 12.
[0033]
Therefore, the area used for distance measurement is limited according to the focal length information (zoom information) of the imaging optical system.
[0034]
The distance measurement area position correction data corresponding to such a change in focal length is stored in advance in the EEPROM 11e, and is expanded in the RAM 11c together with the initialization of the microcomputer 11. The correction data is referred to according to the zoom operation, and the distance measurement area used for the distance measurement operation in the imaging area of the AF area sensor 12 is determined. Then, a distance measurement calculation is performed based on the sensor data within the distance measurement area range.
[0035]
Further, the microcomputer 11 outputs a control signal to the AF area sensor 12 so that a peak monitor for integration control corresponding to the distance measurement area is generated. Then, the AF area sensor 12 outputs a peak signal within the range of the designated distance measuring area to the microcomputer 11.
[0036]
The microcomputer 11 is controlled so that the integration amount becomes a predetermined level with reference to the monitor signal (see FIG. 6).
[0037]
In this way, the influence of the subject outside the shooting screen is prevented.
[0038]
Even when sensor data is read, the correction data of the distance measuring area corresponding to the shooting screen is referred to so that unnecessary sensor data outside the shooting screen is skipped and not stored in the RAM 11c.
[0039]
Alternatively, a readout range setting signal is output to the AF area sensor 12 so that only necessary sensor data is output.
[0040]
Next, the main routine of the camera in the present embodiment will be described with reference to the flowchart of FIG.
[0041]
When a power switch (not shown) is turned on or a battery is loaded in the camera, the operation of the microcomputer 11 is started and the sequence program stored in the ROM 11b is executed.
[0042]
That is, first, in step S1, each block in the camera is initialized. Then, the data stored in the EEPROM 11e is expanded in the RAM 11c.
[0043]
Next, in step S2, the state of the first release switch 26 is detected. If the first release switch 26 is not turned on, the process proceeds to step S8.
[0044]
When the first release switch 26 is turned on in step S2, the process proceeds to the subsequent step S3 and the AF operation is executed. Next, in step S4, photometry and exposure calculation are performed.
[0045]
In step S5, the state of the second release switch 27 is detected. If the second release switch 27 is not turned on, the process proceeds to step S2.
[0046]
On the other hand, when the second release switch 27 is turned on, the process proceeds to step S6, and the film is exposed by the shutter operation. Next, in step S7, one frame of the film is wound up. Thereafter, the process proceeds to step S2.
[0047]
In step S8, the input state of switches other than the first release switch 26 and the second release switch 27 is detected.
[0048]
In step S8, if there is no other switch input, the process proceeds to step S2. On the other hand, if there is a switch input other than the first release switch 26 and the second release switch 27, the process proceeds to step S9, and processing corresponding to the switch input is executed. For example, zoom-up / down processing is performed in response to a zoom switch up / down input. Thereafter, the process proceeds to step S2.
[0049]
Next, the AF operation will be described with reference to the flowchart of FIG. 5 and the timing chart of FIG.
[0050]
First, in step S11, an integration control signal is output from the AF area sensor 12, and an integration operation is performed. The AF area sensor 12 outputs a monitor signal corresponding to a peak (brightest pixel) output within a predetermined range. While referring to this monitor signal, the integration time is adjusted so that the amount of light received by the light receiving portion of the AF area sensor 12 is appropriate (see FIGS. 6A and 6B).
[0051]
Next, in step S <b> 12, the read clock CLK is output to the AF area sensor 12. Thereby, sensor data (pixel data) is output to the A / D converter 11d, A / D converted, read out, and stored in the RAM 11c (see FIGS. 6C and 6D).
[0052]
In step S3, a night view determination routine is started. In a succeeding step S14, it is determined whether or not it is a night scene. If the scene is a night scene, the process proceeds to step S15 to execute night scene processing. On the other hand, if it is not a night scene, the process proceeds to step S16 and normal processing is executed.
[0053]
Thereafter, when the focus lens 13 is driven in step S17, the routine is exited.
[0054]
The above-described steps S13 to S16 constitute a subroutine “night scene determination process”.
[0055]
Next, the night view determination / processing routine will be described with reference to FIGS.
[0056]
FIG. 7 is a flowchart (corresponding to steps S13 to S16 in FIG. 5) for explaining the operation of the subroutine “night scene determination process”.
[0057]
First, in step S21, it is determined whether or not the brightness is low. This is because the average value of the luminance data of each pixel is obtained from the sensor data of all the imaging areas of the AF area sensor 12 and the integration time, and whether or not the luminance is low is determined by whether or not it is smaller than a predetermined value. It is.
[0058]
In step S22, the distribution of high-luminance pixels is examined. Here, pixels of sensor data showing a value larger than a predetermined level are picked up. Then, it is determined whether or not there are many areas where the distribution continues are smaller than a predetermined value.
[0059]
If both of the above steps S21 and S22 satisfy the conditions, it is determined that the scene is a night scene, and the process proceeds to step S23 in the night scene mode. On the other hand, if any one of the conditions is not satisfied, it is determined that the normal mode is set, and the process proceeds to step S31.
[0060]
In step S <b> 23, the strobe 23 is pre-flashed from the strobe circuit unit 24. At that timing, the AF area sensor 12 is integrated, and the reflected light from the subject due to the strobe pre-emission is detected (see FIGS. 6A, 6B, and 6E).
[0061]
Next, in step S24, sensor data is read from the AF area sensor 12 (see FIG. 6C). In step S25, the difference between the sensor data at the time of normal integration without pre-emission and the sensor data at the time of pre-emission integration is obtained.
[0062]
Then, in step S26, it is determined whether or not there is a difference greater than or equal to a predetermined value for each predetermined distance measurement area. Here, for an area where the difference in sensor data is large, the process proceeds to step S27 and a known distance measurement calculation is performed (see FIG. 14). On the other hand, if it is not more than the predetermined value, the process proceeds to step S30.
[0063]
Next, in step S28, it is determined whether or not the distance measurement result is a short distance. Here, in the case of a short distance, the process proceeds to step S29, and a so-called night view portrait mode in which a person is photographed against a night view is set as the exposure mode. In the night view portrait mode, the strobe light is irradiated so that the main subject at a short distance is appropriately exposed, and the exposure time is set to be long for the shutter so that the background night scene is also properly exposed.
[0064]
If it is not a short distance in step S28 and if there is no difference greater than a predetermined value in step S26, the process proceeds to step S30, and the normal night view mode for shooting the night view of the normal landscape is set.
[0065]
In the normal night view mode, as the exposure mode, the flash 23 does not emit light, and the exposure time of the shutter is lengthened so that the night view is properly exposed.
[0066]
When the mode is not the night view mode, the normal mode is selected, and in step S31, a predetermined distance measurement calculation is performed for each predetermined area, and the distance measurement result on the closer side is selected.
[0067]
Next, a night scene determination method will be described.
[0068]
FIG. 8 shows a typical scene in which a person is photographed against a night view. In this case, street lamps 38a to 38d, a neon sign 39, and the like are arranged behind the main subject 40.
[0069]
FIG. 9 is a diagram three-dimensionally showing sensor data of the AF area sensor 12 in such a shooting scene.
[0070]
Therefore, the night scene scene determination has the following characteristics.
That is,
(A) The overall brightness is low.
The luminance for each pixel or each predetermined area is obtained, the average value is calculated, and compared with the predetermined value.
(B) The high luminance portions are small in area and scattered.
(C) The low luminance portion occupies a large area.
[0071]
FIG. 10 is a distribution diagram showing the relationship between luminance and area by calculating the areas of continuous high-luminance portions and low-luminance portions.
[0072]
As shown in FIG. 10, the night scene is determined based on the ratio of the areas of the high luminance portion and the low luminance portion.
[0073]
Next, another operation example of the subroutine “night scene determination process” will be described with reference to the flowchart of FIG.
[0074]
First, in step S41, the average brightness and the predetermined threshold B th Are compared. Next, in step S42, the number of portions where pixels having higher luminance than the predetermined value are continued is counted (Sa), and in the subsequent step S43, the number of portions where pixels having lower luminance than the predetermined value are consecutive is counted. (Sb).
[0075]
In step S44, the number of areas Sa is compared with a predetermined determination value m. Subsequently, in step S45, the number of areas Sb is compared with a predetermined determination value n.
[0076]
In steps S44 and S45, when Sa> m and Sb <n are satisfied, the night scene is determined and the night scene mode is set. Otherwise, it is determined that the scene is not a night scene, and the normal mode is entered.
[0077]
The subsequent processing operations of steps S46 to S53 and step S54 for executing the night view mode and the normal mode are the same as steps S23 to S30 and step S31 in the flowchart of FIG. .
[0078]
Here, the night view portrait mode and the normal night view mode described above will be described.
[0079]
FIG. 12 is a diagram three-dimensionally showing AF area sensor data when the flash area is pre-flashed and the AF area sensor 12 integrates in the shooting scene of FIG.
[0080]
FIG. 13 is a diagram three-dimensionally showing data obtained by comparing the data without pre-light emission and the data with pre-light emission and extracting a portion having a difference.
[0081]
After standardizing both data with the luminance peak value, a difference is taken for each corresponding sensor data or area.
[0082]
As described above, when a subject such as a person is present at a short distance, a difference occurs in the image, and therefore it is determined that the main subject is present in this portion (night scene portrait mode).
[0083]
Then, ranging calculation is performed only for the area where the difference occurs (see FIG. 14).
[0084]
Next explained is the second embodiment of the invention.
[0085]
The second embodiment is a modification of the night scene determination method in the first embodiment described above.
[0086]
FIG. 15 is a diagram showing the contrast distribution of AF area sensor data.
[0087]
As a specific contrast value, the sum of absolute values of differences between the sensor data of one pixel and the sensor data of the surrounding pixels is calculated for each pixel, and the above contrast values are summed for the area corresponding to the shooting screen. The
[0088]
In the case of a night scene, the brightness difference between the high brightness part and the low brightness part is large, and thus the contrast becomes large.
That is,
(D) The average brightness is low. Same as (a) above.
(E) The sum of contrasts in the shooting screen is greater than a predetermined value.
[0089]
The sum of the contrast for each predetermined area is obtained, and the contrast is added to all the areas corresponding to the photographing screen and compared with a predetermined value.
[0090]
Next, the operation of the subroutine “night scene determination processing” in the second embodiment will be described with reference to the flowchart of FIG.
[0091]
First, in step S61, the average brightness and the predetermined value B th Are compared. Next, in step S62, the overall photographing screen contrast and the predetermined threshold C th Are compared.
[0092]
In steps S61 and S62, the average luminance <B th , Contrast> C th When the above condition is satisfied, it is determined that the scene is a night scene. Otherwise, the normal mode is set.
[0093]
The subsequent processing operations of Steps S63 to 70 and Step S71 for executing the night view mode and the normal mode are the same as Steps S23 to S30 and Step S31 in the flowchart of FIG.
[0094]
Next explained is the third embodiment of the invention.
[0095]
The third embodiment differs from the first embodiment described above in the determination of the night view portrait mode and the normal night view mode.
[0096]
FIG. 17 is a graph showing the relationship between the luminance and the number of pixels (or the number of areas) of the corresponding luminance.
[0097]
As shown in FIG. 17, in the night scene, the distribution is biased between the low luminance part and the high luminance part, and the distribution of the medium luminance part is small (the solid line part in the figure).
[0098]
When the main subject exists at a short distance, the distribution is different between the case without pre-light emission and the case with pre-light emission, and the medium luminance portion increases when there is pre-light emission (the broken line portion in the figure).
[0099]
When the subject is not close, there is almost no change in the distribution.
[0100]
From the above,
(F) When the distribution is biased between the high luminance portion and the low luminance portion and the distribution is small in the middle luminance portion, the night scene is determined.
(G) When there is a change in the distribution between the absence of pre-light emission and the presence of pre-light emission, it is determined that a person is photographed against a night scene.
(H) If there is no change in distribution between pre-emission and pre-emission, it is determined as a normal night scene that captures a night scene of a normal landscape.
[0101]
Next, the operation of the subroutine “night scene determination process” in the third embodiment will be described with reference to the flowchart of FIG.
[0102]
In step S81, first, the number of pixels having a luminance higher than a predetermined value in the distance measurement area corresponding to the shooting screen is counted to be BHC. Next, in step S82, the number of pixels included in the predetermined medium luminance range is similarly counted and set as BMC. Further, in step S83, the number of pixels having a luminance lower than a predetermined value is similarly counted and set as BLC.
[0103]
In steps S84, S85, and S86, the BMC, BMC, and BLC are respectively compared with predetermined determination values a, b, and c.
[0104]
In steps S84 to S86, when BHC> a, BMC <b, and BMC <c are satisfied, the night scene is determined and the night scene mode is entered. Therefore, in step S87, integration of the AF area sensor 12 is performed while strobe pre-flash is being performed.
[0105]
Next, sensor data is read from the AF area sensor 12 in step S88. Further, in step S89, the number of pixels with medium luminance is counted from the distance measuring area corresponding to the shooting screen and set to BMC ′.
[0106]
In step S90, the BMC 'is compared with a predetermined value b'. Here, in the case of BMC ′> b ′, it is determined that there is a main subject in front of the night view, the process proceeds to step S91, and distance measurement calculation is performed in the area where the medium luminance pixel is increased.
[0107]
In step S92, it is determined whether or not the subject exists at a short distance based on the result of the distance measurement calculation. As a result, when the subject is at a short distance, the process proceeds to step S93 to set the night view portrait mode.
[0108]
If BMC ′> b ′ is not satisfied in step S90, and if it is not a short distance in step S92, the process proceeds to step S94, and the normal night view mode is set.
[0109]
If any of the conditions is not satisfied in steps S84 to S86, the normal mode is assumed and the process proceeds to step S95. Then, ranging calculation for each predetermined area is performed.
[0110]
Here, a new autofocus technique called super combination AF will be described with reference to FIG.
[0111]
Note that the super combination AF is not a combination of the active method and the passive method in a hybrid manner, but the main subject detection is performed using two methods.
[0112]
FIG. 19A is a block diagram showing the configuration of the main part, showing that the subject is being measured by this type of AF.
[0113]
In the figure, a CPU 50 is constituted by a microcomputer for camera control and has a pattern control unit 51 inside. The CPU 50 is connected to the photometry unit 52.
[0114]
The photometry unit 52 includes two light receiving lenses 54 a and 54 b that guide light from the subject 53, two area sensors 55 a and 55 b that receive light from the subject 53, and an A / D converter (ADC) 56. And a stationary light removal circuit 57.
[0115]
Furthermore, a light emitting unit 60 for controlling light emission of the light source 59 and an audio signal generating unit 61 are connected to the CPU 50.
[0116]
In FIG. 19A, light from a subject 53 that has entered from two light receiving lenses 54a and 54b is incident on two area sensors 55a and 55b. In these area sensors 55a and 55b, a subject image is received and subjected to photoelectric conversion. The output is converted into a digital value of each pixel by the A / D converter 56 and supplied to the CPU 50.
[0117]
In addition, when the steady light removal circuit 57 connected to the area sensors 55a and 55b is controlled, a DC light signal that is steadily incident from the subject 53 is removed. Thereby, only pulsed light from the light source 59 is obtained as an output signal.
[0118]
Accordingly, when the CPU 50 controls the light emitting unit 60 and irradiates the light source 59 or the like with the steady light removal circuit 57 activated, the reflected signal light returns from the subject 53 and is displayed on, for example, the area sensor 55a. An image as shown in 19 (b) is formed.
[0119]
FIG. 19B is a diagram illustrating a state where light is incident on a black portion. If such software for analyzing the pattern of the image on the area sensor is incorporated in the CPU 50 and it is determined that the image has a human shape, it can be considered as the main subject.
[0120]
Therefore, distance measurement according to a flowchart as shown in FIG. 20 can be considered.
[0121]
First, in step S101, the light source 59 is irradiated prior to ranging, and only the reflected signal light pattern is extracted by the steady light removal circuit 57 as shown in FIG. Next, in step S102, the pattern of the reflected signal light is determined, and in step S103, the night scene portion is excluded.
[0122]
Then, in step S104, it is determined whether or not this pattern is the main subject from the shape of the person.
[0123]
Here, if the main subject is not detected, the process proceeds to step S105, where brightness information and the like are taken into account, and after the active method or the passive method is selected, the central portion of the screen with a high subject existence probability is emphasized. The distance is measured. Next, in step S106, a sound corresponding to the center distance measurement is generated by the sound signal generator 61.
[0124]
On the other hand, if the main subject is detected in step S104, the process proceeds to step S107 to determine whether the optical signal forming the pattern is weak or whether there is sufficient contrast. That is, in step S107, the distance measuring method projects the signal light from the camera side and measures the distance using the reflected signal light, and the so-called passive that measures the distance based on the image signal of the subject. A selection of which type of method to use is made.
[0125]
That is, if it is determined that the reflected signal light is weak, it is determined that the passive AF is more suitable, and the process proceeds to step S108. Then, in this step S108, the distance measurement is performed by the passive method in which the image signal of the main subject position that has already been obtained is preferentially used. Thereafter, in step S109, a sound corresponding to the passive AF is generated from the sound signal generator 61.
[0126]
On the other hand, when the contrast of the image signal is weak in step S107, the process proceeds to step S110. In steps S110 and S111, the distance measuring light is irradiated again, and active AF based on the reflected signal light is focused on the previously determined main subject position. Thereafter, in step S112, a sound corresponding to the active AF is generated by the sound signal generator 61.
[0127]
If the CPU 50 selects and outputs an audio signal in accordance with these distance measurement methods or whether or not the main subject can be determined, it is easy for the user to understand, and it is possible to perform distance measurement with a sense of security while appealing the features of this super combination AF. It becomes possible.
[0128]
FIG. 21 is an external view of a camera to which the above-described super combination AF is applied as the fourth embodiment of the present invention.
[0129]
Even in a camera to which the above-described super combination AF is applied, the screen in the scene as shown in FIG. 22 is complicated, and the camera may be lost without being able to determine which is the main subject.
[0130]
Basically, as shown in FIG. 22 (a), if priority is given to the pattern of the shape of the person 65 in the middle, focusing is achieved with a considerable probability. However, depending on the conditions, the bin 66 may be mistakenly focused as shown in FIG. 22 (b), or the photographer may focus on the surrounding person 67 as shown in FIG. 22 (c). Sometimes you want to match.
[0131]
In this case, if the CPU determines the next focus candidate by operating the next candidate switch 64 provided on the camera 63 and indicates it by the dot matrix LCD in the finder, the user can understand it. The dissatisfaction of is eliminated.
[0132]
In addition, when applied to a single-lens reflex camera in this way, it is possible to determine whether or not the camera is in focus through the taking lens, so that it becomes easier for the user to check the focus position and provide a camera without failure. be able to.
[0133]
Furthermore, in addition to the above-described embodiment, the following modifications can be considered.
[0134]
When it is determined that the scene is a night scene, the display unit 25 may display a warning for prompting the use of a tripod when the calculated shutter speed is a long time that causes camera shake.
[0135]
In addition, a blinking display may be displayed on the LCD display, or a voice warning may be issued using PCV or the like.
[0136]
Further, when using a film with a magnetic recording unit, a warning display may be performed so that a higher ISO film that does not require a tripod is used. In this case, the ISO sensitivity at the shutter speed at which no camera shake occurs may be displayed on the LCD display.
[0137]
As a result, the photographer can rewind and take out the film currently in the camera with the MRC function, and replace it with a high ISO film, and shoot without using a tripod. It can be carried out.
[0138]
Next explained is the fifth embodiment of the invention.
[0139]
In the fifth embodiment, a case will be described in which the present invention is applied to a digital camera that captures an image with an image sensor.
[0140]
In the case of night scene photography, the digital camera has a problem in that an image becomes unnatural due to a color jump in a high-luminance portion, S / N degradation, and the like. Therefore, it is desired to eliminate the unnaturalness of images in night scene photography.
[0141]
FIG. 23 is a block diagram showing a configuration of a digital camera according to the fifth embodiment.
[0142]
In FIG. 23, the subject light that has passed through the photographing lens 71 is imaged on an image sensor 73 constituted by a CCD or the like via a diaphragm 72. The output of the image sensor 73 is digitally transmitted through a CDS unit 74 that performs correlated double sampling and removes reset noise from the image signal, an S / H unit 75 that constitutes a sample hold circuit, and an A / D converter (ADC) 76. The image signal is supplied to a process processing unit 77 that performs various processes on the image signal. The process processing unit 77 includes an AGC / γ correction unit 77a that performs auto gain control, and a night scene determination unit 77b that determines a night scene from an image signal.
[0143]
The process processing unit 77 controls the aperture 72 through the photometry unit 79 and the aperture control unit 80 to regulate the amount of light incident on the image sensor. The process processing unit 77 is connected to a recording medium 83 for recording compressed still image data via a DRAM 81 for storing an image signal and a compression / decompression unit 82 for compressing the image signal to reduce the amount of data. Yes.
[0144]
Next, the operation of the digital camera configured as described above will be described.
[0145]
The light beam that has passed through the photographing lens 71 and the diaphragm 72 is incident on the image sensor 73. The light incident on the image sensor 73 is photoelectrically converted and then A / D converted by the A / D converter 76 through the CDS unit 74 and S / H unit 75 to be converted into a digital signal. Is done.
[0146]
The process processing unit 77 receives the digital signal and performs processing such as gain control processing and γ conversion processing by the AGC / γ correction unit 77a. In the night scene determination unit 77b, the image data is processed to determine the night scene.
[0147]
In the photometry unit 79, photometric exposure calculation is performed based on the output of the process processing unit 77, and the aperture value of the diaphragm 72 and the electronic shutter speed of the image sensor 73 are calculated. In the aperture controller 80, the aperture 72 is controlled based on the output of the photometry unit 79.
[0148]
The image signal processed by the process processing unit 77 is temporarily stored in the DRAM 81 and then compressed by the compression / decompression unit 82 to reduce the data amount. Then, the still image data compressed by the compression / decompression unit 82 is recorded on the recording medium 83.
[0149]
Next, the night scene determination operation will be described with reference to the flowchart of FIG.
[0150]
First, in step S <b> 121, an image sensor integration operation is performed by the image sensor 73 with respect to the subject light beam captured through the photographing lens 71 and the diaphragm 72. In step S122, the CDS unit 74, the S / H unit 75, and the analog-digital converter 76 read out the image signal.
[0151]
Further, in step S123, the night scene determination unit 77b in the process processing unit 77 calculates the luminance for each divided area (hereinafter referred to as processing by the night scene determination unit 77b).
[0152]
In step S124, the average luminance value and the predetermined value B th Are compared. Next, in step S125, the divided area contrast and the predetermined value C th Are compared.
[0153]
In steps S124 and S125, the luminance average value <B th And divided area contrast> C th In this case, the scene is determined to be a night scene and the process proceeds to step S126. Further, if any of the conditions is not satisfied in steps S124 and S125, the routine is exited as the normal mode.
[0154]
In step S126, the gain of the AGC / γ correction unit is reduced as the night view mode.
[0155]
In the night view determination unit 77b, the light receiving area of the image sensor 73 is divided into a plurality of divided areas as shown in FIG.
[0156]
The above-mentioned divided area contrast represents a value obtained by calculating a difference in luminance value with respect to each divided area for each divided area, obtaining a sum of absolute values thereof, and further adding the above values of all divided areas.
[0157]
At a low luminance such as a night scene, the gain of the AGC / γ correction unit 77a is set very high, so that the noise in the dark part of the night scene becomes conspicuous. Therefore, it is possible to suppress the occurrence of noise by automatically determining the night scene and reducing the gain.
[0158]
Further, as a modification of the above-described fifth embodiment, the process of step S126 in the flowchart in FIG. 24 can be performed as follows.
[0159]
That is, when the night scene mode is determined, the color is improved by changing the compression characteristics of the high-luminance portion.
[0160]
The high luminance portion compression characteristics of the AGC / γ correction unit 77a are changed as shown in FIG. 26 to improve the latitude, prevent over-whitening and improve the color.
[0161]
As described above, in the night scene, the noise reduction in the low luminance part, the latitude and the color in the high luminance part are improved, and a natural image can be obtained even in the night scene.
[0162]
In addition, according to the said embodiment of this invention, the following structures can be obtained.
[0163]
(1) A camera that distinguishes a night scene based on an imaging output of an image sensor and sets a shooting mode suitable for the night scene.
[0164]
(2) an image sensor for imaging a subject;
Discriminating means for discriminating a night scene based on the output of the image sensor;
Shooting mode setting means for setting a shooting mode based on the output of the discrimination means;
A camera comprising:
[0165]
(3) The camera according to (1) or (2), wherein the imaging element is an AF area sensor.
[0166]
(4) image detection means for detecting the luminance distribution in the shooting screen;
From the output result of the image detection means, a discrimination means for discriminating a region where the luminance within a predetermined range is continuous,
Area determining means for determining the area of the determined region;
A camera characterized by comprising:
[0167]
(5) image detection means for detecting the luminance distribution in the shooting screen;
From the output result of the image detection means, a determination means for determining the shooting mode based on the average brightness information and the area determination result of the area that continuously outputs the predetermined brightness,
A camera characterized by comprising:
[0168]
(6) The discrimination means discriminates the night scene based on the average of the output of the image sensor, the area of the portion higher than the predetermined luminance, and the area of the portion lower than the predetermined luminance. The camera according to (1).
[0169]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a camera that is easy to use because a shooting scene such as a night view is discriminated based on the imaging signal of the area sensor and the camera operation is performed accordingly.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a camera according to a first embodiment of the present invention.
FIG. 2 is a diagram showing an arrangement of the optical system and AF area sensor 12 in FIG.
FIG. 3 is a diagram showing a relationship between a photographing screen (wide and tele) and a distance measuring area.
FIG. 4 is a flowchart illustrating a main routine of the camera in the first embodiment.
FIG. 5 is a flowchart for explaining an AF operation;
FIG. 6 is a timing chart for explaining an AF operation.
FIG. 7 is a flowchart for explaining an operation of a subroutine “night scene determination process”;
FIG. 8 is a diagram showing a typical scene in which a person is photographed against a night view.
9 is a diagram three-dimensionally showing sensor data of the AF area sensor 12 in a shooting scene as shown in FIG.
FIG. 10 is a distribution diagram showing the relationship between luminance and area by calculating the areas of continuous high-luminance portions and low-luminance portions.
FIG. 11 is a flowchart illustrating another operation example of the subroutine “night scene determination processing”.
12 is a diagram three-dimensionally showing AF area sensor data when the AF area sensor 12 integrates by pre-flashing the strobe in the shooting scene of FIG. 9;
FIG. 13 is a diagram three-dimensionally showing data obtained by comparing the data without pre-light emission and the data with pre-light emission and extracting a portion having a difference.
FIG. 14 is a diagram showing a selected ranging area for a shooting screen when a subject such as a person exists at a short distance;
FIG. 15 is a diagram illustrating a contrast distribution of AF area sensor data for explaining a second embodiment of the present invention.
FIG. 16 is a flowchart for explaining the operation of a subroutine “night scene determination process” in the second embodiment;
FIG. 17 is a graph for explaining the third embodiment of the present invention and showing the relationship between the luminance and the number of pixels (or the number of areas) of the corresponding luminance.
FIG. 18 is a flowchart illustrating an operation of a subroutine “night scene determination process” in the third embodiment.
FIG. 19 is a diagram for explaining a new autofocus technique referred to as super combination AF.
FIG. 20 is a flowchart for explaining a distance measuring operation in the super combination AF.
FIG. 21 is an external view of a camera to which the above-described super combination AF is applied as a fourth embodiment of the present invention.
FIG. 22 is a diagram for explaining focusing by a camera in the fourth embodiment.
FIG. 23 is a block diagram showing a configuration of a digital camera according to a fifth embodiment of the present invention.
FIG. 24 is a flowchart for explaining operation of night scene determination according to the fifth embodiment;
FIG. 25 is a diagram illustrating an example in which a light receiving area of an image sensor 73 is divided into a plurality of divided areas.
FIG. 26 is a diagram showing a high luminance portion compression characteristic of the AGC / γ correction unit 77a.
[Explanation of symbols]
11 Microcomputer,
11a CPU (central processing unit),
11b ROM,
11c RAM,
11d analog-to-digital (A / D) converter (ADC),
11e EEPROM,
12 AF area sensor,
12a imaging area,
12b processing circuit,
13 Focus lens,
14 Focus lens drive unit,
15 focus lens encoder,
16 Zoom lens drive unit,
17 Light-receiving element for photometry,
18 Metering unit,
19 shutter drive unit,
20 film drive unit,
23 Strobe,
24 Strobe circuit section,
25 Display section,
26 First release switch (1RSW),
27 Second release switch (2RSW),
30 subject,
31a, 31b light receiving lens,
33 Detection area (ranging area) of the AF area sensor 12.

Claims (3)

撮像手段と、
この撮像手段の出力結果に基き撮影画面内の輝度分布を検出する輝度分布検出手段と、
この輝度分布検出手段の出力結果に基き所定の輝度が連続する領域を判別する輝度領域判別手段と、
この輝度領域判別手段の出力結果に基き上記所定の輝度が連続する領域の面積を演算する演算手段と、
この演算手段の出力より、所定輝度よりも高輝度である画素の分布が連続する領域の面積が所定値以下であるか否かの判定の結果、及び上記輝度分布検出手段の出力に基く撮影画面内の輝度が所定値よりも低輝度か否かの判定の結果とに基いて撮影モードを決定する撮影モード決定手段と、
を具備することを特徴とするカメラ。
Imaging means;
A luminance distribution detecting means for detecting a luminance distribution in the photographing screen based on the output result of the imaging means;
A luminance region discriminating unit that discriminates a region where predetermined luminance continues based on the output result of the luminance distribution detecting unit;
Calculating means for calculating the surface product of the region in which the predetermined luminance based on the output of the luminance area discriminating means is continuous,
Based on the output of the calculation means, the result of the determination as to whether or not the area of the region where the distribution of pixels having higher luminance than the predetermined luminance is equal to or less than the predetermined value, and the photographing screen based on the output of the luminance distribution detection means A shooting mode determining means for determining a shooting mode based on the result of the determination as to whether or not the brightness is lower than a predetermined value ;
A camera comprising:
上記撮影モード決定手段は、更に上記演算手段の出力に基く所定輝度よりも低輝度である画素の分布が連続する領域の面積が所定値以上であるか否かの判定結果にも基いて撮影モードを決定することを特徴とする請求項1に記載のカメラ。 The photographing mode determining means is further configured to take a photographing mode based on a determination result of whether or not the area of a region where the distribution of pixels having a luminance lower than the predetermined luminance based on the output of the calculating means is equal to or larger than a predetermined value. the camera according to claim 1, characterized in that to determine. 上記撮影モード決定手段は、少なくとも通常撮影モードと夜景撮影モードの決定を選択的に行うことを特徴とする請求項1若しくは2の何れか1に記載のカメラ。  3. The camera according to claim 1, wherein the shooting mode determination unit selectively determines at least a normal shooting mode and a night scene shooting mode. 4.
JP24786799A 1999-09-01 1999-09-01 camera Expired - Fee Related JP4307648B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP24786799A JP4307648B2 (en) 1999-09-01 1999-09-01 camera
US09/651,877 US6792203B1 (en) 1999-09-01 2000-08-30 Camera and distance measuring apparatus used in the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24786799A JP4307648B2 (en) 1999-09-01 1999-09-01 camera

Publications (2)

Publication Number Publication Date
JP2001075141A JP2001075141A (en) 2001-03-23
JP4307648B2 true JP4307648B2 (en) 2009-08-05

Family

ID=17169820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24786799A Expired - Fee Related JP4307648B2 (en) 1999-09-01 1999-09-01 camera

Country Status (1)

Country Link
JP (1) JP4307648B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002298142A (en) * 2001-03-29 2002-10-11 Minolta Co Ltd Person image detecting method, storage medium recording program for executing the method, person image detecting device, and image pick-up device having this device
JP2003084343A (en) * 2001-09-13 2003-03-19 Olympus Optical Co Ltd Automatic exposure camera
KR100405039B1 (en) * 2001-11-20 2003-11-14 고속도로정보통신(주) Frame grabber with iris control facility
US7872670B2 (en) 2002-04-22 2011-01-18 Sanyo Electric Co., Ltd. Camera performing photographing in accordance with photographing mode depending on object scene
US7397500B2 (en) 2003-04-30 2008-07-08 Hewlett-Packard Development Company, L.P. Camera shake warning and feedback system that teaches the photographer
JP4588583B2 (en) * 2005-08-29 2010-12-01 富士フイルム株式会社 Imaging apparatus and focus control method
KR100743081B1 (en) 2006-06-15 2007-07-27 주식회사 엠씨넥스 Photographing apparatus and method for providing stable brightness characteristic
JP5520038B2 (en) 2009-12-25 2014-06-11 キヤノン株式会社 Video processing apparatus and video processing method
JP2011223378A (en) * 2010-04-12 2011-11-04 Sanyo Electric Co Ltd Electronic camera
JP6278636B2 (en) * 2013-08-21 2018-02-14 キヤノン株式会社 Imaging apparatus, control method therefor, program, and storage medium
JP5782546B2 (en) * 2014-04-07 2015-09-24 キヤノン株式会社 VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, IMAGING DEVICE, PROGRAM, AND STORAGE MEDIUM

Also Published As

Publication number Publication date
JP2001075141A (en) 2001-03-23

Similar Documents

Publication Publication Date Title
JP4657052B2 (en) Digital camera, shooting method, and shooting control program.
JP5167750B2 (en) TRACKING DEVICE, IMAGING DEVICE, AND TRACKING METHOD
JP6046905B2 (en) Imaging apparatus, exposure control method, and program
EP1564988A2 (en) Imaging apparatus, a focusing method, a focus control method and a recording medium storing a program for executing such a method
JP2007264196A (en) Strobe control unit and method
JP3793982B2 (en) Electronic camera, electronic camera finger detection method, and electronic camera level conversion method
US6792203B1 (en) Camera and distance measuring apparatus used in the same
JP2007135140A (en) Imaging apparatus
JP4307648B2 (en) camera
JP2008224808A (en) Automatic focusing device and imaging apparatus
JP2001091819A (en) Range-finding device for camera
JP2004157417A (en) Digital camera and exposure setting method in performing af control
JP2004085936A (en) Camera
JP5316923B2 (en) Imaging apparatus and program thereof
JP2004004449A (en) Exposure control system for camera
JP4818130B2 (en) Imaging apparatus and control method thereof
JP2006197236A (en) Image pickup device and method for controlling the same
JP2006333052A (en) Exposure adjusting device
JP2007251656A (en) Image sensing device, its control method and program
JP2000156874A (en) Digital camera
JP5822479B2 (en) Imaging device
JP2001100087A (en) Multispot range finder
JP5355124B2 (en) Imaging apparatus and scene discrimination method thereof
JP2007143054A (en) Electronic camera and bracket photographing method
JP2007101860A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090407

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090430

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140515

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees