以下、添付図面に従って本発明に係る複眼撮像装置を実施するための最良の形態について詳細に説明する。
<第1の実施の形態>
図1は、本発明に係る複眼撮像装置である複眼デジタルカメラ1の概略図であり、(a)は正面図であり、(b)は背面図である。複眼デジタルカメラ1は、複数(図1では2個を例示)の撮像系を備えた複眼デジタルカメラ1であって、同一被写体を複数視点(図1では左右二つの視点を例示)からみた立体画像や、単視点画像(2次元画像)が撮影可能である。また、複眼デジタルカメラ1は、静止画に限らず、動画、音声の記録再生も可能である。
複眼デジタルカメラ1のカメラボディ10は、略直方体の箱状に形成されており、その正面には、図1(a)に示すように、主として、バリア11、右撮像系12、左撮像系13、フラッシュ14、マイク15が設けられている。また、カメラボディ10の上面には、主として、レリーズスイッチ20、ズームボタン21が設けられている。
一方、カメラボディ10の背面には、図1(b)に示すように、モニタ16、モードボタン22、視差調整ボタン23、2D/3D切り替えボタン24、MENU/OKボタン25、十字ボタン26、DISP/BACKボタン27が設けられている。
バリア11は、カメラボディ10の前面に摺動可能に装着され、バリア11が上下に摺動することにより開状態と閉状態とが切り替えられる。通常は、図1(a)点線に示すように、バリア11は上端、すなわち閉状態に位置されており、対物レンズ12a、13a等はバリア11によって覆われている。これにより、レンズなどの破損が防止される。バリア11が摺動されることにより、バリアが下端、すなわち開状態に位置される(図1(a)実線参照)と、カメラボディ10前面に配設されたレンズ等が露呈される。図示しないセンサによりバリア11が開状態であることが認識されると、CPU110(図2参照)により電源がONされ、撮影が可能となる。
右目用の画像を撮影する右撮像系12及び左目用の画像を撮影する左撮像系13は、屈曲光学系を有する撮影レンズ群、絞り兼用メカシャッタ12d、13d及び撮像素子122、123(図2参照)を含む光学ユニットである。右撮像系12及び左撮像系13の撮影レンズ群は、主として、被写体からの光を取り込む対物レンズ12a、13a、対物レンズから入射した光路を略垂直に折り曲げるプリズム(図示せず)、ズームレンズ12c、13c(図2参照)、フォーカスレンズ12b、13b(図2参照)等で構成される。
フラッシュ14は、キセノン管で構成されており、暗い被写体を撮影する場合や逆光時などに必要に応じて発光される。
モニタ16は、4:3の一般的なアスペクト比を有するカラー表示が可能な液晶モニタであり、立体画像と平面画像の両方が表示可能である。モニタ16の詳細な構造は図示しないが、モニタ16は、その表面にパララックスバリア表示層を備えたパララックスバリア式3Dモニタである。モニタ16は、各種設定操作を行なう際の使用者インターフェース表示パネルとして利用され、画像撮影時には電子ビューファインダとして利用される。
モニタ16は、立体画像を表示するモード(3Dモード)と、平面画像を表示するモード(2Dモード)とが切り替えが可能である。3Dモードにおいては、モニタ16のパララックスバリア表示層に光透過部と光遮蔽部とが交互に所定のピッチで並んだパターンからなるパララックスバリアを発生させるとともに、その下層の画像表示面に左右の像を示す短冊状の画像断片を交互に配列して表示する。2Dモードや使用者インターフェース表示パネルとして利用される場合には、パララックスバリア表示層には何も表示せず、その下層の画像表示面に1枚の画像をそのまま表示する。
なお、モニタ16は、パララックスバリア式には限定されず、レンチキュラー方式、マイクロレンズアレイシートを用いるインテグラルフォトグラフィ方式、干渉現象を用いるホログラフィー方式などが採用されてもよい。また、モニタ16は液晶モニタに限定されず、有機ELなどが採用されてもよい。
レリーズスイッチ20は、いわゆる「半押し」と「全押し」とからなる二段ストローク式のスイッチで構成されている。複眼デジタルカメラ1は、静止画撮影時(例えば、モードボタン22で静止画撮影モード選択時、又はメニューから静止画撮影モード選択時)、このレリーズスイッチ20を半押しすると撮影準備処理、すなわち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス)の各処理を行い、全押しすると、画像の撮影・記録処理を行う。また、動画撮影時(例えば、モードボタン24で動画撮影モード選択時、又はメニューから動画撮影モード選択時)、このレリーズスイッチ20を全押しすると、動画の撮影を開始し、再度全押しすると、撮影を終了する。
ズームボタン21は、右撮像系12及び左撮像系13のズーム操作に用いられ、望遠側へのズームを指示するズームテレボタン21Tと、広角側へのズームを指示するズームワ
イドボタン21Wとで構成されている。
モードボタン22は、デジタルカメラ1の撮影モードを設定する撮影モード設定手段として機能し、このモードボタン22の設定位置により、デジタルカメラ1の撮影モードが様々なモードに設定される。撮影モードは、動画撮影を行う「動画撮影モード」と、静止画撮影を行う「静止画撮影モード」とに分けられ、「静止画撮影モード」は例えば、絞り、シャッタスピード等がデジタルカメラ1によって自動的に設定される「オート撮影モード」、人物の顔を抽出して撮影を行う「顔抽出撮影モード」、動体撮影に適した「スポーツ撮影モード」、風景の撮影に適した「風景撮影モード」、夕景及び夜景の撮影に適した「夜景撮影モード」、絞りの目盛りを使用者が設定し、シャッタスピードをデジタルカメラ1が自動的に設定する「絞り優先撮影モード」、シャッタスピードを使用者が設定し、絞りの目盛りをデジタルカメラ1が自動的に設定する「シャッタスピード優先撮影モード」、絞り、シャッタスピード等を使用者が設定する「マニュアル撮影モード」等がある。
視差調整ボタン23は、立体画像撮影時に視差を電子的に調整するボタンである。視差調整ボタン23の右側を押下することにより、右撮像系12で撮影された画像と左撮像系13で撮影された画像との視差が所定の距離だけ大きくなり、視差調整ボタン23の左側を押下することにより、右撮像系12で撮影された画像と左撮像系13で撮影された画像との視差が所定の距離だけ小さくなる。
2D/3D切り替えボタン24は、単視点画像を撮影する2D撮影モードと、多視点画像を撮影する3D撮影モードの切り替えを指示するためのスイッチである。
MENU/OKボタン25は、撮影及び再生機能の各種設定画面(メニュー画面)の呼び出し(MENU機能)に用いられるとともに、選択内容の確定、処理の実行指示等(OK機能)に用いられ、複眼デジタルカメラ1が持つ全ての調整項目の設定が行われる。撮影時にMENU/OKボタン25が押されると、モニタ16にたとえば露出値、色合い、ISO感度、記録画素数などの画質調整などの設定画面が表示され、再生時にMENU/OKボタン25が押されると、モニタ16に画像の消去などの設定画面が表示される。複眼デジタルカメラ1は、このメニュー画面で設定された条件に応じて動作する。
十字ボタン26は、各種のメニューの設定や選択あるいはズームを行うためのボタンであり、上下左右4方向に押圧操作可能に設けられており、各方向のボタンには、カメラの設定状態に応じた機能が割り当てられる。たとえば、撮影時には、左ボタンにマクロ機能のON/OFFを切り替える機能が割り当てられ、右ボタンにフラッシュモードを切り替える機能が割り当てられる。また、上ボタンにモニタ16の明るさを替える機能が割り当てられ、下ボタンにセルフタイマーのON/OFFや時間を切り替える機能が割り当てられる。また、再生時には、右ボタンにコマ送りの機能が割り当てられ、左ボタンにコマ戻しの機能が割り当てられる。また、上ボタンに再生中の画像を削除する機能が割り当てられる。また、各種設定時には、モニタ16に表示されたカーソルを各ボタンの方向に移動させる機能が割り当てられる。
DISP/BACKボタン27は、モニタ16の表示切り替えを指示するボタンとして機能し、撮影中、このDISP/BACKボタン27が押されると、モニタ16の表示が、ON→フレーミングガイド表示→OFFに切り替えられる。また、再生中、このDISP/BACKボタン27が押されると、通常再生→文字表示なし再生→マルチ再生に切り替えられる。また、DISP/BACKボタン27は、入力操作のキャンセルや一つ前の操作状態に戻すことを指示するボタンとして機能する。
図2は、複眼デジタルカメラ1の主要な内部構成を示すブロック図である。複眼デジタルカメラ1は、主として、CPU110、操作手段(レリーズスイッチ20、MENU/OKボタン25、十字ボタン26等)112、SDRAM114、VRAM116、AF検出手段118、AE/AWB検出手段120、撮像素子122、123、CDS/AMP124、125、A/D変換器126、127、画像入力コントローラ128、画像信号処理手段130、圧縮伸張処理手段132、立体画像信号処理手段133、立体画像信号処理手段133、ビデオエンコーダ134、メディアコントローラ136、音入力処理手段138、記録メディア140、フォーカスレンズ駆動手段142、143、ズームレンズ駆動手段144、145、絞り駆動手段146、147、タイミングジェネレータ(TG)148、149、特徴点検出手段150、対応点検出手段152で構成される。
CPU110は、複眼デジタルカメラ1の全体の動作を統括的に制御する。CPU110は、右撮像系12と左撮像系13の動作を制御する。右撮像系12と左撮像系13とは、基本的に連動して動作を行うが、各々個別に動作させることも可能である。また、CPU110は、右撮像系12及び左撮像系13で得られた2つの画像データを短冊状の画像断片とし、これがモニタ16に交互に表示されるような表示用画像データを生成する。3Dモードで表示を行う際に、パララックスバリア表示層に光透過部と光遮蔽部とが交互に所定のピッチで並んだパターンからなるパララックスバリアを発生させるとともに、その下層の画像表示面に左右の像を示す短冊状の画像断片を交互に配列して表示することで立体視を可能にする。
SDRAM114には、このCPU110が実行する制御プログラムであるファームウェア、制御に必要な各種データ、カメラ設定値、撮影された画像データ等が記録されている。
VRAM116は、CPU110の作業用領域として利用されるとともに、画像データの一時記憶領域として利用される。
AF検出手段118は、CPU110からの指令に従い、入力された画像信号からAF制御に必要な物理量を算出する。AF検出手段118は、右撮像系12から入力された画像信号に基づいてAF制御を行う右撮像系AF制御回路と、左及び左撮像系13から入力された画像信号に基づいてAF制御を行う左撮像系AF制御回路とで構成される。本実施の形態のデジタルカメラ1では、撮像素子122、123から得られる画像のコントラストによりAF制御が行われ(いわゆるコントラストAF)、AF検出手段118は、入力された画像信号から画像の鮮鋭度を示す焦点評価値を算出する。CPU110は、このAF検出手段118で算出される焦点評価値が極大となる位置を検出し、その位置にフォーカスレンズ群を移動させる。すなわち、フォーカスレンズ群を至近から無限遠まで所定のステップで移動させ、各位置で焦点評価値を取得し、得られた焦点評価値が最大の位置を合焦位置として、その位置にフォーカスレンズ群を移動させる。
AE/AWB検出手段120は、CPU110からの指令に従い、入力された画像信号からAE制御及びAWB制御に必要な物理量を算出する。たとえば、AE制御に必要な物理量として、1画面を複数のエリア(たとえば16×16)に分割し、分割したエリアごとにR、G、Bの画像信号の積算値を算出する。CPU110は、このAE/AWB検出手段120から得た積算値に基づいて被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。そして、算出した撮影EV値と所定のプログラム線図から絞り値とシャッタスピードを決定する。また、AWB制御に必要な物理量として、1画面を複数のエリア(例えば、16×16)に分割し、分割したエリアごとにR、G、Bの画像信号の色別の平均積算値を算出する。CPU110は、得られたRの積算値、Bの積算値、Gの積算値から分割エリアごとにR/G及びB/Gの比を求め、求めたR/G、B/Gの値のR/G、B/Gの色空間における分布等に基づいて光源種判別を行う。
そして、判別された光源種に適したホワイトバランス調整値に従って、たとえば各比の値がおよそ1(つまり、1画面においてRGBの積算比率がR:G:B≒1:1:1)になるように、ホワイトバランス調整回路のR、G、B信号に対するゲイン値(ホワイトバランス補正値)を決定する。
撮像素子122、123は、所定のカラーフィルタ配列(例えば、ハニカム配列、ベイヤ配列)のR、G、Bのカラーフィルタが設けられたカラーCCDで構成されている。撮像素子122、123は、フォーカスレンズ12b、13b、ズームレンズ12c、13c等によって結像された被写体光を受光し、この受光面に入射した光は、その受光面に配列された各フォトダイオードによって入射光量に応じた量の信号電荷に変換される。撮像素子122、123の光電荷蓄積・転送動作は、TG148、149からそれぞれ入力される電荷排出パルスに基づいて電子シャッタ速度(光電荷蓄積時間)が決定される。
すなわち、撮像素子122、123に電荷排出パルスが入力されている場合には、撮像素子122、123に電荷が蓄えられることなく排出される。それに対し、撮像素子122、123に電荷排出パルスが入力されなくなると、電荷が排出されなくなるため、撮像素子122、123において電荷蓄積、すなわち露光が開始される。撮像素子122、123で取得された撮像信号は、TG148、149からそれぞれ与えられる駆動パルスに基づいてCDS/AMP124、125に出力される。
CDS/AMP124、125は、撮像素子122、123から出力された画像信号に対して相関二重サンプリング処理(撮像素子の出力信号に含まれるノイズ(特に熱雑音)等を軽減することを目的として、撮像素子の1画素毎の出力信号に含まれるフィードスルー成分レベルと画素信号成分レベルとの差をとることにより正確な画素データを得る処理)を行い、増幅してR、G、Bのアナログの画像信号を生成する。
A/D変換器126、127は、CDS/AMP124、125で生成されたR、G、Bのアナログの画像信号デジタルの画像信号に変換する。
画像入力コントローラ128は、所定容量のラインバッファを内蔵しており、CPU110からの指令に従い、CDS/AMP/AD変換手段から出力された1画像分の画像信号を蓄積して、VRAM116に記録する。
画像信号処理手段130は、同時化回路(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理回路)、ホワイトバランス補正回路、ガンマ補正回路、輪郭補正回路、輝度・色差信号生成回路等を含み、CPU110からの指令に従い、入力された画像信号に所要の信号処理を施して、輝度データ(Yデータ)と色差データ(Cr,Cbデータ)とからなる画像データ(YUVデータ)を生成する。
圧縮伸張処理手段132は、CPU110からの指令に従い、入力された画像データに所定形式の圧縮処理を施し、圧縮画像データを生成する。また、CPU110からの指令に従い、入力された圧縮画像データに所定形式の伸張処理を施し、非圧縮の画像データを生成する。
立体画像信号処理手段133は、撮影時のズームポジションの情報等に基づいて、右撮像系12で撮影された右目用の画像(以下、右目用画像)及び左撮像系13で撮影された左目用の画像(以下、左目用画像)のどの領域を用いて再生を行うかを右目用画像及び左目用画像のそれぞれについて決定し、右目用画像及び左目用画像から再生に用いる右目用画像及び左目用画像を切り出す。再生に用いる右目用画像及び左目用画像の切り出しは、対応点検出により行なわれる。例えば、立体画像信号処理手段133は、特徴点検出手段150が検出した特徴点及び対応点検出手段152が検出した対応点に基づいて、右目用画像及び左目用画像の中心近辺にある同一の被写体を右目用画像及び左目用画像からそれぞれ検出し、検出された同一の被写体を中心とした所定の領域を右目用画像及び左目用画像からそれぞれ切り出すことにより、再生に用いる右目用画像及び左目用画像を取得する。
また、立体画像信号処理手段133は、再生に用いる右目用画像及び左目用画像をモニタ16で立体表示が可能なように加工する。例えば、パララックスバリア式のモニタである場合には、立体画像信号処理手段133は、再生に用いる右目用画像及び左目用画像をそれぞれ短冊状に区切り、短冊状の右目用画像と左目用画像とを交互に並べた表示用画像を生成する。表示用画像は、立体画像信号処理手段133からビデオエンコーダ134を介してモニタ16に出力される。
ビデオエンコーダ134は、モニタ16への表示を制御する。すなわち、記録メディア140などに保存された画像信号をモニタ16に表示するための映像信号(たとえば、NTSC信号やPAL信号、SCAM信号)に変換してモニタ16に出力するとともに、必要に応じて所定の文字、図形情報をモニタ16に出力する。
メディアコントローラ136は、圧縮伸張処理手段132で圧縮処理された各画像データを記録メディア140に記録する。
音入力処理手段138は、マイク15に入力され、図示しないステレオマイクアンプで増幅された音声信号が入力され、この音声信号の符号化処理を行う。
記録メディア140は、複眼デジタルカメラ1に着脱自在なxDピクチャカード(登録商標)、スマートメディア(登録商標)に代表される半導体メモリカード、可搬型小型ハードディスク、磁気ディスク、光ディスク、光磁気ディスク等、種々の記録媒体である。
フォーカスレンズ駆動手段142、143は、CPU110からの指令に従い、フォーカスレンズ12b、13bをそれぞれ光軸方向に移動させ、焦点位置を可変する。
ズームレンズ駆動手段144、145は、CPU110からの指令に従い、ズームレンズ12c、13cそれぞれ光軸方向に移動させ、焦点距離を可変する。
絞り兼用メカシャッタ12d、13dは、それぞれ絞り駆動手段146、147のアイリスモータに駆動されることにより、その開口量を可変して、撮像素子123への入射光量を調整する。
絞り駆動手段146、147は、CPU110からの指令に従い、絞り兼用メカシャッタ12d、13dの開口量を可変して、撮像素子123への入射光量をそれぞれ調整する。また、絞り駆動手段146、147は、CPU110からの指令に従い、絞り兼用メカシャッタ12d、13dを開閉して、撮像素子122、123への露光/遮光それぞれを行う。
特徴点検出手段150は、右目用画像及び左目用画像のうちの一方の画像(以下、基準画像という)から特徴点を抽出する。CPU110で右目用画像と左目用画像との視差ズレをなくす処理(後に詳述)において右目用画像及び左目用画像の少なくとも1つを移動させるためには、画像間で点と点との対応を決定する必要がある。このため、対応の取りやすい点を選び、複数枚の画像データのこれらの点の間の対応を決定するが、この対応の取りやすい点が特徴点である。なお、画像データから特徴点を抽出する方法としては、既に公知となっている様々な方法を用いることができる。本実施の形態では、左目用画像を基準画像とする。
対応点検出手段152は、右目用画像及び左目用画像のうちの基準画像以外の画像(以下、従画像という)の対応点であって、特徴点検出手段150から入力された特徴点に対応する対応点を検出する。対応点検出手段152には、特徴点検出手段150により抽出された特徴点と、従画像(本実施の形態では、右目用画像)とが入力される。まず、対応点検出手段152は、入力された画像の特徴点がどのような特徴を持った点であるかを検出する。そして、対応点検出手段152は、入力された各特徴点に対応する対応点を抽出する。
以上のように構成された複眼デジタルカメラ1の作用について説明する。バリア11を閉状態から開状態へと摺動させると、複眼デジタルカメラ1の電源が投入され、複眼デジタルカメラ1は、撮影モードの下で起動する。撮影モードとしては、2Dモードと、同一被写体を2視点からみた立体画像を撮影する3D撮影モードとが設定可能である。また、3Dモードとしては、右撮像系12及び左撮像系13を用いて同時に所定の視差で立体画像を撮影する3D撮影モードが設定可能である。撮影モードの設定は、複眼デジタルカメラ1が撮影モードで駆動中にMENU/OKボタン25が押下されることによりモニタ16に表示されたメニュー画面において、十字ボタン26等により「撮影モード」を選択することによりモニタ16に表示された撮影モードメニュー画面から設定可能である。
(1)2D撮影モード
CPU110は、右撮像系12又は左撮像系13(本実施の形態では左撮像系13)を選択し、左撮像系13の撮像素子123によって撮影確認画像用の撮影を開始する。すなわち、撮像素子123で連続的に画像が撮像され、その画像信号が連続的に処理されて、撮影確認画像用の画像データが生成される。
CPU110は、モニタ16を2Dモードとし、生成された画像データを順次ビデオエンコーダ134に加え、表示用の信号形式に変換してモニタ16に出力する。これにより、撮像素子123で捉えた画像がモニタ16に表示される。モニタ16の入力がデジタル信号に対応している場合はビデオエンコーダ134は不要であるが、モニタ16の入力仕様に合致した信号形態に変換する必要がある。
ユーザ(使用者)は、モニタ16に表示される撮影確認画像を見ながらフレーミングしたり、撮影したい被写体を確認したり、撮影後の画像を確認したり、撮影条件を設定したりする。
上記撮影スタンバイ状態時にレリーズスイッチ20が半押しされると、CPU110にS1ON信号が入力される。CPU110はこれを検知し、AE測光、AF制御を行う。AE測光時には、撮像素子123を介して取り込まれる画像信号の積算値等に基づいて被写体の明るさを測光する。この測光した値(測光値)は、本撮影時における絞り兼用メカシャッタ13dの絞り値、及びシャッタ速度の決定に使用される。同時に、検出された被写体輝度より、フラッシュ14の発光が必要かどうかを判断する。フラッシュ14の発光が必要と判断された場合には、フラッシュ14をプリ発光させ、その反射光に基づいて本撮影時のフラッシュ14の発光量を決定する。
レリーズスイッチ20が全押しされると、CPU110にS2ON信号が入力される。CPU110は、このS2ON信号に応動して、撮影、記録処理を実行する。
まず、CPU110は、前記測光値に基づいて決定した絞り値に基づいて絞り駆動手段147を介して絞り兼用メカシャッタ13dを駆動するとともに、前記測光値に基づいて決定したシャッタ速度になるように撮像素子123での電荷蓄積時間(いわゆる電子シャッタ)を制御する。
また、CPU110は、AF制御時にはフォーカスレンズを至近から無限遠に対応するレンズ位置に順次移動させるとともに、レンズ位置毎に撮像素子123を介して取り込まれた画像のAFエリアの画像信号に基づいて画像信号の高周波成分を積算した評価値をAF検出手段118から取得し、この評価値がピークとなるレンズ位置を求め、そのレンズ位置にフォーカスレンズを移動させるコントラストAFを行う。
この際、フラッシュ14を発光させる場合は、プリ発光の結果から求めたフラッシュ14の発光量に基づいてフラッシュ14を発光させる。
被写体光は、フォーカスレンズ13b、ズームレンズ13c、絞り兼用メカシャッタ13d、赤外線カットフィルタ46、及び光学ローパスフィルタ48等を介して撮像素子123の受光面に入射する。
撮像素子123の各フォトダイオードに蓄積された信号電荷は、TG149から加えられるタイミング信号に従って読み出され、電圧信号(画像信号)として撮像素子123から順次出力され、CDS/AMP125に入力される。
CDS/AMP125は、CDSパルスに基づいてCCD出力信号を相関二重サンプリング処理し、CPU110から加えられる撮影感度設定用ゲインによってCDS回路から出力される画像信号を増幅する。
CDS/AMP125から出力されたアナログの画像信号は、A/D変換器127において、デジタルの画像信号に変換され、この変換された画像信号(R、G、BのRAWデータ)は、SDRAM114に転送され、ここに一旦蓄えられる。
SDRAM114から読み出されたR、G、Bの画像信号は、画像信号処理手段130に入力される。画像信号処理手段130では、ホワイトバランス調整回路によりR、G、Bの画像信号ごとにデジタルゲインをかけることでホワイトバランス調整が行われ、ガンマ補正回路によりガンマ特性に応じた階調変換処理が行われ、同時化回路により単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して各色信号の位相を合わせる同時化処理が行われる。同時化されたR、G、Bの画像信号は、更に輝度・色差データ生成回路により輝度信号Yと色差信号Cr、Cb(YC信号)に変換され輪郭強調などの所定の信号処理が行われる。画像信号処理手段130で処理されたYC信号は再びSDRAM114に蓄えられる。
上記のようにしてSDRAM114に蓄えられたYC信号は、圧縮伸張処理手段132によって圧縮され、所定のフォーマットの画像ファイルとして、メディアコントローラ136を介して記録メディア140に記録される。静止画のデータは、Exif規格に従った画像ファイルとして記録メディア140に格納される。Exifファイルは、主画像のデータを格納する領域と、縮小画像(サムネイル画像)のデータを格納する領域とを有している。撮影によって取得された主画像のデータから画素の間引き処理その他の必要なデータ処理を経て、規定サイズ(例えば、160×120又は80×60ピクセルなど)のサムネイル画像が生成される。こうして生成されたサムネイル画像は、主画像とともにExifファイル内に書き込まれる。また、Exifファイルには、撮影日時、撮影条件、顔検出情報等のタグ情報が付属されている。
複眼デジタルカメラ1のモードを再生モードに設定すると、CPU110は、メディアコントローラ136にコマンドを出力し、記録メディア140に最後に記録された画像ファイルを読み出させる。
読み出された画像ファイルの圧縮画像データは、圧縮伸張処理手段132に加えられ、非圧縮の輝度/色差信号に伸張され、立体画像信号処理手段133で立体画像とされたのち、ビデオエンコーダ134を介してモニタ16に出力される。これにより、記録メディア140に記録されている画像がモニタ16に再生表示される(1枚画像の再生)。2D撮影モードで撮影された画像は、平面画像がモニタ16全面に2Dモードで表示される。
画像のコマ送りは、十字ボタン26の左右のキー操作によって行なわれ、十字ボタン26の右キーが押されると、次の画像ファイルが記録メディア140から読み出され、モニタ16に再生表示される。また、十字ボタンの左キーが押されると、一つ前の画像ファイルが記録メディア140から読み出され、モニタ16に再生表示される。
モニタ16に再生表示された画像を確認しながら、必要に応じて、記録メディア140に記録された画像を消去することができる。画像の消去は、画像がモニタ16に再生表示された状態でMENU/OKボタン25が押下されることによって行われる。
(2)3D撮影モードに設定されている場合
撮像素子122及び撮像素子123によって撮影確認画像用の撮影を開始する。すなわち、撮像素子122及び撮像素子123で同じ被写体が連続的に撮像され、その画像信号が連続的に処理され、撮影確認画像用の立体画像データが生成される。CPU110は、モニタ16を3Dモードに設定し、生成された画像データはビデオエンコーダ134で順次表示用の信号形式に変換されて、それぞれモニタ16に出力される。これにより撮影確認画像用の立体画像データがモニタ16に表示される。
ユーザ(使用者)は、モニタ16に表示される撮影確認画像を見ながらフレーミングしたり、撮影したい被写体を確認したり、撮影後の画像を確認したり、撮影条件を設定したりする。
上記撮影スタンバイ状態時にレリーズスイッチ20が半押しされると、CPU110にS1ON信号が入力される。CPU110はこれを検知し、AE測光、AF制御を行う。AE測光は、右撮像系12又は左撮像系13(本実施の形態では左撮像系13)の一方で行う。また、AF制御は、右撮像系12及び左撮像系13のそれぞれで行う。AE測光、AF制御は2D撮影モードと同一であるため、詳細な説明を省略する。
レリーズスイッチ20が全押しされると、CPU110にS2ON信号が入力される。CPU110は、このS2ON信号に応動して、撮影、記録処理を実行する。右撮像系12及び左撮像系13のそれぞれで撮影された画像データを生成する処理については、2D撮影モードと同一であるため、説明を省略する。
CDS/AMP124、125でそれぞれ生成された2枚の画像データからは、2D撮影モードと同様の方法により、圧縮画像データが2個生成される。圧縮された2枚の画像データは、関連付けられて1ファイルとして記憶メディア137に記憶される。記憶形式としては、MPフォーマット等を用いることができる。
複眼デジタルカメラ1のモードを再生モードに設定すると、CPU110は、メディアコントローラ136にコマンドを出力し、記録メディア140に最後に記録された画像ファイルを読み出させる。
読み出された画像ファイルの圧縮画像データは、圧縮伸張処理手段132に加えられ、非圧縮の輝度/色差信号に伸張され、立体画像信号処理手段133で立体画像とする。画像ファイルには、撮影時のズームポジションの情報が記憶されており、立体画像信号処理手段133は、撮影時のズームポジションの情報に基づいて右目用画像及び左目用画像から再生に用いる右目用画像及び左目用画像を切り出し、再生に用いる右目用画像及び左目用画像から表示用画像を生成する。
立体画像信号処理手段133は、表示用画像をビデオエンコーダ134を介してモニタ16に出力する。これにより、記録メディア140に記録されている画像がモニタ16に立体的に再生表示される(1枚画像の再生)。
画像のコマ送りは、十字ボタン26の左右のキー操作によって行なわれ、十字ボタン26の右キーが押されると、次の画像ファイルが記録メディア140から読み出され、モニタ16に再生表示される。また、十字ボタンの左キーが押されると、一つ前の画像ファイルが記録メディア140から読み出され、モニタ16に再生表示される。
本実施の形態では、モニタ16に再生表示された画像を確認しながら、画像の一部を拡大表示することができる。図3は、複眼デジタルカメラ1で右目用の画像と左目用の画像とを撮影した場合の右目用画像と左目用画像との関係を示す模式図であり、(a)は被写体であるチャートを示し、(b)は(a)に示す被写体を左撮像系13で撮影した結果である左目用画像を示し、(c)は(a)に示す被写体を右撮像系12で撮影した結果である右目用画像を示す。
複眼デジタルカメラ1の出荷時には、所定の距離(例えば2m)の距離にある被写体の中心Aが、図3(b)に示すように左目用画像の中心A1に撮影され、図3(c)に示すように右目用画像の中心A2に撮影されるように、右撮像系12及び左撮像系13の基線長及び輻輳角が機械的及び電気的に調整される。
しかしながら、右撮像系12及び左撮像系13にはローテーション(回転ズレ)がある(回転方向に傾いている)。ローテーションが無い場合には、チャートの水平、垂直の線は、右目用画像及び左目用画像でそのまま水平、垂直に撮影される。しかしながら、現実的にローテーションの無いレンズは存在しないし、調整したとしても合わせこみきれないため、チャートの水平、垂直の線は、右目用画像及び左目用画像では傾いて撮影される。図3にしめす模式図では、図3(b)に示す左目用画像では、図3(a)に示すチャートの水平の線H1の撮影結果H2は水平であり、チャートの垂直の線V1の撮影結果V2は垂直である。しかしながら、図3(c)に示す右目用画像では、チャートの水平の線H1の撮影結果H3は水平方向に対して反時計回り方向に傾いており、チャートの垂直の線V1の撮影結果V3は垂直方向に対して反時計回り方向に傾いている。
ローテーションがある場合であっても、図4(a)に示すように、立体画像信号処理手段133により切り出された再生に用いる右目用画像及び左目用画像の全体(全体画像)をモニタ16に表示させる場合には、再生に用いる右目用画像の中心と再生に用いる左目用画像の中心とが一致するため、視差ズレがなく、適切に立体視が可能である。しかしながら、全体画像の中心から水平方向に移動した位置にある一部の領域を抜き出してモニタ16に拡大表示させる場合には、図4(b)に示すように、右目用画像と左目用画像との中心がズレ量tだけ垂直方向にずれている。このような視差ズレの影響により、立体視がし辛くなる。
図5は、全体画像の中心から水平方向に移動した領域をモニタ16に拡大表示させる場合に、右目用画像と左目用画像との中心のズレを解消する処理の流れを示すフローチャートである。以下の処理は、主としてCPU110で行われる。
モニタ16に全体画像が立体表示された状態下で、ズームボタン21により拡大表示することを示す指示が入力され、かつ十字ボタン26により右方向又は左方向への移動を示す指示が入力されると、CPU110はこれを検出する(ステップS10)。
立体画像信号処理手段133は、ズームボタン21及び十字ボタン26からの入力に基づいて全体画像の再生に用いられた右目用画像及び左目用画像から拡大表示に必要な領域を切り出す。そして、特徴点検出手段150は、立体画像信号処理手段133で拡大表示に必要な領域として切り出された左目用画像から特徴点を検出し、対応点検出手段152に入力する。対応点検出手段152は、拡大表示に必要な領域として切りだされた右目用画像から、特徴点に対応する対応点を検出する(ステップS11)。特徴点、対応点の検出方法としては、公知の様々な方法を用いることができる。
CPU110は、ステップS11で検出された特徴点のうち、立体画像信号処理手段133で切り出された左目用画像の中心に位置する又は最も中心に近い特徴点Bと、その特徴点に対応する対応点B’(図4参照)とが垂直方向にずれているか否かを判断する(ステップS12)。
垂直方向にずれていない場合(ステップS12でなし)には、CPU110は、立体画像信号処理手段133で切り出された右目用画像及び左目用画像をモニタ16に出力する(ステップS15)。
垂直方向にずれている場合(ステップS12であり)には、図4(b)に示すように、立体画像信号処理手段133で切り出された左目用画像の中心に位置する又は最も中心に近い特徴点Bと、その特徴点に対応する対応点B’とが垂直方向にずれている場合であるため、CPU110は、特徴点Bと対応点B’との垂直方向のズレ量tを算出する(ステップS13)。CPU110は、ズレ量tを立体画像信号処理手段133に出力する。
立体画像信号処理手段133は、特徴点Bと対応点B’とを一致させるように、拡大表示に必要な領域として切り出された右目用画像(従画像)をズレ量tだけ垂直方向に平行移動させる(ステップS14)。立体画像信号処理手段133は、立体画像信号処理手段133で拡大表示に必要な領域として切り出された左目用画像(基準画像)と、ステップS14でズレ量tだけ垂直方向に平行移動された右目用画像(従画像)とビデオエンコーダ134を介してをモニタ16に出力する(ステップS15)。これにより、視差ズレが解消された拡大画像がモニタ16に表示される。
モニタ16に再生表示された画像を確認しながら、必要に応じて、記録メディア140に記録された画像を消去することができる。画像の消去は、画像がモニタ16に再生表示された状態でMENU/OKボタン25が押下されることによって行われる。
本実施の形態によれば、画像の左右方向の端部を抜き出して拡大表示する場合等、右撮像系と左撮像系との間に回転ズレがあることにより発生する垂直方向の視差ズレの影響が大きい場合において、垂直方向の視差ズレをなくすことができる。そのため、拡大表示された画像の立体視をしやすくすることができる。
また、本実施の形態では、垂直方向に平行移動させるため、回転移動させる場合に比べて処理を軽くし、短時間で処理を終わらせることができる。そのため、短い処理時間で高
い視差ズレ補正効果が得られる。
なお、本実施の形態では、ステップS14において、ズレ量tだけ従画像を移動させたが、特徴点Bと対応点B’とを一致させる方法はこれに限られない。例えば、基準画像及び従画像を半分、すなわちt/2ずつ反対方向に移動させることにより特徴点Bと対応点B’とを一致させるようにしてもよい。
<第2の実施の形態>
本発明の第1の実施の形態は、立体画像再生時に対応点を検出して右目用画像と左目用画像との垂直方向の視差ズレをなくしたが、垂直方向の視差ズレをなくす方法はこれに限られない。
本発明の第2の実施の形態は、出荷時の検査結果を用いて垂直方向の視差ズレをなくす形態である。以下、第2の実施の形態の複眼デジタルカメラ2について説明する。複眼デジタルカメラ2の作用は、モニタ16に再生表示された画像を確認しながら画像の一部を拡大表示する処理以外は複眼デジタルカメラ1と同一であるため、複眼デジタルカメラ2の作用については、モニタ16に再生表示された画像を確認しながら画像の一部を拡大表示する処理のみについて説明する。また、第1の実施の形態と同一の部分については、同一の符号を付し、説明を省略する。
図6は、複眼デジタルカメラ2の主要な内部構成を示すブロック図である。複眼デジタルカメラ2は、主として、CPU110、操作手段(レリーズスイッチ20、MENU/OKボタン25、十字ボタン26等)112、SDRAM114、VRAM116、AF検出手段118、AE/AWB検出手段120、撮像素子122、123、CDS/AMP124、125、A/D変換器126、127、画像入力コントローラ128、画像信号処理手段130、圧縮伸張処理手段132、立体画像信号処理手段133、ビデオエンコーダ134、メディアコントローラ136、音入力処理手段138、記録メディア140、フォーカスレンズ駆動手段142、143、ズームレンズ駆動手段144、145、絞り駆動手段146、147、タイミングジェネレータ(TG)148、149、特徴点検出手段150、対応点検出手段152、光軸ズレ検査手段154で構成される。
光軸ズレ検査手段154は、複眼デジタルカメラ2の検査時に左目用画像及び右目用画像と、撮影対象との垂直方向のズレを検査する。光軸ズレ検査手段154は、その検査結果をSDRAM114に出力し、検査結果はSDRAM114に記憶される。
複眼デジタルカメラ2の出荷時には、複眼デジタルカメラ1と同様に、所定の距離の距離にある被写体の中心が、左目用画像及び右目用画像の中心に撮影されるように、右撮像系12及び左撮像系13の基線長及び輻輳角が機械的及び電気的に調整されるが、右撮像系12及び左撮像系13のローテーション(回転ズレ)を完全に一致させることができない。したがって、この回転ズレにより発生する垂直方向のズレを右撮像系12及び左撮像系13のそれぞれについて検査を行う。
図7は、右撮像系12及び左撮像系13の回転ズレを検査する処理の流れを示すフローチャートである。以下の処理は、主として光軸ズレ検査手段154により行われる。
CPU110は、図8に示すようにメッシュ状に線が引かれたチャートをクロスポイントに設置し、このチャートを右撮像系12及び左撮像系13をもちいて撮影することにより、右目用画像と左目用画像とを撮影する(ステップS21)。CPU110は、撮影結果を光軸ズレ検査手段154に出力する。
光軸ズレ検査手段154には、撮影対象のチャートの線の位置と、線が交差する位置(図8の場合には、領域A〜Yの中心)の情報があらかじめ記憶されている。光軸ズレ検査手段154は、右目用画像と左目用画像とのそれぞれについて、領域A〜Yから線が交差する位置を検出する。そして、右目用画像と左目用画像とのそれぞれについて、検出された位置と、あらかじめ記憶された位置とを比較し、これらの位置の垂直方向のズレ量を測定する(ステップS22)。
ステップS22について図9を用いて説明する。図9は、ステップS21で撮影された右目用画像と、撮影対象のチャートとを重ねた模式図である。光軸ズレ検査手段154は、右目用画像の領域Aの内部から線が交差する位置A3を検出する。領域Aの中から線が交差する位置が検出されなかった場合には、光軸ズレ検査手段154は、領域Aを所定の範囲だけ広げて線が交差する位置を検出する。そして、光軸ズレ検査手段154は、チャートの領域Aの中心A1と、右目用画像の線が交差する位置A3との垂直方向の距離Vaを測定する。この距離Vaが領域Aにおけるズレ量Vaである。同様の方法により、領域B〜Yおいて、中心B1〜Y1と右目用画像の線が交差する位置B3〜Y3との距離、すなわちズレ量Vb〜Vyが測定される。なお、ズレ量Va〜Vyは、領域Eに示すように垂直方向上向きの場合に正の値、領域Aに示すように垂直方向下向きの場合に負の値として算出され、正負両方の値をとり得る。
本実施の形態では、右目用画像及び左目用画像のそれぞれについて領域A〜Yおける垂直方向のズレ量を測定、記録する。これは撮影する被写体距離、視差等によって全体画像の切り出し位置が異なるからである。これについて図10〜図12を用いて説明する。
図10のiに示す位置は、図7に示すような右撮像系12及び左撮像系13の回転ズレの検査が行われた位置である。図10のiに示す位置、すなわちクロスポイント上にある被写体を撮影する場合には、図11に示すように、右撮像系12により撮影された右目用画像の中心と、立体画像信号処理手段133が切り出す全体画像の再生に必要な右目用画像の中心とが一致し、左撮像系13により撮影された左目用画像の中心と、立体画像信号処理手段133が切り出す全体画像の再生に必要な左目用画像の中心とが一致する。このような場合には、右目用画像と左目用画像とのズレ量の相対値のみが測定、記憶されていても対応可能である。
それに対し、クロスポイント上に無い被写体を撮影する場合には、右撮像系12により撮影された右目用画像の中心と、立体画像信号処理手段133が切り出した全体画像の再生に必要な右目用画像の中心とが一致せず、左撮像系13により撮影された左目用画像の中心と、立体画像信号処理手段133が切り出した全体画像の再生に必要な左目用画像の中心とが一致しない。
例えば、図10のiiに示す位置、すなわちクロスポイントより奥側にある被写体であって、右撮像系12と左撮像系13の中心軸上にある被写体を撮影する場合を考える。この被写体を左撮像系13で撮影すると、図12(a)に示すように、被写体は左目用画像の中心より左側に撮影される。また、この被写体を右目用画像12で撮影すると、図12(b)に示すように、被写体は右目用画像の中心より右側に撮影される。したがって、全体画像の再生に用いられる左目用画像は、全体画像の再生に用いられる左目用画像の中心が撮影された左目用画像の左側に位置するように切り出され、全体画像の再生に用いられる右目用画像は、全体画像の再生に用いられる右目用画像の中心が撮影された右目用画像の右側に位置するように切り出される。
このようにして切り出された右目用画像及び左目用画像がモニタ16に表示された場合に、図13(a)に示すように全体画像から右方向に水平移動した領域を拡大表示することを示す指示が入力されると、左目用画像の拡大表示に必要な領域の中心は、図13(b)に示すように、左目用画像の中心右寄りの位置(例えば、図8の領域Mと領域Nとの略中間位置)となり、右目用画像の拡大表示に必要な領域は、図13(c)に示すように、右目用画像の右寄りの位置(例えば、図8の領域Nの略中心)となる。
右目用画像と左目用画像とのズレ量の相対値のみが測定、記憶されている場合には、このように右目用画像と左目用画像とで拡大表示に必要な領域が異なる場合に対応できない。したがって、領域A〜Yおけるズレ量Va〜Vyは、右目用画像及び左目用画像のそれぞれについて絶対値を測定し、かつ保存する必要がある。
このようにして垂直方向のズレ量が測定されると、光軸ズレ検査手段154は、ステップS22で測定された各領域におけるズレ量と、そのズレ量が測定された領域とを関連付けてDRAM114に出力する。検査結果は、ズレ量と、そのズレ量が測定された領域とを関連付けられたテーブルとして記憶される(ステップS23)。
以上のように構成された複眼デジタルカメラ2の作用について説明する。図10は、モニタ16に再生表示された全体画像の中心から水平方向に移動した領域をモニタ16に拡大表示させる場合に、右目用画像と左目用画像との中心のズレを解消する処理の流れを示すフローチャートである。以下の処理は、主としてCPU110で行われる。
モニタ16に全体画像が表示された状態下で、ズームボタン21により拡大表示することを示す指示が入力され、かつ十字ボタン26により右方向又は左方向への移動を示す指示が入力されると、CPU110はこれを検出する(ステップS10)。
CPU110は、立体画像信号処理手段133において、全体画像の再生に用いられる右目用画像及び左目用画像切り出された領域は、撮影された右目用画像及び左目用画像のどこの領域であるかをそれぞれ検出する(ステップS24)。
CPU110は、ステップS10において、ズームボタン21により拡大表示することを示す指示が入力されたか否かを判断する(ステップS25)。拡大表示することを示す指示が入力されていない場合(ステップS25で「されていない」)は、モニタ16への表示は変更しない(ステップS26)。
拡大表示することを示す指示が入力された場合(ステップS25で「された」)には、CPU110は、拡大表示することを示す指示の倍率が何倍であるかを示す情報を取得し(ステップS27)、ステップS10において十字ボタン26から再生領域の移動を示す指示が入力されたか否かを判断する(ステップS28)。
十字ボタン26から再生領域の移動を示す指示が入力されていない場合(ステップS28で「されていない」)には、拡大表示することを示す指示のみが入力された場合であるため、CPU110は、ステップS27で検出した倍率を立体画像信号処理手段133に出力する。立体画像信号処理手段133は、CPU110から入力された倍率に応じて拡大表示に必要な領域を右目用画像及び左目用画像から切り出し、ビデオエンコーダ134を介してモニタ16に出力する。これにより、全体画像の中心が指示された倍率でモニタ16に拡大表示される(ステップS29)。この場合には、拡大表示された右目用画像の中心と拡大表示された左目用画像の中心との視差ズレはないため、視差ズレの補正は必要ない。
十字ボタン26から再生領域の移動を示す指示が入力されていない場合(ステップS28で「されていない」)には、拡大表示することを示す指示及び再生領域の移動を示す指示が入力された場合であるため、CPU110は、ステップS10で入力された移動を示す指示の移動量を検出し、検出された移動量及びステップS27で検出した倍率を立体画像信号処理手段133に出力する。立体画像信号処理手段133は、入力された移動量及び倍率に基づいて右目用画像及び左目用画像から切り出すべき領域を求め、切り出すべき領域の中心が、図8の領域A〜Yの中心のうちのどれに最も近いかを右目用画像及び左目用画像のそれぞれについて検出する(ステップS30)。立体画像信号処理手段133は、検出結果をCPU100に出力する。
CPU110は、ステップS24で最も近いと検出された領域に関連付けられたズレ量をSDRAM114から取得する(ステップS31)。例えば、図12(b)に示すように左目用画像の拡大表示に必要な領域の中心が領域Nの中心に最も近い場合には、CPU110は、領域Nに関連付けられたズレ量VnをSDRAM114から取得する。図12(c)に示すように右目用画像の拡大表示に必要な領域の中心が領域Mの中心に最も近い場合には、CPU110は、領域Mに関連付けられたズレ量(領域Mは右目用画像の中心であるため、ズレ量は0)をSDRAM114から取得する。
CPU110は、ステップS31で取得された右目用画像及び左目用画像のズレ量にステップS27で取得した倍率を掛けて、ズレ量を補正する。例えば、ステップS27で取得した倍率がX倍であるとすると、図12(b)、(c)に示す場合の左目用画像のズレ量はX×Vn=XVn、右目用画像のズレ量は0と補正される。そして、CPU110は、補正後のズレ量に基づいて、基準画像を基準とした従画像のずらし量(基準画像の従画像のズレ量の相対値)を数式1に基づいて算出する(ステップS32)。
[数1]
従画像のずらし量=補正後の基準画像のズレ量−切り出し後の従画像のズレ量
CPU110は、ステップS32で算出されたずらし量を立体画像信号処理手段133に入力する。立体画像信号処理手段133は、全体画像の再生に用いられた右目用画像からステップS30で求められた切り出すべき領域を切り出し、切り出された右目用画像を入力されたずらし量だけ垂直方向に平行移動させる(ステップS33)。図12(b)、(c)に示す場合に左目用画像を基準画像とすると、従画像である右目用画像の移動量は、XVn−0=XVnと算出される。したがって、CPU110は、右目用画像をズレ量XVnだけ垂直方向に移動させる。
立体画像信号処理手段133は、全体画像の再生に用いられた左目用画像からステップS30で求められた切り出すべき領域を切り出す。切り出された左目用画像(基準画像)と、ステップS33で垂直方向に移動された右目用画像(従画像)とから表示用の画像を生成し、モニタ16に出力する(ステップS34)。これにより、視差ズレが解消された拡大画像がモニタ16に表示される。
本実施の形態によれば、画像の左右方向の端部を抜き出して拡大表示する場合等、右撮像系と左撮像系との間に回転ズレがあることにより発生する垂直方向の視差ズレの影響が大きい場合において、垂直方向の視差ズレをなくすことができる。視差ズレを無くすにあたり、検査時の測定結果を用いるため、再生の度に特徴点、対応点の検出等の画像処理を行う必要がないため、短時間で拡大画像を表示することができる。
また、本実施の形態によれば、右目用画像、左目用画像のそれぞれについて、複数の領域におけるズレ量を測定、記憶するようにしたため、ディストーション等により右目用画像、左目用画像に歪みがある場合にも適切なズレ量で従画像を平行移動させることができる。特に、動画の場合に有効である。
なお、本実施の形態では、ステップS33で算出されたずらし量だけ従画像を移動させることで視差ズレを解消させたが、基準画像、従画像の双方を移動させるようにしても良い。図15は、基準画像、従画像の双方を移動させることで視差ズレを解消させる処理の流れを示すフローチャートである。
モニタ16に全体画像が表示された状態下で、ズームボタン21により拡大表示することを示す指示が入力され、かつ十字ボタン26により右方向又は左方向への移動を示す指示が入力されると、CPU110はこれを検出する(ステップS10)。
CPU110は、立体画像信号処理手段133において、全体画像の再生に用いられる右目用画像及び左目用画像切り出された領域は、撮影された右目用画像及び左目用画像のどこの領域であるかをそれぞれ検出する(ステップS24)。
CPU110は、ステップS10において、ズームボタン21により拡大表示することを示す指示が入力されたか否かを判断する(ステップS25)。拡大表示することを示す指示が入力されていない場合(ステップS25で「されていない」)は、モニタ16への表示は変更しない(ステップS26)。
拡大表示することを示す指示が入力された場合(ステップS25で「された」)には、CPU110は、拡大表示することを示す指示の倍率が何倍であるかを示す情報を取得し(ステップS27)、ステップS10において十字ボタン26から再生領域の移動を示す指示が入力されたか否かを判断する(ステップS28)。
十字ボタン26から再生領域の移動を示す指示が入力されていない場合(ステップS28で「されていない」)には、拡大表示することを示す指示のみが入力された場合であるため、CPU110は、ステップS27で検出した倍率を立体画像信号処理手段133に出力する。立体画像信号処理手段133は、CPU110から入力された倍率に応じて拡大表示に必要な領域を右目用画像及び左目用画像から切り出し、ビデオエンコーダ134を介してモニタ16に出力する。これにより、全体画像の中心が指示された倍率でモニタ16に拡大表示される(ステップS29)。
十字ボタン26から再生領域の移動を示す指示が入力されていない場合(ステップS28で「されていない」)には、拡大表示することを示す指示及び再生領域の移動を示す指示が入力された場合であるため、CPU110は、ステップS10で入力された移動を示す指示の移動量を検出し、検出された移動量及びステップS27で検出した倍率を立体画像信号処理手段133に出力する。立体画像信号処理手段133は、入力された移動量及び倍率に基づいて右目用画像及び左目用画像から切り出すべき領域を求め、切り出すべき領域の中心が、図8の領域A〜Yの中心のうちのどれに最も近いかを右目用画像及び左目用画像のそれぞれについて検出する(ステップS30)。立体画像信号処理手段133は、検出結果をCPU100に出力する。
CPU110は、ステップS24で最も近いと検出された領域に関連付けられたズレ量をSDRAM114から取得する(ステップS31)。CPU110は、ステップS31で取得された右目用画像及び左目用画像のズレ量にステップS27で取得した倍率を掛けて、ズレ量を補正する。そして、CPU110は、補正後のズレ量に基づいて、基準画像を基準とした従画像のずらし量を数式1に基づいて算出する(ステップS32)。
CPU110は、ステップS32で算出されたずらし量を立体画像信号処理手段133に入力する。立体画像信号処理手段133は、入力されたずらし量が2n(nは自然数)ピクセルであるか否かを判断する(ステップS35)。
立体画像信号処理手段133は、全体画像の再生に用いられた左目用画像からステップS30で求められた切り出すべき領域を切り出し、全体画像の再生に用いられた右目用画像からステップS30で求められた切り出すべき領域を切り出す。ずらし量が2nピクセルである場合(ステップS35でYES)には、立体画像信号処理手段133は、切り出された左目用画像(以下、切り出し後の基準画像という)と、切り出された右目用画像(以下、切り出し後の従画像という)を反対方向にnピクセルずつ移動させる。すなわち、立体画像信号処理手段133は、切り出し後の左目用画像をnピクセル垂直方向に移動させ、切り出し後の従画像を−nピクセル垂直方向に平行移動させる(ステップS36)。
ずらし量が2nピクセルでない場合、すなわちずらし量が2n+1ピクセルである場合(ステップS35でYES)には、立体画像信号処理手段133は、切り出し後の基準画像をnピクセル移動させ、切り出し後の従画像を反対方向にn+1ピクセル移動させる(ステップS37)。
CPU110は、ステップS36で垂直方向に移動された切り出し後の基準画像と切り出し後の従画像とから、又はステップS37で垂直方向に移動された切り出し後の基準画像と切り出し後の従画像とから表示用の画像を生成し、モニタ16に出力する(ステップS34)。これにより、視差ズレが解消された拡大画像がモニタ16に表示される。
本変形例によれば、右目用画像と左目用画像とを均等に移動させるため、必要以上に大きな再生しろを持たなくてよい。したがって、より広角側で立体画像の撮影を行うことができる。なお、右目用画像と左目用画像とを均等に移動させることを、第1の実施の形態に適用してもよい。
<第3の実施の形態>
本発明の第1の実施の形態は、垂直方向のズレ量を出荷時の検査で測定し、この測定結果を用いて垂直方向の視差ズレをなくしたが、垂直方向の視差ズレをなくす方法はこれに限られない。
本発明の第3の実施の形態は、回転方向のズレ量を出荷時の検査で測定し、この測定結果を用いて垂直方向の視差ズレをなくす形態である。以下、第3の実施の形態の複眼デジタルカメラ3について説明する。複眼デジタルカメラ3の作用は、モニタ16に再生表示された画像を確認しながら画像の一部を拡大表示する処理以外は複眼デジタルカメラ1、2と同一であるため、複眼デジタルカメラ3の作用については、モニタ16に再生表示された画像を確認しながら画像の一部を拡大表示する処理のみについて説明する。また、第1の実施の形態又は第2の実施の形態と同一の部分については、同一の符号を付し、説明を省略する。
図16は、複眼デジタルカメラ3の主要な内部構成を示すブロック図である。複眼デジタルカメラ3は、主として、CPU110、操作手段(レリーズスイッチ20、MENU/OKボタン25、十字ボタン26等)112、SDRAM114、VRAM116、AF検出手段118、AE/AWB検出手段120、撮像素子122、123、CDS/AMP124、125、A/D変換器126、127、画像入力コントローラ128、画像信号処理手段130、圧縮伸張処理手段132、立体画像信号処理手段133、ビデオエンコーダ134、メディアコントローラ136、音入力処理手段138、記録メディア140、フォーカスレンズ駆動手段142、143、ズームレンズ駆動手段144、145、絞り駆動手段146、147、タイミングジェネレータ(TG)148、149、特徴点検出手段150、対応点検出手段152、光軸ズレ検査手段156で構成される。
光軸ズレ検査手段156は、複眼デジタルカメラ3の検査時に左目用画像及び右目用画像と、撮影対象との回転方向のズレ(回転ズレ)を検査する。光軸ズレ検査手段156は、その検査結果をSDRAM114に出力し、検査結果はSDRAM114に記憶される。
複眼デジタルカメラ3の出荷時には、複眼デジタルカメラ1と同様に、所定の距離の距離にある被写体の中心が、左目用画像及び右目用画像の中心に撮影されるように、右撮像系12及び左撮像系13の基線長及び輻輳角が機械的及び電気的に調整されるが、右撮像系12及び左撮像系13のローテーション(回転ズレ)を完全に一致させることができない。したがって、この回転ズレを右撮像系12及び左撮像系13のそれぞれについて検査を行う。
図17は、右撮像系12及び左撮像系13の回転ズレを検査する処理の流れを示すフローチャートである。以下の処理は、主として光軸ズレ検査手段156により行われる。
CPU110は、図3(a)に示すように十字状に線が引かれたチャートを右撮像系12及び左撮像系13を用いて撮影することにより、右目用画像と左目用画像とを撮影する(ステップS41)。CPU110は、撮影結果を光軸ズレ検査手段154に出力する。
光軸ズレ検査手段156は、右目用画像と左目用画像とのそれぞれについて回転ズレ量を測定する(ステップS42)。図18に示すように、光軸ズレ検査手段156は、右目用画像の右端において、チャートの横の線H1と右端との交点R1(略中央)と、実際に右目用画像に撮影された線V3の右端との交点R3との垂直方向のズレ量hを測定し、垂直方向のズレ量hを水平方向の長さlで割ることにより右目用画像の回転ズレ量θ2を算出する。同様の方法により、左目用画像についても回転ズレ量θ1を算出する。右目用画像、左目用画像のそれぞれの回転ズレ量の絶対値を算出する場合には、チャートの横の線H1が水平、縦の線V1が垂直となるように正確に設置されている必要がある点に留意する。
なお、回転ズレ量θ1、θ2の算出方法はこれに限られない。例えば、図18では右端を基準に回転ズレ量を算出したが、右端基準に限らず、左端、上端、下端を基準としてもよい。また、垂直方向のズレ量と水平方向の長さとから角度を算出するのではなく、直接角度を測定するようにしても良い。
また、本実施の形態では、回転ズレ量θ1、θ2を絶対値として算出したが、相対値として算出してもよい。例えば、左目用画像を基準とする場合には、左目用画像については、絶対値の場合と同様に回転ズレ量θ1を算出する。基準で無い右目用画像については、左目用画像の傾きが「0」であるとした場合に右目用画像が何度傾いているかを回転ズレ量θ2’として算出するようにすればよい。
光軸ズレ検査手段156は、このようにして測定された回転ズレ量θ1、θ2をSDRAM114に出力し、回転ズレ量θ1、θ2がSDRAM114に記憶される(ステップS43)。
なお、図17に示すフローでは、右目用画像及び左目用画像の回転ズレ量の絶対値を算出、記憶したが、右目用画像の回転ズレ量と左目用画像の回転ズレ量との相対差を算出、記憶するようにしてもよい。
以上のように構成された複眼デジタルカメラ3の作用について説明する。図19は、モニタ16に再生表示された全体画像の中心から水平方向に移動した領域をモニタ16に拡大表示させる場合に、右目用画像と左目用画像との中心のズレを解消する処理の流れを示すフローチャートである。以下の処理は、主としてCPU110で行われる。
モニタ16に全体画像が表示された状態下で、ズームボタン21により拡大表示することを示す指示が入力され、かつ十字ボタン26により右方向又は左方向への移動を示す指示が入力されると、CPU110はこれを検出する(ステップS10)。
CPU110は、立体画像信号処理手段133において、全体画像の再生に用いられる右目用画像及び左目用画像切り出された領域は、撮影された右目用画像及び左目用画像のどこの領域であるかをそれぞれ検出する(ステップS24)。
CPU110は、ステップS10において、ズームボタン21により拡大表示することを示す指示が入力されたか否かを判断する(ステップS25)。拡大表示することを示す指示が入力されていない場合(ステップS25で「されていない」)は、モニタ16への表示は変更しない(ステップS26)。
拡大表示することを示す指示が入力された場合(ステップS25で「された」)には、CPU110は、拡大表示することを示す指示の倍率が何倍であるかを示す情報を取得し(ステップS27)、ステップS10において十字ボタン26から再生領域の移動を示す指示が入力されたか否かを判断する(ステップS28)。
十字ボタン26から再生領域の移動を示す指示が入力されていない場合(ステップS28で「されていない」)には、拡大表示することを示す指示のみが入力された場合であるため、CPU110は、ステップS27で検出した倍率を立体画像信号処理手段133に出力する。立体画像信号処理手段133は、CPU110から入力された倍率に応じて拡大表示に必要な領域を右目用画像及び左目用画像から切り出し、ビデオエンコーダ134を介してモニタ16に出力する。これにより、全体画像の中心が指示された倍率でモニタ16に拡大表示される(ステップS29)。
十字ボタン26から再生領域の移動を示す指示が入力された場合(ステップS28で「された」)には、拡大表示することを示す指示及び再生領域の移動を示す指示が入力された場合であるため、CPU110は、ステップS10で入力された移動を示す指示の移動量を検出し、検出された移動量及びステップS27で検出した倍率を立体画像信号処理手段133に出力する。立体画像信号処理手段133は、入力された移動量及び倍率に基づいて全体画像の表示に用いられる右目用画像及び左目用画像から拡大表示のために切り出すべき領域を求め、切り出された右目用画像の拡大表示に必要な領域の中心と、撮影された右目用画像との中心との距離と、切り出された左目用画像の拡大表示に必要な領域の中心と、撮影された左目用画像との中心との距離を取得する(ステップS44)。図20に示す場合には、右目用画像の拡大表示に必要な領域の中心と、右目用画像の中心との水平方向の距離は1800ピクセルであり、図21に示す場合には、左目用画像の拡大表示に必要な領域の中心と、左目用画像の中心との水平方向の距離は1600ピクセルである。立体画像信号処理手段133は、取得した結果をCPU100に出力する。
CPU110は、SDRAM114から回転ズレ量θ1、θ2を取得する。そして、CPU110は、立体画像信号処理手段133から入力された結果と、SDRAM114から取得した回転ズレ量θ1、θ2とから、数式2に基づいて拡大表示に必要な領域の中心における垂直方向のズレ量を右目用画像、左目用画像のそれぞれについて算出する(ステップS45)。
[数2]
垂直方向のズレ量(左目用画像)=撮影された左目用画像の中心と左目用画像の拡大表示に必要な領域の中心との距離×左目用画像の回転ズレ量θ1
垂直方向のズレ量(右目用画像)=撮影された右目用画像の中心と右目用画像の拡大表示に必要な領域の中心との距離×右目用画像の回転ズレ量θ2
図20に示す場合には、右目用画像の拡大表示に必要な領域の中心と、撮影された右目用画像の中心との水平方向の距離は1800ピクセルであり、SDRAM114から取得された回転ズレ量はθ2である。したがって、CPU110は、垂直方向のズレ量を1800ピクセル×θ2(3°)=94ピクセルと算出する。図21に示す場合には、左目用画像の拡大表示に必要な領域の中心と、撮影された左目用画像の中心との水平方向の距離は1600ピクセルである。したがって、CPU110は、垂直方向のズレ量を1600ピクセル×θ2(0°)=0ピクセルと算出する。
CPU110は、ステップS45で取得された右目用画像及び左目用画像のズレ量にステップS27で取得した倍率を掛けて、ズレ量を補正する。そして、CPU110は、補正後のズレ量に基づいて、基準画像を基準とした従画像のずらし量(基準画像の従画像のズレ量の相対値)を数式1に基づいて算出する(ステップS46)。
CPU110は、ステップS46で算出されたずらし量を立体画像信号処理手段133に入力する。立体画像信号処理手段133は、全体画像の再生に用いられた右目用画像からステップS30で求められた切り出すべき領域を切り出し、切り出された右目用画像を入力されたずらし量だけ垂直方向に平行移動させる(ステップS33)。
立体画像信号処理手段133は、全体画像の再生に用いられた左目用画像からステップS30で求められた切り出すべき領域を切り出す。切り出された左目用画像(基準画像)と、ステップS33で垂直方向に移動された右目用画像(従画像)とから表示用の画像を生成し、モニタ16に出力する(ステップS34)。これにより、視差ズレが解消された拡大画像がモニタ16に表示される。
本実施の形態によれば、画像の左右方向の端部を抜き出して拡大表示する場合等、右撮像系と左撮像系との間に回転ズレがあることにより発生する垂直方向の視差ズレの影響が大きい場合において、垂直方向の視差ズレをなくすことができる。視差ズレを無くすにあたり、検査時の測定結果を用いるため、再生の度に特徴点、対応点の検出を行う必要がないため、短時間で拡大画像を表示することができる。
また、本実施の形態によれば、第2の実施の形態のように、検査時に、複数の位置における垂直方向のズレ量の測定は必要なく、回転ズレの角度を求めればよい。すなわち、垂直方向のズレが1箇所で済む。したがって、検査時の手間を省き、検査に要する時間を短縮することができる。
なお、第1の実施の形態から第3の実施の形態では、視差ズレを無くして拡大表示された画像の再生を行ったが、視差ズレを無くして拡大表示された画像を保存するようにしてもよい。これにより、画像表示の際にズレ量等を計算する必要が無いため、視差ズレのない見やすい画像をすぐ表示することができる。この効果は、画像再生時の計算量が多い第1の実施の形態が最も高い。また、他の表示手段で再生する場合も、視差ズレが無くなるように補正されているため見やすい画像となる。
なお、本発明の適用は、撮像系が2つの複眼デジタルカメラに限定されるものではなく、3つ以上の撮像系をもつ複眼デジタルカメラでもよい。3つ以上の撮像系をもつ複眼デジタルカメラの場合には、全ての撮像系を用いて撮影を行う必要はなく、少なくとも2つの撮像系を用いればよい。また、撮像系は横に並んでいる場合に限定されず、斜め等に並んでいても良い。
また、本発明は、複眼デジタルカメラに限らず、右目用画像、左目用画像が入力され、立体画像が表示可能なモニタを備えたビューワ、PC等の各種立体画像表示装置にも適用することができる。また、複眼デジタルカメラ、立体画像表示装置等に適用するプログラムとして提供することもできる。第2の実施の形態、第3の実施の形態のように検査時の結果を用いる場合には、右目用画像、左目用画像の画像ファイルのタブ等に検査時の結果を記憶させる等の方法により、画像と共に検査時の結果が取得できるようにすればよい。