JP2006157432A - Three-dimensional photographic apparatus and photographic method of three-dimensional image - Google Patents
Three-dimensional photographic apparatus and photographic method of three-dimensional image Download PDFInfo
- Publication number
- JP2006157432A JP2006157432A JP2004344565A JP2004344565A JP2006157432A JP 2006157432 A JP2006157432 A JP 2006157432A JP 2004344565 A JP2004344565 A JP 2004344565A JP 2004344565 A JP2004344565 A JP 2004344565A JP 2006157432 A JP2006157432 A JP 2006157432A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature point
- image data
- processing
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、2つの撮像手段によって被写体を同時に撮像し、立体画像を示す2つの画像データを取得する立体画像撮影装置及び立体画像の撮影方法に関するものである。 The present invention relates to a stereoscopic image capturing apparatus and a stereoscopic image capturing method for capturing an image of a subject at the same time with two image capturing means and acquiring two image data indicating a stereoscopic image.
近年、3次元の立体画像に対する関心が高まっており、立体撮影を行うことのできる立体画像撮影装置(以下、「立体カメラ」ともいう。)も製品化されている。 In recent years, interest in three-dimensional stereoscopic images has increased, and a stereoscopic image capturing apparatus (hereinafter also referred to as “stereoscopic camera”) capable of performing stereoscopic imaging has been commercialized.
この種の立体カメラでは、一般に、被写体を撮像するための撮像系が2つ備えられており、各撮像系での被写体に対する視差の違いにより、各撮像系によって同時に撮像を行って得られた2つの画像を立体画像として再生することができる。 In general, this type of stereoscopic camera is provided with two imaging systems for imaging a subject, and 2 obtained by performing imaging simultaneously with each imaging system due to a difference in parallax with respect to the subject in each imaging system. One image can be reproduced as a stereoscopic image.
しかしながら、立体カメラでは2つの撮像系を用いて撮影を行うため、2つの撮像系の間で微妙な画角のずれを生じ、各撮像系により撮像された2つの画像内での主要被写体像の位置に、視差によるずれ以外に、画角のずれによる位置ずれを生じてしまう。 However, since a stereoscopic camera performs shooting using two imaging systems, a slight shift in the angle of view occurs between the two imaging systems, and the main subject image in the two images captured by each imaging system In addition to the shift due to the parallax, a positional shift due to a shift in the angle of view occurs in the position.
この画角のずれによる位置ずれを調整するために適用できる技術として、特許文献1には、2つの撮像系を有するステレオカメラにおいて、2つの撮像系によって調整用パターンを撮像し、得られた2つの画像でのパターン像の位置ずれに基づいて画角のずれを求め、拡大率、回転ずれ量、並進ずれ量等の画角調整用パラメータを予め算出し、被写体を撮影した際に画角調整用パラメータに基づいて、撮影した画像に対してアフィン変換を行って画角のずれによる位置ずれを補正する技術が記載されている。
しかしながら、特許文献1の技術を適用した立体カメラでは、予め調整用パターンの撮像を行う必要があり、著しく手間がかかる、という問題点があった。特に、立体カメラでは、一般に2つの撮像系を機械的に取り付けており、経年変化によって機械的な画角のずれが発生するため、定期的に調整用パターンの撮像を行う必要があり、この問題は深刻である。 However, the stereoscopic camera to which the technique of Patent Document 1 is applied has a problem in that it is necessary to image an adjustment pattern in advance, which is extremely troublesome. In particular, in a stereoscopic camera, two image pickup systems are generally mechanically attached, and a mechanical angle of view shifts due to secular change. Therefore, it is necessary to periodically pick up an adjustment pattern. Is serious.
本発明は上記問題点を解決するためになされたものであり、画角のずれに起因する主要被写体の位置ずれを簡単に補正することができる立体画像撮影装置及び立体画像の撮影方法を提供することを目的とする。 The present invention has been made to solve the above-described problems, and provides a stereoscopic image capturing apparatus and a stereoscopic image capturing method capable of easily correcting a positional shift of a main subject due to a shift of a field angle. For the purpose.
上記目的を達成するために、請求項1に記載の発明は、2つの撮像手段によって被写体を同時に撮像し、立体画像を示す2つの画像データを取得する立体画像撮影装置であって、前記2つの画像データにより示される各画像の予め定められた領域から対応する特徴点を検出する検出手段と、前記検出手段により検出された特徴点の前記各画像間での位置を比較し、対応する特徴点の位置を一致させるための補正パラメータを導出する導出手段と、前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行う処理手段と、を備えている。 In order to achieve the above object, the invention described in claim 1 is a stereoscopic image capturing apparatus that simultaneously captures an image of a subject by two imaging means and acquires two image data indicating a stereoscopic image. A detection unit that detects a corresponding feature point from a predetermined region of each image indicated by the image data, and a position of the feature point detected by the detection unit between the images is compared, and the corresponding feature point Deriving means for deriving correction parameters for matching the positions of the image data, and processing means for performing at least one of shift processing, reduction processing or enlargement processing on at least one of the image data based on the correction parameters And.
請求項1に記載の発明によれば、検出手段によって2つの画像データにより示される各画像の予め定められた領域から対応する特徴点が検出され、導出手段によって前記検出手段により検出された特徴点の前記各画像間での位置を比較し、対応する特徴点の位置を一致させるための補正パラメータが導出され、処理手段によって前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つが行われる。 According to the first aspect of the present invention, the corresponding feature point is detected from the predetermined region of each image indicated by the two image data by the detection unit, and the feature point is detected by the detection unit by the derivation unit. Correction positions for comparing the positions of the respective images and matching the positions of the corresponding feature points are derived, and shift processing is performed on at least one of the image data based on the correction parameters by the processing means. At least one of the reduction process or the enlargement process is performed.
このように、請求項1に記載の発明によれば、2つの画像データにより示される各画像の予め定められた領域から対応する特徴点を検出し、検出された特徴点の前記各画像間での位置を比較して対応する特徴点の位置を一致させるための補正パラメータを導出し、前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行っているので、画角のずれに起因する主要被写体の位置ずれを簡単に補正することができる。 Thus, according to the first aspect of the present invention, corresponding feature points are detected from a predetermined area of each image indicated by two image data, and the detected feature points are detected between the images. Correction position for deriving a correction parameter for matching the positions of the corresponding feature points, and at least one of the image data based on the correction parameter is shifted, reduced, or enlarged Since at least one of them is performed, it is possible to easily correct the position shift of the main subject due to the view angle shift.
なお、本発明は、請求項2記載の発明のように、前記検出手段が、前記2つの画像データにより示される各画像のうちの何れか一方の画像の前記予め定められた領域から所定位置の画素を特徴点として定め、他方の画像の前記予め定められた領域から前記特徴点の輝度情報及び輝度の変化量情報を含む特徴情報が一致する画素を前記対応する特徴点として検出するようにしてもよい。 According to the present invention, as in the second aspect of the invention, the detection unit is arranged at a predetermined position from the predetermined area of one of the images indicated by the two image data. A pixel is defined as a feature point, and a pixel having the same feature information including luminance information of the feature point and luminance change amount information is detected as the corresponding feature point from the predetermined region of the other image. Also good.
また、本発明は、請求項3記載の発明のように、前記予め定められた領域が、前記2つの画像データにより示される各画像の4隅に設けられていることが好ましい。 In the present invention, it is preferable that the predetermined area is provided at four corners of each image indicated by the two image data, as in the invention described in claim 3.
一方、上記目的を達成するために、請求項4に記載の発明は、2つの撮像手段によって被写体を同時に撮像し、立体画像を示す2つの画像データを取得する立体画像の撮影方法であって、前記2つの画像データにより示される各画像の予め定められた領域から対応する特徴点を検出し、検出された特徴点の前記各画像間での位置を比較し、対応する特徴点の位置を一致させるための補正パラメータを導出し、前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行う、ことを特徴としている。 On the other hand, in order to achieve the above object, the invention described in claim 4 is a stereoscopic image capturing method in which a subject is simultaneously imaged by two imaging means, and two image data indicating a stereoscopic image is acquired. Corresponding feature points are detected from a predetermined area of each image indicated by the two image data, the positions of the detected feature points between the images are compared, and the positions of the corresponding feature points are matched. Correction parameters are derived, and at least one of shift processing, reduction processing, or enlargement processing is performed on at least one of the image data based on the correction parameters.
従って、請求項4に記載の立体画像の撮影方法は、請求項1と同様の作用を生じさせることができるので、請求項1記載の発明と同様に、画角のずれに起因する主要被写体の位置ずれを簡単に補正することができる。 Therefore, the method for capturing a stereoscopic image according to claim 4 can produce the same effect as that of claim 1, so that, as in the invention of claim 1, the main subject subject caused by the deviation of the angle of view. Misalignment can be easily corrected.
なお、本発明は、請求項5記載の発明のように、前記2つの画像データにより示される各画像のうちの何れか一方の画像の前記予め定められた領域から所定位置の画素を特徴点として定め、他方の画像の前記予め定められた領域から前記特徴点の輝度情報及び輝度の変化量情報を含む特徴情報が一致する画素を前記対応する特徴点として検出してもよい。 Note that, as in the invention described in claim 5, the present invention uses a pixel at a predetermined position from the predetermined area of one of the images indicated by the two image data as a feature point. The pixel having the same feature information including the luminance information of the feature point and the luminance change amount information may be detected as the corresponding feature point from the predetermined region of the other image.
また、本発明は、請求項6記載の発明のように、前記予め定められた領域が、前記2つの画像データにより示される各画像の4隅に設けられていることが好ましい。 In the present invention, it is preferable that the predetermined areas are provided at four corners of each image indicated by the two image data, as in the invention described in claim 6.
以上説明したように、2つの画像データにより示される各画像の予め定められた領域から対応する特徴点を検出し、検出された特徴点の前記各画像間での位置を比較して対応する特徴点の位置を一致させるための補正パラメータを導出し、前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行っているので、画角のずれに起因する主要被写体の位置ずれを簡単に補正することができる、という優れた効果を有する。 As described above, a corresponding feature point is detected from a predetermined region of each image indicated by two image data, and the position of the detected feature point between the images is compared and the corresponding feature is detected. Since a correction parameter for matching the position of the point is derived and at least one of shift processing, reduction processing, or enlargement processing is performed on at least one of the image data based on the correction parameter, It has an excellent effect that the position shift of the main subject due to the angle of view can be easily corrected.
以下、図面を参照して、本発明の実施の形態について詳細に説明する。なお、ここでは、2台の画像撮影装置を用いて立体画像の撮影を行う立体画像撮影システムに対して本発明を適用した場合について説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Here, a case where the present invention is applied to a stereoscopic image capturing system that captures a stereoscopic image using two image capturing devices will be described.
まず、図1を参照して、本実施の形態に係る立体画像撮影システム10の構成を説明する。
First, with reference to FIG. 1, the structure of the three-dimensional
同図に示されるように、立体画像撮影システム10は、2台の画像撮影装置12、13と、画像撮影装置12、13を支持する支持部材15と、撮影された画像を表示する画像表示装置14と、を含んで構成されている。
As shown in the figure, the stereoscopic
画像撮影装置12、13は、同一の主要被写体を所定間隔を隔てて異なる視点から撮影可能なように支持部材15に機械的に取り付けられている。これにより、前記所定間隔が主要被写体に対する視差となり、撮影によって得られた2つの画像に基づいて立体画像を再生することが可能となっている。
The image capturing
画像撮影装置12、13は、被写体像を結像させるためのレンズ部21をそれぞれ備えている。また、画像撮影装置12、13の上面には、撮影を実行する際に押圧操作されるレリーズボタン(所謂シャッター)56Aと、電源スイッチ56Bと、がそれぞれ備えられている。
Each of the image capturing
なお、本実施の形態に係る画像撮影装置12、13のレリーズボタン56Aは、中間位置まで押下される状態(以下、「半押し状態」という。)と、当該中間位置を超えた最終押下位置まで押下される状態(以下、「全押し状態」という。)と、の2段階の押圧操作が検出可能に構成されている。
Note that the
画像撮影装置12、13では、レリーズボタン56Aを半押し状態にすることによりAE(Automatic Exposure、自動露出)機能が働いて露出状態(シャッタースピード、絞りの状態)が設定された後、AF(Auto Focus、自動合焦)機能が働いて合焦制御され、その後、引き続き全押し状態にすると露光(撮影)が行われる。
In the image capturing
なお、本実施の形態に係る画像撮影装置12、13は、他の画像撮影装置との間でAE機能、AF機能の作動を同期させるための信号(以下、同期信号という。)を入出力するためのコネクタ16が設けられると共に、当該コネクタ16を介してケーブル19により互いに接続されており、画像撮影装置12又は画像撮影装置13の何れかのレリーズボタン56Aが半押し状態とされると、画像撮影装置12、13で略同時にAE機能、AF機能が作動する。
Note that the image capturing
また、画像撮影装置12、13には、ビデオ信号出力コネクタ17及びビデオ信号入力コネクタ18がそれぞれ設けられており、画像撮影装置12、13による撮影によって取得された各画像データがビデオ信号に変換されてビデオ信号出力コネクタ17から出力されている。
Further, the image capturing
ここで、画像撮影装置12のビデオ信号出力コネクタ17は、画像表示装置14にビデオケーブル20Aを介して接続されている。よって、画像表示装置14には、画像撮影装置12により撮影された画像が表示される。一方、画像撮影装置13のビデオ信号出力コネクタ17は、画像撮影装置12のビデオ信号入力コネクタ18にビデオケーブル20Bを介して接続されている。画像撮影装置13による撮影によって得られた画像データはビデオ信号として画像撮影装置12に入力される。
Here, the video
次に、図2を参照して、画像撮影装置12、13の電気系の主要構成を説明する。なお、画像撮影装置12、13は同一の構成であるため、ここでは、画像撮影装置12の構成についてのみ説明する。
Next, the main configuration of the electrical system of the
画像撮影装置12は、レンズ部21の内部に構成された光学ユニット22と、光学ユニット22の光軸後方に配設された電荷結合素子(以下、「CCD」という。)24と、入力されたアナログ信号に対して各種のアナログ信号処理を行うアナログ信号処理部26と、入力されたアナログ信号をデジタルデータに変換するアナログ/デジタル変換器(以下、「ADC」という。)28と、入力されたデジタルデータに対して各種のデジタル信号処理を行うデジタル信号処理部30と、を含んで構成されている。
The
なお、デジタル信号処理部30は、所定容量のラインバッファを内蔵し、入力されたデジタルデータを後述するRAM48の所定領域に直接記憶させる制御も行う。
The digital
CCD24の出力端はアナログ信号処理部26の入力端に、アナログ信号処理部26の出力端はADC28の入力端に、ADC28の出力端はデジタル信号処理部30の入力端に、各々接続されている。従って、CCD24から出力された被写体像を示すアナログ信号はアナログ信号処理部26によって所定のアナログ信号処理が施され、ADC28によってデジタル画像データに変換された後にデジタル信号処理部30に入力される。
The output terminal of the
一方、画像撮影装置12は、装置全体の動作を司るCPU(中央処理装置)40と、主として撮影により得られたデジタル画像データを記憶するRAM48と、後述する画像補正プログラムを含む各種プログラムや各種パラメータ等が予め記憶されたROM49と、を含んで構成されている。
On the other hand, the
また、画像撮影装置12は、可搬型のメモリカード15を画像撮影装置12でアクセス可能とするためのメディアインタフェース回路50と、撮影されたデジタル画像データに対して圧縮処理及び伸張処理を行う圧縮・伸張回路54と、ビデオ信号入力コネクタ18から入力されたビデオ信号に対してサンプリングを行い、デジタル画像データに変換する外部同期制御回路60と、外部同期制御回路60により変換されたデジタル画像データを一旦記憶する画像バッファメモリ62と、画像バッファメモリ62及びRAM48にそれぞれ記憶されたデジタル画像データにより示される各画像の所定領域から特徴点を求め、各画像間の特徴点の画素の特徴情報を比較する特徴点位置比較部64と、デジタル画像データに対してシフト処理と拡大処理又は縮小処理とを行う画角ゆがみ補正回路66と、RAM48に記憶されたデジタル画像データをビデオ信号に変換してビデオ信号出力コネクタ17へ出力するビデオエンコーダ68と、を含んで構成されている。
In addition, the
なお、本実施の形態の画像撮影装置12では、メモリカード15としてスマートメディア(Smart Media(登録商標))が用いられている。また、圧縮・伸張回路54は、所定の静止画像圧縮方式(本実施の形態では、JPEG(Joint Photographic Coding Expert Group)方式。)に従って圧縮処理乃至伸張処理を行う。
In the
デジタル信号処理部30、CPU40、RAM48、ROM49、メディアインタフェース回路50、圧縮・伸張回路54、画像バッファメモリ62、特徴点位置比較部64、画角ゆがみ補正回路66、及びビデオエンコーダ68は、システムバスBUSを介して相互に接続されている。従って、CPU40は、デジタル信号処理部30、圧縮・伸張回路54、特徴点位置比較部64、及び画角ゆがみ補正回路66の作動の制御、画像バッファメモリ62、RAM48、及びROM49へのアクセス、メモリカード15へのメディアインタフェース回路50を介したアクセス、を各々行うことができる。
The digital
一方、本実施の形態の画像撮影装置12には、主としてCCD24を駆動させるためのタイミング信号を生成してCCD24に供給するタイミングジェネレータ32が備えられており、CCD24の駆動はCPU40によりタイミングジェネレータ32を介して制御される。
On the other hand, the
更に、画像撮影装置12にはAE/AF制御部34が備えられており、光学ユニット22に備えられた図示しない焦点調整モータ及び絞り駆動モータの駆動もCPU40によりAE/AF制御部34を介して制御される。
Further, the
すなわち、本実施の形態に係る光学ユニット22は、図示しないレンズ駆動機構を備えている。このレンズ駆動機構に上記焦点調整モータ及び絞り駆動モータは含まれるものであり、これらのモータは各々CPU40の制御によりAE/AF制御部34から供給された駆動信号によって駆動される。
That is, the
また、前述のレリーズボタン56A及び電源スイッチ56B(同図では、「操作部56」と総称。)はCPU40に接続されており、CPU40は、これらの操作部56に対する操作状態を常時把握できる。
In addition, the
さらに、画像撮影装置12は、コネクタ16を介して入力された同期信号に同期させてAE機能、AF機能を作動させるためのAE/AF同期制御部70を備えており、AE/AF同期制御部70はシステムバスBUSに接続されている。CPU40は、自身のレリーズボタン56Aが半押し状態とされたことを検出すると、AE/AF同期制御部70を制御してAE機能、AF機能の作動を同期させるための同期信号をコネクタ16へ出力させる。また、AE/AF同期制御部70がコネクタ16を介して同期信号を受信すると、CPU40は、AE/AF制御部34によりAE機能、AF機能を作動させる。
Further, the
次に、本実施の形態に係る画像撮影装置12の撮影時における全体的な動作について簡単に説明する。
Next, an overall operation at the time of photographing of the
CCD24は、光学ユニット22を介した撮像を行い、被写体像を示すR(赤)、G(緑)、B(青)毎のアナログ信号をアナログ信号処理部26に順次出力する。アナログ信号処理部26は、CCD24から入力されたアナログ信号に対して相関二重サンプリング処理等のアナログ信号処理を施した後にADC28に順次出力する。
The
ADC28は、アナログ信号処理部26から入力されたR、G、B毎のアナログ信号を各々12ビットのR、G、Bの信号(デジタル画像データ)に変換してデジタル信号処理部30に順次出力する。デジタル信号処理部30は、内蔵しているラインバッファにADC28から順次入力されるデジタル画像データを蓄積して一旦RAM48の所定領域に直接格納する。
The
RAM48の所定領域に格納されたデジタル画像データは、CPU40による制御に応じてデジタル信号処理部30により読み出され、所定の物理量に応じたデジタルゲインをかけることでホワイトバランス調整を行うと共に、ガンマ処理及びシャープネス処理を行って8ビットのデジタル画像データを生成する。
The digital image data stored in the predetermined area of the
そして、デジタル信号処理部30は、生成した8ビットのデジタル画像データに対しYC信号処理を施して輝度信号Yとクロマ信号Cr、Cb(以下、「YC信号」という。)に変換し、YC信号をRAM48の上記所定領域とは異なる領域に格納する。
Then, the digital
なお、画像撮影装置12、13では、CCD24による連続的な撮像によって得られた動画像(スルー画像)のYC信号をビデオエンコーダ68によってビデオ信号に変換してビデオ信号出力コネクタ17から出力している。従って、画像表示装置14には、画像撮影装置12による撮影によって得られた動画像(スルー画像)が表示される。
In the
画像撮影装置12では、レリーズボタン56Aが半押し状態とされると、前述のようにAE機能が作動して露出状態が設定された後、AF機能が作動して合焦制御される。また、これと同時に画像撮影装置12では、画像撮影装置13へ同期信号が出力される。これにより、画像撮影装置13においても画像撮影装置12に同期してAE機能、AF機能が作動する。この後、画像撮影装置12のレリーズボタン56Aが全押し状態とされることにより撮影が行われる。
In the
ここで、画像撮影装置12、13は支持部材15に機械的に取り付けられているため、画角調整のばらつきや経年変化によって生じる機械的なずれなどにより画像撮影装置12、13の画角は厳密には一致せず、わずかながら画角のずれが生じていることが多い。
Here, since the
このため、本実施の形態に係る画像撮影装置12では、CPU40により、レリーズボタン56Aが全押し状態とされた時点でRAM48に格納されているデジタル画像データ(以下、デジタル画像データBという。)と、画像バッファメモリ62に記憶されている、画像撮影装置13から入力されたビデオ信号に基づくデジタル画像データ(以下、デジタル画像データAという。)と、の少なくとも一方に対して画像補正プログラムによる補正処理を行っている。
For this reason, in the
次に、図3を参照して、当該実行される画像補正プログラムによる補正処理について説明する。なお、図3は、画像補正プログラムの処理の流れを示すフローチャートである。 Next, correction processing by the executed image correction program will be described with reference to FIG. FIG. 3 is a flowchart showing the flow of processing of the image correction program.
同図のステップ100では、画像バッファメモリ62に記憶されているデジタル画像データAと、メモリカード15に記憶されているデジタル画像データBとを特徴点位置比較部64へ転送する。以下、デジタル画像データAにより示される画像を画像Aといい、デジタル画像データBにより示される画像を画像Bという。なお、図4(A)及び図4(B)には、画像A及び画像Bの一例が示されている。
In
デジタル画像データA及びデジタル画像データBが転送されてくると、特徴点位置比較部64では、デジタル画像データAにより示される画像Aの予め定められた位置に位置される4隅の領域を各々特徴点検出領域80A、80B、80C、80Dとして、特徴点検出領域80A、80B、80C、80Dから各々の所定位置(本実施の形態では、各特徴点検出領域の中心位置)を特徴点82A、82B、82C、82Dとして定めて、各特徴点の画像A内での位置(座標)を求める。なお、特徴点検出領域80A、80B、80C、80Dを予め定めることなく、予め定めた位置を特徴点82A、82B、82C、82Dとしてもよい。
When the digital image data A and the digital image data B are transferred, the feature point
また、特徴点位置比較部64では、特徴点82A、82B、82C、82Dに位置される各画素の特徴情報として輝度と、当該特徴点の周辺画素との輝度の変化量を導出する。
In addition, the feature point
そして、特徴点位置比較部64は、デジタル画像データBにより示される画像Bの、画像Aと同一の位置に位置される4隅の領域を各々特徴点検出領域80E、80F、80G、80Hとして、特徴点検出領域80Eから輝度及び輝度の変化量が特徴点82Aの輝度及び輝度の変化量に対して所定範囲内にある画素を検出して、特徴点82Aに対応する特徴点82Eとし、同様に、特徴点検出領域80Fから特徴点82Bに対応する特徴点82Fを、特徴点検出領域80Gから特徴点82Cに対応する特徴点82Gを、特徴点検出領域80Hから特徴点82Dに対応する特徴点82Hを、各々検出して、特徴点82E、82F、82G、82H画像B内での位置を求める。なお、上記所定範囲は、被写体の明るさに応じて調整することが好ましい。また、上記所定範囲内となる画素が複数存在する場合、本実施の形態では、画像Bの特徴点との輝度の差の絶対値と輝度の変化量の差の絶対値を合計した合計が最も小さい画素を対応する特徴点とし、当該画素が複数存在する場合は、画像Bの特徴点の位置と最も近い画素を対応する特徴点とする形態をとっているが、これに限定されない。
Then, the feature point
そして、CPU40は、特徴点位置比較部64によって求められた特徴点82A〜82Hの位置をRAM48に記憶させる。
Then, the CPU 40 causes the
ここで、画像A及び画像Bの水平方向をX方向とし、垂直方向をY方向として、RAM48に記憶した特徴点82A〜82Hの位置を(XA、YA)〜(XH、YH)と表す。
Here, the horizontal direction of the images A and B is the X direction, the vertical direction is the Y direction, and the positions of the feature points 82A to 82H stored in the
次のステップ102では、画像Aの特徴点82Aと特徴点82Cを結ぶ直線と、画像Bの特徴点82Eと特徴点82Gを結ぶ直線の位置を一致させるための位置補正量Hを算出する。すなわち、図5に示すように、特徴点82Eと特徴点82Gを結ぶ直線Bを特徴点82Aと特徴点82Cを結ぶ直線Aに一致させるように画素をシフトさせる位置補正量Hを算出する。
In the
ここで、画像Aと画像Bの間で互いに対応する特徴点82Aと特徴点82EのX方向の差はXE−XAであり、特徴点82Cと特徴点82GのX方向の差はXG−XCである。また、特徴点82Aと特徴点82CのX方向の差はYC−YAである。
Here, the difference in the X direction between the
よって、図5に示される、直線Aと直線Bとの間の傾き(角度)表す値αを以下の(1)式のように求めることができる。 Therefore, the value α representing the inclination (angle) between the straight line A and the straight line B shown in FIG. 5 can be obtained as in the following equation (1).
傾きα=((XG−XC)−(XE−XA))/(YC−YA)・・・(1)
ここで、Y方向の位置に応じて、直線Aと直線Bの差の値だけ画像Bの画素をX方向へシフトさせることにより、直線Aと直線Bが一致する。すなわち、特徴点82AのY方向の位置(Y=YA)での位置補正量HをXE−XAとし、特徴点82CのY方向の位置(Y=YC)での位置補正量HをXG−XCとすると、位置補正量HとY方向の位置との関係を図8の直線Dのように示すことができる。この図8では、前記傾きαが直線Dの傾きを示す値となるため、直線Dに示されるY方向の位置と位置補正量Hとの関係式を以下の(2)式により表すことができ、(2)式によりY方向の位置に応じた位置補正量Hを算出できる。
Inclination α = ((X G −X C ) − (X E −X A )) / (Y C −Y A ) (1)
Here, according to the position in the Y direction, the pixels of the image B are shifted in the X direction by the difference between the straight lines A and B, so that the straight lines A and B coincide. That is, the position correction amount H at the position of the
位置補正量H=α(Y−YA)+(XE−XA)・・・(2)
次のステップ104では、画像Aと画像BのX方向の距離を一致させるための倍率Mを算出する。
Position correction amount H = α (Y−Y A ) + (X E −X A ) (2)
In the
すなわち、図4に示される画像Aの特徴点82Aと特徴点82BのX方向の距離XB−XA、及び特徴点82Dと特徴点82CのX方向の距離XD−XCが、画像Bにおいて特徴点82Fと特徴点82EのX方向の距離XF−XE、及び特徴点82Hと特徴点82GのX方向の距離XH−XGと変化している。
That is, the X-direction distance X B -X A between the
よって、特徴点82AのY方向の位置(Y=YA)でのX方向の倍率Mは(XH−XG)/(XD−XC)であり、特徴点82Cの位置(Y=YC)でのX方向の倍率Mは(XF−XE)/(XB−XA)となるため、倍率MとY方向の位置との関係を図6の直線Cのように示すことができる。この直線Cの傾きβは以下の(3)式より算出できる。
Therefore, the magnification M in the X direction at the position of the
倍率M=β(Y−YA)+(XH−XG)/(XD−XC)・・・(4)
次のステップ106では、画像Bは画像Aと比較した際にX方向への縮小が必要であるかを否かを、(4)式から算出される倍率Mが画像BのY方向の画像領域(画像Bの左上の画素から左下の画素。)において1未満となるか否かを判定しており、肯定判定の場合はステップ108へ移行し、否定判定の場合はステップ110へ移行する。
Magnification M = β (Y−Y A ) + (X H −X G ) / (X D −X C ) (4)
In the
ステップ108では、ステップ104において画像BのY方向の画像領域において倍率Mが縮小となる部分が存在するため、デジタル画像データAを画角ゆがみ補正回路66へ出力し、画像BのY方向の画像領域において(4)式から求められる最小の倍率Mを1で割ることにより求められる倍率(1/最小の倍率M。)でデジタル画像データAにより示される画像A全体に対して拡大処理を行う。すなわち、最小の倍率Mが1未満であるため、最小の倍率Mを1で割ることにより求められる倍率は拡大となる。さらに、デジタル画像データAに対して拡大に伴なう画素の補間処理を行って処理後の画像Aを新たなデジタル画像データAとして画像バッファメモリ62に記憶させ、再度ステップ100へ移行する。これにより、画像Aが拡大されたため、画像Bを縮小する必要が無くなり、画像Aに対する画像Bのけられを防止することができる。
In
一方、次のステップ110では、RAM48に記憶されてるデジタル画像データBにより示される画像Bの水平方向(X方向)の1ライン分のデータを読み込んで、画角ゆがみ補正回路66へ出力する。
On the other hand, in the next step 110, data for one line in the horizontal direction (X direction) of the image B indicated by the digital image data B stored in the
次のステップ112では、読み込んだ1ラインのデータの画像BにおけるY方向の位置に対応する位置補正量H及び倍率Mを(2)式及び(4)式を用いて導出する。 In the next step 112, a position correction amount H and a magnification M corresponding to the position in the Y direction in the image B of the read one line data are derived using the equations (2) and (4).
次のステップ114では、画角ゆがみ補正回路において、1ライン分のデータに対して(2)式から算出した位置補正量Hに基づきX方向への位置のシフト処理、及び(4)式から算出した倍率Mに基づきX方向への拡大処理を行い、シフト処理及び拡大処理に伴なう画素の補間処理を行い、各画素の位置での濃度値を算出し、算出した1ラインのデータをRAM48のデジタル画像データBとは異なる所定領域に補正されたデジタル画像データとして記憶させる。
In the
次のステップ116では、デジタル画像データBの全ての水平方向のラインを読み込んだか否かが判定され、否定判定の場合はステップ110へ移行して新たに1ラインのデータを読み込みを行い、肯定判定の場合はステップ118へ移行する。
In the
ステップ118では、RAM48に格納されているシフト処理及び拡大処理により補正されたデジタル画像データを及び画像バッファメモリ62に記憶されているデジタル画像データAを順次圧縮・伸張回路54へ出力し、圧縮・伸張回路54によって符号化及び離散コサイン変換等の処理を伴なう所定の静止画像圧縮方式(本実施の形態では、JPEG方式)での圧縮処理を行わせ、メディアインタフェース回路50を介してメモリカード15に記憶させて処理終了となる。
In
ここで、図7(A)は、シフト処理及び拡大処理を行わなかった場合の立体画像を示しており、図7(B)は、本実施の形態に係る補正処理を行った立体画像を示している。 Here, FIG. 7A shows a stereoscopic image when the shift process and the enlargement process are not performed, and FIG. 7B shows a stereoscopic image subjected to the correction process according to the present embodiment. ing.
図7(A)に示されるように、シフト処理及び拡大処理を行わなかった場合は、2つの画像に背景部分に画角のずれによる位置ずれが生じている。 As shown in FIG. 7A, when the shift process and the enlargement process are not performed, a position shift due to a field angle shift occurs in the background portion between the two images.
一方、図7(B)に示されるように、本実施の形態に係る補正処理によれば、特徴点82A、82B、82C、82Dと対応する特徴点82E、82F、82G、82Hとの水平方向の位置が一致するようになる。すなわち、図7(B)に示すように、背景部分については、撮影した画像の被写体の位置に基づいて画角のずれ等による位置ずれを補正される。また、中央部分に撮影された主要被写体(図7では人物像。)については、視差による位置ずれ生じているため、立体的に再生することができる。 On the other hand, as shown in FIG. 7B, according to the correction processing according to the present embodiment, the feature points 82A, 82B, 82C, and 82D and the corresponding feature points 82E, 82F, 82G, and 82H in the horizontal direction. The positions of match. That is, as shown in FIG. 7B, the positional deviation of the background portion due to the deviation of the angle of view or the like is corrected based on the position of the subject of the captured image. In addition, the main subject (a person image in FIG. 7) photographed in the central portion is misaligned due to parallax and can be reproduced in a three-dimensional manner.
以上のように本実施の形態によれば、2つの撮像手段(ここでは、CCD24)によって被写体を同時に撮像し、立体画像を示す2つの画像データを取得する立体画像撮影装置であって、検出手段(ここでは、特徴点位置比較部64)は、2つの画像データにより示される各画像の予め定められた領域から対応する特徴点を検出し、導出手段(ここでは、CPU40)は、前記検出手段により検出された特徴点の前記各画像間での位置を比較し、対応する特徴点の位置を一致させるための補正パラメータを導出し、処理手段(ここでは、画角ゆがみ補正回路66)は、前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行っているので、画角のずれに起因する主要被写体の位置ずれを簡単に補正することができる。 As described above, according to the present embodiment, a stereoscopic image capturing apparatus that simultaneously captures an image of a subject by two imaging units (in this case, the CCD 24) and acquires two image data indicating a stereoscopic image is provided. (Here, the feature point position comparison unit 64) detects a corresponding feature point from a predetermined area of each image indicated by the two image data, and the derivation means (here, the CPU 40) uses the detection means. Comparing the positions of the feature points detected by each of the images, deriving correction parameters for matching the positions of the corresponding feature points, and processing means (here, the angle-of-view distortion correction circuit 66) Since at least one of shift processing, reduction processing, or enlargement processing is performed on at least one of the image data based on the correction parameter, it is caused by a shift in the angle of view. It is possible to easily correct the positional deviation of the main subject.
また、検出手段が、前記2つの画像データにより示される各画像のうちの何れか一方の画像の前記予め定められた領域から所定位置の画素を特徴点として定め、他方の画像の前記予め定められた領域から前記特徴点の輝度情報及び輝度の変化量情報を含む特徴情報が一致する画素を前記対応する特徴点として検出しているので、各画像から対応する特徴点を的確に検出することができる。 Further, the detection means determines a pixel at a predetermined position as a feature point from the predetermined region of one of the images indicated by the two image data, and the predetermined of the other image. Since the pixel having the same feature information including the luminance information of the feature point and the luminance change amount information is detected as the corresponding feature point, the corresponding feature point can be accurately detected from each image. it can.
さらに、前記予め定められた領域が、前記2つの画像データにより示される各画像の4隅に設けられているので、各画像の4隅に設けられた領域から特徴点を検出して、対応する特徴点の位置を一致させることで、各画像の間のゆがみを補正することができる。 Further, since the predetermined areas are provided at the four corners of each image indicated by the two image data, the feature points are detected from the areas provided at the four corners of each image, and the corresponding areas are detected. By matching the positions of the feature points, the distortion between the images can be corrected.
なお、本実施の形態では、水平方向(X方向)の位置補正量H及び倍率Mを算出して2つの画像の水平方向を一致させたが、垂直方向(Y方向)についても、同様の処理により位置補正量H及び倍率Mを算出して2つの画像の垂直方向を一致させることができる。 In the present embodiment, the horizontal direction (X direction) position correction amount H and magnification M are calculated to match the horizontal direction of the two images, but the same processing is performed in the vertical direction (Y direction). Thus, the position correction amount H and the magnification M can be calculated to match the vertical directions of the two images.
また、本実施の形態では、各特徴点検出領域の中心位置を特徴点80A、80B、80C、80Dとしたが、画素の特徴情報に基づいて特徴点を定めてもよい。例えば、各特徴点検出領域内で最も輝度の大きい画素を特徴点80A、80B、80C、80Dとしてもよい。 In the present embodiment, the center position of each feature point detection region is set to the feature points 80A, 80B, 80C, and 80D. However, the feature points may be determined based on the feature information of the pixels. For example, the pixel with the highest luminance in each feature point detection area may be set as the feature points 80A, 80B, 80C, and 80D.
また、本実施の形態では、対応する特徴点を画素の輝度情報及び輝度の変化量情報に基づいて検出したが、画素の濃度値(階調値)情報、濃度値の変化量情報などの画素の特徴を表す特徴情報に基づいて対応する特徴点を検出してもよい。 Further, in the present embodiment, the corresponding feature points are detected based on the luminance information and luminance change information of the pixels, but pixels such as pixel density value (tone value) information and density value change information are used. Corresponding feature points may be detected based on feature information representing the features.
また、本実施の形態では、特徴点を検出する予め定められた領域を画像の4隅に設けられた領域としたが、4隅以外の領域であってもよい。また、画像の水平方向あるいは垂直方向のライン毎に対応する特徴点を検出して1ライン毎に補正処理を行ってもよい。 In the present embodiment, the predetermined areas for detecting the feature points are areas provided at the four corners of the image, but areas other than the four corners may be used. Further, a feature point corresponding to each horizontal or vertical line of the image may be detected and correction processing may be performed for each line.
また、本実施の形態では、補正処理において画像データBに対して拡大処理を行って位置ずれを一致させたが、縮小処理を行うことにより位置ずれを一致させてもよい。また、画像データAと画像データBの少なくとも一方に対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行うことにより位置ずれを一致させてもよい。 In this embodiment, the enlargement process is performed on the image data B in the correction process so as to match the positional deviation. However, the positional deviation may be matched by performing a reduction process. Further, the positional deviation may be matched by performing at least one of a shift process and a reduction process or an enlargement process on at least one of the image data A and the image data B.
さらに、本実施の形態では、2台の画像撮影装置12、13と、支持部材15と、画像表示装置14と、により構成された立体画像撮影システム10として説明を行ったが、単体の画像撮影装置に2つの撮像系を設けて立体画像撮影装置として構成し、2つの撮像系によって撮像した2つの画像データに対して補正処理を行うようにしてもよい。また、撮像系を2つ以上の複数個設け、撮像された複数の画像データの何れか1つを基準画像データとして他の画像データとの間で補正処理を行ってもよい。
Further, in the present embodiment, the stereoscopic
その他、本実施の形態で説明した立体画像撮影システム10の構成(図1〜図2参照。)は、一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。
In addition, the configuration of the stereoscopic
また、本実施の形態で説明した画像補正プログラムの処理の流れ(図3参照。)も一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。 The processing flow of the image correction program described in the present embodiment (see FIG. 3) is also an example, and it goes without saying that it can be changed as appropriate without departing from the gist of the present invention.
10 立体画像撮影システム
12 画像撮影装置
13 画像撮影装置
24 CCD
40 CPU
64 特徴点位置比較部
66 画角ゆがみ補正回路
DESCRIPTION OF
40 CPU
64 feature point
Claims (6)
前記2つの画像データにより示される各画像の予め定められた領域から対応する特徴点を検出する検出手段と、
前記検出手段により検出された特徴点の前記各画像間での位置を比較し、対応する特徴点の位置を一致させるための補正パラメータを導出する導出手段と、
前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行う処理手段と、
を備えた立体画像撮影装置。 A stereoscopic image capturing device that simultaneously captures an image of a subject by two imaging means and acquires two image data indicating a stereoscopic image,
Detecting means for detecting a corresponding feature point from a predetermined region of each image indicated by the two image data;
Derivation means for comparing the positions of the feature points detected by the detection means between the images and deriving correction parameters for matching the positions of the corresponding feature points;
Processing means for performing at least one of shift processing, reduction processing, or enlargement processing on at least one of the image data based on the correction parameter;
A stereoscopic image photographing apparatus comprising:
前記2つの画像データにより示される各画像の予め定められた領域から対応する特徴点を検出し、
検出された特徴点の前記各画像間での位置を比較し、対応する特徴点の位置を一致させるための補正パラメータを導出し、
前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行う
ことを特徴とする立体画像の撮影方法。 A method for capturing a stereoscopic image, in which a subject is simultaneously imaged by two imaging means and two image data indicating a stereoscopic image are acquired,
Detecting a corresponding feature point from a predetermined region of each image indicated by the two image data;
Comparing the positions of the detected feature points between the images and deriving correction parameters for matching the positions of the corresponding feature points;
A stereoscopic image capturing method, wherein at least one of shift processing, reduction processing, or enlargement processing is performed on at least one of the image data based on the correction parameter.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004344565A JP2006157432A (en) | 2004-11-29 | 2004-11-29 | Three-dimensional photographic apparatus and photographic method of three-dimensional image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004344565A JP2006157432A (en) | 2004-11-29 | 2004-11-29 | Three-dimensional photographic apparatus and photographic method of three-dimensional image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006157432A true JP2006157432A (en) | 2006-06-15 |
Family
ID=36635185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004344565A Pending JP2006157432A (en) | 2004-11-29 | 2004-11-29 | Three-dimensional photographic apparatus and photographic method of three-dimensional image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006157432A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009044496A (en) * | 2007-08-09 | 2009-02-26 | Fujifilm Corp | Photographing field angle calculation apparatus |
WO2010061956A1 (en) | 2008-11-27 | 2010-06-03 | Fujifilm Corporation | Stereoscopic image processing device, method, recording medium and stereoscopic imaging apparatus |
JP2011239379A (en) * | 2010-04-30 | 2011-11-24 | Sony Europe Ltd | Image capturing system, image capturing apparatus, and image capturing method |
CN102547354A (en) * | 2010-12-20 | 2012-07-04 | 索尼公司 | Correction value calculation apparatus, compound eye imaging apparatus, and method of controlling correction value calculation apparatus |
CN102665087A (en) * | 2012-04-24 | 2012-09-12 | 浙江工业大学 | Automatic shooting parameter adjusting system of three dimensional (3D) camera device |
JP2013114505A (en) * | 2011-11-29 | 2013-06-10 | Fujitsu Ltd | Stereo image generating apparatus, stereo image generating method, and computer program for stereo image generation |
JP2014527196A (en) * | 2011-08-03 | 2014-10-09 | トゥルアリティ, エルエルシー | Method for correcting zoom setting and / or vertical offset of stereo film frame, and control or adjustment system for a camera rig having two cameras |
JP5765418B2 (en) * | 2011-05-06 | 2015-08-19 | 富士通株式会社 | Stereoscopic image generation apparatus, stereoscopic image generation method, and stereoscopic image generation program |
US9225958B2 (en) | 2012-03-15 | 2015-12-29 | Panasonic Intellectual Property Management Co., Ltd. | Video signal processor and method of processing video signal |
US10165249B2 (en) | 2011-07-18 | 2018-12-25 | Truality, Llc | Method for smoothing transitions between scenes of a stereo film and controlling or regulating a plurality of 3D cameras |
-
2004
- 2004-11-29 JP JP2004344565A patent/JP2006157432A/en active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009044496A (en) * | 2007-08-09 | 2009-02-26 | Fujifilm Corp | Photographing field angle calculation apparatus |
WO2010061956A1 (en) | 2008-11-27 | 2010-06-03 | Fujifilm Corporation | Stereoscopic image processing device, method, recording medium and stereoscopic imaging apparatus |
US8111910B2 (en) | 2008-11-27 | 2012-02-07 | Fujifilm Corporation | Stereoscopic image processing device, method, recording medium and stereoscopic imaging apparatus |
JP2011239379A (en) * | 2010-04-30 | 2011-11-24 | Sony Europe Ltd | Image capturing system, image capturing apparatus, and image capturing method |
CN102547354A (en) * | 2010-12-20 | 2012-07-04 | 索尼公司 | Correction value calculation apparatus, compound eye imaging apparatus, and method of controlling correction value calculation apparatus |
JP2012134609A (en) * | 2010-12-20 | 2012-07-12 | Sony Corp | Correction value calculation apparatus, compound-eye imaging apparatus, and method of controlling correction value calculation apparatus |
JP5765418B2 (en) * | 2011-05-06 | 2015-08-19 | 富士通株式会社 | Stereoscopic image generation apparatus, stereoscopic image generation method, and stereoscopic image generation program |
US10165249B2 (en) | 2011-07-18 | 2018-12-25 | Truality, Llc | Method for smoothing transitions between scenes of a stereo film and controlling or regulating a plurality of 3D cameras |
JP2014527196A (en) * | 2011-08-03 | 2014-10-09 | トゥルアリティ, エルエルシー | Method for correcting zoom setting and / or vertical offset of stereo film frame, and control or adjustment system for a camera rig having two cameras |
US10356329B2 (en) | 2011-08-03 | 2019-07-16 | Christian Wieland | Method for correcting the zoom setting and/or the vertical offset of frames of a stereo film and control or regulating system of a camera rig having two cameras |
JP2013114505A (en) * | 2011-11-29 | 2013-06-10 | Fujitsu Ltd | Stereo image generating apparatus, stereo image generating method, and computer program for stereo image generation |
US9225958B2 (en) | 2012-03-15 | 2015-12-29 | Panasonic Intellectual Property Management Co., Ltd. | Video signal processor and method of processing video signal |
CN102665087A (en) * | 2012-04-24 | 2012-09-12 | 浙江工业大学 | Automatic shooting parameter adjusting system of three dimensional (3D) camera device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8155432B2 (en) | Photographing apparatus | |
US8619120B2 (en) | Imaging apparatus, imaging method and recording medium with program recorded therein | |
US6812969B2 (en) | Digital camera | |
TWI514847B (en) | Image processing device, image processing method, and recording medium | |
JP6222514B2 (en) | Image processing apparatus, imaging apparatus, and computer program | |
US8878910B2 (en) | Stereoscopic image partial area enlargement and compound-eye imaging apparatus and recording medium | |
KR101433121B1 (en) | Image processing device for generating composite image having predetermined aspect ratio | |
JP2010230879A (en) | Double eye camera device | |
JP2012222495A (en) | Image processor, image processing method, and program | |
US8913173B2 (en) | Imaging apparatus and imaging method | |
JP2006162991A (en) | Stereoscopic image photographing apparatus | |
CN102263894B (en) | Imaging apparatus | |
JP2002077947A (en) | Method for correcting stereoscopic image and stereoscopic image apparatus using the same | |
JP2006238326A (en) | Camera device system and photographed moving image reproduction method | |
JP2006157432A (en) | Three-dimensional photographic apparatus and photographic method of three-dimensional image | |
JPH10200804A (en) | Camera type scanner | |
JP2014131190A (en) | Image pick-up apparatus, control method thereof, and control program | |
JP4907956B2 (en) | Imaging device | |
JP5123010B2 (en) | Imaging apparatus, imaging method, and program for causing computer included in imaging apparatus to execute imaging method | |
JP2009169884A (en) | Photographing device, control method of photographing device, and image reproduction device, method and program | |
JP2008107480A (en) | Focusing controller and imaging apparatus | |
JP3761318B2 (en) | Imaging device adjustment system | |
JP5354035B2 (en) | An imaging device with a zoom mechanism. | |
JP5641352B2 (en) | Image processing apparatus, image processing method, and program | |
JP2009260567A (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20070221 |