Nothing Special   »   [go: up one dir, main page]

JP2006157432A - Three-dimensional photographic apparatus and photographic method of three-dimensional image - Google Patents

Three-dimensional photographic apparatus and photographic method of three-dimensional image Download PDF

Info

Publication number
JP2006157432A
JP2006157432A JP2004344565A JP2004344565A JP2006157432A JP 2006157432 A JP2006157432 A JP 2006157432A JP 2004344565 A JP2004344565 A JP 2004344565A JP 2004344565 A JP2004344565 A JP 2004344565A JP 2006157432 A JP2006157432 A JP 2006157432A
Authority
JP
Japan
Prior art keywords
image
feature point
image data
processing
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004344565A
Other languages
Japanese (ja)
Inventor
Takashi Ebato
尚 江波戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2004344565A priority Critical patent/JP2006157432A/en
Publication of JP2006157432A publication Critical patent/JP2006157432A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology for correcting a positional deviation due to deviations in the field angle on the basis of a position of an object in a photographed image, to obtain a three-dimensional image. <P>SOLUTION: A feature point position comparison section 64 detects a feature point from a predetermined region of each image denoted by two pieces of image data, a CPU 40 compares the positions between images at the detected feature point, derives a correction parameter for matching the positions of the corresponding feature points, a field angle distortion correcting circuit 66 applies at least one among shift processing, reduction processing and magnification processing to at least one of the image data, on the basis of the correction parameter. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、2つの撮像手段によって被写体を同時に撮像し、立体画像を示す2つの画像データを取得する立体画像撮影装置及び立体画像の撮影方法に関するものである。   The present invention relates to a stereoscopic image capturing apparatus and a stereoscopic image capturing method for capturing an image of a subject at the same time with two image capturing means and acquiring two image data indicating a stereoscopic image.

近年、3次元の立体画像に対する関心が高まっており、立体撮影を行うことのできる立体画像撮影装置(以下、「立体カメラ」ともいう。)も製品化されている。   In recent years, interest in three-dimensional stereoscopic images has increased, and a stereoscopic image capturing apparatus (hereinafter also referred to as “stereoscopic camera”) capable of performing stereoscopic imaging has been commercialized.

この種の立体カメラでは、一般に、被写体を撮像するための撮像系が2つ備えられており、各撮像系での被写体に対する視差の違いにより、各撮像系によって同時に撮像を行って得られた2つの画像を立体画像として再生することができる。   In general, this type of stereoscopic camera is provided with two imaging systems for imaging a subject, and 2 obtained by performing imaging simultaneously with each imaging system due to a difference in parallax with respect to the subject in each imaging system. One image can be reproduced as a stereoscopic image.

しかしながら、立体カメラでは2つの撮像系を用いて撮影を行うため、2つの撮像系の間で微妙な画角のずれを生じ、各撮像系により撮像された2つの画像内での主要被写体像の位置に、視差によるずれ以外に、画角のずれによる位置ずれを生じてしまう。   However, since a stereoscopic camera performs shooting using two imaging systems, a slight shift in the angle of view occurs between the two imaging systems, and the main subject image in the two images captured by each imaging system In addition to the shift due to the parallax, a positional shift due to a shift in the angle of view occurs in the position.

この画角のずれによる位置ずれを調整するために適用できる技術として、特許文献1には、2つの撮像系を有するステレオカメラにおいて、2つの撮像系によって調整用パターンを撮像し、得られた2つの画像でのパターン像の位置ずれに基づいて画角のずれを求め、拡大率、回転ずれ量、並進ずれ量等の画角調整用パラメータを予め算出し、被写体を撮影した際に画角調整用パラメータに基づいて、撮影した画像に対してアフィン変換を行って画角のずれによる位置ずれを補正する技術が記載されている。
特開平10−307352号公報
As a technique that can be applied to adjust the positional deviation due to the deviation of the angle of view, Patent Document 1 discloses that a stereo camera having two imaging systems captures an adjustment pattern with two imaging systems, and 2 Determining the angle of view based on the positional deviation of the pattern image in one image, pre-calculating angle-of-view adjustment parameters such as magnification, rotational displacement, translational displacement, etc., and adjusting the angle of view when shooting the subject A technique is described in which affine transformation is performed on a photographed image on the basis of parameters for use to correct a positional shift due to a shift in the angle of view.
JP-A-10-307352

しかしながら、特許文献1の技術を適用した立体カメラでは、予め調整用パターンの撮像を行う必要があり、著しく手間がかかる、という問題点があった。特に、立体カメラでは、一般に2つの撮像系を機械的に取り付けており、経年変化によって機械的な画角のずれが発生するため、定期的に調整用パターンの撮像を行う必要があり、この問題は深刻である。   However, the stereoscopic camera to which the technique of Patent Document 1 is applied has a problem in that it is necessary to image an adjustment pattern in advance, which is extremely troublesome. In particular, in a stereoscopic camera, two image pickup systems are generally mechanically attached, and a mechanical angle of view shifts due to secular change. Therefore, it is necessary to periodically pick up an adjustment pattern. Is serious.

本発明は上記問題点を解決するためになされたものであり、画角のずれに起因する主要被写体の位置ずれを簡単に補正することができる立体画像撮影装置及び立体画像の撮影方法を提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides a stereoscopic image capturing apparatus and a stereoscopic image capturing method capable of easily correcting a positional shift of a main subject due to a shift of a field angle. For the purpose.

上記目的を達成するために、請求項1に記載の発明は、2つの撮像手段によって被写体を同時に撮像し、立体画像を示す2つの画像データを取得する立体画像撮影装置であって、前記2つの画像データにより示される各画像の予め定められた領域から対応する特徴点を検出する検出手段と、前記検出手段により検出された特徴点の前記各画像間での位置を比較し、対応する特徴点の位置を一致させるための補正パラメータを導出する導出手段と、前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行う処理手段と、を備えている。   In order to achieve the above object, the invention described in claim 1 is a stereoscopic image capturing apparatus that simultaneously captures an image of a subject by two imaging means and acquires two image data indicating a stereoscopic image. A detection unit that detects a corresponding feature point from a predetermined region of each image indicated by the image data, and a position of the feature point detected by the detection unit between the images is compared, and the corresponding feature point Deriving means for deriving correction parameters for matching the positions of the image data, and processing means for performing at least one of shift processing, reduction processing or enlargement processing on at least one of the image data based on the correction parameters And.

請求項1に記載の発明によれば、検出手段によって2つの画像データにより示される各画像の予め定められた領域から対応する特徴点が検出され、導出手段によって前記検出手段により検出された特徴点の前記各画像間での位置を比較し、対応する特徴点の位置を一致させるための補正パラメータが導出され、処理手段によって前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つが行われる。   According to the first aspect of the present invention, the corresponding feature point is detected from the predetermined region of each image indicated by the two image data by the detection unit, and the feature point is detected by the detection unit by the derivation unit. Correction positions for comparing the positions of the respective images and matching the positions of the corresponding feature points are derived, and shift processing is performed on at least one of the image data based on the correction parameters by the processing means. At least one of the reduction process or the enlargement process is performed.

このように、請求項1に記載の発明によれば、2つの画像データにより示される各画像の予め定められた領域から対応する特徴点を検出し、検出された特徴点の前記各画像間での位置を比較して対応する特徴点の位置を一致させるための補正パラメータを導出し、前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行っているので、画角のずれに起因する主要被写体の位置ずれを簡単に補正することができる。   Thus, according to the first aspect of the present invention, corresponding feature points are detected from a predetermined area of each image indicated by two image data, and the detected feature points are detected between the images. Correction position for deriving a correction parameter for matching the positions of the corresponding feature points, and at least one of the image data based on the correction parameter is shifted, reduced, or enlarged Since at least one of them is performed, it is possible to easily correct the position shift of the main subject due to the view angle shift.

なお、本発明は、請求項2記載の発明のように、前記検出手段が、前記2つの画像データにより示される各画像のうちの何れか一方の画像の前記予め定められた領域から所定位置の画素を特徴点として定め、他方の画像の前記予め定められた領域から前記特徴点の輝度情報及び輝度の変化量情報を含む特徴情報が一致する画素を前記対応する特徴点として検出するようにしてもよい。   According to the present invention, as in the second aspect of the invention, the detection unit is arranged at a predetermined position from the predetermined area of one of the images indicated by the two image data. A pixel is defined as a feature point, and a pixel having the same feature information including luminance information of the feature point and luminance change amount information is detected as the corresponding feature point from the predetermined region of the other image. Also good.

また、本発明は、請求項3記載の発明のように、前記予め定められた領域が、前記2つの画像データにより示される各画像の4隅に設けられていることが好ましい。   In the present invention, it is preferable that the predetermined area is provided at four corners of each image indicated by the two image data, as in the invention described in claim 3.

一方、上記目的を達成するために、請求項4に記載の発明は、2つの撮像手段によって被写体を同時に撮像し、立体画像を示す2つの画像データを取得する立体画像の撮影方法であって、前記2つの画像データにより示される各画像の予め定められた領域から対応する特徴点を検出し、検出された特徴点の前記各画像間での位置を比較し、対応する特徴点の位置を一致させるための補正パラメータを導出し、前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行う、ことを特徴としている。   On the other hand, in order to achieve the above object, the invention described in claim 4 is a stereoscopic image capturing method in which a subject is simultaneously imaged by two imaging means, and two image data indicating a stereoscopic image is acquired. Corresponding feature points are detected from a predetermined area of each image indicated by the two image data, the positions of the detected feature points between the images are compared, and the positions of the corresponding feature points are matched. Correction parameters are derived, and at least one of shift processing, reduction processing, or enlargement processing is performed on at least one of the image data based on the correction parameters.

従って、請求項4に記載の立体画像の撮影方法は、請求項1と同様の作用を生じさせることができるので、請求項1記載の発明と同様に、画角のずれに起因する主要被写体の位置ずれを簡単に補正することができる。   Therefore, the method for capturing a stereoscopic image according to claim 4 can produce the same effect as that of claim 1, so that, as in the invention of claim 1, the main subject subject caused by the deviation of the angle of view. Misalignment can be easily corrected.

なお、本発明は、請求項5記載の発明のように、前記2つの画像データにより示される各画像のうちの何れか一方の画像の前記予め定められた領域から所定位置の画素を特徴点として定め、他方の画像の前記予め定められた領域から前記特徴点の輝度情報及び輝度の変化量情報を含む特徴情報が一致する画素を前記対応する特徴点として検出してもよい。   Note that, as in the invention described in claim 5, the present invention uses a pixel at a predetermined position from the predetermined area of one of the images indicated by the two image data as a feature point. The pixel having the same feature information including the luminance information of the feature point and the luminance change amount information may be detected as the corresponding feature point from the predetermined region of the other image.

また、本発明は、請求項6記載の発明のように、前記予め定められた領域が、前記2つの画像データにより示される各画像の4隅に設けられていることが好ましい。   In the present invention, it is preferable that the predetermined areas are provided at four corners of each image indicated by the two image data, as in the invention described in claim 6.

以上説明したように、2つの画像データにより示される各画像の予め定められた領域から対応する特徴点を検出し、検出された特徴点の前記各画像間での位置を比較して対応する特徴点の位置を一致させるための補正パラメータを導出し、前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行っているので、画角のずれに起因する主要被写体の位置ずれを簡単に補正することができる、という優れた効果を有する。   As described above, a corresponding feature point is detected from a predetermined region of each image indicated by two image data, and the position of the detected feature point between the images is compared and the corresponding feature is detected. Since a correction parameter for matching the position of the point is derived and at least one of shift processing, reduction processing, or enlargement processing is performed on at least one of the image data based on the correction parameter, It has an excellent effect that the position shift of the main subject due to the angle of view can be easily corrected.

以下、図面を参照して、本発明の実施の形態について詳細に説明する。なお、ここでは、2台の画像撮影装置を用いて立体画像の撮影を行う立体画像撮影システムに対して本発明を適用した場合について説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Here, a case where the present invention is applied to a stereoscopic image capturing system that captures a stereoscopic image using two image capturing devices will be described.

まず、図1を参照して、本実施の形態に係る立体画像撮影システム10の構成を説明する。   First, with reference to FIG. 1, the structure of the three-dimensional image photographing system 10 according to the present embodiment will be described.

同図に示されるように、立体画像撮影システム10は、2台の画像撮影装置12、13と、画像撮影装置12、13を支持する支持部材15と、撮影された画像を表示する画像表示装置14と、を含んで構成されている。   As shown in the figure, the stereoscopic image capturing system 10 includes two image capturing devices 12 and 13, a support member 15 that supports the image capturing devices 12 and 13, and an image display device that displays captured images. 14.

画像撮影装置12、13は、同一の主要被写体を所定間隔を隔てて異なる視点から撮影可能なように支持部材15に機械的に取り付けられている。これにより、前記所定間隔が主要被写体に対する視差となり、撮影によって得られた2つの画像に基づいて立体画像を再生することが可能となっている。   The image capturing devices 12 and 13 are mechanically attached to the support member 15 so that the same main subject can be photographed from different viewpoints at a predetermined interval. Accordingly, the predetermined interval becomes a parallax with respect to the main subject, and a stereoscopic image can be reproduced based on two images obtained by photographing.

画像撮影装置12、13は、被写体像を結像させるためのレンズ部21をそれぞれ備えている。また、画像撮影装置12、13の上面には、撮影を実行する際に押圧操作されるレリーズボタン(所謂シャッター)56Aと、電源スイッチ56Bと、がそれぞれ備えられている。   Each of the image capturing devices 12 and 13 includes a lens unit 21 for forming a subject image. Further, a release button (so-called shutter) 56A and a power switch 56B are provided on the upper surfaces of the image capturing devices 12 and 13 to be pressed when performing image capturing.

なお、本実施の形態に係る画像撮影装置12、13のレリーズボタン56Aは、中間位置まで押下される状態(以下、「半押し状態」という。)と、当該中間位置を超えた最終押下位置まで押下される状態(以下、「全押し状態」という。)と、の2段階の押圧操作が検出可能に構成されている。   Note that the release button 56A of the image capturing apparatuses 12 and 13 according to the present embodiment is in a state where it is pressed down to an intermediate position (hereinafter referred to as “half-pressed state”) and to a final pressed position that exceeds the intermediate position. It is configured to be able to detect a two-stage pressing operation of a pressed state (hereinafter referred to as a “fully pressed state”).

画像撮影装置12、13では、レリーズボタン56Aを半押し状態にすることによりAE(Automatic Exposure、自動露出)機能が働いて露出状態(シャッタースピード、絞りの状態)が設定された後、AF(Auto Focus、自動合焦)機能が働いて合焦制御され、その後、引き続き全押し状態にすると露光(撮影)が行われる。   In the image capturing devices 12 and 13, the release button 56A is half-pressed to activate the AE (Automatic Exposure) function to set the exposure state (shutter speed, aperture state), and then AF (Auto Focus (automatic focus) function works to control the focus, and then exposure (photographing) is performed when it is fully pressed.

なお、本実施の形態に係る画像撮影装置12、13は、他の画像撮影装置との間でAE機能、AF機能の作動を同期させるための信号(以下、同期信号という。)を入出力するためのコネクタ16が設けられると共に、当該コネクタ16を介してケーブル19により互いに接続されており、画像撮影装置12又は画像撮影装置13の何れかのレリーズボタン56Aが半押し状態とされると、画像撮影装置12、13で略同時にAE機能、AF機能が作動する。   Note that the image capturing devices 12 and 13 according to the present embodiment input and output signals for synchronizing the operations of the AE function and the AF function with other image capturing devices (hereinafter referred to as synchronization signals). When the release button 56A of the image capturing device 12 or the image capturing device 13 is half-pressed, the connector 16 is provided, and is connected to each other by the cable 19 via the connector 16. The AE function and the AF function are activated almost simultaneously in the photographing apparatuses 12 and 13.

また、画像撮影装置12、13には、ビデオ信号出力コネクタ17及びビデオ信号入力コネクタ18がそれぞれ設けられており、画像撮影装置12、13による撮影によって取得された各画像データがビデオ信号に変換されてビデオ信号出力コネクタ17から出力されている。   Further, the image capturing devices 12 and 13 are provided with a video signal output connector 17 and a video signal input connector 18, respectively, and each image data acquired by capturing by the image capturing devices 12 and 13 is converted into a video signal. Are output from the video signal output connector 17.

ここで、画像撮影装置12のビデオ信号出力コネクタ17は、画像表示装置14にビデオケーブル20Aを介して接続されている。よって、画像表示装置14には、画像撮影装置12により撮影された画像が表示される。一方、画像撮影装置13のビデオ信号出力コネクタ17は、画像撮影装置12のビデオ信号入力コネクタ18にビデオケーブル20Bを介して接続されている。画像撮影装置13による撮影によって得られた画像データはビデオ信号として画像撮影装置12に入力される。   Here, the video signal output connector 17 of the image capturing device 12 is connected to the image display device 14 via a video cable 20A. Therefore, the image captured by the image capturing device 12 is displayed on the image display device 14. On the other hand, the video signal output connector 17 of the image capturing device 13 is connected to the video signal input connector 18 of the image capturing device 12 via a video cable 20B. Image data obtained by photographing by the image photographing device 13 is input to the image photographing device 12 as a video signal.

次に、図2を参照して、画像撮影装置12、13の電気系の主要構成を説明する。なお、画像撮影装置12、13は同一の構成であるため、ここでは、画像撮影装置12の構成についてのみ説明する。   Next, the main configuration of the electrical system of the image capturing apparatuses 12 and 13 will be described with reference to FIG. Since the image capturing devices 12 and 13 have the same configuration, only the configuration of the image capturing device 12 will be described here.

画像撮影装置12は、レンズ部21の内部に構成された光学ユニット22と、光学ユニット22の光軸後方に配設された電荷結合素子(以下、「CCD」という。)24と、入力されたアナログ信号に対して各種のアナログ信号処理を行うアナログ信号処理部26と、入力されたアナログ信号をデジタルデータに変換するアナログ/デジタル変換器(以下、「ADC」という。)28と、入力されたデジタルデータに対して各種のデジタル信号処理を行うデジタル信号処理部30と、を含んで構成されている。   The image capturing apparatus 12 receives an optical unit 22 configured inside the lens unit 21 and a charge coupled device (hereinafter referred to as “CCD”) 24 disposed behind the optical axis of the optical unit 22. An analog signal processing unit 26 that performs various analog signal processing on the analog signal, an analog / digital converter (hereinafter referred to as “ADC”) 28 that converts the input analog signal into digital data, and an input And a digital signal processing unit 30 that performs various digital signal processing on the digital data.

なお、デジタル信号処理部30は、所定容量のラインバッファを内蔵し、入力されたデジタルデータを後述するRAM48の所定領域に直接記憶させる制御も行う。   The digital signal processing unit 30 has a built-in line buffer having a predetermined capacity, and also performs control for directly storing the input digital data in a predetermined area of the RAM 48 described later.

CCD24の出力端はアナログ信号処理部26の入力端に、アナログ信号処理部26の出力端はADC28の入力端に、ADC28の出力端はデジタル信号処理部30の入力端に、各々接続されている。従って、CCD24から出力された被写体像を示すアナログ信号はアナログ信号処理部26によって所定のアナログ信号処理が施され、ADC28によってデジタル画像データに変換された後にデジタル信号処理部30に入力される。   The output terminal of the CCD 24 is connected to the input terminal of the analog signal processing unit 26, the output terminal of the analog signal processing unit 26 is connected to the input terminal of the ADC 28, and the output terminal of the ADC 28 is connected to the input terminal of the digital signal processing unit 30. . Accordingly, the analog signal indicating the subject image output from the CCD 24 is subjected to predetermined analog signal processing by the analog signal processing unit 26, converted into digital image data by the ADC 28, and then input to the digital signal processing unit 30.

一方、画像撮影装置12は、装置全体の動作を司るCPU(中央処理装置)40と、主として撮影により得られたデジタル画像データを記憶するRAM48と、後述する画像補正プログラムを含む各種プログラムや各種パラメータ等が予め記憶されたROM49と、を含んで構成されている。   On the other hand, the image photographing device 12 includes a CPU (central processing unit) 40 that controls the operation of the entire device, a RAM 48 that mainly stores digital image data obtained by photographing, and various programs and various parameters including an image correction program described later. And a ROM 49 in which are stored in advance.

また、画像撮影装置12は、可搬型のメモリカード15を画像撮影装置12でアクセス可能とするためのメディアインタフェース回路50と、撮影されたデジタル画像データに対して圧縮処理及び伸張処理を行う圧縮・伸張回路54と、ビデオ信号入力コネクタ18から入力されたビデオ信号に対してサンプリングを行い、デジタル画像データに変換する外部同期制御回路60と、外部同期制御回路60により変換されたデジタル画像データを一旦記憶する画像バッファメモリ62と、画像バッファメモリ62及びRAM48にそれぞれ記憶されたデジタル画像データにより示される各画像の所定領域から特徴点を求め、各画像間の特徴点の画素の特徴情報を比較する特徴点位置比較部64と、デジタル画像データに対してシフト処理と拡大処理又は縮小処理とを行う画角ゆがみ補正回路66と、RAM48に記憶されたデジタル画像データをビデオ信号に変換してビデオ信号出力コネクタ17へ出力するビデオエンコーダ68と、を含んで構成されている。   In addition, the image capturing apparatus 12 includes a media interface circuit 50 for making the portable memory card 15 accessible by the image capturing apparatus 12, and a compression / decompression process that performs compression processing and decompression processing on the captured digital image data. The video signal input from the expansion circuit 54 and the video signal input connector 18 is sampled and converted into digital image data, and the digital image data converted by the external synchronization control circuit 60 is temporarily stored. A feature point is obtained from a predetermined area of each image indicated by the image buffer memory 62 to be stored and the digital image data respectively stored in the image buffer memory 62 and the RAM 48, and pixel feature information of the feature points between the images is compared. Feature point position comparison unit 64 and shift processing and enlargement for digital image data An angle-of-view distortion correction circuit 66 that performs the physical or reduction processing, and a video encoder 68 that converts the digital image data stored in the RAM 48 into a video signal and outputs the video signal to the video signal output connector 17. .

なお、本実施の形態の画像撮影装置12では、メモリカード15としてスマートメディア(Smart Media(登録商標))が用いられている。また、圧縮・伸張回路54は、所定の静止画像圧縮方式(本実施の形態では、JPEG(Joint Photographic Coding Expert Group)方式。)に従って圧縮処理乃至伸張処理を行う。   In the image photographing device 12 of the present embodiment, smart media (Smart Media (registered trademark)) is used as the memory card 15. The compression / decompression circuit 54 performs compression processing or decompression processing according to a predetermined still image compression method (in this embodiment, JPEG (Joint Photographic Coding Expert Group) method).

デジタル信号処理部30、CPU40、RAM48、ROM49、メディアインタフェース回路50、圧縮・伸張回路54、画像バッファメモリ62、特徴点位置比較部64、画角ゆがみ補正回路66、及びビデオエンコーダ68は、システムバスBUSを介して相互に接続されている。従って、CPU40は、デジタル信号処理部30、圧縮・伸張回路54、特徴点位置比較部64、及び画角ゆがみ補正回路66の作動の制御、画像バッファメモリ62、RAM48、及びROM49へのアクセス、メモリカード15へのメディアインタフェース回路50を介したアクセス、を各々行うことができる。   The digital signal processing unit 30, CPU 40, RAM 48, ROM 49, media interface circuit 50, compression / expansion circuit 54, image buffer memory 62, feature point position comparison unit 64, field angle distortion correction circuit 66, and video encoder 68 are connected to the system bus. They are connected to each other via BUS. Therefore, the CPU 40 controls the operation of the digital signal processing unit 30, the compression / decompression circuit 54, the feature point position comparison unit 64, and the view angle distortion correction circuit 66, accesses to the image buffer memory 62, the RAM 48, and the ROM 49, and the memory. Access to the card 15 via the media interface circuit 50 can be performed.

一方、本実施の形態の画像撮影装置12には、主としてCCD24を駆動させるためのタイミング信号を生成してCCD24に供給するタイミングジェネレータ32が備えられており、CCD24の駆動はCPU40によりタイミングジェネレータ32を介して制御される。   On the other hand, the image capturing apparatus 12 of the present embodiment includes a timing generator 32 that mainly generates a timing signal for driving the CCD 24 and supplies the timing signal to the CCD 24. The CPU 40 drives the timing generator 32 by the CPU 40. Controlled through.

更に、画像撮影装置12にはAE/AF制御部34が備えられており、光学ユニット22に備えられた図示しない焦点調整モータ及び絞り駆動モータの駆動もCPU40によりAE/AF制御部34を介して制御される。   Further, the image photographing apparatus 12 is provided with an AE / AF control unit 34, and the CPU 40 also drives a focus adjustment motor and a diaphragm drive motor (not shown) provided in the optical unit 22 via the AE / AF control unit 34. Be controlled.

すなわち、本実施の形態に係る光学ユニット22は、図示しないレンズ駆動機構を備えている。このレンズ駆動機構に上記焦点調整モータ及び絞り駆動モータは含まれるものであり、これらのモータは各々CPU40の制御によりAE/AF制御部34から供給された駆動信号によって駆動される。   That is, the optical unit 22 according to the present embodiment includes a lens driving mechanism (not shown). The lens drive mechanism includes the focus adjustment motor and the aperture drive motor, and these motors are driven by drive signals supplied from the AE / AF control unit 34 under the control of the CPU 40, respectively.

また、前述のレリーズボタン56A及び電源スイッチ56B(同図では、「操作部56」と総称。)はCPU40に接続されており、CPU40は、これらの操作部56に対する操作状態を常時把握できる。   In addition, the release button 56A and the power switch 56B (generally referred to as “operation unit 56” in the figure) are connected to the CPU 40, and the CPU 40 can always grasp the operation state of these operation units 56.

さらに、画像撮影装置12は、コネクタ16を介して入力された同期信号に同期させてAE機能、AF機能を作動させるためのAE/AF同期制御部70を備えており、AE/AF同期制御部70はシステムバスBUSに接続されている。CPU40は、自身のレリーズボタン56Aが半押し状態とされたことを検出すると、AE/AF同期制御部70を制御してAE機能、AF機能の作動を同期させるための同期信号をコネクタ16へ出力させる。また、AE/AF同期制御部70がコネクタ16を介して同期信号を受信すると、CPU40は、AE/AF制御部34によりAE機能、AF機能を作動させる。   Further, the image capturing apparatus 12 includes an AE / AF synchronization control unit 70 for operating the AE function and the AF function in synchronization with the synchronization signal input via the connector 16, and the AE / AF synchronization control unit. 70 is connected to the system bus BUS. When detecting that the release button 56A of the CPU 40 is half-pressed, the CPU 40 controls the AE / AF synchronization control unit 70 to output a synchronization signal for synchronizing the operation of the AE function and the AF function to the connector 16. Let When the AE / AF synchronization control unit 70 receives the synchronization signal via the connector 16, the CPU 40 causes the AE / AF control unit 34 to activate the AE function and the AF function.

次に、本実施の形態に係る画像撮影装置12の撮影時における全体的な動作について簡単に説明する。   Next, an overall operation at the time of photographing of the image photographing device 12 according to the present embodiment will be briefly described.

CCD24は、光学ユニット22を介した撮像を行い、被写体像を示すR(赤)、G(緑)、B(青)毎のアナログ信号をアナログ信号処理部26に順次出力する。アナログ信号処理部26は、CCD24から入力されたアナログ信号に対して相関二重サンプリング処理等のアナログ信号処理を施した後にADC28に順次出力する。   The CCD 24 performs imaging through the optical unit 22 and sequentially outputs analog signals for R (red), G (green), and B (blue) indicating the subject image to the analog signal processing unit 26. The analog signal processing unit 26 performs analog signal processing such as correlated double sampling processing on the analog signal input from the CCD 24 and sequentially outputs the analog signal to the ADC 28.

ADC28は、アナログ信号処理部26から入力されたR、G、B毎のアナログ信号を各々12ビットのR、G、Bの信号(デジタル画像データ)に変換してデジタル信号処理部30に順次出力する。デジタル信号処理部30は、内蔵しているラインバッファにADC28から順次入力されるデジタル画像データを蓄積して一旦RAM48の所定領域に直接格納する。   The ADC 28 converts the R, G, and B analog signals input from the analog signal processing unit 26 into 12-bit R, G, and B signals (digital image data) and sequentially outputs them to the digital signal processing unit 30. To do. The digital signal processing unit 30 accumulates digital image data sequentially input from the ADC 28 in a built-in line buffer and temporarily stores the digital image data directly in a predetermined area of the RAM 48.

RAM48の所定領域に格納されたデジタル画像データは、CPU40による制御に応じてデジタル信号処理部30により読み出され、所定の物理量に応じたデジタルゲインをかけることでホワイトバランス調整を行うと共に、ガンマ処理及びシャープネス処理を行って8ビットのデジタル画像データを生成する。   The digital image data stored in the predetermined area of the RAM 48 is read by the digital signal processing unit 30 under the control of the CPU 40, and the white balance is adjusted by applying the digital gain according to the predetermined physical quantity, and the gamma processing is performed. Then, sharpness processing is performed to generate 8-bit digital image data.

そして、デジタル信号処理部30は、生成した8ビットのデジタル画像データに対しYC信号処理を施して輝度信号Yとクロマ信号Cr、Cb(以下、「YC信号」という。)に変換し、YC信号をRAM48の上記所定領域とは異なる領域に格納する。   Then, the digital signal processing unit 30 performs YC signal processing on the generated 8-bit digital image data to convert it into a luminance signal Y and chroma signals Cr and Cb (hereinafter referred to as “YC signal”), and a YC signal. Is stored in an area different from the predetermined area of the RAM 48.

なお、画像撮影装置12、13では、CCD24による連続的な撮像によって得られた動画像(スルー画像)のYC信号をビデオエンコーダ68によってビデオ信号に変換してビデオ信号出力コネクタ17から出力している。従って、画像表示装置14には、画像撮影装置12による撮影によって得られた動画像(スルー画像)が表示される。   In the image capturing devices 12 and 13, a YC signal of a moving image (through image) obtained by continuous imaging by the CCD 24 is converted into a video signal by the video encoder 68 and output from the video signal output connector 17. . Therefore, a moving image (through image) obtained by photographing by the image photographing device 12 is displayed on the image display device 14.

画像撮影装置12では、レリーズボタン56Aが半押し状態とされると、前述のようにAE機能が作動して露出状態が設定された後、AF機能が作動して合焦制御される。また、これと同時に画像撮影装置12では、画像撮影装置13へ同期信号が出力される。これにより、画像撮影装置13においても画像撮影装置12に同期してAE機能、AF機能が作動する。この後、画像撮影装置12のレリーズボタン56Aが全押し状態とされることにより撮影が行われる。   In the image photographing device 12, when the release button 56A is pressed halfway, the AF function is activated and the focus control is performed after the AE function is activated and the exposure state is set as described above. At the same time, the image capturing device 12 outputs a synchronization signal to the image capturing device 13. As a result, the AE function and the AF function also operate in synchronization with the image capturing device 12 in the image capturing device 13. Thereafter, the release button 56A of the image photographing device 12 is fully pressed to perform photographing.

ここで、画像撮影装置12、13は支持部材15に機械的に取り付けられているため、画角調整のばらつきや経年変化によって生じる機械的なずれなどにより画像撮影装置12、13の画角は厳密には一致せず、わずかながら画角のずれが生じていることが多い。   Here, since the image capturing devices 12 and 13 are mechanically attached to the support member 15, the angle of view of the image capturing devices 12 and 13 is strict due to variations in the angle of view adjustment and mechanical displacement caused by secular change. In many cases, the angle of view is slightly shifted.

このため、本実施の形態に係る画像撮影装置12では、CPU40により、レリーズボタン56Aが全押し状態とされた時点でRAM48に格納されているデジタル画像データ(以下、デジタル画像データBという。)と、画像バッファメモリ62に記憶されている、画像撮影装置13から入力されたビデオ信号に基づくデジタル画像データ(以下、デジタル画像データAという。)と、の少なくとも一方に対して画像補正プログラムによる補正処理を行っている。   For this reason, in the image photographing device 12 according to the present embodiment, the digital image data (hereinafter referred to as digital image data B) stored in the RAM 48 when the release button 56A is fully pressed by the CPU 40. Correction processing by an image correction program for at least one of digital image data (hereinafter referred to as digital image data A) based on a video signal input from the image capturing device 13 and stored in the image buffer memory 62 It is carried out.

次に、図3を参照して、当該実行される画像補正プログラムによる補正処理について説明する。なお、図3は、画像補正プログラムの処理の流れを示すフローチャートである。   Next, correction processing by the executed image correction program will be described with reference to FIG. FIG. 3 is a flowchart showing the flow of processing of the image correction program.

同図のステップ100では、画像バッファメモリ62に記憶されているデジタル画像データAと、メモリカード15に記憶されているデジタル画像データBとを特徴点位置比較部64へ転送する。以下、デジタル画像データAにより示される画像を画像Aといい、デジタル画像データBにより示される画像を画像Bという。なお、図4(A)及び図4(B)には、画像A及び画像Bの一例が示されている。   In step 100 in the figure, the digital image data A stored in the image buffer memory 62 and the digital image data B stored in the memory card 15 are transferred to the feature point position comparison unit 64. Hereinafter, an image indicated by the digital image data A is referred to as an image A, and an image indicated by the digital image data B is referred to as an image B. Note that FIGS. 4A and 4B show an example of the image A and the image B. FIG.

デジタル画像データA及びデジタル画像データBが転送されてくると、特徴点位置比較部64では、デジタル画像データAにより示される画像Aの予め定められた位置に位置される4隅の領域を各々特徴点検出領域80A、80B、80C、80Dとして、特徴点検出領域80A、80B、80C、80Dから各々の所定位置(本実施の形態では、各特徴点検出領域の中心位置)を特徴点82A、82B、82C、82Dとして定めて、各特徴点の画像A内での位置(座標)を求める。なお、特徴点検出領域80A、80B、80C、80Dを予め定めることなく、予め定めた位置を特徴点82A、82B、82C、82Dとしてもよい。   When the digital image data A and the digital image data B are transferred, the feature point position comparison unit 64 characterizes each of the four corner regions located at predetermined positions of the image A indicated by the digital image data A. As the point detection areas 80A, 80B, 80C, 80D, the respective predetermined positions (in this embodiment, the center position of each feature point detection area) from the feature point detection areas 80A, 80B, 80C, 80D are feature points 82A, 82B. , 82C, and 82D, and the position (coordinates) of each feature point in the image A is obtained. Note that the feature points 82A, 82B, 82C, and 82D may be set as the predetermined positions without previously defining the feature point detection regions 80A, 80B, 80C, and 80D.

また、特徴点位置比較部64では、特徴点82A、82B、82C、82Dに位置される各画素の特徴情報として輝度と、当該特徴点の周辺画素との輝度の変化量を導出する。   In addition, the feature point position comparison unit 64 derives the luminance and the amount of change in luminance between the surrounding pixels of the feature point as the feature information of each pixel located at the feature points 82A, 82B, 82C, and 82D.

そして、特徴点位置比較部64は、デジタル画像データBにより示される画像Bの、画像Aと同一の位置に位置される4隅の領域を各々特徴点検出領域80E、80F、80G、80Hとして、特徴点検出領域80Eから輝度及び輝度の変化量が特徴点82Aの輝度及び輝度の変化量に対して所定範囲内にある画素を検出して、特徴点82Aに対応する特徴点82Eとし、同様に、特徴点検出領域80Fから特徴点82Bに対応する特徴点82Fを、特徴点検出領域80Gから特徴点82Cに対応する特徴点82Gを、特徴点検出領域80Hから特徴点82Dに対応する特徴点82Hを、各々検出して、特徴点82E、82F、82G、82H画像B内での位置を求める。なお、上記所定範囲は、被写体の明るさに応じて調整することが好ましい。また、上記所定範囲内となる画素が複数存在する場合、本実施の形態では、画像Bの特徴点との輝度の差の絶対値と輝度の変化量の差の絶対値を合計した合計が最も小さい画素を対応する特徴点とし、当該画素が複数存在する場合は、画像Bの特徴点の位置と最も近い画素を対応する特徴点とする形態をとっているが、これに限定されない。   Then, the feature point position comparison unit 64 sets the four corner regions of the image B indicated by the digital image data B at the same position as the image A as feature point detection regions 80E, 80F, 80G, and 80H, respectively. From the feature point detection area 80E, a pixel whose brightness and brightness change amount are within a predetermined range with respect to the brightness and brightness change amount of the feature point 82A is detected as a feature point 82E corresponding to the feature point 82A. The feature point 82F corresponding to the feature point 82B from the feature point detection region 80F, the feature point 82G corresponding to the feature point 82C from the feature point detection region 80G, and the feature point 82H corresponding to the feature point 82D from the feature point detection region 80H. Are detected, and the positions in the feature points 82E, 82F, 82G, and 82H in the image B are obtained. The predetermined range is preferably adjusted according to the brightness of the subject. In addition, when there are a plurality of pixels that fall within the predetermined range, in the present embodiment, the sum total of the absolute value of the difference in luminance from the feature point of the image B and the absolute value of the difference in luminance change is the most. When a small pixel is a corresponding feature point and there are a plurality of such pixels, the pixel closest to the position of the feature point in the image B is a corresponding feature point. However, the present invention is not limited to this.

そして、CPU40は、特徴点位置比較部64によって求められた特徴点82A〜82Hの位置をRAM48に記憶させる。   Then, the CPU 40 causes the RAM 48 to store the positions of the feature points 82A to 82H obtained by the feature point position comparison unit 64.

ここで、画像A及び画像Bの水平方向をX方向とし、垂直方向をY方向として、RAM48に記憶した特徴点82A〜82Hの位置を(XA、YA)〜(XH、YH)と表す。 Here, the horizontal direction of the images A and B is the X direction, the vertical direction is the Y direction, and the positions of the feature points 82A to 82H stored in the RAM 48 are (X A , Y A ) to (X H , Y H ). It expresses.

次のステップ102では、画像Aの特徴点82Aと特徴点82Cを結ぶ直線と、画像Bの特徴点82Eと特徴点82Gを結ぶ直線の位置を一致させるための位置補正量Hを算出する。すなわち、図5に示すように、特徴点82Eと特徴点82Gを結ぶ直線Bを特徴点82Aと特徴点82Cを結ぶ直線Aに一致させるように画素をシフトさせる位置補正量Hを算出する。   In the next step 102, a position correction amount H for matching the positions of the straight line connecting the feature point 82A and the feature point 82C of the image A and the straight line connecting the feature point 82E and the feature point 82G of the image B is calculated. That is, as shown in FIG. 5, the position correction amount H for shifting the pixel is calculated so that the straight line B connecting the feature points 82E and 82G matches the straight line A connecting the feature points 82A and 82C.

ここで、画像Aと画像Bの間で互いに対応する特徴点82Aと特徴点82EのX方向の差はXE−XAであり、特徴点82Cと特徴点82GのX方向の差はXG−XCである。また、特徴点82Aと特徴点82CのX方向の差はYC−YAである。 Here, the difference in the X direction between the feature point 82A and the feature point 82E corresponding to each other between the image A and the image B is X E −X A , and the difference in the X direction between the feature point 82C and the feature point 82G is X G. is -X C. The difference in the X-direction of the feature point 82A and the feature point 82C is Y C -Y A.

よって、図5に示される、直線Aと直線Bとの間の傾き(角度)表す値αを以下の(1)式のように求めることができる。   Therefore, the value α representing the inclination (angle) between the straight line A and the straight line B shown in FIG. 5 can be obtained as in the following equation (1).

傾きα=((XG−XC)−(XE−XA))/(YC−YA)・・・(1)
ここで、Y方向の位置に応じて、直線Aと直線Bの差の値だけ画像Bの画素をX方向へシフトさせることにより、直線Aと直線Bが一致する。すなわち、特徴点82AのY方向の位置(Y=YA)での位置補正量HをXE−XAとし、特徴点82CのY方向の位置(Y=YC)での位置補正量HをXG−XCとすると、位置補正量HとY方向の位置との関係を図8の直線Dのように示すことができる。この図8では、前記傾きαが直線Dの傾きを示す値となるため、直線Dに示されるY方向の位置と位置補正量Hとの関係式を以下の(2)式により表すことができ、(2)式によりY方向の位置に応じた位置補正量Hを算出できる。
Inclination α = ((X G −X C ) − (X E −X A )) / (Y C −Y A ) (1)
Here, according to the position in the Y direction, the pixels of the image B are shifted in the X direction by the difference between the straight lines A and B, so that the straight lines A and B coincide. That is, the position correction amount H at the position of the feature point 82A in the Y direction (Y = Y A ) is X E −X A, and the position correction amount H at the position of the feature point 82C in the Y direction (Y = Y C ). Is X G -X C , the relationship between the position correction amount H and the position in the Y direction can be shown as a straight line D in FIG. In FIG. 8, since the slope α is a value indicating the slope of the straight line D, the relational expression between the position in the Y direction indicated by the straight line D and the position correction amount H can be expressed by the following formula (2). , (2), the position correction amount H corresponding to the position in the Y direction can be calculated.

位置補正量H=α(Y−YA)+(XE−XA)・・・(2)
次のステップ104では、画像Aと画像BのX方向の距離を一致させるための倍率Mを算出する。
Position correction amount H = α (Y−Y A ) + (X E −X A ) (2)
In the next step 104, a magnification M for matching the distances in the X direction between the image A and the image B is calculated.

すなわち、図4に示される画像Aの特徴点82Aと特徴点82BのX方向の距離XB−XA、及び特徴点82Dと特徴点82CのX方向の距離XD−XCが、画像Bにおいて特徴点82Fと特徴点82EのX方向の距離XF−XE、及び特徴点82Hと特徴点82GのX方向の距離XH−XGと変化している。 That is, the X-direction distance X B -X A between the feature point 82A and the feature point 82B of the image A shown in FIG. 4 and the X-direction distance X D -X C between the feature point 82D and the feature point 82C are represented by the image B , The X-direction distance X F -X E between the feature point 82F and the feature point 82E and the X-direction distance X H -X G between the feature point 82H and the feature point 82G are changed.

よって、特徴点82AのY方向の位置(Y=YA)でのX方向の倍率Mは(XH−XG)/(XD−XC)であり、特徴点82Cの位置(Y=YC)でのX方向の倍率Mは(XF−XE)/(XB−XA)となるため、倍率MとY方向の位置との関係を図6の直線Cのように示すことができる。この直線Cの傾きβは以下の(3)式より算出できる。 Therefore, the magnification M in the X direction at the position of the feature point 82A in the Y direction (Y = Y A ) is (X H −X G ) / (X D −X C ), and the position of the feature point 82C (Y = Since the magnification M in the X direction at Y C ) is (X F −X E ) / (X B −X A ), the relationship between the magnification M and the position in the Y direction is shown as a straight line C in FIG. be able to. The slope β of the straight line C can be calculated from the following equation (3).

Figure 2006157432
よって、図6に示した直線Cを以下の(4)式により表すことができ、(4)式によりY方向の位置に応じた画像Aと画像BとのX方向の画素の倍率Mを導出できる。
倍率M=β(Y−YA)+(XH−XG)/(XD−XC)・・・(4)
次のステップ106では、画像Bは画像Aと比較した際にX方向への縮小が必要であるかを否かを、(4)式から算出される倍率Mが画像BのY方向の画像領域(画像Bの左上の画素から左下の画素。)において1未満となるか否かを判定しており、肯定判定の場合はステップ108へ移行し、否定判定の場合はステップ110へ移行する。
Figure 2006157432
Therefore, the straight line C shown in FIG. 6 can be expressed by the following equation (4), and the magnification M of the pixel in the X direction between the image A and the image B corresponding to the position in the Y direction is derived by the equation (4). it can.
Magnification M = β (Y−Y A ) + (X H −X G ) / (X D −X C ) (4)
In the next step 106, it is determined whether or not the image B needs to be reduced in the X direction when compared with the image A. The magnification M calculated from the equation (4) is the image area in the Y direction of the image B. It is determined whether or not it is less than 1 in (the upper left pixel to the lower left pixel of the image B). If the determination is affirmative, the process proceeds to step 108. If the determination is negative, the process proceeds to step 110.

ステップ108では、ステップ104において画像BのY方向の画像領域において倍率Mが縮小となる部分が存在するため、デジタル画像データAを画角ゆがみ補正回路66へ出力し、画像BのY方向の画像領域において(4)式から求められる最小の倍率Mを1で割ることにより求められる倍率(1/最小の倍率M。)でデジタル画像データAにより示される画像A全体に対して拡大処理を行う。すなわち、最小の倍率Mが1未満であるため、最小の倍率Mを1で割ることにより求められる倍率は拡大となる。さらに、デジタル画像データAに対して拡大に伴なう画素の補間処理を行って処理後の画像Aを新たなデジタル画像データAとして画像バッファメモリ62に記憶させ、再度ステップ100へ移行する。これにより、画像Aが拡大されたため、画像Bを縮小する必要が無くなり、画像Aに対する画像Bのけられを防止することができる。   In step 108, since there is a portion where the magnification M is reduced in the image area in the Y direction of the image B in step 104, the digital image data A is output to the angle-of-view distortion correction circuit 66, and the image of the image B in the Y direction Enlargement processing is performed on the entire image A indicated by the digital image data A at a magnification (1 / minimum magnification M) obtained by dividing the minimum magnification M obtained from the equation (4) by 1 in the region. That is, since the minimum magnification M is less than 1, the magnification obtained by dividing the minimum magnification M by 1 is enlargement. Further, pixel interpolation processing is performed on the digital image data A, the processed image A is stored in the image buffer memory 62 as new digital image data A, and the process proceeds to step 100 again. Accordingly, since the image A is enlarged, it is not necessary to reduce the image B, and the image B can be prevented from being distorted with respect to the image A.

一方、次のステップ110では、RAM48に記憶されてるデジタル画像データBにより示される画像Bの水平方向(X方向)の1ライン分のデータを読み込んで、画角ゆがみ補正回路66へ出力する。   On the other hand, in the next step 110, data for one line in the horizontal direction (X direction) of the image B indicated by the digital image data B stored in the RAM 48 is read and output to the angle-of-view distortion correction circuit 66.

次のステップ112では、読み込んだ1ラインのデータの画像BにおけるY方向の位置に対応する位置補正量H及び倍率Mを(2)式及び(4)式を用いて導出する。   In the next step 112, a position correction amount H and a magnification M corresponding to the position in the Y direction in the image B of the read one line data are derived using the equations (2) and (4).

次のステップ114では、画角ゆがみ補正回路において、1ライン分のデータに対して(2)式から算出した位置補正量Hに基づきX方向への位置のシフト処理、及び(4)式から算出した倍率Mに基づきX方向への拡大処理を行い、シフト処理及び拡大処理に伴なう画素の補間処理を行い、各画素の位置での濃度値を算出し、算出した1ラインのデータをRAM48のデジタル画像データBとは異なる所定領域に補正されたデジタル画像データとして記憶させる。   In the next step 114, in the angle-of-view distortion correction circuit, position shift processing in the X direction based on the position correction amount H calculated from equation (2) for one line of data, and calculation from equation (4) An enlargement process in the X direction is performed based on the magnification M, a pixel interpolation process is performed in accordance with the shift process and the enlargement process, a density value at each pixel position is calculated, and the calculated one line data is stored in the RAM 48. The digital image data is stored in a predetermined area different from the digital image data B.

次のステップ116では、デジタル画像データBの全ての水平方向のラインを読み込んだか否かが判定され、否定判定の場合はステップ110へ移行して新たに1ラインのデータを読み込みを行い、肯定判定の場合はステップ118へ移行する。   In the next step 116, it is determined whether or not all the horizontal lines of the digital image data B have been read. If the determination is negative, the process proceeds to step 110, where one line of data is newly read, and an affirmative determination is made. In this case, the process proceeds to step 118.

ステップ118では、RAM48に格納されているシフト処理及び拡大処理により補正されたデジタル画像データを及び画像バッファメモリ62に記憶されているデジタル画像データAを順次圧縮・伸張回路54へ出力し、圧縮・伸張回路54によって符号化及び離散コサイン変換等の処理を伴なう所定の静止画像圧縮方式(本実施の形態では、JPEG方式)での圧縮処理を行わせ、メディアインタフェース回路50を介してメモリカード15に記憶させて処理終了となる。   In step 118, the digital image data corrected by the shift process and the enlargement process stored in the RAM 48 and the digital image data A stored in the image buffer memory 62 are sequentially output to the compression / decompression circuit 54, where The decompression circuit 54 performs compression processing in a predetermined still image compression method (in this embodiment, JPEG method) accompanied by processing such as encoding and discrete cosine transform, and the memory card is connected via the media interface circuit 50. 15 and the process ends.

ここで、図7(A)は、シフト処理及び拡大処理を行わなかった場合の立体画像を示しており、図7(B)は、本実施の形態に係る補正処理を行った立体画像を示している。   Here, FIG. 7A shows a stereoscopic image when the shift process and the enlargement process are not performed, and FIG. 7B shows a stereoscopic image subjected to the correction process according to the present embodiment. ing.

図7(A)に示されるように、シフト処理及び拡大処理を行わなかった場合は、2つの画像に背景部分に画角のずれによる位置ずれが生じている。   As shown in FIG. 7A, when the shift process and the enlargement process are not performed, a position shift due to a field angle shift occurs in the background portion between the two images.

一方、図7(B)に示されるように、本実施の形態に係る補正処理によれば、特徴点82A、82B、82C、82Dと対応する特徴点82E、82F、82G、82Hとの水平方向の位置が一致するようになる。すなわち、図7(B)に示すように、背景部分については、撮影した画像の被写体の位置に基づいて画角のずれ等による位置ずれを補正される。また、中央部分に撮影された主要被写体(図7では人物像。)については、視差による位置ずれ生じているため、立体的に再生することができる。   On the other hand, as shown in FIG. 7B, according to the correction processing according to the present embodiment, the feature points 82A, 82B, 82C, and 82D and the corresponding feature points 82E, 82F, 82G, and 82H in the horizontal direction. The positions of match. That is, as shown in FIG. 7B, the positional deviation of the background portion due to the deviation of the angle of view or the like is corrected based on the position of the subject of the captured image. In addition, the main subject (a person image in FIG. 7) photographed in the central portion is misaligned due to parallax and can be reproduced in a three-dimensional manner.

以上のように本実施の形態によれば、2つの撮像手段(ここでは、CCD24)によって被写体を同時に撮像し、立体画像を示す2つの画像データを取得する立体画像撮影装置であって、検出手段(ここでは、特徴点位置比較部64)は、2つの画像データにより示される各画像の予め定められた領域から対応する特徴点を検出し、導出手段(ここでは、CPU40)は、前記検出手段により検出された特徴点の前記各画像間での位置を比較し、対応する特徴点の位置を一致させるための補正パラメータを導出し、処理手段(ここでは、画角ゆがみ補正回路66)は、前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行っているので、画角のずれに起因する主要被写体の位置ずれを簡単に補正することができる。   As described above, according to the present embodiment, a stereoscopic image capturing apparatus that simultaneously captures an image of a subject by two imaging units (in this case, the CCD 24) and acquires two image data indicating a stereoscopic image is provided. (Here, the feature point position comparison unit 64) detects a corresponding feature point from a predetermined area of each image indicated by the two image data, and the derivation means (here, the CPU 40) uses the detection means. Comparing the positions of the feature points detected by each of the images, deriving correction parameters for matching the positions of the corresponding feature points, and processing means (here, the angle-of-view distortion correction circuit 66) Since at least one of shift processing, reduction processing, or enlargement processing is performed on at least one of the image data based on the correction parameter, it is caused by a shift in the angle of view. It is possible to easily correct the positional deviation of the main subject.

また、検出手段が、前記2つの画像データにより示される各画像のうちの何れか一方の画像の前記予め定められた領域から所定位置の画素を特徴点として定め、他方の画像の前記予め定められた領域から前記特徴点の輝度情報及び輝度の変化量情報を含む特徴情報が一致する画素を前記対応する特徴点として検出しているので、各画像から対応する特徴点を的確に検出することができる。   Further, the detection means determines a pixel at a predetermined position as a feature point from the predetermined region of one of the images indicated by the two image data, and the predetermined of the other image. Since the pixel having the same feature information including the luminance information of the feature point and the luminance change amount information is detected as the corresponding feature point, the corresponding feature point can be accurately detected from each image. it can.

さらに、前記予め定められた領域が、前記2つの画像データにより示される各画像の4隅に設けられているので、各画像の4隅に設けられた領域から特徴点を検出して、対応する特徴点の位置を一致させることで、各画像の間のゆがみを補正することができる。   Further, since the predetermined areas are provided at the four corners of each image indicated by the two image data, the feature points are detected from the areas provided at the four corners of each image, and the corresponding areas are detected. By matching the positions of the feature points, the distortion between the images can be corrected.

なお、本実施の形態では、水平方向(X方向)の位置補正量H及び倍率Mを算出して2つの画像の水平方向を一致させたが、垂直方向(Y方向)についても、同様の処理により位置補正量H及び倍率Mを算出して2つの画像の垂直方向を一致させることができる。   In the present embodiment, the horizontal direction (X direction) position correction amount H and magnification M are calculated to match the horizontal direction of the two images, but the same processing is performed in the vertical direction (Y direction). Thus, the position correction amount H and the magnification M can be calculated to match the vertical directions of the two images.

また、本実施の形態では、各特徴点検出領域の中心位置を特徴点80A、80B、80C、80Dとしたが、画素の特徴情報に基づいて特徴点を定めてもよい。例えば、各特徴点検出領域内で最も輝度の大きい画素を特徴点80A、80B、80C、80Dとしてもよい。   In the present embodiment, the center position of each feature point detection region is set to the feature points 80A, 80B, 80C, and 80D. However, the feature points may be determined based on the feature information of the pixels. For example, the pixel with the highest luminance in each feature point detection area may be set as the feature points 80A, 80B, 80C, and 80D.

また、本実施の形態では、対応する特徴点を画素の輝度情報及び輝度の変化量情報に基づいて検出したが、画素の濃度値(階調値)情報、濃度値の変化量情報などの画素の特徴を表す特徴情報に基づいて対応する特徴点を検出してもよい。   Further, in the present embodiment, the corresponding feature points are detected based on the luminance information and luminance change information of the pixels, but pixels such as pixel density value (tone value) information and density value change information are used. Corresponding feature points may be detected based on feature information representing the features.

また、本実施の形態では、特徴点を検出する予め定められた領域を画像の4隅に設けられた領域としたが、4隅以外の領域であってもよい。また、画像の水平方向あるいは垂直方向のライン毎に対応する特徴点を検出して1ライン毎に補正処理を行ってもよい。   In the present embodiment, the predetermined areas for detecting the feature points are areas provided at the four corners of the image, but areas other than the four corners may be used. Further, a feature point corresponding to each horizontal or vertical line of the image may be detected and correction processing may be performed for each line.

また、本実施の形態では、補正処理において画像データBに対して拡大処理を行って位置ずれを一致させたが、縮小処理を行うことにより位置ずれを一致させてもよい。また、画像データAと画像データBの少なくとも一方に対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行うことにより位置ずれを一致させてもよい。   In this embodiment, the enlargement process is performed on the image data B in the correction process so as to match the positional deviation. However, the positional deviation may be matched by performing a reduction process. Further, the positional deviation may be matched by performing at least one of a shift process and a reduction process or an enlargement process on at least one of the image data A and the image data B.

さらに、本実施の形態では、2台の画像撮影装置12、13と、支持部材15と、画像表示装置14と、により構成された立体画像撮影システム10として説明を行ったが、単体の画像撮影装置に2つの撮像系を設けて立体画像撮影装置として構成し、2つの撮像系によって撮像した2つの画像データに対して補正処理を行うようにしてもよい。また、撮像系を2つ以上の複数個設け、撮像された複数の画像データの何れか1つを基準画像データとして他の画像データとの間で補正処理を行ってもよい。   Further, in the present embodiment, the stereoscopic image capturing system 10 configured by the two image capturing devices 12 and 13, the support member 15, and the image display device 14 has been described. Two imaging systems may be provided in the apparatus to form a stereoscopic image capturing apparatus, and correction processing may be performed on two image data captured by the two imaging systems. Further, two or more imaging systems may be provided, and correction processing may be performed between other image data using any one of the plurality of captured image data as reference image data.

その他、本実施の形態で説明した立体画像撮影システム10の構成(図1〜図2参照。)は、一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。   In addition, the configuration of the stereoscopic image capturing system 10 described in the present embodiment (see FIGS. 1 and 2) is merely an example, and it is needless to say that the configuration can be appropriately changed without departing from the gist of the present invention. .

また、本実施の形態で説明した画像補正プログラムの処理の流れ(図3参照。)も一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。   The processing flow of the image correction program described in the present embodiment (see FIG. 3) is also an example, and it goes without saying that it can be changed as appropriate without departing from the gist of the present invention.

実施の形態に係る立体画像撮影システムの全体構成を示す構成図である。1 is a configuration diagram illustrating an overall configuration of a stereoscopic image capturing system according to an embodiment. 実施の形態に係る画像撮影装置の電気系の主要構成示す図である。It is a figure which shows the main structures of the electric system of the image imaging device which concerns on embodiment. 実施の形態に係る画像補正プログラムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the image correction program which concerns on embodiment. 実施の形態に係る立体画像撮影システムの2台の画像撮影装置により撮影された画像を示す図である。It is a figure which shows the image image | photographed with two image imaging devices of the stereo image imaging system which concerns on embodiment. 実施の形態に係る画像Aの特徴点を結ぶ直線Aと画像Bの特徴点を結ぶ直線Bの関係を示す図である。It is a figure which shows the relationship between the straight line A which connects the feature point of the image A which concerns on embodiment, and the straight line B which connects the feature point of the image B. FIG. 実施の形態に係るY方向の位置と倍率との関係を示す図である。It is a figure which shows the relationship between the position of the Y direction and magnification which concern on embodiment. 実施の形態に係る立体画像撮影システムにより撮影され、合成された画像を示す図である。It is a figure which shows the image image | photographed and synthesize | combined by the stereo image imaging system which concerns on embodiment. 実施の形態に係るY方向の位置と位置補正量との関係を示す図である。It is a figure which shows the relationship between the position of the Y direction and position correction amount which concern on embodiment.

符号の説明Explanation of symbols

10 立体画像撮影システム
12 画像撮影装置
13 画像撮影装置
24 CCD
40 CPU
64 特徴点位置比較部
66 画角ゆがみ補正回路
DESCRIPTION OF SYMBOLS 10 Stereoscopic imaging system 12 Image capturing device 13 Image capturing device 24 CCD
40 CPU
64 feature point position comparison unit 66 angle-of-view distortion correction circuit

Claims (6)

2つの撮像手段によって被写体を同時に撮像し、立体画像を示す2つの画像データを取得する立体画像撮影装置であって、
前記2つの画像データにより示される各画像の予め定められた領域から対応する特徴点を検出する検出手段と、
前記検出手段により検出された特徴点の前記各画像間での位置を比較し、対応する特徴点の位置を一致させるための補正パラメータを導出する導出手段と、
前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行う処理手段と、
を備えた立体画像撮影装置。
A stereoscopic image capturing device that simultaneously captures an image of a subject by two imaging means and acquires two image data indicating a stereoscopic image,
Detecting means for detecting a corresponding feature point from a predetermined region of each image indicated by the two image data;
Derivation means for comparing the positions of the feature points detected by the detection means between the images and deriving correction parameters for matching the positions of the corresponding feature points;
Processing means for performing at least one of shift processing, reduction processing, or enlargement processing on at least one of the image data based on the correction parameter;
A stereoscopic image photographing apparatus comprising:
前記検出手段が、前記2つの画像データにより示される各画像のうちの何れか一方の画像の前記予め定められた領域から所定位置の画素を特徴点として定め、他方の画像の前記予め定められた領域から前記特徴点の輝度情報及び輝度の変化量情報を含む特徴情報が一致する画素を前記対応する特徴点として検出することを特徴とする請求項1記載の立体画像撮影装置。   The detection means determines a pixel at a predetermined position as a feature point from the predetermined area of any one of the images indicated by the two image data, and the predetermined image of the other image The stereoscopic image capturing apparatus according to claim 1, wherein pixels corresponding to feature information including luminance information of the feature point and luminance change amount information are detected from the region as the corresponding feature point. 前記予め定められた領域が、前記2つの画像データにより示される各画像の4隅に設けられていることを特徴とする請求項1又は請求項2記載の立体画像撮影装置。   3. The stereoscopic image capturing apparatus according to claim 1, wherein the predetermined areas are provided at four corners of each image indicated by the two image data. 2つの撮像手段によって被写体を同時に撮像し、立体画像を示す2つの画像データを取得する立体画像の撮影方法であって、
前記2つの画像データにより示される各画像の予め定められた領域から対応する特徴点を検出し、
検出された特徴点の前記各画像間での位置を比較し、対応する特徴点の位置を一致させるための補正パラメータを導出し、
前記補正パラメータに基づいて少なくとも一方の前記画像データに対してシフト処理と、縮小処理又は拡大処理と、の少なくとも1つを行う
ことを特徴とする立体画像の撮影方法。
A method for capturing a stereoscopic image, in which a subject is simultaneously imaged by two imaging means and two image data indicating a stereoscopic image are acquired,
Detecting a corresponding feature point from a predetermined region of each image indicated by the two image data;
Comparing the positions of the detected feature points between the images and deriving correction parameters for matching the positions of the corresponding feature points;
A stereoscopic image capturing method, wherein at least one of shift processing, reduction processing, or enlargement processing is performed on at least one of the image data based on the correction parameter.
前記2つの画像データにより示される各画像のうちの何れか一方の画像の前記予め定められた領域から所定位置の画素を特徴点として定め、他方の画像の前記予め定められた領域から前記特徴点の輝度情報及び輝度の変化量情報を含む特徴情報が一致する画素を前記対応する特徴点として検出することを特徴とする請求項4記載の立体画像の撮影方法。   A pixel at a predetermined position is determined as a feature point from the predetermined region of one of the images indicated by the two image data, and the feature point is determined from the predetermined region of the other image. 5. The method for capturing a stereoscopic image according to claim 4, wherein pixels having the same feature information including luminance information and luminance change amount information are detected as the corresponding feature points. 前記予め定められた領域が、前記2つの画像データにより示される各画像の4隅に設けられていることを特徴とする請求項4又は請求項5記載の立体画像の撮影方法。   6. The stereoscopic image capturing method according to claim 4, wherein the predetermined areas are provided at four corners of each image indicated by the two image data.
JP2004344565A 2004-11-29 2004-11-29 Three-dimensional photographic apparatus and photographic method of three-dimensional image Pending JP2006157432A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004344565A JP2006157432A (en) 2004-11-29 2004-11-29 Three-dimensional photographic apparatus and photographic method of three-dimensional image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004344565A JP2006157432A (en) 2004-11-29 2004-11-29 Three-dimensional photographic apparatus and photographic method of three-dimensional image

Publications (1)

Publication Number Publication Date
JP2006157432A true JP2006157432A (en) 2006-06-15

Family

ID=36635185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004344565A Pending JP2006157432A (en) 2004-11-29 2004-11-29 Three-dimensional photographic apparatus and photographic method of three-dimensional image

Country Status (1)

Country Link
JP (1) JP2006157432A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009044496A (en) * 2007-08-09 2009-02-26 Fujifilm Corp Photographing field angle calculation apparatus
WO2010061956A1 (en) 2008-11-27 2010-06-03 Fujifilm Corporation Stereoscopic image processing device, method, recording medium and stereoscopic imaging apparatus
JP2011239379A (en) * 2010-04-30 2011-11-24 Sony Europe Ltd Image capturing system, image capturing apparatus, and image capturing method
CN102547354A (en) * 2010-12-20 2012-07-04 索尼公司 Correction value calculation apparatus, compound eye imaging apparatus, and method of controlling correction value calculation apparatus
CN102665087A (en) * 2012-04-24 2012-09-12 浙江工业大学 Automatic shooting parameter adjusting system of three dimensional (3D) camera device
JP2013114505A (en) * 2011-11-29 2013-06-10 Fujitsu Ltd Stereo image generating apparatus, stereo image generating method, and computer program for stereo image generation
JP2014527196A (en) * 2011-08-03 2014-10-09 トゥルアリティ, エルエルシー Method for correcting zoom setting and / or vertical offset of stereo film frame, and control or adjustment system for a camera rig having two cameras
JP5765418B2 (en) * 2011-05-06 2015-08-19 富士通株式会社 Stereoscopic image generation apparatus, stereoscopic image generation method, and stereoscopic image generation program
US9225958B2 (en) 2012-03-15 2015-12-29 Panasonic Intellectual Property Management Co., Ltd. Video signal processor and method of processing video signal
US10165249B2 (en) 2011-07-18 2018-12-25 Truality, Llc Method for smoothing transitions between scenes of a stereo film and controlling or regulating a plurality of 3D cameras

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009044496A (en) * 2007-08-09 2009-02-26 Fujifilm Corp Photographing field angle calculation apparatus
WO2010061956A1 (en) 2008-11-27 2010-06-03 Fujifilm Corporation Stereoscopic image processing device, method, recording medium and stereoscopic imaging apparatus
US8111910B2 (en) 2008-11-27 2012-02-07 Fujifilm Corporation Stereoscopic image processing device, method, recording medium and stereoscopic imaging apparatus
JP2011239379A (en) * 2010-04-30 2011-11-24 Sony Europe Ltd Image capturing system, image capturing apparatus, and image capturing method
CN102547354A (en) * 2010-12-20 2012-07-04 索尼公司 Correction value calculation apparatus, compound eye imaging apparatus, and method of controlling correction value calculation apparatus
JP2012134609A (en) * 2010-12-20 2012-07-12 Sony Corp Correction value calculation apparatus, compound-eye imaging apparatus, and method of controlling correction value calculation apparatus
JP5765418B2 (en) * 2011-05-06 2015-08-19 富士通株式会社 Stereoscopic image generation apparatus, stereoscopic image generation method, and stereoscopic image generation program
US10165249B2 (en) 2011-07-18 2018-12-25 Truality, Llc Method for smoothing transitions between scenes of a stereo film and controlling or regulating a plurality of 3D cameras
JP2014527196A (en) * 2011-08-03 2014-10-09 トゥルアリティ, エルエルシー Method for correcting zoom setting and / or vertical offset of stereo film frame, and control or adjustment system for a camera rig having two cameras
US10356329B2 (en) 2011-08-03 2019-07-16 Christian Wieland Method for correcting the zoom setting and/or the vertical offset of frames of a stereo film and control or regulating system of a camera rig having two cameras
JP2013114505A (en) * 2011-11-29 2013-06-10 Fujitsu Ltd Stereo image generating apparatus, stereo image generating method, and computer program for stereo image generation
US9225958B2 (en) 2012-03-15 2015-12-29 Panasonic Intellectual Property Management Co., Ltd. Video signal processor and method of processing video signal
CN102665087A (en) * 2012-04-24 2012-09-12 浙江工业大学 Automatic shooting parameter adjusting system of three dimensional (3D) camera device

Similar Documents

Publication Publication Date Title
US8155432B2 (en) Photographing apparatus
US8619120B2 (en) Imaging apparatus, imaging method and recording medium with program recorded therein
US6812969B2 (en) Digital camera
TWI514847B (en) Image processing device, image processing method, and recording medium
JP6222514B2 (en) Image processing apparatus, imaging apparatus, and computer program
US8878910B2 (en) Stereoscopic image partial area enlargement and compound-eye imaging apparatus and recording medium
KR101433121B1 (en) Image processing device for generating composite image having predetermined aspect ratio
JP2010230879A (en) Double eye camera device
JP2012222495A (en) Image processor, image processing method, and program
US8913173B2 (en) Imaging apparatus and imaging method
JP2006162991A (en) Stereoscopic image photographing apparatus
CN102263894B (en) Imaging apparatus
JP2002077947A (en) Method for correcting stereoscopic image and stereoscopic image apparatus using the same
JP2006238326A (en) Camera device system and photographed moving image reproduction method
JP2006157432A (en) Three-dimensional photographic apparatus and photographic method of three-dimensional image
JPH10200804A (en) Camera type scanner
JP2014131190A (en) Image pick-up apparatus, control method thereof, and control program
JP4907956B2 (en) Imaging device
JP5123010B2 (en) Imaging apparatus, imaging method, and program for causing computer included in imaging apparatus to execute imaging method
JP2009169884A (en) Photographing device, control method of photographing device, and image reproduction device, method and program
JP2008107480A (en) Focusing controller and imaging apparatus
JP3761318B2 (en) Imaging device adjustment system
JP5354035B2 (en) An imaging device with a zoom mechanism.
JP5641352B2 (en) Image processing apparatus, image processing method, and program
JP2009260567A (en) Imaging device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070221