Nothing Special   »   [go: up one dir, main page]

JP4562182B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP4562182B2
JP4562182B2 JP2005062050A JP2005062050A JP4562182B2 JP 4562182 B2 JP4562182 B2 JP 4562182B2 JP 2005062050 A JP2005062050 A JP 2005062050A JP 2005062050 A JP2005062050 A JP 2005062050A JP 4562182 B2 JP4562182 B2 JP 4562182B2
Authority
JP
Japan
Prior art keywords
image
image data
images
composition
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005062050A
Other languages
Japanese (ja)
Other versions
JP2006246309A5 (en
JP2006246309A (en
Inventor
宏爾 高橋
晃一 鷲巣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005062050A priority Critical patent/JP4562182B2/en
Publication of JP2006246309A publication Critical patent/JP2006246309A/en
Publication of JP2006246309A5 publication Critical patent/JP2006246309A5/ja
Application granted granted Critical
Publication of JP4562182B2 publication Critical patent/JP4562182B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、複数回の撮像動作によって得られた複数の画像データを合成することにより、手振れ等に伴う像振れを補正する画像処理装置画像処理方法およびプログラムに関するものである。
The present invention relates to an image processing apparatus , an image processing method, and a program for correcting image blur due to camera shake or the like by combining a plurality of image data obtained by a plurality of imaging operations.

従来のカメラでは、露出決定やピント合わせ等の撮影にとって重要な作業の多くは自動化され、カメラの操作に未熟な人でも撮影ミスを起こす可能性は非常に少なくなっている。また、最近では、カメラに加わる手振れによって生じる像振れを抑制するシステム(防振システム)も研究されており、撮影者の撮影ミスを誘発する要因は更に軽減されている。   With conventional cameras, many of the important tasks for shooting such as determining exposure and focusing are automated, and the possibility of making a shooting mistake is very low even for a person who is unskilled in the operation of the camera. Recently, a system (anti-vibration system) that suppresses image blur caused by camera shake applied to the camera has been studied, and factors that cause a photographer to take a picture are further reduced.

ここで、防振システムについて簡単に説明する。撮影時にカメラに加わる手振れは、周波数として通常1Hz〜数十Hzの振動であるといわれている。露光時に上記手振れを起こしていても像振れのない画像(撮影画像)を得るためには、手振れによるカメラの振動を検出し、この検出結果に応じて撮影光束の光軸の変化を補正する必要がある。   Here, the vibration isolation system will be briefly described. It is said that the hand shake applied to the camera at the time of shooting is a vibration having a frequency of usually 1 Hz to several tens Hz. In order to obtain an image (photographed image) with no image shake even when the above-mentioned camera shake occurs during exposure, it is necessary to detect camera vibration due to camera shake and correct the change in the optical axis of the imaged light beam according to this detection result. There is.

カメラの振動を検出する場合には、加速度計、振動ジャイロ、レーザージャイロ等により加速度、角加速度、角速度、角変位等を検出し、この検出結果に対して適宜演算処理する振動検出ユニットが用いられる。   When detecting camera vibration, a vibration detection unit is used that detects acceleration, angular acceleration, angular velocity, angular displacement, etc. by an accelerometer, vibration gyroscope, laser gyroscope, etc., and appropriately calculates the detection result. .

また、光軸変化を補正する手段として、撮影光学系内に配置され、光軸と略直交する面内で移動可能な補正レンズを用いたものがある(光学式防振システム)。   Further, as a means for correcting the change in the optical axis, there is one using a correction lens that is arranged in a photographing optical system and is movable in a plane substantially orthogonal to the optical axis (optical vibration isolation system).

一方、像振れが概ね生じない程度の露光時間で複数回の撮像動作を繰り返し行い、これらの撮像動作により得られた画像データに対して画像間のズレを修正しながら合成処理を行うことにより、露出補正された画像(撮影画像)を生成する方法(電子式防振システム)がある(例えば、特許文献1参照)。   On the other hand, by repeatedly performing the imaging operation multiple times with an exposure time that does not cause image blurring, and performing composition processing while correcting the shift between images for the image data obtained by these imaging operations, There is a method (an electronic image stabilization system) for generating an exposure-corrected image (photographed image) (see, for example, Patent Document 1).

この電子式防振システムでは、像振れを補正するための部材(補正レンズや該補正レンズを駆動する駆動機構)が不要となるため、光学式防振システムに比べて小型化し易いというメリットがある。
特開平9−261526号公報(段落番号0013、0014、図1等)
This electronic image stabilization system eliminates the need for a member for correcting image blur (a correction lens and a drive mechanism for driving the correction lens), and therefore has an advantage of being easily miniaturized compared to the optical image stabilization system. .
JP-A-9-261526 (paragraph numbers 0013, 0014, FIG. 1, etc.)

特許文献1に開示された電子式防振システムでは、被写体輝度に基づいて決定される露光時間や撮影者によって設定される露光時間を複数に分割し、分割された時間で撮像動作を行っているため、各露光時間が短くなった分だけ像振れが発生するのを抑制できる。   In the electronic image stabilization system disclosed in Patent Document 1, the exposure time determined based on the subject brightness and the exposure time set by the photographer are divided into a plurality of times, and the imaging operation is performed in the divided time. Therefore, it is possible to suppress the occurrence of image blur as much as each exposure time is shortened.

しかしながら、複数回の撮像動作を繰り返し行うと、被写体や手振れの状態により、得られた複数の画像のなかには、他の画像に比べて構図の大きく異なる画像が含まれるおそれがある。そして、構図の大きく異なる画像を合成しても良好な画像を得ることはできない。すなわち、構図がずれた分だけ、合成された画像もぼけてしまう。   However, if the imaging operation is repeated a plurality of times, depending on the subject and the state of camera shake, the obtained plurality of images may include an image having a composition that is significantly different from that of the other images. A good image cannot be obtained even if images having greatly different compositions are combined. That is, the synthesized image is blurred by the amount of composition shift.

本願第1の発明である画像処理装置は、複数の画像に対して画像合成を行うことにより露出補正された合成画像を生成する場合において、複数回の撮像動作によって得られた複数の画像のうち、少なくとも前記画像のコントラストに関する情報を含む画像に関する情報に基づいて前記画像合成に用いられる画像を選択する選択部と、前記選択部によって選択された画像が、前記画像合成に必要な画像の枚数に対して不足する場合には、前記選択部によって選択された画像のゲインを不足する枚数分アップするゲイン調整手段とを有し、前記選択部は、前記複数の画像のうち基準画像及び他の画像の前記コントラストの差が所定値以上の場合には、該他の画像については前記画像合成に用いないことを特徴とする。
The image processing apparatus according to the first aspect of the present invention generates a composite image that has been subjected to exposure correction by performing image composition on a plurality of images, and includes a plurality of images obtained by a plurality of imaging operations. A selection unit that selects an image to be used for the image composition based on information about the image including at least information about the contrast of the image, and the number of images selected by the selection unit is the number of images necessary for the image composition. when insufficient for is to have a gain adjustment means for number of sheets up missing the gain of the selected image by the selection unit, the selection unit, the reference image and another image of the plurality of images When the contrast difference is equal to or greater than a predetermined value, the other image is not used for the image composition .

本願第2の発明である画像処理方法は、複数の画像に対して画像合成を行うことにより露出補正された合成画像を生成する場合において、複数回の撮像動作によって得られた複数の画像のうち、少なくとも前記画像のコントラストに関する情報を含む画像に関する情報に基づいて前記画像合成に用いられる画像を選択する選択工程と、選択された画像が、前記画像合成に必要な画像の枚数に対して不足する場合には、前記選択された画像のゲインを不足する枚数分アップするゲイン調整工程とを有し、前記複数の画像のうち基準画像及び他の画像の前記コントラストの差が所定値以上の場合には、該他の画像については前記画像合成に用いないことを特徴とする。
The image processing method according to the second invention of the present application is to generate a composite image that has been exposure-corrected by performing image composition on a plurality of images, and among the plurality of images obtained by a plurality of imaging operations. A selection step of selecting an image to be used for the image composition based on information on the image including at least information on the contrast of the image, and the selected image is insufficient with respect to the number of images necessary for the image composition. A gain adjustment step of increasing the gain of the selected image by an insufficient number , and when the difference in contrast between the reference image and other images among the plurality of images is greater than or equal to a predetermined value. The other image is not used for the image composition .

本願第1及び第2の発明によれば、撮像動作によって得られた少なくともコントラストに関する情報を含む画像に関する情報に基づいて画像合成に用いる画像を選択しているため、画像合成に適さない画像を排除して、合成画像の画質を向上させることができる。 According to the first and second inventions of the present application, since an image to be used for image composition is selected based on information relating to an image including at least information relating to contrast obtained by an imaging operation, images that are not suitable for image composition are excluded. Thus, the image quality of the composite image can be improved.

以下、本発明の実施例について説明する。   Examples of the present invention will be described below.

図1は、本実施例である撮像装置の構成を示す図である。   FIG. 1 is a diagram illustrating a configuration of an imaging apparatus according to the present embodiment.

被写体から撮影レンズ11に入射した光束(撮影光束)は、絞り13aで光量調節された後に、シャッタ12aを通り撮像素子19aの撮像面に到達する。撮像素子19aは、CMOSセンサやCCDセンサなどの半導体撮像素子で構成される。   A light beam (photographing light beam) incident on the photographing lens 11 from the subject reaches the image pickup surface of the image pickup device 19a through the shutter 12a after the light amount is adjusted by the diaphragm 13a. The image sensor 19a is configured by a semiconductor image sensor such as a CMOS sensor or a CCD sensor.

図1では、撮影レンズ11を1つのレンズとして表しているが、本実施例の撮像装置は、実際には複数のレンズユニットを有している。ここで、レンズユニットとは、1つ又は複数のレンズで構成されるものである。複数のレンズユニットのうち少なくとも1つのレンズユニットは、焦点調節を行うためのレンズユニット(フォーカスレンズ)であり、他のレンズユニットには、撮影光学系の焦点距離を変更するためのレンズユニット(ズームレンズ)がある。   In FIG. 1, the photographing lens 11 is represented as one lens, but the imaging apparatus of the present embodiment actually has a plurality of lens units. Here, the lens unit is composed of one or a plurality of lenses. At least one lens unit among the plurality of lens units is a lens unit (focus lens) for performing focus adjustment, and a lens unit (zoom) for changing the focal length of the photographing optical system is used for the other lens units. Lens).

フォーカスレンズは、AF駆動モータ14aからの駆動力を受けて光軸10方向に移動することで、撮影光学系における焦点調節を行う。AF駆動モータ14aは、フォーカス駆動部14bからの駆動信号を受けることで駆動する。   The focus lens receives the driving force from the AF drive motor 14a and moves in the direction of the optical axis 10 to adjust the focus in the photographing optical system. The AF drive motor 14a is driven by receiving a drive signal from the focus drive unit 14b.

また、ズームレンズは、ズーム駆動モータ15aからの駆動力を受けて光軸10方向に移動することで、所定のズーム位置に停止する。これにより、撮影光学系の焦点距離(撮影画角)を変更することができる。ズーム駆動モータ15aは、ズーム駆動部15bからの駆動信号を受けることで駆動する。   Further, the zoom lens stops in a predetermined zoom position by moving in the direction of the optical axis 10 in response to the driving force from the zoom drive motor 15a. Thereby, the focal length (shooting angle of view) of the taking optical system can be changed. The zoom drive motor 15a is driven by receiving a drive signal from the zoom drive unit 15b.

絞り13aは、複数の絞り羽根を有しており、これらの絞り羽根は、絞り駆動部13bからの駆動力を受けて動作することで光通過口となる開口面積(絞り口径)を変化させる。これにより、像面に入射する光量を調節することができる。   The diaphragm 13a has a plurality of diaphragm blades, and these diaphragm blades operate by receiving a driving force from the diaphragm drive unit 13b, thereby changing an opening area (diaphragm aperture) serving as a light passage port. As a result, the amount of light incident on the image plane can be adjusted.

シャッタ12aは、複数のシャッタ羽根を有しており、これらのシャッタ羽根は、シャッタ駆動部12bからの駆動力を受けることで光通過口となる開口部(シャッタ12aに設けられた固定開口部)を開閉する。これにより、像面に入射する光束を制御する。   The shutter 12a has a plurality of shutter blades, and these shutter blades receive an opening (a fixed opening provided in the shutter 12a) serving as a light passage when receiving a driving force from the shutter driver 12b. Open and close. Thereby, the light beam incident on the image plane is controlled.

また、撮像素子19aにおける電荷蓄積時間、読出し等のタイミング制御は、センサ駆動部19bにて行われる。   In addition, timing control such as charge accumulation time and reading in the image sensor 19a is performed by the sensor driving unit 19b.

また、撮影時の条件(被写体輝度等)や撮影者による設定などに応じて、照明ユニット16aは照明駆動部16bからの駆動信号を受けて駆動(発光)する。撮影動作を撮影者に知らせるためのスピーカ17aは、発音駆動部17bからの駆動信号を受けて駆動(発音)する。   Further, the illumination unit 16a is driven (emitted) in response to a drive signal from the illumination drive unit 16b in accordance with shooting conditions (subject brightness, etc.) and settings by the photographer. The speaker 17a for informing the photographer of the photographing operation is driven (sounded) in response to a driving signal from the sounding driving unit 17b.

上述したフォーカス駆動部14b、ズーム駆動部15b、絞り駆動部13b、シャッタ駆動部12b、照明駆動部16b、発音駆動部17bおよびセンサ駆動部19bの駆動は、撮影制御部18により制御されている。   Driving of the focus driving unit 14b, zoom driving unit 15b, aperture driving unit 13b, shutter driving unit 12b, illumination driving unit 16b, sound generation driving unit 17b, and sensor driving unit 19b described above is controlled by the imaging control unit 18.

撮影制御部18には、レリーズ操作部12c、絞り操作部13c、ズーム操作部15c、照明操作部16c及び防振操作部120からの操作信号が入力されるようになっており、入力信号に応じた制御動作を行う。すなわち、各操作部12c〜16cからの操作信号に基づいて、フォーカス駆動部14b、ズーム駆動部15b、絞り駆動部13b、シャッタ駆動部12b、照明駆動部16b、センサ駆動部19bの駆動を制御する。   Operation signals from the release operation unit 12c, the aperture operation unit 13c, the zoom operation unit 15c, the illumination operation unit 16c, and the image stabilization operation unit 120 are input to the imaging control unit 18, and according to the input signal Control operation. That is, based on the operation signal from each operation part 12c-16c, the drive of the focus drive part 14b, the zoom drive part 15b, the aperture drive part 13b, the shutter drive part 12b, the illumination drive part 16b, and the sensor drive part 19b is controlled. .

なお、絞り13aの開口径や照明ユニット16aの発光量は、撮影条件(被写体輝度等)に基づいてカメラ内(撮影制御部18)で自動的に設定されるが、撮影者が任意に撮影条件(絞り径や発光量)を設定するために、絞り操作部13cおよび照明操作部16cが設けられている。   The aperture diameter of the aperture 13a and the light emission amount of the illumination unit 16a are automatically set in the camera (shooting control unit 18) based on shooting conditions (subject brightness, etc.). In order to set (aperture diameter and light emission amount), an aperture operation unit 13c and an illumination operation unit 16c are provided.

撮影制御部18は、後述する信号処理部111で生成された画像信号に基づいて被写体輝度の測定(測光)を行い、この測光結果に基づいて絞り13aの絞り口径とシャッタ12aの閉じタイミング(露光時間)を定めている。また、撮影制御部18は、フォーカス駆動部14bを介してフォーカスレンズ(撮影レンズ11)を光軸方向に移動させながら、信号処理部111からの出力に基づいてフォーカスレンズの合焦位置を求めている。すなわち、いわゆるコントラスト検出方式による焦点調節を行っている。   The imaging control unit 18 measures the subject brightness (photometry) based on an image signal generated by the signal processing unit 111 described later, and based on the photometric result, the aperture diameter of the aperture 13a and the closing timing (exposure) of the shutter 12a. Time). Further, the imaging control unit 18 obtains the focus position of the focus lens based on the output from the signal processing unit 111 while moving the focus lens (imaging lens 11) in the optical axis direction via the focus driving unit 14b. Yes. That is, focus adjustment is performed by a so-called contrast detection method.

撮像素子19aから出力された信号(アナログ信号)は、A/D変換器110によりデジタル信号に変換されて信号処理部111に入力される。信号処理部111は、入力された信号に対して輝度信号や色信号等を生成する信号処理を行うことにより、カラーの映像信号(画像データ)を生成する。   A signal (analog signal) output from the image sensor 19 a is converted into a digital signal by the A / D converter 110 and input to the signal processing unit 111. The signal processing unit 111 generates a color video signal (image data) by performing signal processing for generating a luminance signal, a color signal, and the like on the input signal.

信号処理部111で生成された映像信号は、信号切替部112を介して第2画像補正部117bに入力される。すなわち、後述する防振モードが設定されていない場合に、映像信号が第2画像補正部117bに入力される。   The video signal generated by the signal processing unit 111 is input to the second image correction unit 117b via the signal switching unit 112. That is, when the image stabilization mode described later is not set, the video signal is input to the second image correction unit 117b.

第2画像補正部117bでは、入力された映像信号に対してガンマ補正処理や非線形レベル圧縮処理を行う。第2画像補正部117bの出力信号は、撮影画像として表示部118に表示されるとともに、記録部119に記録されたり、記録部119を介してメモリカードなどの記録媒体(不図示)に記録されたりする。   The second image correction unit 117b performs gamma correction processing and nonlinear level compression processing on the input video signal. The output signal of the second image correction unit 117b is displayed on the display unit 118 as a captured image, and is recorded on the recording unit 119 or is recorded on a recording medium (not shown) such as a memory card via the recording unit 119. Or

本実施例における防振モードでは、像振れが起きにくい程度の露光時間で複数回の撮像動作を行うことによって複数の画像データを生成し、これらの画像データを合成することで露出補正された画像データ(撮影画像)を生成する。ここで、防振操作部120を操作することによって、防振モードを設定したり、防振モードの設定を解除したりすることができる。   In the image stabilization mode according to the present exemplary embodiment, a plurality of image data is generated by performing an imaging operation a plurality of times with an exposure time that is unlikely to cause image blur, and an image subjected to exposure correction by combining these image data. Data (photographed image) is generated. Here, by operating the image stabilization operation unit 120, it is possible to set the image stabilization mode or cancel the setting of the image stabilization mode.

以下、防振モードが設定されているときの動作について説明する。   The operation when the image stabilization mode is set will be described below.

複数回の撮像動作によって撮像素子19aから出力される複数の信号は、A/D変換器110でデジタル信号に変換されてから信号処理部111にて信号処理が施される。ここで、防振操作部120から撮影制御部18に対して防振モードの設定を指示する信号が出力されると、撮影制御部18は、信号処理部111で生成された画像データを、信号切替部112を介して画像記憶部113に入力させる。この場合、第2画像補正部117bには画像データが出力されない。   A plurality of signals output from the image sensor 19 a by a plurality of imaging operations are converted into digital signals by the A / D converter 110 and then subjected to signal processing by the signal processing unit 111. Here, when a signal for instructing the image stabilization control unit 18 to set the image stabilization mode is output from the image stabilization operation unit 120, the image capture control unit 18 uses the image data generated by the signal processing unit 111 as a signal. The image data is input to the image storage unit 113 via the switching unit 112. In this case, image data is not output to the second image correction unit 117b.

画像記憶部113には、複数回の撮像動作によって生成された複数の画像データのうち、後述するように所定の条件を満たす画像データが記憶される。具体的には、撮影制御部18は、複数回の撮像動作によって得られた複数の画像データのうち画像合成に適した画像データを特定し、この画像データだけを画像記憶部113に記憶させる。他の画像データについては、画像記憶部113および第2画像補正部117bに出力されない。   The image storage unit 113 stores image data that satisfies a predetermined condition among a plurality of image data generated by a plurality of imaging operations, as will be described later. Specifically, the imaging control unit 18 specifies image data suitable for image composition from among a plurality of image data obtained by a plurality of imaging operations, and stores only this image data in the image storage unit 113. Other image data is not output to the image storage unit 113 and the second image correction unit 117b.

ズレ検出部114は、横方向および縦方向の画像間のずれ(動きベクトル)を検出する。この動きベクトルは、手振れによって生じる像振れに相当し、像振れの方向および量を表す。具体的には、画像記憶部113に記憶された各画像データにおける特徴点を抽出し、この特徴点の撮影画面内における位置座標を割り出す。   The deviation detection unit 114 detects a shift (motion vector) between the images in the horizontal direction and the vertical direction. This motion vector corresponds to image blur caused by camera shake, and represents the direction and amount of image blur. Specifically, a feature point in each image data stored in the image storage unit 113 is extracted, and a position coordinate of the feature point in the shooting screen is determined.

例えば、図2のフレーム121aに示すように、人物122aが建物123aを背景にして立っている被写体を撮影する場合を用いて、ズレ検出部114の動作を説明する。   For example, as shown in the frame 121a of FIG. 2, the operation of the deviation detection unit 114 will be described using a case where a person 122a photographs a subject standing against a building 123a.

複数回の撮像動作を行う場合には、フレーム121bに示すように、手振れによりフレーム121aに対して構図がずれた画像が得られることがある。   When performing the imaging operation a plurality of times, as shown in the frame 121b, an image whose composition is shifted from the frame 121a due to camera shake may be obtained.

ズレ検出部114は、フレーム121aにおいて、画面の周辺に位置する建物123aのうち輝度の高い点である窓124aのエッジ125aをエッジ検出により特徴点として取り出す。同様に、フレーム121bにおいても、窓124bのエッジ125bを特徴点として取り出す。   In the frame 121a, the shift detection unit 114 extracts an edge 125a of the window 124a, which is a point having a high luminance, from the building 123a located around the screen as a feature point by edge detection. Similarly, also in the frame 121b, the edge 125b of the window 124b is extracted as a feature point.

そして、フレーム121aの特徴点125aと、フレーム121bの特徴点125bとを比較し、この差分(動きベクトルに対応する)だけフレーム121bを補正(座標変換)する。すなわち、フレーム121aを基準画像とし、この基準画像での構図に揃うように他の画像(フレーム121b等)に対して座標変換を行う。   Then, the feature point 125a of the frame 121a and the feature point 125b of the frame 121b are compared, and the frame 121b is corrected (coordinate conversion) by this difference (corresponding to the motion vector). That is, the frame 121a is used as a reference image, and coordinate conversion is performed on other images (such as the frame 121b) so that the composition of the reference image is aligned.

図2では、フレーム121bの特徴点125bがフレーム121aの特徴点125aに重なるように、矢印126の分だけフレーム121bを座標変換する。ここで、矢印126は、動きベクトルを示す。   In FIG. 2, the frame 121b is coordinate-converted by the amount of the arrow 126 so that the feature point 125b of the frame 121b overlaps the feature point 125a of the frame 121a. Here, an arrow 126 indicates a motion vector.

本実施例では、撮影画面内の周辺領域(撮影画面の外枠に近い領域)から特徴点を抽出するようにしている。以下、この理由について説明する。   In this embodiment, feature points are extracted from a peripheral area (an area close to the outer frame of the shooting screen) in the shooting screen. Hereinafter, this reason will be described.

撮影を行う場合には、撮影画面の中央近傍に主被写体が位置し、且つ主被写体が人物であることが多い。この場合、主被写体の領域から特徴点を抽出すると、被写体の振れによる不都合が生じることがある。   When shooting, the main subject is often located near the center of the shooting screen, and the main subject is often a person. In this case, extracting feature points from the area of the main subject may cause inconvenience due to subject shake.

複数回の撮像動作を行っている間においては、撮影者の手振ればかりでなく、被写体の振れも重畳してくるため、主被写体の領域内での特徴点を用いると、被写体の振れに基づいて座標変換処理を行ってしまうことがある。   During the multiple imaging operations, not only the camera shake of the photographer but also the shake of the subject is superimposed, so using the feature points in the main subject area is based on the shake of the subject. Coordinate conversion processing may be performed.

この場合、主被写体の振れに基づいて座標変換を行うため、主被写体の構図が適正(ズレが概ね無い状態)になるように思われる。しかし、一般的に人物の動きは複雑であり、特徴点を選ぶ場所に応じて、画像間のズレを検出する精度が大きく左右される。   In this case, since coordinate conversion is performed based on the shake of the main subject, the composition of the main subject seems to be appropriate (a state in which there is almost no deviation). However, generally, the movement of a person is complicated, and the accuracy of detecting a shift between images is greatly influenced by the location where a feature point is selected.

例えば、主被写体(人物)の眼を特徴点として選んだ場合には、瞬きの影響によって実際の被写体全体の振れとは異なってしまう。また、手の先を特徴点として選択した場合には、手は動きやすいため、実際の被写体全体の振れとは異なってしまう。   For example, when the eye of the main subject (person) is selected as a feature point, the actual shake of the entire subject differs from the effect of blinking. In addition, when the tip of the hand is selected as the feature point, the hand is easy to move, which is different from the actual shake of the entire subject.

このように人物の1点(特徴点)に関するズレに基づいて画像データの座標変換を行っても、人物全体が適正に座標変換されるわけではない。そして、人物全体の振れとは異なる振れ(ズレ)に基づいて座標変換を行ってから画像データを合成しても、合成された画像データにおいては、人物がずれたままとなってしまう。   As described above, even if the coordinate conversion of the image data is performed based on the shift regarding one point (characteristic point) of the person, the whole person is not properly coordinate-converted. Even if the image data is synthesized after performing coordinate conversion based on a shake (deviation) different from the shake of the whole person, the person remains shifted in the synthesized image data.

一方、撮影画面内の周辺領域には、一般的に建物等のように動かない被写体(静止被写体)が位置しているため、静止被写体を特徴点の抽出領域として選択すれば、座標変換処理において被写体振れの影響は生じない。そこで、本実施例では、上述したように撮影画面内の周辺領域から特徴点を抽出するようにしている。   On the other hand, since a non-moving subject (stationary subject) such as a building is generally located in the peripheral area in the shooting screen, if a stationary subject is selected as a feature point extraction region, coordinate conversion processing is performed. There is no influence of subject shake. Therefore, in this embodiment, as described above, feature points are extracted from the peripheral area in the shooting screen.

なお、画像間のズレを検出する方法としては、上述したように周辺領域内の一点を特徴点として抽出し、各画像の特徴点に基づいてズレを検出する方法に限られるものではない。例えば、各画像の全領域を複数の領域に分割し、各領域における画像間の動きベクトルを検出する。そして、所定の条件に基づいて複数の動きベクトルをグループ化し、各グループ内で最も頻度の高い動きベクトルを画像間のズレとすることができる。   Note that the method for detecting the shift between images is not limited to the method of extracting one point in the peripheral region as a feature point and detecting the shift based on the feature point of each image as described above. For example, the entire region of each image is divided into a plurality of regions, and a motion vector between images in each region is detected. Then, a plurality of motion vectors can be grouped based on a predetermined condition, and the motion vector having the highest frequency in each group can be used as a gap between images.

上述した説明では、画像の横方向および縦方向における動きベクトルを検出し、この動きベクトルに基づく座標変換によって、画像データを横方向および縦方向にシフトさせている。ここで、画像の回転情報も検出するようにすれば、この検出情報に基づいて回転方向の像振れを補正することもできる。   In the above description, the motion vector in the horizontal direction and the vertical direction of the image is detected, and the image data is shifted in the horizontal direction and the vertical direction by coordinate conversion based on the motion vector. Here, if image rotation information is also detected, image blur in the rotation direction can be corrected based on this detection information.

座標変換部115は、ズレ検出部114で求められた画像間のズレ(動きベクトル)に基づいて、基準画像データ以外の画像データに対して座標変換処理を行う。また、座標変換部115は以下の動作も行っている。   The coordinate conversion unit 115 performs a coordinate conversion process on image data other than the reference image data based on the shift (motion vector) between images obtained by the shift detection unit 114. The coordinate conversion unit 115 also performs the following operations.

まず、座標変換処理を行う際に基準となる基準画像を特定する。この基準画像データは、複数の合成用画像データのうち任意の1つの画像データである。そして、基準画像以外の画像のうち、基準画像に対して所定量以上構図のずれている画像(所定値以上の動きベクトルを有する画像)については、削除する。すなわち、削除される画像については、座標変換処理が行われず、画像合成処理にも用いられない。   First, a reference image serving as a reference when performing coordinate conversion processing is specified. This reference image data is any one of a plurality of compositing image data. Then, among the images other than the reference image, an image whose composition is shifted by a predetermined amount or more with respect to the reference image (an image having a motion vector greater than a predetermined value) is deleted. That is, the image to be deleted is not subjected to coordinate conversion processing and is not used for image composition processing.

座標変換部115で座標変換された各画像データは画像合成部116に出力され、画像合成部116の画像合成処理によって1つの画像データ(以下、合成画像データともいう)が生成される。   Each image data coordinate-converted by the coordinate conversion unit 115 is output to the image composition unit 116, and one image data (hereinafter also referred to as composite image data) is generated by the image composition processing of the image composition unit 116.

デジタル画像の場合には、露出不足の画像でもゲインアップすることで露出の補正が可能である。ただし、ゲインをアップさせるとノイズも増えて低画質の画像になってしまう。   In the case of a digital image, it is possible to correct exposure by increasing the gain even for an underexposed image. However, increasing the gain increases the noise and results in a low-quality image.

しかし、本実施例のように複数の画像データを合成して画像全体のゲインをアップさせる場合において、合成用画像データが十分な数だけあれば、画像合成処理の過程において全体の信号レベルを圧縮処理することにより、相対的に各画像データのノイズを低減させることができる。これにより、S/N比の良好な画像データを得ることができ、結果的にノイズを抑えて露出を適正化することができる。   However, when a plurality of image data is combined to increase the gain of the entire image as in the present embodiment, if there is a sufficient number of image data for combining, the entire signal level is compressed during the image combining process. By processing, the noise of each image data can be relatively reduced. As a result, image data with a good S / N ratio can be obtained, and as a result, noise can be suppressed and exposure can be optimized.

別の考え方をすれば、例えばノイズを許容して撮像素子19aを高感度に設定してから複数回の撮像動作を行い、得られた複数の画像データを合成することにより、画像データに含まれるランダムノイズを減少させていることになる。   In another way of thinking, for example, noise is allowed and the image pickup device 19a is set to high sensitivity, and then a plurality of image pickup operations are performed. Random noise is reduced.

合成画像データは第1画像補正部117aに入力され、第1画像補正部117aにおいて、ガンマ補正処理や非線形レベル圧縮処理が行われる。また、座標変換された画像データを合成する場合、図3に示すように、複数の画像が互いに重ならない領域129が生じる。この領域129の大きさは、手振れによって生じる画像間のズレに対応したものである。第1画像補正部117aは、領域129での画像データをカットする。   The composite image data is input to the first image correction unit 117a, and the first image correction unit 117a performs gamma correction processing and nonlinear level compression processing. In addition, when the coordinate-converted image data is combined, a region 129 where a plurality of images do not overlap each other is generated as shown in FIG. The size of this area 129 corresponds to the shift between images caused by camera shake. The first image correction unit 117a cuts the image data in the area 129.

領域129をカットした場合には、複数の画像が重なる領域は、元の画像サイズよりも小さくなるため、この領域内の画像データについては、必要に応じて拡大補間処理を行うことで、元の(又は所定の)画像サイズ(アスペクト)に調整する。   When the region 129 is cut, the region where a plurality of images overlap is smaller than the original image size. Therefore, the image data in this region is subjected to enlargement interpolation processing as necessary, so that the original The image size (aspect) is adjusted to (or a predetermined).

ここで、合成画像の全画素数を所定数に揃える必要がない場合には、不必要にデータ量を増大させるのを防止するために、拡大補間処理を行わなくてもよい。また、合成画像データを再生させるときに、拡大補間処理を行うようにしてもよい。   Here, when it is not necessary to make the total number of pixels of the composite image equal to a predetermined number, it is not necessary to perform the enlargement interpolation process in order to prevent unnecessarily increasing the data amount. Further, when reproducing the composite image data, an enlargement interpolation process may be performed.

第1画像補正部117aで生成された画像データは、表示部118で撮影画像として表示されたり、記録部119に記録されたりする。   The image data generated by the first image correction unit 117a is displayed as a captured image on the display unit 118 or recorded in the recording unit 119.

一般にデジタルカメラの場合では、撮影動作の後に撮影画像が液晶モニタ(表示部118)に表示される。   In general, in the case of a digital camera, a photographed image is displayed on the liquid crystal monitor (display unit 118) after the photographing operation.

しかし、本実施例のように複数の画像データを合成して露出補正された合成画像データを生成する場合には、合成画像データを生成して表示部118で表示させるまでの時間がかかってしまう。   However, when generating composite image data that has been subjected to exposure correction by combining a plurality of image data as in the present embodiment, it takes time to generate composite image data and display it on the display unit 118. .

そこで、本実施例では、画像合成される前の合成用画像データを表示部118に表示させている。これにより、撮影動作(複数回の撮像動作)が完了してから表示部118に画像データが表示されるまでの時間を短縮させることができる。ここで、表示部118に表示させる合成用画像データは、予め決定されたものであり、例えば、基準画像データを表示させたり、複数の撮像動作のうち最初の撮像動作によって得られた画像データを表示させたりすることができる。   Therefore, in this embodiment, the image data for synthesis before image synthesis is displayed on the display unit 118. Thereby, it is possible to shorten the time from the completion of the photographing operation (multiple imaging operations) until the display of the image data on the display unit 118. Here, the composition image data to be displayed on the display unit 118 is determined in advance. For example, reference image data is displayed, or image data obtained by the first imaging operation among a plurality of imaging operations is displayed. It can be displayed.

一般的に表示部118は小型であるため、露出不足である合成用画像データを、ゲインを上げた状態で表示させても、画質の劣化は目立たない。また、表示部118で撮影画像を観察するのは、主に撮影構図をチェックするためであるため、大まかな構図が分かる合成用画像データを表示させるだけで十分である。   Since the display unit 118 is generally small, deterioration in image quality is not noticeable even when the image data for synthesis that is underexposed is displayed with the gain increased. The reason why the photographed image is observed on the display unit 118 is mainly to check the photographed composition, so that it is sufficient to display the image data for synthesis that shows the rough composition.

一方、記録部119に記録された画像データを表示部118に入力すれば、この画像データを再生表示させることができる。   On the other hand, if the image data recorded in the recording unit 119 is input to the display unit 118, the image data can be reproduced and displayed.

上述したように複数回の撮像動作によって複数の画像データを取得し、これらの画像データを合成する場合において、撮影動作(複数回の撮像動作に対応する)の直後では、表示部118に所定の画像データ(合成用画像データ)が表示される。一方、記録部119で記録された合成画像データを表示部118で再生表示させる場合において、表示禁止部118aは、合成用画像データを表示部118で表示させるのを禁止し、合成画像データを表示部118で表示させる。   As described above, when a plurality of image data is acquired by a plurality of imaging operations and these image data are combined, immediately after the shooting operation (corresponding to a plurality of imaging operations), a predetermined value is displayed on the display unit 118. Image data (compositing image data) is displayed. On the other hand, when the composite image data recorded by the recording unit 119 is reproduced and displayed on the display unit 118, the display prohibition unit 118a prohibits the display of the composite image data on the display unit 118 and displays the composite image data. This is displayed on the unit 118.

なお、撮影画像を再生表示させる再生モードに設定した場合には、一般的には記録部119に記録されたすべての画像データを表示部118で表示させることができる。すなわち、各画像データを表示部118で表示させたり、所定数の画像データをまとめて表示部118で表示させたりすることができる。   Note that, when the reproduction mode for reproducing and displaying a photographed image is set, generally, all image data recorded in the recording unit 119 can be displayed on the display unit 118. That is, each image data can be displayed on the display unit 118, or a predetermined number of image data can be displayed together on the display unit 118.

一方、本実施例において、再生モードが設定されている場合には、合成画像データだけが表示部118で表示されるようになっている。すなわち、記録部119に記録された合成用画像データの表示は、表示禁止部118aによって禁止される。なお、所定の操作によって、合成用画像データを表示部118で表示させてもよい。   On the other hand, in this embodiment, when the playback mode is set, only the composite image data is displayed on the display unit 118. That is, the display prohibition unit 118a prohibits the display of the composition image data recorded in the recording unit 119. Note that the image data for synthesis may be displayed on the display unit 118 by a predetermined operation.

再生モードの設定時に、複数の合成用画像データを表示させると、各画像データを観察する時間がかかってしまうとともに、撮影画像データ(合成画像データ)とは異なる画像データによって撮影者が混乱してしまうことがある。このため、本実施例では、再生モードの設定時には、撮影画像としての合成画像データだけを表示させるようにしている。   If a plurality of compositing image data is displayed when setting the playback mode, it takes time to observe each image data, and the photographer is confused by image data different from the captured image data (composite image data). It may end up. For this reason, in this embodiment, only the composite image data as the captured image is displayed when the playback mode is set.

また、上述したように画像記憶部113には、複数回の撮像動作によって得られた複数の画像データのうち所定の条件を満たす画像データだけが記憶されるようになっている。ここで、すべての画像データを画像記憶部113に記憶させてもよいが、本実施例のようにすることで、画像記憶部113での記憶容量を確保したり、画像データの記憶に要する時間や、合成画像データを生成するまでの時間を短縮したりすることができる。   Further, as described above, the image storage unit 113 stores only image data satisfying a predetermined condition among a plurality of image data obtained by a plurality of imaging operations. Here, all the image data may be stored in the image storage unit 113. However, as in the present embodiment, the storage capacity in the image storage unit 113 is ensured, or the time required for storing the image data. In addition, it is possible to shorten the time until generating the composite image data.

次に、本実施例における特徴部分について、図4を用いて説明する。図4は、夕日を撮影するシーンを示しており、被写体となる景色130に対して複数回の撮像動作を行うことによって生成された画像(1)〜(7)を示している。   Next, the characteristic part in a present Example is demonstrated using FIG. FIG. 4 shows a scene for photographing sunset, and shows images (1) to (7) generated by performing a plurality of imaging operations on the scenery 130 as a subject.

なお、景色130中に示す複数の枠(例えば、枠130a)は、各画像(1)〜(7)の外枠を示しており、各枠および各画像(1)〜(7)は矢印で対応させている。   A plurality of frames (for example, a frame 130a) shown in the scenery 130 indicate the outer frames of the images (1) to (7), and the frames and the images (1) to (7) are indicated by arrows. It corresponds.

ここで、景色130に対する測光動作の結果に基づいて決定されたシャッタ速度(露光時間)が1/10msecであるとする。撮影光学系の焦点距離が50mm(135フィルム換算値)である場合において、シャッタ速度を1/50msec以下に設定しないと、手振れによる像振れが生じるおそれがある。   Here, it is assumed that the shutter speed (exposure time) determined based on the result of the photometric operation on the scene 130 is 1/10 msec. When the focal length of the photographing optical system is 50 mm (135 film equivalent), image blur due to camera shake may occur unless the shutter speed is set to 1/50 msec or less.

したがって、上述した場合にはシャッタ速度を1/50msecに設定し、合計の露光時間が1/10msecとなるように、上記シャッタ速度での撮像動作を5回行う。そして、5回の撮像動作によって生成された画像データを合成して、1つの画像データを生成する。   Therefore, in the case described above, the shutter speed is set to 1/50 msec, and the imaging operation at the shutter speed is performed five times so that the total exposure time is 1/10 msec. Then, the image data generated by the five imaging operations is combined to generate one image data.

本実施例では、図4に示すように、7回の撮像動作によって7つの画像データを生成している。そして、上述したように各画像データに対して、画像合成に不適切な画像データであるか否かの判別を行い、画像合成に用いることができる画像データだけを画像記憶部113に記憶する。ここで、画像合成に用いることができない不適切な画像データについて、図4を用いて説明する。   In this embodiment, as shown in FIG. 4, seven image data are generated by seven imaging operations. Then, as described above, it is determined whether or not each image data is inappropriate for image composition, and only image data that can be used for image composition is stored in the image storage unit 113. Here, inappropriate image data that cannot be used for image composition will be described with reference to FIG.

複数回の撮像動作を行っている間において、主被写体(撮影時の主な被写体)とカメラとの間に他の被写体が入り込んだ場合や、所定量以上の像振れが発生した場合に得られた画像データは、不適切な画像データと判別される。   Obtained when another subject gets in between the main subject (main subject at the time of shooting) and the camera, or when image blur more than a predetermined amount occurs during multiple imaging operations. The image data is determined as inappropriate image data.

このような不適切な画像データにおいては、最初に得られた画像データに対して各種パラメータが大きく異なっている可能性が高い。具体的には、露光中の被写体振れにより画像データのコントラストが低下したり、主被写体よりも近距離側に入り込んだ他の被写体が非合焦状態となることによりコントラストが低下したりする。   In such inappropriate image data, there is a high possibility that various parameters are greatly different from the image data obtained first. Specifically, the contrast of the image data decreases due to subject shake during exposure, or the contrast decreases due to the other subject entering the nearer distance than the main subject being out of focus.

このため、画像データのコントラストを評価し、この評価値が所定範囲外である場合には、この画像データが不適切な画像データであると判別するとともに、画像記憶部113へは記憶しない。この処理の詳細については後述する。このように、画像データのコントラストに基づいて、不適切な画像データであるか否かの判別を行うことができる。   Therefore, the contrast of the image data is evaluated, and when the evaluation value is outside the predetermined range, it is determined that the image data is inappropriate image data and is not stored in the image storage unit 113. Details of this processing will be described later. In this way, it is possible to determine whether or not the image data is inappropriate based on the contrast of the image data.

一方、撮影光学系の合焦状態に基づいて、不適切な画像データであるか否かの簡易な判別を行うこともできる。上述したように不適切な画像データが得られる撮影状況においては、複数回の撮像動作を開始したときの合焦状態とは異なる。このため、エンコーダを用いて、撮影レンズ(フォーカスレンズ)11の合焦位置の変化を検出し、この検出結果に基づいて不適切な画像データであるか否かの判別を行うこともできる。   On the other hand, it is possible to easily determine whether or not the image data is inappropriate based on the in-focus state of the photographing optical system. As described above, the shooting situation in which inappropriate image data is obtained is different from the focused state when a plurality of imaging operations are started. For this reason, it is possible to detect a change in the focus position of the photographing lens (focus lens) 11 using an encoder and determine whether or not the image data is inappropriate based on the detection result.

図4の画像(3)においては、撮影動作中に高速で移動する被写体(車両)が撮影画面内に入り込んでおり、他の画像データ(1)等とは異なる構図となっている。すなわち、画像(3)では、高速移動する車両によって被写体振れが発生している。この被写体振れの発生した領域におけるコントラストは、他の画像データにおける同じ領域のコントラストに比べて低い可能性が高い。   In the image (3) of FIG. 4, a subject (vehicle) that moves at high speed during the photographing operation enters the photographing screen, and has a composition different from that of the other image data (1). That is, in the image (3), the subject shake occurs due to the vehicle moving at high speed. The contrast in the region where the subject shake occurs is likely to be lower than the contrast in the same region in other image data.

なお、移動する被写体の形状と移動方向によっては、コントラストが高くなる場合もある。例えば、輝度等が均一な背景に対して、上下が別色で彩色された列車がほぼ水平に走っている場合には、コントラストが高くなる。   Depending on the shape of the moving subject and the moving direction, the contrast may increase. For example, when a train colored in different colors on the top and bottom is running almost horizontally against a background with uniform brightness and the like, the contrast becomes high.

画像(6)は、遠くの風景を撮影するためにピントを無限遠に設定して撮影動作を開始した後に、至近距離の位置で人物が撮影画面内に入り込んだ場合を示している。合焦範囲(被写界深度)から外れた位置にある人物に関しては、いわゆるピンぼけした画像となり、この人物に対応した画像領域のコントラストは、他の画像(1)等における同じ領域でのコントラストに比べて低い可能性が高い。   Image (6) shows a case where a person enters the shooting screen at a close distance after the shooting operation is started with the focus set to infinity in order to shoot a distant landscape. A person outside the focus range (depth of field) is a so-called out-of-focus image, and the contrast of the image area corresponding to this person is the contrast in the same area in other images (1) and the like. Compared to the low possibility.

なお、背景および人物の明るさによっては、コントラストが高くなる場合もある。例えば、輝度が均一であり、暗い背景の場合であって、人物に対して十分な照度の照明光が照射されている場合には、人物での輝度が高くなるため、コントラストも高くなる。   Note that the contrast may increase depending on the brightness of the background and the person. For example, when the brightness is uniform and the background is dark, and illumination light with sufficient illuminance is applied to the person, the brightness of the person increases and the contrast also increases.

上述したように、画像(3)、(6)と、他の基準画像(例えば、画像(1))とを比較すると、一部の領域においてコントラストが所定量以上異なっている場合がある。そこで、本実施例では、基準画像に対して所定量以上のコントラストの差を持つ画像(3)、(6)を特定し、この画像を画像合成に用いないようにしている。画像(3)、(6)は、画像合成において不適切な画像となる。   As described above, when the images (3) and (6) are compared with another reference image (for example, the image (1)), the contrast may differ by a predetermined amount or more in some regions. Therefore, in this embodiment, the images (3) and (6) having a contrast difference of a predetermined amount or more with respect to the reference image are specified, and these images are not used for image synthesis. Images (3) and (6) are inappropriate images in image composition.

コントラストの差に基づいて画像合成に用いない画像データを特定する処理は、上述したように撮影制御部18で行われる。   The process of specifying image data not used for image composition based on the contrast difference is performed by the imaging control unit 18 as described above.

本実施例では、図4に示す画像(1)〜(7)のうち画像(1)、(2)、(4)、(5)、(7)が画像記憶部113に記憶される。   In this embodiment, the images (1), (2), (4), (5), and (7) are stored in the image storage unit 113 among the images (1) to (7) shown in FIG.

ここで、所定数(図4に示す場合には5つ)の画像データを画像記憶部113に記憶させたときに、2回目以降の撮像動作によって得られた画像データにおけるコントラストの平均値を計算し、この平均値に対して、最初の撮像動作によって得られた画像データのコントラストが所定量以下でないことを確認しておくことができる。これにより、画像記憶部113に記憶された画像データを合成する際の精度を向上させることができる。   Here, when a predetermined number (five in the case shown in FIG. 4) of image data is stored in the image storage unit 113, the average value of contrast in the image data obtained by the second and subsequent imaging operations is calculated. Then, it can be confirmed that the contrast of the image data obtained by the first imaging operation is not less than a predetermined amount with respect to the average value. Thereby, the precision at the time of synthesize | combining the image data memorize | stored in the image memory | storage part 113 can be improved.

また、最初の画像データのコントラスト値が上記平均値に対して所定量以下である場合には、最初の画像データを画像記憶部113から削除することができる。これにより、合成画像データの画質を更に向上させることができる。   Further, when the contrast value of the first image data is equal to or less than a predetermined amount with respect to the average value, the first image data can be deleted from the image storage unit 113. Thereby, the image quality of the composite image data can be further improved.

一方、画像記憶部113にすべての画像データ(1)〜(7)を記憶しておき、すべての画像データにおけるコントラストの平均値を求め、この平均値に対して所定量以上異なるコントラストを有する画像データについては、画像合成処理に用いないようにしてもよい。また、画像合成処理に用いない画像データについては、画像記憶部113から削除してもよい。この場合には、画像記憶部113内に記憶されているデータ容量を低減することができる。   On the other hand, all the image data (1) to (7) are stored in the image storage unit 113, an average value of contrast in all the image data is obtained, and an image having a contrast different from the average value by a predetermined amount or more. Data may not be used for image composition processing. Further, image data that is not used for the image composition process may be deleted from the image storage unit 113. In this case, the data capacity stored in the image storage unit 113 can be reduced.

上述したように本実施例では、1回の撮像動作が完了する度に、この撮像動作によって生成された画像のコントラストに基づいて、該画像データが画像合成処理に適した画像データであるか否を判別している。なお、最初の画像データに対して画像合成に適しているか否かの判別は行わない。そして、画像合成処理に不適切な画像データである場合には、画像記憶部113への記憶を行わずに、必要数の画像データが得られるまで撮像動作を繰り返すようにしている。   As described above, in the present embodiment, each time one imaging operation is completed, whether or not the image data is image data suitable for image composition processing based on the contrast of the image generated by this imaging operation. Is determined. It is not determined whether the first image data is suitable for image composition. If the image data is inappropriate for the image composition process, the image capturing operation is repeated until the necessary number of image data is obtained without storing the image data in the image storage unit 113.

しかし、撮像動作を繰り返しても、撮影環境によっては画像合成処理に適した画像データを必要な数だけ取得することができないことがあり、撮影動作を終了させることができない可能性もある。   However, even if the imaging operation is repeated, depending on the imaging environment, the necessary number of image data suitable for the image composition process may not be acquired, and the imaging operation may not be completed.

この場合には、撮像動作の回数や撮影動作(複数回の撮像動作)を行う時間に上限を設けることができる。例えば、撮像動作を繰り返しても画像合成処理に適さない画像データしか得ることができない場合には、最初の撮像動作を開始してから2分が経過した時点で、撮影動作を終了させることができる。また、撮像動作を20回行った場合には、画像記憶部113に記憶されている画像データの数に拘わらず、撮影動作を終了させることができる。   In this case, an upper limit can be set for the number of imaging operations and the time for performing the imaging operation (multiple imaging operations). For example, if only image data that is not suitable for image composition processing can be obtained even after repeated imaging operations, the imaging operation can be terminated when two minutes have elapsed since the start of the first imaging operation. . In addition, when the imaging operation is performed 20 times, the imaging operation can be terminated regardless of the number of image data stored in the image storage unit 113.

一方、撮像動作の回数の上限を固定とするのではなく、例えば、画像合成に必要な数(撮影条件によって異なる)の2倍の数を上限値とするように、画像合成に必要な数やトータルの露光時間に応じて、撮像動作の回数の上限を変更するようにしてもよい。   On the other hand, instead of fixing the upper limit of the number of imaging operations, for example, the number necessary for image composition is set so that the number is twice the number necessary for image composition (depending on the shooting conditions). Depending on the total exposure time, the upper limit of the number of imaging operations may be changed.

ここで、上述した制限によって必要数の画像データを取得することができない場合には、以下に説明する画像処理を行うことにより、必要数の画像データを合成したことと同様の効果を得ることができる。画像合成に必要な画像データの数(必要最低限の数)は、複数回の撮像動作によって得られた画像の輝度情報に基づいて求めることができる。   Here, when the necessary number of image data cannot be acquired due to the above-described limitation, the same effect as that of combining the necessary number of image data can be obtained by performing the image processing described below. it can. The number of image data (minimum necessary number) necessary for image composition can be obtained based on the luminance information of the image obtained by a plurality of imaging operations.

例えば、画像合成に必要な画像データの数が5つである場合であって、画像記憶部113には4つの画像データしか記憶されていない場合には、画像記憶部113内の各画像データにおける輝度データおよび色データの値が5/4倍となるようにゲインをアップさせる。そして、各画像データに対して座標変換処理を行った後、画像合成処理を行う。   For example, when the number of image data required for image composition is five and only four image data are stored in the image storage unit 113, each image data in the image storage unit 113 is The gain is increased so that the values of the luminance data and the color data become 5/4 times. Then, after performing coordinate conversion processing on each image data, image composition processing is performed.

本実施例では、複数回の撮像動作によって得られた画像データを座標変換してから合成するため、センサ(撮像素子)特有の固定パターンノイズが、像振れによってランダムノイズ化される。このため、低輝度の被写体に対する撮影動作によって得られた画像データに対してゲインアップを行う場合に比べて、ノイズが目立ちにくくなる。   In the present embodiment, image data obtained by a plurality of imaging operations are combined after being subjected to coordinate conversion, so that fixed pattern noise unique to the sensor (imaging device) is randomized by image blur. For this reason, noise is less conspicuous than in the case where gain increase is performed on image data obtained by a photographing operation on a low-luminance subject.

ここで、複数回の撮像動作に要する時間の短縮、および画像データの画質(S/N比など)向上のうち一方を優先させるモードを、使用者が選択的に設定できるようにしてもよい。すなわち、時間短縮を優先させる場合には、撮像動作の回数や撮影時間を行う時間を制限するモードに設定し、画質向上を優先させる場合には、上述したゲインアップを行うモードに設定することができる。   Here, the user may be able to selectively set a mode in which one of the reduction of the time required for a plurality of imaging operations and the improvement of the image data image quality (S / N ratio, etc.) is prioritized. That is, when priority is given to shortening the time, the mode is set to limit the number of times of imaging operations and the time for performing the imaging time, and when priority is given to image quality improvement, the mode for performing the gain increase described above can be set. it can.

次に、上述した画像データのコントラストに基づいて画像合成に適した画像データを特定する動作と、動きベクトルに基づいて画像合成に適した画像データを特定する動作とについて、具体的に説明する。   Next, an operation for specifying image data suitable for image composition based on the above-described contrast of image data and an operation for specifying image data suitable for image composition based on a motion vector will be specifically described.

図1に示すように、座標変換部115は、シフト部115a、基準画像設定部115bおよび加算画像合否判定部115cを有している。また、信号処理部111は、画像処理部111aおよびコントラスト検出部111bを有している。   As shown in FIG. 1, the coordinate conversion unit 115 includes a shift unit 115a, a reference image setting unit 115b, and an added image pass / fail determination unit 115c. The signal processing unit 111 includes an image processing unit 111a and a contrast detection unit 111b.

複数回の撮像動作を開始したときには、最初の撮像動作によって生成された画像データは画像記憶部113に記憶される。   When a plurality of imaging operations are started, the image data generated by the first imaging operation is stored in the image storage unit 113.

コントラスト検出部111bは、画像処理部111aで生成された画像データのコントラストを検出する。   The contrast detection unit 111b detects the contrast of the image data generated by the image processing unit 111a.

ここで、最初の撮像動作は、撮影者が構図やピントの状態を観察し、撮影開始のタイミングも吟味した上で行われるため、この撮像動作によって生成された画像データは良好なコントラストを示している可能性が高い。一方、2回目以降の撮像動作によって生成された画像データは、図4を用いて説明したように、被写体振れやピンぼけなどでコントラストが低下している場合もある。   Here, the first imaging operation is performed after the photographer observes the composition and the focus state and examines the timing of the imaging start, so the image data generated by this imaging operation shows a good contrast. There is a high possibility. On the other hand, as described with reference to FIG. 4, the image data generated by the second and subsequent imaging operations may have a reduced contrast due to subject shake or defocusing.

撮影制御部18の一部である低コントラスト判別部18aは、2回目以降の撮像動作によって画像データが生成されるたびに、この画像データのコントラストと、最初に得られた画像データのコントラストとを比較する。そして、コントラストの差が所定値以上である場合には、最初の画像データと比較した画像データが画像記憶部113に出力されないようにしている。そして、画像記憶部113に出力されない画像データは、削除される。   The low-contrast discriminating unit 18a, which is a part of the imaging control unit 18, calculates the contrast of the image data and the contrast of the first obtained image data each time image data is generated by the second and subsequent imaging operations. Compare. If the contrast difference is equal to or greater than a predetermined value, the image data compared with the first image data is not output to the image storage unit 113. Then, image data that is not output to the image storage unit 113 is deleted.

防振モードにおける複数回の撮像動作によって得られた各画像は、適正露出が得られる1回の撮像動作によって得られた画像に比べてコントラストが低くなる。本実施例では、複数回の撮像動作によって得られた複数の画像間でコントラストの比較(低コントラストの画像間での比較)を行っているため、画像合成に適した画像であるか否かの判別を的確に行うことができる。   Each image obtained by a plurality of imaging operations in the image stabilization mode has a lower contrast than an image obtained by a single imaging operation in which proper exposure is obtained. In this embodiment, since contrast comparison (comparison between low-contrast images) is performed between a plurality of images obtained by a plurality of imaging operations, it is determined whether the image is suitable for image synthesis. The discrimination can be performed accurately.

画像記憶部113に記憶された画像データは順次ズレ検出部114に送られ、上述したようにズレ検出部114において、基準画像内の特徴点に対する他の画像内の特徴点の動きベクトルが求められる。ここで、基準画像は、最初に取得した画像としている。また、画像記憶部113に記憶された画像データがズレ検出部114に出力されている場合には、これらの画像データはシフト部115aに入力されない。   The image data stored in the image storage unit 113 is sequentially sent to the deviation detection unit 114, and as described above, the deviation detection unit 114 obtains a motion vector of a feature point in another image with respect to a feature point in the reference image. . Here, the reference image is the first acquired image. Further, when the image data stored in the image storage unit 113 is output to the deviation detection unit 114, these image data are not input to the shift unit 115a.

基準画像設定部115bは、ズレ検出部114での検出結果に基づいて、画像記憶部113内に記憶された複数の画像データのうち、画像合成処理において基準となる画像データを決定する。具体的には、画像記憶部113内に記憶された複数の画像のうち、いずれか1つの画像を仮の基準画像とし、他の画像とのずれ量を求める。この処理は、画像記憶部113内の各画像を仮の基準画像として行う。そして、仮の基準画像と、他のすべての画像とのずれ量が最も小さくなる場合における仮の基準画像を真の基準画像とする。   The reference image setting unit 115b determines image data serving as a reference in the image composition process from among a plurality of image data stored in the image storage unit 113, based on the detection result of the deviation detection unit 114. Specifically, any one of the plurality of images stored in the image storage unit 113 is set as a temporary reference image, and a deviation amount from other images is obtained. In this process, each image in the image storage unit 113 is used as a temporary reference image. Then, the temporary reference image when the amount of deviation between the temporary reference image and all other images is the smallest is set as the true reference image.

加算画像合否判定部115cは、基準画像設定部115bで決定された基準画像に対して、動きベクトルが所定値以上となる他の画像を特定する。   The addition image acceptance / rejection determination unit 115c identifies another image having a motion vector equal to or greater than a predetermined value with respect to the reference image determined by the reference image setting unit 115b.

上述した処理が完了した場合には、画像記憶部113内の複数の画像データを順次シフト部115aに出力する。   When the above processing is completed, a plurality of image data in the image storage unit 113 are sequentially output to the shift unit 115a.

基準画像設定部115bは、この基準画像設定部115bで決定した基準画像に対する他の画像の動きベクトルに関する情報をシフト部115aに出力する。また、加算画像合否判定部115cは、画像合成に適さない画像データ、すなわち、基準画像に対する動きベクトルが所定値以上となる他の画像データ(例えば図4の画像(7))が画像記憶部113からシフト部115aに入力しないようにする。   The reference image setting unit 115b outputs information regarding the motion vector of another image with respect to the reference image determined by the reference image setting unit 115b to the shift unit 115a. Further, the addition image pass / fail determination unit 115c stores image data that is not suitable for image composition, that is, other image data (for example, the image (7) in FIG. 4) in which the motion vector with respect to the reference image is a predetermined value or more. From being input to the shift unit 115a.

シフト部115aは、基準画像設定部115bで設定された基準画像に対して他の画像が揃うように、他の画像データに対して座標変換を行う。上述したようにシフト部115aに出力される画像は、基準画像および、基準画像に対して動きベクトルが所定値以下の他の画像であるため、シフト部115aでの座標変換を的確に行うことができる。   The shift unit 115a performs coordinate conversion on other image data so that other images are aligned with the reference image set by the reference image setting unit 115b. As described above, the image output to the shift unit 115a is a reference image and another image whose motion vector is equal to or less than a predetermined value with respect to the reference image, so that the coordinate conversion in the shift unit 115a can be accurately performed. it can.

シフト部115aで座標変換された画像データと、基準画像データとは、画像合成部116において合成される。   The image data coordinate-converted by the shift unit 115a and the reference image data are combined by the image combining unit 116.

なお、動きベクトルだけに基づいて行うのではなく、画像記憶部113内の画像データに直接アクセスして更なる画像分析(色情報等の分析)を行い、この分析結果に基づいて画像合成処理に用いられる画像データを特定することもできる。例えば、各画像の色情報を分析することにより被写体の変化を検出でき、この検出結果を用いて画像合成に用いる画像データを特定することができる。すなわち、色情報が大きく異なっている画像については、画像合成に用いないようにすることができる。   In addition, it is not based on the motion vector alone, but directly accesses the image data in the image storage unit 113 to perform further image analysis (analysis of color information and the like), and uses it for image composition processing based on the analysis result. It is also possible to specify image data to be recorded. For example, it is possible to detect changes in the subject by analyzing the color information of each image, and use this detection result to specify image data used for image composition. That is, it is possible not to use an image with greatly different color information for image composition.

図5は、本実施例の撮像装置における撮影動作を示すフローチャートであり、このフローは撮像装置の電源がオン状態となったときにスタートする。   FIG. 5 is a flowchart showing a shooting operation in the image pickup apparatus of the present embodiment, and this flow starts when the power supply of the image pickup apparatus is turned on.

ステップS1001では、撮影者のレリーズボタンの半押しによってSW1がON状態となるまで待機し、SW1がON状態になるとステップS1002に進む。   In step S1001, the photographer waits until the SW1 is turned on by half-pressing the release button, and when SW1 is turned on, the process proceeds to step S1002.

ステップS1002において、撮影制御部18は、AFモータ14aを駆動して撮影レンズ(フォーカスレンズ)11を光軸方向に移動させながら、撮像素子19aの出力に基づいて生成された画像データのコントラストを検出する。そして、コントラストが最も高くなったときに、撮影レンズ11の駆動を停止させる。これにより、撮影光学系が合焦状態となる。この焦点調節方法は、いわゆるコントラスト検出方式による焦点調節方法である。   In step S1002, the imaging control unit 18 detects the contrast of the image data generated based on the output of the image sensor 19a while driving the AF motor 14a to move the imaging lens (focus lens) 11 in the optical axis direction. To do. Then, when the contrast becomes the highest, the driving of the photographing lens 11 is stopped. As a result, the photographing optical system is brought into focus. This focus adjustment method is a focus adjustment method based on a so-called contrast detection method.

このようにコントラスト検出方式による焦点調節を行うことができる撮像装置では、低コントラストの状態を判別できる機能を有しているため、この機能を利用することにより上述した低コントラスト判別部18aの動作を行うことができる。   Since the imaging apparatus capable of performing focus adjustment by the contrast detection method has a function of determining the low contrast state, the operation of the low contrast determination unit 18a described above can be performed by using this function. It can be carried out.

また、ステップS1002では、画像データに基づいて被写体の輝度を測定(測光)する。測光動作により得られた測光値に基づいてシャッタ12aの閉じタイミング(露光時間)と絞り13aの絞り口径を設定する。そして、設定した絞り口径となるように、絞り駆動部13bを介して絞り13aを駆動する。   In step S1002, the luminance of the subject is measured (photometric) based on the image data. Based on the photometric value obtained by the photometric operation, the closing timing (exposure time) of the shutter 12a and the aperture diameter of the aperture 13a are set. Then, the diaphragm 13a is driven via the diaphragm driver 13b so that the set diaphragm aperture is obtained.

ステップS1003では、防振操作部120の操作によって防振モードが設定されているか否かを判別する。ここで、防振モードが設定されている場合にはステップS1004に進み、設定されていない場合にはステップS1019に進む。   In step S1003, it is determined whether or not the image stabilization mode is set by operating the image stabilization operation unit 120. If the image stabilization mode is set, the process proceeds to step S1004. If the image stabilization mode is not set, the process proceeds to step S1019.

まず、防振モードが設定されている場合の動作について説明する。   First, the operation when the image stabilization mode is set will be described.

ステップS1004では、撮影条件に基づいて、撮像動作の回数と、各撮像動作における露光時間を求める。   In step S1004, the number of imaging operations and the exposure time in each imaging operation are obtained based on the imaging conditions.

ここでの撮影条件とは、以下の4つの条件を含む。
1)被写体の明るさ。これは、ステップS1002での測光動作によって得られる。
2)撮影光学系の焦点距離。これは、撮影レンズ11(ズームレンズ)の位置を検出する検出器の出力に基づいて求められる。
3)撮影光学系の明るさ(絞り値)。これは、撮像装置(撮影光学系)毎に予め設定されている。
4)撮像素子19aの感度。これは、予め設定されている値であり、撮影者の操作によって設定されたり、自動的に設定されたりする。
The imaging conditions here include the following four conditions.
1) The brightness of the subject. This is obtained by the photometric operation in step S1002.
2) Focal length of the photographic optical system. This is obtained based on the output of a detector that detects the position of the photographing lens 11 (zoom lens).
3) Brightness (aperture value) of the photographing optical system. This is preset for each imaging device (imaging optical system).
4) Sensitivity of the image sensor 19a. This is a preset value, and is set by the photographer's operation or automatically set.

ここで、例えば撮像素子19aの感度がISO200に設定されていたとする。また、ステップS1002での測光結果から適正な露光を行うためには、絞り13aを全開(例えばf2.8)に設定し、露光時間を1/8msecに設定する必要があるとする。   Here, for example, it is assumed that the sensitivity of the image sensor 19a is set to ISO200. Further, in order to perform appropriate exposure from the photometric result in step S1002, it is necessary to set the aperture 13a to fully open (for example, f2.8) and to set the exposure time to 1/8 msec.

上述した条件において、撮影光学系の焦点距離が35mmフィルム換算で30mmである場合には、1/8msecの露光時間では手振れによる像振れが発生するおそれがある。そこで、本実施例では、露光時間を1/32msecに設定し、この露光時間での撮像動作を6回行うように設定する。   Under the above-described conditions, when the focal length of the photographing optical system is 30 mm in terms of 35 mm film, image blur due to camera shake may occur at an exposure time of 1/8 msec. Therefore, in this embodiment, the exposure time is set to 1/32 msec, and the imaging operation with this exposure time is set to be performed six times.

ここで、露光時間が1/32msecでの撮像動作を4回行えば、合計の露光時間が1/8msecとなり、4回の撮像動作によって得られた4つの画像データを合成すれば露出を補完することができる。しかし、本実施例では、上述したように画像合成に適さない画像データが生成されることを見込んで、2回分多く撮像動作を行うように設定している。   Here, if the imaging operation with the exposure time of 1/32 msec is performed four times, the total exposure time becomes 1/8 msec, and the exposure is complemented by combining the four image data obtained by the four imaging operations. be able to. However, in the present embodiment, as described above, it is set so that the image pickup operation is performed twice as many times as possible in view of the generation of image data that is not suitable for image composition.

一方、撮影光学系の焦点距離が300mm(35mmフィルム換算)である場合には、像振れが発生するおそれのない露光時間を1/320msecに設定し、この露光時間での撮像動作を48回行うように設定する。   On the other hand, when the focal length of the photographing optical system is 300 mm (35 mm film equivalent), the exposure time at which there is no risk of image blurring is set to 1/320 msec, and the imaging operation with this exposure time is performed 48 times. Set as follows.

この場合、40回の撮像動作を行い、これによって生成された40の画像データを合成すれば、露出を補完することができる。しかし、本実施例では、画像合成に適さない画像データが生成されることを見込んで、撮像動作の回数(40)に対して2割(8回)だけ多い回数で撮像動作を行うようにしている。   In this case, exposure can be complemented by performing 40 imaging operations and synthesizing 40 image data generated thereby. However, in this embodiment, it is assumed that image data not suitable for image composition is generated, and the imaging operation is performed by 20% (8 times) more than the number of imaging operations (40). Yes.

上述したように撮像動作の回数が多くなるほど、余分に行う撮像動作の回数を増やしている。これは、一般的に撮像動作の回数が多くなるほど、画像合成に適さない画像データが生成される頻度が多くなるためである。   As described above, as the number of imaging operations increases, the number of extra imaging operations is increased. This is because, in general, the frequency of image data that is not suitable for image synthesis increases as the number of imaging operations increases.

上述したように本実施例では、複数回の撮像動作を行う場合(防振モードの設定時)において、各撮像動作での露光時間と撮像動作の回数とを上述した撮影条件に基づいて決定している。   As described above, in the present embodiment, when a plurality of imaging operations are performed (when the image stabilization mode is set), the exposure time and the number of imaging operations in each imaging operation are determined based on the imaging conditions described above. ing.

ここで、同一の被写体に対して複数回の撮像動作を行う場合でも、各撮像動作での露光条件は適正露光が得られる条件に近いほうが、より正確な画像情報が得られる。このため、被写体が暗い場合、絞り13aを絞り込んでいる場合、撮像素子19aが低感度に設定されている場合には、各撮像動作での露光時間をできる限り長くなるように設定する。ただし、露光時間を長くしすぎると、手振れによる像振れの影響が発生してしまう。   Here, even when an imaging operation is performed a plurality of times on the same subject, more accurate image information can be obtained when the exposure condition in each imaging operation is closer to the condition for obtaining proper exposure. For this reason, when the subject is dark, the diaphragm 13a is narrowed down, or the imaging element 19a is set to low sensitivity, the exposure time in each imaging operation is set to be as long as possible. However, if the exposure time is too long, the effect of image blur due to camera shake occurs.

そこで、各撮像動作での露光時間を、上述した不具合を抑制することができる程度の露光時間に設定することが好ましい。具体的には、撮影光学系の焦点距離が30mm(35mmフィルム換算)である場合には、露光時間を略焦点距離分の一である1/32に設定することができる。また、撮影光学系の焦点距離が300mmである場合には、露光時間を1/320msecに設定することができる。   Therefore, it is preferable to set the exposure time in each imaging operation to an exposure time that can suppress the above-described problems. Specifically, when the focal length of the photographing optical system is 30 mm (35 mm film equivalent), the exposure time can be set to 1/32 that is approximately one focal length. Further, when the focal length of the photographing optical system is 300 mm, the exposure time can be set to 1/320 msec.

そして、各撮像動作での露光時間では足りない分だけ、複数回の撮像動作を行うようにしている。   The imaging operation is performed a plurality of times as much as the exposure time in each imaging operation is insufficient.

ここで、撮影光学系の焦点距離が300mmよりも長い場合には、像振れの発生を抑制するために、露光時間を更に短くするとともに、露光時間を短くした分だけ撮像動作の回数を増やす。   Here, when the focal length of the photographing optical system is longer than 300 mm, the exposure time is further shortened and the number of imaging operations is increased by the amount corresponding to the shortened exposure time in order to suppress the occurrence of image blur.

すなわち、各撮像動作での露光時間は、被写体や撮影レンズが暗くなるほど、撮像素子19aの感度が低くなるほど、長くなる。また、撮影光学系の焦点距離が長くなるほど、露光時間は短くなる。このように各撮像動作での露光時間を、撮影光学系の焦点距離に応じて変更することで、いかなる焦点距離であっても好ましい画像データを得ることができる。   That is, the exposure time in each imaging operation becomes longer as the subject or the photographing lens becomes darker and the sensitivity of the imaging element 19a becomes lower. Further, the longer the focal length of the photographing optical system, the shorter the exposure time. In this way, by changing the exposure time in each imaging operation according to the focal length of the photographing optical system, it is possible to obtain preferable image data at any focal length.

一方、撮像動作の回数は、被写体や撮影レンズが暗くなるほど、撮像素子19aの感度が低くなるほど、少なくなる。また、撮影光学系の焦点距離が長くなるほど、撮像動作の回数が多くなる。   On the other hand, the number of imaging operations decreases as the subject or the photographing lens becomes darker and the sensitivity of the imaging device 19a decreases. Further, the longer the focal length of the photographic optical system, the greater the number of imaging operations.

上述したように撮像動作の回数と、各撮像動作での露光時間を決定した場合には、撮像装置の光学ファインダ内や表示部118に、防振モードが設定された旨や撮像動作の回数を表示する。ここで、各撮像動作での露光時間を表示してもよい。   As described above, when the number of imaging operations and the exposure time in each imaging operation are determined, the fact that the image stabilization mode is set in the optical viewfinder of the imaging device or the display unit 118 and the number of imaging operations are set. indicate. Here, the exposure time in each imaging operation may be displayed.

ステップS1005では、レリーズボタンの全押し操作によってSW2がON状態となるまで、ステップS1001からステップS1005を循環して待機する。そして、SW2がON状態となった場合には、ステップS1006に進む。   In step S1005, steps SW1001 to S1005 are circulated and waited until SW2 is turned on by full depression of the release button. If SW2 is turned on, the process proceeds to step S1006.

ステップS1006では、1回目の撮像動作を開始する。まず、撮像素子19aで蓄積されている電荷をリセットし、再度、電荷蓄積を開始させる。そして、ステップS1004で設定された露光時間だけ待機してから、シャッタ12aを閉じ状態とし、電荷の転送を行う。   In step S1006, the first imaging operation is started. First, the charge accumulated in the image sensor 19a is reset, and charge accumulation is started again. Then, after waiting for the exposure time set in step S1004, the shutter 12a is closed to transfer charges.

また、1回目の撮像動作を開始させる際に、発音駆動部17bを介してスピーカ17aを駆動することにより、撮影者に対して撮影動作(1回目の撮像動作)が開始されたことを知らせる。ここで、スピーカ17aから発せられる音は、例えば「ピッ」という電子音でもよいし、音声でもよい。また、シャッタ12aの開き動作の音を用いて撮影動作の開始を知らせてもよい。さらに、一眼レフレックスタイプのカメラの場合には、ミラーがアップする音を用いて撮影動作の開始を知らせてもよい。   Further, when starting the first imaging operation, the speaker 17a is driven via the sound generation drive unit 17b to notify the photographer that the imaging operation (first imaging operation) has started. Here, the sound emitted from the speaker 17a may be, for example, an electronic sound “beep” or a voice. Further, the start of the photographing operation may be notified using the sound of the shutter 12a opening operation. Further, in the case of a single-lens reflex type camera, the start of the photographing operation may be notified using a sound that is raised by the mirror.

ステップS1007では、1回目の撮像動作によって得られた画像データを一旦画像記憶部113に記憶する。   In step S1007, the image data obtained by the first imaging operation is temporarily stored in the image storage unit 113.

ステップS1008では、ステップS1004で設定された回数だけ撮像動作を行ったか否かを判別する。ここで、すべての撮像動作が完了していなければ、ステップS1006に戻る。1回目の撮像動作が完了した場合には、ステップS1006に戻り、2回目以降の撮像動作を行う。   In step S1008, it is determined whether the imaging operation has been performed the number of times set in step S1004. Here, if all the imaging operations are not completed, the process returns to step S1006. When the first imaging operation is completed, the process returns to step S1006 to perform the second and subsequent imaging operations.

ステップS1007では、2回目以降の撮像動作によって得られた画像データのうち、1回目の撮像動作によって得られた画像データのコントラストと略等しいコントラストを有する画像データを画像記憶部113に記憶する。すなわち、最初の画像データのコントラストに比べて所定値以上異なる(低い)コントラストを有する2回目以降の画像データについては、画像記憶部113に記憶されない。   In step S1007, image data having a contrast substantially equal to the contrast of the image data obtained by the first imaging operation among the image data obtained by the second and subsequent imaging operations is stored in the image storage unit 113. That is, the second and subsequent image data having a contrast that differs (lower) by a predetermined value or more compared to the contrast of the first image data is not stored in the image storage unit 113.

例えば、図4に示すように7つの画像データ(1)〜(7)を取得した場合には、画像(3)、(6)が画像記憶部113に記憶されず、他の5つの画像が画像記憶部113に記憶される。   For example, when seven image data (1) to (7) are acquired as shown in FIG. 4, the images (3) and (6) are not stored in the image storage unit 113, and the other five images are stored. It is stored in the image storage unit 113.

ステップS1008において、すべての撮像動作が完了した場合には、ステップS1009に進む。   If all the imaging operations are completed in step S1008, the process proceeds to step S1009.

ステップS1009では、発音駆動部17bを介してスピーカ17aを駆動することにより、撮影者に対して撮影動作(最後の撮像動作)が完了したことを知らせる。ここで、スピーカ17aから発せられる音は、例えば「ピッピッ」という電子音でもよいし、音声でもよい。また、シャッタ12aの閉じ動作の音を用いて撮影動作の完了を知らせてもよい。さらに、一眼レフレックスタイプのカメラの場合には、ミラーがダウンする音を用いて撮影動作の完了を知らせてもよい。   In step S1009, the speaker 17a is driven via the sound generation drive unit 17b to notify the photographer that the shooting operation (last image pickup operation) has been completed. Here, the sound emitted from the speaker 17a may be, for example, an electronic sound such as “beep” or a voice. Further, the completion of the photographing operation may be notified using the sound of the closing operation of the shutter 12a. Further, in the case of a single-lens reflex type camera, the completion of the photographing operation may be notified using a sound of the mirror going down.

本実施例では、複数回の撮像動作を行う場合における発音回数と、1回の撮影動作を行う場合における発音回数とを等しくしている。すなわち、防振モードでの撮影を行う場合には、最初の撮像動作を行うときと、最後の撮像動作を行った後とでそれぞれ1回、スピーカ17aから電子音が発せられる。また、防振モード以外の撮影を行う場合には、撮影動作の開始および完了でスピーカ17aから電子音が発せられる。このように電子音が発せられる回数を等しくすることで、撮影者に違和感を与えるのを防止することができる。   In the present embodiment, the number of times of sound generation when performing a plurality of imaging operations is made equal to the number of times of sound generation when performing one shooting operation. That is, when shooting in the image stabilization mode, an electronic sound is emitted from the speaker 17a once each when the first imaging operation is performed and after the last imaging operation is performed. In addition, when shooting in a mode other than the image stabilization mode, an electronic sound is emitted from the speaker 17a at the start and completion of the shooting operation. By making the number of electronic sounds emitted in this way equal, it is possible to prevent the photographer from feeling uncomfortable.

ステップS1010では、ズレ検出部114が画像の周辺領域(例えば、図2の建物123a)の中から特徴的な像(特徴点)を抽出し、この像の撮影画面内での座標を求める。この座標は、1回目の撮像動作によって得られた画像を基準とした場合において、2回目以降の撮像動作によって得られた各画像の相対的なズレ座標を示す。ここでは、ステップS1007において画像記憶部113に記憶されたすべての画像データに対して、上述した処理を行う。   In step S1010, the deviation detection unit 114 extracts a characteristic image (feature point) from the peripheral region of the image (for example, the building 123a in FIG. 2), and obtains coordinates of the image on the photographing screen. This coordinate indicates a relative shift coordinate of each image obtained by the second and subsequent imaging operations when the image obtained by the first imaging operation is used as a reference. Here, the above-described processing is performed on all the image data stored in the image storage unit 113 in step S1007.

ステップS1011では、座標変換部115が各画像データに対して座標変換を行う。ここで、座標変換を行う前に、上述したように画像合成の基準となる画像を決定するとともに、この基準画像に対して画像合成に適した画像を決定する。   In step S1011, the coordinate conversion unit 115 performs coordinate conversion on each image data. Here, before performing coordinate conversion, an image serving as a reference for image composition is determined as described above, and an image suitable for image composition is determined for the reference image.

ステップS1012では、基準画像が決定され、画像合成に適したすべての画像データに対して座標変換処理が完了したか否かを判別する。ここで、座標変換処理が完了していなければS1011での座標変換処理を繰り返す。   In step S1012, a reference image is determined, and it is determined whether or not coordinate conversion processing has been completed for all image data suitable for image composition. If the coordinate conversion process has not been completed, the coordinate conversion process in S1011 is repeated.

すなわち、ステップS1011では、基準画像を決定した後に、他の1つの画像データに対して座標変換処理を行う。そして、ステップS1012、S1011を循環することにより、他の画像データに対して順次、座標変換処理を行う。   That is, in step S1011, after determining the reference image, coordinate conversion processing is performed on the other image data. Then, by rotating through steps S1012, S1011, coordinate conversion processing is sequentially performed on the other image data.

一方、画像合成に適したすべての画像データに対して座標変換処理が完了している場合には、ステップS1013に進み、画像データの合成を行う。   On the other hand, if the coordinate conversion processing has been completed for all image data suitable for image composition, the process proceeds to step S1013, where the image data is synthesized.

ステップS1014では、像振れによって画像の重ならない領域(図3の領域129)をカットし、元(又は所定)の画像サイズとなるように画像データを拡散補間する。ステップS1015では、合成画像データに対してガンマ補正処理や非線形レベル圧縮処理を行う。   In step S1014, a region where the images do not overlap (region 129 in FIG. 3) due to image blur is cut, and the image data is subjected to diffusion interpolation so that the original (or predetermined) image size is obtained. In step S1015, the composite image data is subjected to gamma correction processing and nonlinear level compression processing.

ステップS1016では、ステップS1015の処理で得られた合成画像データを表示部118で表示させる。ステップS1017では、ステップS1015の処理で得られた合成画像データを、記録部119に記録したり、記録部119を介して記録媒体に記録したりする。ここで、記録媒体に記録する場合には、必要に応じてJPEG方式等で画像データを圧縮する。   In step S1016, the composite image data obtained by the process of step S1015 is displayed on the display unit 118. In step S1017, the composite image data obtained by the processing in step S1015 is recorded in the recording unit 119 or recorded on a recording medium via the recording unit 119. Here, when recording on a recording medium, the image data is compressed by the JPEG method or the like as necessary.

ステップS1018では、スタートに戻る。   In step S1018, the process returns to the start.

なお、ステップS1018において、SW1がON状態のままである場合には、ステップS1001、S1002、S1003、S1004の順で各処理が行われる。また、ステップS1018において、SW2がON状態のままである場合には、スタートに戻らずにステップS1018で待機する。   In step S1018, when SW1 remains in the ON state, each process is performed in the order of steps S1001, S1002, S1003, and S1004. If SW2 remains in the ON state in step S1018, the process stands by in step S1018 without returning to the start.

次に、防振モードが設定されていない場合の動作について説明する。この場合には、ステップS1003からステップS1019に進む。   Next, an operation when the image stabilization mode is not set will be described. In this case, the process proceeds from step S1003 to step S1019.

ステップS1019では、撮影条件に基づいて、手振れによる像振れが発生するおそれがあるか否かを判別する。ここでの撮影条件は、上述した撮影条件と同様であり、被写体の明るさ、撮影レンズの明るさ、撮像素子19aの感度、撮影光学系の焦点距離を含む。   In step S1019, it is determined whether there is a possibility of image blur due to camera shake based on the shooting conditions. The imaging conditions here are the same as the imaging conditions described above, and include the brightness of the subject, the brightness of the imaging lens, the sensitivity of the image sensor 19a, and the focal length of the imaging optical system.

すなわち、被写体の明るさ、撮影レンズの明るさ、撮像素子19aの感度に基づいて露光時間を求め、この露光時間と撮影光学系の焦点距離との関係に基づいて像振れが発生するおそれがあるか否かを判別する。   That is, the exposure time is obtained based on the brightness of the subject, the brightness of the photographing lens, and the sensitivity of the image sensor 19a, and there is a possibility that image blur may occur based on the relationship between the exposure time and the focal length of the photographing optical system. It is determined whether or not.

ステップS1019において、像振れが発生する可能性がある場合にはステップS1020に進み、そうでない場合にはステップS1021に進む。   If it is determined in step S1019 that image blur may occur, the process proceeds to step S1020. If not, the process proceeds to step S1021.

ステップS1020では、撮像装置の光学ファインダ内や表示部118に、防振モードの設定を推奨する旨の表示を行う。このように防振モードが設定されていない場合でも、像振れの発生するおそれがある撮影条件の場合には、撮影者に防振モードの設定を促すことにより、像振れによる画像劣化の発生を未然に防ぐことができる。   In step S1020, a display indicating that setting of the image stabilization mode is recommended is displayed in the optical viewfinder of the imaging apparatus or on the display unit 118. Even when the image stabilization mode is not set in this way, if there is a shooting condition that may cause image blur, the photographer is urged to set the image stabilization mode so that image degradation due to image blur occurs. It can be prevented in advance.

ステップS1021では、SW2がON状態となるまでステップS1001からステップS1021を循環して待機する。そして、SW2がON状態となった場合には、ステップS1022に進む。   In step S1021, the process waits by circulating from step S1001 to step S1021 until SW2 is turned on. If SW2 is turned on, the process proceeds to step S1022.

ステップS1022では、1回の撮像動作を行う。ここでは、ステップS1002の測光結果に基づいて求められた露出時間だけ、すなわち、1回の露光によって適正露出が得られる露光時間だけ撮像動作を行う。そして、1回の撮像動作が完了した場合には、ステップS1015に進む。   In step S1022, one imaging operation is performed. Here, the imaging operation is performed only for the exposure time obtained based on the photometry result in step S1002, that is, for the exposure time for obtaining a proper exposure by one exposure. If one imaging operation is completed, the process proceeds to step S1015.

図5のフローチャートでは省略しているが、1回の撮像動作を行う場合には、撮像動作を開始したときと、撮像動作が完了したときとで、スピーカ17aの駆動によって電子音が発せられる。1回の撮像動作を行う場合や、複数回の撮像動作を行う場合には、電子音の発せられる回数が同じであり、撮影者に違和感を与えるのを防止できる。なお、防振モードでの撮影と防振モード以外の撮影とでは、1回目の電子音が発せられてから2回目の電子音が発せられるまでの時間が異なる。   Although omitted in the flowchart of FIG. 5, when one imaging operation is performed, an electronic sound is emitted by driving the speaker 17 a when the imaging operation is started and when the imaging operation is completed. When performing one imaging operation or when performing a plurality of imaging operations, the number of times the electronic sound is emitted is the same, and it is possible to prevent the photographer from feeling uncomfortable. Note that the time from when the first electronic sound is emitted to when the second electronic sound is emitted differs between the imaging in the image stabilization mode and the imaging other than the image stabilization mode.

ステップS1015からステップS1018までの動作は、上述した説明と同じである。ただし、これらの処理は、合成画像データではなく、1回の撮像動作によって得られた画像データに対して行われる。   The operations from step S1015 to step S1018 are the same as described above. However, these processes are performed not on the composite image data but on the image data obtained by one imaging operation.

本実施例では、複数回の撮像動作によって得られた複数の画像のうち、各画像のコントラスト及び画像間の動きベクトルに基づいて画像合成に不適切な画像を排除し、残った画像に対して画像合成を行っている。これにより、不適切画像が画像合成に用いられることによって合成画像の画質が劣化するのを抑制することができ、合成画像の画質を向上させることができる。
In this embodiment, out of a plurality of images obtained by a plurality of imaging operations, images inappropriate for image composition are excluded based on the contrast of each image and a motion vector between images, and the remaining images are processed. Image composition is performed. Thus, it is possible to suppress deterioration of the image quality of the composite image by inappropriate images used for image synthesis, it is possible to improve the quality of the composite image.

本発明の実施例2である撮像装置について説明する。ここで、実施例1で説明したものと同じものについては同一符号を用いる。   An imaging apparatus that is Embodiment 2 of the present invention will be described. Here, the same reference numerals are used for the same components as those described in the first embodiment.

本実施例では、複数回の撮像動作を行う場合において、これらの撮像動作によって得られた複数の画像データすべてを画像記憶部113に記憶している。コントラスト検出部111bは、各画像データにおけるコントラストを検出するとともに、全画像データにおけるコントラストの平均値を求める。コントラストの平均値に関する情報は、低コントラスト判別部18aに出力される。   In this embodiment, when a plurality of imaging operations are performed, all of a plurality of image data obtained by these imaging operations are stored in the image storage unit 113. The contrast detector 111b detects the contrast in each image data and obtains the average value of the contrast in all the image data. Information regarding the average value of contrast is output to the low contrast determination unit 18a.

低コントラスト判別部18aは、コントラストの平均値と、各画像データのコントラストとを比較し、コントラストの差が所定値以上である画像データを特定する。そして、特定した画像データに関する情報を座標変換部115に出力する。上記平均値に対する差が所定値以上である画像データは、画像合成には用いられない。   The low contrast discriminating unit 18a compares the average value of contrast with the contrast of each image data, and specifies image data whose contrast difference is equal to or greater than a predetermined value. Then, information regarding the specified image data is output to the coordinate conversion unit 115. Image data whose difference with respect to the average value is a predetermined value or more is not used for image composition.

加算画像合否判定部115cは、実施例1と同様に、動きベクトルに基づいて特定された画像合成に適さない画像データが画像記憶部113からシフト部115aに入力されないように制御する。このとき、低コントラスト判別部18aで特定された画像データも画像記憶部113からシフト部115aに入力されない。   Similar to the first embodiment, the addition image acceptance / rejection determination unit 115c performs control so that image data that is not suitable for image synthesis specified based on the motion vector is not input from the image storage unit 113 to the shift unit 115a. At this time, the image data specified by the low contrast determination unit 18a is not input from the image storage unit 113 to the shift unit 115a.

次に、図6に示すフローチャートを用いて、本実施例の撮像装置における撮影動作について説明する。なお、図6において、実施例1(図5)で説明した各処理と同じ処理については同一符号を用いている。以下、実施例1と異なる点について説明する。   Next, a shooting operation in the image pickup apparatus according to the present embodiment will be described with reference to a flowchart shown in FIG. In FIG. 6, the same reference numerals are used for the same processes as those described in the first embodiment (FIG. 5). Hereinafter, differences from the first embodiment will be described.

本実施例では、ステップS1006およびステップS1008において、ステップS1004で決定された回数だけ撮像動作を繰り返し行い、これらの撮像動作によって得られた複数の画像データを画像記憶部113に記憶する。   In this embodiment, in step S1006 and step S1008, the imaging operation is repeated for the number of times determined in step S1004, and a plurality of image data obtained by these imaging operations is stored in the image storage unit 113.

ステップS2001では、画像記憶部113に記憶されたすべての画像データのコントラストを検出し、これらの平均値を求める。また、この平均値と、各画像データのコントラストとを比較し、平均値に対して所定量以上だけ低いコントラストを有する画像データを特定する。   In step S2001, the contrast of all image data stored in the image storage unit 113 is detected, and an average value of these is obtained. Further, the average value is compared with the contrast of each image data, and image data having a contrast lower than the average value by a predetermined amount or more is specified.

次に、上述したように各画像データの動きベクトルに基づいて、画像合成に適さない画像データを特定する。そして、画像記憶部113に記憶された複数の画像データのうち、動きベクトルに基づいて特定された画像合成に適さない画像データ以外、および特定された低コントラストを有する画像データ以外の画像データを合成用画像データとする。また、この合成用画像データ(複数の画像データ)のなかから基準画像を特定し、基準画像以外の他の画像が基準画像と揃うように、他の画像データに対して座標変換を行う。
Next , as described above, image data that is not suitable for image synthesis is specified based on the motion vector of each image data. Then, among the plurality of image data stored in the image storage unit 113, other than the image data not suitable for the image synthesizing identified based on the motion vector, and specific image data other than the image having a low contrast The data is image data for synthesis. In addition, a reference image is specified from the image data for synthesis (a plurality of image data), and coordinate conversion is performed on the other image data so that images other than the reference image are aligned with the reference image.

本実施例においても、実施例1と同様の効果を得ることができる。なお、上述した実施例1、2では、レンズ一体型の撮像装置について説明したが、撮像装置と、この撮像装置に着脱可能に装着されるレンズ装置とを有する撮像システムについても本発明を適用することができる。   Also in this embodiment, the same effect as that of Embodiment 1 can be obtained. In the first and second embodiments described above, the lens-integrated imaging device has been described. However, the present invention is also applied to an imaging system having an imaging device and a lens device that is detachably attached to the imaging device. be able to.

本発明の実施例3について説明する。実施例1では、画像データに対する座標変換処理および画像合成処理を撮像装置内で行っている。   A third embodiment of the present invention will be described. In the first embodiment, coordinate conversion processing and image composition processing for image data are performed in the imaging apparatus.

本実施例では、撮像装置において、複数の画像データの取得と、これらの画像データのうち画像合成に適した画像データの判別(第1の判別処理)を行う。この第1の判別処理は、実施例1で説明したように各画像データのコントラストに基づいて、画像合成に適した画像データであるか否かを判別するものである。   In this embodiment, the imaging apparatus acquires a plurality of image data and determines image data suitable for image composition (first determination processing) among these image data. In the first determination process, as described in the first embodiment, it is determined whether the image data is suitable for image composition based on the contrast of each image data.

一方、画像合成に適した画像データの判別(第2の判別処理)、基準画像データの決定、基準画像データに対する他の画像データの座標変換処理、画像合成処理は、パソコンなどの外部機器で行うようにしている。ここで、第2の判別処理は、実施例1で説明したように、第1の判別処理で特定された画像データ(画像合成に適した画像データ)のうち、画像合成に適した画像データであるか否かを、動きベクトルに基づいて判別するものである。   On the other hand, discrimination of image data suitable for image synthesis (second discrimination processing), determination of reference image data, coordinate conversion processing of other image data with respect to the reference image data, and image synthesis processing are performed by an external device such as a personal computer. I am doing so. Here, as described in the first embodiment, the second determination process is image data suitable for image composition among the image data (image data suitable for image composition) specified in the first determination process. Whether or not there is is determined based on the motion vector.

なお、実施例1の撮像装置で行われる処理であって、複数の画像データを取得する処理以外の処理のうち、少なくとも1つの処理を外部機器で行わせてもよい。例えば、第1の判別処理を外部機器で行わせることができる。また、第1及び第2の判別処理を撮像装置で行わせ、第1及び第2の判別処理で特定された画像データに対する座標変換処理等を外部機器で行わせることもできる。さらに、第1及び第2の判別処理のうち一方の処理だけを行うようにしてもよい。   Note that at least one of the processes other than the process of acquiring a plurality of image data, which is performed by the imaging apparatus according to the first embodiment, may be performed by an external device. For example, the first determination process can be performed by an external device. In addition, the first and second determination processes can be performed by the imaging apparatus, and the coordinate conversion process for the image data specified by the first and second determination processes can be performed by an external device. Further, only one of the first and second determination processes may be performed.

撮像動作によって得られた画像データ(画像合成処理に適した画像データ)は、記録部119を介して記録媒体に記録される。そして、記録媒体を外部機器に接続することで、記録媒体内の画像データを外部機器内のメモリに記憶させることができる。なお、記録部119内に画像データを記憶した場合には、この画像データを有線又は無線を介して外部機器内のメモリに記憶させることができる。   Image data obtained by the imaging operation (image data suitable for image composition processing) is recorded on a recording medium via the recording unit 119. Then, by connecting the recording medium to the external device, the image data in the recording medium can be stored in the memory in the external device. When image data is stored in the recording unit 119, the image data can be stored in a memory in the external device via wired or wireless.

ここで、記録媒体内には、複数回の撮像動作によって得られた複数の画像データの他に、1回の撮影動作によって得られた画像データ(適正露出の画像データ)が記録されることがある。すなわち、記録媒体内には、画像合成処理に用いられる複数の画像データと、画像合成処理を行う必要の無い画像データとが混在している。   Here, in the recording medium, in addition to a plurality of image data obtained by a plurality of imaging operations, image data (appropriate exposure image data) obtained by one imaging operation may be recorded. is there. That is, in the recording medium, a plurality of image data used for image composition processing and image data that does not need to be subjected to image composition processing are mixed.

上述した状態において、記録媒体に多数の画像データが記録されており、これらの画像データの中から合成用画像データを選び出す場合には、例えば、使用者が記録媒体内の画像データを1つずつ確認しなければならず、選び出す作業が極めて面倒となる。   In the state described above, a large number of image data is recorded on the recording medium, and when selecting the image data for synthesis from these image data, for example, the user selects the image data in the recording medium one by one. It must be confirmed, and the work of selecting is extremely troublesome.

そこで、本実施例では、複数の合成用画像データと、画像合成の不要な画像データとを識別できる状態で、記録媒体内に記録している。   Therefore, in this embodiment, a plurality of compositing image data and image data that do not require image composition are recorded in the recording medium in a state where they can be identified.

例えば、デジタルカメラ等に用いられているDCF(Design Rule For Camera File System)規格を利用する場合には画像データのヘッダに、互換性を重視する場合にはベンダーユニーク情報の記録エリア等に、合成用画像データの識別情報を、属性と連番等で表現して記録しておくことができる。   For example, when using the DCF (Design Rule For Camera File System) standard used for digital cameras, etc., it is synthesized in the header of the image data, and when compatibility is important, it is synthesized in the recording area of the vendor unique information. The identification information of the image data can be expressed and recorded with attributes and serial numbers.

これにより、合成用画像データと、画像合成の不要な画像データとを容易に識別でき、合成用画像データを選別する際の面倒な手間を省くことができる。   As a result, the image data for synthesis and the image data that does not require image synthesis can be easily identified, and the troublesome work for selecting the image data for synthesis can be saved.

カメラに付属のアプリケーションソフトは、上述した識別情報を認識して、合成用画像データだけを抽出するとともに、抽出した合成用画像データに対して座標変換を行ってから、画像合成処理を行う。   The application software attached to the camera recognizes the identification information described above, extracts only the composition image data, performs coordinate transformation on the extracted composition image data, and then performs image composition processing.

画像合成処理によって得られた合成画像データは外部機器内のメモリに記憶され、各合成用画像データは削除される。ここで、合成用画像データは、画像合成処理を完了した場合には不要となり、合成用画像データを外部機器のメモリ内に記憶しておくと、メモリの記憶容量が不足することもある。   The synthesized image data obtained by the image synthesizing process is stored in the memory in the external device, and each synthesized image data is deleted. Here, the composition image data becomes unnecessary when the image composition processing is completed, and if the composition image data is stored in the memory of the external device, the memory capacity of the memory may be insufficient.

そこで、本実施例のように合成用画像データを削除することにより、外部機器のメモリにおける記憶容量が不足してしまうのを抑制することができる。   Therefore, by deleting the image data for synthesis as in the present embodiment, it is possible to suppress a shortage of storage capacity in the memory of the external device.

図7は、ケーブルを介して接続されたパソコンおよびカメラを示す図である。すなわち、ノートパソコン33は、USBケーブル32を介してカメラ31と接続されている。これにより、カメラ31で得られた画像データを、USBケーブル32を介してノートパソコン33に送信することができる。   FIG. 7 is a diagram showing a personal computer and a camera connected via a cable. That is, the notebook computer 33 is connected to the camera 31 via the USB cable 32. Thereby, the image data obtained by the camera 31 can be transmitted to the notebook computer 33 via the USB cable 32.

ここで、カメラ31に着脱可能な記録媒体内に画像データを記録した場合には、記録媒体をカメラ31から取り外し、ノートパソコン33に設けられたスロット34に差し込むことにより、記録媒体内の画像データをノートパソコン33内に記憶させることができる。また、無線通信によってカメラ31内の画像データをノートパソコン33に送信することもできる。   Here, when image data is recorded in a recording medium that can be attached to and detached from the camera 31, the image data in the recording medium is removed by removing the recording medium from the camera 31 and inserting it into the slot 34 provided in the notebook computer 33. Can be stored in the notebook computer 33. The image data in the camera 31 can be transmitted to the notebook computer 33 by wireless communication.

ノートパソコン33には、予め本実施例での動作を行わせるアプリケーションソフトがインストールされている。このアプリケーションソフトの動作について、以下に簡単に説明する。ここでは、カメラ31を、USBケーブル32を介してノートパソコン33に接続した場合について述べる。   The notebook computer 33 is preinstalled with application software for performing the operation of the present embodiment. The operation of this application software will be briefly described below. Here, a case where the camera 31 is connected to the notebook computer 33 via the USB cable 32 will be described.

まず、カメラ31内の記録部119に記録されている複数の画像データの中から合成用画像データを識別し、合成用画像データをノートパソコン33(メモリ)内に取り込む。合成用画像データのすべてがノートパソコン33に転送された場合には、カメラ31の記録部119に記録されている合成用画像データが削除される。   First, compositing image data is identified from a plurality of image data recorded in the recording unit 119 in the camera 31, and the compositing image data is taken into the notebook computer 33 (memory). When all the image data for composition is transferred to the notebook computer 33, the image data for composition recorded in the recording unit 119 of the camera 31 is deleted.

次に、複数の合成用画像データの中から基準画像データを特定するとともに、上述した第2の判別処理によって画像合成に適した画像データを特定する。そして、第2の判別処理で特定された画像データ(基準画像データ以外の画像データ)に対して座標変換処理を行い、座標変換処理された画像データと、基準画像データとを合成する。   Next, reference image data is specified from among a plurality of image data for synthesis, and image data suitable for image synthesis is specified by the second determination process described above. Then, coordinate conversion processing is performed on the image data (image data other than the reference image data) specified in the second determination processing, and the image data subjected to the coordinate conversion processing and the reference image data are combined.

次に、合成画像データに対してガンマ補正処理等を行い、その後、画像の重ならない領域をカットして、画像サイズが小さくなった分だけ拡大補間処理を行う。そして、拡大補間処理を経た合成画像データは、必要に応じてJPEG方式等による圧縮処理が施された後、メモリに記憶される。メモリに記憶された合成画像データは、USBケーブル32を介してカメラ31内の記録部119に送信することができる。   Next, a gamma correction process or the like is performed on the composite image data, and thereafter, a non-overlapping area of the image is cut, and an enlargement interpolation process is performed for the amount of image size reduction. Then, the composite image data that has undergone the enlargement interpolation process is subjected to a compression process using the JPEG method or the like as necessary, and then stored in the memory. The composite image data stored in the memory can be transmitted to the recording unit 119 in the camera 31 via the USB cable 32.

上述した動作について、図8を用いて具体的に説明する。   The above-described operation will be specifically described with reference to FIG.

図8に示すように記録部119内に作成されたフォルダ35内には、画像合成の不要な画像データを格納する通常画像フォルダ36と、第1の判別処理によって特定された合成用画像データを格納する合成用画像フォルダ37とが作成されている。
As shown in FIG. 8, in the folder 35 created in the recording unit 119, the normal image folder 36 for storing image data that does not require image synthesis and the image data for synthesis specified by the first determination processing are stored. A composition image folder 37 to be stored is created.

通常画像フォルダ36には、画像データ39、310、311a、312、313a、314が撮影順に格納されている。ここで、画像合成処理に用いられる複数の画像データのうち1つの画像データ、すなわち、1回目の撮像動作によって得られた画像データ311aが、通常画像フォルダ36内に格納されている。また、画像データ312のファイル番号は、1つ前の画像データ311aのファイル番号に対して連番となっておらず、ファイル番号004に対応する画像データが格納されていない。   In the normal image folder 36, image data 39, 310, 311a, 312, 313a, and 314 are stored in the order of photographing. Here, one image data among a plurality of image data used for the image composition processing, that is, image data 311 a obtained by the first imaging operation is stored in the normal image folder 36. The file number of the image data 312 is not a sequential number with respect to the file number of the previous image data 311a, and image data corresponding to the file number 004 is not stored.

画像データ313aは、画像合成処理に用いられる複数の画像データのうちの1つの画像データ(1回目の撮像動作によって得られた画像データ)である。そして、画像データ313aと、1つ後の画像データ314のファイル番号は連番となっておらず、ファイル番号0007に対応する画像データが格納されていない。   The image data 313a is one image data (image data obtained by the first imaging operation) among a plurality of image data used for the image composition process. The file numbers of the image data 313a and the next image data 314 are not serial numbers, and the image data corresponding to the file number 0007 is not stored.

合成用画像フォルダ37には、画像合成処理に用いられるすべての画像データ、すなわち、第1の判別処理で特定された画像合成処理に適した画像データが格納されている。ここで、画像データ311a〜311eは、1回目の防振モードでの撮影動作によって生成された画像データであり、画像データ313a〜313dは、2回目の防振モードでの撮影動作によって生成された画像データである。   The composition image folder 37 stores all image data used for the image composition process, that is, image data suitable for the image composition process specified in the first determination process. Here, the image data 311a to 311e are image data generated by the imaging operation in the first image stabilization mode, and the image data 313a to 313d are generated by the imaging operation in the second image stabilization mode. Image data.

本実施例のカメラ31においては、実施例1、2と同様に、複数回の撮像動作によって生成された画像データのうち特定の画像データにおけるコントラスト又は、すべての画像データにおけるコントラストの平均値を用いて、画像合成処理に適さない画像データを特定する。そして、この画像データは記録部119に記録されない。   In the camera 31 of the present embodiment, as in the first and second embodiments, the contrast in specific image data or the average value of the contrast in all image data is used among image data generated by a plurality of imaging operations. Thus, image data that is not suitable for image composition processing is specified. The image data is not recorded in the recording unit 119.

このように画像合成処理に適さない画像データを記録部119に記録しないことにより、無駄な画像データが記録されることを無くし、記録部119での記録容量を確保できるとともに、画像データの記録に要する時間を短縮できる。   By not recording image data that is not suitable for image composition processing in the recording unit 119 in this way, it is possible to prevent useless image data from being recorded, to secure a recording capacity in the recording unit 119, and to record image data. The time required can be shortened.

カメラ31は、合成用画像フォルダ37をノートパソコン33に転送する。ノートパソコン33では、画像データ311a〜311eを用いて1つの合成画像データを生成するとともに、画像データ313a〜313dを用いて1つの合成画像データを生成する。ここで、合成画像データを生成する際には、基準画像を特定し、この基準画像に対して画像合成処理に適さない画像については画像合成処理に用いていない。   The camera 31 transfers the composition image folder 37 to the notebook computer 33. In the notebook computer 33, one composite image data is generated using the image data 311a to 311e, and one composite image data is generated using the image data 313a to 313d. Here, when generating the composite image data, a reference image is specified, and an image that is not suitable for the image composition processing with respect to the reference image is not used in the image composition processing.

上述した画像合成処理によって生成された2つの合成画像データは、ノートパソコン33からカメラ31に送信され、記録部119内に設けられた通常画像フォルダ36に撮影の順で格納される。ここで、ノートパソコン33のメモリには、合成画像データが記憶されない。   The two composite image data generated by the image composition processing described above is transmitted from the notebook computer 33 to the camera 31 and stored in the normal image folder 36 provided in the recording unit 119 in the order of photographing. Here, the composite image data is not stored in the memory of the notebook computer 33.

通常画像フォルダ36内には、予め格納されている画像データに加えて、合成画像データ315、316が格納されている。各合成画像データ315、316は、この合成画像データに対応した合成用画像データ311a、313aの次に位置するように格納される。合成画像データ315のファイル番号は「004」となり、合成画像データ316のファイル番号は「007」となる。   In the normal image folder 36, composite image data 315 and 316 are stored in addition to the image data stored in advance. The respective composite image data 315 and 316 are stored so as to be positioned next to the composite image data 311a and 313a corresponding to the composite image data. The file number of the composite image data 315 is “004”, and the file number of the composite image data 316 is “007”.

ここで、合成画像データと、この合成画像データに対応した1つの合成用画像データとを通常画像フォルダ36内に格納しておくことにより、撮影者は合成画像データおよび合成用画像データを比較できる。なお、合成画像データおよび合成用画像データのうち少なくとも一方が不要であれば、削除してもよい。   Here, by storing the composite image data and one composite image data corresponding to the composite image data in the normal image folder 36, the photographer can compare the composite image data and the composite image data. . If at least one of the synthesized image data and the synthesized image data is unnecessary, it may be deleted.

次に、本実施例の撮像装置における撮影動作について図9に示すフローチャートを用いて説明する。図9のフローチャートは、図5のフローチャートにおけるステップS1010からS1014までの各処理が省略されており、代わりにステップS3001の処理が設けられている。図9において、図5に示す各ステップでの処理と同じ処理については、同一符号を付している。以下、主に図5に示す動作と異なる点について説明する。   Next, the photographing operation in the image pickup apparatus of the present embodiment will be described with reference to the flowchart shown in FIG. In the flowchart of FIG. 9, each process from step S1010 to S1014 in the flowchart of FIG. 5 is omitted, and a process of step S3001 is provided instead. In FIG. 9, the same processes as the processes in each step shown in FIG. Hereinafter, differences from the operation shown in FIG. 5 will be mainly described.

ステップS1007では、撮像動作によって得られた画像データのうち、基準画像(例えば、1回目の撮像動作によって得られた画像データ)でのコントラストに近い(差が所定値以下の)コントラストを持つ画像データだけを画像記憶部113に記憶する。ここで、実施例2で説明したようにすべての画像データを画像記憶部113に記憶し、これらの画像データのうち画像合成に適した画像データだけを記録部119に記録するようにしてもよい。   In step S1007, among the image data obtained by the imaging operation, image data having a contrast close to that of the reference image (for example, image data obtained by the first imaging operation) (the difference is equal to or less than a predetermined value). Only in the image storage unit 113. Here, as described in the second embodiment, all the image data may be stored in the image storage unit 113, and only the image data suitable for image composition among these image data may be recorded in the recording unit 119. .

ステップS3001では、防振モードにおける複数回の撮像動作のうち1回目の撮像動作によって得られた画像データであるか否かを判別し、最初の画像データである場合にはステップS1015に進み、そうでない場合にはステップS1015、S1016をスキップしてステップS1017に進む。   In step S3001, it is determined whether or not the image data is obtained by the first imaging operation among a plurality of imaging operations in the image stabilization mode. If the image data is the first image data, the process proceeds to step S1015. If not, the process skips steps S1015 and S1016 and proceeds to step S1017.

2回目以降の撮像動作によって得られた画像データは、外部機器において画像合成処理等が行われるためにステップS1015等の処理が行われず、ステップS1017で記録部119に記録される。   The image data obtained by the second and subsequent imaging operations is recorded in the recording unit 119 in step S1017 without performing the processing in step S1015 and the like because the image composition processing and the like are performed in the external device.

最初の画像データは、ステップS1015の処理が行われた後に、ステップS1016で表示部118に表示されるとともに、ステップS1017で記録部119に記録される。ここで、最初の画像データを表示部118に表示させることで、撮影者は構図等の確認を行うことができる。また、最初の画像データを記録部119に記録させることで、合成画像データと比較することができる。   The first image data is displayed on the display unit 118 in step S1016 after the processing in step S1015, and is recorded in the recording unit 119 in step S1017. Here, by displaying the first image data on the display unit 118, the photographer can check the composition and the like. Further, by recording the first image data in the recording unit 119, it can be compared with the composite image data.

最初の画像データは、図8に示す通常画像フォルダ36に格納され、この画像データは図8における画像データ311a、313aに相当する。また、最初の画像データは、合成用画像フォルダにも格納される。   The first image data is stored in the normal image folder 36 shown in FIG. 8, and this image data corresponds to the image data 311a and 313a in FIG. The first image data is also stored in the composition image folder.

本実施例において、最初の画像データについては、ステップS1015、S1016の処理を行ってから記録部119に記録されるものと、ステップS1015、S1016の処理が行われずに記録部119に記録されるものがある。   In this embodiment, the first image data is recorded in the recording unit 119 after performing the processes in steps S1015 and S1016, and the first image data is recorded in the recording unit 119 without performing the processes in steps S1015 and S1016. There is.

複数回の撮像動作によって得られた画像データを記録部119に記録する場合において、これらの画像データは、図8に示す合成用画像フォルダ37内に格納される。   When image data obtained by a plurality of imaging operations is recorded in the recording unit 119, these image data are stored in the composition image folder 37 shown in FIG.

図10は、ノートパソコン33内(図7参照)での画像処理を示すフローチャートである。この処理は、ノートパソコン33に接続されたデジタルカメラ31の記録部119内に、又はデジタルカメラ31で用いられ、ノートパソコン33に接続された記録媒体内に合成用画像フォルダ37が存在することを、ノートパソコン33が認識したときにスタートする。   FIG. 10 is a flowchart showing image processing in the notebook computer 33 (see FIG. 7). This processing is performed by confirming that the composition image folder 37 exists in the recording unit 119 of the digital camera 31 connected to the notebook computer 33 or in the recording medium used by the digital camera 31 and connected to the notebook computer 33. The process starts when the notebook computer 33 recognizes.

ステップS3002では、記録部119(又は記録媒体)内の合成用画像フォルダ37をノートパソコン33のメモリに移動させる。このとき、記録部119内の合成用画像フォルダ37は削除される。   In step S3002, the composition image folder 37 in the recording unit 119 (or recording medium) is moved to the memory of the notebook computer 33. At this time, the composition image folder 37 in the recording unit 119 is deleted.

なお、防振モードでの複数回の撮像動作によって複数の画像データを生成する場合には、自動的に合成用画像フォルダが記録部119内に再度作成される。また、記録部119内の合成用画像フォルダ37をノートパソコン33のメモリに移動させるのではなく、合成用画像フォルダ37をコピーしてメモリに記憶してもよい。   Note that when a plurality of image data is generated by a plurality of imaging operations in the image stabilization mode, a composition image folder is automatically created in the recording unit 119 again. Further, instead of moving the composition image folder 37 in the recording unit 119 to the memory of the notebook computer 33, the composition image folder 37 may be copied and stored in the memory.

ステップS3003では、ノートパソコン33のメモリに記憶された合成用画像フォルダ37から複数の画像データを順次読み出す。以下に説明するステップS3004からステップS3010までの処理は、画像間のズレを補正(座標変換)した状態で複数の画像データを合成して適正露出の合成画像データを生成する処理である。   In step S3003, a plurality of pieces of image data are sequentially read out from the composition image folder 37 stored in the memory of the notebook computer 33. The processing from step S3004 to step S3010 described below is processing for generating composite image data with appropriate exposure by combining a plurality of image data in a state in which a shift between images is corrected (coordinate conversion).

ステップS3004では、各画像データにおける特徴点を抽出し、この特徴点の撮影画面内における位置座標を特定する。なお、各画像の全領域を複数の領域に分割し、対応する各領域での動きベクトルを求め、これらの動きベクトルの中で最も頻度の高い動きベクトルを画像のズレ量として特定することもできる。   In step S3004, feature points in each image data are extracted, and position coordinates of the feature points in the shooting screen are specified. It is also possible to divide the entire area of each image into a plurality of areas, obtain a motion vector in each corresponding area, and specify a motion vector having the highest frequency among these motion vectors as an image shift amount. .

ステップS3005では、複数の画像データのなかでファイル番号が最も小さい画像データを基準画像データとして選択する。例えば、複数回の撮像動作のうち1回目の撮像動作によって得られた画像データが存在する場合には、この画像データが基準画像データとなる。   In step S3005, the image data with the smallest file number is selected as the reference image data from among the plurality of image data. For example, when there is image data obtained by the first imaging operation among a plurality of imaging operations, this image data becomes reference image data.

また、ステップS3005では、合成用画像データを選択し、選択された合成用画像データに対して座標変換を行う。具体的には、各合成用画像データの基準画像データに対するずれ量に基づいて、各合成用画像データに対する座標変換処理を行う。   In step S3005, the image data for synthesis is selected, and coordinate conversion is performed on the selected image data for synthesis. Specifically, coordinate conversion processing is performed on each image data for synthesis based on the amount of deviation of each image data for synthesis from the reference image data.

ステップS3006では、座標変換された合成用画像データと、基準画像データとを合成する。複数の画像データを合成して画像全体のゲインをアップさせる場合において、十分な数の合成用画像データがあれば、画像合成処理の過程で画像全体の信号レベルを圧縮処理することにより、相対的に各画像データのノイズを低減させることができる。これにより、S/N比の良好な合成画像データを得ることができ、結果的にノイズを抑えて露出を適正化させることができる。また、ノイズを減少させた合成画像データに対して、必要に応じてゲインアップを行うことで露出の更なる適正化を図ることもできる。   In step S3006, the coordinate-converted image data for synthesis and the reference image data are synthesized. When combining a plurality of image data to increase the gain of the entire image, if there is a sufficient number of image data for synthesis, the signal level of the entire image is compressed in the course of the image compositing process. In addition, noise of each image data can be reduced. Thereby, it is possible to obtain composite image data with a good S / N ratio, and as a result, it is possible to suppress the noise and optimize the exposure. Further, the exposure can be further optimized by increasing the gain as necessary for the composite image data with reduced noise.

例えば、合成画像データを生成するために、5つの合成用画像データが必要である場合において、画像合成に適した画像データが4つしか存在しない場合には、合成画像データに対して5/4倍のゲインアップを行うことで、露出を補正することができる。   For example, in the case where five pieces of image data for synthesis are required to generate composite image data, and there are only four pieces of image data suitable for image composition, 5/4 of the composite image data is obtained. The exposure can be corrected by increasing the gain twice.

ステップS3007では、防振モードでの1回の撮影動作によって得られた複数の画像データ(例えば、図8に示す画像データ311a〜311e)に対してステップS3003からステップS3006までの処理が行われたか否かを判別する。ここで、すべての画像データに対する処理が完了した場合には、ステップS3008に進む。   In step S3007, whether the processing from step S3003 to step S3006 has been performed on a plurality of image data (for example, image data 311a to 311e shown in FIG. 8) obtained by one imaging operation in the image stabilization mode. Determine whether or not. If processing for all image data is completed, the process advances to step S3008.

ステップS3008では、最終的に生成された合成画像データに対してガンマ補正等の処理を行うとともに、各画像の重ならない領域をカットし、画像サイズが小さくなった分だけ拡大補間処理等の二次元画素平面での処理を行う。また、必要に応じてデジタルデータ量の削減のために、JPEG方式等に基づく圧縮処理を行う。   In step S3008, the final generated composite image data is subjected to processing such as gamma correction, and a non-overlapping area of each image is cut, and two-dimensional processing such as enlargement interpolation processing is performed by the amount of image size reduction. Processing on the pixel plane is performed. In addition, compression processing based on the JPEG method or the like is performed as necessary to reduce the amount of digital data.

ステップS3009では、ステップS3008で生成された合成画像データを、メモリに設けられた通常画像フォルダ36(図8参照)内に格納する。   In step S3009, the composite image data generated in step S3008 is stored in the normal image folder 36 (see FIG. 8) provided in the memory.

ステップS3010では、ノートパソコン33のメモリに保存したすべての画像データに対してステップS3003〜S3009までの処理が完了したか否かを判別する。例えば、図8に示すように合成用画像フォルダ37内に、合成用画像データ311a〜311eと合成用画像データ313a〜313dが保存されている場合において、合成用画像データ311a〜311eに対してのみ画像合成処理が完了している場合には、残りの合成用画像データ313a〜313dに対して合成画像処理を行うために、ステップS3003に戻る。また、合成用画像データ311a〜311e、313a〜313dに対して画像合成処理が完了している場合には、ステップS3011に進む。   In step S3010, it is determined whether or not the processing from steps S3003 to S3009 has been completed for all the image data stored in the memory of the notebook computer 33. For example, as shown in FIG. 8, in the case where the composition image data 311a to 311e and the composition image data 313a to 313d are stored in the composition image folder 37, only the composition image data 311a to 311e is stored. If the image composition process has been completed, the process returns to step S3003 to perform the composition image process on the remaining composition image data 313a to 313d. If image composition processing has been completed for the composition image data 311a to 311e and 313a to 313d, the process proceeds to step S3011.

ステップS3011では、合成用画像フォルダ37内に格納されたすべての合成用画像データに対して画像合成処理が完了したことを示す表示を行う。また、この表示処理と同時にノートパソコン33のメモリに保存したすべての合成用画像データを消去する。   In step S3011, a display indicating that the image composition processing has been completed for all the composition image data stored in the composition image folder 37 is performed. Simultaneously with this display processing, all the image data for synthesis stored in the memory of the notebook personal computer 33 is deleted.

本実施例ではデジタルカメラ31およびノートパソコン33を用いた場合について説明したが、ノートパソコン33に限らず、デスクトップタイプのパソコンや、パソコンでなくても専用のストレージや専用の画像処理装置を用いて本実施例と同様の処理を行うこともできる。   In the present embodiment, the case where the digital camera 31 and the notebook computer 33 are used has been described. However, the present invention is not limited to the notebook computer 33, and a desktop type personal computer, a dedicated storage or a dedicated image processing apparatus is used even if it is not a personal computer. The same processing as in this embodiment can also be performed.

本実施例においても、上述した実施例と同様の効果を得ることができる。すなわち、画像合成に不適切な画像データを排除して画像合成を行うことにより、合成画像の画質を向上させることができる。   Also in this embodiment, the same effect as that of the above-described embodiment can be obtained. That is, the image quality of a composite image can be improved by eliminating image data inappropriate for image composition and performing image composition.

上述した実施例では、デジタルカメラを用いた場合について説明したが、監視カメラやWebカメラなどにも適用できる。また、電子的に画像の振れを補正する構成であるため、小型の携帯電子機器(例えば、携帯電話)にも適用できる。   In the above-described embodiments, the case where a digital camera is used has been described. In addition, since it is configured to electronically correct image shake, it can also be applied to small portable electronic devices (for example, mobile phones).

上述した各実施例における動作は、プログラムに基づいてコンピュータに実行させることができる。そして、このプログラムは、コンピュータにより読取り可能な記録媒体に記憶させておくことができる。この記録媒体としては、ハードディスク、CD−R、CD−ROM、フレキシブルディスク、DVDディスク、光ディスク、光磁気ディスク、磁気テープ、不揮発性のメモリカード、ICカード、ROM、RAMなどがある。   The operations in the above-described embodiments can be executed by a computer based on a program. This program can be stored in a computer-readable recording medium. Examples of the recording medium include a hard disk, CD-R, CD-ROM, flexible disk, DVD disk, optical disk, magneto-optical disk, magnetic tape, nonvolatile memory card, IC card, ROM, and RAM.

また、コンピュータが記憶媒体から読み出したプログラムコードを実行することにより、上述した実施例の動作が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどによって実施例の動作の一部または全部を実行させることができる。   In addition, when the computer executes the program code read from the storage medium, not only the operation of the above-described embodiment is realized, but also based on an instruction of the program code, it is executed by an OS running on the computer. Some or all of the example operations can be performed.

実施例1であるカメラの構成を示す図。1 is a diagram illustrating a configuration of a camera that is Embodiment 1. FIG. 複数の画像の合成方法を説明する図。The figure explaining the synthetic | combination method of a some image. 合成画像において、各合成用画像が重ならない領域を説明する図。The figure explaining the area | region where each image for a synthesis | combination does not overlap in a synthesized image. 実施例1において、合成用画像の選択方法を説明する図。FIG. 3 is a diagram illustrating a method for selecting a composition image in the first embodiment. 実施例1であるカメラの撮影動作を示すフローチャート。3 is a flowchart illustrating a photographing operation of the camera that is Embodiment 1. 実施例2であるカメラの撮影動作を示すフローチャート。9 is a flowchart illustrating a shooting operation of a camera that is Embodiment 2. 本発明の実施例3である、カメラ及びパソコンを用いた場合の説明図。Explanatory drawing at the time of using the camera and personal computer which are Example 3 of this invention. 実施例3において、画像合成処理前のファイル状態を示す図。FIG. 10 is a diagram illustrating a file state before image composition processing in the third embodiment. 実施例3におけるカメラの撮影動作を示すフローチャート。9 is a flowchart illustrating a shooting operation of a camera according to a third embodiment. 実施例3におけるパソコンでの画像処理を示すフローチャート。9 is a flowchart showing image processing on a personal computer in Embodiment 3.

符号の説明Explanation of symbols

18:撮影制御部
18a:低コントラスト判別部
111:信号処理部
111a:画像処理部
111b:コントラスト検出部
114:ズレ検出部
115:座標変換部
115a:シフト部
115b:基準画像設定部
115c:加算画像合否判定部
116:画像合成部
18: Imaging control unit 18a: Low contrast discrimination unit 111: Signal processing unit 111a: Image processing unit 111b: Contrast detection unit 114: Deviation detection unit 115: Coordinate conversion unit 115a: Shift unit 115b: Reference image setting unit 115c: Addition image Pass / fail judgment unit 116: image composition unit

Claims (9)

複数の画像に対して画像合成を行うことにより露出補正された合成画像を生成する場合において、複数回の撮像動作によって得られた複数の画像のうち、少なくとも前記画像のコントラストに関する情報を含む画像に関する情報に基づいて前記画像合成に用いられる画像を選択する選択部と、
前記選択部によって選択された画像が、前記画像合成に必要な画像の枚数に対して不足する場合には、前記選択部によって選択された画像のゲインを不足する枚数分アップするゲイン調整手段とを有し、
前記選択部は、前記複数の画像のうち基準画像及び他の画像の前記コントラストの差が所定値以上の場合には、該他の画像については前記画像合成に用いないことを特徴とする画像処理装置。
In the case of generating an exposure-corrected composite image by performing image composition on a plurality of images, the present invention relates to an image including at least information related to the contrast of the images among a plurality of images obtained by a plurality of imaging operations. A selection unit for selecting an image to be used for the image composition based on information;
Gain adjustment means for increasing the number of images selected by the selection unit by an insufficient number when the number of images selected by the selection unit is insufficient with respect to the number of images required for the image composition; Yes, and
The selection unit is configured not to use the other image for the image composition when the difference in contrast between the reference image and the other image of the plurality of images is equal to or greater than a predetermined value. apparatus.
前記選択部は、前記複数の画像におけるコントラストの平均値に対して、所定値以上の差のコントラストを有する画像については、前記画像合成に用いないことを特徴とする請求項に記載の画像処理装置。 2. The image processing according to claim 1 , wherein the selection unit does not use, in the image synthesis, an image having a contrast having a difference equal to or greater than a predetermined value with respect to an average contrast value in the plurality of images. apparatus. 前記画像に関する情報は、前記画像のコントラストのほかに、色情報、画像取得時の合焦情報および画像間の変位情報のうち少なくとも1つを含むことを特徴とする請求項1に記載の画像処理装置。 The image processing according to claim 1, wherein the information about the image includes at least one of color information, focusing information at the time of image acquisition, and displacement information between images in addition to the contrast of the image. apparatus. 前記選択部は、前記複数の画像のうち基準画像に対して所定値以上の変位量を持つ他の画像については、前記画像合成に用いないことを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 3 , wherein the selection unit does not use other images having a displacement amount greater than or equal to a predetermined value with respect to a reference image among the plurality of images for the image composition. . 前記選択部は、前記基準画像として、他の画像との変位量が最も小さくなるような画像を用いることを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 4 , wherein the selection unit uses, as the reference image, an image that minimizes a displacement amount with respect to another image. 前記画像処理装置は、撮像動作を行う撮像部を含む撮像装置であることを特徴とする請求項1からのいずれか1つに記載の画像処理装置。 The image processing apparatus, an image processing apparatus according to any one of claims 1 to 5, characterized in that an imaging apparatus including an imaging unit that performs imaging operation. 前記撮像部は、前記画像合成に必要な画像の数よりも多い画像を撮像動作によって取得することを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 6 , wherein the imaging unit acquires more images than the number of images necessary for the image synthesis by an imaging operation. 複数の画像に対して画像合成を行うことにより露出補正された合成画像を生成する場合において、複数回の撮像動作によって得られた複数の画像のうち、少なくとも前記画像のコントラストに関する情報を含む画像に関する情報に基づいて前記画像合成に用いられる画像を選択する選択工程と
選択された画像が、前記画像合成に必要な画像の枚数に対して不足する場合には、前記選択された画像のゲインを不足する枚数分アップするゲイン調整工程とを有し
前記複数の画像のうち基準画像及び他の画像の前記コントラストの差が所定値以上の場合には、該他の画像については前記画像合成に用いないことを特徴とする画像処理方法。
In the case of generating an exposure-corrected composite image by performing image composition on a plurality of images, the present invention relates to an image including at least information related to the contrast of the images among a plurality of images obtained by a plurality of imaging operations. A selection step of selecting an image used for the image synthesis based on information;
A gain adjustment step of increasing the selected image by an insufficient number of gains when the selected image is insufficient with respect to the number of images necessary for the image composition;
An image processing method , wherein, when the contrast difference between a reference image and another image among the plurality of images is equal to or greater than a predetermined value, the other image is not used for the image synthesis .
画像処理をコンピュータに実行させるプログラムであって、
前記画像処理は、
複数の画像に対して画像合成を行うことにより露出補正された合成画像を生成する場合において、複数回の撮像動作によって得られた複数の画像のうち、少なくとも前記画像のコントラストに関する情報を含む画像に関する情報に基づいて前記画像合成に用いられる画像を選択し、
選択された画像が、前記画像合成に必要な画像の枚数に対して不足する場合には、前記選択された画像のゲインを不足する枚数分アップし、
前記複数の画像のうち基準画像及び他の画像の前記コントラストの差が所定値以上の場合には、該他の画像については前記画像合成に用いないことを特徴とするプログラム。
A program for causing a computer to execute image processing,
The image processing is
In the case of generating an exposure-corrected composite image by performing image composition on a plurality of images, the present invention relates to an image including at least information related to the contrast of the images among a plurality of images obtained by a plurality of imaging operations. Select an image to be used for the image composition based on the information,
When the selected image is insufficient with respect to the number of images necessary for the image composition, the gain of the selected image is increased by an insufficient number ,
A program characterized in that , when the contrast difference between a reference image and another image among the plurality of images is equal to or greater than a predetermined value, the other image is not used for the image composition .
JP2005062050A 2005-03-07 2005-03-07 Image processing apparatus, image processing method, and program Expired - Fee Related JP4562182B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005062050A JP4562182B2 (en) 2005-03-07 2005-03-07 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005062050A JP4562182B2 (en) 2005-03-07 2005-03-07 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2006246309A JP2006246309A (en) 2006-09-14
JP2006246309A5 JP2006246309A5 (en) 2008-04-24
JP4562182B2 true JP4562182B2 (en) 2010-10-13

Family

ID=37052210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005062050A Expired - Fee Related JP4562182B2 (en) 2005-03-07 2005-03-07 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4562182B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4762089B2 (en) 2006-08-31 2011-08-31 三洋電機株式会社 Image composition apparatus and method, and imaging apparatus
JP4825093B2 (en) * 2006-09-20 2011-11-30 富士通株式会社 Image pickup apparatus with camera shake correction function, camera shake correction method, and camera shake correction processing program
JP4861109B2 (en) * 2006-09-27 2012-01-25 富士通株式会社 Image data processing apparatus, image data processing method, image data processing program, and imaging apparatus
JP2008242563A (en) * 2007-03-26 2008-10-09 Dainippon Printing Co Ltd Simulation system, server, and terminal
JP4942572B2 (en) * 2007-07-13 2012-05-30 富士フイルム株式会社 Image adding apparatus and method, and program
JP5054583B2 (en) * 2008-03-17 2012-10-24 株式会社リコー Imaging device
JP5199736B2 (en) 2008-06-06 2013-05-15 シャープ株式会社 Imaging device
JP5471917B2 (en) * 2010-07-14 2014-04-16 株式会社ニコン Imaging apparatus and image composition program
JP5663989B2 (en) * 2010-07-14 2015-02-04 株式会社ニコン Imaging apparatus and image composition program
JP5131376B2 (en) * 2011-10-05 2013-01-30 富士通株式会社 Image data processing apparatus, image data processing method, image data processing program, and imaging apparatus
JP5301690B2 (en) * 2012-01-18 2013-09-25 富士フイルム株式会社 Imaging apparatus, method, and program
JP6644311B2 (en) * 2015-11-06 2020-02-12 国立研究開発法人農業・食品産業技術総合研究機構 Livestock condition monitoring device, information processing device, livestock condition monitoring method, and livestock condition monitoring program
JP6213619B2 (en) * 2016-06-09 2017-10-18 株式会社ニコン Camera and program
JP7409604B2 (en) * 2019-12-18 2024-01-09 キヤノン株式会社 Image processing device, imaging device, image processing method, program and recording medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087647A (en) * 2001-09-10 2003-03-20 Minolta Co Ltd Digital still camera
JP2005039533A (en) * 2003-07-15 2005-02-10 Sony Corp Imaging apparatus
JP2005039530A (en) * 2003-07-15 2005-02-10 Sony Corp Imaging apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087647A (en) * 2001-09-10 2003-03-20 Minolta Co Ltd Digital still camera
JP2005039533A (en) * 2003-07-15 2005-02-10 Sony Corp Imaging apparatus
JP2005039530A (en) * 2003-07-15 2005-02-10 Sony Corp Imaging apparatus

Also Published As

Publication number Publication date
JP2006246309A (en) 2006-09-14

Similar Documents

Publication Publication Date Title
JP4562182B2 (en) Image processing apparatus, image processing method, and program
KR100871639B1 (en) Camera and image processing method for camera
JP2006174069A (en) Photographing instrument and photographing method
JP2004357202A (en) Photographing apparatus
JP4533252B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2006025238A (en) Imaging device
CN104702824A (en) Image capturing apparatus and control method of image capturing apparatus
JP4164424B2 (en) Imaging apparatus and method
JP2004221992A (en) Imaging device and program
JP4323969B2 (en) Imaging device
JP2002158919A (en) Imaging device and image acquisition step
JP5495598B2 (en) Imaging apparatus and control method thereof
JP5693664B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
US8514305B2 (en) Imaging apparatus
JP4553134B2 (en) Image generating apparatus and program thereof
JP2007124278A (en) Imaging apparatus
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
JP4977996B2 (en) Imaging device
JP2007142639A (en) Imaging apparatus and program therefor
JP5163333B2 (en) CAMERA DEVICE, IMAGE DISPLAY METHOD, AND IMAGE DISPLAY PROGRAM
JP2006050139A (en) Optical apparatus
JP2006295708A (en) Imaging apparatus and control method therefor
JP6357922B2 (en) Image processing apparatus, image processing method, and program
JP6610713B2 (en) Image processing apparatus, image processing method, and program
JP4756005B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080306

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080306

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20081010

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20081201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100721

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100726

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees