Nothing Special   »   [go: up one dir, main page]

JP2009296561A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2009296561A
JP2009296561A JP2008155644A JP2008155644A JP2009296561A JP 2009296561 A JP2009296561 A JP 2009296561A JP 2008155644 A JP2008155644 A JP 2008155644A JP 2008155644 A JP2008155644 A JP 2008155644A JP 2009296561 A JP2009296561 A JP 2009296561A
Authority
JP
Japan
Prior art keywords
imaging
image
image data
frames
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008155644A
Other languages
Japanese (ja)
Inventor
Masabumi Yamazaki
正文 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2008155644A priority Critical patent/JP2009296561A/en
Priority to CN2009101369807A priority patent/CN101572777B/en
Publication of JP2009296561A publication Critical patent/JP2009296561A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Adjustment Of Camera Lenses (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of efficiently performing blur correction with precision corresponding to a required image quality, and to provide an imaging method like this. <P>SOLUTION: Each time the blurring amount of a subject image, from exposure start, formed on the imaging plane of an imaging element 5 via an imaging lens 1 reaches a predetermined amount depending on the focal distance of the imaging lens 1 and parameters determining image quality, image data are read from pixels of the imaging element 5. Image data of a plurality of frames read from the pixels of the imaging element 5 several times are associated with one another and combined in such a way that the same portions of images represented by the image data of the plurality of frames are overlapped, thereby generating a blur-reduced image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ぶれが補正された画像を得ることが可能な撮像装置及びこのような撮像方法に関する。   The present invention relates to an imaging apparatus capable of obtaining an image in which blurring is corrected, and such an imaging method.

デジタルカメラ等の撮像装置において、特に長時間の撮像を行う場合に、撮像の間の撮影者の手ぶれや被写体の動きによって、撮像素子上に結像する被写体像にぶれを生じることが広く知られている。   In an imaging device such as a digital camera, it is widely known that a subject image formed on an image sensor blurs due to a camera shake of a photographer or a movement of a subject during imaging, particularly when imaging is performed for a long time. ing.

ぶれを補正する手法の1つとして、ぶれ量を許容量以下に抑えることが可能な露光時間で時分割的に複数回の撮像を行い、それぞれの撮像の結果として得られる複数の画像データによって表されるそれぞれの画像の相互のぶれが低減されるように、上記複数の画像データを合成することにより、1枚のぶれが補正された画像を生成する手法が特許文献1や特許文献2等において提案されている。特許文献1では、露光開始時からのぶれ量がぶれを許容可能な所定のぶれ量に達するまで露光を行って、撮像素子から画像データを読み出して合成するという動作を繰り返し行い、これによってぶれが低減された画像を生成するようにしている。また、特許文献2では、カラーフィルタが配置された単板型撮像素子から時分割で読み出された画像データを、カラーフィルタのカラーコーディングにおける単位パターンの繰り返し画素数の整数倍でアドレス補正を行いながら、前回撮像された画像データと合成することでぶれが低減された画像データを生成するようにしている。
特開2003−32540号公報 特開2005−328326号公報
As one of the methods for correcting blur, imaging is performed in a time-division manner with an exposure time that can suppress the blur amount to be equal to or less than an allowable amount, and is expressed by a plurality of image data obtained as a result of each imaging. Patent Document 1, Patent Document 2, and the like have disclosed a technique for generating an image in which one blur is corrected by combining the plurality of image data so that the mutual blur between the respective images is reduced. Proposed. In Patent Document 1, exposure is performed until the amount of blurring from the start of exposure reaches a predetermined amount of blurring that allows blurring, and the operation of reading out and synthesizing image data from the image sensor is repeatedly performed. A reduced image is generated. In Patent Document 2, image data read out in a time-sharing manner from a single-plate image sensor in which a color filter is arranged is subjected to address correction with an integer multiple of the number of repeated pixels of a unit pattern in color coding of the color filter. However, image data with reduced blur is generated by combining with previously captured image data.
Japanese Patent Laid-Open No. 2003-32540 JP 2005-328326 A

静止画像を撮像する撮像装置においては、あらゆるシーンを確実に撮像することが求められるため、撮像を高速に行うことは必須の要件である。また、あらゆる場面での撮像が求められるので、長時間の撮像に耐えることも必須の要件である。長時間の撮像を行えるようにするためには、撮像時の消費電力を少なくすることが望ましい。   In an imaging device that captures a still image, it is required to capture all scenes with certainty. Therefore, it is an essential requirement to perform imaging at high speed. In addition, since imaging in every scene is required, it is an essential requirement to withstand long-time imaging. In order to enable long-time imaging, it is desirable to reduce power consumption during imaging.

上述したことは手ぶれ防止処理においても例外ではなく、手ぶれ防止処理においても高速化及び低消費電力化が求められている。   What has been described above is no exception in the camera shake prevention processing, and high speed and low power consumption are also required in the camera shake prevention processing.

ここで、特許文献1や特許文献2のような、時分割撮像により得られた複数の画像データの相互のぶれを補正してぶれを補正する方式においては、合成後に得られる画像におけるぶれを高精度に補正するためには、時分割撮像におけるそれぞれの撮像の露光時間を短くして、各撮像における画像のぶれ量を小さくする必要がある。時分割撮像の各撮像における露光時間によらずに、合成後の画像データのS/Nをほぼ一定にするには、合成した画像データ全体の露光時間をほぼ一定に保つ必要がある。したがって、時分割撮像における露光時間が短くなるほど時分割撮像の回数を増やす必要がある。しかしながら、時分割撮像の回数を多くした場合には、画像処理を施さなければならない画像の数が多くなり、結果として全体の画像処理の量が多くなり、他の処理に悪影響を与える。処理時間が長くなったり、処理時間を短くするために高速処理を行うと、消費電力も多くなり、上述した撮像装置の基本的な要求を満たさなくなる。   Here, as in Patent Document 1 and Patent Document 2, in the method of correcting the shake by correcting the shake of a plurality of image data obtained by time-division imaging, the shake in the image obtained after the synthesis is increased. In order to correct the accuracy, it is necessary to shorten the exposure time of each imaging in the time-division imaging so as to reduce the amount of image blur in each imaging. In order to make the S / N ratio of the combined image data substantially constant irrespective of the exposure time in each time-division imaging, it is necessary to keep the exposure time of the entire combined image data substantially constant. Therefore, it is necessary to increase the number of times of time-division imaging as the exposure time in time-division imaging becomes shorter. However, when the number of time-division imaging is increased, the number of images that have to be subjected to image processing increases, resulting in an increase in the amount of overall image processing, which adversely affects other processing. When processing time is increased or high-speed processing is performed in order to shorten the processing time, power consumption increases and the above-described basic requirements of the imaging apparatus cannot be satisfied.

一方、画質モードによっては、一般的にぶれが目立たない露光時間とされる1/f秒(ただし、fは35mmフィルムカメラ用の撮像レンズの焦点距離であり、単位は“mm”である)で時分割撮像を行っても、十分なぶれ補正の効果が得られない場合がある。   On the other hand, depending on the image quality mode, the exposure time is generally 1 / f seconds (where f is the focal length of an imaging lens for a 35 mm film camera and the unit is “mm”), which is an exposure time in which blurring is not noticeable. Even if time-division imaging is performed, a sufficient blur correction effect may not be obtained.

このように、時分割撮像の回数は撮像装置の機能や性能を左右する非常に重要な要素でありながら、従来技術においては画質モードと無関係に時分割撮像の回数が設定されていたため、不必要に精度の高いぶれ補正が行われたり、精度不足になったりすることがあった。   As described above, the number of time-division imaging is a very important factor that affects the function and performance of the imaging device. However, in the conventional technology, the number of times of time-division imaging is set regardless of the image quality mode. In some cases, high-accuracy shake correction is performed or the accuracy is insufficient.

本発明は、上記の事情に鑑みてなされたものであり、必要とされる画質に応じた精度のぶれ補正を効率よく行うことができる撮像装置及びこのような撮像方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image pickup apparatus and such an image pickup method capable of efficiently performing shake correction with high accuracy according to required image quality. To do.

上記の目的を達成するために、本発明の第1の態様の撮像装置は、時分割撮像によって得られた複数コマの画像データのそれぞれによって表される画像の相互のぶれが低減されるように、上記複数コマの画像データを合成する撮像装置であって、二次元状に複数の画素が配置された撮像面を有する撮像素子と、上記撮像素子の撮像面に被写体像を結像する撮像レンズと、上記結像した被写体像の、上記撮像面上の基準位置からのぶれ量を検出するぶれ量検出部と、上記複数コマの画像の画質に関連するパラメータを設定する画質パラメータ設定部と、露光開始時からの上記ぶれ量が、上記画質に関連するパラメータと上記撮像レンズの焦点距離に依拠した所定量に達する毎に、上記撮像素子の画素から画像データを読み出す動作を複数回行う画素読出制御部と、上記撮像素子の画素から複数回読み出された複数コマの画像データのそれぞれによって表される画像の同一部分が重なるように、上記複数コマの画像データを対応付けて合成する画像合成部と、を具備することを特徴とする。   In order to achieve the above object, the imaging apparatus according to the first aspect of the present invention reduces mutual blurring of images represented by each of a plurality of frames of image data obtained by time-division imaging. An imaging device that synthesizes the image data of the plurality of frames, the imaging device having an imaging surface in which a plurality of pixels are two-dimensionally arranged, and an imaging lens that forms a subject image on the imaging surface of the imaging device A blur amount detection unit that detects a blur amount of the imaged subject image from a reference position on the imaging surface; an image quality parameter setting unit that sets parameters related to the image quality of the images of the plurality of frames; Every time the amount of blurring from the start of exposure reaches a predetermined amount depending on the parameter relating to the image quality and the focal length of the imaging lens, an operation of reading image data from the pixels of the imaging element is performed a plurality of times. The image data of the plurality of frames is associated and synthesized so that the same portion of the image represented by the element reading control unit and each of the image data of the plurality of frames read from the pixel of the image sensor a plurality of times overlap each other. And an image composition unit.

また、上記の目的を達成するために、本発明の第2の態様の撮像方法は、時分割撮像によって得られた複数コマの画像データのそれぞれによって表される画像の相互のぶれが低減されるように、上記複数コマの画像データを合成する撮像方法であって、撮像素子の撮像面に結像した被写体像の、上記撮像面上の基準位置からのぶれ量を検出するステップと、上記複数コマの画像の画質と関連するパラメータを設定するステップと、露光開始時からの上記撮像面上の基準位置からのぶれ量が、上記画質に関連するパラメータと上記撮像レンズの焦点距離に依拠した所定量に達する毎に、上記撮像素子の画素から画像データを読み出す動作を複数回行うステップと、上記撮像素子の画素から複数回読み出された複数コマの画像データのそれぞれによって表される画像の同一部分が重なるように、上記複数コマの画像データを対応付けて合成するステップと、を有することを特徴とする。   In order to achieve the above object, in the imaging method according to the second aspect of the present invention, mutual blurring of images represented by each of a plurality of frames of image data obtained by time-division imaging is reduced. As described above, in the imaging method for combining the image data of the plurality of frames, a step of detecting a blur amount from a reference position on the imaging surface of the subject image formed on the imaging surface of the imaging element; The step of setting parameters related to the image quality of the frame image, and the amount of blurring from the reference position on the imaging surface from the start of exposure depends on the parameter related to the image quality and the focal length of the imaging lens. Each time a fixed amount is reached, the step of reading the image data from the pixels of the image sensor a plurality of times and the image data of a plurality of frames read from the pixels of the image sensor a plurality of times To overlap the same portion of the image represented me, and having the steps of: synthesizing in association with image data of said plurality of frames.

また、上記の目的を達成するために、本発明の第3の態様の撮像方法は、時分割撮像によって得られた複数コマの画像データのそれぞれによって表される画像の相互のぶれが低減されるように、上記複数コマの画像データを合成する撮像方法であって、露光開始時からのぶれ量が、画質に関連するパラメータと撮像レンズの焦点距離に依拠した所定量に達する毎に、撮像素子の画素から画像データを読み出す動作を繰り返し行うステップと、複数回読み出された上記画像データによって表される複数コマの画像の同一部分が重なるように、上記複数コマの画像データを対応付けて合成するステップと、を有することを特徴とする。   In order to achieve the above object, in the imaging method according to the third aspect of the present invention, mutual blurring of images represented by each of a plurality of frames of image data obtained by time-division imaging is reduced. In this way, the image pickup method combines the image data of the plurality of frames, and each time the amount of blur from the start of exposure reaches a predetermined amount that depends on the parameter related to the image quality and the focal length of the image pickup lens, the image pickup device The step of repeatedly reading the image data from the pixels of the image and the image data of the plurality of frames are combined and associated so that the same portion of the images of the plurality of frames represented by the image data read a plurality of times overlap. And a step of performing.

本発明によれば、必要とされる画質に応じた精度のぶれ補正を効率よく行うことができる撮像装置及びこのような撮像方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device which can perform the blurring correction of the precision according to the required image quality efficiently, and such an imaging method can be provided.

以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明の実施形態に係わる撮像装置の一例としてのデジタルカメラの構成を示すブロック図である。図1に示すデジタルカメラは、撮像レンズ1と、レンズ駆動系2と、絞り3と、絞り駆動系4と、撮像素子5と、撮像素子ドライバ6と、タイミングジェネレータ(TG)回路7と、相関二重サンプリング(CDS)回路8と、増幅回路9と、アナログ/デジタル(A/D)変換部10と、データバス11と、内蔵メモリ12と、画像処理部13と、AE処理部14と、AF処理部15と、圧縮/伸張部16と、着脱メモリ17と、表示部18と、不揮発性メモリ19と、メインCPU20と、入力部21と、電源部22と、サブCPU23と、A/D変換部24と、角速度センサ25、26とを有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration of a digital camera as an example of an imaging apparatus according to an embodiment of the present invention. The digital camera shown in FIG. 1 includes an imaging lens 1, a lens driving system 2, an aperture 3, a diaphragm driving system 4, an imaging element 5, an imaging element driver 6, and a timing generator (TG) circuit 7. A double sampling (CDS) circuit 8, an amplifier circuit 9, an analog / digital (A / D) converter 10, a data bus 11, a built-in memory 12, an image processor 13, an AE processor 14, AF processing unit 15, compression / decompression unit 16, removable memory 17, display unit 18, nonvolatile memory 19, main CPU 20, input unit 21, power supply unit 22, sub CPU 23, A / D A conversion unit 24 and angular velocity sensors 25 and 26 are provided.

撮像レンズ1は、被写体の光学像(被写体像)を撮像素子5の撮像面上に結像させるための光学系である。レンズ駆動系2は、撮像レンズ1に含まれるフォーカス調整用のレンズ等を駆動させるための駆動系である。レンズ駆動系2を介してフォーカス調整用のレンズを駆動することによって撮像レンズ1のフォーカス調整を行うことが可能である。また、撮像レンズ1がズームレンズである場合には、レンズ駆動系2によって撮像レンズ1を駆動することによってズーミングを行うことが可能である。   The imaging lens 1 is an optical system for forming an optical image of a subject (subject image) on the imaging surface of the imaging element 5. The lens driving system 2 is a driving system for driving a focus adjustment lens included in the imaging lens 1. The focus adjustment of the imaging lens 1 can be performed by driving a focus adjustment lens via the lens drive system 2. If the imaging lens 1 is a zoom lens, zooming can be performed by driving the imaging lens 1 by the lens driving system 2.

絞り3は、撮像レンズ1を介して撮像素子5に入射する光の量を調整するために設けられている。絞り駆動系4は、絞り3を駆動させるための駆動系である。絞り駆動系4を介して絞り3を開閉することによって、撮像素子5への光の入射量が調整される。これにより、撮像素子5の露光量を制御することが可能である。   The diaphragm 3 is provided to adjust the amount of light incident on the image sensor 5 via the imaging lens 1. The aperture drive system 4 is a drive system for driving the aperture 3. The amount of light incident on the image sensor 5 is adjusted by opening and closing the aperture 3 via the aperture drive system 4. Thereby, the exposure amount of the image sensor 5 can be controlled.

撮像素子5は、複数の画素が二次元状に配列されて構成される撮像面の前面に、異なる複数色の色フィルタセグメントが所定の周期配列(例えば、ベイヤー配列)をなして配置されて構成されている。この撮像素子5は、撮像面上に結像された被写体像を電気信号(画像データ)に変換する。撮像素子ドライバ6は、撮像素子5による撮像動作と撮像素子5の画素からの信号の読み出し動作とを実行させる。TG回路7は、撮像素子5、CDS回路8、A/D変換部10の動作タイミングを決定するためのタイミング信号を撮像素子ドライバ6、CDS回路8及びA/D変換部10に供給する。   The imaging element 5 is configured by disposing a plurality of different color filter segments in a predetermined periodic array (for example, a Bayer array) on the front surface of an imaging surface configured by two-dimensionally arranging a plurality of pixels. Has been. The image sensor 5 converts a subject image formed on the imaging surface into an electric signal (image data). The image sensor driver 6 performs an image capturing operation by the image sensor 5 and a signal reading operation from a pixel of the image sensor 5. The TG circuit 7 supplies a timing signal for determining the operation timing of the image sensor 5, the CDS circuit 8, and the A / D converter 10 to the image sensor driver 6, the CDS circuit 8, and the A / D converter 10.

CDS回路8は、TG回路7からのタイミング信号に従って、撮像素子5から出力される画像データのCDS処理を行うことで、画像データにおけるノイズを除去する。増幅回路9は、CDS回路8から出力される画像データをメインCPU20から指定される所定の増幅率で増幅する。A/D変換部10は、増幅回路9からアナログ信号として出力される画像データをデジタル信号に変換する。   The CDS circuit 8 removes noise in the image data by performing CDS processing on the image data output from the image sensor 5 in accordance with the timing signal from the TG circuit 7. The amplifier circuit 9 amplifies the image data output from the CDS circuit 8 at a predetermined amplification factor specified by the main CPU 20. The A / D converter 10 converts the image data output as an analog signal from the amplifier circuit 9 into a digital signal.

データバス11は、デジタルカメラ内部で発生した各種データをデジタルカメラ内の各部に転送するための転送路である。内蔵メモリ12は、A/D変換部10において得られた画像データや、画像処理部13、圧縮/伸張部16において処理された画像データ等の各種データが一時的に記憶される記憶部である。   The data bus 11 is a transfer path for transferring various data generated inside the digital camera to each unit in the digital camera. The built-in memory 12 is a storage unit that temporarily stores various data such as image data obtained by the A / D conversion unit 10 and image data processed by the image processing unit 13 and the compression / decompression unit 16. .

画像処理部13は、同時化処理、ホワイトバランス補正処理、YC分離処理、色変換処理、階調変換処理等の画像処理を施す。また、画像処理部13は、画像合成部13aを有している。画像合成部13aは、後述する時分割撮像により、複数回読み出された撮像素子5の画素の信号(画像データ)によって表される複数コマの画像の同一部分が重なるように、複数コマの画像データを対応付けて合成して1枚のぶれの低減された画像データを生成する。   The image processing unit 13 performs image processing such as synchronization processing, white balance correction processing, YC separation processing, color conversion processing, and gradation conversion processing. In addition, the image processing unit 13 includes an image composition unit 13a. The image compositing unit 13a performs multiple-frame images such that the same portions of the multiple-frame images represented by the pixel signals (image data) of the image sensor 5 read out multiple times are overlapped by time-division imaging described later. The image data is combined in association with each other to generate one image data with reduced blur.

AE処理部14は、被写体の輝度を測定するための測光処理を行う。なお、被写体の輝度は専用のセンサを用いて検出するようにしても良いし、画像データから検出するようにしても良い。AF処理部15は、デジタルカメラから被写体までの距離を測定する。被写体距離は、専用のセンサの出力に基づいて検出するようにしても良いし、フォーカス調整時の撮像レンズ1の繰り出し量から算出するようにしても良い。   The AE processing unit 14 performs a photometric process for measuring the luminance of the subject. Note that the luminance of the subject may be detected using a dedicated sensor, or may be detected from image data. The AF processing unit 15 measures the distance from the digital camera to the subject. The subject distance may be detected based on the output of a dedicated sensor, or may be calculated from the amount of extension of the imaging lens 1 at the time of focus adjustment.

圧縮/伸張部16は、画像データの記録時には、画像処理部13で処理された画像データをJPEG圧縮方式等の所定の圧縮方式に従って圧縮する。また、画像データの再生時には、圧縮/伸張部16は、着脱メモリ17に記録された圧縮画像データを読み出して伸張する。   When recording the image data, the compression / decompression unit 16 compresses the image data processed by the image processing unit 13 according to a predetermined compression method such as a JPEG compression method. When reproducing the image data, the compression / decompression unit 16 reads and decompresses the compressed image data recorded in the removable memory 17.

着脱メモリ17は、デジタルカメラ本体に着脱可能なメモリからなる記録媒体であり、圧縮/伸張部16で圧縮された画像データ等が記録される。図1では、着脱メモリ17を画像データの記録用の記録媒体としているが、必ずしも着脱可能なメモリを記録媒体として用いなくとも良い。   The detachable memory 17 is a recording medium composed of a memory that can be detachably attached to the digital camera body, and stores image data compressed by the compression / decompression unit 16. In FIG. 1, the detachable memory 17 is used as a recording medium for recording image data, but a detachable memory is not necessarily used as a recording medium.

表示部18は、例えば液晶ディスプレイ(LCD)であり、画像処理部13で処理された画像データ等に基づき、各種の画像を表示する。   The display unit 18 is, for example, a liquid crystal display (LCD), and displays various images based on the image data processed by the image processing unit 13.

不揮発性メモリ19は、図1のデジタルカメラの動作に必要な各種パラメータやメインCPU20及びサブCPU23にて実行する各種プログラムを記憶している。メインCPU20は、デジタルカメラ本体の各種シーケンスを統括的に制御する。このメインCPU20は、不揮発性メモリ19に記憶されているプログラムに従い、また不揮発性メモリ19から各種シーケンスに必要なパラメータを読み込み、各処理を実行する。さらに、メインCPU20は、露光時間等を計時するためのタイマカウンタ20aを有している。   The nonvolatile memory 19 stores various parameters necessary for the operation of the digital camera of FIG. 1 and various programs executed by the main CPU 20 and the sub CPU 23. The main CPU 20 comprehensively controls various sequences of the digital camera body. The main CPU 20 reads parameters necessary for various sequences from the nonvolatile memory 19 according to a program stored in the nonvolatile memory 19 and executes each process. Further, the main CPU 20 has a timer counter 20a for measuring the exposure time and the like.

入力部21は、レリーズボタン21a及び画質と関連するパラメータ(画質パラメータ)を入力するための画質入力部21b等を含む操作部材である。この画質入力部21bによって入力された画質パラメータはメインCPU20に読み込まれる。ユーザによって入力部21の何れかの操作部材が操作されることにより、メインCPU20は、ユーザの操作に応じた各種シーケンスを実行する。レリーズボタン21aは、第1レリーズスイッチと第2レリーズスイッチの2段スイッチを有して構成されている。レリーズボタン21aが半押しされて第1レリーズスイッチが閉じた場合に、メインCPU20は、AE処理やAF処理等の撮像準備シーケンスを行う。また、レリーズボタン21aが全押しされて第2レリーズスイッチが閉じた場合に、メインCPU20は撮像シーケンスを実行して撮像を行う。画質入力部21bは、例えば十字キー等の操作部材である。この画質入力部21bによって、着脱メモリ17に記録される圧縮画像データの画質(画像サイズ、圧縮率)を設定することが可能である。したがって、画質入力部21bは画質パラメータ設定部を構成する。   The input unit 21 is an operation member including a release button 21a and an image quality input unit 21b for inputting parameters related to image quality (image quality parameters). The image quality parameters input by the image quality input unit 21b are read into the main CPU 20. When one of the operation members of the input unit 21 is operated by the user, the main CPU 20 executes various sequences according to the user's operation. The release button 21a has a two-stage switch including a first release switch and a second release switch. When the release button 21a is half-pressed and the first release switch is closed, the main CPU 20 performs an imaging preparation sequence such as AE processing and AF processing. Further, when the release button 21a is fully pressed and the second release switch is closed, the main CPU 20 executes an imaging sequence to perform imaging. The image quality input unit 21b is an operation member such as a cross key. The image quality input unit 21b can set the image quality (image size, compression rate) of the compressed image data recorded in the removable memory 17. Therefore, the image quality input unit 21b constitutes an image quality parameter setting unit.

電源部22は、図1に示すデジタルカメラの電源である。メインCPU20は、電源部22より供給される電源を図1に示す各ブロックに供給する。   The power supply unit 22 is a power supply for the digital camera shown in FIG. The main CPU 20 supplies power supplied from the power supply unit 22 to each block shown in FIG.

サブCPU23は、ぶれ補正に関するシーケンスを統括的に制御する。A/D変換部24は、角速度センサ25、26からアナログ信号として出力されるぶれ信号(角速度信号)をデジタル信号に変換してサブCPU23に出力する。角速度センサ25は、図1に示すデジタルカメラのX軸回りの回転角θxの単位時間当たりの変化量である角速度を検出するための角速度センサである。角速度センサ26は、図1に示すデジタルカメラのY軸回りの回転角θyの単位時間当たりの変化量である角速度を検出するためのものである。   The sub CPU 23 comprehensively controls a sequence related to blur correction. The A / D converter 24 converts the shake signal (angular velocity signal) output as an analog signal from the angular velocity sensors 25 and 26 into a digital signal and outputs the digital signal to the sub CPU 23. The angular velocity sensor 25 is an angular velocity sensor for detecting an angular velocity which is a change amount per unit time of the rotation angle θx around the X axis of the digital camera shown in FIG. The angular velocity sensor 26 is for detecting an angular velocity which is a change amount per unit time of the rotation angle θy around the Y axis of the digital camera shown in FIG.

ここで、図2を参照して角速度センサ25、26についてさらに説明する。図2は、デジタルカメラに設定した座標軸と2つの角速度センサ25、26の配置との関係を示す図である。   Here, the angular velocity sensors 25 and 26 will be further described with reference to FIG. FIG. 2 is a diagram illustrating the relationship between the coordinate axes set in the digital camera and the arrangement of the two angular velocity sensors 25 and 26.

図2において、ある時刻における、撮像レンズ1の光軸Oに沿った方向にZ軸を設定する。また、Z軸に垂直な平面上で且つ被写体側からデジタルカメラ100を見たときの左右方向にX軸を設定する。さらに、Z軸とX軸との交点を通り且つ被写体側からデジタルカメラ100を見たときの上下方向にY軸を設定する。なお、Z軸の正方向は被写体側とする。また、X軸の正方向は被写体側からデジタルカメラ100を見たときの右方向とする。さらに、Y軸の正方向は上方向とする。なお、ある時刻においては、図2に示すように、撮像レンズ1の光軸OとZ軸とは一致しているが、別の時刻においてぶれが発生した場合には、撮像レンズ1の光軸Oは一般にZ軸とは一致しない。   In FIG. 2, the Z axis is set in a direction along the optical axis O of the imaging lens 1 at a certain time. Also, the X axis is set in the left-right direction when the digital camera 100 is viewed from the subject side on a plane perpendicular to the Z axis. Further, the Y axis is set in the vertical direction when the digital camera 100 is viewed from the subject side through the intersection of the Z axis and the X axis. The positive direction of the Z axis is the subject side. The positive direction of the X axis is the right direction when the digital camera 100 is viewed from the subject side. Further, the positive direction of the Y axis is the upward direction. Note that, as shown in FIG. 2, the optical axis O and the Z axis of the imaging lens 1 coincide with each other at a certain time, but when a shake occurs at another time, the optical axis of the imaging lens 1. O generally does not coincide with the Z axis.

以上のように設定したX軸、Y軸、Z軸周りの回転角を、それぞれθx、θy、θzとする。図2に示すように、2つの角速度センサ25、26は、X軸、Y軸、Z軸に関連した配置となるように設けられている。   The rotation angles around the X, Y, and Z axes set as described above are θx, θy, and θz, respectively. As shown in FIG. 2, the two angular velocity sensors 25 and 26 are provided so as to be arranged in relation to the X axis, the Y axis, and the Z axis.

以下、図1に示すデジタルカメラの動作について説明する。図3は本実施形態の撮像方法を含むデジタルカメラの撮像動作の流れを示すフローチャートである。   Hereinafter, the operation of the digital camera shown in FIG. 1 will be described. FIG. 3 is a flowchart showing the flow of the imaging operation of the digital camera including the imaging method of the present embodiment.

まず、メインCPU20は、レリーズボタン21aが半押しされて第1レリーズスイッチが閉じたか否かを判定する(ステップS101)。ステップS101の判定において、第1レリーズスイッチが閉じるまでメインCPU20は、ステップS101の判定を継続する。一方、ステップS101の判定において、第1レリーズスイッチが閉じていれば、メインCPU20は、AE処理部14による測光処理(被写体輝度の測定)を実行する(ステップS102)。その後、メインCPU20は、AE処理部14における測光結果に基づいて、アペックス演算により露光時間(Texp)を演算する(ステップS103)。ここで、露光時間Texpは、通常撮像における標準露光時間である。この露光時間Texpは、後述する時分割撮像における複数コマの撮像の合成露光時間とほぼ等しい。次に、メインCPU20は、AF処理部15の出力に基づいて、撮像レンズ1のフォーカスを調整する(ステップS104)。なお、このときにメインCPU20は、AF処理部15で演算される被写体距離を保持しておく。   First, the main CPU 20 determines whether or not the release button 21a is half-pressed and the first release switch is closed (step S101). In the determination in step S101, the main CPU 20 continues the determination in step S101 until the first release switch is closed. On the other hand, if it is determined in step S101 that the first release switch is closed, the main CPU 20 executes photometric processing (measurement of subject brightness) by the AE processing unit 14 (step S102). Thereafter, the main CPU 20 calculates an exposure time (Texp) by apex calculation based on the photometric result in the AE processing unit 14 (step S103). Here, the exposure time Texp is a standard exposure time in normal imaging. This exposure time Texp is substantially equal to the combined exposure time for imaging a plurality of frames in time-division imaging described later. Next, the main CPU 20 adjusts the focus of the imaging lens 1 based on the output of the AF processing unit 15 (step S104). At this time, the main CPU 20 holds the subject distance calculated by the AF processing unit 15.

次に、メインCPU20は、レリーズボタン21aが全押しされて第2レリーズスイッチが閉じたか否かを判定する(ステップS105)。ステップS105の判定において、第2レリーズスイッチが閉じていなければ処理がステップS102に戻る。この場合に、メインCPU20はAE処理部14による測光を再び実行する。一方、ステップS105の判定において、第2レリーズスイッチが閉じていれば、メインCPU20は、TG回路7を介して撮像素子5の露光を開始させる(ステップS106)。これにより、撮像素子5の各画素において被写体像に応じた電荷の蓄積が開始される。   Next, the main CPU 20 determines whether or not the release button 21a is fully pressed and the second release switch is closed (step S105). If it is determined in step S105 that the second release switch is not closed, the process returns to step S102. In this case, the main CPU 20 performs the photometry by the AE processing unit 14 again. On the other hand, if it is determined in step S105 that the second release switch is closed, the main CPU 20 starts exposure of the image sensor 5 via the TG circuit 7 (step S106). Thereby, accumulation of electric charge according to the subject image is started in each pixel of the image sensor 5.

また、第2レリーズスイッチが閉じた後は、図3の処理とは独立にぶれ量の演算が行われる。ステップS106以降の処理においては、ぶれ量演算の処理が大きく係わってくるので、ここでぶれ量の演算について説明する。   Further, after the second release switch is closed, the amount of shake is calculated independently of the processing of FIG. In the processing after step S106, the shake amount calculation processing is greatly involved, and here, the shake amount calculation will be described.

第2レリーズスイッチが閉じた後、サブCPU23は、角速度センサ25、26から各出力される検出信号を、それぞれA/D変換部24によりデジタルデータとして取り込む。また、サブCPU23は、メインCPU20を介して撮像レンズ1の焦点距離fに関する情報を取得する(例えば、撮像レンズ1がズームレンズである場合には、メインCPU20がレンズ駆動系2を介して情報の取得を行い、あるいは、撮像レンズ1が交換式のレンズ鏡筒である場合には通信接点等を介して情報の取得を行う)。さらに、サブCPU23は、被写体距離情報をメインCPU20から取得する。これら、焦点距離fの情報と被写体距離情報とは、後述するX方向のぶれ量の演算及びY方向のぶれ量の演算に用いられる。   After the second release switch is closed, the sub CPU 23 takes in the detection signals output from the angular velocity sensors 25 and 26 as digital data by the A / D converter 24, respectively. Further, the sub CPU 23 acquires information regarding the focal length f of the imaging lens 1 via the main CPU 20 (for example, when the imaging lens 1 is a zoom lens, the main CPU 20 transmits information via the lens driving system 2). Or when the imaging lens 1 is an interchangeable lens barrel, information is acquired via a communication contact or the like). Further, the sub CPU 23 acquires subject distance information from the main CPU 20. The information on the focal length f and the subject distance information are used for the calculation of the shake amount in the X direction and the calculation of the shake amount in the Y direction, which will be described later.

次に、図4を参照して、ぶれ量とぶれ補正量との関係について説明する。
図4は、デジタルカメラ100が回転角θxだけぶれた場合の、撮像面上における被写体63の像の移動状態を示す図である。
Next, the relationship between the shake amount and the shake correction amount will be described with reference to FIG.
FIG. 4 is a diagram illustrating a moving state of the image of the subject 63 on the imaging surface when the digital camera 100 is shaken by the rotation angle θx.

デジタルカメラ100がぶれ等によって回転角θxだけ回転したとすると、これに伴って撮像レンズ1が参照符号1’に示す位置まで回転して移動するとともに、撮像素子5の撮像面61も角度θxだけ傾いたC−D面の位置に移動する。また、ぶれが発生していないときには参照符号62に示す位置にあった被写体63の像が、回転角θxのぶれが発生した後には、撮像面C−D上の参照符号62’に示す位置に移動する。   Assuming that the digital camera 100 is rotated by the rotation angle θx due to shaking or the like, the imaging lens 1 is rotated and moved to the position indicated by reference numeral 1 ′ along with this, and the imaging surface 61 of the imaging element 5 is also moved by the angle θx. Move to the tilted CD plane position. Further, the image of the subject 63 that was at the position indicated by reference numeral 62 when no blur has occurred is located at the position indicated by reference numeral 62 ′ on the imaging surface CD after the blur of the rotation angle θx occurs. Moving.

ここで、撮像レンズ1の焦点距離をf、ぶれが発生していないときの撮像レンズ1の物空間焦点から被写体63までの距離をL、ぶれが発生していないときの撮像レンズ1の像空間焦点から像位置までの距離をL’、ぶれによる像位置の移動量をΔY、とそれぞれすると、図4に示すような幾何学的位置関係と、次の(式1)に示すニュートン(Newton)の結像公式

Figure 2009296561
Here, the focal length of the imaging lens 1 is f, the distance from the object space focal point of the imaging lens 1 to the subject 63 when no blurring occurs, and the image space of the imaging lens 1 when blurring does not occur. When the distance from the focal point to the image position is L ′ and the amount of movement of the image position due to blur is ΔY, respectively, the geometric positional relationship as shown in FIG. 4 and the Newton shown in the following (Expression 1) Imaging formula
Figure 2009296561

とを用いることにより、移動量ΔYは、次の(式2)に示すように算出される。

Figure 2009296561
Is used to calculate the movement amount ΔY as shown in the following (Equation 2).
Figure 2009296561

ここで、(式2)におけるβは撮像倍率を示し、β=f/Lである。また、(式2)を算出するに当たっては、θxが微小量であるとして、θxの1次のオーダーまでの近似を行っている。また、(式2)における焦点距離fは、上述したように、メインCPU20を介して取得され、撮像レンズ1のレンズ情報としてサブCPU23に入力される。さらに、βを算出するために必要な被写体距離Lは、AF処理部15から取得することができる。さらに、回転角θxは、角速度センサ25からの出力に基づいて算出することができる。   Here, β in (Expression 2) indicates an imaging magnification, and β = f / L. In calculating (Expression 2), it is assumed that θx is a minute amount, and approximation to the first order of θx is performed. Further, as described above, the focal length f in (Expression 2) is acquired via the main CPU 20 and input to the sub CPU 23 as lens information of the imaging lens 1. Furthermore, the subject distance L necessary for calculating β can be acquired from the AF processing unit 15. Further, the rotation angle θx can be calculated based on the output from the angular velocity sensor 25.

(式2)に基づいて得られる移動量ΔYに係る実質的な補正を行うことにより、デジタルカメラにぶれが発生したとしても、撮像素子5を介して出力される画像データによって表される画像にぶれの影響が生じないようにすることができる。   Even if blurring occurs in the digital camera by performing substantial correction related to the movement amount ΔY obtained based on (Expression 2), the image represented by the image data output through the image sensor 5 is displayed. It is possible to prevent the influence of shaking from occurring.

なお、上述したように、角度θxは微小量であるために、図4に示すように撮像面C−DがX軸周りにY軸に対して角度θxだけ傾いても、撮像面の傾きにより生じる像への影響は、上述した移動量ΔY以外には問題になることはない。   As described above, since the angle θx is a minute amount, even if the imaging surface CD is inclined about the X axis by the angle θx around the X axis as shown in FIG. The effect on the generated image is not a problem other than the movement amount ΔY described above.

また、デジタルカメラ100がY軸回りに回転角θyだけ回転したときの像位置の移動量ΔXも、(式2)と同様に、次の(式3)に示すように求められる。

Figure 2009296561
Further, the amount of movement ΔX of the image position when the digital camera 100 rotates about the Y axis by the rotation angle θy is also obtained as shown in the following (Expression 3), similarly to (Expression 2).
Figure 2009296561

ここで、(式2)の両辺を時間で微分することにより、次の(式4)が得られる。

Figure 2009296561
Here, the following (Expression 4) is obtained by differentiating both sides of (Expression 2) with respect to time.
Figure 2009296561

(式4)の右辺d(θx)/dtは、X軸周りの角速度そのものであるために、角速度センサ25の出力をそのまま用いることが可能である。また、(式4)の左辺d(ΔY)/dtは、d(θx)/dtの角速度が生じた場合のY軸方向の像移動速度Vyとなる。   Since the right side d (θx) / dt of (Expression 4) is the angular velocity itself around the X axis, the output of the angular velocity sensor 25 can be used as it is. Further, the left side d (ΔY) / dt in (Expression 4) is the image movement speed Vy in the Y-axis direction when an angular velocity of d (θx) / dt occurs.

同様に、Y軸回りに回転角θyだけぶれが発生したときのX軸方向の像位置の移動量ΔXに関しても、(式3)の両辺を時間で微分することにより、次の(式5)が得られる。

Figure 2009296561
Similarly, with respect to the movement amount ΔX of the image position in the X-axis direction when a shake occurs around the Y-axis by the rotation angle θy, the following (Expression 5) is obtained by differentiating both sides of (Expression 3) with respect to time. Is obtained.
Figure 2009296561

(式5)の右辺d(θy)/dtは、Y軸周りの角速度そのものであるために、角速度センサ26の出力をそのまま用いることが可能である。また、(式5)の左辺d(ΔX)/dtは、d(θy)/dtの角速度が生じた場合のX軸方向の像移動速度Vxとなる。   Since the right side d (θy) / dt of (Expression 5) is the angular velocity itself around the Y axis, the output of the angular velocity sensor 26 can be used as it is. Further, the left side d (ΔX) / dt of (Expression 5) is the image moving speed Vx in the X-axis direction when an angular velocity of d (θy) / dt occurs.

今、所定時間ΔT(ΔTは、A/D変換部24の出力をデジタル信号に変換するサンプリング間隔である。このΔTは、35mmフィルムカメラの撮影レンズに換算した撮影レンズ1の焦点距離をf[mm]とするとき、1/f[s]と同じか、またはそれよりも短い時間であることが望ましい)周期で検出した角速度センサ25の出力d(θx)/dtが、ωx1、ωx2、ωx3、…、ωx(n-1)、ωxnであったとすると、n×ΔTの時間が経過した後のY軸方向の像位置の移動量ΔYは、次の(式6)に示すように与えられる。

Figure 2009296561
Now, the predetermined time ΔT (ΔT is a sampling interval for converting the output of the A / D conversion unit 24 into a digital signal. This ΔT is the focal length of the photographing lens 1 converted to the photographing lens of a 35 mm film camera f [ mm], the time is preferably equal to or shorter than 1 / f [s]. The output d (θx) / dt of the angular velocity sensor 25 detected in the period is ωx1, ωx2, ωx3. ,..., .Omega.x (n-1), .omega.xn, the amount of movement .DELTA.Y of the image position in the Y-axis direction after elapse of n.times..DELTA.T is given as shown in the following (Expression 6). .
Figure 2009296561

同様に、所定時間ΔT毎に(所定時間ΔT周期で)検出した角速度センサ26の出力d(θy)/dtが、ωy1、ωy2、ωy3、…、ωy(n-1)、ωynであったとすると、n×ΔTの時間が経過した後のX軸方向の像位置の移動量ΔXは、次の(式7)に示すように与えられる。

Figure 2009296561
Similarly, if the output d (θy) / dt of the angular velocity sensor 26 detected at every predetermined time ΔT (in a predetermined time ΔT cycle) is ωy1, ωy2, ωy3,..., Ωy (n−1), ωyn. The amount of movement ΔX of the image position in the X-axis direction after elapse of n × ΔT is given as shown in the following (Expression 7).
Figure 2009296561

以上のように、撮像素子5によって、n×ΔTの時間間隔で露光された複数コマの撮像における像の移動量(即ちぶれ量)は、(式6)及び(式7)により計算することができる。したがって、これらの式により算出されたぶれ量ΔX、ΔYに基づいて、それぞれの画像のぶれを補正するように、それぞれの画像に対応する画像データの各画素のデータ同士を対応付けて画像データの合成処理を行うことにより、ぶれの補正された1つの画像データを生成することが可能となる。   As described above, the moving amount of the image (that is, the amount of blur) in the imaging of a plurality of frames exposed at the time interval of n × ΔT by the imaging device 5 can be calculated by (Equation 6) and (Equation 7). it can. Therefore, based on the blur amounts ΔX and ΔY calculated by these equations, the pixel data of the image data corresponding to each image is associated with each other so that the blur of each image is corrected. By performing the synthesizing process, it is possible to generate one image data in which blurring is corrected.

図5は、サブCPU23により移動量ΔX、ΔY等を算出する処理の流れを示すフローチャートである。上述したように、図5の処理は、レリーズボタン21aの半押しによって第2レリーズスイッチが閉じたときから露光が終了するまでの間、図3に示した処理とは独立な処理として実行されるようになっている。   FIG. 5 is a flowchart showing a flow of processing for calculating the movement amounts ΔX, ΔY and the like by the sub CPU 23. As described above, the process of FIG. 5 is executed as a process independent of the process shown in FIG. 3 from when the second release switch is closed by half-pressing the release button 21a until the exposure is completed. It is like that.

図5の処理において、サブCPU23は、第2レリーズスイッチが閉じたか否かを判定している(ステップS401)。そして、第2レリーズスイッチが閉じるまではステップS401の判定を繰り返し行う。   In the process of FIG. 5, the sub CPU 23 determines whether or not the second release switch is closed (step S401). Then, the determination in step S401 is repeated until the second release switch is closed.

ステップS401の判定において、第2レリーズスイッチが閉じた場合に、サブCPU23は、撮像レンズ1の焦点距離fと被写体距離Lとを取得する(ステップS402)。   If it is determined in step S401 that the second release switch is closed, the sub CPU 23 acquires the focal length f and the subject distance L of the imaging lens 1 (step S402).

これらの焦点距離fと被写体距離Lとは、例えば図5に示す処理の中において演算すれば良い。また、より高速なサイクルでぶれ量を演算するために、別途のプロセッサ等を用いて焦点距離fと被写体距離Lとを演算しておき、サブCPU23はこの演算されたデータをステップS402において取得するようにすると良い。これにより、処理の高速化を図るとともに、実際のぶれに対してリアルタイムに追従することが可能となる。 These focal distance f and subject distance L may be calculated in the process shown in FIG. Further, in order to calculate the shake amount at a faster cycle, the focal distance f and the subject distance L are calculated using a separate processor or the like, and the sub CPU 23 acquires the calculated data in step S402. It is good to do so. As a result, it is possible to increase the processing speed and to follow the actual shake in real time.

次に、サブCPU23は、A/D変換部24を介して角速度センサ25、26の出力を読み込むことにより、角速度ωx、ωyを取得する(ステップS403)。その後、サブCPU23は、取得した角速度ωx、ωyを、前回取得した値までの角速度の累積加算値に加算することにより、今回検出した値までの角速度の累積加算値を演算する(ステップS404)。   Next, the sub CPU 23 acquires the angular velocities ωx and ωy by reading the outputs of the angular velocity sensors 25 and 26 via the A / D converter 24 (step S403). Thereafter, the sub CPU 23 calculates the cumulative addition value of the angular velocity up to the value detected this time by adding the acquired angular velocity ωx, ωy to the cumulative addition value of the angular velocity up to the previously acquired value (step S404).

その後、サブCPU23は、ステップS404で演算した累積加算値を、(式6)、(式7)にそれぞれ代入することにより、時分割撮像における複数コマの撮像の内の最初の撮像終了時点からの像位置の移動量ΔY、ΔXをそれぞれ算出する(ステップS405)。   Thereafter, the sub CPU 23 substitutes the cumulative addition value calculated in step S404 into (Expression 6) and (Expression 7), respectively, so that the time from the first image capturing end point in the multiple frame image capturing in the time-division image capturing is calculated. The movement amounts ΔY and ΔX of the image position are calculated (step S405).

次に、サブCPU23は、Px=「ΔX/Lx」と、Py=「ΔY/Ly」と、を演算する(ステップS406)。ここで、Lx、Lyは画素のX方向、Y方向のサイズをそれぞれ表し、「」は小数以下を四捨五入した整数値を意味するものとする。したがって、Px、Pyは、最初の時分割画像の撮像終了時点からの像位置の移動量ΔX、ΔYを画素単位で表したものとなる。   Next, the sub CPU 23 calculates Px = “ΔX / Lx” and Py = “ΔY / Ly” (step S406). Here, Lx and Ly represent the size of the pixel in the X direction and the Y direction, respectively, and “” means an integer value obtained by rounding off fractions. Therefore, Px and Py represent the movement amounts ΔX and ΔY of the image position from the end of imaging of the first time-division image in units of pixels.

続いて、サブCPU23は、Px、Pyを、各対応するメモリ〔Px〕、〔Py〕にそれぞれ記憶させる(ステップS407)。その後、サブCPU23は、露光時間Texpの露光が終了しているか否かを判定する(ステップS408)。ステップS408の判定において、露光が終了していない場合には処理がステップ403に戻る。この場合に、サブCPU23は、角速度ωx、ωyの取得以後の処理を繰り返す。一方、ステップS408において、露光が終了した場合に、サブCPU23は、図5に示す処理を終了させる。したがって、角速度センサ25,角速度センサ26、A/D変換部24、サブCPU23はぶれ量検出部を構成する。   Subsequently, the sub CPU 23 stores Px and Py in the corresponding memories [Px] and [Py], respectively (step S407). Thereafter, the sub CPU 23 determines whether or not the exposure for the exposure time Texp has been completed (step S408). If it is determined in step S408 that the exposure has not ended, the process returns to step 403. In this case, the sub CPU 23 repeats the processes after obtaining the angular velocities ωx and ωy. On the other hand, when the exposure is completed in step S408, the sub CPU 23 ends the process shown in FIG. Therefore, the angular velocity sensor 25, the angular velocity sensor 26, the A / D conversion unit 24, and the sub CPU 23 constitute a shake amount detection unit.

ここで、図3の説明に戻る。ステップS106において、撮像素子5の露光を開始させた後、メインCPU20は、露光時間を計時するためのタイマカウンタ20aのカウントを開始させる(ステップS107)。次に、メインCPU20は、変数の初期設定を行う。ここでは、後述する演算に必要な変数Px0、Py0を記憶するためのメモリ〔Px0〕、〔Py0〕にそれぞれ0を記憶させる。本実施形態においては、最初の時分割撮像の露光開始時からの累積ぶれ量を求め、この累積ぶれ量から前回の時分割撮像による画像データを読み出すまでの累積ぶれ量を減算することにより、それぞれの時分割撮像の露光時間内のぶれ量を求めている。変数Px0、Py0は、前回の時分割撮像による画像データを読み出すまでのX方向、Y方向の累積ぶれ量である。また、時分割撮像において、前回撮像した画像データを撮像素子5から読み出すまでの露光時間Tm0を記憶するためのメモリ〔Tm0〕に0を記憶させる。また、時分割撮像の回数nを記憶するためのメモリ〔n〕に0を記憶させる。さらに、増幅回路9の増幅率Aを記憶するためのメモリ〔A〕に1を記憶させる。   Returning to the description of FIG. In step S106, after the exposure of the image sensor 5 is started, the main CPU 20 starts counting of the timer counter 20a for measuring the exposure time (step S107). Next, the main CPU 20 performs initial setting of variables. Here, 0 is stored in each of the memories [Px0] and [Py0] for storing variables Px0 and Py0 necessary for the calculation described later. In the present embodiment, by calculating the cumulative blur amount from the start of exposure of the first time-division imaging, and subtracting the cumulative blur amount until reading the image data by the previous time-division imaging from this cumulative blur amount, respectively. The amount of blur within the exposure time of the time-division imaging is obtained. Variables Px0 and Py0 are cumulative blur amounts in the X and Y directions until image data obtained by the previous time-division imaging is read. Further, in time-division imaging, 0 is stored in a memory [Tm0] for storing an exposure time Tm0 until image data captured last time is read from the image sensor 5. Further, 0 is stored in the memory [n] for storing the number n of time-division imaging. Further, 1 is stored in the memory [A] for storing the amplification factor A of the amplifier circuit 9.

次に、メインCPU20は、Px−Px0、Py−Py0を演算し、その演算結果をそれぞれメモリ〔Sx〕、〔Sy〕に記憶させる(ステップS109)。   Next, the main CPU 20 calculates Px−Px0 and Py−Py0 and stores the calculation results in the memories [Sx] and [Sy], respectively (step S109).

その後、メインCPU20は、タイマカウンタ20aのカウント値Tm(Tmは、最初の時分割撮像開始時刻(ステップS107の時刻とほぼ同じ)から最新の時分割画像データの累積露光時間に等しい)から、増幅率設定処理(詳細は後述する)の中で設定した前回の画像データ読み出し前のタイマカウンタ20aの値Tm0(Tm0は最初の時分割撮像開始時刻から前回の時分割画像データ読み出しの時刻までの累積露光時間に等しい)を減算した時間Tm−Tm0(最新の時分割撮像における露光時間に等しい)を、ステップS103で演算した通常撮像における標準露光時間Texpで除算した値(Tm−Tm0)/Texp)が、予め不揮発性メモリ19に記憶された定数k1より小さいか否かを判定する(ステップS110)。ここで、(Tm−Tm0)/Texpは、最新の時分割撮像における画像データのレベル(露光量)の目安を与えるものである。(Tm−Tm0)/Texpがkよりも小さいときは画像データのS/Nが許容できないレベルであることを意味する。この場合には、画像データの読み出しが行われずに、ステップS111に分岐する。そして、メインCPU20は、TmがTexp以上か否かを判定する(ステップS111)。ステップS111の判定において、TmがTexp以上のときは、ステップS116以降の画像データの読み出し(後述する)を行う。後述することから明らかになるが、ステップ113以降の処理では、ぶれ量が所定量以上にならないと画像データの読み出しが行われない。しかしながらぶれが発生していない場合にも画像データの読み出しを行う必要がある。このため、ステップS111の判定を設けておき、ぶれが発生しなくとも、露光時間TmがTexp以上となったら、画像データを読み出すようにしている。したがって、本実施形態においては、ぶれが全く発生しない場合は、通常撮像と同じように撮像が行われることになる。また、ステップS111の判定において、Tm≧Texpでないときには露光量が不足しているのでステップS109に戻って処理が繰り返される。   Thereafter, the main CPU 20 amplifies from the count value Tm of the timer counter 20a (Tm is equal to the cumulative exposure time of the latest time-division image data from the first time-division imaging start time (substantially the same as the time of step S107)). The value Tm0 of the timer counter 20a before reading the previous image data set in the rate setting process (details will be described later) (Tm0 is the accumulation from the first time-division imaging start time to the time of the previous time-division image data reading) (Tm−Tm0) / Texp) obtained by dividing the time Tm−Tm0 (equal to the exposure time in the latest time-division imaging) by the standard exposure time Texp in normal imaging calculated in step S103. Is smaller than a constant k1 stored in advance in the nonvolatile memory 19 (step S110). Here, (Tm−Tm0) / Texp gives an indication of the level (exposure amount) of image data in the latest time-division imaging. When (Tm−Tm0) / Texp is smaller than k, it means that the S / N of the image data is at an unacceptable level. In this case, the image data is not read and the process branches to step S111. Then, the main CPU 20 determines whether or not Tm is equal to or higher than Texp (step S111). If Tm is greater than or equal to Texp in the determination in step S111, image data is read (described later) after step S116. As will be apparent from the description below, in the processing from step 113 onward, image data is not read out unless the amount of blur is greater than a predetermined amount. However, it is necessary to read out the image data even when there is no blurring. For this reason, the determination in step S111 is provided, and image data is read out when the exposure time Tm is equal to or greater than Texp even if no blurring occurs. Therefore, in the present embodiment, when no blur occurs at all, imaging is performed in the same manner as normal imaging. In step S111, if Tm ≧ Texp is not satisfied, the exposure amount is insufficient, so the process returns to step S109 and the process is repeated.

また、ステップS110の判定において、(Tm−Tm0)/Texpがk1よりも小さくないときは、画像データのS/Nが許容レベルにある。この場合に、メインCPU20は、Sxが許容ぶれ量Sx0より大きいか、又はSyが許容ぶれ量Sy0よりも大きいかを判定する(ステップS112)。   If (Tm−Tm0) / Texp is not smaller than k1 in the determination in step S110, the S / N of the image data is at the allowable level. In this case, the main CPU 20 determines whether Sx is larger than the allowable shake amount Sx0 or whether Sy is larger than the allowable shake amount Sy0 (step S112).

ここで、ステップS112の許容ぶれ量について説明する。まず、撮像面での長さで表したX方向およびY方向の許容ぶれ量をそれぞれLx0、Ly0とする。そして例えば、24×36[mm]のサイズの撮像素子によって得られた画像を18×24[cm](所謂6切判)のプリント紙に6倍の倍率で引き伸ばして40[cm]の距離から観察したとする。視力1.0の人の視覚の2点識別分解能はおよそ1[分]とされているので、プリント紙に引き伸ばされた画像の許容錯乱円は、40[cm]×1[分]×2π/(360×60[分])=116[μm]となる。したがって、撮像素子の撮像面における許容錯乱円は116[μm]/6=19[μm]となる。本実施形態では、このような許容錯乱円の大きさに基づいて許容ぶれ量Sx0、Sy0を設定する。   Here, the allowable shake amount in step S112 will be described. First, the allowable blur amounts in the X direction and the Y direction represented by the length on the imaging surface are Lx0 and Ly0, respectively. For example, an image obtained by an image sensor having a size of 24 × 36 [mm] is stretched at a magnification of 6 times on a print paper of 18 × 24 [cm] (so-called 6-cut) from a distance of 40 [cm]. Suppose you observe. Since the visual two-point discrimination resolution of a person with a visual acuity of 1.0 is about 1 [min], the allowable circle of confusion of the image stretched on the print paper is 40 [cm] × 1 [min] × 2π / (360 × 60 [min]) = 116 [μm]. Therefore, the allowable circle of confusion on the imaging surface of the imaging device is 116 [μm] / 6 = 19 [μm]. In the present embodiment, the allowable blur amounts Sx0 and Sy0 are set based on the size of the allowable circle of confusion.

なお、本実施形態におけるデジタルカメラの画質モードは、図6に一例として示すように、画像サイズと圧縮率とを選択して選べるようになっている。許容ぶれ量は、画像サイズ、圧縮率、画像の引き伸ばし倍率、及び観察距離等に依存するものである。本実施形態では、例えば、画像サイズ1600画素×1200画素、且つ圧縮率がノーマルのときの許容ぶれ量を上述した許容錯乱円の大きさに等しい19[μm]に設定する。画像サイズ1600画素×1200画素は、許容ぶれ量19[μm]のぶれが発生しても、本来の撮像素子の解像度を損なわないレベルの画像サイズである。他の画像サイズに対してどのような許容ぶれ量を設定するかは、画像の引き伸ばし倍率や観察距離にも依存するが、本実施形態においては、画像サイズに反比例した許容ぶれ量を設定する。また、同じ画像サイズでも圧縮率が高いと画質は低下する。したがって、圧縮率が高いほど、許容ぶれ量を大きくするように設定する。   Note that the image quality mode of the digital camera in this embodiment can be selected by selecting an image size and a compression rate, as shown in FIG. 6 as an example. The allowable blur amount depends on the image size, compression ratio, image enlargement magnification, observation distance, and the like. In the present embodiment, for example, the allowable blur amount when the image size is 1600 pixels × 1200 pixels and the compression rate is normal is set to 19 [μm] equal to the size of the allowable circle of confusion described above. The image size of 1600 pixels × 1200 pixels is an image size at a level that does not impair the resolution of the original image sensor even when a blur of an allowable blur amount of 19 [μm] occurs. Although what allowable blur amount is set for other image sizes depends on the enlargement magnification and the observation distance of the image, in this embodiment, the allowable blur amount is set in inverse proportion to the image size. In addition, even if the image size is the same, the image quality deteriorates if the compression rate is high. Therefore, the higher the compression ratio, the larger the allowable blur amount is set.

以上説明した許容ぶれ量を単位画素の水平方向の長さ(Lx)と垂直方向の長さ(Ly)で除算することによって、画素単位で表したX方向、Y方向の許容ぶれ量Sx0、Sy0を計算する。そして、この許容ぶれ量Sx0、Sy0を画像サイズや圧縮率毎に予め不揮発性メモリ19に記憶しておく。   By dividing the allowable blur amount described above by the horizontal length (Lx) of the unit pixel and the vertical length (Ly), the allowable blur amounts Sx0, Sy0 in the X direction and the Y direction expressed in pixel units. Calculate The allowable blur amounts Sx0 and Sy0 are stored in advance in the nonvolatile memory 19 for each image size and compression rate.

ステップS112の判定において、Sxが許容ぶれ量Sx0より大きいか、Syが許容ぶれ量Sy0よりも大きい場合に、メインCPU20は、Sx/Sx0が不揮発性メモリ19に記憶されている定数k2より大きいか、又はSy/Sy0がk2より大きいか否かを判定する(ステップS113)。ステップS113の判定において、Sx/Sx0がk2より大きいか、又はSy/Sy0がk2より大きい場合には、ぶれが許容レベルより大きいとして、メインCPU20は表示部18に警告表示を行う(ステップS114)。なお、警告表示の代わりに警告音であっても構わない。ステップS113の判定処理を設けたのは次の理由による。ぶれを補正可能な限界は、時分割撮像において撮像素子から複数コマの画像データを読み出す周期に依存する。読み出し周期が長いと時分割撮像におけるぶれ量が許容量に比べて大きくなりやすい。ぶれ量が許容量に対してどれくらい大きくなったときに警告表示をするかは設計的な問題であるが、たとえばk2=2にするとよい。k2=1では頻繁に警告表示がされて煩わしいし、k2が大きすぎると商品の信頼性が問われるからである。   If it is determined in step S112 that Sx is greater than the allowable shake amount Sx0 or Sy is greater than the allowable shake amount Sy0, the main CPU 20 determines whether Sx / Sx0 is greater than the constant k2 stored in the nonvolatile memory 19 Or whether Sy / Sy0 is larger than k2 (step S113). If it is determined in step S113 that Sx / Sx0 is greater than k2 or Sy / Sy0 is greater than k2, the main CPU 20 displays a warning on the display unit 18 assuming that the shake is greater than the allowable level (step S114). . A warning sound may be used instead of the warning display. The determination process in step S113 is provided for the following reason. The limit at which blurring can be corrected depends on the period of reading out image data of a plurality of frames from the image sensor in time-division imaging. If the readout cycle is long, the amount of blur in time-division imaging tends to be larger than the allowable amount. It is a design problem whether the warning amount is displayed with respect to the permissible amount, but it is preferable to set k2 = 2, for example. This is because k2 = 1 is troublesome because warnings are frequently displayed, and if k2 is too large, the reliability of the product is questioned.

また、ステップS113の判定において、Sx/Sx0及びSy/Sy0が何れもk2以下のときに、メインCPU20は、増幅回路9の増幅率設定のサブルーチンを実行する(ステップS115)。時分割撮像における露光量は通常撮像における露光量に比べて少ないので、時分割撮像における画像データを増幅回路9によって増幅する。これにより、時分割撮像時におけるA/D変換部10への入力信号レベルを通常撮像時の入力信号レベルとほぼ等しくし、A/D変換部10のA/D変換に伴う量子化誤差を小さくすることができる。   In the determination at step S113, when both Sx / Sx0 and Sy / Sy0 are equal to or less than k2, the main CPU 20 executes a subroutine for setting the amplification factor of the amplifier circuit 9 (step S115). Since the exposure amount in the time division imaging is smaller than the exposure amount in the normal imaging, the image data in the time division imaging is amplified by the amplification circuit 9. As a result, the input signal level to the A / D conversion unit 10 during time-division imaging is substantially equal to the input signal level during normal imaging, and the quantization error associated with A / D conversion of the A / D conversion unit 10 is reduced. can do.

ここで、増幅率設定のサブルーチンについてさらに説明する。図7は、増幅率設定のサブルーチンを示すフローチャートである。メインCPU20は、最初の時分割撮像における露光開始時からの累積露光時間Tmから、前回の時分割撮像における画像データを読み出すまでの露光時間Tm0を減算し、この値(この値は、上述したように、最新の時分割撮像における露光時間を示すものとなる)を、変数ΔTexpを記憶するためのメモリ〔ΔTexp〕に記憶させる(ステップS501)。次に、メインCPU20は、Tmを新たな変数Tm0の値としてメモリ〔Tm0〕に記憶させる(ステップS502)。次に、メインCPU20は、Texp/ΔTexpを、増幅率Aを記憶するためのメモリ〔A〕に記憶させる(ステップS502)。その後、メインCPU20は、増幅回路9の増幅率をAに設定する(ステップS504)。このように増幅率を設定しておくことにより、画像データの読み出し時には、撮像素子5からの画像データがTexp/ΔTexp倍される。これによりA/D変換部10に入力される画像データのレベルが通常撮像時のレベルとほぼ等しくなる。   Here, the subroutine for setting the amplification factor will be further described. FIG. 7 is a flowchart showing a subroutine for setting the amplification factor. The main CPU 20 subtracts the exposure time Tm0 until the image data in the previous time-division imaging is read from the cumulative exposure time Tm from the start of exposure in the first time-division imaging, and this value (this value is as described above). Is stored in a memory [ΔTexp] for storing a variable ΔTexp (step S501). Next, the main CPU 20 stores Tm in the memory [Tm0] as a value of a new variable Tm0 (step S502). Next, the main CPU 20 stores Texp / ΔTexp in the memory [A] for storing the amplification factor A (step S502). Thereafter, the main CPU 20 sets the amplification factor of the amplifier circuit 9 to A (step S504). By setting the amplification factor in this way, the image data from the image sensor 5 is multiplied by Texp / ΔTexp when reading the image data. As a result, the level of the image data input to the A / D conversion unit 10 becomes substantially equal to the level during normal imaging.

再び図3に戻って説明を続ける。ステップS115の増幅率設定の後、メインCPU20は、前回画像データを読み出すまでの累積ぶれ量Px0、Py0を記憶するメモリ〔Px0〕、〔Py0〕に露光開始時からのぶれ量Px、Pyを記憶させることにより、Px0、Py0を更新する(ステップS116)。次に、メインCPU20は、TG回路7を制御して撮像素子5からの画像データの読み出しを開始させる(ステップS117)。次に、メインCPU20は、今回読み出された画像データと、既にぶれが補正されて合成されている画像データとの画像合成を行う(ステップS118)。したがって、メインCPU20、撮像素子ドライバ6、TG回路7は画素読出制御部を構成する。   Returning to FIG. 3 again, the description will be continued. After setting the amplification factor in step S115, the main CPU 20 stores the blur amounts Px and Py from the start of exposure in the memories [Px0] and [Py0] that store the cumulative blur amounts Px0 and Py0 until the previous image data is read. By doing so, Px0 and Py0 are updated (step S116). Next, the main CPU 20 controls the TG circuit 7 to start reading image data from the image sensor 5 (step S117). Next, the main CPU 20 performs image composition of the image data read this time and image data that has already been corrected and combined (step S118). Therefore, the main CPU 20, the image sensor driver 6, and the TG circuit 7 constitute a pixel readout control unit.

画像合成のサブルーチンについて図8を参照してさらに説明する。図8は、画像合成のサブルーチンを示すフローチャートである。まず、メインCPU20は、時分割撮像の回数を示す変数nが0か否かを判定する(ステップS601)。ステップS601の判定において、n=0のときは、初回の時分割撮像による画像データが読み出された場合である。このとき、メインCPU20は、撮像素子5を介して読み出され、A/D変換部10で得られた画像データAを内蔵メモリ12に記憶させる(ステップS602)。この内蔵メモリ12に記憶された画像データによって表される画像を画像Aとする。一方、ステップS601の判定において、n=0でないときは、2回目以降の時分割撮像による画像データが読み出された場合である。この場合に、メインCPU20は、撮像素子5から新たに読み出された画像データBによって表される画像Bと、画像Aの同一部分が重なるように、画像データAと画像データBを対応付けて合成する。具体的には、図3のステップS109にてメモリ〔Sx〕、〔Sy〕に記憶されたX方向、Y方向のぶれ量をそれぞれSx、Syとしたときに、画像Bが画像Aに対してX方向に−Sx、Y方向に−Syだけシフトして重なるように、画像データBの各画素のデータの読み出しアドレスを制御して、画像データAの各画素のデータと対応付けた後に、対応する画素のデータ同士を合成する。そして、この合成された画像データを、再び内蔵メモリ12に記憶させる(ステップS603)。次に、メインCPU20は、変数nを記憶するためのメモリ〔n〕にn+1を記憶させ、図8の処理からリターンする。したがって、メインCPU20、内蔵メモリ12、画像処理部13は画像合成部を構成する。   The image composition subroutine will be further described with reference to FIG. FIG. 8 is a flowchart showing an image composition subroutine. First, the main CPU 20 determines whether or not a variable n indicating the number of time-division imaging is 0 (step S601). In the determination in step S601, when n = 0, the image data obtained by the first time-division imaging is read out. At this time, the main CPU 20 stores the image data A read out via the image sensor 5 and obtained by the A / D converter 10 in the built-in memory 12 (step S602). An image represented by the image data stored in the built-in memory 12 is referred to as an image A. On the other hand, if it is not n = 0 in the determination in step S601, it is a case where image data by the second time division imaging is read out. In this case, the main CPU 20 associates the image data A and the image data B so that the image B represented by the image data B newly read from the image sensor 5 and the same portion of the image A overlap each other. Synthesize. Specifically, when the blur amounts in the X direction and the Y direction stored in the memories [Sx] and [Sy] in step S109 in FIG. The read address of each pixel of the image data B is controlled so as to overlap by shifting by −Sx in the X direction and −Sy in the Y direction, and the correspondence is made after associating with the data of each pixel of the image data A The pixel data to be combined is synthesized. The synthesized image data is stored again in the built-in memory 12 (step S603). Next, the main CPU 20 stores n + 1 in the memory [n] for storing the variable n, and returns from the processing of FIG. Therefore, the main CPU 20, the built-in memory 12, and the image processing unit 13 constitute an image composition unit.

再び図3に戻って説明を続ける。ステップS118において画像合成が終了すると、メインCPU20は、タイマカウンタ20aの値Tmが露光時間Texp以上か否かを判定する(ステップS119)。ステップS119の判定において、Tm<Texpのときは、処理がステップS109に戻る。そして、メインCPU20は、ステップS109以後の処理を繰り返す。一方、ステップS119の判定において、Tm≧Texpのときに、メインCPU20は図3の処理を終了させて撮像を終了する。   Returning to FIG. 3 again, the description will be continued. When image composition ends in step S118, the main CPU 20 determines whether or not the value Tm of the timer counter 20a is equal to or longer than the exposure time Texp (step S119). If it is determined in step S119 that Tm <Texp, the process returns to step S109. Then, the main CPU 20 repeats the processing after step S109. On the other hand, in the determination of step S119, when Tm ≧ Texp, the main CPU 20 ends the processing of FIG.

以上説明したように、本実施形態によれば、記録される画像の画質モード(画像サイズ及び圧縮率)に応じてぶれ量の許容量Sx0、Sy0を設定し、ぶれ量Sx、Syがぶれ量の許容量Sx0、Sy0をそれぞれ超えるまでは画像データの読み出しを行わないようにしている。これにより、時分割撮像の回数を必要以上に多くすることがないのでぶれ補正を高速且つ低消費電力で行うことが可能であるとともに、必要とされる画質モードに応じた精度の良いぶれ補正を行うことが可能である。   As described above, according to the present embodiment, the allowable amounts Sx0 and Sy0 of the blur amount are set according to the image quality mode (image size and compression rate) of the recorded image, and the blur amounts Sx and Sy are the blur amount. The image data is not read until the allowable amounts Sx0 and Sy0 are exceeded. As a result, the number of times of time-division imaging is not increased more than necessary, so that it is possible to perform blur correction at high speed and with low power consumption, and perform accurate blur correction according to the required image quality mode. Is possible.

本発明は上記した実施形態に限定されるものではなく、以下に例示する変形例を含む。以下に、本発明に含まれる変形例を例示する。なお、各変形例に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。   The present invention is not limited to the above-described embodiment, and includes the following modifications. Below, the modification contained in this invention is illustrated. The contents described in each modification can be arbitrarily combined as long as there is no contradiction.

[変形例1]
本実施形態では、撮像素子5から外部に読み出した画像データに基づいて、画像合成を行うようにしたが、撮像素子5に画像合成の機能を持たせるように構成することもできる。また、撮像素子5の内部に画像合成の機能を持たせるときは、画像データはアナログ信号を合成するものであってもよいし、アナログ信号をデジタル信号に変換した後に合成するものであってもよい。
[Modification 1]
In the present embodiment, image composition is performed based on image data read out from the image sensor 5 to the outside, but the image sensor 5 may be configured to have an image composition function. In addition, when the image sensor 5 is provided with an image composition function, the image data may be composed of an analog signal or may be composed after the analog signal is converted into a digital signal. Good.

[変形例2]
本実施形態では、撮像素子5から画像データを読み出す毎に、この読み出された画像データと、既に読み出されてぶれ補正と画像合成処理がなされた画像データとの、ぶれ補正及び画像合成を繰り返し行うことにより、高速の画像合成処理を可能とするものであったが、時分割撮影におけるすべての画像データを内蔵メモリ12に記憶したのち、複数コマの画像データによって表されるそれぞれの画像の同一部分が重なるように、上記複数コマの画像データを対応付けて合成するようにしてもよい。
[Modification 2]
In this embodiment, every time image data is read out from the image sensor 5, blur correction and image synthesis are performed between the read image data and image data that has already been read and subjected to blur correction and image synthesis processing. Repeatedly, high-speed image composition processing was made possible. However, after storing all image data in time-division shooting in the built-in memory 12, each image represented by a plurality of frames of image data is stored. The image data of the plurality of frames may be associated and combined so that the same portion overlaps.

[変形例3]
本実施形態においては、時分割撮像の開始から時分割撮像が終了するまでの総露光時間が、標準露光時間Texpとほぼ等しくなるように撮像回数(m)を制御したが、必ずしもこれに限定されることはなく、必要に応じて、時分割撮像の開始から時分割撮像が終了するまでの総露光時間が、標準露光時間Texpより長くなるようにしてもよいし、短くなるようにしてもよい。例えば、合成後の画像データのランダムノイズを低減するために、上記総露光時間を標準露光時間より長くして、時分割撮像における撮像回数を多くしてもよいし、時分割撮像の時間を短くするために、上記総露光時間を標準露光時間より短くして、時分割撮像における撮像回数を減らしてもよい。
[Modification 3]
In the present embodiment, the number of times of imaging (m) is controlled so that the total exposure time from the start of time-division imaging to the end of time-division imaging is substantially equal to the standard exposure time Texp, but is not necessarily limited to this. The total exposure time from the start of time-division imaging to the end of time-division imaging may be longer or shorter than the standard exposure time Texp as necessary. . For example, in order to reduce random noise in the combined image data, the total exposure time may be set longer than the standard exposure time to increase the number of times of time-division imaging, or the time-division imaging time may be shortened. In order to do this, the total exposure time may be made shorter than the standard exposure time to reduce the number of imaging in time-division imaging.

[変形例4]
画質パラメータは画質入力部21bにより操作者が入力するものであったが、例えば着脱メモリ17の残メモリ容量に応じて、メインCPU20により自動で画質パラメータが設定されるようにしてもよい。この場合は、メインCPU20が画質パラメータ設定部を構成する。
[Modification 4]
Although the image quality parameter is input by the operator through the image quality input unit 21b, the image quality parameter may be automatically set by the main CPU 20 according to the remaining memory capacity of the removable memory 17, for example. In this case, the main CPU 20 constitutes an image quality parameter setting unit.

本発明の一実施形態に係わる撮像装置の一例としてのデジタルカメラの構成を示すブロック図である。1 is a block diagram illustrating a configuration of a digital camera as an example of an imaging apparatus according to an embodiment of the present invention. デジタルカメラに設定した座標軸と2つの角速度センサ25、26の配置との関係を示す図である。It is a figure which shows the relationship between the coordinate axis set to the digital camera, and arrangement | positioning of the two angular velocity sensors 25 and 26. FIG. 本発明の一実施形態の撮像方法を含むデジタルカメラの撮像動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the imaging operation | movement of a digital camera including the imaging method of one Embodiment of this invention. デジタルカメラが回転角θxだけぶれた場合の、撮像面上における被写体の像の移動状態を示す図である。It is a figure which shows the movement state of the image of a to-be-photographed object on an imaging surface when a digital camera shakes only rotation angle (theta) x. サブCPUにより移動量ΔX、ΔY等を算出する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process which calculates movement amount (DELTA) X, (DELTA) Y etc. by sub CPU. デジタルカメラの画質モードを示す図である。It is a figure which shows the image quality mode of a digital camera. 増幅率設定のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of an amplification factor setting. 画像合成のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of an image composition.

符号の説明Explanation of symbols

1…撮像レンズ、2…レンズ駆動系、3…絞り、4…絞り駆動系、5…撮像素子、6…撮像素子ドライバ、7…タイミングジェネレータ(TG)回路、8…相関二重サンプリング(CDS)回路、9…増幅回路、10,24…アナログ/デジタル(A/D)変換部、11…データバス、12…内蔵メモリ、13…画像処理部、14…AE処理部、15…AF処理部、16…圧縮/伸張部、17…着脱メモリ、18…表示部、19…不揮発性メモリ、20…メインCPU、20a…タイマカウンタ、21…入力部、21a…レリーズボタン、22b…画質入力部、23…サブCPU、25,26…角速度センサ   DESCRIPTION OF SYMBOLS 1 ... Imaging lens, 2 ... Lens drive system, 3 ... Diaphragm, 4 ... Diaphragm drive system, 5 ... Image sensor, 6 ... Image sensor driver, 7 ... Timing generator (TG) circuit, 8 ... Correlated double sampling (CDS) Circuit 9, amplification circuit 10, 24, analog / digital (A / D) conversion unit 11 data bus 12 built-in memory 13 image processing unit 14 AE processing unit 15 AF processing unit DESCRIPTION OF SYMBOLS 16 ... Compression / decompression part, 17 ... Detachable memory, 18 ... Display part, 19 ... Nonvolatile memory, 20 ... Main CPU, 20a ... Timer counter, 21 ... Input part, 21a ... Release button, 22b ... Image quality input part, 23 ... Sub CPU, 25, 26 ... Angular velocity sensor

Claims (4)

時分割撮像によって得られた複数コマの画像データのそれぞれによって表される画像の相互のぶれが低減されるように、上記複数コマの画像データを合成する撮像装置であって、
二次元状に複数の画素が配置された撮像面を有する撮像素子と、
上記撮像素子の撮像面に被写体像を結像する撮像レンズと、
上記結像した被写体像の、上記撮像面上の基準位置からのぶれ量を検出するぶれ量検出部と、
上記複数コマの画像の画質に関連するパラメータを設定する画質パラメータ設定部と、
露光開始時からの上記ぶれ量が、上記画質に関連するパラメータと上記撮像レンズの焦点距離に依拠した所定量に達する毎に、上記撮像素子の画素から画像データを読み出す動作を複数回行う画素読出制御部と、
上記撮像素子の画素から複数回読み出された複数コマの画像データのそれぞれによって表される画像の同一部分が重なるように、上記複数コマの画像データを対応付けて合成する画像合成部と、
を具備することを特徴とする撮像装置。
An imaging device that synthesizes the image data of a plurality of frames so as to reduce mutual blurring of images represented by each of the image data of the plurality of frames obtained by time-division imaging,
An imaging device having an imaging surface in which a plurality of pixels are arranged two-dimensionally;
An imaging lens that forms a subject image on the imaging surface of the imaging element;
A blur amount detection unit for detecting a blur amount of the imaged subject image from a reference position on the imaging surface;
An image quality parameter setting unit for setting parameters related to the image quality of the images of the plurality of frames,
Pixel readout for performing multiple operations of reading image data from the pixels of the image sensor every time the amount of blur from the start of exposure reaches a predetermined amount that depends on the parameter relating to the image quality and the focal length of the imaging lens A control unit;
An image composition unit that associates and composes the image data of the plurality of frames so that the same portion of the image represented by each of the image data of the plurality of frames read out from the pixel of the image sensor a plurality of times overlaps;
An imaging apparatus comprising:
上記画質と関連するパラメータは、画像サイズと圧縮率の少なくとも1つを含むことを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the parameter related to the image quality includes at least one of an image size and a compression rate. 時分割撮像によって得られた複数コマの画像データのそれぞれによって表される画像の相互のぶれが低減されるように、上記複数コマの画像データを合成する撮像方法であって、
撮像素子の撮像面に結像した被写体像の、上記撮像面上の基準位置からのぶれ量を検出するステップと、
上記複数コマの画像の画質と関連するパラメータを設定するステップと、
露光開始時からの上記撮像面上の基準位置からのぶれ量が、上記画質に関連するパラメータと上記撮像レンズの焦点距離に依拠した所定量に達する毎に、上記撮像素子の画素から画像データを読み出す動作を複数回行うステップと、
上記撮像素子の画素から複数回読み出された複数コマの画像データのそれぞれによって表される画像の同一部分が重なるように、上記複数コマの画像データを対応付けて合成するステップと、
を有することを特徴とする撮像方法。
An imaging method for combining the image data of the plurality of frames so as to reduce the mutual blurring of images represented by each of the image data of the plurality of frames obtained by time-division imaging,
Detecting a blur amount of a subject image formed on an imaging surface of an imaging element from a reference position on the imaging surface;
Setting parameters related to the image quality of the images of the plurality of frames,
Each time the amount of blurring from the reference position on the imaging surface from the start of exposure reaches a predetermined amount that depends on the parameter relating to the image quality and the focal length of the imaging lens, image data from the pixels of the imaging element is acquired. A step of performing the reading operation multiple times;
Combining the image data of the plurality of frames in association with each other so that the same portion of the image represented by each of the image data of the plurality of frames read out from the pixel of the image sensor a plurality of times overlaps;
An imaging method characterized by comprising:
時分割撮像によって得られた複数コマの画像データのそれぞれによって表される画像の相互のぶれが低減されるように、上記複数コマの画像データを合成する撮像方法であって、
露光開始時からのぶれ量が、画質に関連するパラメータと撮像レンズの焦点距離に依拠した所定量に達する毎に、撮像素子の画素から画像データを読み出す動作を繰り返し行うステップと、
複数回読み出された上記画像データによって表される複数コマの画像の同一部分が重なるように、上記複数コマの画像データを対応付けて合成するステップと、
を有することを特徴とする撮像方法。
An imaging method for combining the image data of the plurality of frames so as to reduce the mutual blurring of images represented by each of the image data of the plurality of frames obtained by time-division imaging,
Each time the amount of blurring from the start of exposure reaches a predetermined amount that depends on a parameter related to image quality and the focal length of the imaging lens, repeatedly performing an operation of reading image data from the pixels of the imaging element;
Combining the image data of the plurality of frames in association with each other so that the same portions of the images of the plurality of frames represented by the image data read a plurality of times overlap;
An imaging method characterized by comprising:
JP2008155644A 2008-05-02 2008-06-13 Imaging apparatus and imaging method Withdrawn JP2009296561A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008155644A JP2009296561A (en) 2008-05-02 2008-06-13 Imaging apparatus and imaging method
CN2009101369807A CN101572777B (en) 2008-05-02 2009-04-30 Filming device and filming method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008120487 2008-05-02
JP2008155644A JP2009296561A (en) 2008-05-02 2008-06-13 Imaging apparatus and imaging method

Publications (1)

Publication Number Publication Date
JP2009296561A true JP2009296561A (en) 2009-12-17

Family

ID=41231998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008155644A Withdrawn JP2009296561A (en) 2008-05-02 2008-06-13 Imaging apparatus and imaging method

Country Status (2)

Country Link
JP (1) JP2009296561A (en)
CN (1) CN101572777B (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011135152A (en) * 2009-12-22 2011-07-07 Olympus Corp Image pickup apparatus and method of picking up image
JP2011176542A (en) * 2010-02-24 2011-09-08 Nikon Corp Camera, and image composition program
CN102496353A (en) * 2011-11-30 2012-06-13 深圳市万兴软件有限公司 Method for removing frame jitter and image display control
US20180077353A1 (en) * 2015-03-31 2018-03-15 Huawei Technologies Co., Ltd. Terminal device and photographing method

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6089373B2 (en) * 2012-02-03 2017-03-08 パナソニックIpマネジメント株式会社 Evaluation method, evaluation apparatus, computer program, and recording medium
CN108431629B (en) * 2015-12-21 2022-07-08 株式会社小糸制作所 Vehicle image acquisition device, control device, vehicle including vehicle image acquisition device or control device, and vehicle image acquisition method
US9787909B1 (en) * 2016-03-31 2017-10-10 Stmicroelectronics (Research & Development) Limited Controlling signal-to-noise ratio in high dynamic range automatic exposure control imaging
JP6685843B2 (en) * 2016-06-06 2020-04-22 オリンパス株式会社 Imaging device
CN109076157B (en) * 2017-12-26 2021-05-11 深圳市大疆创新科技有限公司 Image processing method, apparatus and machine-readable storage medium
JP6746857B2 (en) * 2019-01-31 2020-08-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Image processing device, imaging device, unmanned aerial vehicle, image processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011135152A (en) * 2009-12-22 2011-07-07 Olympus Corp Image pickup apparatus and method of picking up image
JP2011176542A (en) * 2010-02-24 2011-09-08 Nikon Corp Camera, and image composition program
CN102496353A (en) * 2011-11-30 2012-06-13 深圳市万兴软件有限公司 Method for removing frame jitter and image display control
US20180077353A1 (en) * 2015-03-31 2018-03-15 Huawei Technologies Co., Ltd. Terminal device and photographing method
US10547785B2 (en) * 2015-03-31 2020-01-28 Huawei Technologies Co., Ltd. Photographing method including image registration based on reference image, shake information, and a motion vector table

Also Published As

Publication number Publication date
CN101572777B (en) 2011-07-13
CN101572777A (en) 2009-11-04

Similar Documents

Publication Publication Date Title
JP2009296561A (en) Imaging apparatus and imaging method
US8208034B2 (en) Imaging apparatus
CN101594464B (en) Imaging apparatus and imaging method
JP5377768B2 (en) Image processing method and apparatus
US9871964B2 (en) Photographing apparatus, photographing controller, photographing control method, and photographing control program
JP2017201356A (en) Image shake correction device, imaging device, method for controlling image shake correction device, program, and storage medium
JP6851854B2 (en) Control method of image processing device, imaging device and image processing device
JP4528189B2 (en) Imaging device
JP5832353B2 (en) Imaging device
US8013896B2 (en) Imaging apparatus including shaking correction for a second imaging sensor
JP2012133194A (en) Imaging apparatus
CN111953891B (en) Control apparatus, lens apparatus, image pickup apparatus, control method, and storage medium
JP2010114577A (en) Imaging apparatus, image processor, control method and image processing method of imaging apparatus
JP2008141675A (en) Imaging device and control method therefor
JP6257260B2 (en) Imaging apparatus and control method thereof
JP2005176050A (en) Imaging apparatus
JP2015233211A (en) Imaging apparatus, control method thereof, and program
JP6739357B2 (en) Imaging device and focus adjustment method
JP2009273058A (en) Imaging device and imaging method
JP4533175B2 (en) Imaging device
JP2006229392A (en) Imaging apparatus and image data display method
JP6465553B2 (en) Imaging apparatus and control method thereof
JP2009171327A (en) Photographing apparatus
JP2009171324A (en) Photographing apparatus
US20240022706A1 (en) Evaluation method of image blur correction capability of image capturing apparatus, image capturing apparatus, and recording medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110906