JP2017079378A - Image processing apparatus and image processing method, and imaging device - Google Patents
Image processing apparatus and image processing method, and imaging device Download PDFInfo
- Publication number
- JP2017079378A JP2017079378A JP2015205837A JP2015205837A JP2017079378A JP 2017079378 A JP2017079378 A JP 2017079378A JP 2015205837 A JP2015205837 A JP 2015205837A JP 2015205837 A JP2015205837 A JP 2015205837A JP 2017079378 A JP2017079378 A JP 2017079378A
- Authority
- JP
- Japan
- Prior art keywords
- amount
- camera shake
- correction
- motion blur
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、手振れ補正を行う画像処理に関する。 The present invention relates to image processing for performing camera shake correction.
ビデオカメラは勿論、ディジタルカメラや携帯電話などにも動画撮像機能が搭載されるようになり、これら撮像装置によって動画を撮影する際の手振れに起因する暈けの対策が重要となっている。手振れに起因する暈けを防ぐために、手振れ補正として、様々な画像処理技術が提案されている。 Not only video cameras but also digital cameras and mobile phones are equipped with a moving image capturing function, and it is important to take measures against blurring caused by camera shake when capturing moving images with these image capturing apparatuses. In order to prevent blur caused by camera shake, various image processing techniques have been proposed as camera shake correction.
手振れ補正が過度になると、補正により被写体が静止して表示され、撮影時の手振れにより生じた被写体上のモーションブラーが目立つ場合がある。特許文献1は、手振れの大きさに応じて補正強度を調整する手法を開示する。特許文献1によれば、ユーザ操作により手振れ補正の強弱が指定され、指定された操作量に応じて切取画角が増減されるとともに、手振れ補正の強弱が変更される。しかし、特許文献1の技術によれば、手振れ補正の強度を手動で設定するために、撮影の度に補正強度を設定する必要がある。 If the camera shake correction is excessive, the subject is displayed stationary due to the correction, and motion blur on the subject caused by the camera shake at the time of shooting may be conspicuous. Patent Document 1 discloses a method of adjusting the correction strength according to the magnitude of camera shake. According to Patent Document 1, the strength of camera shake correction is specified by a user operation, the cut angle of view is increased or decreased according to the specified operation amount, and the strength of camera shake correction is changed. However, according to the technique of Patent Document 1, in order to manually set the strength of camera shake correction, it is necessary to set the correction strength every time shooting is performed.
また、特許文献2は、手振れの大きさに応じた、光学式手振れ補正(以下、光学式補正)と電子式手振れ補正(以下、電子式補正)の切り替えと、補正強度の割合の変更を併用する手法を提案する。特許文献2の技術によれば、光学式補正により応答可能な小さな手振れに対してモーションブラーを抑えることが可能である。しかし、光学式補正では抑えきれない大きな手振れが発生した場合、電子式補正を強くすると被写体上のモーションブラーが目立つようになる。 Patent Document 2 uses both switching between optical camera shake correction (hereinafter referred to as optical correction) and electronic camera shake correction (hereinafter referred to as electronic correction) according to the magnitude of camera shake, and a change in the correction intensity ratio. We propose a method to do this. According to the technique of Patent Document 2, it is possible to suppress motion blur for small camera shake that can be responded by optical correction. However, when a large amount of camera shake that cannot be suppressed by optical correction occurs, motion blur on the subject becomes noticeable when the electronic correction is increased.
本発明は、手振れに起因する被写体上のモーションブラーが目立たない手振れ補正の実現を目的とする。 An object of the present invention is to realize camera shake correction in which motion blur on a subject due to camera shake is inconspicuous.
本発明は、前記の目的を達成する一手段として、以下の構成を備える。 The present invention has the following configuration as one means for achieving the above object.
本発明にかかる画像処理は、動画データを撮影した際の手振れ量を取得し、前記手振れ量および前記動画データを撮影した撮像部のカメラパラメータから、手振れに起因する前記動画データに含まれる被写体のモーションブラー量を算出し、被写体速度に関連する視覚の空間周波数応答特性および前記モーションブラー量に基づき、モーションブラーが知覚されない画像のずれ量を補正制限値として算出し、前記補正制限値に基づき、前記動画データの手振れ補正に適用する補正量を設定する。 The image processing according to the present invention acquires the amount of camera shake when shooting moving image data, and determines the subject included in the moving image data caused by camera shake from the camera shake amount and the camera parameters of the imaging unit that has shot the moving image data. The amount of motion blur is calculated, and based on the visual spatial frequency response characteristics related to the subject speed and the amount of motion blur, the amount of shift of the image where motion blur is not perceived is calculated as a correction limit value, and based on the correction limit value, A correction amount to be applied to shake correction of the moving image data is set.
本発明によれば、手振れに起因する被写体上のモーションブラーが目立たない手振れ補正が実現される。 According to the present invention, it is possible to realize camera shake correction in which motion blur on a subject due to camera shake is not noticeable.
以下、本発明にかかる実施例の画像処理装置および画像処理方法を図面を参照して詳細に説明する。なお、実施例は特許請求の範囲にかかる本発明を限定するものではなく、また、実施例において説明する構成の組み合わせのすべてが本発明の解決手段に必須とは限らない。 Hereinafter, an image processing apparatus and an image processing method according to embodiments of the present invention will be described in detail with reference to the drawings. In addition, an Example does not limit this invention concerning a claim, and all the combinations of the structure demonstrated in an Example are not necessarily essential for the solution means of this invention.
[説明における撮影条件]
以下では、説明を容易にするために、撮像装置を手に持つユーザが、静止した矩形波チャートを撮影する例を説明する。手振れとして、周期が8フレーム/サイクルで三角波状の、画像上の水平方向に振幅x0画素に相当する動きと、同じくx1画素(x0<x1)に相当する動きが、三周期ずつ交互に繰り返されると仮定する(図5(a)参照)。
[Shooting conditions in the description]
In the following, for ease of explanation, an example will be described in which a user holding an imaging device captures a stationary rectangular wave chart. As a hand shake, a period of 8 frames / cycle and a triangular wave shape, a movement corresponding to an amplitude x 0 pixel in the horizontal direction on the image and a movement corresponding to x 1 pixel (x 0 <x 1 ) in three cycles It is assumed that they are repeated alternately (see FIG. 5 (a)).
図1により上記の条件により撮影される動画像の一部のフレーム画像を示す。図1(a)(c)は振幅x0の手振れ時のフレーム画像を示し、各フレーム画像の間で|0.5・x0|の位置ずれが生じる。図1(b)(d)は振幅x1の手振れ時のフレーム画像を示し、各フレーム画像の間で|0.5・x1|の位置ずれが生じる。さらに、振幅x1の大きな手振れ時は、撮影された矩形波チャート上にモーションブラーが生じる。 FIG. 1 shows a part of a frame image of a moving image shot under the above conditions. Figure 1 (a) (c) shows a frame image at the time of camera shake amplitude x 0, between each frame picture | 0.5 · x 0 | positional deviation of results. Figure 1 (b) (d) shows a frame image at the time of camera shake amplitude x 1, between each frame picture | 0.5 · x 1 | positional deviation of results. Further, when vibration larger hands amplitude x 1 is motion blur occurs in the captured rectangular wave chart on.
[装置の構成]
図2のブロック図により撮像装置の構成例を示す。マイクロプロセッサ(CPU)205は、ランダムアクセスメモリ(RAM)204をワークメモリとして、リードオンリメモリ(ROM)203などに格納されたプログラムを実行し、システムバス215を介して、後述する各構成を制御する。CPU205が実行するプログラムには、後述する様々な処理を実現するプログラムが含まれる。
[Device configuration]
A block diagram of FIG. 2 shows a configuration example of the imaging apparatus. A microprocessor (CPU) 205 executes a program stored in a read only memory (ROM) 203 or the like using a random access memory (RAM) 204 as a work memory, and controls each component to be described later via a system bus 215. To do. The programs executed by the CPU 205 include programs that realize various processes described later.
撮像部201は、レンズ、絞り、シャッタ、光学ローパスフィルタ、カラーフィルタおよびCMOSセンサや電荷結合素子(CCD)などの撮像デバイスを備え、被写体からの光量をディジタル信号に変換し、システムバス215にディジタル信号を出力する。フラッシュ202は、CPU205の制御に従い、被写体に光を照射する。撮像制御部206は、フォーカスを合わせる、シャッタを開く、絞りを調節するなど、CPU205の指示に従い撮像部201の撮像系の制御を行う。 The imaging unit 201 includes an imaging device such as a lens, an aperture, a shutter, an optical low-pass filter, a color filter, and a CMOS sensor and a charge coupled device (CCD). Output a signal. The flash 202 irradiates the subject with light according to the control of the CPU 205. The imaging control unit 206 controls the imaging system of the imaging unit 201 in accordance with instructions from the CPU 205, such as focusing, opening the shutter, and adjusting the aperture.
操作部207は、ボタン、モードダイヤルなどに相当し、ユーザ指示を入力する。CG生成部208は、文字やグラフィックスなどを生成する。表示部209は、例えば液晶ディスプレイ(LCD)であり、CG生成部208、ディジタル信号処理部(DSP)210、画像処理部214から入力された画像、文字、グラフィックスの表示を行う。表示部209がタッチスクリーン機能を備えてもよく、その場合、表示部209は操作部207の一部として機能する。 The operation unit 207 corresponds to a button, a mode dial, and the like, and inputs a user instruction. The CG generation unit 208 generates characters and graphics. The display unit 209 is, for example, a liquid crystal display (LCD), and displays images, characters, and graphics input from the CG generation unit 208, the digital signal processing unit (DSP) 210, and the image processing unit 214. The display unit 209 may have a touch screen function. In that case, the display unit 209 functions as a part of the operation unit 207.
DSP210は、撮像部201から入力されるディジタル信号にデモザイキング、現像、ホワイトバランス、ガンマ補正、ノイズ低減などの各種処理を施して画像データを生成する。圧縮伸長部211は、画像データをJPEG (Joint Photographic Experts Group)やMPEG (Moving Picture Experts Group)などのフォーマットにエンコードする処理を行う。また、JPEGデータやMPEGデータを画像データにデコードする処理を行う。 The DSP 210 performs various processes such as demosaicing, development, white balance, gamma correction, and noise reduction on the digital signal input from the imaging unit 201 to generate image data. The compression / decompression unit 211 performs a process of encoding image data into a format such as JPEG (Joint Photographic Experts Group) or MPEG (Moving Picture Experts Group). In addition, JPEG data or MPEG data is decoded into image data.
実施例の画像処理装置である画像処理部214は、撮像部201が出力するディジタル信号またはDSP210が出力する画像データに後述する画像処理を施す。外部メモリ制御部212は、システムバス215にメディア213を接続するためのインタフェイス機能を有するメディアドライブである。メディア213として、例えば、ハードディスク、メモリカード、USBメモリなどが利用可能である。 An image processing unit 214 which is an image processing apparatus according to the embodiment performs image processing described later on the digital signal output from the imaging unit 201 or the image data output from the DSP 210. The external memory control unit 212 is a media drive having an interface function for connecting the media 213 to the system bus 215. As the medium 213, for example, a hard disk, a memory card, a USB memory, or the like can be used.
ネットワークインタフェイス215は、無線ローカルエリアネットワーク用のインタフェイスである。CPU205は、ネットワークインタフェイス215を介して、サーバ装置、コンピュータ装置、プリンタなどと通信を行い、画像データや動画データのアップロードやダウンロードを行う。 The network interface 215 is an interface for a wireless local area network. The CPU 205 communicates with a server device, a computer device, a printer, and the like via the network interface 215, and uploads and downloads image data and moving image data.
CPU205は、DSP210または画像処理部214が出力する画像データや動画データを、表示部209に供給して画像や動画を表示したり、圧縮伸長部211を介して外部メモリ制御部212に供給してメディア213に格納する。また、サーバ装置などからダウンロードした画像データや動画データ、または、メディア213から読み出した画像データや動画データを圧縮伸長部211を介して表示部209に供給して画像や動画を表示する。 The CPU 205 supplies the image data and moving image data output from the DSP 210 or the image processing unit 214 to the display unit 209 to display images and moving images, or supplies them to the external memory control unit 212 via the compression / decompression unit 211. Store in media 213. Further, the image data and moving image data downloaded from the server device or the like, or the image data and moving image data read from the medium 213 are supplied to the display unit 209 via the compression / decompression unit 211 to display the images and moving images.
●画像処理部
図3のブロック図により画像処理部214の構成例を示す。画像処理部214は、CPUとメモリを独立に備えるハードウェア構成としてもよいし、CPU205がROM203に格納された画像処理プログラムを実行することで実現されるソフトウェア構成としてもよい。あるいは、撮像装置とは別のコンピュータ装置に画像処理プログラムを供給することで画像処理部214が実現されてもよい。
Image Processing Unit A configuration example of the image processing unit 214 is shown in the block diagram of FIG. The image processing unit 214 may have a hardware configuration that includes a CPU and a memory independently, or may have a software configuration that is realized by the CPU 205 executing an image processing program stored in the ROM 203. Alternatively, the image processing unit 214 may be realized by supplying an image processing program to a computer device different from the imaging device.
データ取得部303は、DSP210から出力される動画データを取得する。パラメータ取得部304は、CPU205または撮像制御部206から撮像部201のカメラパラメータを取得する。カメラパラメータは、露光時間、フレームレート、絞りなどの撮像条件パラメータ、および、レンズの焦点距離、ピント位置、センサの画素ピッチなどの撮像装置の解像度特性を表す装置パラメータを含む。 The data acquisition unit 303 acquires moving image data output from the DSP 210. The parameter acquisition unit 304 acquires camera parameters of the imaging unit 201 from the CPU 205 or the imaging control unit 206. The camera parameters include imaging condition parameters such as an exposure time, a frame rate, and an aperture, and device parameters representing resolution characteristics of the imaging device such as a lens focal length, a focus position, and a sensor pixel pitch.
位置ずれ量取得部305は、手振れ量として、データ取得部303が取得した動画像データから撮影時の手振れに伴う画像の位置ずれ量を取得する。モーションブラー算出部306は、カメラパラメータと位置ずれ量に基づき、手振れに伴い画像上に生じるモーションブラー量を算出する。 The positional deviation amount acquisition unit 305 acquires, as the amount of camera shake, the positional deviation amount of the image accompanying the camera shake at the time of shooting from the moving image data acquired by the data acquisition unit 303. The motion blur calculation unit 306 calculates the amount of motion blur that occurs on the image due to camera shake based on the camera parameters and the amount of displacement.
制限値算出部307は、モーションブラー量および被写体速さに関連する視覚の空間周波数応答特性に基づき、補正の制限値(以下、補正制限値)を算出する。補正制限値は、手振れに起因する被写体のモーションブラーが知覚されない(少なくとも目立たない)画像の位置ずれ量である。言い替えれば、補正制限値を超えた位置ずれ量の抑制(位置ずれ量を零に近付ける)を行えば、手振れに伴うモーションブラーが目立つようになる。 The limit value calculation unit 307 calculates a correction limit value (hereinafter, correction limit value) based on the visual spatial frequency response characteristics related to the motion blur amount and the subject speed. The correction limit value is a positional deviation amount of an image in which motion blur of the subject due to camera shake is not perceived (at least inconspicuous). In other words, if the misregistration amount exceeding the correction limit value is suppressed (the misregistration amount is brought close to zero), motion blur accompanying camera shake becomes conspicuous.
補正量設定部308は、補正制限値に基づき、手振れ補正に適用する補正量を設定する。補正部309は、データ取得部303が取得した動画像データに補正量に基づく手振れ補正を施した動画データを出力する。 The correction amount setting unit 308 sets a correction amount to be applied to camera shake correction based on the correction limit value. The correction unit 309 outputs moving image data obtained by performing camera shake correction based on the correction amount on the moving image data acquired by the data acquisition unit 303.
図4のフローチャートにより画像処理部214による手振れ補正処理を説明する。図4には1フレーム分の処理を示すが、動画データの各フレーム画像に対して図4の処理が実行される。以下では、撮像部201が理想的なピンホールカメラの解像度特性を有し、手振れに伴うモーションブラーが露光時間TとフレームレートFPS、および、後述する手振れ量xのみに依存すると仮定する。 The camera shake correction processing by the image processing unit 214 will be described with reference to the flowchart of FIG. FIG. 4 shows processing for one frame, but the processing of FIG. 4 is executed for each frame image of the moving image data. In the following, it is assumed that the imaging unit 201 has ideal pinhole camera resolution characteristics, and motion blur due to camera shake depends only on the exposure time T, the frame rate FPS, and a camera shake amount x described later.
データ取得部303は、動画データの注目フレーム画像を取得する(S401)。パラメータ取得部304は、カメラパラメータを取得する(S402)。位置ずれ量取得部305は、ブロックマッチング法や勾配法などを用いて動画データから被写体の動きベクトルを算出し、注目フレーム画像における撮影時の手振れに伴う画像の位置ずれ量を取得する(S403)。図5(a)により撮影時の手振れに伴う画像の位置ずれ量の一例を示す。図5(a)において、縦軸は手振れに伴う画像の位置ずれ量x(単位は画素)、横軸はフレーム番号iを示す。 The data acquisition unit 303 acquires the attention frame image of the moving image data (S401). The parameter acquisition unit 304 acquires camera parameters (S402). The misregistration amount acquisition unit 305 calculates a motion vector of the subject from the moving image data using a block matching method, a gradient method, etc., and acquires an image misregistration amount due to camera shake at the time of shooting in the target frame image (S403). . FIG. 5 (a) shows an example of the amount of image misregistration due to camera shake during shooting. In FIG. 5 (a), the vertical axis represents an image positional shift amount x (unit: pixels) due to camera shake, and the horizontal axis represents frame number i.
モーションブラー算出部306は、詳細は後述するが、カメラパラメータと位置ずれ量xから、手振れに伴い画像上に生じるモーションブラー量を算出する(S404)。制限値算出部307は、詳細は後述するが、モーションブラー量と、被写体速さに関連する視覚の空間周波数応答特性に基づき、手振れに伴うモーションブラーが知覚されない画像の位置ずれ量を補正制限値として算出する(S405)。 Although described in detail later, the motion blur calculation unit 306 calculates the amount of motion blur that occurs on the image due to camera shake from the camera parameters and the positional deviation amount x (S404). Although the details will be described later, the limit value calculation unit 307 corrects the positional deviation amount of an image in which motion blur due to camera shake is not perceived based on the amount of motion blur and visual spatial frequency response characteristics related to the subject speed. Is calculated as (S405).
補正量設定部308は、補正制限値に基づき補正量を設定する(S406)。つまり、下式により、補正制限値以下の位置ずれ量xに対しては、それを打ち消す補正量が設定される。また、補正制限値を超える位置ずれ量xに対しては、補正制限値に等しい補正量が設定される。
if (x(i)≦xVTF(i))
x'(i) = -x(i);
else
x'(i) = -xVTF(i); …(1)
ここで、x'(i)はフレーム画像iの補正量、
x(i)はフレーム画像iの位置ずれ量、
xVTF(i)は補正制限値。
The correction amount setting unit 308 sets a correction amount based on the correction limit value (S406). That is, according to the following expression, a correction amount for canceling the positional deviation amount x equal to or less than the correction limit value is set. For the positional deviation amount x exceeding the correction limit value, a correction amount equal to the correction limit value is set.
if (x (i) ≦ x VTF (i))
x '(i) = -x (i);
else
x '(i) = -x VTF (i);… (1)
Here, x ′ (i) is the correction amount of the frame image i,
x (i) is the amount of displacement of the frame image i,
x VTF (i) is the correction limit value.
補正部309は、設定された補正量x'に基づき、注目フレーム画像にアフィン変換や射影変換などを用いた手振れ補正を行い、手振れ補正後のフレーム画像を出力する(S407)。 Based on the set correction amount x ′, the correction unit 309 performs camera shake correction using affine transformation or projective transformation on the frame image of interest, and outputs a frame image after the camera shake correction (S407).
図5(b)により図5(a)の位置ずれ量xに対して設定される補正量x'を示す。図5(b)において、縦軸は補正量x'(単位は画素)、横軸はフレーム番号iを示す。図5(b)に示すように、振幅x0の位置ずれは手振れ補正により打ち消され、被写体が静止する補正になる。一方、手振れ量が大きい振幅x1の位置ずれについては、被写体の静止によりモーションブラーが目立つため、モーションブラーが知覚されない(少なくとも目立たない程度の)振幅|x-xVTF|の位置ずれを残す補正になる。 FIG. 5 (b) shows the correction amount x ′ set for the positional deviation amount x in FIG. 5 (a). In FIG. 5 (b), the vertical axis indicates the correction amount x ′ (unit is pixel), and the horizontal axis indicates the frame number i. As shown in FIG. 5 (b), positional deviation of the amplitude x 0 is canceled by the camera shake correction, the correction object is stationary. On the other hand, for the displacement of amplitude x 1 with a large amount of camera shake, motion blur is noticeable due to the stillness of the subject, so motion blur is not perceived (at least not noticeable) amplitude | xx VTF | .
●モーションブラー算出部
図6のフローチャートによりモーションブラー算出部306の処理(S404)を説明する。モーションブラー算出部306は、下式により、手振れに伴うフレーム画像間の位置ずれ量の差分を手振れ速度として算出する(S601)。ただし、フレーム番号0の手振れ速度v(0)は0とする。
v(i) = x(i) - x(i-1); …(2)
ここで、v(i)は手振れ速度、
x(i)はフレーム番号iのフレーム画像の位置ずれ量、
x(i-1)はフレーム番号i-1のフレーム画像の位置ずれ量。
Motion Blur Calculation Unit The process (S404) of the motion blur calculation unit 306 will be described with reference to the flowchart of FIG. The motion blur calculation unit 306 calculates the difference in the amount of positional deviation between frame images due to camera shake as the camera shake speed using the following equation (S601). However, the camera shake speed v (0) of frame number 0 is 0.
v (i) = x (i)-x (i-1);… (2)
Where v (i) is the camera shake speed,
x (i) is the amount of displacement of the frame image with frame number i,
x (i-1) is the amount of displacement of the frame image with frame number i-1.
図7により手振れ速度v(i)およびモーションブラー量の一例を示す。図7(a)において、縦軸は手振れ速度v(i)(単位は画素/フレーム)を示し、横軸はフレーム番号iを示す。振幅x0の手振れにおける手振れ速度はv=0.5・x0、振幅x1の手振れにおける手振れ速度はv=0.5・x1である。 FIG. 7 shows an example of the camera shake speed v (i) and the amount of motion blur. In FIG. 7 (a), the vertical axis represents camera shake speed v (i) (unit: pixel / frame), and the horizontal axis represents frame number i. The camera shake speed in the hand shake with the amplitude x 0 is v = 0.5 · x 0 , and the hand shake speed in the hand shake with the amplitude x 1 is v = 0.5 · x 1 .
次に、モーションブラー算出部306は、カメラパラメータと手振れ速度v(i)から、手振れに伴い注目フレーム画像上に生じるモーションブラーを再現する暈けフィルタを設定する(S602)。まず、下式により、暈けフィルタサイズF(i)を決定する。
F(i) = T・FPS・v(i); …(3)
ここで、Tは露光時間、
FPSはフレームレート。
Next, the motion blur calculation unit 306 sets a blur filter that reproduces the motion blur that occurs on the target frame image due to camera shake from the camera parameters and the camera shake speed v (i) (S602). First, the blur filter size F (i) is determined by the following equation.
F (i) = T · FPS · v (i);… (3)
Where T is the exposure time,
FPS is the frame rate.
以下では、振幅x0の手振れ時の暈けフィルタサイズをF0画素、振幅x1の手振れ時の暈けフィルタサイズをF1画素(F0<F1)として説明を行う。 In the following description, it is assumed that the blur filter size at the time of camera shake with amplitude x 0 is F 0 pixel, and the blur filter size at the time of camera shake with amplitude x 1 is F 1 pixel (F 0 <F 1 ).
図8により暈けフィルタと暈け画像の関係を説明する。モーションブラー算出部306は、注目フレーム画像の暈けフィルタサイズF(i)に基づき、振幅x0の手振れ時にはF0×1の平均化フィルタ(図8(b))、振幅x1の手振れ時にはF1×1の平均化フィルタ(図8(c))を暈けフィルタとして算出する。 The relationship between the blur filter and the blur image will be described with reference to FIG. Based on the blur filter size F (i) of the frame image of interest, the motion blur calculation unit 306 is based on the F 0 × 1 averaging filter (Fig. 8 (b)) when shaking with amplitude x 0 , and when shaking with amplitude x 1 The F 1 × 1 averaging filter (FIG. 8 (c)) is calculated as a gain filter.
次に、モーションブラー算出部306は、暈けの空間周波数特性のレファレンスになる点光源画像(図8(a))と、算出した暈けフィルタの畳み込み演算を行って、手振れにより暈けた点光源画像(例えば図8(d)(e))を生成する(S603)。図8(d)は点光源画像と暈けフィルタF0×1の畳み込み演算により得られる暈け画像を示し、図8(e)は点光源画像と暈けフィルタF1×1の畳み込み演算により得られる暈け画像を示す。 Next, the motion blur calculation unit 306 performs a convolution operation of the point light source image (FIG. 8 (a)) that is a reference of the spatial frequency characteristics of the blur and the calculated blur filter, and generates a point light source that is gained by camera shake. An image (for example, FIGS. 8D and 8E) is generated (S603). Fig. 8 (d) shows a blurred image obtained by convolution calculation of a point light source image and a blur filter F 0 × 1, and Fig. 8 (e) shows a result of convolution calculation of a point light source image and a blur filter F 1 × 1. The obtained profit image is shown.
次に、モーションブラー算出部306は、暈け画像をフーリエ変換した画像を生成する(S604)。図8(f)は図8(d)に示す暈け画像のフーリエ変換画像を示し、図8(g)は図8(e)に示す暈け画像のフーリエ変換画像を示す。そして、モーションブラー算出部306は、フーリエ変換画像から、手振れに伴い画像上に生じるモーションブラーの空間周波数特性を算出する(S605)。 Next, the motion blur calculation unit 306 generates an image obtained by Fourier transforming the blurred image (S604). FIG. 8 (f) shows the Fourier transform image of the blurred image shown in FIG. 8 (d), and FIG. 8 (g) shows the Fourier transform image of the blurred image shown in FIG. 8 (e). Then, the motion blur calculation unit 306 calculates the spatial frequency characteristics of the motion blur that occurs on the image due to hand shake from the Fourier transform image (S605).
図9によりフーリエ変換画像から算出される暈けの空間周波数特性を説明する。図9において、縦軸はフーリエ変換画像の強度を示し、横軸は空間周波数(サイクル/画素)を示す。図9(a)は図8(f)に示すフーリエ変換画像の空間周波数特性を示し、図9(b)は図8(g)に示すフーリエ変換画像の空間周波数特性を示す。 The gain spatial frequency characteristics calculated from the Fourier transform image will be described with reference to FIG. In FIG. 9, the vertical axis indicates the intensity of the Fourier transform image, and the horizontal axis indicates the spatial frequency (cycle / pixel). FIG. 9 (a) shows the spatial frequency characteristics of the Fourier transform image shown in FIG. 8 (f), and FIG. 9 (b) shows the spatial frequency characteristics of the Fourier transform image shown in FIG. 8 (g).
モーションブラー算出部306は、算出した空間周波数特性において、強度が0.5になる空間周波数(図9(a)の場合はf0、図9(b)の場合はf1)をモーションブラー量fc(i)に決定する(S606)。図7(b)により図7(a)の手振れ速度vに対して算出されるモーションブラー量fcを示す。図7(b)において、縦軸はモーションブラー量fc(単位はサイクル/画素)、横軸はフレーム番号iを示す。 The motion blur calculation unit 306 calculates the motion blur amount fc (f 0 in the case of FIG. 9 (a) and f 1 in the case of FIG. 9 (b) in the calculated spatial frequency characteristic, where the intensity is 0.5. i) is determined (S606). FIG. 7 (b) shows the motion blur amount fc calculated for the camera shake speed v in FIG. 7 (a). In FIG. 7 (b), the vertical axis indicates the motion blur amount fc (unit: cycle / pixel), and the horizontal axis indicates the frame number i.
●制限値算出部
図10のフローチャートにより制限値算出部307の処理(S405)を説明する。制限値算出部307は、被写体の空間周波数に対して、暈けを知覚する被写体速さ(以下、暈け知覚速度)を示すデータを例えばROM203から取得する(S701)。なお、ステップS701における取得は一連の動画データの処理に対して一回行えばよい。
Limit Value Calculation Unit The process (S405) of the limit value calculation unit 307 will be described with reference to the flowchart of FIG. The limit value calculation unit 307 acquires, from the ROM 203, for example, data indicating the subject speed at which blur is perceived (hereinafter referred to as blur perception speed) with respect to the spatial frequency of the subject (S701). The acquisition in step S701 may be performed once for a series of moving image data processing.
図11により被写体の移動速度に応じた視覚の空間周波数応答特性および暈け知覚速度を示す。図11(a)において、縦軸は空間周波数応答の強度を示し、横軸は空間周波数(単位はサイクル/画素)を示す。ここでは、非特許文献1に示される視覚の空間周波数応答特性を用いる。視覚の空間周波数応答特性は下式で与えられる。
vtf(ρ, vR) = k・c0・c1・c2・vR・(c12πρ)2exp(-c14πρ/ρmax) …(4)
ここで、k = s1 + s2|log(c2vR/3)|3
ρmax = p1/(c2vR+2)
ρは動画視聴時における被写体の空間周波数(サイクル/度)、
vRは動画視聴時における被写体速さ(度/秒)、
s1=6.1、s2=7.3、p1=45.9、
c0=0.6329、c1=0.8404、c2=0.7986。
FIG. 11 shows visual spatial frequency response characteristics and blur perception speed according to the moving speed of the subject. In FIG. 11 (a), the vertical axis indicates the intensity of the spatial frequency response, and the horizontal axis indicates the spatial frequency (unit: cycle / pixel). Here, the visual spatial frequency response characteristic shown in Non-Patent Document 1 is used. The visual spatial frequency response is given by
vtf (ρ, v R ) = k ・ c 0・ c 1・ c 2・ v R・ (c 1 2πρ) 2 exp (-c 1 4πρ / ρ max ) (4)
Where k = s 1 + s 2 | log (c 2 v R / 3) | 3
ρ max = p 1 / (c 2 v R +2)
ρ is the spatial frequency (cycle / degree) of the subject when watching the video,
v R is the subject speed (degrees / second)
s 1 = 6.1, s 2 = 7.3, p 1 = 45.9,
c 0 = 0.6329, c 1 = 0.8404, c 2 = 0.7986.
ρの単位(サイクル/度)とステップS606で算出したモーションブラー量fcの単位(サイクル/画素)、vRの単位(度/秒)とステップS601で算出した手振れ速度vの単位(画素/フレーム)が一致するようにリサンプリングする。リサンプリングした視覚の空間周波数応答特性VTF(f, v)は下式に従う。
VTF(f, v) = vtf[{Rπ/(Nx・p・180)}f, {(Nx・p・180)/Rπ}fps・v] …(5)
ここで、pは動画を視聴するディスプレイの画素ピッチ(mm)、
Rは視距離(mm)、
Nxは映像のx方向の画素数、
fpsは視聴時のフレームレート(フレーム/秒)、
p、R、Nx、fpsの値は一般的なユーザ視聴環境に基づいて定める。
Unit of ρ (cycle / degree) and unit of motion blur amount fc calculated in step S606 (cycle / pixel), unit of v R (degree / second) and unit of camera shake speed v calculated in step S601 (pixel / frame) ) Resampling to match. The resampled visual spatial frequency response VTF (f, v) follows the following equation.
VTF (f, v) = vtf [{Rπ / (Nx ・ p ・ 180)} f, {(Nx ・ p ・ 180) / Rπ} fps ・ v]… (5)
Where p is the pixel pitch (mm) of the display for viewing the video,
R is the viewing distance (mm),
Nx is the number of pixels in the x direction of the video,
fps is the viewing frame rate (frames / second),
The values of p, R, Nx, and fps are determined based on a general user viewing environment.
図11(a)に示す二つの曲線は、被写体速さがV0とV1の場合の視覚の空間周波数応答特性VTF(f, v)を示し、それぞれ空間周波数がf0とf1において応答強度が0.5になる。式(5)のVTF(f, v)に対して、被写体の空間周波数fを変化させたときにVTF=0.5を満たす被写体の速さvを算出すれば、被写体の空間周波数fと暈け知覚速度の関係を取得することができる。図11(b)は被写体の空間周波数fと暈け知覚速度の関係を示す。図11(b)において、縦軸は暈け知覚速度(単位は画素/フレーム)を示し、横軸は被写体の空間周波数f(単位はサイクル/画素)を示す。 The two curves shown in Fig. 11 (a) show the visual spatial frequency response characteristics VTF (f, v) when the subject speed is V 0 and V 1 , and the responses are at spatial frequencies f 0 and f 1 respectively. Strength becomes 0.5. If the subject velocity v that satisfies VTF = 0.5 when the subject's spatial frequency f is changed is calculated with respect to VTF (f, v) in Equation (5), the subject's spatial frequency f and the perception of profit The speed relationship can be obtained. FIG. 11 (b) shows the relationship between the spatial frequency f of the subject and the perceived speed of blur. In FIG. 11 (b), the vertical axis represents the blur perception speed (unit: pixels / frame), and the horizontal axis represents the spatial frequency f of the subject (unit: cycles / pixel).
次に、制限値算出部307は、暈け知覚速度のデータを参照して、手振れに伴うモーションブラーを知覚する速度vVTFを取得する(S702)。つまり、図11(b)に示すのVTF=0.5の曲線を参照して、ステップS606で算出したモーションブラー量fcに対応する暈け知覚速度を、手振れに伴うモーションブラー知覚速度|vVTF|として取得する。 Next, the limit value calculation unit 307 acquires the speed v VTF for perceiving motion blur associated with camera shake by referring to the data of the blur perception speed (S702). That is, referring to the curve of VTF = 0.5 shown in FIG. 11 (b), the blur perception speed corresponding to the motion blur amount fc calculated in step S606 is expressed as the motion blur perception speed | v VTF | get.
次に、制限値算出部307は、次式により、フレーム画像iのモーションブラー知覚速度vVTF(i)を設定(調整)する(S703)。
if (|vVTF(i)|>Vth)
vVTF(i) = {v(i)/|v(i)|}|vVTF(i)|;
else
vVTF(i) = 0; …(6)
ここで、Vthは所定の閾値。
Next, the limit value calculation unit 307 sets (adjusts) the motion blur perception speed v VTF (i) of the frame image i by the following equation (S703).
if (| v VTF (i) | > Vth)
v VTF (i) = {v (i) / | v (i) |} | v VTF (i) |;
else
v VTF (i) = 0;… (6)
Here, Vth is a predetermined threshold value.
つまり、閾値以下(|vVTF(i)|≦Vth)の小さな手振れの場合、手振れに伴うモーションブラーが充分に小さいと見做して手振れ補正により被写体を静止させるために、モーションブラー知覚速度vVTF(i)=0に調整する。なお、振幅x0の手振れ時のモーションブラー知覚速度をVm0(単位は画素/フレーム)、振幅x1の手振れ時のモーションブラー知覚速度をVm1とする。 In other words, in the case of small camera shake below the threshold (| v VTF (i) | ≦ Vth), it is assumed that the motion blur accompanying the camera shake is sufficiently small. Adjust VTF (i) = 0. Note that the motion blur perception speed at the time of camera shake with amplitude x 0 is Vm 0 (unit: pixels / frame), and the motion blur perception speed at the time of camera shake with amplitude x 1 is Vm 1 .
次に、制限値算出部307は、下式により、フレーム画像iにおける補正制限値xVTF(i)を算出する(S704)。つまり、前フレームにおける補正制限値xVTF(i-1)と、前フレームのモーションブラー知覚速度vVTF(i-1)の和を注目フレームiの制限値xVTF(i)とする。
xVTF(i) = xVTF(i-1) + vVTF(i-1) …(7)
ただし、フレーム番号0の補正制限値xVTF(0)=0。
Next, the limit value calculation unit 307 calculates a correction limit value x VTF (i) in the frame image i by the following equation (S704). That is, the sum of the correction limit value x VTF (i-1) in the previous frame and the motion blur perception speed v VTF (i-1) of the previous frame is set as the limit value x VTF (i) of the frame of interest i.
x VTF (i) = x VTF (i-1) + v VTF (i-1)… (7)
However, the correction limit value x VTF (0) = 0 for frame number 0.
図12によりモーションブラー知覚速度vVTFと補正制限値xVTFの関係を示す。図12(a)は式(6)に従い算出されるモーションブラー知覚速度vVTFであり、縦軸はモーションブラー知覚速度vVTF(単位は画素/フレーム、フレーム画像の間の位置ずれ量に相当)を示し、横軸はフレーム番号iを示す。振幅x0の手振れ時は被写体が静止していてもモーションブラーが知覚されないので速度Vm0=0になる。また、振幅x1の手振れ時はモーションブラーが知覚されない速度Vm1>0になる。 FIG. 12 shows the relationship between the motion blur perception speed v VTF and the correction limit value x VTF . Fig. 12 (a) is the motion blur perception speed v VTF calculated according to equation (6), and the vertical axis is the motion blur perception speed v VTF (unit: pixel / frame, equivalent to the amount of displacement between frame images) The horizontal axis indicates the frame number i. At the time of camera shake of amplitude x 0 , even if the subject is stationary, motion blur is not perceived, so the speed Vm 0 = 0. Further, at the time of hand shake of the amplitude x 1, the speed Vm 1 > 0 at which no motion blur is perceived.
図12(b)は式(7)に従い算出される補正制限値xVTFであり、縦軸は補正制限値xVTF(単位は画素)を示し、横軸はフレーム番号iを示す。振幅x0の手振れ時は被写体が静止していてもモーションブラーが知覚されないので補正制限値はLx0=0になる。また、振幅x1の手振れ時はモーションブラーが知覚されない補正制限値Lx1>0になる。 FIG. 12B shows the correction limit value x VTF calculated according to the equation (7), the vertical axis indicates the correction limit value x VTF (unit is pixel), and the horizontal axis indicates the frame number i. At the time of camera shake of amplitude x 0 , even if the subject is stationary, motion blur is not perceived, so the correction limit value is Lx 0 = 0. In addition, the correction limit value Lx 1 > 0 at which motion blur is not perceived at the time of camera shake of the amplitude x 1 is satisfied.
撮像装置によって撮影された動画データに、画像処理部214による上記の手振れ補正処理を施すことで、手振れに伴うモーションブラーが目立たない映像の観察が可能になる。図13により実施例の手振れ補正処理後の動画データにおける位置ずれ量を示す。図13において、縦軸は手振れ補正後の画像の位置ずれ量(単位は画素)を示し、横軸はフレーム番号iを示す。 By applying the above-described camera shake correction processing by the image processing unit 214 to the moving image data photographed by the imaging device, it is possible to observe an image in which motion blur due to camera shake is not noticeable. FIG. 13 shows a positional deviation amount in the moving image data after the camera shake correction process of the embodiment. In FIG. 13, the vertical axis indicates the amount of positional deviation (unit is pixel) of the image after camera shake correction, and the horizontal axis indicates the frame number i.
図13に点線で示す手振れ補正前の位置ずれ量は、実線で示す手振れ補正後の位置ずれ量に抑制される。実施例においては、手振れ補正処理後の動画データの位置ずれ量を、手振れに伴うモーションブラーが知覚されない(少なくとも目立たない)位置ずれ量(補正制限値)に抑える。 The positional deviation amount before the camera shake correction indicated by the dotted line in FIG. 13 is suppressed to the positional deviation amount after the camera shake correction indicated by the solid line. In the embodiment, the positional deviation amount of the moving image data after the camera shake correction process is suppressed to a positional deviation amount (correction limit value) in which motion blur due to camera shake is not perceived (at least inconspicuous).
図14により手振れ補正後の動画像の一部のフレーム画像を示す。なお、図14は、図1に示すフレーム画像に実施例の手振れ補正を施したフレーム画像を示している。図14(a)(c)に示す振幅x0の手振れ時は補正制限値Lx0=0として、被写体を静止させた動画データを生成する。一方、図14(b)(d)に示す振幅x1の手振れ時は補正制限値Lx1として、モーションブラーが目立たない程度の振幅x1-x1'=Lx1に抑制した位置ずれが残る動画データを生成する。 FIG. 14 shows a partial frame image of a moving image after camera shake correction. FIG. 14 shows a frame image obtained by performing the camera shake correction of the embodiment on the frame image shown in FIG. At the time of camera shake of the amplitude x 0 shown in FIGS. 14 (a) and 14 (c), the correction limit value Lx 0 = 0 is set and moving image data with the subject stationary is generated. On the other hand, at the time of hand movement of the amplitude x 1 shown in FIGS. 14 (b) and 14 (d), the correction limit value Lx 1 is left as the correction limit value Lx 1 , and the displacement is suppressed to the amplitude x 1 −x 1 ′ = Lx 1 so that the motion blur is not noticeable. Generate video data.
このように、被写体速度に関連する人間の視覚の空間周波数応答特性に基づき、手振れ補正の強度を制御することで、手振れに伴うモーションブラーが目立たない手振れ補正処理を行うことができる。従って、ユーザによる補正強度の設定なしに、大きな手振れが発生した場合も被写体上のモーションブラーが目立たない手振れ補正処理を行うことができる。 As described above, by controlling the intensity of camera shake correction based on the spatial frequency response characteristics of human vision related to the subject speed, it is possible to perform a camera shake correction process in which motion blur due to camera shake is not noticeable. Accordingly, it is possible to perform a camera shake correction process in which the motion blur on the subject is not noticeable even when a large camera shake occurs without setting the correction strength by the user.
[変形例]
上記では、撮像装置を手に持つユーザが静止した矩形波チャートを撮影すると仮定して、手振れ量に相当する画像の位置ずれ量xを取得する例を説明した。ユーザまたは被写体が動いていて、被写体をトラッキングしながら撮影する場合も手振れ量を取得することができる。そのような場合、撮影時における撮像装置の三次元空間上の軌跡をStructure From Motion (SFM)などを用いて算出する。そして、撮像装置の軌跡をローパスフィルタ処理して得た軌跡をカメラワークとして、撮像装置の軌跡とカメラワークの間の差分を手振れ量として取得する。なお、SFMは、例えば、あるシーンを撮像装置の視点を変えながら撮影した複数の画像から当該シーンの三次元形状と撮像装置の三次元位置を同時に復元する手法である。
[Modification]
In the above description, the example in which the positional deviation amount x of the image corresponding to the amount of camera shake is acquired on the assumption that the user holding the imaging device captures a stationary rectangular wave chart. The amount of camera shake can be acquired even when the user or the subject is moving and shooting is performed while tracking the subject. In such a case, the trajectory in the three-dimensional space of the imaging device at the time of shooting is calculated using Structure From Motion (SFM) or the like. Then, the trajectory obtained by low-pass filtering the trajectory of the imaging apparatus is acquired as camera work, and the difference between the trajectory of the imaging apparatus and camera work is acquired as the amount of camera shake. Note that SFM is a technique for simultaneously restoring the three-dimensional shape of a scene and the three-dimensional position of the imaging apparatus from a plurality of images obtained by changing a viewpoint of the imaging apparatus, for example.
また、上記では、手振れ量を示す位置ずれ量xを動画データからブロックマッチング法や勾配法などの位置合わせアルゴリズムを用いて取得する例を説明したが、ジャイロセンサなどの外部装置を用いて手振れ量を取得してもよい。 In the above description, an example in which the positional deviation amount x indicating the amount of camera shake is acquired from the moving image data using an alignment algorithm such as the block matching method or the gradient method has been described. However, the amount of camera shake using an external device such as a gyro sensor is described. May be obtained.
また、上記では、手振れに伴うモーションブラーが知覚されない(少なくとも目立たない)画像の位置ずれ量を補正制限値として、手振れ補正に適用する補正量を算出する例を説明した。さらに、補正後の動画データに対する画角維持などの条件を加えた重み付け処理により補正量を算出してもよい。また、モードダイヤルなどを用いて補正量の強弱を設定可能にしてもよい。 In the above description, an example has been described in which a correction amount to be applied to camera shake correction is calculated using a position shift amount of an image in which motion blur caused by camera shake is not perceived (at least inconspicuous) as a correction limit value. Furthermore, the correction amount may be calculated by weighting processing that adds conditions such as maintaining the angle of view for the corrected moving image data. Further, the amount of correction may be set using a mode dial or the like.
また、上記では、式(4)に基づき視覚の空間周波数応答特性を算出する例を説明したが、本発明は、特定モデルの空間周波数応答特性に限定されるわけではない。例えば、非特許文献2などに示された、他の視覚の空間周波数応答特性や実測データなどを用いてもよい。 In the above description, an example of calculating the visual spatial frequency response characteristic based on the equation (4) has been described. However, the present invention is not limited to the spatial frequency response characteristic of a specific model. For example, other visual spatial frequency response characteristics and actual measurement data shown in Non-Patent Document 2 may be used.
一般に、視覚の空間周波数応答特性は、バンドパス特性をもつことが知られている。例えば、静止した被写体を観察する場合、視覚の空間周波数応答特性は4-5サイクル/度付近にピークをもつバンドパス特性になる。これに対して、視線が被写体を追従する場合、高周波数側の感度が下がり、低周波数側の感度が上がることが知られている。このため、本発明に適用する追従視時の視覚の空間周波数応答特性は、被写体の動きが大きくなるにつれて、応答のピークが低周波数側へシフトするバンドパス特性であればよい。 In general, it is known that the visual spatial frequency response characteristic has a bandpass characteristic. For example, when observing a stationary subject, the visual spatial frequency response characteristic is a bandpass characteristic having a peak in the vicinity of 4-5 cycles / degree. On the other hand, when the line of sight follows the subject, it is known that the sensitivity on the high frequency side decreases and the sensitivity on the low frequency side increases. For this reason, the visual spatial frequency response characteristic in the follow-up vision applied to the present invention may be a bandpass characteristic in which the response peak shifts to the low frequency side as the movement of the subject increases.
また、上記では、暈けフィルタとして、手振れ速度に比例するサイズの平均化フィルタを用いる例を説明したが、フィルタ内の各重み付け係数は同一値である必要はなく、任意の重み付け係数を用いてよい。また、手振れの方向がx方向のみの場合を説明したが、二次元の動きの手振れに対応する場合は二次元の暈けフィルタを用いればよい。 In the above description, an example is described in which an averaging filter having a size proportional to the camera shake speed is used as the blur filter. However, the weighting coefficients in the filter do not have to be the same value, and arbitrary weighting coefficients are used. Good. In addition, although the case where the direction of camera shake is only the x direction has been described, a two-dimensional blur filter may be used when it corresponds to camera shake of two-dimensional motion.
[その他の実施例]
本発明は、上述の実施形態の一以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、一以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program It can also be realized by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
305 … 位置ずれ量取得部、306 … モーションブラー算出部、307 … 制限値算出部、308 … 補正量設定部 305 ... Position displacement amount acquisition unit, 306 ... Motion blur calculation unit, 307 ... Limit value calculation unit, 308 ... Correction amount setting unit
Claims (12)
前記手振れ量および前記動画データを撮影した撮像部のカメラパラメータから、手振れに起因する前記動画データに含まれる被写体のモーションブラー量を算出する第一の算出手段と、
被写体速度に関連する視覚の空間周波数応答特性および前記モーションブラー量に基づき、モーションブラーが知覚されない画像の位置ずれ量を補正制限値として算出する第二の算出手段と、
前記補正制限値に基づき、前記動画データの手振れ補正に適用する補正量を設定する設定手段とを有する画像処理装置。 Acquisition means for acquiring the amount of camera shake when shooting video data;
First calculation means for calculating the amount of motion blur of the subject included in the moving image data caused by camera shake from the camera parameters of the image capturing unit that has captured the camera shake amount and the moving image data;
Second calculation means for calculating a positional deviation amount of an image in which motion blur is not perceived as a correction limit value based on a visual spatial frequency response characteristic related to a subject speed and the motion blur amount;
An image processing apparatus comprising: setting means for setting a correction amount to be applied to camera shake correction of the moving image data based on the correction limit value.
フレーム画像間の前記手振れ量の差分を前記手振れの速度として算出し、
前記カメラパラメータと前記手振れの速度から暈けフィルタを設定し、
前記暈けフィルタにより点光源画像の暈け画像を生成し、
前記暈け画像のフーリエ変換画像からモーションブラーの空間周波数特性を算出し、
前記空間周波数特性に基づき前記モーションブラー量を決定する請求項1から請求項4の何れか一項に記載された画像処理装置。 The first calculation means includes
Calculate the difference in the amount of camera shake between the frame images as the speed of the camera shake,
Set a blur filter from the camera parameters and the camera shake speed,
Generate a blurred image of a point light source image by the blur filter,
Calculate the spatial frequency characteristics of the motion blur from the Fourier transform image of the blur image,
5. The image processing apparatus according to claim 1, wherein the motion blur amount is determined based on the spatial frequency characteristics.
前記視覚の空間周波数応答特性から得られる暈け知覚速度のデータを参照して、前記モーションブラー量に対応する暈け知覚速度をモーションブラー知覚速度として取得し、
所定の閾値に基づき、前記モーションブラー知覚速度を調整し、
前フレームの前記補正制限値および前記モーションブラー知覚速度の和を注目フレームの前記補正制限値として算出する請求項1から請求項5の何れか一項に記載された画像処理装置。 The second calculating means includes
The blur perception speed data corresponding to the amount of motion blur is obtained as the motion blur perception speed with reference to the data of the blur perception speed obtained from the visual spatial frequency response characteristics,
Adjusting the motion blur perception speed based on a predetermined threshold;
6. The image processing apparatus according to claim 1, wherein a sum of the correction limit value of the previous frame and the motion blur perception speed is calculated as the correction limit value of the frame of interest.
請求項1から請求項9の何れか一項に記載された画像処理装置とを有する撮像装置。 An imaging unit for capturing video data;
10. An imaging apparatus comprising: the image processing apparatus according to claim 1.
前記手振れ量および前記動画データを撮影した撮像部のカメラパラメータから、手振れに起因する前記動画データに含まれる被写体のモーションブラー量を算出し、
被写体速度に関連する視覚の空間周波数応答特性および前記モーションブラー量に基づき、モーションブラーが知覚されない画像のずれ量を補正制限値として算出し、
前記補正制限値に基づき、前記動画データの手振れ補正に適用する補正量を設定する画像処理方法。 Get the amount of camera shake when shooting video data,
From the camera parameters of the imaging unit that captured the camera shake amount and the moving image data, calculate the amount of motion blur of the subject included in the moving image data due to camera shake,
Based on the visual spatial frequency response characteristics related to the subject speed and the amount of motion blur, the amount of shift of the image where motion blur is not perceived is calculated as a correction limit value,
An image processing method for setting a correction amount to be applied to shake correction of the moving image data based on the correction limit value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015205837A JP2017079378A (en) | 2015-10-19 | 2015-10-19 | Image processing apparatus and image processing method, and imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015205837A JP2017079378A (en) | 2015-10-19 | 2015-10-19 | Image processing apparatus and image processing method, and imaging device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017079378A true JP2017079378A (en) | 2017-04-27 |
Family
ID=58666180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015205837A Pending JP2017079378A (en) | 2015-10-19 | 2015-10-19 | Image processing apparatus and image processing method, and imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017079378A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108377330A (en) * | 2017-01-31 | 2018-08-07 | 佳能株式会社 | Image dithering correcting equipment, lens apparatus, picture pick-up device and control method |
-
2015
- 2015-10-19 JP JP2015205837A patent/JP2017079378A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108377330A (en) * | 2017-01-31 | 2018-08-07 | 佳能株式会社 | Image dithering correcting equipment, lens apparatus, picture pick-up device and control method |
CN108377330B (en) * | 2017-01-31 | 2021-09-14 | 佳能株式会社 | Image shake correction apparatus, lens apparatus, image pickup apparatus, and control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6960238B2 (en) | Image stabilization device and its control method, program, storage medium | |
JP6263623B2 (en) | Image generation method and dual lens apparatus | |
JP5917054B2 (en) | Imaging apparatus, image data processing method, and program | |
JP5709911B2 (en) | Image processing method, image processing apparatus, image processing program, and imaging apparatus | |
JP5480798B2 (en) | Imaging device | |
US9225901B2 (en) | Image capturing apparatus, control method thereof, and storage medium | |
JP2014126861A (en) | Imaging device and control method of the same, program and storage medium | |
JP6478511B2 (en) | Image processing method, image processing apparatus, compound eye imaging apparatus, image processing program, and storage medium | |
JP2005252626A (en) | Image pickup device and image processing method | |
JP2017058660A (en) | Image tremor correction device, tilt correction device, image tremor correction device control method, tilt correction device control method | |
WO2019127512A1 (en) | Image processing method for photography device, photography device and movable platform | |
CN113875219B (en) | Image processing method and device, electronic device, computer-readable storage medium | |
EP3836540B1 (en) | Image processing apparatus and image capturing apparatus | |
JP2018182730A (en) | Image processing apparatus, image processing method, and imaging apparatus | |
US10735655B2 (en) | Apparatus, method, and program for image processing | |
JP6420888B2 (en) | Image blur correction apparatus, control method therefor, program, and storage medium | |
JP2008124850A (en) | Image motion correction apparatus, lens unit, and imaging apparatus | |
JP2017079378A (en) | Image processing apparatus and image processing method, and imaging device | |
JPWO2011129036A1 (en) | Imaging device and integrated circuit | |
JP2012128529A (en) | Image processing device, control method therefor, and program | |
JP2015177528A (en) | image processing apparatus, image processing method, and program | |
JP6730423B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP7182994B2 (en) | Image processing device, image processing method, and program | |
JP2015095670A (en) | Imaging apparatus, control method thereof and control program | |
CN111698416B (en) | Image processing apparatus, image processing method, and storage medium |