Nothing Special   »   [go: up one dir, main page]

JP2019101997A - Image processing apparatus and image processing method reducing noise by composing plural captured images - Google Patents

Image processing apparatus and image processing method reducing noise by composing plural captured images Download PDF

Info

Publication number
JP2019101997A
JP2019101997A JP2017235542A JP2017235542A JP2019101997A JP 2019101997 A JP2019101997 A JP 2019101997A JP 2017235542 A JP2017235542 A JP 2017235542A JP 2017235542 A JP2017235542 A JP 2017235542A JP 2019101997 A JP2019101997 A JP 2019101997A
Authority
JP
Japan
Prior art keywords
image
frame image
ratio
image processing
reference frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017235542A
Other languages
Japanese (ja)
Inventor
宏典 海田
Hironori Kaida
宏典 海田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017235542A priority Critical patent/JP2019101997A/en
Publication of JP2019101997A publication Critical patent/JP2019101997A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image processing apparatus that reduces influence of brightness variation and that generates a composite image having a noise improvement effect even when brightness varies between a plurality of image frames.SOLUTION: An image processing apparatus comprises: imaging means that captures a reference frame image and a plurality of other frame images; change amount calculation means that calculates a change amount of a signal of the plurality of other frame images with respect to the reference frame image; extraction means that extracts a background region by comparing the other frame image with the reference frame image; ratio calculation means that calculates a composition rate of the plurality of other frame images on the basis of the change amount of the signal with respect to the frame image being a reference of the plurality of other frame images; and composite means that composes two images of a target using the composition rate calculated by the ratio calculation means, in which the ratio calculation means calculates the composition rate by giving larger weight to other frame image in which the change amount is smaller.SELECTED DRAWING: Figure 1

Description

本発明は、複数の撮像画像を合成しノイズを低減する複数枚合成技術に関する。   The present invention relates to a multiple sheet combining technique for combining a plurality of captured images and reducing noise.

従来から静止画像の画像処理技術として連続撮影した画像に対して画像合成を行うことでノイズ低減効果を得る技術が知られている(以後マルチショットNRと呼ぶ)。マルチショットNR技術は、現在では静止画撮影においてだけではなく、動画撮影に対しても処理を行われ始めている。   2. Description of the Related Art Conventionally, as a still image processing technique, a technique for obtaining a noise reduction effect by performing image synthesis on continuously captured images is known (hereinafter referred to as multi-shot NR). Multi-shot NR technology is now beginning to be processed not only for still image shooting but also for moving image shooting.

マルチショットNRを動画で実現する方法としては、動画を連続する静止画フレームとして扱い、動画の所定再生位置から数フレームを複数の静止画のフレームとして切り出すことを行う。次に切り出した静止画フレームの画像合成を行うことでノイズ低減を行った合成静止画フレームを生成することができる。この時、動いている被写体を合成すると被写体が多重像になってしまい、ノイズ改善の弊害として見栄えが悪い画像になってしまう。   As a method of realizing the multi-shot NR as a moving image, the moving image is treated as a continuous still image frame, and several frames are cut out as a plurality of still image frames from a predetermined reproduction position of the moving image. Next, the synthesized still image frame subjected to the noise reduction can be generated by performing image synthesis of the cut-out still image frame. At this time, when moving objects are combined, the objects become multiple images, and the images become unattractive as a noise reduction effect.

これに対して特許文献1は、第1画像と第2画像との差分情報に基づいて動体尤度を検出し、動体尤度が高い領域は第2画像を合成しないように合成比率を制御して合成するため、動いている被写体に対して多重像になることを防ぐことができる。   On the other hand, Patent Document 1 detects the moving body likelihood based on the difference information between the first image and the second image, and controls the synthesis ratio so that the second image is not synthesized in the region where the moving body likelihood is high. Since the image is synthesized, it is possible to prevent the moving image from becoming a multiple image.

特開2013−102554号公報JP, 2013-102554, A

しかしながら動画から切り出した静止画フレームでは、シーンの明るさに変動があった場合に、AE(自動明るさ調整)が露出制御に反映されるまでの制御が静止画撮影に比べ遅く、数フレーム後に適正なAEになるように制御する場合がある。その影響で、動いていない被写体領域に対しても明るさが異なり、複数フレームの間で第1画像と第2画像の差分が大きくなってしまい、動体尤度が高く検出され合成されなくなってしまう。従って、明るさの変化が検出される領域はノイズ改善効果が小さい合成画像が生成されてしまう。   However, in a still image frame cut out from a moving image, when there is a change in the brightness of the scene, the control until AE (automatic brightness adjustment) is reflected in the exposure control is slower than in still image shooting and several frames later It may be controlled to be a proper AE. As a result, the brightness is different even for a non-moving subject region, and the difference between the first image and the second image becomes large between a plurality of frames, and the moving object likelihood is detected high and can not be synthesized. . Therefore, in a region where a change in brightness is detected, a composite image with a small noise improvement effect is generated.

上記課題に鑑み、本発明の目的は動画のように複数の画像フレーム間で明るさ変動があった場合でも、明るさ変動の影響を減らしノイズ改善効果がある合成画像を生成する画像処理装置及び画像処理方法を提供することを目的とする。   In view of the above problems, it is an object of the present invention to provide an image processing apparatus that reduces the influence of brightness variation and generates a composite image having a noise improvement effect even when brightness variation occurs between a plurality of image frames as in a moving image An object of the present invention is to provide an image processing method.

上記課題を解決するために、本発明の画像処理装置は、基準フレーム画像と複数の他フレーム画像を取得する取得手段と、前記基準フレーム画像に対する前記複数の他フレーム画像の信号の変化量を求める変化量算出手段と、前記基準フレーム画像と前記他フレーム画像を比較して背景領域を抽出する抽出手段と、前記複数の他フレーム画像の、前記基準となるフレーム画像に対する信号の変化量に基づいて、前記複数の他フレーム画像の合成比率を算出する比率算出手段と、前記比率算出手段で算出された合成比率で対象の2画像を合成する合成手段とを有し、前記比率算出手段は、前記変化量がより小さい他フレーム画像により大きい重みを付けて合成比率を算出することを特徴とする。   In order to solve the above-mentioned subject, the image processing device of the present invention finds an acquisition means which acquires a standard frame picture and a plurality of other frame pictures, and finds the amount of change of the signal of the plurality of other frame pictures to the standard frame picture. Based on the amount of change in the signal of the plurality of other frame images relative to the reference frame image, the amount of change calculation means, the extraction means for extracting the background area by comparing the reference frame image and the other frame image A ratio calculating unit configured to calculate a combination ratio of the plurality of other frame images; and a combining unit configured to combine two target images at the combination ratio calculated by the ratio calculating unit, the ratio calculating unit including: It is characterized in that the combining ratio is calculated by giving larger weight to the other frame image having smaller amount of change.

また、本発明の画像処理方法は、基準フレーム画像と複数の他フレーム画像を取得する取得ステップと、前記基準フレーム画像に対する前記複数の他フレーム画像の信号の変化量を求める変化量算出ステップと、前記基準フレーム画像と前記他フレーム画像を比較して背景領域を抽出する抽出ステップと、前記複数の他フレーム画像の、前記基準となるフレーム画像に対する信号の変化量に基づいて、前記複数の他フレーム画像の合成比率を算出する比率算出ステップと、前記比率算出ステップにて算出された合成比率で対象の2画像を合成する合成ステップとを有し、前記比率算出ステップでは、前記変化量がより小さい他フレーム画像により大きい重みを付けて合成比率を算出することを特徴とする。   In the image processing method according to the present invention, an acquisition step of acquiring a reference frame image and a plurality of other frame images, and a change amount calculation step of calculating an amount of change of signals of the plurality of other frame images with respect to the reference frame image. Extracting the background area by comparing the reference frame image and the other frame image, and the plurality of other frames based on a change amount of a signal of the plurality of other frame images with respect to the reference frame image The image processing apparatus further includes a ratio calculation step of calculating a synthesis ratio of the images, and a synthesis step of synthesizing the two target images with the synthesis ratio calculated in the ratio calculation step, and in the ratio calculation step, the change amount is smaller. It is characterized in that the weighting is given to the other frame image to calculate the composition ratio.

本発明によれば、明るさ変動の影響を低減してノイズ改善効果がある合成画像を生成することが可能である。   According to the present invention, it is possible to reduce the influence of brightness variation and generate a composite image having a noise improvement effect.

本発明の画像処理技術を実現する撮像装置の構成例を示すブロック図Block diagram showing a configuration example of an imaging apparatus for realizing the image processing technology of the present invention 本実施例1における処理フローチャート図Process flowchart in the first embodiment AE処理と実際の撮像で設定する露出の差を説明する図A diagram to explain the difference in exposure set in AE processing and actual imaging 被写体の明るさ変化を説明する図Diagram explaining the change in brightness of the subject 背景被写体領域の検出方法を説明する図Diagram explaining how to detect background subject area ベクトル検出方法を説明する図Diagram explaining the vector detection method 位置合わせの特徴点を説明する図Diagram for explaining the feature points of alignment 本実施例2における処理フローチャート図Process flowchart in the present embodiment 2 明るさ変化量に基づく合成比率変換の説明図An illustration of composition ratio conversion based on the brightness change amount 位置合わせの対象画像を説明する図A diagram for explaining the target image for alignment

以下、図面を参照しながら本発明の好適な実施の形態について説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の画像処理技術を適用可能な画像処理装置を含む撮像装置の構成例を示すブロック図である。以下では画像処理装置、撮像装置の一例として、デジタルカメラに本発明を適用した例を説明する。しかし、本発明でいう画像処理装置は、撮像画像を取得可能な任意の電子機器にも適用可能である。これらの電子機器には、例えば携帯電話機、ゲーム機、タブレット端末、パーソナルコンピュータ、時計型や眼鏡型の情報端末などが含まれてよい。   FIG. 1 is a block diagram showing a configuration example of an imaging apparatus including an image processing apparatus to which the image processing technique of the present invention can be applied. Hereinafter, an example in which the present invention is applied to a digital camera will be described as an example of an image processing apparatus and an imaging apparatus. However, the image processing apparatus according to the present invention is also applicable to any electronic device capable of acquiring a captured image. These electronic devices may include, for example, a cellular phone, a game machine, a tablet terminal, a personal computer, and a watch-type or glasses-type information terminal.

システム制御部101は、例えばCPUであり、撮像装置であるカメラ100が備える各ブロックの動作プログラムを後述のROM102より読み出し、後述のRAM103に展開して実行することによりカメラ100が備える各ブロックの動作を制御する。ROM102は、書き換え可能な不揮発性メモリであり、カメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、カメラ100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。   The system control unit 101 is, for example, a CPU, reads out an operation program of each block included in the camera 100 which is an imaging device from the ROM 102 described later, expands it in the RAM 103 described later, and executes it. Control. The ROM 102 is a rewritable non-volatile memory, and stores parameters and the like necessary for the operation of each block in addition to the operation program of each block included in the camera 100. The RAM 103 is a rewritable volatile memory, and is used as a temporary storage area of data output in the operation of each block included in the camera 100.

光学系104は、ズームレンズ、フォーカスレンズを含むレンズ群で構成される。光学系104を介して取得された被写体像は、撮像部105に結像する。撮像部105は、例えばCCDやCMOSセンサー等の撮像素子であり、前記光学系により前記撮像部に結像された光学像を光電変換し、得られた一対のアナログ画像信号を順次A/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号をデジタル画像信号に変換し、得られたデジタル画像データをRAM103に出力する。   The optical system 104 is composed of a lens group including a zoom lens and a focus lens. A subject image obtained via the optical system 104 forms an image on the imaging unit 105. The imaging unit 105 is an imaging element such as a CCD or a CMOS sensor, for example, and photoelectrically converts an optical image formed on the imaging unit by the optical system, and sequentially A / D converts a pair of obtained analog image signals Output to unit 106. The A / D conversion unit 106 converts the input analog image signal into a digital image signal, and outputs the obtained digital image data to the RAM 103.

画像処理部107は、RAM103に記録された画像データに対して、ホワイトバランス調整、色補間、ガンマ処理、電子ズーム処理など、様々な画像処理を適用する。   The image processing unit 107 applies various image processing such as white balance adjustment, color interpolation, gamma processing, electronic zoom processing, and the like to the image data recorded in the RAM 103.

表示部108は、LCD等の表示デバイスであり、RAM103に記録した画像処理部による画像処理後の画像及び後述の記録部109に記録した画像やユーザからの指示を受け付けるための操作ユーザーインターフェイスを表示する。記録部109は、メモリーカードやハードディスク等の記録媒体であり、本実施例の画像処理を行った最終的な出力画像データを格納する。   The display unit 108 is a display device such as an LCD, and displays an image after image processing by the image processing unit recorded in the RAM 103 and an operation user interface for receiving an image recorded in the recording unit 109 described later and an instruction from the user. Do. A recording unit 109 is a recording medium such as a memory card or a hard disk, and stores final output image data subjected to the image processing of the present embodiment.

以上、撮像装置(以下カメラとする)100の構成と、基本動作について説明した。   The configuration of the imaging apparatus (hereinafter referred to as a camera) 100 and the basic operation have been described above.

以下、本実施例の特徴である、画像処理部107の動作について図2に記載のフローチャートを用いて説明を行う。以下の処理はROM102に記録されたプログラムに従って、制御部101が装置の各部を制御し、画像処理部107への入力や出力を制御することにより実現される。   The operation of the image processing unit 107, which is a feature of this embodiment, will be described below with reference to the flowchart shown in FIG. The following processing is realized by the control unit 101 controlling each unit of the apparatus according to a program stored in the ROM 102 and controlling input and output to the image processing unit 107.

図2のステップS201では、撮影動作を行うためISO感度、シャッタースピード、絞りなどの露出等のカメラ設定を行い、画像を取得する。   In step S201 in FIG. 2, in order to perform a shooting operation, camera settings such as ISO sensitivity, shutter speed, exposure such as aperture are performed, and an image is acquired.

尚本実施例ではカメラ100を三脚等に固定して撮影することで、手ぶれ等の影響による2枚の画像間で位置ずれは生じておらず無視できるものとする。このとき、撮像部105で本撮影前に撮像した動画像のフレームを用いて、画像処理部107ではAE(自動露出)処理を行う。AE処理では、撮影するシーンが適正な明るさで画像信号が取得できるように絞り、感度、シャッタースピードの露出パラメータを設定するための適正露出を算出する。ただし動画のAE処理では静止画のAE処理と異なり、動画像の前後フレーム間で明るさの変化が大きく変更しないように所定フレーム後に適正な露出に合うように撮像時の露出設定の制御を行う。   In the present embodiment, by fixing the camera 100 to a tripod or the like and photographing, positional deviation does not occur between the two images due to the influence of camera shake or the like, and can be ignored. At this time, the image processing unit 107 performs an AE (automatic exposure) process using a frame of a moving image taken by the imaging unit 105 before the main photographing. In the AE processing, an appropriate exposure for setting an exposure parameter of aperture, sensitivity, and shutter speed is calculated so that an image signal can be acquired with an appropriate brightness in a scene to be photographed. However, unlike the AE processing of a still image in the AE processing of a moving image, the exposure setting at the time of imaging is controlled so as to meet the appropriate exposure after a predetermined frame so that the change in brightness does not change significantly between the previous and subsequent frames of the moving image. .

図2のステップS202は、動画像のフレームから基準位置を決定する。この基準位置の動画像フレームは最終出力の合成画像で画角の基準となり、ユーザからのフレームの指定を受け付けつけて決定する。   Step S202 in FIG. 2 determines the reference position from the frame of the moving image. The moving image frame of the reference position is a composite image of the final output, which is used as a reference of the angle of view, and it is determined by accepting the designation of the frame from the user.

以上ステップS201〜S202までの各処理について図3と図4を用いて詳しく説明する。   The processes of steps S201 to S202 will be described in detail with reference to FIGS. 3 and 4.

図4は、天候が晴れから曇りに変わりシーンの明るさが変化した時のある所定間隔(例えば100フレーム毎)で動画像フレームから取り出した3フレームを表わしている。晴れの状態の動画像フレーム401から、雲が広がっている402、そして完全に曇りとなる403の動画像フレーム間で被写体の明るさが変化している。そのため、401〜403それぞれの動画像フレームの明るさを適正に調整するためのAE処理を行い、絞り、感度、シャッタースピードの露出パラメータを算出する。正確に被写体の明るさを表わす指標はBV値と呼ばれ、BV=EV(絞り値+シャッタースピード値)+SV(感度値)で表せられる。本実施例では撮影感度を一定で撮影したとして説明する。従って実施例ではEV値で被写体の明るさを表現する。ここで、動画像フレームに対してカメラ100で制御されたEV値と目標となるEV値の変化を図3で表す。   FIG. 4 shows three frames extracted from a moving image frame at a predetermined interval (for example, every 100 frames) when the weather changes from sunny to cloudy and the brightness of the scene changes. From the moving image frame 401 in the clear state, the brightness of the object changes between the moving image frames 402 where the clouds are spreading and 403 moving images which are completely cloudy. Therefore, AE processing is performed to properly adjust the brightness of the moving image frames 401 to 403, and the exposure parameters of the aperture, sensitivity, and shutter speed are calculated. An index that accurately represents the brightness of a subject is called a BV value, and can be expressed by BV = EV (aperture value + shutter speed value) + SV (sensitivity value). In this embodiment, it is assumed that the photographing sensitivity is constant. Therefore, in the embodiment, the brightness of the subject is expressed by the EV value. Here, FIG. 3 shows changes in the EV value controlled by the camera 100 and the target EV value with respect to the moving image frame.

図3のグラフは横軸に時系列で撮像された画像フレーム、縦軸はEV値を表わす。EV値とは、レンズの絞り値とシャッタースピードの組み合わせで得られる光の量を表わしている。EV目標値(301、302、303の点線)は実際のシーンを撮影する時の適正な明るさに相当し、制御EV値(311、312、313の実線)はカメラ100で撮像した動画像フレームの信号値の明るさを表わしている。区間341は図4の401、区間342は図4の402、区間343は図4の403のシーンに対応する動画像フレームとなっている。このときシーンの明るさが変わらない区間341、343は、EV目標値と制御EV値の差が無い(図の表示上実線と点線を離しているが実際は重なっている)ため、適正な明るさで動画像データが撮像されている。しかし、区間342では、EV目標値と制御EV値の間に差331が発生しており、この区間342では適正よりも動画像データは暗く撮像されている。このときユーザが選択した合成の基準となる動画像のフレームは、基準を基準位置351とすると、基準フレーム画像351を含み、その後方の所定数のフレームを合成対象の動画像のフレーム(以下、他フレーム画像と呼ぶ)とする。   In the graph of FIG. 3, the horizontal axis represents an image frame captured in time series, and the vertical axis represents an EV value. The EV value represents the amount of light obtained by the combination of the aperture value of the lens and the shutter speed. The EV target values (dotted lines 301, 302, and 303) correspond to appropriate brightness when shooting an actual scene, and the control EV values (solid lines of 311, 312, and 313) are moving image frames captured by the camera 100 Represents the brightness of the signal value of. Section 341 is a moving image frame corresponding to 401 in FIG. 4, section 342 is 402 in FIG. 4, and section 343 is a scene in 403 in FIG. At this time, there is no difference between the EV target value and the control EV value in sections 341 and 343 in which the brightness of the scene does not change (the solid line and dotted line are separated on the display in the figure but they actually overlap). The moving image data is captured at However, in the section 342, a difference 331 occurs between the EV target value and the control EV value, and in this section 342, moving image data is captured darker than appropriate. At this time, assuming that the frame of the moving image serving as the reference of synthesis selected by the user is the reference position 351, the reference frame image 351 is included, and a predetermined number of frames behind it are frames of the moving image to be synthesized (hereinafter It is called another frame image).

図2のフローチャートの説明に戻る。   It returns to description of the flowchart of FIG.

図2のステップS203では、他フレーム画像に対して背景領域を検出する。本実施形でいう背景領域とは、基準フレーム画像と、他フレーム画像の画像間で被写体の動きが小さい領域を示す。具体的には、背景領域抽出処理として、基準フレーム画像に対する他フレーム画像の動き量としてベクトルを検出し、ベクトル動き方向や、ベクトル動きの大きさを元に動体(背景ではない領域)と非動体領域(背景領域)を判定する。図5を用いて背景領域について説明する。   In step S203 of FIG. 2, a background area is detected for another frame image. The background area in the present embodiment indicates an area in which the movement of the subject is small between the reference frame image and the images of the other frame images. Specifically, as background area extraction processing, a vector is detected as the amount of movement of another frame image with respect to the reference frame image, and a moving body (an area not a background) and a non-moving body based on the vector movement direction or the magnitude of vector movement. Determine the area (background area). The background area is described with reference to FIG.

図5はある被写体シーンに対する背景領域として検出した領域を示した図である。図5(a)は背景領域が広い場合を表わしている。そして、図5(a)の背景領域531は、基準フレーム画像501と、他フレーム画像の内の1フレームを表わす502のフレームから検出された背景領域である。一方、図5(b)は背景領域が狭い場合を表わしている。そして、図5(b)の背景領域533は、基準フレーム画像503と、他フレーム画像の内の1フレーム504のフレームから検出された背景領域である。背景領域の判定は、フレーム間の被写体の動きベクトルを検出し、ベクトルの大きさが小さい領域を背景領域とする。ベクトルを用いて領域を決定する方法については、上記の方法以外にも既存のベクトルのクラスタリングアルゴリズムを適用することが可能である。   FIG. 5 is a diagram showing an area detected as a background area for a certain subject scene. FIG. 5A shows the case where the background area is wide. The background area 531 in FIG. 5A is a background area detected from the reference frame image 501 and a frame 502 representing one frame of other frame images. On the other hand, FIG. 5 (b) shows the case where the background area is narrow. The background area 533 in FIG. 5B is a background area detected from the frame of the reference frame image 503 and the frame of one frame 504 among the other frame images. In the determination of the background area, the motion vector of the subject between frames is detected, and an area with a small vector size is used as the background area. As a method of determining a region using vectors, it is possible to apply an existing vector clustering algorithm in addition to the method described above.

動き領域532は、例えば動きベクトル522のようなベクトルが大きく、周囲のベクトルと大きさ、向きが近い領域をひとつの動体領域とする(設計上の所定値と閾値判定によって判断する)。逆に521のような静止していて動きがない領域に関しては、ベクトルが0付近の値となり動き領域とは異なると判断する。ベクトル検出方法にテンプレートマッチング法を用いて算出する。テンプレートマッチング法では、基準フレーム画像と他フレーム画像間の所定領域内の相対的な差を元にベクトルを求めるため、被写体の輝度変化にもロバスト性を持たせることができる。テンプレートマッチング法を用いたベクトル検出について以下図6で詳しく説明を行う。   The motion area 532 has, for example, a large vector such as the motion vector 522, and an area close in magnitude and direction to the surrounding vector as one moving body area (judged by a predetermined value in design and threshold determination). On the other hand, with respect to a stationary and non-moving area such as 521, it is determined that the vector has a value near 0 and is different from the moving area. Calculated using the template matching method as the vector detection method. In the template matching method, since the vector is obtained based on the relative difference in the predetermined area between the reference frame image and the other frame image, the brightness change of the subject can be made robust. The vector detection using the template matching method will be described in detail with reference to FIG. 6 below.

図6(a)は、ベクトル探索を行うためのテンプレート位置を示した図である。例えば、図6(a)の620は、等間隔に配置した複数のテンプレート画像群を表している。説明のためにそのうちの一つのテンプレート画像を621として説明する。   FIG. 6A shows a template position for performing vector search. For example, 620 in FIG. 6A indicates a plurality of template image groups arranged at equal intervals. One of the template images is described as 621 for explanation.

図6(b)は、ベクトル探索の位置や範囲の設定を説明する図で、基準画像600(基準フレーム画像に相当)とベクトル検出画像601の画像である(他フレーム画像に相当)。ベクトル検出画像から決定したテンプレート621の領域と位置を起点にして、基準画像ではテンプレート622の位置をベクトル探索開始位置とする。そして、その周囲の斜線領域をベクトル探索範囲641として、テンプレート621と比較を行い相関が高い位置と、テンプレート621との位置ズレを動きベクトルとして検出する。この操作を、テンプレート画像群620すべての領域で行い、テンプレートの数分のベクトルを検出する。このとき、例えばテンプレート画像群のそれぞれのテンプレート画像のコントラストを判定し、コントラストが低いテンプレート画像に関してはテンプレートマッチングを行わなくてもよい。   FIG. 6B is a view for explaining setting of the position and range of vector search, which is an image of a reference image 600 (corresponding to a reference frame image) and an image of a vector detection image 601 (corresponding to another frame image). Starting from the area and position of the template 621 determined from the vector detection image, the position of the template 622 is set as the vector search start position in the reference image. Then, a hatched area around the area is set as a vector search range 641 and compared with the template 621 to detect a position shift between a position where the correlation is high and the template 621 as a motion vector. This operation is performed on all areas of the template image group 620 to detect vectors for the number of templates. At this time, for example, the contrast of each template image of the template image group is determined, and template matching may not be performed for a template image with low contrast.

図2のフローチャートの説明に戻る。   It returns to description of the flowchart of FIG.

図2のステップS204では、基準フレーム画像と、合成対象となる他フレーム画像の画像上の領域を分割し、分割した所定領域毎の明るさ変化を検出する変化量算出処理を行う。明るさ変化の検出方法としては、基準フレーム画像と、他フレーム画像それぞれで分割した領域毎に輝度積分を行い、2つのフレーム間での輝度値を積分した輝度積分値の差を評価値として算出する。2フレーム間の明るさの比較方法は上記によらず、2フレームの画像データを比較し、評価値を取得する演算として輝度値の平均値の比較など他の方法を用いてもよい。   In step S204 in FIG. 2, the reference frame image and the region on the image of the other frame image to be combined are divided, and change amount calculation processing is performed to detect the brightness change for each of the divided predetermined regions. As a method of detecting a change in brightness, brightness integration is performed for each of the regions divided by the reference frame image and the other frame images, and the difference between the brightness integral values obtained by integrating the brightness value between two frames is calculated as an evaluation value. Do. The method of comparing the brightness between two frames is not limited to the above, and other methods such as comparison of average values of luminance values may be used as an operation of comparing image data of two frames and acquiring an evaluation value.

図2のステップS205では、評価値として得られる明るさ変化量を元に合成比率を算出する合成比率算出処理を行う。例えば図9(a)のグラフを用いて明るさ変化量から合成比率を算出する。図9(a)のグラフで横軸は明るさ変化量を、縦軸は合成比率を表わしたものである。他フレーム画像の基準フレーム画像との合成比率は明るさの変化量に応じた902のカーブで制御する。明るさの変化量が大きいほど、他フレーム画像の基準フレーム画像との合成比率を小さく制御する。また明るさ変化量が小さいときは、他フレーム画像の基準フレーム画像との合成比率を大きくなるように制御する。   In step S205 of FIG. 2, a combination ratio calculation process is performed to calculate the combination ratio based on the brightness change amount obtained as the evaluation value. For example, using the graph of FIG. 9A, the combining ratio is calculated from the brightness change amount. In the graph of FIG. 9A, the horizontal axis represents the brightness change amount, and the vertical axis represents the combining ratio. The composition ratio of another frame image to the reference frame image is controlled by a curve 902 corresponding to the amount of change in brightness. As the amount of change in brightness is larger, the combining ratio with the reference frame image of another frame image is controlled to be smaller. When the amount of change in brightness is small, control is performed to increase the composition ratio with the reference frame image of another frame image.

続いて、図2のステップS206では、合成する領域が背景かどうかを確認する。合成する領域が背景と判定された場合には図2のステップS207へ移行する。   Subsequently, in step S206 in FIG. 2, it is checked whether the area to be synthesized is the background. If it is determined that the area to be synthesized is the background, the process proceeds to step S207 in FIG.

逆に、合成する領域が背景ではないと判定された場合には、図9(a)のグラフの基に決定された明るさの変化量に応じた合成比率を他フレーム画像の対象領域の合成比率として決定し、ステップS208へ移行する。   Conversely, if it is determined that the area to be synthesized is not the background, the synthesis ratio according to the amount of change in brightness determined based on the graph of FIG. The ratio is determined, and the process proceeds to step S208.

図2のステップS207では、ステップ205で求めた明るさ変化量を元にした合成比率に対して、さらに他フレーム画像の基準フレーム画像との合成比率を高く制御する処理を行う。具体的には、図9(b)を用いて説明する。   In step S207 in FIG. 2, processing is performed to control the composition ratio with the reference frame image of another frame image to be higher than the composition ratio based on the brightness change amount obtained in step 205. Specifically, description will be made with reference to FIG.

図9(b)では、明るさ変化量に応じた合成比率に対して、さらに背景の判定結果に応じて更に合成比率を制御する。明るさ変化量が大きくても、その領域が背景であれば合成することで合成画像が多重にならず更にノイズ低減効果を見込めるためである。したがって、背景領域と判定された場合には、他フレーム画像の基準フレーム画像との合成比率を上げるため913の合成比率になるように制御する。912は背景領域以外の領域の基準フレーム画像との合成比率を示している。   In FIG. 9B, the combination ratio is further controlled according to the background determination result with respect to the combination ratio according to the brightness change amount. Even if the amount of change in brightness is large, if the area is the background, the combined image is not multiplexed by combining and the noise reduction effect can be expected. Therefore, when it is determined to be the background area, control is performed so that the composition ratio of 913 is obtained in order to increase the composition ratio with the reference frame image of another frame image. Reference numeral 912 denotes the composition ratio of the area other than the background area to the reference frame image.

図2のステップ208では、ステップS205、ステップS207で決定した合成比率を用いて基準フレーム画像と他フレーム画像の加算平均合成を行いノイズ低減を実現する。   In step 208 of FIG. 2, addition average combination of the reference frame image and the other frame image is performed using the combination ratio determined in step S205 and step S207 to realize noise reduction.

具体的に、巡回的に2枚の動画像フレームの合成を繰り返し、最終的に複数の動画像フレームの加算平均合成を行う一般的な方法を説明する。   Specifically, a general method will be described in which the combination of two moving image frames is cyclically repeated and finally the addition average combination of a plurality of moving image frames is finally performed.

基準フレーム画像の他に、他フレーム画像3枚を合成する場合には、基準フレーム画像1枚に対し、1回目の合成では基準フレーム画像と1枚目の他フレーム画像を上限1/2の比率で合成し合成画像を生成する。2回目の巡回合成では、1回目の合成画像と2枚目の他フレーム画像を上限1/3の比率で合成することで実現できる。同様にして3回目の巡回合成では、3枚目の他フレーム画像を上限1/4の割合で合成することで基準フレーム画像を含む4枚の動画像フレームを均等の割合で合成した加算平均合成を巡回的な処理で行うことが可能である。上記で説明した加算平均合成処理を式で書くと以下になる。   In addition to the reference frame image, when combining three other frame images, the ratio of the reference frame image and the first other frame image at the upper limit 1/2 in the first combination with respect to one reference frame image Composite to generate a composite image. The second cyclic synthesis can be realized by synthesizing the first composite image and the second other frame image at a ratio of the upper limit 1/3. Similarly, in the third cyclic combining, an average combining combining four moving image frames including the reference frame image at an equal ratio by combining the third other frame image at the ratio of the upper limit 1/4. Can be performed in a cyclic process. The above-described addition average combining process can be written as an equation below.

Figure 2019101997
Figure 2019101997

ここでimgは基準フレーム画像の信号値、imgn≠0は合成範囲の動画像フレームの信号値を表し、nは合成回数に該当する。 Here, img 0 represents the signal value of the reference frame image, img n ≠ 0 represents the signal value of the moving image frame in the synthesis range, and n corresponds to the number of times of synthesis.

更に今回は、ステップS205、ステップS207で決定した合成比率を加味した加算平均合成を行うため以下の式で合成処理を行う。   Further, in this case, in order to perform addition average combining in consideration of the combining ratio determined in steps S205 and S207, combining processing is performed according to the following equation.

Figure 2019101997
Figure 2019101997

ratioは、ステップS205、ステップS207で決定した他フレーム画像の基準フレーム画像との合成比率を表わす。式(1)に対して、他フレーム画像の基準フレーム画像との合成比率(ratio)を加えた合成処理を行うことでステップS208の合成は実現する。   The ratio represents the composition ratio with the reference frame image of the other frame image determined in step S205 and step S207. The composition in step S208 is realized by performing the composition processing in which the composition ratio (ratio) with the reference frame image of another frame image is added to the equation (1).

以上で、図2のフローチャートの処理の説明を終了する。   This is the end of the description of the process of the flowchart of FIG.

図2のフローチャートの処理を行うことで、複数の画像フレーム間で明るさが変動した場合でも基準フレーム画像と他フレーム画像の間の動き被写体成分を排除し、ノイズ改善効果をもつ合成画像を出力する画像処理装置を提供することができる。   By performing the process of the flowchart of FIG. 2, even when the brightness varies among a plurality of image frames, the moving subject component between the reference frame image and the other frame image is excluded, and the composite image having the noise improvement effect is output. An image processing apparatus can be provided.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although the preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

本実施例中では、背景領域か否かに応じて合成比率を制御する方法を説明したが、背景判定に行う際の信頼度を元に合成比率を更に細かく制御することが可能である。具体的には、図2のステップS207の処理で、図9(c)のグラフで示す合成比率の制御を行う。   In the present embodiment, the method of controlling the combining ratio in accordance with whether or not it is the background area has been described, but it is possible to control the combining ratio more finely based on the reliability when performing the background determination. Specifically, in the process of step S207 of FIG. 2, control of the synthesis ratio shown by the graph of FIG. 9C is performed.

図9(c)の924は、背景領域の信頼度が高い場合の他フレーム画像の基準フレーム画像との合成比率である。923は、背景領域の信頼度が低い場合の他フレーム画像の基準フレーム画像との合成比率を示す。922は背景領域以外の他フレーム画像の基準フレーム画像との合成比率を示す。背景領域の信頼度は、検出した背景領域の面積の大きさに応じて決定する方法(図5(a)と図5(b)で信頼度を変える)や、ベクトルを検出する時のテンプレート領域(図6の621の領域)のテクスチャ量(標準偏差)を元に算出することができる。このように、背景領域の信頼度を算出し、他フレーム画像の合成比率を細かく制御することで、背景領域の誤検出の影響を考慮した合成比率を算出することができる。   924 in FIG. 9C is a composition ratio with another frame image of the reference frame image when the reliability of the background area is high. Reference numeral 923 denotes a composition ratio with respect to the reference frame image of another frame image when the reliability of the background area is low. Reference numeral 922 denotes a composition ratio with respect to a reference frame image of another frame image other than the background area. The reliability of the background area is determined according to the size of the area of the detected background area (the reliability is changed in FIGS. 5A and 5B), or the template area at the time of detecting a vector. It can be calculated based on the texture amount (standard deviation) of (area 621 of FIG. 6). As described above, by calculating the reliability of the background area and finely controlling the synthesis ratio of the other frame images, it is possible to calculate the synthesis ratio in consideration of the influence of the erroneous detection of the background area.

以下、実施例2では、三脚固定で撮影された動画像フレームではなく、手持ちで撮影された動画像フレームに対して適用した例について説明する。   In the following, in the second embodiment, an example in which the present invention is applied not to a moving image frame shot with a fixed tripod but to a moving image frame shot by hand is described.

本発明の実施形態に係るデジタルカメラであるカメラ100の機能構成は実施例1と同じであるため説明を省略する(図1)。   The functional configuration of a camera 100 which is a digital camera according to an embodiment of the present invention is the same as that of the first embodiment, and therefore the description thereof is omitted (FIG. 1).

本実施例の特徴である、画像処理部107の動作について図2に記載のフローチャートを用いて説明を行う。以下の処理はROM102に記録されたプログラムに従って、制御部101が装置の各部を制御し、画像処理部107への入力や出力を制御することにより実現される。図8のフローチャートを用いて実施例2の全体処理を説明する。尚、実施例2の全体処理の図8のフローチャートは、実施例1の図2のフローチャートと同じ処理を行うステップは、図2のフローチャートと同記号を用いて説明を省略する。実施例1と異なる処理ステップはステップS801の処理であるため、ステップS801以降の処理を説明する。   The operation of the image processing unit 107, which is a feature of this embodiment, will be described using the flowchart shown in FIG. The following processing is realized by the control unit 101 controlling each unit of the apparatus according to a program stored in the ROM 102 and controlling input and output to the image processing unit 107. The entire process of the second embodiment will be described with reference to the flowchart of FIG. In the flowchart of FIG. 8 of the overall processing of the second embodiment, the steps performing the same processing as the flowchart of FIG. 2 of the first embodiment are described using the same symbols as the flowchart of FIG. Since the processing steps different from the first embodiment are the processing of step S801, the processing after step S801 will be described.

図8のステップS801は、ステップS202で求めた基準位置を決定した動画像フレームと、合成対象の動画像フレームの背景被写体の位置を合わせる処理を行う。基準位置の動画像フレームと合成対象の動画像フレームの対応位置を動きベクトルを算出し、ベクトルを元に幾何変形を行い、合成対象の動画像フレームの位置を基準位置の動画像フレームに合わせる処理を行う。位置合わせに関しては図7、10を用いて詳細に説明を行う。   In step S801 in FIG. 8, the moving image frame whose reference position is determined in step S202 is matched with the position of the background subject of the moving image frame to be synthesized. Processing that calculates the motion vector between the corresponding position of the moving image frame at the reference position and the moving image frame to be synthesized, performs geometric deformation based on the vector, and aligns the position of the moving image frame to be synthesized with the moving image frame at the reference position I do. The alignment will be described in detail with reference to FIGS.

位置合わせ処理を行うためには、画像間の変形量を補正する位置合わせ係数を算出する。まず図10を用いて位置合わせ処理について説明する。図10の画像1001と1002は、それぞれ位置合わせ基準の画像(1001)と、位置合わせ補正対象の画像(1002)である。位置合わせ補正処理は、並進成分に加え手振れが発生することで回転や煽りの成分が発生し、その結果、画像1002の様に画像が回転や煽りの影響を受けた画像が取得される。このような場合に並進成分や回転成分、あおり成分を幾何変形処理によって補正するための係数として幾何変換係数算出を行う。この幾何変形処理を行う幾何変換係数を位置合わせ係数と呼ぶ。例えば、画像1002を模式的に表した図が1003であり、本来補正すべき画像1001の位置を1004で示している。この時1003から1004に幾何変形処理を行う際に用いる位置合わせ係数が1011である。1005の位置合わせ係数Aは一般的に式(2)で表され、画像の座標をI(x座標,y座標)とすると式(3)の幾何変形処理を行うことで、1003から1004の位置合わせを実行することができる係数となっている。   In order to perform alignment processing, an alignment coefficient for correcting the amount of deformation between images is calculated. First, alignment processing will be described with reference to FIG. Images 1001 and 1002 in FIG. 10 are an alignment reference image (1001) and an alignment correction target image (1002), respectively. In the alignment correction processing, in addition to the translation component, a shake or shake occurs to generate a component of rotation or rotation, and as a result, an image in which the image is affected by the rotation or rotation is acquired like an image 1002. In such a case, geometric transformation coefficient calculation is performed as a coefficient for correcting the translation component, the rotation component, and the tilt component by the geometric transformation process. The geometric transformation coefficient which performs this geometric transformation process is called an alignment coefficient. For example, a diagram schematically representing the image 1002 is 1003, and the position of the image 1001 to be corrected is indicated by 1004. At this time, the alignment coefficient used when performing geometric deformation processing from 1003 to 1004 is 1011. The registration coefficient A of 1005 is generally expressed by the equation (2). Assuming that the coordinates of the image are I (x coordinate, y coordinate), the geometric transformation processing of the equation (3) is performed to obtain the positions 1003 to 1004. It is a coefficient that can be performed.

Figure 2019101997
Figure 2019101997

Figure 2019101997
Figure 2019101997

位置合わせ係数を算出するために、それぞれ位置合わせ基準の画像(1001)と、位置合わせ補正対象の画像(1002)の2画像間で画像セットを設定する。画像セットは、例えば補正対象画像よりも撮影時間が1フレーム前の画像を位置合わせの基準とする画像とし、もう一枚を補正対象画像とする。   In order to calculate the alignment coefficient, an image set is set between two images of the alignment reference image (1001) and the alignment correction target image (1002). In the image set, for example, an image whose imaging time is one frame before the correction target image is used as a reference for alignment, and another image is used as the correction target image.

そして、画像セット間で画像の領域毎に特徴点(もしくは特徴領域)の移動方向・移動量を特徴量としてベクトルを算出する。そして、算出したベクトルを基に画像セット間の位置関係(並進・回転・縮小・拡大)を表す幾何変換係数を位置合わせ係数として求める。   Then, a vector is calculated using the movement direction / movement amount of the feature point (or feature area) as the feature amount for each area of the image between the image sets. Then, based on the calculated vector, a geometric transformation coefficient representing a positional relationship (translation, rotation, reduction, enlargement) between the image sets is obtained as an alignment coefficient.

図7(a)の701は画像全体を表し、711は画像全体に均等に設定した特徴点(または特徴領域)を表す。特徴点としては、単純に画像領域で等間隔位置のブロックを取り出しても良いが、エッジ部分や高周波から低周波の周波数成分を多く含むテクスチャを選択した方が画像セット間のベクトルを正確に求めることができる。   In FIG. 7A, reference numeral 701 denotes the entire image, and reference numeral 711 denotes feature points (or feature regions) uniformly set on the entire image. As feature points, blocks at equally-spaced positions in the image area may be simply taken out, but it is more accurate to select the vector between the image sets if the texture including many edge components or high frequency to low frequency frequency components is selected be able to.

図7(b)の702は、位置合わせ対象画像であり、703は、画像セット間で位置合わせの基準とする画像を表す。画像702と画像703に対して、対応する特徴点の位置を計算し、対応する特徴点の方向と移動量を算出する。例えば、721〜723、731〜733は、方向と移動量を表す特徴量としてベクトルを矢印で図示したものである。同様にして、残りの特徴点に対してもベクトルを算出する。   Reference numeral 702 in FIG. 7B denotes a registration target image, and reference numeral 703 denotes an image as a reference of registration between image sets. The position of the corresponding feature point is calculated for the image 702 and the image 703, and the direction and the movement amount of the corresponding feature point are calculated. For example, 721 to 723 and 731 to 733 are vectors in which arrows are shown as vectors as feature amounts representing the direction and the movement amount. Similarly, vectors are calculated for the remaining feature points.

一般的に画像間の特徴点の対応関係を求める方法として、ブロックマッチング手法が用いられている。このブロックマッチング手法は、撮影した等倍の画像だけで無く、段階的に縮小した画像に対してブロックマッチングを行うことで、階層ベクトル検出を行うことも可能である。階層的にベクトル検出を行うことで、探索範囲を広くしてもベクトル検出に掛かる処理時間の増加を抑えることが可能となる。   Generally, a block matching method is used as a method of obtaining the correspondence between feature points between images. According to this block matching method, hierarchical vector detection can also be performed by performing block matching not only on a photographed equal-magnified image but also on a stepwise reduced image. By hierarchically performing vector detection, it is possible to suppress an increase in processing time required for vector detection even if the search range is broadened.

続いて求めたベクトル群を用いて、幾何変換係数を求める。例えばベクトルX1は、基準画像の特徴点の座標X’=(x’1,y’1,1)と位置合わせ対象画像の特徴点の座標X=(x1,y1,1)の3次元の座標系を含む情報を持っている。従って、式(4)のように、位置合わせ対象画像の特徴点の座標Xに所定の変換係数Aを掛けることで求めた座標X’と、基準画像の特徴点の座標と差分が最も小さくなる変換係数Aを求める。   Subsequently, geometric transformation coefficients are determined using the vector group determined. For example, the vector X1 is a three-dimensional coordinate of the coordinate X '= (x'1, y'1, 1) of the feature point of the reference image and the coordinate X = (x1, y1, 1) of the feature point of the alignment target image I have information including the system. Therefore, as in equation (4), the coordinates X ′ obtained by multiplying the coordinates X of the feature points of the alignment target image by the predetermined conversion coefficient A, and the coordinates and difference of the feature points of the reference image become the smallest. Find a conversion factor A.

Figure 2019101997
Figure 2019101997

この変換係数Aを求める手法としては、ニュートン法やガウスニュートン法等、公知の最適化手法を用いて求める。求められた変換係数Aを位置合わせ係数として採用する。   The conversion coefficient A is determined using a known optimization method such as the Newton method or Gauss-Newton method. The obtained conversion factor A is adopted as a registration factor.

図8のフローチャートに戻って説明を行う。   Referring back to the flowchart of FIG.

図8のステップS203では、基準フレーム画像とステップS801で位置合わせを行った合成対象の動画像フレームの画像を用いて実施例1のステップS203の処理を行い背景領域の検出を行う。背景領域の検出は、基準フレーム画像に対して手ぶれを補正するための幾何変換を行った後の他フレーム画像を用いるため、背景領域は、動きベクトルはほぼゼロとなり、図5の(a)または(b)と同じように背景領域を検出することができる。   In step S203 of FIG. 8, the background frame is detected by performing the process of step S203 of the first embodiment using the reference frame image and the image of the moving image frame to be combined aligned in step S801. Since the detection of the background area uses another frame image after geometric transformation for correcting camera shake with respect to the reference frame image, the motion vector of the background area becomes almost zero, as shown in FIG. The background area can be detected in the same manner as (b).

図8のステップS204〜208の処理は実施例1と同様の処理のため説明を省略する。   The processes in steps S204 to S208 in FIG. 8 are similar to those in the first embodiment, and thus the description thereof is omitted.

以上で、図8のフローチャートの処理の説明を終了する。   This is the end of the description of the process of the flowchart of FIG.

図8のフローチャートの処理を行うことで、手持ちで撮影した動画像フレームに対してノイズの影響を軽減する画像処理装置を提供することができる。   By performing the process of the flowchart of FIG. 8, it is possible to provide an image processing apparatus that reduces the influence of noise on a moving image frame captured by hand.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although the preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

また、図8のステップS204の背景領域の検出は、基準フレーム画像に対して手ぶれを補正するための幾何変換を行う前の他フレーム画像のベクトルの大きさと向きを用いて背景判定を行うことも可能である。具体的には、位置合わせ前の他フレーム画像で算出した各々のベクトル開始位置(図7のベクトル始点741)に対して、式(4)変換係数Aを求める。その後各々のベクトル開始位置に対して変換係数Aで行列演算した座標と、各々のベクトル終了位置(図7のベクトル終点742)との誤差がある所定以下になるベクトルを検出することで、背景領域の判定を行うことが可能である。   In addition, detection of the background area in step S204 in FIG. 8 may be performed by using the vector size and direction of another frame image before geometric conversion for correcting camera shake on the reference frame image. It is possible. Specifically, for each vector start position (the vector start point 741 in FIG. 7) calculated in another frame image before alignment, the equation (4) transform coefficient A is determined. Thereafter, a background area is detected by detecting a vector in which an error between coordinates calculated by the conversion coefficient A for each vector start position and each vector end position (the vector end point 742 in FIG. 7) is smaller than a predetermined value. It is possible to determine

なお、上述した実施の形態の処理は、各機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に提供してもよい。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行可能とすることによって、前述した実施形態の機能を実現することができる。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フロッピィ(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスクなどを用いることができる。或いは、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることもできる。   Note that the process of the above-described embodiment may provide a system or apparatus with a storage medium storing a program code of software in which a procedure for realizing each function is described. Then, the computer (or CPU or MPU) of the system or the apparatus can read out and execute the program code stored in the storage medium to realize the functions of the above-described embodiment. In this case, the program code itself read out from the storage medium implements the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying such a program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk or the like can be used. Alternatively, a CD-ROM, a CD-R, a magnetic tape, a non-volatile memory card, a ROM or the like can be used.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施の形態の機能が実現されるだけではない。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した各実施例の機能が実現される場合も含まれている。   In addition, the functions of the above-described embodiments are not only realized by executing the program code read by the computer. Based on the instructions of the program code, the operating system (OS) operating on the computer performs part or all of the actual processing, and the processing of the above-described embodiments is realized by the processing. It is done.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含むものである。   Furthermore, the program code read out from the storage medium may be written to a memory provided to a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on an instruction of the program code, a CPU or the like provided in the function expansion board or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. Is also included.

101 システム制御部
102 ROM
103 RAM
104 光学系
105 撮像部
106 A/D変換部
107 画像処理部
108 表示部
109 記録部
101 System control unit 102 ROM
103 RAM
104 optical system 105 imaging unit 106 A / D conversion unit 107 image processing unit 108 display unit 109 recording unit

Claims (11)

基準フレーム画像と複数の他フレーム画像を取得する取得手段と、
前記基準フレーム画像に対する前記複数の他フレーム画像の信号の変化量を求める変化量算出手段と、
前記基準フレーム画像と前記他フレーム画像を比較して背景領域を抽出する抽出手段と、
前記複数の他フレーム画像の、前記基準となるフレーム画像に対する信号の変化量に基づいて、前記複数の他フレーム画像の合成比率を算出する比率算出手段と、
前記比率算出手段で算出された合成比率で対象の2画像を合成する合成手段とを有し、
前記比率算出手段は、前記変化量がより小さい他フレーム画像により大きい重みを付けて合成比率を算出することを特徴とする画像処理装置。
Acquisition means for acquiring a reference frame image and a plurality of other frame images;
Variation amount calculation means for obtaining variation amounts of the plurality of other frame image signals with respect to the reference frame image;
Extracting means for extracting a background area by comparing the reference frame image and the other frame image;
Ratio calculation means for calculating a synthesis ratio of the plurality of other frame images based on the amount of change of the signal of the plurality of other frame images with respect to the reference frame image;
And combining means for combining two images of the object at the combining ratio calculated by the ratio calculating means,
3. The image processing apparatus according to claim 1, wherein the ratio calculation unit calculates the synthesis ratio by giving larger weight to the other frame image having a smaller amount of change.
前記変化量算出手段は、前記基準フレーム画像と前記他フレームとの輝度値の差分情報を用いて算出することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the change amount calculation unit calculates using the difference information of the luminance value between the reference frame image and the other frame. 前記比率算出手段は、前記背景領域の信頼度が高いほど、前記他のフレーム画像の合成比率を高くすることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the ratio calculation unit increases the synthesis ratio of the other frame image as the reliability of the background area is higher. 前記背景領域の信頼度は、背景と検出される領域の面積が大きいほど高いことを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the reliability of the background area is higher as the area of the area detected as the background is larger. 前記背景領域の信頼度は、画像を示す画像信号の標準偏差によって求められる被写体のテクスチャ量が多いほど高いことを特徴とする請求項3または4に記載の画像処理装置。   5. The image processing apparatus according to claim 3, wherein the reliability of the background area increases as the amount of texture of the subject determined by the standard deviation of the image signal indicating the image increases. 抽出手段は、前記基準フレーム画像と、前記他フレーム画像の間で被写体の動き量が小さい領域を抽出することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 5, wherein the extraction unit extracts a region where the amount of movement of the subject is small between the reference frame image and the other frame image. 前記抽出手段は係数算出手段と処理手段を有し、
前記係数算出手段は、前記他フレーム画像を前記基準フレーム画像の位置に基づいて補正するための幾何変換係数を算出し、
前記処理手段は、前記幾何変換係数を用いて、前記他フレーム画像に幾何変形処理を行い、前記基準フレーム画像と前記幾何変形処理を行った後の前記他フレーム画像の間で被写体の動き量が小さい領域を前記背景領域として抽出することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
The extraction means comprises coefficient calculation means and processing means,
The coefficient calculation means calculates a geometric transformation coefficient for correcting the other frame image based on the position of the reference frame image.
The processing means performs geometric deformation processing on the other frame image using the geometric conversion coefficient, and the motion amount of the subject between the reference frame image and the other frame image after the geometric deformation processing is The image processing apparatus according to any one of claims 1 to 6, wherein a small area is extracted as the background area.
前記抽出手段は係数算出手段を有し、
前記係数算出手段は、前記他フレーム画像を前記基準フレーム画像の位置に補正するための幾何変換係数を算出し、
前記幾何変換係数と相関が高い前記基準フレーム画像と、前記他フレーム画像の間の被写体の動き量を持つ領域を前記背景領域として抽出することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
The extraction means comprises coefficient calculation means
The coefficient calculation means calculates a geometric transformation coefficient for correcting the other frame image to the position of the reference frame image.
7. The image processing apparatus according to claim 1, wherein an area having a movement amount of an object between the reference frame image having a high correlation with the geometric transformation coefficient and the other frame image is extracted as the background area. The image processing apparatus according to claim 1.
基準フレーム画像と複数の他フレーム画像を取得する取得ステップと、
前記基準フレーム画像に対する前記複数の他フレーム画像の信号の変化量を求める変化量算出ステップと、
前記基準フレーム画像と前記他フレーム画像を比較して背景領域を抽出する抽出ステップと、
前記複数の他フレーム画像の、前記基準となるフレーム画像に対する信号の変化量に基づいて、前記複数の他フレーム画像の合成比率を算出する比率算出ステップと、
前記比率算出ステップにて算出された合成比率で対象の2画像を合成する合成ステップとを有し、
前記比率算出ステップでは、前記変化量がより小さい他フレーム画像により大きい重みを付けて合成比率を算出することを特徴とする画像処理方法。
An acquisition step of acquiring a reference frame image and a plurality of other frame images;
A change amount calculation step of obtaining change amounts of signals of the plurality of other frame images with respect to the reference frame image;
Extracting the background area by comparing the reference frame image and the other frame image;
A ratio calculating step of calculating a synthesis ratio of the plurality of other frame images based on a change amount of a signal with respect to the reference frame image of the plurality of other frame images;
And combining the two images of interest at the combining ratio calculated in the ratio calculating step;
The image processing method characterized in that, in the ratio calculating step, the combining ratio is calculated by giving larger weight to the other frame image having a smaller amount of change.
請求項9に記載の画像処理方法の手順が記述されたコンピュータで実行可能なプログラム。   A computer-executable program in which the procedure of the image processing method according to claim 9 is described. コンピュータに、請求項9に記載の画像処理方法の各工程を実行させるためのプログラムが記憶されたコンピュータが読み取り可能な記憶媒体。   A computer readable storage medium storing a program for causing a computer to execute the steps of the image processing method according to claim 9.
JP2017235542A 2017-12-07 2017-12-07 Image processing apparatus and image processing method reducing noise by composing plural captured images Pending JP2019101997A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017235542A JP2019101997A (en) 2017-12-07 2017-12-07 Image processing apparatus and image processing method reducing noise by composing plural captured images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017235542A JP2019101997A (en) 2017-12-07 2017-12-07 Image processing apparatus and image processing method reducing noise by composing plural captured images

Publications (1)

Publication Number Publication Date
JP2019101997A true JP2019101997A (en) 2019-06-24

Family

ID=66977026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017235542A Pending JP2019101997A (en) 2017-12-07 2017-12-07 Image processing apparatus and image processing method reducing noise by composing plural captured images

Country Status (1)

Country Link
JP (1) JP2019101997A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112020002638T5 (en) 2019-05-31 2022-02-24 Mitsubishi Power, Ltd. Steam turbine blade, steam turbine and method of operating the same
US20220188988A1 (en) * 2019-03-29 2022-06-16 Sony Group Corporation Medical system, information processing device, and information processing method
CN115953332A (en) * 2023-03-15 2023-04-11 四川新视创伟超高清科技有限公司 Dynamic image fusion brightness adjustment method and system and electronic equipment
US12136196B2 (en) * 2019-03-29 2024-11-05 Sony Group Corporation Medical system, information processing device, and information processing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220188988A1 (en) * 2019-03-29 2022-06-16 Sony Group Corporation Medical system, information processing device, and information processing method
US12136196B2 (en) * 2019-03-29 2024-11-05 Sony Group Corporation Medical system, information processing device, and information processing method
DE112020002638T5 (en) 2019-05-31 2022-02-24 Mitsubishi Power, Ltd. Steam turbine blade, steam turbine and method of operating the same
DE112020002638B4 (en) 2019-05-31 2024-04-18 Mitsubishi Heavy Industries, Ltd. Steam turbine blade, steam turbine and method for operating the same
CN115953332A (en) * 2023-03-15 2023-04-11 四川新视创伟超高清科技有限公司 Dynamic image fusion brightness adjustment method and system and electronic equipment
CN115953332B (en) * 2023-03-15 2023-08-18 四川新视创伟超高清科技有限公司 Dynamic image fusion brightness adjustment method, system and electronic equipment

Similar Documents

Publication Publication Date Title
US10306141B2 (en) Image processing apparatus and method therefor
JP5179398B2 (en) Image processing apparatus, image processing method, and image processing program
JP6157242B2 (en) Image processing apparatus and image processing method
JP5744614B2 (en) Image processing apparatus, image processing method, and image processing program
JP5643563B2 (en) Image processing apparatus and control method thereof
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
US9007483B2 (en) Image synthesis device and computer program for image synthesis for synthesizing a plurality of images of different exposure times
US9811909B2 (en) Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method
JP6656035B2 (en) Image processing apparatus, imaging apparatus, and control method for image processing apparatus
JP2015148532A (en) Distance measuring device, imaging apparatus, distance measuring method, and program
JP5210198B2 (en) Image processing apparatus, image processing method, and image processing program
JP2018107526A (en) Image processing device, imaging apparatus, image processing method and computer program
JP2015073185A (en) Image processing device, image processing method and program
JP2006229868A (en) Image processing apparatus and method, and motion detection apparatus and method
JP6604908B2 (en) Image processing apparatus, control method thereof, and control program
JP2019101996A (en) Image processing apparatus and image processing method reducing noise by composing plural captured images
JP2019101997A (en) Image processing apparatus and image processing method reducing noise by composing plural captured images
JP6921606B2 (en) Image processing equipment, image processing methods and programs
JP7458769B2 (en) Image processing device, imaging device, image processing method, program and recording medium
JP7009252B2 (en) Image processing equipment, image processing methods and programs
JP2017212698A (en) Imaging apparatus, control method for imaging apparatus, and program
JP2014155000A (en) Image processing apparatus, control method for the same, and control program
JP6979859B2 (en) Image processing equipment, imaging equipment, image processing methods, and programs
JP7346021B2 (en) Image processing device, image processing method, imaging device, program and recording medium
JP6415228B2 (en) Image synthesizing apparatus and image synthesizing apparatus control method