Nothing Special   »   [go: up one dir, main page]

JP7389558B2 - Information processing device and its control method and program - Google Patents

Information processing device and its control method and program Download PDF

Info

Publication number
JP7389558B2
JP7389558B2 JP2019043042A JP2019043042A JP7389558B2 JP 7389558 B2 JP7389558 B2 JP 7389558B2 JP 2019043042 A JP2019043042 A JP 2019043042A JP 2019043042 A JP2019043042 A JP 2019043042A JP 7389558 B2 JP7389558 B2 JP 7389558B2
Authority
JP
Japan
Prior art keywords
image
motion blur
motion
information processing
exposure time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019043042A
Other languages
Japanese (ja)
Other versions
JP2020145660A (en
Inventor
誠 太田
信也 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019043042A priority Critical patent/JP7389558B2/en
Publication of JP2020145660A publication Critical patent/JP2020145660A/en
Application granted granted Critical
Publication of JP7389558B2 publication Critical patent/JP7389558B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Description

本発明は、情報処理装置およびその制御方法ならびにプログラムに関する。 The present invention relates to an information processing device, a control method thereof, and a program.

近年、デジタルスチルカメラ等の撮像装置において、シャッタースピード優先モードと呼ばれる撮影モードを搭載している撮像装置が知られている。シャッタースピード優先モードは、ユーザが所望のシャッタースピードを設定した場合に、撮像装置が絞り値やISO感度といったシャッタースピード以外の露出設定値を自動で設定する撮影モードである。例えば、ユーザが撮影前に高速なシャッタースピードを設定してシャッタースピード優先モードで撮影を行った場合、動きブレが少ない画像を撮影することができる。 2. Description of the Related Art In recent years, imaging devices such as digital still cameras have been known that are equipped with a shooting mode called a shutter speed priority mode. The shutter speed priority mode is a shooting mode in which, when a user sets a desired shutter speed, the imaging device automatically sets exposure settings other than the shutter speed, such as an aperture value and ISO sensitivity. For example, if the user sets a high shutter speed before shooting and shoots in shutter speed priority mode, it is possible to shoot an image with less motion blur.

シャッタースピード優先モードで撮影する場合、撮影される画像に発生するブレの目安を視認することができれば、所望のシャッタースピードの設定が容易になる。このような課題に対し、特許文献1は、準備撮影中に、動き領域を強調表示した画像をファインダに表示することにより、ユーザが準備撮影中の動き領域を容易に確認することができる技術を開示している。なお、準備撮影は、撮像装置の電子ビューファインダや背面液晶を見ながら、構図合わせや撮影条件の設定を行うための撮影である。 When photographing in shutter speed priority mode, it becomes easier to set a desired shutter speed if you can visually check the roughness of blur that will occur in the photographed image. To address this problem, Patent Document 1 discloses a technology that allows the user to easily check the moving area during preparatory shooting by displaying an image with the moving area highlighted on the viewfinder during preparatory shooting. Disclosed. Note that preparatory photography is photography for adjusting the composition and setting photography conditions while looking at the electronic viewfinder or rear LCD of the imaging device.

特開2008-172667号公報Japanese Patent Application Publication No. 2008-172667

しかしながら、動きブレが少ない画像を撮影するために準備撮影中の画像を確認しながら高速なシャッタースピードを設定し、シャッタースピード優先モードで本撮影した場合にも、本撮影の画像が所望でない場合がある。これは、本撮影と準備撮影とで発生するブレが異なる場合があるためであり、準備撮影中にユーザが最適と考えるシャッタースピードを設定しても、本撮影を行った結果、被写体がブレて撮影される場合がある。 However, even if you set a high shutter speed while checking the image during preparatory shooting in order to take an image with less motion blur, and then take the actual shot in shutter speed priority mode, the image taken during the actual shooting may not be what you want. be. This is because the blur that occurs during the actual shooting and the preparatory shooting may be different, so even if the user sets the shutter speed that he or she considers optimal during the preparatory shooting, the subject may be blurred as a result of the actual shooting. May be photographed.

また、実際に本撮影によって得られた画像をユーザが目視確認することにより、より最適なシャッタースピードを設定可能な場合がある。しかしながら、単に撮影された本撮影画像を表示するだけでは、画像を拡大表示しなければ被写体のブレを視認することができない場合などがあり、確認に手間がかかるという課題がある。 In addition, the user may be able to set a more optimal shutter speed by visually checking the image actually obtained by actual shooting. However, simply displaying the actual photographed image poses a problem in that blurring of the subject may not be visible unless the image is enlarged, and confirmation is time-consuming.

本発明は、上記課題に鑑みてなされ、その目的は、本撮影画像を再生して表示する場合に、本撮影画像に対する動きブレを容易に確認可能になる技術を実現することである。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to realize a technology that makes it possible to easily confirm motion blur in the actually captured image when the actually captured image is played back and displayed.

この課題を解決するため、例えば本発明の情報処理装置は以下の構成を備える。すなわち、被写体像を撮影して順次出力される第1の画像と第2の画像とを取得する取得手段であって、少なくとも前記第2の画像は本撮影の画像として記録媒体に記録される、取得手段と、前記第1の画像と前記第2の画像とを用いて求められる動き情報を、前記第2の画像に関連付けられた露光時間に基づいて、前記第2の画像における動きブレに換算する換算手段と、前記第2の画像を表示する場合に、換算された前記第2の画像における動きブレに基づいて、画像の動きブレを報知する報知手段と、を有し、前記第2の画像に関連付けられた露光時間は、前記第2の画像の記録後に設定される露光時間であることを特徴とする。 In order to solve this problem, for example, the information processing device of the present invention has the following configuration. That is, it is an acquisition means for photographing a subject image and acquiring a first image and a second image that are sequentially output, and at least the second image is recorded on a recording medium as an image of the main photographing. an acquisition means, and converting motion information obtained using the first image and the second image into motion blur in the second image based on an exposure time associated with the second image. and a notifying means for notifying the motion blur of the image based on the converted motion blur in the second image when the second image is displayed. The exposure time associated with the image is an exposure time set after recording the second image.

本発明によれば、本撮影画像を再生して表示する場合に、本撮影画像に対する動きブレを容易に確認可能になる。 According to the present invention, when the actually photographed image is played back and displayed, it becomes possible to easily check for motion blur in the actually photographed image.

本実施形態の情報処理装置の一例としてのデジタルカメラの機能構成例を示すブロック図A block diagram showing an example of the functional configuration of a digital camera as an example of the information processing device of this embodiment 本実施形態のデジタルカメラにおける撮影処理の一連の動作を示すフローチャートFlowchart showing a series of operations of photographing processing in the digital camera of this embodiment 本実施形態の本撮影画像及び動きベクトルの一例を示す図A diagram showing an example of a main photographed image and a motion vector according to the present embodiment 本実施形態の動きベクトル算出部における一連の動作を示すフローチャートFlowchart showing a series of operations in the motion vector calculation unit of this embodiment 本実施形態の動きベクトルの算出方法の一例を説明するための図Diagram for explaining an example of a motion vector calculation method according to the present embodiment 本実施形態の画像生成部の機能構成例を示すブロック図A block diagram showing an example of the functional configuration of the image generation unit of this embodiment 本実施形態の画像生成部における処理の一連の動作を示すフローチャートFlowchart showing a series of processing operations in the image generation unit of this embodiment 動きベクトルと換算された動きブレの一例を説明するための図Diagram for explaining an example of motion blur converted to a motion vector 動きブレ報知方法の一例を説明するための図Diagram for explaining an example of a motion blur notification method

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the claimed invention. Although a plurality of features are described in the embodiments, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.

以下では情報処理装置の一例として、撮影した画像を記録可能なデジタルカメラを用いる例を説明する。しかし、本実施形態は、撮影の可能なデジタルカメラに限らず、撮影された画像を取得することが可能な他の機器にも適用可能である。これらの機器には、例えば、スマートフォンを含む携帯電話機、パーソナルコンピュータ、ゲーム機、タブレット端末、時計型や眼鏡型の情報端末、医療機器、監視システムや車載用システムの機器などが含まれてよい。 Below, as an example of an information processing apparatus, an example will be described in which a digital camera capable of recording captured images is used. However, the present embodiment is applicable not only to digital cameras capable of photographing, but also to other devices capable of acquiring photographed images. These devices may include, for example, mobile phones including smartphones, personal computers, game consoles, tablet terminals, watch-shaped or glasses-shaped information terminals, medical devices, monitoring systems, in-vehicle system devices, and the like.

本実施形態では、デジタルカメラ100が、本撮影画像から得られる動き情報から動きブレを換算し、撮影画像再生時に動きブレの報知を行う例について説明する。 In this embodiment, an example will be described in which the digital camera 100 converts motion blur from motion information obtained from an actually captured image, and reports motion blur when playing back the captured image.

(デジタルカメラの構成)
図1は、本実施形態の情報処理装置の一例としてデジタルカメラ100の機能構成例を示すブロック図である。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。
(Digital camera configuration)
FIG. 1 is a block diagram showing an example of a functional configuration of a digital camera 100 as an example of an information processing apparatus according to this embodiment. Note that one or more of the functional blocks shown in FIG. 1 may be realized by hardware such as an ASIC or a programmable logic array (PLA), or may be realized by a programmable processor such as a CPU or MPU executing software. You can. Alternatively, it may be realized by a combination of software and hardware.

制御部101は、例えばCPUであり、デジタルカメラ100が備える各ブロックに対する制御プログラムを後述のROM102より読み出し、後述のRAM103に展開して実行する。これにより、制御部101は、デジタルカメラ100が備える各ブロックの動作を制御する。また、制御部101は、所定の画像を表示部109に表示させる表示制御を行う。 The control unit 101 is, for example, a CPU, and reads a control program for each block included in the digital camera 100 from a ROM 102 (described later), expands it to a RAM 103 (described later), and executes it. Thereby, the control unit 101 controls the operation of each block included in the digital camera 100. Further, the control unit 101 performs display control to display a predetermined image on the display unit 109.

ROM102は、例えばEEPROMなどの電気的に消去・記録可能な不揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、制御部101等が実行するプログラムや、デジタルカメラ100が備える各ブロックの動作で生成されたデータの一時的な記憶するために用いられる。 The ROM 102 is an electrically erasable/recordable nonvolatile memory such as an EEPROM, and stores operation programs for each block included in the digital camera 100 as well as parameters necessary for the operation of each block. The RAM 103 is a rewritable volatile memory, and is used to temporarily store programs executed by the control unit 101 and the like, and data generated by the operations of each block included in the digital camera 100.

光学系104は、ズームレンズ、フォーカスレンズを含むレンズ群を含み、光学系104を通過した被写体像を、後述の撮像部105の撮像面上に結像させる。撮像部105は、例えばCCDやCMOSセンサ等の撮像素子を含み、光学系104により撮像部105の撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号をデジタル画像データに変換する。A/D変換部106から出力されたデジタル画像データは、RAM103に一時的に記憶される。 The optical system 104 includes a lens group including a zoom lens and a focus lens, and forms a subject image that has passed through the optical system 104 on an imaging surface of an imaging unit 105, which will be described later. The imaging unit 105 includes an imaging device such as a CCD or a CMOS sensor, photoelectrically converts an optical image formed on the imaging surface of the imaging unit 105 by the optical system 104, and converts the obtained analog image signal into an A/D converter. It is output to the converter 106. The A/D converter 106 converts the input analog image signal into digital image data. Digital image data output from the A/D converter 106 is temporarily stored in the RAM 103.

画像処理部107は、RAM103に記憶されている画像データに対して、例えばホワイトバランス調整、色補間、ガンマ処理などの様々な画像処理を適用する。また、画像処理部107は、後述する画像生成部600を含む。画像生成部600は、RAM103に記憶されている画像に対して、動きブレの確認を容易にする画像プレーンを重畳した、動きブレ報知画像を生成する。また、画像処理部107は、後述する不図示の動きベクトル算出部を含み、撮像部105あるいは記録部108から取得された画像間の動きベクトルを算出する。 The image processing unit 107 applies various image processing such as white balance adjustment, color interpolation, and gamma processing to the image data stored in the RAM 103. The image processing unit 107 also includes an image generation unit 600, which will be described later. The image generation unit 600 generates a motion blur notification image in which an image plane that facilitates confirmation of motion blur is superimposed on the image stored in the RAM 103. Further, the image processing unit 107 includes a motion vector calculation unit (not shown) described later, and calculates a motion vector between images acquired from the imaging unit 105 or the recording unit 108.

記録部108は、半導体メモリなどで構成される固定された記録媒体にデータを記録するが、記録媒体は着脱可能なメモリカードであってもよい。記録部108は、画像処理部107で処理された画像データを記録画像として記録する。表示部109は、LCD等の表示デバイスであり、RAM103に記憶されている画像や記録部108に記録されている画像を表示する。また、表示部109は、ユーザからの指示を受け付けるためのユーザインタフェースを表示することができる。また、表示部109は、準備撮影中に構図合わせ等のために撮像部105が撮像した画像を表示する。なお、表示部109は必ずしもデジタルカメラ100の内部に備わる必要はなく、制御部101が外部モニタに表示するための表示用データを外部に出力するように表示制御を行う構成であってもよい。 The recording unit 108 records data on a fixed recording medium such as a semiconductor memory, but the recording medium may be a removable memory card. The recording unit 108 records the image data processed by the image processing unit 107 as a recorded image. The display unit 109 is a display device such as an LCD, and displays images stored in the RAM 103 and images recorded in the recording unit 108. Furthermore, the display unit 109 can display a user interface for accepting instructions from the user. Further, the display unit 109 displays an image captured by the imaging unit 105 for composition adjustment and the like during preparatory shooting. Note that the display unit 109 does not necessarily need to be provided inside the digital camera 100, and may be configured such that the control unit 101 performs display control so as to output display data to the outside for display on an external monitor.

指示入力部110は、タッチパネルやスイッチ、ダイヤル、ボタンなどの操作部材を含み、ユーザによる指示を受け取って制御部101に通知する。 The instruction input unit 110 includes operation members such as a touch panel, switches, dials, and buttons, receives instructions from the user, and notifies the control unit 101 of the received instructions.

(撮影処理の一連の動作)
次に、図2(a)を参照して、デジタルカメラ100における撮影処理について説明する。なお、本処理は、特に断らない限り制御部101がROM102に記憶されたプログラムをRAM103の作業用領域に展開、実行することにより実現されるものとする。また、本処理は、デジタルカメラ100の起動後に、ユーザが指示入力部110を介して構図合わせなどの撮影準備指示を行った場合に開始される。
(Series of shooting processing operations)
Next, the photographing process in the digital camera 100 will be described with reference to FIG. 2(a). Note that this processing is realized by the control unit 101 loading a program stored in the ROM 102 into the work area of the RAM 103 and executing it, unless otherwise specified. Further, this process is started when the user issues a photography preparation instruction such as composition adjustment via the instruction input unit 110 after the digital camera 100 is started.

S201において、制御部101は準備撮影を開始する。この準備撮影期間中には、制御部101はデジタルカメラ100の各部を制御して連続画像を撮像して表示部109に表示する。デジタルカメラ100のユーザは、表示部109に表示された準備撮影画像を見ながら構図合わせなどを行うことができる。なお、後述するS202、203、204の処理は準備撮影期間中に実行される。 In S201, the control unit 101 starts preparatory photography. During this preparatory shooting period, the control section 101 controls each section of the digital camera 100 to capture continuous images and display them on the display section 109. The user of the digital camera 100 can adjust the composition while viewing the preparatory photographed image displayed on the display unit 109. Note that the processes of S202, 203, and 204, which will be described later, are executed during the preparatory shooting period.

S202において、制御部101は、本撮影時の露光時間を設定する。例えば、制御部101は、指示入力部110から受け取ったユーザによる操作指示に基づいて、本撮影時の露光時間を設定する。なお、本実施形態では、制御部101がユーザ操作に基づいて本撮影時の露光時間を設定する場合を例に説明するが、制御部101が本撮影時の露光時間を、例えば設定された撮影条件等に応じて自動で設定しても良い。制御部101は、設定された露光時間を例えばROM102または記録部108に保持させる。 In S202, the control unit 101 sets the exposure time for actual shooting. For example, the control unit 101 sets the exposure time during actual shooting based on the user's operation instruction received from the instruction input unit 110. In this embodiment, a case will be explained in which the control unit 101 sets the exposure time for the actual shooting based on the user's operation, but the control unit 101 sets the exposure time for the actual shooting based on the user's operation, for example. It may also be set automatically according to conditions. The control unit 101 causes the set exposure time to be held in the ROM 102 or the recording unit 108, for example.

S203において、制御部101は、撮像部105により取得される準備撮影画像を表示部109に表示する。S204において、制御部101は、指示入力部110からの信号に基づいてシャッターボタンが押下されたかを判定する。すなわち、ユーザは表示部109に表示された画像をみながらシャッターチャンス時にシャッターボタンを押下し、制御部101は、このシャッターボタンの押下を検知した場合、S205に進む。制御部101は、シャッターボタンが押下されていないと判定した場合、S203にもどり、準備撮影画像の表示を継続する。 In S<b>203 , the control unit 101 displays the preparation photographed image acquired by the imaging unit 105 on the display unit 109 . In S204, the control unit 101 determines whether the shutter button has been pressed based on the signal from the instruction input unit 110. That is, the user presses the shutter button at a photo opportunity while looking at the image displayed on the display unit 109, and when the control unit 101 detects the pressing of the shutter button, the process advances to S205. If the control unit 101 determines that the shutter button has not been pressed, the process returns to S203 and continues displaying the preparation image.

S205において、制御部101は、撮像部105等を制御して本撮影を行い、本撮影により撮像した画像(以下、本撮影画像という)を記録部108に記録する。S206において、制御部101は、動きブレ報知機能の設定がONである(すなわち有効化されている)のかOFFである(無効化されている)のかを判定する。動きブレ報知機能のONかOFFかの設定は、例えば指示入力部110を用いて設定されるものとし、設定された設定値は例えばROM102または記録部108に保持される。制御部101は、動きブレ報知機能がONであると判定した場合、S207に進み、そうでない場合、動きベクトルの算出は行わずにS208に進む。 In S205, the control unit 101 controls the imaging unit 105 and the like to perform main photography, and records the image captured by the main photography (hereinafter referred to as the main photography image) in the recording unit 108. In S206, the control unit 101 determines whether the setting of the motion blur alert function is ON (that is, enabled) or OFF (disabled). The setting of ON or OFF of the motion blur notification function is set using, for example, the instruction input unit 110, and the set value is stored in the ROM 102 or the recording unit 108, for example. If the control unit 101 determines that the motion blur notification function is ON, the process proceeds to S207; otherwise, the process proceeds to S208 without calculating the motion vector.

S207において、画像処理部107は、制御部101の指示に応じて、本撮影画像に対する動きベクトルの算出を行う。なお、動きベクトルの算出処理については、図4を参照して後述する。制御部101は、画像処理部107で算出した動きベクトルの情報を本撮影画像と関連付けて記録部108に記録してもよい。S208において、制御部101は、S206において撮影された本撮影画像を表示部109に表示する。 In S207, the image processing unit 107 calculates a motion vector for the actual photographed image in accordance with an instruction from the control unit 101. Note that the motion vector calculation process will be described later with reference to FIG. 4. The control unit 101 may record information on the motion vector calculated by the image processing unit 107 in the recording unit 108 in association with the actual photographed image. In S208, the control unit 101 displays the main photographed image photographed in S206 on the display unit 109.

図3(a)は、S205において撮影された本撮影画像の一例を示している。この本撮影画像の例では、左に走っている犬301と止まっている犬302のシーンを撮影した場合の画像を示している。S207における動きベクトルの算出では、例えば動き情報として、本撮影直前の準備撮影画像と本撮影画像との画像間における動きベクトルを算出する。本撮影を連続して行っている(すなわち連続撮影)場合は、準備撮影画像ではなく、本撮影画像に対して1つ前または1つ後の本撮影画像を用いて画像間の動きベクトルを算出してもよい。なお、以下の説明における「画像間」の動きベクトルは、準備撮影画像と本撮影画像の画像間の動きベクトルと、2つの本撮影画像の画像間の動きベクトルのいずれを指してもよい。また、動きベクトルは、2つの画像間における被写体の水平方向の移動量と垂直方向の移動量を、ベクトルとして表す。 FIG. 3(a) shows an example of the actual photographed image photographed in S205. This example of the actual photographed image shows an image in which a scene of a dog 301 running to the left and a dog 302 standing still is photographed. In calculating the motion vector in S207, for example, as motion information, a motion vector between the preparatory photographed image immediately before the actual photographing and the main photographed image is calculated. If the actual shooting is performed continuously (that is, continuous shooting), the motion vector between images is calculated using the actual shooting image one before or one after the actual shooting image, not the preparation shooting image. You may. Note that the motion vector "between images" in the following description may refer to either a motion vector between the preparatory image and the actual image, or a motion vector between the two actual images. Further, a motion vector represents the amount of movement of the subject in the horizontal direction and the amount of movement in the vertical direction between two images as a vector.

なお、動きベクトルとして得られる画像間の動きは、例えば1/60秒などの所定時間間隔で順次取得される画像の間の動きを表すため、必ずしもユーザの設定している露光時間(例えば1/120秒)の間に生じるブレの大きさを表すものではない。このため、本実施形態では、後述するように、例えば撮影で用いられる(あるいはユーザが設定した)露光時間の間に生じるブレの大きさをユーザが容易に把握することができるように、動きベクトルの大きさを、露光時間を用いて換算する処理を行う。 Note that the motion between images obtained as a motion vector represents the motion between images that are sequentially acquired at predetermined time intervals such as 1/60 seconds, so it does not necessarily depend on the exposure time set by the user (for example, 1/60 seconds). 120 seconds). For this reason, in this embodiment, as will be described later, motion vectors are used so that the user can easily understand the magnitude of blurring that occurs during the exposure time used in shooting (or set by the user), for example. Processing is performed to convert the size of , using the exposure time.

ここで、図4を参照して、本実施形態に係る、動きベクトルの算出処理の一連の動作について説明する。なお、本実施形態の動きベクトルの算出処理は、例えば画像処理部107に含まれる不図示の動きベクトル算出部によって実行される。また、以下の説明では、動きベクトルの算出手法としてブロックマッチング法を用いる場合を例に説明するが、この例に限定されず、例えば勾配法でもよい。 Here, with reference to FIG. 4, a series of operations for motion vector calculation processing according to the present embodiment will be described. Note that the motion vector calculation process of this embodiment is executed by, for example, a motion vector calculation unit (not shown) included in the image processing unit 107. Further, in the following explanation, a case will be explained using a block matching method as an example of a motion vector calculation method, but the method is not limited to this example, and for example, a gradient method may be used.

S401において、動きベクトル算出部は、撮像部105から順次出力される、時間的に隣接する2枚の画像を取得して、直前に撮影された準備撮影画像または他の本撮影画像を参照フレームに設定し、本撮影画像を基準フレームに設定する。なお、単に、基準フレームに設定した画像を基準撮像画像と、参照フレームに設定した画像を参照撮像画像ともいう。S402において、動きベクトル算出部は、図5に示すように、基準フレームの基準撮像画像501において、N×N画素の基準ブロック502を配置する。 In S401, the motion vector calculation unit acquires two temporally adjacent images that are sequentially output from the imaging unit 105, and uses the previously captured preparatory image or another main image as a reference frame. settings, and set the actual captured image as the reference frame. Note that the image set as the reference frame is also simply referred to as the standard captured image, and the image set as the reference frame is also simply referred to as the reference captured image. In S402, the motion vector calculation unit arranges a reference block 502 of N×N pixels in the reference captured image 501 of the reference frame, as shown in FIG.

S402において、動きベクトル算出部は、図5に示すように、参照フレームの参照撮像画像503に対し、基準撮像画像501の基準ブロック502の中心座標と同座標504の周囲(N+n)×(N+n)画素を、探索範囲505として設定する。 In S402, as shown in FIG. 5, the motion vector calculation unit calculates, for the reference captured image 503 of the reference frame, the center coordinates of the reference block 502 of the reference captured image 501 and the periphery of the same coordinates 504 (N+n)×(N+n). A pixel is set as a search range 505.

S404において、動きベクトル算出部は、基準撮像画像501の基準ブロック502と、参照撮像画像503の探索範囲505内に存在する異なる座標のN×N画素の参照ブロック506との相関演算を行い、相関値を算出する。相関値は、基準ブロック502及び参照ブロック506の画素に対するフレーム間差分絶対値和に基づき算出する。つまり、フレーム間差分絶対値和の値が最も小さい座標が、最も相関値が高い座標となる。尚、相関値の算出方法は、フレーム間差分絶対値和を求める方法に限定されず、例えばフレーム間差分二乗和や正規相互相関値に基づく相関値を算出する方法でもよい。図5に示す例では、参照ブロック506が最も相関が高いことを示しているものとする。 In S404, the motion vector calculation unit performs a correlation calculation between the reference block 502 of the reference captured image 501 and the reference block 506 of N×N pixels at different coordinates existing within the search range 505 of the reference captured image 503, and calculates the correlation. Calculate the value. The correlation value is calculated based on the sum of absolute differences between frames for pixels of the standard block 502 and the reference block 506. In other words, the coordinate with the smallest inter-frame difference absolute value sum is the coordinate with the highest correlation value. Note that the method for calculating the correlation value is not limited to the method of calculating the sum of absolute values of inter-frame differences, and may be, for example, a method of calculating a correlation value based on the sum of squared inter-frame differences or a normal cross-correlation value. In the example shown in FIG. 5, it is assumed that the reference block 506 has the highest correlation.

S405において、動きベクトル算出部は、S404で求めた最も高い相関値を示す参照ブロック座標に基づき動きベクトルを算出する。例えば、動きベクトル算出部は、参照撮像画像503の探索範囲505のうち基準撮像画像501の基準ブロック502の中心座標に対応した同座標504と参照ブロック506の中心座標とに基づいて動きベクトルを求める。つまり、同座標504から参照ブロック506の中心座標までの座標間距離と方向が動きベクトルとして求められる。動きベクトル算出部は、求めた動きベクトルの情報を動画や音楽のデータと共に又は単独で記録部108に記録する。 In S405, the motion vector calculation unit calculates a motion vector based on the reference block coordinates indicating the highest correlation value determined in S404. For example, the motion vector calculation unit calculates a motion vector based on the coordinates 504 corresponding to the center coordinates of the reference block 502 of the reference captured image 501 and the center coordinates of the reference block 506 within the search range 505 of the reference captured image 503. . That is, the inter-coordinate distance and direction from the same coordinate 504 to the center coordinate of the reference block 506 are determined as a motion vector. The motion vector calculation unit records information on the determined motion vector in the recording unit 108 together with the moving image or music data or alone.

S406において、動きベクトル算出部は、基準撮像画像501の全画素について動きベクトルを算出したか否か判定する。動きベクトル算出部は、S406において全画素の動きベクトルを算出していないと判定した場合には、S402に処理を戻す。そして、S402では、動きベクトルが算出されていない画素を中心として前述した基準撮像画像501にN×N画素の基準ブロック502を配置し、同様にS402からS405の処理を実行する。すなわち、動きベクトル算出部は、図5に示す基準ブロック502を基準撮像画像内で移動させながら、S402からS405までの処理を繰り返し、基準撮像画像501の全画素の動きベクトルを算出する。このようにして算出された動きベクトルの一部の例を図3(b)に示す。図3(b)は、図3(a)の準備撮影画像の動きベクトルの例を示す図である。 In S406, the motion vector calculation unit determines whether motion vectors have been calculated for all pixels of the reference captured image 501. If the motion vector calculation unit determines in S406 that the motion vectors of all pixels have not been calculated, the process returns to S402. Then, in S402, a reference block 502 of N×N pixels is placed in the reference captured image 501 described above centering on pixels for which motion vectors have not been calculated, and the processes of S402 to S405 are similarly executed. That is, the motion vector calculation unit calculates the motion vectors of all pixels of the reference captured image 501 by repeating the processes from S402 to S405 while moving the reference block 502 shown in FIG. 5 within the reference captured image. An example of a portion of the motion vectors calculated in this manner is shown in FIG. 3(b). FIG. 3(b) is a diagram showing an example of a motion vector of the preparatory photographed image of FIG. 3(a).

図3(a)の準備撮影画像では、犬301が左方向に走っている例を示している。このように被写体が移動している場合の動きベクトルの一例を図3(b)に示す。図3(b)の例では、走っている犬301は左方向の動きベクトル303で表され、それ以外の止まっている犬302や背景の柵は動きがないため、動きベクトルを図示していない。なお、動きベクトル算出部は、全画素の動きベクトルを算出するのではなく、所定画素毎に動きベクトルを算出してもよい。以上の処理により、動きベクトル算出部は、時間的に隣接する画像間における動きベクトルを算出する。 The preparatory photographed image in FIG. 3A shows an example in which the dog 301 is running to the left. An example of a motion vector when the subject is moving in this way is shown in FIG. 3(b). In the example of FIG. 3(b), the running dog 301 is represented by a leftward motion vector 303, and the other stationary dogs 302 and the fence in the background do not move, so their motion vectors are not shown. . Note that the motion vector calculation unit may calculate a motion vector for each predetermined pixel instead of calculating the motion vector for all pixels. Through the above processing, the motion vector calculation unit calculates motion vectors between temporally adjacent images.

再び図2を参照して撮影処理の動作について説明する。S209において、制御部101は、シャッターボタンが押下されたままの連続撮影であるかどうかを判定する。制御部101は、例えば指示入力部110からの通知に基づいてシャッターボタンが押下されている場合、連続撮影されていると判定する。制御部101は、連続撮影されていると判定した場合、S205の本撮影処理に戻って撮影を繰り返す。制御部101は、シャッターボタンが押下されていない場合には、連続撮影が終了したと判断し、S210に進んで画像再生モードに入るのを待つ。本実施形態では、連続撮影が終了すると、その後、ユーザが指示入力部110を用いて、デジタルカメラ100を画像再生モードへの切り替える指示を入力するものとする。 The operation of the photographing process will be explained with reference to FIG. 2 again. In S209, the control unit 101 determines whether continuous shooting is being performed with the shutter button being pressed down. For example, if the shutter button is pressed based on a notification from the instruction input unit 110, the control unit 101 determines that continuous shooting is being performed. When the control unit 101 determines that continuous shooting is being performed, the control unit 101 returns to the main shooting process in S205 and repeats shooting. If the shutter button is not pressed, the control unit 101 determines that continuous shooting has ended, advances to S210, and waits to enter image playback mode. In this embodiment, it is assumed that after continuous shooting ends, the user uses the instruction input unit 110 to input an instruction to switch the digital camera 100 to the image playback mode.

S210において、制御部101は、デジタルカメラ100が画像再生モードへの切り替えられたかを判定する。例えば、制御部101は、指示入力部110からの信号に基づいて、デジタルカメラ100が画像再生モードへの切り替えられたかを判定し、画像再生モードへの切り替えが行われたと判定した場合にS211に進む。制御部101は、再生モードへの切り替えが行われたと判定するまで処理を繰り返す(すなわち待機する)。 In S210, the control unit 101 determines whether the digital camera 100 has been switched to image playback mode. For example, the control unit 101 determines whether the digital camera 100 has been switched to the image playback mode based on the signal from the instruction input unit 110, and if it is determined that the switch to the image playback mode has been performed, the control unit 101 proceeds to S211. move on. The control unit 101 repeats the process (that is, waits) until it determines that switching to the playback mode has been performed.

S211において、制御部101は、動きブレ報知機能が有効化されているかを判定する。制御部101は、S206において有効化されている場合、動きブレ報知の設定を読み出して、S212に進む。そうでない場合にはS211に戻って処理を繰り返す。 In S211, the control unit 101 determines whether the motion blur notification function is enabled. If the control unit 101 is enabled in S206, the control unit 101 reads the motion blur notification setting and proceeds to S212. If not, the process returns to S211 and repeats the process.

S212において、画像処理部107は、制御部101の指示に応じて、動きブレのある領域を、再生される本撮影画像に重畳して示す画像(単に動きブレ報知画像ともいう)を生成する。なお、動きブレ報知画像の生成処理については後述する。 In S212, the image processing unit 107 generates an image (also simply referred to as a motion blur notification image) that shows an area with motion blur superimposed on the main photographed image to be reproduced, in response to an instruction from the control unit 101. Note that the motion blur notification image generation process will be described later.

S213において、制御部101は、動きブレ報知画像を表示部109に表示させる(すなわち表示部109への表示制御を行う)。なお、制御部101は、動きブレ報知が有効化されていない場合には、再生された本撮影画像を表示部109に表示させる。制御部101は、表示部109に画像を表示させると、その後、撮影処理に係る一連の動作を終了する。 In S213, the control unit 101 displays the motion blur notification image on the display unit 109 (that is, controls the display on the display unit 109). Note that if the motion blur notification is not enabled, the control unit 101 causes the display unit 109 to display the reproduced actual photographed image. After displaying the image on the display unit 109, the control unit 101 then ends a series of operations related to the photographing process.

なお、上記S213では、動きブレ報知画像を表示させている間に、ユーザが後述する露光時間を変更することできるようにしてもよい。この場合、制御部101は、露光時間を変更するユーザ操作を受け取ると、S212に戻って変更された露光時間に応じた動きブレ報知画像を生成させる。そして、S213において、表示される動きブレ報知画像を、新たに生成された動きブレ報知画像に変更する。このようにすることで、ユーザは異なる露光時間の設定に対する動きブレを確認することができる。 Note that in S213, the user may be able to change the exposure time, which will be described later, while the motion blur notification image is being displayed. In this case, upon receiving a user operation to change the exposure time, the control unit 101 returns to S212 and generates a motion blur notification image according to the changed exposure time. Then, in S213, the displayed motion blur notification image is changed to the newly generated motion blur notification image. By doing so, the user can check the motion blur caused by different exposure time settings.

次に、図2(a)に示したような、画像再生モードに切り替わったときに本撮影画像の再生表示を行う動作の他に、本撮影画像の再生表示を、本撮影の直後に自動的に所定の期間のみ行うようにしてもよい。この場合のデジタルカメラ100の撮影処理は、例えば図2(b)に示すようになる。なお、図2(a)に示した同様の動作、処理については同一の符号を付して重複する説明は省略する。 Next, in addition to the operation of playing back and displaying the actually shot image when switching to image playback mode as shown in Figure 2(a), the playback display of the actually shot image will be automatically displayed immediately after the actual shooting. It may also be done only for a predetermined period. The photographing process of the digital camera 100 in this case is, for example, as shown in FIG. 2(b). Note that similar operations and processes shown in FIG. 2(a) are given the same reference numerals and redundant explanations will be omitted.

図2(b)において、制御部101はS201~S205の処理を実行して本撮影を行った状態となる。S206において、制御部101は、動きブレ報知機能が有効化されているかを判定する。なお、動きブレ報知機能が有効化されている否かの設定は、例えばユーザが指示入力部110を用いて設定することができ、一度設定されれば設定値が例えばROM102または記録部108に保持されている。 In FIG. 2(b), the control unit 101 executes the processes of S201 to S205 and enters a state in which actual photographing is performed. In S206, the control unit 101 determines whether the motion blur notification function is enabled. Note that the setting as to whether or not the motion blur notification function is enabled can be set by the user using the instruction input unit 110, for example, and once set, the setting value is stored in the ROM 102 or the recording unit 108, for example. has been done.

S251において、制御部101は、動きブレ報知機能が有効化されている場合にS207に進み、そうでない(無効化されている)場合には動きベクトルの算出を行わずにS208に進む。S207において、制御部101は、本撮影画像に対する動きベクトルの算出を行って、更にS252において、動きブレ報知画像を生成する。S253において、制御部101は、動きブレ報知画像が生成されている場合には動きブレ報知画像を、動きブレ報知画像が生成されていない場合には本撮影画像を、表示部109に表示させる。制御部101は、画像表示が完了すると撮影処理に係る一連の動作を終了する。 In S251, the control unit 101 proceeds to S207 if the motion blur notification function is enabled, and otherwise proceeds to S208 without calculating a motion vector. In S207, the control unit 101 calculates a motion vector for the actual photographed image, and further in S252 generates a motion blur notification image. In S253, the control unit 101 causes the display unit 109 to display the motion blur notification image if a motion blur notification image has been generated, or to display the actual photographed image if a motion blur notification image has not been generated. When the image display is completed, the control unit 101 ends a series of operations related to the photographing process.

(動きブレ報知画像の生成)
次に、図6および図7を参照して、上述の動きブレ報知画像を生成するための構成と一連の動作について説明する。図6は、画像処理部107が有する画像生成部600の機能構成例を示している。画像生成部600は、動きブレ算出部602、動きブレ報知プレーン作成部603及び画像重畳部604を含む。画像生成部600は、後述する撮影条件と、動きベクトル算出部からの動きベクトル情報と、記録部108あるいはRAM103からの本撮影画像とを取得し、以下の生成処理により、動きブレ報知画像を生成する。
(Generation of motion blur notification image)
Next, a configuration and a series of operations for generating the above-mentioned motion blur notification image will be described with reference to FIGS. 6 and 7. FIG. 6 shows an example of a functional configuration of an image generation unit 600 included in the image processing unit 107. The image generation unit 600 includes a motion blur calculation unit 602, a motion blur notification plane generation unit 603, and an image superimposition unit 604. The image generation unit 600 acquires the shooting conditions described later, motion vector information from the motion vector calculation unit, and the actual captured image from the recording unit 108 or the RAM 103, and generates a motion blur notification image by the following generation process. do.

図7には、画像生成部600が動きブレ報知画像を生成する処理の一連の動作を示している。なお、ここで示す動きブレ報知画像を生成する処理は、画像生成部600を構成するハードウェアにより、又は画像生成部600の機能を実現するソフトウェアが1つ以上のプロセッサによって実行されることにより実現される。 FIG. 7 shows a series of operations in which the image generation unit 600 generates a motion blur notification image. Note that the process of generating the motion blur notification image shown here is realized by the hardware that constitutes the image generation unit 600, or by software that realizes the functions of the image generation unit 600 being executed by one or more processors. be done.

S701において、画像生成部600は、本撮影画像の撮影時に得られる動きベクトルの情報を入力する。画像生成部600は、画像再生モードである場合、本撮影画像とともに記録部108に記録されている動きベクトルの情報を入力する。S702において、動きブレ算出部602は、撮影条件としてのS202で設定された本撮影の露光時間を例えばROM102から取得する。また、動きブレ算出部602は、本撮影とその直前の準備撮影における画像間の時間間隔を同様に例えばROM102から取得する。画像間の時間間隔は、連写時には連続する本撮影の時間間隔となる。 In S701, the image generation unit 600 inputs information on a motion vector obtained when the main captured image is captured. When in the image reproduction mode, the image generation unit 600 inputs information on motion vectors recorded in the recording unit 108 together with the main photographed image. In S702, the motion blur calculation unit 602 acquires the exposure time of the actual shooting set in S202 as the shooting condition from, for example, the ROM 102. Further, the motion blur calculation unit 602 similarly acquires the time interval between images in the main shooting and the preparatory shooting immediately before the main shooting from, for example, the ROM 102. The time interval between images becomes the time interval between successive actual shootings during continuous shooting.

S703において、動きブレ算出部602は、動きベクトルを、本撮影の動きブレに換算する。具体的には、動きブレ算出部602は、S702で取得した本撮影の露光時間及び画像間の時間間隔を用いて、S207で算出した画素毎の動きベクトルを本撮影の動きブレに換算する。なお、S207で算出した動きベクトルは、撮像部105から順次(例えば1/60秒の取得間隔でまたは連写画像の取得間隔で)取得された画像間の動きベクトルを表している。本撮影における動きベクトルと本撮影の動きブレについて、図8を参照して説明する。図8では、撮影条件として、動きベクトルを検出した画像間の時間間隔が1/60秒であり、本撮影の露光時間が1/120秒である場合と1/30秒である場合とを示している。動きブレ算出部602は、例えば式(1)及び式(2)に示す換算式に基づき、画素毎の動きベクトルを本撮影の動きブレに換算する。 In S703, the motion blur calculation unit 602 converts the motion vector into motion blur for actual shooting. Specifically, the motion blur calculation unit 602 converts the motion vector for each pixel calculated in S207 into the motion blur of the actual imaging using the exposure time of the actual imaging and the time interval between images acquired in S702. Note that the motion vector calculated in S207 represents a motion vector between images sequentially acquired from the imaging unit 105 (for example, at an acquisition interval of 1/60 seconds or at an acquisition interval of consecutively shot images). The motion vector in the actual shooting and the motion blur in the actual shooting will be explained with reference to FIG. 8. FIG. 8 shows the shooting conditions in which the time interval between images in which motion vectors are detected is 1/60 seconds, and the exposure time for main shooting is 1/120 seconds and 1/30 seconds. ing. The motion blur calculation unit 602 converts the motion vector for each pixel into the motion blur of the actual shooting based on the conversion formulas shown in equations (1) and (2), for example.

CONV_GAIN=EXP_TIME/INT_TIME・・・(1)
CONV_BLUR=VEC_LEN×CONV_GAIN・・・(2)
ここで、式(1)において、CONV_GAINは準備撮影の動きベクトルを本撮影の動きベクトルに換算するための換算ゲインを示し、EXP_TIMEは本撮影の露光時間を示し、INT_TIMEは画像間の時間間隔を示す。また、式(2)において、CONV_BLURは換算された本撮影の動きブレを示し、VEC_LENは本撮影における動きベクトルの長さを示す。
CONV_GAIN=EXP_TIME/INT_TIME...(1)
CONV_BLUR=VEC_LEN×CONV_GAIN...(2)
Here, in equation (1), CONV_GAIN indicates the conversion gain for converting the motion vector of the preparatory shooting into the motion vector of the main shooting, EXP_TIME indicates the exposure time of the main shooting, and INT_TIME indicates the time interval between images. show. Furthermore, in equation (2), CONV_BLUR indicates the converted motion blur in the actual shooting, and VEC_LEN indicates the length of the motion vector in the actual shooting.

動きブレ算出部602は、式(1)に基づいて、換算ゲインを算出する。すなわち、本撮影の露光時間を画像間の時間間隔で除算することにより換算ゲインを算出する。そして、動きブレ算出部602は、式(2)に基づいて、本撮影の動きブレを算出する。すなわち、動きブレ算出部602は、動きベクトルの大きさに換算ゲインを乗算することにより、本撮影の動きブレを算出する。 The motion blur calculation unit 602 calculates a conversion gain based on equation (1). That is, the conversion gain is calculated by dividing the exposure time of the actual shooting by the time interval between images. Then, the motion blur calculation unit 602 calculates the motion blur of the actual shooting based on equation (2). That is, the motion blur calculation unit 602 calculates the motion blur of the actual shooting by multiplying the magnitude of the motion vector by the conversion gain.

例えば、図8に示すように本撮影における動きベクトルの大きさが10画素である場合、本撮影の露光時間が1/120秒の動きブレは、換算ゲインが1/2倍になるため5画素となる。また、本撮影の露光時間が1/30秒である動きブレは、換算ゲインが2倍になるため20画素となる。 For example, if the size of the motion vector in the actual shooting is 10 pixels as shown in FIG. becomes. Further, for motion blur when the exposure time of the actual photographing is 1/30 seconds, the converted gain is doubled, so the number of pixels is 20.

なお、上述したように、画像再生モードにおいてユーザが露光時間の設定を切り替えた場合、EXP_TIMEは、ユーザが画像を再生する際に設定する露光時間とすることができる。本撮影画像の再生時に設定される露光時間を使用して換算ゲインを算出することにより、露光時間を変更した場合の動きブレ量を画像再生時に表示することができ、所望の動きブレ量で撮影するための露光時間を確認することができるようになる。 Note that, as described above, when the user switches the exposure time setting in the image playback mode, EXP_TIME can be set to the exposure time that the user sets when playing back the image. By calculating the conversion gain using the exposure time set during playback of the actual shot image, the amount of motion blur when changing the exposure time can be displayed during image playback, allowing you to shoot with the desired amount of motion blur. You will be able to check the exposure time for

S704において、動きブレ報知プレーン作成部603は、S703において算出した画素毎の動きブレに基づき、動きブレを報知するための画像プレーンを作成する。S705において、画像重畳部604は、本撮影画像にS704において作成した動きブレ報知プレーンを重畳し、動きブレ報知画像を生成する。ここで、動きブレ報知画像の例について、図9を参照して説明する。図9(a)から(c)は、本実施形態における3つの動きブレ報知画像の例を示している。画像再生中に動きブレ報知画像を表示部109に表示することにより、ユーザは本撮影画像における動きブレを容易に確認することができる。 In S704, the motion blur notification plane creation unit 603 creates an image plane for reporting motion blur based on the motion blur for each pixel calculated in S703. In S705, the image superimposition unit 604 superimposes the motion blur notification plane created in S704 on the main photographed image to generate a motion blur notification image. Here, an example of a motion blur notification image will be described with reference to FIG. 9. FIGS. 9A to 9C show examples of three motion blur notification images in this embodiment. By displaying the motion blur notification image on the display unit 109 during image playback, the user can easily confirm motion blur in the actually captured image.

図9(a)は、動きブレ報知画像として、本撮影画像にアイコンを付加することにより動きブレを報知する例を示す。ここで、アイコン表示を付加することによって動きブレ報知画像を生成する例について説明する。S704において、動きブレ報知プレーン作成部603は、画素毎の動きブレのうち、換算された動きブレが所定値以上である画素数が画面全体に占める割合を算出する。動きブレ報知プレーン作成部603は、換算された動きブレが所定値以上である画素数の画像全体を占める割合が所定割合以上であることに応じて、基準値以上の動きブレの存在を示すアイコンを動きブレ報知プレーンとして作成する。基準値以上の動きブレの存在を示すアイコンは、例えば図9(a)に示すような動きブレアイコン901であってよい。そして、画像重畳部604は、動きブレ報知プレーンを本撮影画像に重畳することにより、図9(a)に示すような動きブレ報知画像を生成する。一方、動きブレ報知プレーン作成部603は、換算された動きブレが所定値以上である画素数の画像全体を占める割合が所定割合より低い場合、動きブレ報知プレーンを作成しない。 FIG. 9A shows an example in which motion blur is reported by adding an icon to the actually photographed image as a motion blur notification image. Here, an example will be described in which a motion blur notification image is generated by adding an icon display. In S704, the motion blur notification plane generation unit 603 calculates the ratio of the number of pixels in which the converted motion blur is equal to or greater than a predetermined value to the entire screen, among the motion blur for each pixel. The motion blur notification plane creation unit 603 generates an icon indicating the existence of motion blur exceeding a reference value, in response to the fact that the proportion of the entire image in which the converted motion blur has a number of pixels equal to or greater than a predetermined value is equal to or greater than a predetermined proportion. Create a motion blur notification plane. The icon indicating the presence of motion blur greater than the reference value may be, for example, a motion blur icon 901 as shown in FIG. 9(a). Then, the image superimposing unit 604 generates a motion blur notification image as shown in FIG. 9(a) by superimposing the motion blur notification plane on the main photographed image. On the other hand, the motion blur notification plane generation unit 603 does not create a motion blur notification plane if the proportion of the entire image having the number of pixels in which the converted motion blur is equal to or greater than a predetermined value is lower than the predetermined proportion.

図9(b)は、動きブレ報知画像として、本撮影画像に動きブレ枠を表示することにより動きブレを報知する例を示す。ここで、動きブレ枠を表示することによる動きブレ報知画像の生成方法について説明する。S704において、動きブレ報知プレーン作成部603は、分割領域内の画素毎の動きブレのうち、換算された動きブレが所定値以上である画素数が分割領域全体に占める割合を算出する。動きブレ報知プレーン作成部603は、換算された動きブレが所定値以上である画素数の分割領域全体に占める割合が所定割合以上である分割領域に対して、基準値以上の動きブレの存在する領域を示す枠を動きブレ報知プレーンとして作成する。基準値以上の動きブレの存在する領域を示す枠は、例えば図9(b)に示す動きブレ枠902であってよい。画像重畳部604は、動きブレ報知プレーンを本撮影画像に重畳することにより図9(b)に示すような動きブレ報知画像を生成する。一方、動きブレ報知プレーン作成部603は、換算された動きブレが所定値以上である画素数の分割領域全体を占める割合が所定割合より低い場合、動きブレ報知プレーンを作成しない。 FIG. 9B shows an example in which motion blur is reported by displaying a motion blur frame in the main photographed image as a motion blur notification image. Here, a method of generating a motion blur notification image by displaying a motion blur frame will be described. In S704, the motion blur notification plane generation unit 603 calculates the ratio of the number of pixels, of which the converted motion blur is equal to or greater than a predetermined value, to the entire divided region among the motion blur for each pixel in the divided region. The motion blur notification plane creation unit 603 determines whether a motion blur of a reference value or more exists for a divided region in which the ratio of the converted motion blur to the entire divided region of the number of pixels of which the converted motion blur is a predetermined value or more is a predetermined percentage or more. A frame indicating the area is created as a motion blur notification plane. The frame indicating the area where motion blur greater than the reference value exists may be, for example, a motion blur frame 902 shown in FIG. 9(b). The image superimposition unit 604 generates a motion blur notification image as shown in FIG. 9(b) by superimposing the motion blur notification plane on the main photographed image. On the other hand, the motion blur notification plane creation unit 603 does not create a motion blur notification plane if the proportion of the entire divided area with the number of pixels in which the converted motion blur is equal to or greater than the predetermined value is lower than the predetermined ratio.

図9(c)は、動きブレ報知画像として、本撮影画像上の動きブレが発生したエッジを強調表示することにより動きブレを報知する例を示す。ここで、動きブレエッジを強調表示することによる動きブレ報知画像の生成方法について説明する。S704において、動きブレ報知プレーン作成部603は、本撮影画像内のエッジ強度を検出する。エッジ強度の算出には、ソーベルフィルタなどの既知の方法を用いることができるためその説明は省略する。動きブレ報知プレーン作成部603は、検出したエッジ強度が所定値以上であり、且つ、換算された動きブレが所定値以上である画素を抽出する。動きブレ報知プレーン作成部603は、抽出した画素に対して、基準値以上の動きブレの存在するエッジを示す強調表示を動きブレ報知プレーンとして作成する。動きブレ報知プレーン作成部603は、当該強調表示として、例えば、図9(c)に示すように動きブレエッジ903を強調表示するような動きブレ報知プレーンを作成する。画像重畳部604は、動きブレエッジを強調表示した動きブレ報知プレーンを本撮影画像に重畳することにより、図9(c)のような動きブレ報知画像を生成する。図9(c)に示す動きブレエッジ903の例では、動きブレのあるエッジを太く強調する例を示している。強調表示方法の他の例としては、エッジ強度が所定値以上、且つ、換算された動きブレが所定値以上の画素を抽出し、抽出した画素に所定の色を付加する(例えば赤く塗る)ような強調表示が挙げられる。画像生成部600は、動きブレ報知画像を出力すると動きブレ報知画像の生成処理の一連の動作を終了する。 FIG. 9C shows an example in which motion blur is reported by emphasizing an edge where motion blur has occurred on the main photographed image as a motion blur notification image. Here, a method for generating a motion blur notification image by emphasizing motion blur edges will be described. In S704, the motion blur notification plane generation unit 603 detects the edge strength within the actual captured image. Since a known method such as a Sobel filter can be used to calculate the edge strength, a description thereof will be omitted. The motion blur notification plane generation unit 603 extracts pixels for which the detected edge strength is greater than or equal to a predetermined value and the converted motion blur is greater than or equal to a predetermined value. The motion blur notification plane generation unit 603 creates a motion blur notification plane with a highlighted display indicating an edge where a motion blur of a reference value or more exists for the extracted pixel. The motion blur notification plane creation unit 603 creates a motion blur notification plane that highlights a motion blur edge 903 as shown in FIG. 9C, for example. The image superimposition unit 604 generates a motion blur notification image as shown in FIG. 9C by superimposing a motion blur notification plane in which the motion blur edge is highlighted on the main photographed image. The example of a motion blur edge 903 shown in FIG. 9C shows an example in which edges with motion blur are emphasized thickly. Another example of a highlighting method is to extract pixels whose edge strength is greater than a predetermined value and whose converted motion blur is greater than a predetermined value, and to add a predetermined color to the extracted pixels (for example, paint them red). An example of this is highlighting. When the image generation unit 600 outputs the motion blur notification image, it ends the series of operations of the motion blur notification image generation process.

なお、上述の例では、換算された動きブレが所定値以上の大きさである場合に動きブレを報知する例について説明した。しかし、換算された動きブレが所定値以下の大きさである場合に動きブレを報知しても良い。このようにすれば、動きブレを動感として表現したい長秒露光撮影の場合に、動きブレの不足を画像再生中に確認し易くなる。 In addition, in the above-mentioned example, an example was described in which a motion blur is notified when the converted motion blur is greater than or equal to a predetermined value. However, if the converted motion blur is less than or equal to a predetermined value, the motion blur may be notified. In this way, in the case of long exposure photography in which motion blur is desired to be expressed as a sense of motion, it becomes easier to confirm the lack of motion blur during image reproduction.

また、上述の例では、動きブレを報知する1つの方法で動きブレ報知画像を表示する例を説明したが、図9(a)から(c)に示す動きブレを報知する方法をユーザが切り替えられるようにしてもよい。このようにすれば、ユーザは設定する露光時間に応じて所望の報知方法で動きブレを確認することができる。 In addition, in the above example, an example was explained in which a motion blur notification image is displayed using one method of notifying motion blur, but the user can switch between the methods of notifying motion blur shown in FIGS. 9(a) to 9(c). It may be possible to do so. In this way, the user can confirm motion blur using a desired notification method according to the set exposure time.

上述の例では、動きブレを報知する方法として、動きブレアイコンの表示、動きブレ枠の表示、動きブレエッジの強調表示の3つの例について説明した。しかし、動きブレを報知する方法はこれに限ったものではない。例えば、平坦な領域も含め、動きブレが発生している領域を強調表示しても良い。具体的には、動きブレ報知プレーン作成部603は、画素毎の換算された動きブレが所定値以上の画素を赤く塗るような強調表示を行う。このようにエッジ領域だけではなく、エッジ領域以外の領域も強調表示を行うことにより、被写体全体が強調表示されるため、より動きブレを確認しやすくなる。 In the above example, three examples of methods for notifying motion blur were described: display of a motion blur icon, display of a motion blur frame, and highlighted display of a motion blur edge. However, the method of reporting motion blur is not limited to this. For example, areas where motion blur occurs may be highlighted, including flat areas. Specifically, the motion blur notification plane generation unit 603 performs highlighted display such as painting pixels in which the converted motion blur for each pixel is equal to or greater than a predetermined value in red. In this way, by highlighting not only the edge area but also areas other than the edge area, the entire subject is highlighted, making it easier to confirm motion blur.

また、上述の例では、動きブレを報知する方法として、表示部109に動きブレを報知する情報を表示させる例について説明した。しかし、動きブレの報知方法としてはこれに限ったものではない。例えば、音を用いて動きブレを報知しても良い。具体的には、画素毎の換算された動きブレのうち、換算された動きブレが所定値以上である画素数について画面全体に占める割合が所定割合以上の場合に、動きブレ報知音を発生させてもよい。 Furthermore, in the above example, as a method for notifying motion blur, an example was explained in which information for notifying motion blur is displayed on the display unit 109. However, the method for notifying motion blur is not limited to this. For example, motion blur may be reported using sound. Specifically, out of the motion blur converted for each pixel, if the number of pixels for which the converted motion blur is equal to or greater than a predetermined value occupies a predetermined percentage or more of the entire screen, a motion blur notification sound is generated. You can.

以上説明したように本実施形態では、撮像部105から順次取得される、本撮影の画像と他の画像を取得し、本撮影画像に関連付けられた露光時間に基づいて、取得した画像を用いて求められた動き情報を本撮影時の動きブレに換算する。そして、本撮影画像を表示する場合に、求めた本撮影画像における動きブレに基づいて、画像の動きブレを報知するようにした。このようにすることで、本撮影画像を再生して表示する場合に、本撮影画像に対する動きブレを容易に確認可能になる。とりわけ、ユーザは本撮影画像を再生して表示した場合に、本撮影画像を拡大してブレ具合を確認するような手間が低減される。また、本撮影画像を撮影する際に設定された、あるいは再生する際に設定される露光時間に応じた動きブレを確認することができるため、本撮影画像のブレを精度よく容易に把握することが可能になる。 As explained above, in this embodiment, the image of the actual shooting and other images are acquired sequentially from the imaging unit 105, and the acquired images are used based on the exposure time associated with the actual shooting image. The obtained motion information is converted into motion blur during actual shooting. When displaying the actual photographed image, the motion blur of the image is notified based on the determined motion blur in the actual photographic image. By doing so, when the actually photographed image is played back and displayed, it becomes possible to easily check for motion blur in the actually photographed image. Particularly, when the user reproduces and displays the actually captured image, the user does not have to worry about enlarging the actually captured image to check the degree of blur. In addition, since you can check the movement blur according to the exposure time set when shooting the actual image or when playing back, it is possible to accurately and easily understand the blur in the actual image. becomes possible.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention provides a system or device with a program that implements one or more functions of the embodiments described above via a network or a storage medium, and one or more processors in a computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various changes and modifications can be made without departing from the spirit and scope of the invention. Therefore, the following claims are hereby appended to disclose the scope of the invention.

101…制御部、105…撮像部、109…表示部、300…動きブレ報知画像生成部、302…動きブレ算出部、303…動きブレ報知プレーン作成部、304…画像重畳部 DESCRIPTION OF SYMBOLS 101... Control part, 105... Imaging part, 109... Display part, 300... Motion blur notification image generation part, 302... Motion blur calculation part, 303... Motion blur notification plane creation part, 304... Image superimposition part

Claims (12)

被写体像を撮影して順次出力される第1の画像と第2の画像とを取得する取得手段であって、少なくとも前記第2の画像は本撮影の画像として記録媒体に記録される、取得手段と、
前記第1の画像と前記第2の画像とを用いて求められる動き情報を、前記第2の画像に関連付けられた露光時間に基づいて、前記第2の画像における動きブレに換算する換算手段と、
前記第2の画像を表示する場合に、換算された前記第2の画像における動きブレに基づいて、画像の動きブレを報知する報知手段と、を有し、
前記第2の画像に関連付けられた露光時間は、前記第2の画像の記録後に設定される露光時間である、ことを特徴とする情報処理装置。
Acquisition means for photographing a subject image and acquiring a first image and a second image that are sequentially output, wherein at least the second image is recorded on a recording medium as an image of main photography. and,
a conversion means for converting motion information obtained using the first image and the second image into motion blur in the second image based on an exposure time associated with the second image; ,
When displaying the second image, a notification means for notifying the motion blur of the image based on the converted movement blur in the second image,
An information processing apparatus characterized in that the exposure time associated with the second image is an exposure time set after recording the second image.
前記報知手段は、換算された前記第2の画像における動きブレが所定の条件を満たしたことに応じて、動きブレを報知する表示を前記第2の画像に重畳することにより、画像の動きブレを報知する、ことを特徴とする請求項1に記載の情報処理装置。 The notifying means is configured to reduce the motion blur of the image by superimposing a display notifying the motion blur on the second image in response to the motion blur in the converted second image satisfying a predetermined condition. The information processing device according to claim 1, wherein the information processing device notifies the information processing device. 前記動きブレを報知する表示は、基準値以上の動きブレの存在を示すアイコンを含む、ことを特徴とする請求項2に記載の情報処理装置。 3. The information processing apparatus according to claim 2, wherein the display notifying the motion blur includes an icon indicating the presence of motion blur greater than a reference value. 前記動きブレを報知する表示は、基準値以上の動きブレの存在する領域を示す枠を含む、ことを特徴とする請求項2に記載の情報処理装置。 3. The information processing apparatus according to claim 2, wherein the display notifying the motion blur includes a frame indicating an area where motion blur greater than a reference value exists. 前記動きブレを報知する表示は、基準値以上の動きブレの存在するエッジを示す強調表示を含む、ことを特徴とする請求項2に記載の情報処理装置。 3. The information processing apparatus according to claim 2, wherein the display notifying the motion blur includes a highlighted display indicating an edge where motion blur of a reference value or more exists. 前記報知手段は、換算された前記第2の画像における動きブレが所定の条件を満たしたことに応じて、動きブレを報知する音を発生させることにより、画像の動きブレを報知する、ことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。 The notifying means notifies the motion blur of the image by generating a sound notifying the motion blur in response to the converted motion blur of the second image satisfying a predetermined condition. The information processing device according to any one of claims 1 to 5. 前記換算手段は、前記第1の画像と前記第2の画像との間の時間間隔に対する、前記第2の画像に関連付けられた露光時間の比を用いて、前記動き情報を前記第2の画像における動きブレに換算する、ことを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。 The conversion means converts the motion information into the second image using a ratio of an exposure time associated with the second image to a time interval between the first image and the second image. 7. The information processing apparatus according to claim 1, wherein the information processing apparatus converts motion blur into motion blur. 前記第1の画像と前記第2の画像とを用いて求められる前記動き情報は、前記記録媒体に記録され、
前記換算手段は、前記記録媒体に記録された前記動き情報を、前記第2の画像に関連付けられた露光時間に基づいて、前記第2の画像における動きブレに換算する、ことを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
The motion information obtained using the first image and the second image is recorded on the recording medium,
The conversion means converts the motion information recorded on the recording medium into motion blur in the second image based on an exposure time associated with the second image. The information processing device according to any one of Items 1 to 7.
前記第1の画像と前記第2の画像とは連続撮影によって出力された本撮影の画像である、ことを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 8, wherein the first image and the second image are images of main photography output by continuous photography. 前記第1の画像は、準備撮影によって出力された画像である、ことを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 9, wherein the first image is an image output by preparatory photography. 取得手段が、被写体像を撮影して順次出力される第1の画像と第2の画像とを取得する取得工程であって、少なくとも前記第2の画像は本撮影の画像として記録媒体に記録される、取得工程と、
換算手段が、前記第2の画像に関連付けられた露光時間に基づいて、前記第1の画像と前記第2の画像とを用いて求められる動き情報を、前記第2の画像における動きブレに換算する換算工程と、
報知手段が、前記第2の画像を表示する場合に、換算された前記第2の画像における動きブレに基づいて、画像の動きブレを報知する報知工程と、を有し、
前記第2の画像に関連付けられた露光時間は、前記第2の画像の記録後に設定される露光時間である、ことを特徴とする情報処理装置の制御方法。
an acquisition step in which the acquisition means photographs a subject image and acquires a first image and a second image that are sequentially output, and at least the second image is recorded on a recording medium as an image of the main photography. an acquisition process;
A conversion means converts motion information obtained using the first image and the second image into motion blur in the second image based on an exposure time associated with the second image. a conversion process to
a notification step in which the notification means, when displaying the second image, notifies the motion blur of the image based on the converted movement blur in the second image;
A method for controlling an information processing apparatus, wherein the exposure time associated with the second image is an exposure time set after recording the second image.
コンピュータを、請求項1から10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to claim 1.
JP2019043042A 2019-03-08 2019-03-08 Information processing device and its control method and program Active JP7389558B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019043042A JP7389558B2 (en) 2019-03-08 2019-03-08 Information processing device and its control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019043042A JP7389558B2 (en) 2019-03-08 2019-03-08 Information processing device and its control method and program

Publications (2)

Publication Number Publication Date
JP2020145660A JP2020145660A (en) 2020-09-10
JP7389558B2 true JP7389558B2 (en) 2023-11-30

Family

ID=72354627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019043042A Active JP7389558B2 (en) 2019-03-08 2019-03-08 Information processing device and its control method and program

Country Status (1)

Country Link
JP (1) JP7389558B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022057686A (en) * 2020-09-30 2022-04-11 株式会社大都技研 Game machine

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005210392A (en) 2004-01-22 2005-08-04 Mega Chips Corp Image pickup device
WO2007063819A1 (en) 2005-11-29 2007-06-07 Pioneer Corporation Recording device, reproduction device, recording method, recording program, and computer-readable recording medium
JP2007281536A (en) 2006-04-03 2007-10-25 Seiko Epson Corp Subject blur detection device, photographing device, control method thereof, control program, and recording medium
JP2008022300A (en) 2006-07-13 2008-01-31 Sony Corp Image pickup device, control method therefor, and computer program
JP2014179874A (en) 2013-03-15 2014-09-25 Casio Comput Co Ltd Imaging device, display method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005210392A (en) 2004-01-22 2005-08-04 Mega Chips Corp Image pickup device
WO2007063819A1 (en) 2005-11-29 2007-06-07 Pioneer Corporation Recording device, reproduction device, recording method, recording program, and computer-readable recording medium
JP2007281536A (en) 2006-04-03 2007-10-25 Seiko Epson Corp Subject blur detection device, photographing device, control method thereof, control program, and recording medium
JP2008022300A (en) 2006-07-13 2008-01-31 Sony Corp Image pickup device, control method therefor, and computer program
JP2014179874A (en) 2013-03-15 2014-09-25 Casio Comput Co Ltd Imaging device, display method, and program

Also Published As

Publication number Publication date
JP2020145660A (en) 2020-09-10

Similar Documents

Publication Publication Date Title
KR101062502B1 (en) Image pickup device having a panning mode for picking up panning images
KR101913837B1 (en) Method for providing Panoramic image and imaging device thereof
KR101889932B1 (en) Apparatus and Method for photographing image
JP2009124340A (en) Imaging apparatus, photographing support method, and photographing support program
US11722771B2 (en) Information processing apparatus, imaging apparatus, and information processing method each of which issues a notification of blur of an object, and control method for the imaging apparatus
JP6529533B2 (en) Imaging device, control method of imaging device, and program
JP2015053741A (en) Image reproduction device
JP6786311B2 (en) Image processing equipment, image processing methods, computer programs and storage media
JP6261205B2 (en) Image processing device
JP2014241569A (en) Image processing apparatus, control method of the same, program, and storage medium
US11477384B2 (en) Information processing apparatus, imaging apparatus, information processing method, control method for imaging apparatus, and storage medium for notifying of a subject blur occuring in a captured image
JP2018061130A (en) Image processing device, image processing method, and program
JP2020108119A (en) Notification device, imaging apparatus, notification method, imaging method, and program
JP7389558B2 (en) Information processing device and its control method and program
JP2012235198A (en) Imaging apparatus
JP7458769B2 (en) Image processing device, imaging device, image processing method, program and recording medium
JP2016208118A (en) Image processing apparatus, image processing method, and program
JP7546415B2 (en) Notification device, imaging device, notification method, and program
JP2014236244A (en) Image processing system, image processing program, and digital camera
JP7475846B2 (en) Information processing device, imaging device, information processing method, and imaging device control method
JP2022186598A (en) Information processing apparatus, imaging apparatus, information processing method and control method, and program
JP6953594B2 (en) Image processing equipment, imaging equipment, image processing methods, programs and recording media
JP2014138378A (en) Image pickup device, control method thereof, and control program thereof
JP6828069B2 (en) Imaging equipment, imaging methods and programs
JP2011172266A (en) Imaging apparatus, imaging method and imaging program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231117

R151 Written notification of patent or utility model registration

Ref document number: 7389558

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151