JP7389558B2 - Information processing device and its control method and program - Google Patents
Information processing device and its control method and program Download PDFInfo
- Publication number
- JP7389558B2 JP7389558B2 JP2019043042A JP2019043042A JP7389558B2 JP 7389558 B2 JP7389558 B2 JP 7389558B2 JP 2019043042 A JP2019043042 A JP 2019043042A JP 2019043042 A JP2019043042 A JP 2019043042A JP 7389558 B2 JP7389558 B2 JP 7389558B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- motion blur
- motion
- information processing
- exposure time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 49
- 230000010365 information processing Effects 0.000 title claims description 21
- 230000008569 process Effects 0.000 claims description 28
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 4
- 239000013598 vector Substances 0.000 description 70
- 238000004364 calculation method Methods 0.000 description 32
- 238000003384 imaging method Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 241000282472 Canis lupus familiaris Species 0.000 description 5
- 239000000203 mixture Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Landscapes
- Indication In Cameras, And Counting Of Exposures (AREA)
- Adjustment Of Camera Lenses (AREA)
- Studio Devices (AREA)
Description
本発明は、情報処理装置およびその制御方法ならびにプログラムに関する。 The present invention relates to an information processing device, a control method thereof, and a program.
近年、デジタルスチルカメラ等の撮像装置において、シャッタースピード優先モードと呼ばれる撮影モードを搭載している撮像装置が知られている。シャッタースピード優先モードは、ユーザが所望のシャッタースピードを設定した場合に、撮像装置が絞り値やISO感度といったシャッタースピード以外の露出設定値を自動で設定する撮影モードである。例えば、ユーザが撮影前に高速なシャッタースピードを設定してシャッタースピード優先モードで撮影を行った場合、動きブレが少ない画像を撮影することができる。 2. Description of the Related Art In recent years, imaging devices such as digital still cameras have been known that are equipped with a shooting mode called a shutter speed priority mode. The shutter speed priority mode is a shooting mode in which, when a user sets a desired shutter speed, the imaging device automatically sets exposure settings other than the shutter speed, such as an aperture value and ISO sensitivity. For example, if the user sets a high shutter speed before shooting and shoots in shutter speed priority mode, it is possible to shoot an image with less motion blur.
シャッタースピード優先モードで撮影する場合、撮影される画像に発生するブレの目安を視認することができれば、所望のシャッタースピードの設定が容易になる。このような課題に対し、特許文献1は、準備撮影中に、動き領域を強調表示した画像をファインダに表示することにより、ユーザが準備撮影中の動き領域を容易に確認することができる技術を開示している。なお、準備撮影は、撮像装置の電子ビューファインダや背面液晶を見ながら、構図合わせや撮影条件の設定を行うための撮影である。 When photographing in shutter speed priority mode, it becomes easier to set a desired shutter speed if you can visually check the roughness of blur that will occur in the photographed image. To address this problem, Patent Document 1 discloses a technology that allows the user to easily check the moving area during preparatory shooting by displaying an image with the moving area highlighted on the viewfinder during preparatory shooting. Disclosed. Note that preparatory photography is photography for adjusting the composition and setting photography conditions while looking at the electronic viewfinder or rear LCD of the imaging device.
しかしながら、動きブレが少ない画像を撮影するために準備撮影中の画像を確認しながら高速なシャッタースピードを設定し、シャッタースピード優先モードで本撮影した場合にも、本撮影の画像が所望でない場合がある。これは、本撮影と準備撮影とで発生するブレが異なる場合があるためであり、準備撮影中にユーザが最適と考えるシャッタースピードを設定しても、本撮影を行った結果、被写体がブレて撮影される場合がある。 However, even if you set a high shutter speed while checking the image during preparatory shooting in order to take an image with less motion blur, and then take the actual shot in shutter speed priority mode, the image taken during the actual shooting may not be what you want. be. This is because the blur that occurs during the actual shooting and the preparatory shooting may be different, so even if the user sets the shutter speed that he or she considers optimal during the preparatory shooting, the subject may be blurred as a result of the actual shooting. May be photographed.
また、実際に本撮影によって得られた画像をユーザが目視確認することにより、より最適なシャッタースピードを設定可能な場合がある。しかしながら、単に撮影された本撮影画像を表示するだけでは、画像を拡大表示しなければ被写体のブレを視認することができない場合などがあり、確認に手間がかかるという課題がある。 In addition, the user may be able to set a more optimal shutter speed by visually checking the image actually obtained by actual shooting. However, simply displaying the actual photographed image poses a problem in that blurring of the subject may not be visible unless the image is enlarged, and confirmation is time-consuming.
本発明は、上記課題に鑑みてなされ、その目的は、本撮影画像を再生して表示する場合に、本撮影画像に対する動きブレを容易に確認可能になる技術を実現することである。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to realize a technology that makes it possible to easily confirm motion blur in the actually captured image when the actually captured image is played back and displayed.
この課題を解決するため、例えば本発明の情報処理装置は以下の構成を備える。すなわち、被写体像を撮影して順次出力される第1の画像と第2の画像とを取得する取得手段であって、少なくとも前記第2の画像は本撮影の画像として記録媒体に記録される、取得手段と、前記第1の画像と前記第2の画像とを用いて求められる動き情報を、前記第2の画像に関連付けられた露光時間に基づいて、前記第2の画像における動きブレに換算する換算手段と、前記第2の画像を表示する場合に、換算された前記第2の画像における動きブレに基づいて、画像の動きブレを報知する報知手段と、を有し、前記第2の画像に関連付けられた露光時間は、前記第2の画像の記録後に設定される露光時間であることを特徴とする。 In order to solve this problem, for example, the information processing device of the present invention has the following configuration. That is, it is an acquisition means for photographing a subject image and acquiring a first image and a second image that are sequentially output, and at least the second image is recorded on a recording medium as an image of the main photographing. an acquisition means, and converting motion information obtained using the first image and the second image into motion blur in the second image based on an exposure time associated with the second image. and a notifying means for notifying the motion blur of the image based on the converted motion blur in the second image when the second image is displayed. The exposure time associated with the image is an exposure time set after recording the second image.
本発明によれば、本撮影画像を再生して表示する場合に、本撮影画像に対する動きブレを容易に確認可能になる。 According to the present invention, when the actually photographed image is played back and displayed, it becomes possible to easily check for motion blur in the actually photographed image.
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the claimed invention. Although a plurality of features are described in the embodiments, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.
以下では情報処理装置の一例として、撮影した画像を記録可能なデジタルカメラを用いる例を説明する。しかし、本実施形態は、撮影の可能なデジタルカメラに限らず、撮影された画像を取得することが可能な他の機器にも適用可能である。これらの機器には、例えば、スマートフォンを含む携帯電話機、パーソナルコンピュータ、ゲーム機、タブレット端末、時計型や眼鏡型の情報端末、医療機器、監視システムや車載用システムの機器などが含まれてよい。 Below, as an example of an information processing apparatus, an example will be described in which a digital camera capable of recording captured images is used. However, the present embodiment is applicable not only to digital cameras capable of photographing, but also to other devices capable of acquiring photographed images. These devices may include, for example, mobile phones including smartphones, personal computers, game consoles, tablet terminals, watch-shaped or glasses-shaped information terminals, medical devices, monitoring systems, in-vehicle system devices, and the like.
本実施形態では、デジタルカメラ100が、本撮影画像から得られる動き情報から動きブレを換算し、撮影画像再生時に動きブレの報知を行う例について説明する。
In this embodiment, an example will be described in which the
(デジタルカメラの構成)
図1は、本実施形態の情報処理装置の一例としてデジタルカメラ100の機能構成例を示すブロック図である。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。
(Digital camera configuration)
FIG. 1 is a block diagram showing an example of a functional configuration of a
制御部101は、例えばCPUであり、デジタルカメラ100が備える各ブロックに対する制御プログラムを後述のROM102より読み出し、後述のRAM103に展開して実行する。これにより、制御部101は、デジタルカメラ100が備える各ブロックの動作を制御する。また、制御部101は、所定の画像を表示部109に表示させる表示制御を行う。
The
ROM102は、例えばEEPROMなどの電気的に消去・記録可能な不揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。RAM103は、書き換え可能な揮発性メモリであり、制御部101等が実行するプログラムや、デジタルカメラ100が備える各ブロックの動作で生成されたデータの一時的な記憶するために用いられる。
The
光学系104は、ズームレンズ、フォーカスレンズを含むレンズ群を含み、光学系104を通過した被写体像を、後述の撮像部105の撮像面上に結像させる。撮像部105は、例えばCCDやCMOSセンサ等の撮像素子を含み、光学系104により撮像部105の撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部106に出力する。A/D変換部106は、入力されたアナログ画像信号をデジタル画像データに変換する。A/D変換部106から出力されたデジタル画像データは、RAM103に一時的に記憶される。
The
画像処理部107は、RAM103に記憶されている画像データに対して、例えばホワイトバランス調整、色補間、ガンマ処理などの様々な画像処理を適用する。また、画像処理部107は、後述する画像生成部600を含む。画像生成部600は、RAM103に記憶されている画像に対して、動きブレの確認を容易にする画像プレーンを重畳した、動きブレ報知画像を生成する。また、画像処理部107は、後述する不図示の動きベクトル算出部を含み、撮像部105あるいは記録部108から取得された画像間の動きベクトルを算出する。
The
記録部108は、半導体メモリなどで構成される固定された記録媒体にデータを記録するが、記録媒体は着脱可能なメモリカードであってもよい。記録部108は、画像処理部107で処理された画像データを記録画像として記録する。表示部109は、LCD等の表示デバイスであり、RAM103に記憶されている画像や記録部108に記録されている画像を表示する。また、表示部109は、ユーザからの指示を受け付けるためのユーザインタフェースを表示することができる。また、表示部109は、準備撮影中に構図合わせ等のために撮像部105が撮像した画像を表示する。なお、表示部109は必ずしもデジタルカメラ100の内部に備わる必要はなく、制御部101が外部モニタに表示するための表示用データを外部に出力するように表示制御を行う構成であってもよい。
The
指示入力部110は、タッチパネルやスイッチ、ダイヤル、ボタンなどの操作部材を含み、ユーザによる指示を受け取って制御部101に通知する。
The
(撮影処理の一連の動作)
次に、図2(a)を参照して、デジタルカメラ100における撮影処理について説明する。なお、本処理は、特に断らない限り制御部101がROM102に記憶されたプログラムをRAM103の作業用領域に展開、実行することにより実現されるものとする。また、本処理は、デジタルカメラ100の起動後に、ユーザが指示入力部110を介して構図合わせなどの撮影準備指示を行った場合に開始される。
(Series of shooting processing operations)
Next, the photographing process in the
S201において、制御部101は準備撮影を開始する。この準備撮影期間中には、制御部101はデジタルカメラ100の各部を制御して連続画像を撮像して表示部109に表示する。デジタルカメラ100のユーザは、表示部109に表示された準備撮影画像を見ながら構図合わせなどを行うことができる。なお、後述するS202、203、204の処理は準備撮影期間中に実行される。
In S201, the
S202において、制御部101は、本撮影時の露光時間を設定する。例えば、制御部101は、指示入力部110から受け取ったユーザによる操作指示に基づいて、本撮影時の露光時間を設定する。なお、本実施形態では、制御部101がユーザ操作に基づいて本撮影時の露光時間を設定する場合を例に説明するが、制御部101が本撮影時の露光時間を、例えば設定された撮影条件等に応じて自動で設定しても良い。制御部101は、設定された露光時間を例えばROM102または記録部108に保持させる。
In S202, the
S203において、制御部101は、撮像部105により取得される準備撮影画像を表示部109に表示する。S204において、制御部101は、指示入力部110からの信号に基づいてシャッターボタンが押下されたかを判定する。すなわち、ユーザは表示部109に表示された画像をみながらシャッターチャンス時にシャッターボタンを押下し、制御部101は、このシャッターボタンの押下を検知した場合、S205に進む。制御部101は、シャッターボタンが押下されていないと判定した場合、S203にもどり、準備撮影画像の表示を継続する。
In S<b>203 , the
S205において、制御部101は、撮像部105等を制御して本撮影を行い、本撮影により撮像した画像(以下、本撮影画像という)を記録部108に記録する。S206において、制御部101は、動きブレ報知機能の設定がONである(すなわち有効化されている)のかOFFである(無効化されている)のかを判定する。動きブレ報知機能のONかOFFかの設定は、例えば指示入力部110を用いて設定されるものとし、設定された設定値は例えばROM102または記録部108に保持される。制御部101は、動きブレ報知機能がONであると判定した場合、S207に進み、そうでない場合、動きベクトルの算出は行わずにS208に進む。
In S205, the
S207において、画像処理部107は、制御部101の指示に応じて、本撮影画像に対する動きベクトルの算出を行う。なお、動きベクトルの算出処理については、図4を参照して後述する。制御部101は、画像処理部107で算出した動きベクトルの情報を本撮影画像と関連付けて記録部108に記録してもよい。S208において、制御部101は、S206において撮影された本撮影画像を表示部109に表示する。
In S207, the
図3(a)は、S205において撮影された本撮影画像の一例を示している。この本撮影画像の例では、左に走っている犬301と止まっている犬302のシーンを撮影した場合の画像を示している。S207における動きベクトルの算出では、例えば動き情報として、本撮影直前の準備撮影画像と本撮影画像との画像間における動きベクトルを算出する。本撮影を連続して行っている(すなわち連続撮影)場合は、準備撮影画像ではなく、本撮影画像に対して1つ前または1つ後の本撮影画像を用いて画像間の動きベクトルを算出してもよい。なお、以下の説明における「画像間」の動きベクトルは、準備撮影画像と本撮影画像の画像間の動きベクトルと、2つの本撮影画像の画像間の動きベクトルのいずれを指してもよい。また、動きベクトルは、2つの画像間における被写体の水平方向の移動量と垂直方向の移動量を、ベクトルとして表す。
FIG. 3(a) shows an example of the actual photographed image photographed in S205. This example of the actual photographed image shows an image in which a scene of a
なお、動きベクトルとして得られる画像間の動きは、例えば1/60秒などの所定時間間隔で順次取得される画像の間の動きを表すため、必ずしもユーザの設定している露光時間(例えば1/120秒)の間に生じるブレの大きさを表すものではない。このため、本実施形態では、後述するように、例えば撮影で用いられる(あるいはユーザが設定した)露光時間の間に生じるブレの大きさをユーザが容易に把握することができるように、動きベクトルの大きさを、露光時間を用いて換算する処理を行う。 Note that the motion between images obtained as a motion vector represents the motion between images that are sequentially acquired at predetermined time intervals such as 1/60 seconds, so it does not necessarily depend on the exposure time set by the user (for example, 1/60 seconds). 120 seconds). For this reason, in this embodiment, as will be described later, motion vectors are used so that the user can easily understand the magnitude of blurring that occurs during the exposure time used in shooting (or set by the user), for example. Processing is performed to convert the size of , using the exposure time.
ここで、図4を参照して、本実施形態に係る、動きベクトルの算出処理の一連の動作について説明する。なお、本実施形態の動きベクトルの算出処理は、例えば画像処理部107に含まれる不図示の動きベクトル算出部によって実行される。また、以下の説明では、動きベクトルの算出手法としてブロックマッチング法を用いる場合を例に説明するが、この例に限定されず、例えば勾配法でもよい。
Here, with reference to FIG. 4, a series of operations for motion vector calculation processing according to the present embodiment will be described. Note that the motion vector calculation process of this embodiment is executed by, for example, a motion vector calculation unit (not shown) included in the
S401において、動きベクトル算出部は、撮像部105から順次出力される、時間的に隣接する2枚の画像を取得して、直前に撮影された準備撮影画像または他の本撮影画像を参照フレームに設定し、本撮影画像を基準フレームに設定する。なお、単に、基準フレームに設定した画像を基準撮像画像と、参照フレームに設定した画像を参照撮像画像ともいう。S402において、動きベクトル算出部は、図5に示すように、基準フレームの基準撮像画像501において、N×N画素の基準ブロック502を配置する。
In S401, the motion vector calculation unit acquires two temporally adjacent images that are sequentially output from the
S402において、動きベクトル算出部は、図5に示すように、参照フレームの参照撮像画像503に対し、基準撮像画像501の基準ブロック502の中心座標と同座標504の周囲(N+n)×(N+n)画素を、探索範囲505として設定する。
In S402, as shown in FIG. 5, the motion vector calculation unit calculates, for the reference captured
S404において、動きベクトル算出部は、基準撮像画像501の基準ブロック502と、参照撮像画像503の探索範囲505内に存在する異なる座標のN×N画素の参照ブロック506との相関演算を行い、相関値を算出する。相関値は、基準ブロック502及び参照ブロック506の画素に対するフレーム間差分絶対値和に基づき算出する。つまり、フレーム間差分絶対値和の値が最も小さい座標が、最も相関値が高い座標となる。尚、相関値の算出方法は、フレーム間差分絶対値和を求める方法に限定されず、例えばフレーム間差分二乗和や正規相互相関値に基づく相関値を算出する方法でもよい。図5に示す例では、参照ブロック506が最も相関が高いことを示しているものとする。
In S404, the motion vector calculation unit performs a correlation calculation between the
S405において、動きベクトル算出部は、S404で求めた最も高い相関値を示す参照ブロック座標に基づき動きベクトルを算出する。例えば、動きベクトル算出部は、参照撮像画像503の探索範囲505のうち基準撮像画像501の基準ブロック502の中心座標に対応した同座標504と参照ブロック506の中心座標とに基づいて動きベクトルを求める。つまり、同座標504から参照ブロック506の中心座標までの座標間距離と方向が動きベクトルとして求められる。動きベクトル算出部は、求めた動きベクトルの情報を動画や音楽のデータと共に又は単独で記録部108に記録する。
In S405, the motion vector calculation unit calculates a motion vector based on the reference block coordinates indicating the highest correlation value determined in S404. For example, the motion vector calculation unit calculates a motion vector based on the
S406において、動きベクトル算出部は、基準撮像画像501の全画素について動きベクトルを算出したか否か判定する。動きベクトル算出部は、S406において全画素の動きベクトルを算出していないと判定した場合には、S402に処理を戻す。そして、S402では、動きベクトルが算出されていない画素を中心として前述した基準撮像画像501にN×N画素の基準ブロック502を配置し、同様にS402からS405の処理を実行する。すなわち、動きベクトル算出部は、図5に示す基準ブロック502を基準撮像画像内で移動させながら、S402からS405までの処理を繰り返し、基準撮像画像501の全画素の動きベクトルを算出する。このようにして算出された動きベクトルの一部の例を図3(b)に示す。図3(b)は、図3(a)の準備撮影画像の動きベクトルの例を示す図である。
In S406, the motion vector calculation unit determines whether motion vectors have been calculated for all pixels of the reference captured
図3(a)の準備撮影画像では、犬301が左方向に走っている例を示している。このように被写体が移動している場合の動きベクトルの一例を図3(b)に示す。図3(b)の例では、走っている犬301は左方向の動きベクトル303で表され、それ以外の止まっている犬302や背景の柵は動きがないため、動きベクトルを図示していない。なお、動きベクトル算出部は、全画素の動きベクトルを算出するのではなく、所定画素毎に動きベクトルを算出してもよい。以上の処理により、動きベクトル算出部は、時間的に隣接する画像間における動きベクトルを算出する。
The preparatory photographed image in FIG. 3A shows an example in which the
再び図2を参照して撮影処理の動作について説明する。S209において、制御部101は、シャッターボタンが押下されたままの連続撮影であるかどうかを判定する。制御部101は、例えば指示入力部110からの通知に基づいてシャッターボタンが押下されている場合、連続撮影されていると判定する。制御部101は、連続撮影されていると判定した場合、S205の本撮影処理に戻って撮影を繰り返す。制御部101は、シャッターボタンが押下されていない場合には、連続撮影が終了したと判断し、S210に進んで画像再生モードに入るのを待つ。本実施形態では、連続撮影が終了すると、その後、ユーザが指示入力部110を用いて、デジタルカメラ100を画像再生モードへの切り替える指示を入力するものとする。
The operation of the photographing process will be explained with reference to FIG. 2 again. In S209, the
S210において、制御部101は、デジタルカメラ100が画像再生モードへの切り替えられたかを判定する。例えば、制御部101は、指示入力部110からの信号に基づいて、デジタルカメラ100が画像再生モードへの切り替えられたかを判定し、画像再生モードへの切り替えが行われたと判定した場合にS211に進む。制御部101は、再生モードへの切り替えが行われたと判定するまで処理を繰り返す(すなわち待機する)。
In S210, the
S211において、制御部101は、動きブレ報知機能が有効化されているかを判定する。制御部101は、S206において有効化されている場合、動きブレ報知の設定を読み出して、S212に進む。そうでない場合にはS211に戻って処理を繰り返す。
In S211, the
S212において、画像処理部107は、制御部101の指示に応じて、動きブレのある領域を、再生される本撮影画像に重畳して示す画像(単に動きブレ報知画像ともいう)を生成する。なお、動きブレ報知画像の生成処理については後述する。
In S212, the
S213において、制御部101は、動きブレ報知画像を表示部109に表示させる(すなわち表示部109への表示制御を行う)。なお、制御部101は、動きブレ報知が有効化されていない場合には、再生された本撮影画像を表示部109に表示させる。制御部101は、表示部109に画像を表示させると、その後、撮影処理に係る一連の動作を終了する。
In S213, the
なお、上記S213では、動きブレ報知画像を表示させている間に、ユーザが後述する露光時間を変更することできるようにしてもよい。この場合、制御部101は、露光時間を変更するユーザ操作を受け取ると、S212に戻って変更された露光時間に応じた動きブレ報知画像を生成させる。そして、S213において、表示される動きブレ報知画像を、新たに生成された動きブレ報知画像に変更する。このようにすることで、ユーザは異なる露光時間の設定に対する動きブレを確認することができる。
Note that in S213, the user may be able to change the exposure time, which will be described later, while the motion blur notification image is being displayed. In this case, upon receiving a user operation to change the exposure time, the
次に、図2(a)に示したような、画像再生モードに切り替わったときに本撮影画像の再生表示を行う動作の他に、本撮影画像の再生表示を、本撮影の直後に自動的に所定の期間のみ行うようにしてもよい。この場合のデジタルカメラ100の撮影処理は、例えば図2(b)に示すようになる。なお、図2(a)に示した同様の動作、処理については同一の符号を付して重複する説明は省略する。
Next, in addition to the operation of playing back and displaying the actually shot image when switching to image playback mode as shown in Figure 2(a), the playback display of the actually shot image will be automatically displayed immediately after the actual shooting. It may also be done only for a predetermined period. The photographing process of the
図2(b)において、制御部101はS201~S205の処理を実行して本撮影を行った状態となる。S206において、制御部101は、動きブレ報知機能が有効化されているかを判定する。なお、動きブレ報知機能が有効化されている否かの設定は、例えばユーザが指示入力部110を用いて設定することができ、一度設定されれば設定値が例えばROM102または記録部108に保持されている。
In FIG. 2(b), the
S251において、制御部101は、動きブレ報知機能が有効化されている場合にS207に進み、そうでない(無効化されている)場合には動きベクトルの算出を行わずにS208に進む。S207において、制御部101は、本撮影画像に対する動きベクトルの算出を行って、更にS252において、動きブレ報知画像を生成する。S253において、制御部101は、動きブレ報知画像が生成されている場合には動きブレ報知画像を、動きブレ報知画像が生成されていない場合には本撮影画像を、表示部109に表示させる。制御部101は、画像表示が完了すると撮影処理に係る一連の動作を終了する。
In S251, the
(動きブレ報知画像の生成)
次に、図6および図7を参照して、上述の動きブレ報知画像を生成するための構成と一連の動作について説明する。図6は、画像処理部107が有する画像生成部600の機能構成例を示している。画像生成部600は、動きブレ算出部602、動きブレ報知プレーン作成部603及び画像重畳部604を含む。画像生成部600は、後述する撮影条件と、動きベクトル算出部からの動きベクトル情報と、記録部108あるいはRAM103からの本撮影画像とを取得し、以下の生成処理により、動きブレ報知画像を生成する。
(Generation of motion blur notification image)
Next, a configuration and a series of operations for generating the above-mentioned motion blur notification image will be described with reference to FIGS. 6 and 7. FIG. 6 shows an example of a functional configuration of an
図7には、画像生成部600が動きブレ報知画像を生成する処理の一連の動作を示している。なお、ここで示す動きブレ報知画像を生成する処理は、画像生成部600を構成するハードウェアにより、又は画像生成部600の機能を実現するソフトウェアが1つ以上のプロセッサによって実行されることにより実現される。
FIG. 7 shows a series of operations in which the
S701において、画像生成部600は、本撮影画像の撮影時に得られる動きベクトルの情報を入力する。画像生成部600は、画像再生モードである場合、本撮影画像とともに記録部108に記録されている動きベクトルの情報を入力する。S702において、動きブレ算出部602は、撮影条件としてのS202で設定された本撮影の露光時間を例えばROM102から取得する。また、動きブレ算出部602は、本撮影とその直前の準備撮影における画像間の時間間隔を同様に例えばROM102から取得する。画像間の時間間隔は、連写時には連続する本撮影の時間間隔となる。
In S701, the
S703において、動きブレ算出部602は、動きベクトルを、本撮影の動きブレに換算する。具体的には、動きブレ算出部602は、S702で取得した本撮影の露光時間及び画像間の時間間隔を用いて、S207で算出した画素毎の動きベクトルを本撮影の動きブレに換算する。なお、S207で算出した動きベクトルは、撮像部105から順次(例えば1/60秒の取得間隔でまたは連写画像の取得間隔で)取得された画像間の動きベクトルを表している。本撮影における動きベクトルと本撮影の動きブレについて、図8を参照して説明する。図8では、撮影条件として、動きベクトルを検出した画像間の時間間隔が1/60秒であり、本撮影の露光時間が1/120秒である場合と1/30秒である場合とを示している。動きブレ算出部602は、例えば式(1)及び式(2)に示す換算式に基づき、画素毎の動きベクトルを本撮影の動きブレに換算する。
In S703, the motion
CONV_GAIN=EXP_TIME/INT_TIME・・・(1)
CONV_BLUR=VEC_LEN×CONV_GAIN・・・(2)
ここで、式(1)において、CONV_GAINは準備撮影の動きベクトルを本撮影の動きベクトルに換算するための換算ゲインを示し、EXP_TIMEは本撮影の露光時間を示し、INT_TIMEは画像間の時間間隔を示す。また、式(2)において、CONV_BLURは換算された本撮影の動きブレを示し、VEC_LENは本撮影における動きベクトルの長さを示す。
CONV_GAIN=EXP_TIME/INT_TIME...(1)
CONV_BLUR=VEC_LEN×CONV_GAIN...(2)
Here, in equation (1), CONV_GAIN indicates the conversion gain for converting the motion vector of the preparatory shooting into the motion vector of the main shooting, EXP_TIME indicates the exposure time of the main shooting, and INT_TIME indicates the time interval between images. show. Furthermore, in equation (2), CONV_BLUR indicates the converted motion blur in the actual shooting, and VEC_LEN indicates the length of the motion vector in the actual shooting.
動きブレ算出部602は、式(1)に基づいて、換算ゲインを算出する。すなわち、本撮影の露光時間を画像間の時間間隔で除算することにより換算ゲインを算出する。そして、動きブレ算出部602は、式(2)に基づいて、本撮影の動きブレを算出する。すなわち、動きブレ算出部602は、動きベクトルの大きさに換算ゲインを乗算することにより、本撮影の動きブレを算出する。
The motion
例えば、図8に示すように本撮影における動きベクトルの大きさが10画素である場合、本撮影の露光時間が1/120秒の動きブレは、換算ゲインが1/2倍になるため5画素となる。また、本撮影の露光時間が1/30秒である動きブレは、換算ゲインが2倍になるため20画素となる。 For example, if the size of the motion vector in the actual shooting is 10 pixels as shown in FIG. becomes. Further, for motion blur when the exposure time of the actual photographing is 1/30 seconds, the converted gain is doubled, so the number of pixels is 20.
なお、上述したように、画像再生モードにおいてユーザが露光時間の設定を切り替えた場合、EXP_TIMEは、ユーザが画像を再生する際に設定する露光時間とすることができる。本撮影画像の再生時に設定される露光時間を使用して換算ゲインを算出することにより、露光時間を変更した場合の動きブレ量を画像再生時に表示することができ、所望の動きブレ量で撮影するための露光時間を確認することができるようになる。 Note that, as described above, when the user switches the exposure time setting in the image playback mode, EXP_TIME can be set to the exposure time that the user sets when playing back the image. By calculating the conversion gain using the exposure time set during playback of the actual shot image, the amount of motion blur when changing the exposure time can be displayed during image playback, allowing you to shoot with the desired amount of motion blur. You will be able to check the exposure time for
S704において、動きブレ報知プレーン作成部603は、S703において算出した画素毎の動きブレに基づき、動きブレを報知するための画像プレーンを作成する。S705において、画像重畳部604は、本撮影画像にS704において作成した動きブレ報知プレーンを重畳し、動きブレ報知画像を生成する。ここで、動きブレ報知画像の例について、図9を参照して説明する。図9(a)から(c)は、本実施形態における3つの動きブレ報知画像の例を示している。画像再生中に動きブレ報知画像を表示部109に表示することにより、ユーザは本撮影画像における動きブレを容易に確認することができる。
In S704, the motion blur notification
図9(a)は、動きブレ報知画像として、本撮影画像にアイコンを付加することにより動きブレを報知する例を示す。ここで、アイコン表示を付加することによって動きブレ報知画像を生成する例について説明する。S704において、動きブレ報知プレーン作成部603は、画素毎の動きブレのうち、換算された動きブレが所定値以上である画素数が画面全体に占める割合を算出する。動きブレ報知プレーン作成部603は、換算された動きブレが所定値以上である画素数の画像全体を占める割合が所定割合以上であることに応じて、基準値以上の動きブレの存在を示すアイコンを動きブレ報知プレーンとして作成する。基準値以上の動きブレの存在を示すアイコンは、例えば図9(a)に示すような動きブレアイコン901であってよい。そして、画像重畳部604は、動きブレ報知プレーンを本撮影画像に重畳することにより、図9(a)に示すような動きブレ報知画像を生成する。一方、動きブレ報知プレーン作成部603は、換算された動きブレが所定値以上である画素数の画像全体を占める割合が所定割合より低い場合、動きブレ報知プレーンを作成しない。
FIG. 9A shows an example in which motion blur is reported by adding an icon to the actually photographed image as a motion blur notification image. Here, an example will be described in which a motion blur notification image is generated by adding an icon display. In S704, the motion blur notification
図9(b)は、動きブレ報知画像として、本撮影画像に動きブレ枠を表示することにより動きブレを報知する例を示す。ここで、動きブレ枠を表示することによる動きブレ報知画像の生成方法について説明する。S704において、動きブレ報知プレーン作成部603は、分割領域内の画素毎の動きブレのうち、換算された動きブレが所定値以上である画素数が分割領域全体に占める割合を算出する。動きブレ報知プレーン作成部603は、換算された動きブレが所定値以上である画素数の分割領域全体に占める割合が所定割合以上である分割領域に対して、基準値以上の動きブレの存在する領域を示す枠を動きブレ報知プレーンとして作成する。基準値以上の動きブレの存在する領域を示す枠は、例えば図9(b)に示す動きブレ枠902であってよい。画像重畳部604は、動きブレ報知プレーンを本撮影画像に重畳することにより図9(b)に示すような動きブレ報知画像を生成する。一方、動きブレ報知プレーン作成部603は、換算された動きブレが所定値以上である画素数の分割領域全体を占める割合が所定割合より低い場合、動きブレ報知プレーンを作成しない。
FIG. 9B shows an example in which motion blur is reported by displaying a motion blur frame in the main photographed image as a motion blur notification image. Here, a method of generating a motion blur notification image by displaying a motion blur frame will be described. In S704, the motion blur notification
図9(c)は、動きブレ報知画像として、本撮影画像上の動きブレが発生したエッジを強調表示することにより動きブレを報知する例を示す。ここで、動きブレエッジを強調表示することによる動きブレ報知画像の生成方法について説明する。S704において、動きブレ報知プレーン作成部603は、本撮影画像内のエッジ強度を検出する。エッジ強度の算出には、ソーベルフィルタなどの既知の方法を用いることができるためその説明は省略する。動きブレ報知プレーン作成部603は、検出したエッジ強度が所定値以上であり、且つ、換算された動きブレが所定値以上である画素を抽出する。動きブレ報知プレーン作成部603は、抽出した画素に対して、基準値以上の動きブレの存在するエッジを示す強調表示を動きブレ報知プレーンとして作成する。動きブレ報知プレーン作成部603は、当該強調表示として、例えば、図9(c)に示すように動きブレエッジ903を強調表示するような動きブレ報知プレーンを作成する。画像重畳部604は、動きブレエッジを強調表示した動きブレ報知プレーンを本撮影画像に重畳することにより、図9(c)のような動きブレ報知画像を生成する。図9(c)に示す動きブレエッジ903の例では、動きブレのあるエッジを太く強調する例を示している。強調表示方法の他の例としては、エッジ強度が所定値以上、且つ、換算された動きブレが所定値以上の画素を抽出し、抽出した画素に所定の色を付加する(例えば赤く塗る)ような強調表示が挙げられる。画像生成部600は、動きブレ報知画像を出力すると動きブレ報知画像の生成処理の一連の動作を終了する。
FIG. 9C shows an example in which motion blur is reported by emphasizing an edge where motion blur has occurred on the main photographed image as a motion blur notification image. Here, a method for generating a motion blur notification image by emphasizing motion blur edges will be described. In S704, the motion blur notification
なお、上述の例では、換算された動きブレが所定値以上の大きさである場合に動きブレを報知する例について説明した。しかし、換算された動きブレが所定値以下の大きさである場合に動きブレを報知しても良い。このようにすれば、動きブレを動感として表現したい長秒露光撮影の場合に、動きブレの不足を画像再生中に確認し易くなる。 In addition, in the above-mentioned example, an example was described in which a motion blur is notified when the converted motion blur is greater than or equal to a predetermined value. However, if the converted motion blur is less than or equal to a predetermined value, the motion blur may be notified. In this way, in the case of long exposure photography in which motion blur is desired to be expressed as a sense of motion, it becomes easier to confirm the lack of motion blur during image reproduction.
また、上述の例では、動きブレを報知する1つの方法で動きブレ報知画像を表示する例を説明したが、図9(a)から(c)に示す動きブレを報知する方法をユーザが切り替えられるようにしてもよい。このようにすれば、ユーザは設定する露光時間に応じて所望の報知方法で動きブレを確認することができる。 In addition, in the above example, an example was explained in which a motion blur notification image is displayed using one method of notifying motion blur, but the user can switch between the methods of notifying motion blur shown in FIGS. 9(a) to 9(c). It may be possible to do so. In this way, the user can confirm motion blur using a desired notification method according to the set exposure time.
上述の例では、動きブレを報知する方法として、動きブレアイコンの表示、動きブレ枠の表示、動きブレエッジの強調表示の3つの例について説明した。しかし、動きブレを報知する方法はこれに限ったものではない。例えば、平坦な領域も含め、動きブレが発生している領域を強調表示しても良い。具体的には、動きブレ報知プレーン作成部603は、画素毎の換算された動きブレが所定値以上の画素を赤く塗るような強調表示を行う。このようにエッジ領域だけではなく、エッジ領域以外の領域も強調表示を行うことにより、被写体全体が強調表示されるため、より動きブレを確認しやすくなる。
In the above example, three examples of methods for notifying motion blur were described: display of a motion blur icon, display of a motion blur frame, and highlighted display of a motion blur edge. However, the method of reporting motion blur is not limited to this. For example, areas where motion blur occurs may be highlighted, including flat areas. Specifically, the motion blur notification
また、上述の例では、動きブレを報知する方法として、表示部109に動きブレを報知する情報を表示させる例について説明した。しかし、動きブレの報知方法としてはこれに限ったものではない。例えば、音を用いて動きブレを報知しても良い。具体的には、画素毎の換算された動きブレのうち、換算された動きブレが所定値以上である画素数について画面全体に占める割合が所定割合以上の場合に、動きブレ報知音を発生させてもよい。
Furthermore, in the above example, as a method for notifying motion blur, an example was explained in which information for notifying motion blur is displayed on the
以上説明したように本実施形態では、撮像部105から順次取得される、本撮影の画像と他の画像を取得し、本撮影画像に関連付けられた露光時間に基づいて、取得した画像を用いて求められた動き情報を本撮影時の動きブレに換算する。そして、本撮影画像を表示する場合に、求めた本撮影画像における動きブレに基づいて、画像の動きブレを報知するようにした。このようにすることで、本撮影画像を再生して表示する場合に、本撮影画像に対する動きブレを容易に確認可能になる。とりわけ、ユーザは本撮影画像を再生して表示した場合に、本撮影画像を拡大してブレ具合を確認するような手間が低減される。また、本撮影画像を撮影する際に設定された、あるいは再生する際に設定される露光時間に応じた動きブレを確認することができるため、本撮影画像のブレを精度よく容易に把握することが可能になる。
As explained above, in this embodiment, the image of the actual shooting and other images are acquired sequentially from the
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention provides a system or device with a program that implements one or more functions of the embodiments described above via a network or a storage medium, and one or more processors in a computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various changes and modifications can be made without departing from the spirit and scope of the invention. Therefore, the following claims are hereby appended to disclose the scope of the invention.
101…制御部、105…撮像部、109…表示部、300…動きブレ報知画像生成部、302…動きブレ算出部、303…動きブレ報知プレーン作成部、304…画像重畳部
DESCRIPTION OF
Claims (12)
前記第1の画像と前記第2の画像とを用いて求められる動き情報を、前記第2の画像に関連付けられた露光時間に基づいて、前記第2の画像における動きブレに換算する換算手段と、
前記第2の画像を表示する場合に、換算された前記第2の画像における動きブレに基づいて、画像の動きブレを報知する報知手段と、を有し、
前記第2の画像に関連付けられた露光時間は、前記第2の画像の記録後に設定される露光時間である、ことを特徴とする情報処理装置。 Acquisition means for photographing a subject image and acquiring a first image and a second image that are sequentially output, wherein at least the second image is recorded on a recording medium as an image of main photography. and,
a conversion means for converting motion information obtained using the first image and the second image into motion blur in the second image based on an exposure time associated with the second image; ,
When displaying the second image, a notification means for notifying the motion blur of the image based on the converted movement blur in the second image,
An information processing apparatus characterized in that the exposure time associated with the second image is an exposure time set after recording the second image.
前記換算手段は、前記記録媒体に記録された前記動き情報を、前記第2の画像に関連付けられた露光時間に基づいて、前記第2の画像における動きブレに換算する、ことを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。 The motion information obtained using the first image and the second image is recorded on the recording medium,
The conversion means converts the motion information recorded on the recording medium into motion blur in the second image based on an exposure time associated with the second image. The information processing device according to any one of Items 1 to 7.
換算手段が、前記第2の画像に関連付けられた露光時間に基づいて、前記第1の画像と前記第2の画像とを用いて求められる動き情報を、前記第2の画像における動きブレに換算する換算工程と、
報知手段が、前記第2の画像を表示する場合に、換算された前記第2の画像における動きブレに基づいて、画像の動きブレを報知する報知工程と、を有し、
前記第2の画像に関連付けられた露光時間は、前記第2の画像の記録後に設定される露光時間である、ことを特徴とする情報処理装置の制御方法。 an acquisition step in which the acquisition means photographs a subject image and acquires a first image and a second image that are sequentially output, and at least the second image is recorded on a recording medium as an image of the main photography. an acquisition process;
A conversion means converts motion information obtained using the first image and the second image into motion blur in the second image based on an exposure time associated with the second image. a conversion process to
a notification step in which the notification means, when displaying the second image, notifies the motion blur of the image based on the converted movement blur in the second image;
A method for controlling an information processing apparatus, wherein the exposure time associated with the second image is an exposure time set after recording the second image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019043042A JP7389558B2 (en) | 2019-03-08 | 2019-03-08 | Information processing device and its control method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019043042A JP7389558B2 (en) | 2019-03-08 | 2019-03-08 | Information processing device and its control method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020145660A JP2020145660A (en) | 2020-09-10 |
JP7389558B2 true JP7389558B2 (en) | 2023-11-30 |
Family
ID=72354627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019043042A Active JP7389558B2 (en) | 2019-03-08 | 2019-03-08 | Information processing device and its control method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7389558B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022057686A (en) * | 2020-09-30 | 2022-04-11 | 株式会社大都技研 | Game machine |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005210392A (en) | 2004-01-22 | 2005-08-04 | Mega Chips Corp | Image pickup device |
WO2007063819A1 (en) | 2005-11-29 | 2007-06-07 | Pioneer Corporation | Recording device, reproduction device, recording method, recording program, and computer-readable recording medium |
JP2007281536A (en) | 2006-04-03 | 2007-10-25 | Seiko Epson Corp | Subject blur detection device, photographing device, control method thereof, control program, and recording medium |
JP2008022300A (en) | 2006-07-13 | 2008-01-31 | Sony Corp | Image pickup device, control method therefor, and computer program |
JP2014179874A (en) | 2013-03-15 | 2014-09-25 | Casio Comput Co Ltd | Imaging device, display method, and program |
-
2019
- 2019-03-08 JP JP2019043042A patent/JP7389558B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005210392A (en) | 2004-01-22 | 2005-08-04 | Mega Chips Corp | Image pickup device |
WO2007063819A1 (en) | 2005-11-29 | 2007-06-07 | Pioneer Corporation | Recording device, reproduction device, recording method, recording program, and computer-readable recording medium |
JP2007281536A (en) | 2006-04-03 | 2007-10-25 | Seiko Epson Corp | Subject blur detection device, photographing device, control method thereof, control program, and recording medium |
JP2008022300A (en) | 2006-07-13 | 2008-01-31 | Sony Corp | Image pickup device, control method therefor, and computer program |
JP2014179874A (en) | 2013-03-15 | 2014-09-25 | Casio Comput Co Ltd | Imaging device, display method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2020145660A (en) | 2020-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101062502B1 (en) | Image pickup device having a panning mode for picking up panning images | |
KR101913837B1 (en) | Method for providing Panoramic image and imaging device thereof | |
KR101889932B1 (en) | Apparatus and Method for photographing image | |
JP2009124340A (en) | Imaging apparatus, photographing support method, and photographing support program | |
US11722771B2 (en) | Information processing apparatus, imaging apparatus, and information processing method each of which issues a notification of blur of an object, and control method for the imaging apparatus | |
JP6529533B2 (en) | Imaging device, control method of imaging device, and program | |
JP2015053741A (en) | Image reproduction device | |
JP6786311B2 (en) | Image processing equipment, image processing methods, computer programs and storage media | |
JP6261205B2 (en) | Image processing device | |
JP2014241569A (en) | Image processing apparatus, control method of the same, program, and storage medium | |
US11477384B2 (en) | Information processing apparatus, imaging apparatus, information processing method, control method for imaging apparatus, and storage medium for notifying of a subject blur occuring in a captured image | |
JP2018061130A (en) | Image processing device, image processing method, and program | |
JP2020108119A (en) | Notification device, imaging apparatus, notification method, imaging method, and program | |
JP7389558B2 (en) | Information processing device and its control method and program | |
JP2012235198A (en) | Imaging apparatus | |
JP7458769B2 (en) | Image processing device, imaging device, image processing method, program and recording medium | |
JP2016208118A (en) | Image processing apparatus, image processing method, and program | |
JP7546415B2 (en) | Notification device, imaging device, notification method, and program | |
JP2014236244A (en) | Image processing system, image processing program, and digital camera | |
JP7475846B2 (en) | Information processing device, imaging device, information processing method, and imaging device control method | |
JP2022186598A (en) | Information processing apparatus, imaging apparatus, information processing method and control method, and program | |
JP6953594B2 (en) | Image processing equipment, imaging equipment, image processing methods, programs and recording media | |
JP2014138378A (en) | Image pickup device, control method thereof, and control program thereof | |
JP6828069B2 (en) | Imaging equipment, imaging methods and programs | |
JP2011172266A (en) | Imaging apparatus, imaging method and imaging program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231020 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231117 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7389558 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |