Nothing Special   »   [go: up one dir, main page]

JP6663193B2 - 撮像装置およびその制御方法 - Google Patents

撮像装置およびその制御方法 Download PDF

Info

Publication number
JP6663193B2
JP6663193B2 JP2015178878A JP2015178878A JP6663193B2 JP 6663193 B2 JP6663193 B2 JP 6663193B2 JP 2015178878 A JP2015178878 A JP 2015178878A JP 2015178878 A JP2015178878 A JP 2015178878A JP 6663193 B2 JP6663193 B2 JP 6663193B2
Authority
JP
Japan
Prior art keywords
moving image
auxiliary display
light field
display
field data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015178878A
Other languages
English (en)
Other versions
JP2017055310A5 (ja
JP2017055310A (ja
Inventor
晃彦 佐藤
晃彦 佐藤
佳宣 佐藤
佳宣 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015178878A priority Critical patent/JP6663193B2/ja
Priority to US15/254,089 priority patent/US10291854B2/en
Publication of JP2017055310A publication Critical patent/JP2017055310A/ja
Publication of JP2017055310A5 publication Critical patent/JP2017055310A5/ja
Application granted granted Critical
Publication of JP6663193B2 publication Critical patent/JP6663193B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は撮像装置およびその制御方法に関し、特には光線空間情報(ライトフィールドデータとも呼ばれる)を生成可能な撮像装置およびその制御方法に関する。
近年、撮像素子の像面における区分領域に入射する光について、入射方向ごとの強度を記録可能な撮像装置が提案され、ライトフィールドカメラなどと呼ばれている。そして、ライトフィールドカメラが記録するデータ(ライトフィールドデータまたは光線空間情報)から、合焦する被写体距離、撮影視点、被写界深度などを撮影時と異ならせた画像(以下、まとめてリフォーカス画像という)を再構成することができる。また、ライトフィールドデータからリフォーカス画像を生成する処理を再構成処理またはリフォーカス処理と呼ぶ。
そして、特許文献1では、ライトフィールドカメラにおける撮影支援機能として、リフォーカス処理によって合焦させることが可能な距離範囲(リフォーカス可能範囲)に含まれる被写体を示す情報をライブビュー画像に重畳表示することが開示されている。これによりユーザは、合焦させたい複数の被写体がリフォーカス可能範囲に含まれることを確認した上で撮影を開始することができる。また、合焦させたい複数の被写体がリフォーカス可能範囲に含まれるように、必要に応じて撮影条件を変更することもできる。
米国特許出願公開第2013/0222633号明細書(FIG. 9B, 9C)
特許文献1に開示される支援機能は、静止画撮影のスタンバイ時におけるライブビュー表示や、記録済みデータの再生時の表示を対象としたもので、動画記録中の表示制御に関しては何も開示されていない。一方、特許文献1に開示される支援機能を、動画記録中の表示にそのまま適用すると、重畳表示される情報や、表示画像の輝度や色の変化により、記録されている動画の視認性が低下する場合がある。
本発明はこのような従来技術の課題に鑑みてなされたものであり、ライトフィールドデータの取得が可能な撮像装置およびその制御方法において、状況に応じて適切な撮影支援機能提供を実現ることを目的とする。
上述の目的は、ライトフィールドデータを取得可能な撮像手段と、撮像手段で撮影された動画像を表示装置に逐次表示する制御手段とを有し、制御手段は、現在の撮影条件で取得されるライトフィールドデータに関する情報を表す補助表示を、動画像に重畳させて表示装置に表示、動画記録中においては、動画記録中でない場合よりも、補助表示を目立たない形態とするように補助表示の方法を制御する、ことを特徴とする撮像装置によって達成される。
このような構成により、本発明によれば、ライトフィールドデータの取得が可能な撮像装置およびその制御方法において、状況に応じて適切な撮影支援機能を提供できるようになる。
実施形態に係る撮像装置の一例としてのデジタルカメラの機能構成例を示すブロック図 実施形態におけるリフォーカス可能範囲を説明するための図 実施形態に係るデジタルカメラの撮影モードにおける状態遷移図 実施形態に係るデジタルカメラの撮影モードにおける動作を示すフローチャート 実施形態で想定する撮影状態を模式的に示す図 実施形態における「ライブ表示中」状態の補助表示例を模式的に示す図 実施形態における「動画記録中」状態の補助表示例を模式的に示す図 実施形態の変形例に係るデジタルカメラの撮影モードにおける動作を示すフローチャート
以下、図面を参照して本発明の例示的な実施形態について詳細に説明する。図1は本発明の実施形態に係る撮像装置の一例としてのデジタルカメラ100の機能構成例を示すブロック図である。なお、本発明は視差画像の取得もしくは生成が可能な任意の電子機器において実施することができる。
撮像部101は撮像光学系102、ライトフィールドセンサ103、光学系制御部104で構成される。撮像光学系102は、レンズ群やシャッター、絞り等で構成され、被写体の光学像をライトフィールドセンサ103に結像する。撮像光学系102は交換可能であってもよい。
ライトフィールドセンサ103は、瞳分割機能を有する撮像素子である。本実施形態のライトフィールドセンサ103は複数のマイクロレンズが2次元配列されたマイクロレンズアレイを有し、個々のマイクロレンズに対して複数の光電変換素子または光電変換領域を対応付けて配置することで、瞳分割機能を実現するものとする。しかし、多眼カメラを用いる方法など、視差画像を取得可能な他の任意の公知技術を用いることができる。
同じマイクロレンズに対応付けられた複数の光電変換素子のそれぞれからは、撮像光学系102の射出瞳のうち、互いに重複しない部分瞳に対応した出力、つまり異なる方向から入射した光の強度に応じた出力を得ることができる。以下では、このような出力群をライトフィールドデータと呼ぶ。また、同じマイクロレンズに対応付けられた複数の光電変換素子の出力を合計すれば、射出瞳全体に対応する出力が得られる。ライトフィールドセンサ103で得られたライトフィールドデータは、メモリ108へ格納される。
光学系制御部104は、システム制御部106から指示されるフォーカス位置や、絞り値といった制御情報に基づいて、レンズ群や絞りの駆動を制御する。
バス105は、ブロック間でデータや制御信号を通信できるように各ブロックを接続する。
システム制御部106はプログラマブルプロセッサ(CPU、MPUなど)を有し、不揮発性メモリ109に記録されたプログラムを実行することで、後述する本実施形態の各処理をはじめとしたデジタルカメラ100の機能を実現する。なお、システム制御部106の動作の少なくとも一部はASICなどのハードウェアにより実現されてもよい。
メモリ制御部107は、各ブロックからの要求に基づきメモリ108に対するデータの読み書きを行う。システム制御部106や各ブロックは、動作中の一時データなどをメモリ108に格納することができる。
メモリ108は、撮像部101から得られたライトフィールドデータなどの各種データを記録する。メモリ108は、所定枚数のライトフィールドデータや、静止画像データ、所定時間の動画像データを格納することが可能な記憶容量を有する。
不揮発性メモリ109は、例えばEEPROM等の、電気的に消去・記録可能なメモリである。不揮発性メモリ109には、システム制御部106などが用いる定数、設定値、プログラム、GUIデータなどが格納されている。
範囲算出部110は、システム制御部106が出力する撮像光学系102の制御情報を用いて、被写体空間におけるリフォーカス可能範囲を算出する。
ここで、リフォーカス可能範囲と撮像光学系102の制御情報との関係に関して図2を用いて説明する。図2は、被写体201、撮像光学系102、およびライトフィールドセンサ103の位置関係とリフォーカス可能範囲の関係を示している。
リフォーカス処理は、ライトフィールドデータから、仮想像面に結像される画像を生成(再構成)する処理である。そして、ライトフィールドセンサ103の構成に応じて定まる、仮想像面を設定可能な光軸上の位置の範囲に対応する被写体距離の範囲がリフォーカス可能範囲である。リフォーカス可能範囲は、ライトフィールドデータを用いて調整可能な合焦距離(画像中の合焦領域に対応する被写体距離)の範囲とも言える。
リフォーカス可能範囲は、撮影時における、撮像光学系102(フォーカスレンズ)と像面位置(ライトフィールドセンサ103)との距離に応じて変化する。図2(a)と(b)は、撮影時における被写体201と、撮像光学系102(フォーカスレンズ)と、ライトフィールドセンサ103との位置関係ならびに、撮影によって得られたライトフィールドデータのリフォーカス可能範囲R1,R2を模式的に示している。
図2(b)は、図2(a)よりも被写体201が近い場合を示している。なお、図2は撮像光学系102の位置を基準として被写体201およびライトフィールドセンサ103の位置を記載しているため、ライトフィールドセンサ103の位置が変化しているように見えるかもしれない。しかし、実際にはライトフィールドセンサ103の位置は変化しておらず、撮像光学系102(フォーカスレンズ)の位置が変化している。
図2(a)および(b)に示すように、撮像光学系102の合焦距離(被写体201の距離)が小さくなると、撮像光学系102とライトフィールドセンサ103との距離が大きくなる。この結果、仮想像面の設定可能範囲Rに対応するリフォーカス可能範囲は逆に、撮像光学系102の合焦距離(被写体201の距離)が小さくなると小さくなり、R1>R2となる。
仮想像面の設定可能範囲や撮像光学系102の光学特性は事前に知ることができるため、特性撮影時の合焦距離が分かれば、リフォーカス可能範囲を求めることができる。例えば、予め離散的な複数の合焦距離についてリフォーカス可能範囲を求めておき、合焦距離によって参照可能なテーブルとして範囲算出部110が保持しておいてもよい。なお、撮像光学系102が交換可能であったり、焦点距離が可変であったりする場合には、変化しうるパラメータに応じてテーブルを複数用意しておくこともできる。なお、合焦距離からリフォーカス可能範囲を求める式を用意しておき、計算によってリフォーカス可能範囲を算出してもよい。
範囲算出部110は、撮影時の合焦距離に関する情報として、システム制御部106が撮像光学系102の合焦距離を制御するために出力する情報(被写体の距離情報または合焦距離情報)を取得する。そして、範囲算出部110は、上述したテーブルなどを用い、現在の撮影条件で得られるライトフィールドデータのリフォーカス可能範囲情報を取得し、メモリ108へ格納する。
画像処理部111は、撮像部101やメモリ制御部107から供給されるライトフィールドデータや画像データに対して、画素補間や縮小といったリサイズ処理、色変換処理、ホワイトバランス調整処理、符号化処理など、予め定められた画像処理を行う。
画像処理部111はまた、リフォーカス部112を備える。リフォーカス部112は、ライトフィールドデータにリフォーカス処理を適用し、リフォーカス可能範囲に対応する仮想像面の設定可能範囲内の任意の位置に設定した仮想像面における画像(リフォーカス画像)のデータを生成する。画像処理部111は、リフォーカス部112で生成した画像データを、メモリ制御部107を介して、メモリ108に格納する。
また、画像処理部111は、ライトフィールドデータから、オートフォーカス機能に用いる評価値を算出したり、自動露光制御に用いる輝度情報を算出したり、例えば顔のような被写体領域を検出したりしてもよい。システム制御部106は、これらの情報に基づいて焦点検出領域を設定したり、合焦距離を決定したり、露出条件(絞り値、シャッタースピード、撮影感度)を決定したりする。そして、システム制御部106は、撮像部101に対して、決定した合焦距離や露出条件を実現するための制御情報を出力する。
操作部113は、ユーザがデジタルカメラ100に指示を入力するための入力デバイス群である。操作部113に含まれる代表的な入力デバイスには、電源スイッチ、レリーズボタン、動画記録ボタン、メニューボタン、方向キー、動作モード選択ダイヤル、タッチパネルなどが含まれるが、これらに限定されない。
表示部114は、例えばLCDなどの表示装置を有し、画像処理部111もしくはメモリ制御部107から供給される画像データや、デジタルカメラ100の各種情報、メニュー画面などのGUIなどを表示する。
記録媒体I/F115はメモリカードやハードディスク等の記録媒体116にアクセスするためのインターフェースである。
記録媒体116は、撮影されたライトフィールドデータや、静止画像データ、動画像データを記録するための媒体であり、半導体メモリや磁気ディスク等から構成される。記録媒体116の少なくとも一部は例えばメモリカードのような着脱可能な形態であってよい。
なお、図1に示し、また説明したデジタルカメラ100の構成例は単なる一例であり、図1に示していない構成要素が含まれたり、図1に示した構成要素の一部が存在しなかったりしてもよい。また、図1に別個に記載した構成要素が1つの構成要素にまとめられたり、1つの構成要素の機能として説明した機能が複数の構成要素によって実現されたりしてもよい。
図3は、本実施形態のデジタルカメラ100の、撮影モードにおける状態遷移図である。撮影モードは、静止画や動画の撮影を行うための動作モードである。デジタルカメラ100は他にも再生モードや設定モードなど複数の動作モードを有し、操作部113に含まれる動作モード選択ダイヤルなどによって選択された動作モードで動作する。
「ライブ表示中」STATE301は、撮影モードの初期状態であり、いわゆる撮影スタンバイ状態に相当する。デジタルカメラ100は、「ライブ表示中」STATE301にある場合、動画撮影を実行し、撮影した動画を表示部114に逐次表示することでライブビュー機能を実現する。なお、ライブビュー表示する動画については、ライトフィールドデータから各フレームを生成してもよいが、同じマイクロレンズに対応付けられた複数の光電変換部の出力を加算してフレームを生成してもよい。また、後述する、ライトフィールドデータに関する補助表示機能は、少なくともこの状態において実施する。
「ライブ表示中」STATE301において、例えば動画記録ボタンが押下されるなど、動画記録の開始指示が入力されると、デジタルカメラ100は「動画記録中」STATE302へ遷移し、動画記録動作を開始する。
「動画記録中」STATE302でデジタルカメラ100は、撮像部101から所定のフレームレートで得られるライトフィールドデータから構成される動画像データを記録媒体116へ記録する。また、デジタルカメラ100は「ライブ表示中」STATE301と同様に表示用の動画像データを生成し、表示部114に表示する。
動画記録ボタンが再度押下されるなど、動画記録の終了指示が入力されると、デジタルカメラ100は再び「ライブ表示中」STATE301へ遷移する。
なお、本実施形態においてデジタルカメラ100は、撮影モードにおいて、静止画撮影の開始指示や、撮影モードの終了指示(他の動作モードへの移行指示)の入力が常時可能である。デジタルカメラ100は、静止画撮影の開始指示が入力されれば静止画撮影処理を行い、ライトフィールドデータを記録媒体116に記録して、指示が入力された際の状態に復帰する。また、撮影モードの終了指示が入力されれば、デジタルカメラ100は次の動作モードへの以降処理を実行する。
次に、図4のフローチャートを用い、デジタルカメラ100の撮影モードにおける動作についてさらに説明する。例えばこの動作は、デジタルカメラ100の起動直後や他の動作モードから撮影モードに変更された際に実行される。
S401においてシステム制御部106は、例えば不揮発性メモリ109に記憶されている状態情報を「ライブ表示中」に更新する。これは、図3における開始状態STARTから「ライブ表示中」STATE301への初期遷移時の処理に相当する。
S402においてシステム制御部106は、操作部113から動画記録の開始指示が入力されたか否かを判定し、入力されたと判定される場合はS403へ、入力されていないと判定された場合はS404へ、処理を移行する。
S403においてシステム制御部106は、状態情報を「動画記録中」に更新する。これは、図3における「ライブ表示中」STATE301から「動画記録中」STATE302への遷移処理に該当する。
S404においてシステム制御部106は、ライトフィールドセンサ103から1フレーム分のライトフィールドデータを読み出す。メモリ制御部107は、読み出されたライトフィールドデータをメモリ108へ格納する。
S405においてシステム制御部106は、画像処理部111を用いてライトフィールドデータから表示用画像データを生成する。表示用画像データは、記録中の動画を確認するためのライブビュー表示に用いる動画像データである。したがって、同じマイクロレンズに対応付けられた複数の光電変換領域の出力を加算して、現在の像面位置における画像を生成すればよい。もちろん、撮影時の像面における画像をリフォーカス処理によって生成することで、表示用画像データを生成してもよい。なお、一般に表示部114の解像度(表示解像度)は記録用画像の解像度(記録解像度)よりも低い。そのため、表示解像度に応じた縮小処理を画像処理部111で適用して表示用画像データを生成する。画像処理部111が生成した表示用画像データは、メモリ制御部107がメモリ108に格納する。
また、画像処理部111は、生成した表示用画像データ(あるいは縮小前の画像データ)に基づいて、オートフォーカスや自動露出制御などに用いるための評価値などを算出し、システム制御部106に供給する。なお、オートフォーカスは公知の方法のいずれかを用いることが可能であり、画像処理部111は用いる方法に応じた評価値を算出する。例えば、コントラスト検出方式でオートフォーカスを行う場合、画像処理部111は焦点検出領域におけるコントラスト評価値を算出する。また、像面位相差検出方式でオートフォーカスを行う場合、ライトフィールドデータから得られる視差画像データを用いてデフォーカス量とデフォーカス方向を算出する。自動露出制御に関しても同様に公知の方法のいずれかを用いることが可能であり、画像処理部111は例えば被写体領域(顔領域など)の平均輝度、画面を複数に分割した領域ごとの平均輝度、画面全体の輝度ヒストグラムなどを評価値として算出できる。
システム制御部106は、画像処理部111で算出された評価値などに基づいて、露出条件やフォーカスレンズ位置などを決定し、撮像光学系102の制御情報を生成する。生成した制御情報はこの時点では光学系制御部104に出力せず、メモリ制御部107によってメモリ108へ格納する。
S406においてシステム制御部106は、範囲算出部110を用いてリフォーカス可能範囲を取得する。上述したように範囲算出部110は、メモリ108に格納された制御情報、特には撮像光学系の合焦距離に関する情報(例えばフォーカスレンズ位置に関する情報)を用いて、リフォーカス可能範囲を取得する。また、撮像光学系102が交換可能であれば、範囲算出部110は例えば起動時に撮像光学系102から取得されてメモリ108に格納された撮像光学系102の固有情報を取得する。リフォーカス可能範囲は、メモリ制御部107がメモリ108へ格納する。
なお、リフォーカス可能範囲は、被写体空間における、デジタルカメラ100からの、光軸方向における距離範囲を特定可能であれば、どのような表現がなされてもよい。例えば距離範囲の至近側と遠位側の距離を数値[m]で表したものであってもよいし、距離範囲を予め対応づけられたコードで表したものであってもよい。
S407においてシステム制御部106は、不揮発性メモリ109に格納されている状態情報が「動画記録中」か否か判定し、状態情報が「動画記録中」であると判定された場合はS408に、「動画記録中」でないと判定された場合はS416に処理を進める。
S408でシステム制御部106は「動画記録中」状態における表示制御を行う。具体的には、システム制御部106はメモリ108に格納されている表示用画像データ(S405で生成)を表示部114に表示する。後述するように、本実施形態では「動画記録中」状態における補助表示は行わないか、「動画記録中」状態でない場合における補助表示よりもライブビュー画像の視認性を妨げないようにする。「動画記録中」状態におけるライブビュー表示は、記録されている画像の画質や画角の確認のために用いられるため、本実施形態では、補助表示の視認性よりもライブビュー画像の視認性を優先している。あるいは、補助表示によってライトフィールドデータの情報を提供することよりも、ライブビュー画像の視認性を低下させないことを優先している。具体的な表示例については後述する。
本実施形態においてシステム制御部106は、現在の撮像条件において得られるライトフィールドデータに関する情報をユーザに提供するための補助表示を、ライブビュー画像とともに表示部114に表示可能である。補助表示は、提供する情報を任意の文字、マーク、グラフィックスなどによって表すものであってよい。なお、本実施形態では、現在の撮像条件において得られるライトフィールドデータのリフォーカス可能範囲に関する情報を、補助表示を用いて提示するものとする。しかしながら、補助表示を用いて提示する、ライトフィールドデータに関する情報はリフォーカス可能範囲に関する情報に限らず、得られるライトフィールドデータに関する他の情報や、ライトフィールドデータに影響を与える任意の情報であってよい。非限定的な例には、被写体距離、現在の合焦距離、マイクロレンズを共有する複数の光電変換領域の読み出しモード(加算の有無、加算する光電変換領域の数など)、撮像光学系102やライトフィールドセンサ(撮像素子)103の固有情報などが含まれてよい。
S409においてシステム制御部106は、S404で取得した1フレーム分のライトフィールドデータを、記録媒体I/F115を通じて記録媒体116へ記録する。なお、新たに記録を行う場合、システム制御部106は予め定められたフォーマットを有するファイルの生成処理を行い、生成したファイルに1フレーム目のライトフィールドデータを記録し、後続するフレームのデータは、同じファイルに追加記録する。なお、ライトフィールドデータだけでなく、表示用画像データも記録するように構成してもよい。また、表示用画像データを記録する場合には、フレーム間予測符号化を適用してもよい。ライトフィールドデータについても、データ量を削減するための符号化処理を適用することができる。
S410においてシステム制御部106は、操作部113を通じて動画記録の終了指示が入力されたか否かを判定し、終了指示が入力されたと判定された場合はS411へ、終了指示が入力されていないと判定された場合はS412へ、それぞれ処理を進める。
S411においてシステム制御部106は、不揮発性メモリ109に格納されている状態情報を「ライブ表示中」に変更する。これは、図3における「動画記録中」STATE302から「ライブ表示中」STATE301への遷移処理に該当する。
S412においてシステム制御部106は、操作部113を通じて静止画の撮影指示が入力されたか否かを判定する。撮影指示は例えばレリーズボタンの押下であってよい。システム制御部106は、撮影指示が入力されたと判定される場合はS413へ、撮影指示が入力されていないと判定される場合はS414へ、それぞれ処理を進める。なお、静止画撮影に関する指示が、撮影準備処理の開始指示(例えばレリーズボタンの半押し)と、撮影処理の開始指示(例えばレリーズボタンの全押し)とに分かれている場合、S412では撮影処理の開始指示の入力について判定してよい。
S413においてシステム制御部106は、静止画撮影処理を行う。動画記録中における静止画撮影処理は、システム制御部106は動画記録を一時的に中断し、動画記録中でない場合と同様の処理を実行してもよいし、動画のフレーム画像から静止画を生成してもよい。あるいは、他の構成であってもよい。静止画撮影に係る処理は、公知の任意の方法を用いて行うことができるため、詳細については説明を省略する。また、静止画の撮影指示の前の撮影準備指示を検出し、静止画撮影用のオートフォーカス処理や自動露出制御を行い、撮影指示の検出時に静止画撮影処理を開始してもよい。システム制御部106は、撮影によって得られた静止画ファイルを記録媒体116に記録する。
S414でシステム制御部106は、S405で生成した制御情報をメモリ108から読み出して光学系制御部104へ出力する。光学系制御部104は、制御情報に基づいて、次のフレームの撮影のために、撮像光学系102が有するフォーカスレンズの位置や絞りの開口径を制御する。
S415においてシステム制御部106は、操作部113を通じて撮影モードの終了指示(他の動作モードへの移行指示)が入力されているか否かを判定する。システム制御部106は、終了指示が入力されていると判定される場合は、撮影モード処理を終了する。 これは図3における「動画記録中」STATE302や「ライブ表示中」STATE301から終了状態ENDへの遷移処理に該当する。また、終了指示が入力されていると判定されない場合、システム制御部106は処理をS402に戻し、次のフレームに対する処理を実行する。
S416においてシステム制御部106は、「ライブ表示中」状態における表示制御を行う。具体的には、システム制御部106はメモリ108に格納されている表示用画像データ(S405で生成)を、リフォーカス可能範囲に関する補助表示とともに表示部114に表示する。「ライブ表示中」状態におけるライブビュー表示は、撮影スタンバイ状態において例えば画角や合焦させる被写体などを決定するために用いられる。そのため、本実施形態では、ライブビュー画像の視認性が補助表示によって低下することよりも、補助表示によってリフォーカス可能範囲の情報を提供することを優先している。具体的な表示例については後述する。
●(補助表示の具体例)
次に、図5〜図7を用いて、本実施形態におけるライブビュー表示制御の具体例について説明する。
ここでは、図5(a)、(b)に示すような、デジタルカメラ100からの距離が異なる被写体501〜503が存在するシーンにおいて、被写体501にピントを合わせて撮影して得られるライトフィールドデータを想定する。また、図5(b)に示すように、被写体503はリフォーカス可能範囲に含まれるが、被写体50はリフォーカス可能範囲外にあるものとする。
図5(c)は、撮影時の像面505で得られた画像データ(合焦距離を変更していない画像データ)を模式的に示している。この画像データは、撮像光学系102の光軸上における、ライトフィールドセンサ103の位置に仮想像面を設定して得られるリフォーカス(再構成)画像データとも言える。
「ライブ表示中」状態のように、ライブビュー画像にリフォーカス可能範囲の補助表示を行う場合、少なくともリフォーカス可能範囲において合焦する領域を検出する必要がある。この検出を実現する方法に特に制限はないが、本実施形態では仮想像面の位置を変更して複数のリフォーカス画像を生成し、個々のリフォーカス画像における合焦領域の論理和で表される領域を求める。なお、リフォーカス画像は、仮想像面の設定可能範囲の両端を含む、複数の仮想像面(仮想像面群504)について生成する。また、個々のリフォーカス画像で検出された合焦領域について顔検出のような被写体検出処理を行い、検出結果をリフォーカス画像に関連付けてもよい。検出結果は例えば被写体が検出されたかどうか、検出されていれば被写体領域の位置や大きさなどであってよい。なお、検出された顔領域を手がかりにして手足や胴などをさらに検出して検出結果としてもよい。
なお、リフォーカス可能範囲内の被写体は、リフォーカス画像を生成する仮想像面の設定間隔(サンプリング間隔)N(図5(b))が小さいほど精度良く検出できる。しかし、リフォーカス画像の生成数が多くなると処理時間や消費電力の増加を招くため、予め適当なサンプリング間隔を定めておくことができる。なお、仮想像面位置に対応する合焦距離を算出して、生成したリフォーカス画像に関連付けてもよい。
リフォーカス画像における合焦領域は、例えばコントラスト検出方式で用いる評価値を画像処理部111で算出し、評価値の大きさが閾値以上の画素から構成される領域として検出することができる。例えば、図5(d)に示すような、被写体503が合焦するような仮想像面506について生成されたリフォーカス画像データでは、図5(e)にグレーで示す合焦領域507が検出される。
異なる仮想像面位置について生成したリフォーカス画像の各々についてこのようにして検出された合焦領域を論理加算することにより、ライブビュー表示される画像について、リフォーカス可能範囲に対応する画像領域を求める。なお、個々のリフォーカス画像において検出された合焦領域についての合焦距離の情報を保持しながら、リフォーカス可能領域に対応する画像領域を求めてもよい。
また、合焦領域の検出を、画素単位ではなく、画像を水平および垂直方向に分割した分割領域単位で行ってもよい。この場合、分割領域ごとの代表評価値に基づいて合焦領域を検出することができる。代表評価値はピーク値、最頻度値、平均値(単純平均、頻度による重み付け平均)など、予め定めておくことができる。
ここで説明した処理は、S416における「ライブ表示中」状態の表示制御処理の一部としてシステム制御部106が画像処理部111とメモリ108を主に用いて実施することができる。そして、システム制御部106は、リフォーカス可能範囲内の被写体に対応する画像領域の情報を用いて補助表示を実行する。補助表示は、表示部114において、ライブビュー画像とリフォーカス可能範囲との関係を確認できるものであれば、どのような形式であってもよい。
ここでは一例として、
(領域A)撮影時の撮像光学系102の合焦距離に対応する合焦領域(すなわち、ライブビュー画像において合焦している領域)
(領域B)リフォーカス可能範囲に含まれ、撮影時の撮像光学系102の合焦距離とは異なる合焦距離に対応する領域
の代表位置(例えば重心位置)に補助表示を重畳するものとする。表示例を図6(a)に示す。
図6(a)は、領域Aおよび領域Bのうち、検出された被写体領域の代表位置に枠状の補助表示601を重畳した例を示している。ここでは、現在合焦している領域については実線の枠、リフォーカスによって合焦させることのできる領域については点線の枠として、両者を識別できるように枠の形態を異ならせている。なお、これは一例であり、枠の色、太さ、輪郭の形状、表示方法(点滅、非点滅など)の1つ以上を異ならせてもよい。
図6(b)は、図6(a)の補助表示に、被写体距離の情報6011を付加した例を示している。上述の通り、合焦領域の検出時にリフォーカス画像を生成するために設定した仮想像面に対応する被写体距離の情報が利用できる場合には、被写体距離の情報を補助表示に含めてもよい。なお、補助表示を行う位置(画像座標)は合焦領域との対応が認識可能であれば重心位置に限らず、他の位置であってもよい。
図6(c)は、ライブビュー画像602に重畳しない補助表示603の一例を示している。例えばライブビュー画像602を縮小し、補助表示603の表示領域を生成することでこのような補助表示603が実現できる。あるいは、ライブビュー画像602のアスペクト比が表示部114のアスペクト比と異なる場合のように、ライブビュー画像602を縮小しなくても補助表示603の表示領域が存在する場合は、ライブビュー画像602の縮小は不要である。補助表示603は、上述した仮想像面群504について生成したリフォーカス画像のそれぞれで検出された合焦領域の画素数を、被写体距離ごとのヒストグラム形式で表したものである。
補助表示603において、縦軸は被写体距離を、横軸は頻度を示している。また、指標6031は撮影時における合焦距離(被写体501の距離)を示している。頻度は合焦領域の大きさの目安として利用できる。また、頻度が示される被写体距離の範囲は仮想像面の設定可能範囲に対応しているため、リフォーカス可能範囲を縦軸から読み取ることができる。なお、被写体検出を行っている場合には、検出された被写体の合焦距離を示す指標をヒストグラム中に示すように構成してもよい。
図6(d)は、リフォーカス可能範囲に対応する画像領域に対して画像処理部111でエッジ抽出を行い、いわゆるピーキングと同様にエッジ強調表示を行う補助表示604の例を示している。この例では、リフォーカス可能範囲に対応する画像領域を視覚的に把握することが容易である。
なお、図6(a)〜(d)に示した例は組み合わせて実施することも可能である。またこれらは例示であって、他の形態の補助表示も可能である。
一方、S408における「動画記録中」状態の表示制御は、
(1)リフォーカス可能範囲に関する補助表示を行わない(図7(a))
(2)リフォーカス可能範囲に関する補助表示を行う場合には、ライブビュー画像の視認性に考慮し、「ライブ表示中」状態よりも目立たない(視認性を低下させない)ようにする(図7(b))
のいずれかとする。
(2)の場合には、ライブビュー画像に重畳表示される補助表示の形態(太さ、色、不透明度、個数、形状、輝度の1つ以上)を「ライブ表示中」の補助表示と異ならせることで、ライブビュー画像の視認性が補助表示によって低下することを抑制することができる。図7(b)では、図6(a)の補助表示よりも枠の色を薄くするとともに、不透明度を下げた例を示している。これ以外にも、枠の個数を削減したり、枠を細くしたり小さくしたりすることもできる。
図6(c)のような、ライブビュー画像に重畳しない(ライブビュー画像とは別の表示領域に)補助表示を行ってもよい。ただし、ライブビュー画像の縮小は必要最小限にとどめるようにする。例えば表示部114や、デジタルカメラ100に接続された外部表示装置のアスペクト比が撮影画像のアスペクト比が異なる場合に生じる、ライブビュー画像が表示されない領域に補助表示を行うように構成してもよい。この場合、ライブビュー画像は縮小されないので、その視認性は補助表示の有無に影響されない。
また、エッジ強調の程度を「ライブ表示中」状態よりも低減させて、図6(d)のような補助表示を行うこともできる。
以上説明したように、本実施形態によれば、ライトフィールドデータの記録が可能な撮像装置においてライブビュー表示を行う場合に、動画記録中か否かに応じて補助表示の方法を異ならせるようにした。特には、動画記録中の場合にはそうでない場合よりもライブビュー画像の視認性を補助表示の視認性よりも優先させた補助表示を行うか、補助表示を行わないようにした。そのため、動画記録中には実際に記録されている画像の確認を妨げず、撮影スタンバイ状態には撮影条件の決定に有用な情報を提供することが可能になり、ユーザの使い勝手を向上させることができる。
●(変形例)
上述の実施形態において、デジタルカメラ100が、動画記録中に静止画撮影が可能である場合を考える。この場合、動画記録中でない場合にリフォーカス可能範囲に関する補助表示を行い、動画記録中には補助表示は行わない構成とすると、希望するリフォーカス可能範囲を有するライトフィールドデータ(静止画)を得ることが困難になる。そのため、動画記録中に静止画撮影の指示が入力された場合に補助表示を行うように構成することができる。
本変形例において、撮影モードにおける動作以外は実施形態と同じであってよいため、デジタルカメラ100の構成に関する説明は省略する。
図8は、本変形例に係るデジタルカメラの撮影モードにおける動作を示すフローチャートである。なお、図8において、図4と同様の処理を行う工程に関しては図4と同じ参照数字を付して重複する説明を省略し、本実施形態に固有の処理を行う工程に関して説明する。
S407においてシステム制御部106は、不揮発性メモリ109に格納されている状態情報が「動画記録中」か否か判定し、状態情報が「動画記録中」であると判定された場合はS801に、「動画記録中」でないと判定された場合はS416に処理を進める。
S801においてシステム制御部106は、操作部113を通じて静止画の撮影指示が入力されたか否かを判定し、撮影指示が入力されたと判定される場合はS802へ、撮影指示が入力されていないと判定される場合はS408へ、処理を進める。なお、静止画撮影に関する指示が、撮影準備処理の開始指示(例えばレリーズボタンの半押し)と、撮影処理の開始指示(例えばレリーズボタンの全押し)とに分かれている場合、S801では撮影準備処理の開始指示の入力について判定してよい。この場合、S412では撮影処理の開始指示の入力について判定する。
S802においてシステム制御部106は、補助表示を含む、静止画撮影を支援するための表示制御を行う。基本的には「動画表示中」状態でない場合にS416で行う表示制御と同様であってよいが、例えば、リフォーカス可能範囲に関する補助表示をより簡便にするなど、異なる表示制御を実行してもよい。例えば、リフォーカス可能範囲を数値範囲で示し、ライブビュー画像中の被写体や領域との関係についての表示は行わないといったことが考えられるが、これに限定されない。
本実施形態によれば、動画記録中、レリーズボタンの半押しなど、静止画撮影に関する指示が入力されている期間は、入力されていない期間よりも、ライブビュー画像の視認性に関する優先度を低下させてリフォーカス可能範囲に関する補助表示を行う。そのため、実施形態の効果に加え、動画記録中に行う静止画撮影に関して、撮影で得られるライトフィールドデータに関する情報をユーザに提供することができ、ユーザが希望するリフォーカス可能範囲を有する静止画撮影の支援が可能になる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
102…撮像光学系、103…ライトフィールドセンサ、104…光学系制御部、106…システム制御部、108…メモリ、110…範囲算出部、111…画像処理部、112…リフォーカス部、113…操作部、114…表示部

Claims (11)

  1. ライトフィールドデータを取得可能な撮像手段と、
    前記撮像手段で撮影された動画像を表示装置に逐次表示する制御手段とを有し、
    前記制御手段は、
    現在の撮影条件で取得されるライトフィールドデータに関する情報を表す補助表示を、前記動画像に重畳させて前記表示装置に表示
    動画記録中においては、動画記録中でない場合よりも、前記補助表示を目立たない形態とするように前記補助表示の方法を制御する、
    ことを特徴とする撮像装置。
  2. 前記制御手段は、前記動画記録中に静止画撮影に関する指示が入力されている期間は前記補助表示を行い、前記指示が入力されていない期間は前記補助表示を行わないことを特徴とする請求項1に記載の撮像装置。
  3. ライトフィールドデータを取得可能な撮像手段と、
    前記撮像手段で撮影された動画像を表示装置に逐次表示する制御手段とを有し、
    前記制御手段は、
    現在の撮影条件で取得されるライトフィールドデータに関する情報を表す補助表示を、前記動画像に重畳させて前記表示装置に表示し、
    動画記録中においては、動画記録中でない場合よりも、前記補助表示を目立たない形態とするように前記補助表示の方法を制御し、
    前記動画記録中に静止画撮影に関する指示が入力されている期間は前記補助表示を行い、前記指示が入力されていない期間は前記補助表示を行わない、
    ことを特徴とする撮像装置。
  4. 前記ライトフィールドデータに関する情報が、前記ライトフィールドデータを用いて調整可能な合焦距離の範囲に関する情報を含むことを特徴とする請求項1から3のいずれか1項に記載の撮像装置。
  5. 前記制御手段は、前記動画記録中における前記補助表示の太さ、色、不透明度、個数、形状、輝度の1つ以上を、前記動画記録中でない場合における前記補助表示と異ならせることを特徴とする請求項1から4のいずれか1項に記載の撮像装置。
  6. 前記補助表示が、前記動画像の領域のうち、前記ライトフィールドデータを用いて調整可能な合焦距離の範囲に含まれる領域を示すことを特徴とする請求項1からのいずれか1項に記載の撮像装置。
  7. 前記補助表示が、前記動画像の領域のうち、現在合焦している領域と、前記ライトフィールドデータを用いて合焦させることのできる領域とを識別できるような形態を有することを特徴とする請求項1からのいずれか1項に記載の撮像装置。
  8. 前記補助表示が、前記動画像の領域のうち、前記ライトフィールドデータを用いて調整可能な合焦距離の範囲に含まれる被写体の距離を示すことを特徴とする請求項1からのいずれか1項に記載の撮像装置。
  9. ライトフィールドデータを取得可能な撮像手段を有する撮像装置の制御方法であって、
    前記撮像装置の制御手段が、前記撮像手段で撮影された動画像を表示装置に逐次表示する制御工程を有し、
    前記制御工程では、
    現在の撮影条件で取得されるライトフィールドデータに関する情報を表す補助表示を、前記動画像に重畳させて前記表示装置に表示
    動画記録中においては、動画記録中でない場合よりも、前記補助表示を目立たない形態とするように前記補助表示の方法を制御する、
    ことを特徴とする撮像装置の制御方法。
  10. ライトフィールドデータを取得可能な撮像手段を有する撮像装置の制御方法であって、
    前記撮像装置の制御手段が、前記撮像手段で撮影された動画像を表示装置に逐次表示する制御工程を有し、
    前記制御工程では、
    現在の撮影条件で取得されるライトフィールドデータに関する情報を表す補助表示を、前記動画像に重畳させて前記表示装置に表示し、
    動画記録中においては、動画記録中でない場合よりも、前記補助表示を目立たない形態とするように前記補助表示の方法を制御し、
    前記動画記録中に静止画撮影に関する指示が入力されている期間は前記補助表示を行い、前記指示が入力されていない期間は前記補助表示を行わない、
    ことを特徴とする撮像装置の制御方法。
  11. 撮像装置が有するコンピュータを、請求項1から8のいずれか1項に記載の撮像装置が有する制御手段として機能させるためのプログラム。
JP2015178878A 2015-09-10 2015-09-10 撮像装置およびその制御方法 Active JP6663193B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015178878A JP6663193B2 (ja) 2015-09-10 2015-09-10 撮像装置およびその制御方法
US15/254,089 US10291854B2 (en) 2015-09-10 2016-09-01 Image capture apparatus and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015178878A JP6663193B2 (ja) 2015-09-10 2015-09-10 撮像装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2017055310A JP2017055310A (ja) 2017-03-16
JP2017055310A5 JP2017055310A5 (ja) 2018-08-09
JP6663193B2 true JP6663193B2 (ja) 2020-03-11

Family

ID=58237551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015178878A Active JP6663193B2 (ja) 2015-09-10 2015-09-10 撮像装置およびその制御方法

Country Status (2)

Country Link
US (1) US10291854B2 (ja)
JP (1) JP6663193B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
US10334151B2 (en) * 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
JP6723709B2 (ja) * 2015-09-11 2020-07-15 キヤノン株式会社 撮像装置、画像処理装置及びそれらの制御方法
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10173962A (ja) * 1996-12-13 1998-06-26 Canon Inc 撮像装置及び画像処理装置
JP2004112422A (ja) 2002-09-19 2004-04-08 Canon Inc 撮像装置
JP4532819B2 (ja) 2002-11-20 2010-08-25 キヤノン株式会社 撮像装置
JP4250543B2 (ja) 2004-02-06 2009-04-08 キヤノン株式会社 撮像装置及び情報処理装置及びそれらの制御方法
JP4794911B2 (ja) 2005-05-31 2011-10-19 キヤノン株式会社 画像処理装置
US10298834B2 (en) * 2006-12-01 2019-05-21 Google Llc Video refocusing
JP5322817B2 (ja) * 2009-07-17 2013-10-23 富士フイルム株式会社 3次元画像撮像装置及び3次元画像表示方法
JP2012027408A (ja) * 2010-07-27 2012-02-09 Sanyo Electric Co Ltd 電子機器
US8948545B2 (en) * 2012-02-28 2015-02-03 Lytro, Inc. Compensating for sensor saturation and microlens modulation during light-field image processing
US8995785B2 (en) 2012-02-28 2015-03-31 Lytro, Inc. Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices
JP2014017543A (ja) * 2012-07-05 2014-01-30 Canon Inc 画像処理装置およびその制御方法、並びにプログラム
US8754829B2 (en) * 2012-08-04 2014-06-17 Paul Lapstun Scanning light field camera and display
JP6305053B2 (ja) * 2013-01-15 2018-04-04 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6159097B2 (ja) * 2013-02-07 2017-07-05 キヤノン株式会社 画像処理装置、撮像装置、制御方法、及びプログラム
JP6094359B2 (ja) * 2013-04-23 2017-03-15 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP6257260B2 (ja) * 2013-10-18 2018-01-10 キヤノン株式会社 撮像装置及びその制御方法
JP6620394B2 (ja) * 2014-06-17 2019-12-18 ソニー株式会社 制御装置、制御方法及びプログラム

Also Published As

Publication number Publication date
US10291854B2 (en) 2019-05-14
US20170078578A1 (en) 2017-03-16
JP2017055310A (ja) 2017-03-16

Similar Documents

Publication Publication Date Title
JP6663193B2 (ja) 撮像装置およびその制御方法
US11184524B2 (en) Focus control device, focus control method, program, and imaging device
JP6202910B2 (ja) 映像処理装置およびその制御方法、プログラム
JP6518452B2 (ja) 撮像装置及び撮像方法
JP2010226694A (ja) 画像処理装置及び画像処理方法
US10477101B2 (en) Focus detection apparatus, control method and storage medium
JP5906427B2 (ja) 撮像装置、画像処理装置
JP4866317B2 (ja) 撮像装置及び撮像装置の制御方法
JP6700813B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6261205B2 (ja) 画像処理装置
US11513315B2 (en) Focus control device, focus control method, program, and imaging device
JP2015139020A (ja) 電子機器及び制御プログラム
US9979899B2 (en) Image effect processing support apparatus, image effect processing support method, and medium for recording image effect processing support program
JP2006246309A (ja) 画像処理装置および画像処理方法
JP2011191617A (ja) 撮像装置
KR20160137289A (ko) 촬영 장치 및 촬영 장치의 동작방법
US10979619B2 (en) Image capturing apparatus capable of highly-accurate autofocus calibration and control method thereof, and storage medium
JP2017212550A (ja) 画像再生装置及びその制御方法、プログラム、記憶媒体
JPWO2018116824A1 (ja) 制御装置、制御方法、並びにプログラム
JP7204387B2 (ja) 画像処理装置およびその制御方法
JP2011223399A (ja) カメラ
JP2017219697A (ja) 撮像装置及び撮像装置の制御方法
JP7134601B2 (ja) 画像処理装置、画像処理方法、撮像装置及び撮像装置の制御方法
JP2011249923A (ja) 撮像装置、画像処理装置、及び画像処理プログラム
WO2019035244A1 (ja) 撮像装置、撮像装置の制御方法、及び撮像装置の制御プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200214

R151 Written notification of patent or utility model registration

Ref document number: 6663193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151