JP5893166B2 - 3dモデル・モーフィングのための方法および装置 - Google Patents
3dモデル・モーフィングのための方法および装置 Download PDFInfo
- Publication number
- JP5893166B2 JP5893166B2 JP2014551585A JP2014551585A JP5893166B2 JP 5893166 B2 JP5893166 B2 JP 5893166B2 JP 2014551585 A JP2014551585 A JP 2014551585A JP 2014551585 A JP2014551585 A JP 2014551585A JP 5893166 B2 JP5893166 B2 JP 5893166B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- standard
- morphed
- optical flow
- video frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 32
- 230000003287 optical effect Effects 0.000 claims description 93
- 238000001514 detection method Methods 0.000 claims description 35
- 230000005477 standard model Effects 0.000 claims description 33
- 230000033001 locomotion Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 2
- 230000001815 facial effect Effects 0.000 description 23
- 238000006073 displacement reaction Methods 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 230000008921 facial expression Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000006978 adaptation Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 5
- 238000012549 training Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000010171 animal model Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 238000002922 simulated annealing Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
- G06V10/7557—Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20121—Active appearance model [AAM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/44—Morphing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2021—Shape modification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Description
検出モデルとモーフィング・モデルとを使用して前記標準3Dモデルの初期モーフィングを実行し、それによってモーフィングされた標準3Dモデルを取得するステップと、
2D画像データ入力と、モーフィングされた標準3Dモデルとの間のオプティカル・フロー(optical flow)を決定するステップと、
前記モーフィングされた標準3Dモデルに対してオプティカル・フローを適用し、それによって微調整されモーフィングされた3D標準モデルを提供するステップと
を含む。
モーフィングされた標準3Dモデルの2D投影と、以前の微調整された3D標準モデルの2D投影との間の第1のオプティカル・フローを決定するステップと、
実際の2Dフレームと、以前の微調整され、モーフィングされた3D標準モデルの2D投影との間の第2のオプティカル・フローを決定するステップと、
実際の2Dフレームと、モーフィングされた標準3Dモデルの2D投影との間の第3のオプティカル・フローを取得するために、前記第1のオプティカル・フローと前記第2のオプティカル・フローとを結合するステップと、
2D画像データ入力と、モーフィングされた標準3Dモデルとの間のオプティカル・フローを取得するために、前記モーフィングされた標準3Dモデルの2D投影中に取得される深さ情報に基づいて前記第3のオプティカル・フローを適応させるステップと
を含むことができる。
E = S + DFLOW + DMODEL
Claims (9)
- ある時刻における2Dビデオ・フレーム(T)に基づいて、特定のインスタンスにおいて標準3Dモデルをモーフィングするための方法であって、
前記2Dビデオ・フレーム(T)と、該2Dビデオ・フレーム(T)内に存する特徴を検出することを可能にする検出モデルと、該検出モデルによって検出された該特徴をどのようにして修正するべきかを指示するモーフィング・モデルと、を使用して、前記標準3Dモデルの初期モーフィングを実行し、それによって、特定のインスタンスにおいて、ある時刻における前記2Dビデオ・フレーム(T)に対するモーフィングされた標準3Dモデルを取得するステップ(100)と、
前記2Dビデオ・フレームと、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローを決定するステップ(200)と、
前記モーフィングされた標準3Dモデルに対してオプティカル・フローを適用し、ある時刻の特定のインスタンスにおける、結果として生じる微調整されモーフィングされた標準3Dモデルを提供するステップ(300)と、
を含み、
前記決定するステップは、
前記モーフィングされた標準3Dモデル(T)の2D投影と、以前の2Dビデオ・フレーム(T−1)の上で決定された、以前に微調整されモーフィングされた3D標準モデル(T−1)の2D投影と、の間の第1のオプティカル・フローを決定するステップ(250)と、
現在の2Dビデオ・フレーム(T)と、前記以前の2Dビデオ・フレーム(T−1)の上で決定された、前記以前に微調整されモーフィングされた3D標準モデル(T−1)の2D投影と、の間の第2のオプティカル・フローを決定するステップ(290)と、
前記現在の2Dビデオ・フレーム(T)と、前記モーフィングされた標準3Dモデル(T)の2D投影との間の第3のオプティカル・フローを取得するために、前記第1のオプティカル・フローと前記第2のオプティカル・フローとを結合するステップ(270)と、
前記2Dビデオ・フレーム(T)と前記モーフィングされた標準3Dモデル(T)との間のオプティカル・フローを取得するために、前記モーフィングされた標準3Dモデル(T)の2D投影中に取得される深さ情報に基づいて前記第3のオプティカル・フローを逆投影するステップ(280)と、
を含む、方法。 - 前記2Dビデオ・フレーム(T)と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローに基づいて、前記初期モーフィング・ステップ(1000)において使用される前記モーフィング・モデルを更新するステップ(140)をさらに含む、請求項1に記載の方法。
- 前記2D画像フレームと、以前の2D画像フレームとの間で決定されるオプティカル・フロー情報に基づいて、前記初期モーフィング・ステップにおいて使用される前記検出モデルを更新するステップをさらに含む、請求項1又は2に記載の方法。
- オプティカル・フローを適用する前記ステップは、エネルギー最小化プロシージャ(400)を含み、
前記エネルギー最小化プロシージャは、2つのデータ項と、平滑度項とから構成されるエネルギー最小化問題として定式化された、
E=S+D FLOW +D MODEL
を解くことを含み、ここで、
Eは、エネルギーを示し、
Sは、起こりそうにない動きに科すペナルティを示し、
D FLOW は、最終的に微調整されモーフィングされた標準3Dモデルのための提案された候補の解と、前記2Dビデオ・フレームのオプティカル・フローのみから予期できるものとの間の距離を示し、
D MODEL は、前記候補の解と、観察されたモーフィングされた標準3Dモデルとの間のマッチに従った距離を示す、
請求項1乃至3のいずれか1項に記載の方法。 - ある時刻における2Dビデオ・フレーム(T)に基づいて標準3Dモデルをモーフィングするための装置であって、
前記2Dビデオ・フレーム(T)と、該2Dビデオ・フレーム(T)内に存する特徴を検出することを可能にする検出モデルと、該検出モデルによって検出された該特徴をどのようにして修正するべきかを指示するモーフィング・モデルと、を使用して、前記標準3Dモデルの初期モーフィングを実行し、それによって、ある時刻における前記2Dビデオ・フレーム(T)に対するモーフィングされた標準3Dモデルを取得し(100)、
前記2Dビデオ・フレームと、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローを決定し(200)、
前記モーフィングされた標準3Dモデルに対してオプティカル・フローを適用し、結果として生じる微調整されモーフィングされた3D標準モデルを前記装置の出力に対して提供する(300)ように構成されており、
前記装置は更に、
前記モーフィングされた標準3Dモデル(T)の2D投影と、以前の2Dビデオ・フレーム(T−1)の上で決定された、以前に微調整されモーフィングされた3D標準モデル(T−1)の2D投影と、の間の第1のオプティカル・フローを決定し(250)、
現在の2Dビデオ・フレーム(T)と、前記以前の2Dビデオ・フレーム(T−1)の上で決定された、前記以前に微調整されモーフィングされた3D標準モデル(T−1)の2D投影と、の間の第2のオプティカル・フローを決定し(290)、
前記現在の2Dビデオ・フレーム(T)と、前記モーフィングされた標準3Dモデル(T)の2D投影との間の第3のオプティカル・フローを取得するために、前記第1のオプティカル・フローと前記第2のオプティカル・フローとを結合し(270)、
前記2Dビデオ・フレーム(T)と前記モーフィングされた標準3Dモデル(T)との間のオプティカル・フローを取得するために、前記モーフィングされた標準3Dモデル(T)の2D投影中に取得される深さ情報に基づいて前記第3のオプティカル・フローを逆投影する(280)、
ことによって、ある時間における、前記2Dビデオ・フレーム(T)と、前記モーフィングされた標準3Dモデル(T)との間のオプティカル・フローを決定するように構成されている、
装置。 - 前記2Dビデオ・フレーム(T)と、前記モーフィングされた標準3Dモデルとの間のオプティカル・フローに基づいて前記初期モーフィング・ステップ(1000)において使用される前記モーフィング・モデルを更新する(140)ことがさらにできるようになっている、請求項5に記載の装置。
- 前記2D画像フレームと、以前の2D画像フレームとの間で決定されるオプティカル・フロー情報に基づいて、前記初期モーフィング・ステップにおいて使用される前記検出モデルを更新することがさらにできるようになっている、請求項5又は6に記載の装置。
- 請求項5乃至7のいずれか1項に記載の装置を備える画像処理装置。
- データ処理装置の上で実行されるときに、請求項1乃至4のいずれか1項に記載の方法ステップを実行するように構成された、コンピュータ・プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP12305040.3A EP2615583B1 (en) | 2012-01-12 | 2012-01-12 | Method and arrangement for 3D model morphing |
EP12305040.3 | 2012-01-12 | ||
PCT/EP2013/050173 WO2013104592A1 (en) | 2012-01-12 | 2013-01-08 | Method and arrangement for 3d model morphing |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015507272A JP2015507272A (ja) | 2015-03-05 |
JP5893166B2 true JP5893166B2 (ja) | 2016-03-23 |
Family
ID=47563442
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014551585A Expired - Fee Related JP5893166B2 (ja) | 2012-01-12 | 2013-01-08 | 3dモデル・モーフィングのための方法および装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20140340397A1 (ja) |
EP (1) | EP2615583B1 (ja) |
JP (1) | JP5893166B2 (ja) |
KR (1) | KR101602593B1 (ja) |
CN (1) | CN104040593B (ja) |
WO (1) | WO2013104592A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9378584B2 (en) * | 2012-05-23 | 2016-06-28 | Glasses.Com Inc. | Systems and methods for rendering virtual try-on products |
CN103942833B (zh) * | 2014-04-14 | 2017-03-15 | 成都数象科技有限公司 | 数字人体的精确控制方法 |
US9900583B2 (en) * | 2014-12-04 | 2018-02-20 | Futurewei Technologies, Inc. | System and method for generalized view morphing over a multi-camera mesh |
WO2017081135A1 (en) * | 2015-11-10 | 2017-05-18 | Koninklijke Philips N.V. | Determining information about a patient's face |
CN107657649A (zh) * | 2017-09-13 | 2018-02-02 | 成都尤维克科技有限公司 | 一种机器视觉检测图像库的构建方法 |
CN109740664B (zh) * | 2018-12-28 | 2023-01-10 | 东莞中国科学院云计算产业技术创新与育成中心 | 柔性物体分类方法、装置、计算机设备和存储介质 |
CN110517340B (zh) * | 2019-08-30 | 2020-10-23 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的脸部模型确定方法和装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6492986B1 (en) * | 1997-06-02 | 2002-12-10 | The Trustees Of The University Of Pennsylvania | Method for human face shape and motion estimation based on integrating optical flow and deformable models |
US7133048B2 (en) | 2004-06-30 | 2006-11-07 | Mitsubishi Electric Research Laboratories, Inc. | Variable multilinear models for facial synthesis |
US7755619B2 (en) * | 2005-10-13 | 2010-07-13 | Microsoft Corporation | Automatic 3D face-modeling from video |
JP2007141107A (ja) * | 2005-11-21 | 2007-06-07 | Canon Inc | 画像処理装置およびその方法 |
CN102685441A (zh) * | 2007-01-23 | 2012-09-19 | 欧几里得发现有限责任公司 | 用于提供个人视频服务的系统和方法 |
JP2009003656A (ja) * | 2007-06-20 | 2009-01-08 | Monolith Co Ltd | 画像処理装置および画像処理方法 |
US8384714B2 (en) * | 2008-05-13 | 2013-02-26 | The Board Of Trustees Of The Leland Stanford Junior University | Systems, methods and devices for motion capture using video imaging |
US8208717B2 (en) * | 2009-02-25 | 2012-06-26 | Seiko Epson Corporation | Combining subcomponent models for object image modeling |
-
2012
- 2012-01-12 EP EP12305040.3A patent/EP2615583B1/en not_active Not-in-force
-
2013
- 2013-01-08 CN CN201380005380.1A patent/CN104040593B/zh not_active Expired - Fee Related
- 2013-01-08 US US14/365,223 patent/US20140340397A1/en not_active Abandoned
- 2013-01-08 KR KR1020147022346A patent/KR101602593B1/ko not_active IP Right Cessation
- 2013-01-08 JP JP2014551585A patent/JP5893166B2/ja not_active Expired - Fee Related
- 2013-01-08 WO PCT/EP2013/050173 patent/WO2013104592A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US20140340397A1 (en) | 2014-11-20 |
EP2615583A1 (en) | 2013-07-17 |
EP2615583B1 (en) | 2016-04-20 |
CN104040593A (zh) | 2014-09-10 |
KR20140109496A (ko) | 2014-09-15 |
KR101602593B1 (ko) | 2016-03-10 |
CN104040593B (zh) | 2016-09-28 |
JP2015507272A (ja) | 2015-03-05 |
WO2013104592A1 (en) | 2013-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Thin-plate spline motion model for image animation | |
JP5893166B2 (ja) | 3dモデル・モーフィングのための方法および装置 | |
JP7177062B2 (ja) | 統計モデルを用いた画像データからの深度予測 | |
CN113706699B (zh) | 数据处理方法、装置、电子设备及计算机可读存储介质 | |
KR101547780B1 (ko) | 이미지 모델 구축 방법 및 장치 | |
KR20190129985A (ko) | 파트 기반 키 프레임들 및 선험적 모델을 사용한 견고한 메시 트래킹 및 융합 | |
JP6676562B2 (ja) | 画像合成装置、画像合成方法及びコンピュータプログラム | |
US20170278302A1 (en) | Method and device for registering an image to a model | |
JP2006260527A (ja) | 画像マッチング方法およびこれを用いた画像補間方法 | |
WO2021228183A1 (en) | Facial re-enactment | |
JP2022123843A (ja) | 3次元姿勢推定データを生成するためのコンピュータ実装方法、データ処理装置およびコンピュータプログラム | |
Li et al. | MannequinChallenge: Learning the depths of moving people by watching frozen people | |
CN117218246A (zh) | 图像生成模型的训练方法、装置、电子设备及存储介质 | |
Liu et al. | Deep learning for 3D human pose estimation and mesh recovery: A survey | |
AU2022241513B2 (en) | Transformer-based shape models | |
Sibbing et al. | Building a large database of facial movements for deformation model‐based 3d face tracking | |
CN115082537A (zh) | 单目自监督水下图像深度估计方法、装置及存储介质 | |
Pan et al. | Modeling for deformable body and motion analysis: A review | |
TW201342305A (zh) | 三維模型變形之方法及裝置 | |
Jian et al. | Realistic face animation generation from videos | |
US20190377935A1 (en) | Method and apparatus for tracking features | |
US20240078726A1 (en) | Multi-camera face swapping | |
Afzal et al. | Incremental reconstruction of moving object trajectory | |
Xue et al. | FreeCap: Hybrid Calibration-Free Motion Capture in Open Environments | |
Farnoosh et al. | Indoor GeoNet: Weakly Supervised Hybrid Learning for Depth and Pose Estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150625 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5893166 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |