JP2018504009A - デジタルビデオのレンダリング - Google Patents
デジタルビデオのレンダリング Download PDFInfo
- Publication number
- JP2018504009A JP2018504009A JP2017528435A JP2017528435A JP2018504009A JP 2018504009 A JP2018504009 A JP 2018504009A JP 2017528435 A JP2017528435 A JP 2017528435A JP 2017528435 A JP2017528435 A JP 2017528435A JP 2018504009 A JP2018504009 A JP 2018504009A
- Authority
- JP
- Japan
- Prior art keywords
- graphic object
- information
- rendering
- graphic
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000009877 rendering Methods 0.000 title claims abstract description 175
- 238000000034 method Methods 0.000 claims description 57
- 238000004590 computer program Methods 0.000 claims description 42
- 239000012634 fragment Substances 0.000 claims description 34
- 238000013507 mapping Methods 0.000 claims description 24
- 230000015654 memory Effects 0.000 claims description 20
- 238000002156 mixing Methods 0.000 claims description 14
- 230000004044 response Effects 0.000 claims 10
- 210000003128 head Anatomy 0.000 description 32
- 238000012545 processing Methods 0.000 description 25
- 239000013598 vector Substances 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 230000000007 visual effect Effects 0.000 description 13
- 239000002131 composite material Substances 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000002310 reflectometry Methods 0.000 description 8
- 101000912503 Homo sapiens Tyrosine-protein kinase Fgr Proteins 0.000 description 7
- 102100026150 Tyrosine-protein kinase Fgr Human genes 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 239000002245 particle Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 102100039358 3-hydroxyacyl-CoA dehydrogenase type-2 Human genes 0.000 description 2
- 101100118004 Arabidopsis thaliana EBP1 gene Proteins 0.000 description 2
- 101150052583 CALM1 gene Proteins 0.000 description 2
- 102100025580 Calmodulin-1 Human genes 0.000 description 2
- 101100459256 Cyprinus carpio myca gene Proteins 0.000 description 2
- 102100025594 Guided entry of tail-anchored proteins factor CAMLG Human genes 0.000 description 2
- 101001035740 Homo sapiens 3-hydroxyacyl-CoA dehydrogenase type-2 Proteins 0.000 description 2
- 101000932902 Homo sapiens Guided entry of tail-anchored proteins factor CAMLG Proteins 0.000 description 2
- 101150091339 cam-1 gene Proteins 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 101100443272 Arabidopsis thaliana DIR2 gene Proteins 0.000 description 1
- 101100517192 Arabidopsis thaliana NRPD1 gene Proteins 0.000 description 1
- 101100189060 Arabidopsis thaliana PROC1 gene Proteins 0.000 description 1
- 101100038200 Arabidopsis thaliana RPD1 gene Proteins 0.000 description 1
- 102100025579 Calmodulin-2 Human genes 0.000 description 1
- 102000012677 DET1 Human genes 0.000 description 1
- 101150113651 DET1 gene Proteins 0.000 description 1
- 101150066284 DET2 gene Proteins 0.000 description 1
- 102100038804 FK506-binding protein-like Human genes 0.000 description 1
- 102100021455 Histone deacetylase 3 Human genes 0.000 description 1
- 101001077352 Homo sapiens Calcium/calmodulin-dependent protein kinase type II subunit beta Proteins 0.000 description 1
- 101001031402 Homo sapiens FK506-binding protein-like Proteins 0.000 description 1
- 101001035011 Homo sapiens Histone deacetylase 2 Proteins 0.000 description 1
- 101000899282 Homo sapiens Histone deacetylase 3 Proteins 0.000 description 1
- 101001032118 Homo sapiens Histone deacetylase 8 Proteins 0.000 description 1
- 101000975496 Homo sapiens Keratin, type II cytoskeletal 8 Proteins 0.000 description 1
- 101000973960 Homo sapiens Nucleolar protein 3 Proteins 0.000 description 1
- 101000930354 Homo sapiens Protein dispatched homolog 1 Proteins 0.000 description 1
- 101000930348 Homo sapiens Protein dispatched homolog 2 Proteins 0.000 description 1
- 101000854862 Homo sapiens Vacuolar protein sorting-associated protein 35 Proteins 0.000 description 1
- 102100022400 Nucleolar protein 3 Human genes 0.000 description 1
- 102100035622 Protein dispatched homolog 1 Human genes 0.000 description 1
- 102100035637 Protein dispatched homolog 2 Human genes 0.000 description 1
- 101100473190 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) RPN1 gene Proteins 0.000 description 1
- 101100042631 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) SIN3 gene Proteins 0.000 description 1
- 101100537958 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) TRK2 gene Proteins 0.000 description 1
- 241001393742 Simian endogenous retrovirus Species 0.000 description 1
- 102100020822 Vacuolar protein sorting-associated protein 35 Human genes 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 101150042618 comm2 gene Proteins 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/503—Blending, e.g. for anti-aliasing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/61—Scene description
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/62—Semi-transparency
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
Description
x=x0+r*cos(φ),y=y0+r*sin(φ)、ただし点(x0,y0)は画像円の中心である。
Claims (46)
- ・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を受信することと、
・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を受信することと、
・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を受信することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記受信することと、
・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行される、前記レンダリングすることと、
を含む方法。 - 前記第2のグラフィックオブジェクトをレンダリングすることは、前記第1のグラフィックオブジェクトを介した前記第2のグラフィックオブジェクトのレンダリングにおいて前記第1のグラフィックオブジェクトの透明度を求めるために、前記第1のグラフィックオブジェクトの反射率情報を使用することを含む、請求項1に記載の方法。
- 前記第2のグラフィックオブジェクトは、第3のオブジェクトのミラーイメージであり、前記方法は、
・ 前記第3のオブジェクトを前記第1のグラフィックオブジェクトの鏡面に対して映すことにより、前記第2のグラフィックオブジェクトの前記第2の情報を形成すること、
を含む、請求項1または2に記載の方法。 - 前記依存関係情報は、他のグラフィックオブジェクトを介したグラフィックオブジェクトの可視性を示す依存性グラフであり、前記方法は、
・ 前記第1のグラフィックオブジェクトの前記第1の情報を使用して第1のピクセルのための第1のピクセルデータを生成することにより、前記第1のグラフィックオブジェクトをレンダリングすることと、
・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して、前記第1のピクセルのサブセットである第2のピクセルのための第2のピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることと、
を含む、請求項1〜3のいずれかに記載の方法。 - ・ レンダリングされるべき第2のピクセルを、ステンシルバッファを使用してマークすることと、
・ 前記ステンシルバッファの前記マークに対応するピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることと、
を含む、請求項4に記載の方法。 - 前記第1のグラフィックオブジェクトは、第1のピクセルを有し、前記第2のグラフィックオブジェクトは、レンダーレイヤを有し、前記方法は、
・ 前記第1のピクセルがそれを介して前記第2のグラフィックオブジェクトが見えるポータルピクセルであるかどうかを判断することと、
・ 前記判断が、前記第1のピクセルはポータルピクセルであると示す場合、前記第1の情報および前記第2の情報を使用して前記第1のピクセルをレンダリングすることと、
を含む、請求項1〜3のいずれかに記載の方法。 - 一部のオブジェクトが他のオブジェクトを介してのみ見え、他のオブジェクトの外側では見えないように、オブジェクトの可視性が、前記依存関係情報により他のオブジェクトの外側で制限され、前記方法は、前記第1のグラフィックオブジェクトからの色情報と、前記第2のグラフィックオブジェクトからの色情報とをブレンディングすることにより、前記第2のピクセルデータを形成することを含む、請求項1〜6のいずれかに記載の方法。
- 前記依存性グラフは、依存性ツリーであり、前記第1および第2のグラフィックオブジェクトは、それぞれ前記依存性ツリーの第1および第2のノードに対応し、それにより、前記第2のノードは、前記第1のノードの子ノードであり、前記依存性ツリーは、前記第2のオブジェクトが前記第1のオブジェクトを介してのみ見える一方でそれ以外では見えないことを定める、請求項4に記載の方法。
- 前記第1および第2の情報は、前記第1および第2のグラフィックオブジェクトのグラフィックフラグメント1つ以上の情報を有し、前記第1のグラフィックオブジェクトのグラフィックフラグメント1つ以上は、前記第2のグラフィックオブジェクトのフラグメントがそれを介して見える特殊なフラグメントである、請求項1〜8のいずれかに記載の方法。
- ・ 前記第1のグラフィックオブジェクトを有する第1のレンダーレイヤと、前記第2のグラフィックオブジェクトを有する第2のレンダーレイヤとを受信することであって、前記第1および第2のレンダーレイヤは、ピクセルを有し、前記第1のレンダーレイヤは、レンダリング視点から視認された前記第1のグラフィックオブジェクトに対応するピクセルを有し、前記第2のレンダーレイヤは、前記レンダリング視点から視認された前記第2のグラフィックオブジェクトに対応するピクセルを有し、前記第2のグラフィックオブジェクトは、前記レンダリング視点から視認された前記第1のグラフィックオブジェクトにより部分的に遮られる、前記第1のレンダーレイヤと前記第2のレンダーレイヤとを前記受信することと、
・ 前記第1のレンダーレイヤのピクセルと、前記第2のレンダーレイヤのピクセルとを、レンダリング空間内に配置することと、
・ 深度値と前記ピクセルとを関連付けることと、
・ 前記ピクセルおよび前記深度値を使用して、左眼画像および右眼画像をレンダリングすることと、
を含む、請求項1〜9のいずれかに記載の方法。 - ・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を形成することと、
・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を形成することと、
・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を形成することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記形成することと、
・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することによる、前記第2のグラフィックオブジェクトのレンダリングにおいて使用されるよう、前記第1の情報、前記第2の情報、および前記依存関係情報を提供することであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行されるように規定される、前記提供することと、
を含む方法。 - 前記第1のグラフィックオブジェクトは、前記第1のグラフィックオブジェクトを介した前記第2のグラフィックオブジェクトのレンダリングにおいて前記第1のグラフィックオブジェクトの透明度を求めるための、反射率情報を有する、請求項11に記載の方法。
- 前記第2のグラフィックオブジェクトは、第3のオブジェクトのミラーイメージであり、前記方法は、
・ 前記第3のオブジェクトを前記第1のグラフィックオブジェクトの鏡面に対して映すことにより、前記第2のグラフィックオブジェクトの前記第2の情報を形成すること、
を含む、請求項11または12に記載の方法。 - 前記依存関係情報は、他のグラフィックオブジェクトを介したグラフィックオブジェクトの可視性を示す依存性グラフである、請求項11〜13のいずれかに記載の方法。
- ・ ステンシルバッファのマークに対応するピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングするために、レンダリングされるべきピクセルを前記マークする情報を前記ステンシルバッファを使用して提供すること、
を含む、請求項14に記載の方法。 - 前記第1のグラフィックオブジェクトは、第1のピクセルを有し、前記第2のグラフィックオブジェクトは、レンダーレイヤを有し、前記方法は、
・ 前記判断が、前記第1のピクセルはポータルピクセルであると示す場合、前記第1の情報および前記第2の情報を使用して前記第1のピクセルをレンダリングするために、前記第1のピクセルはそれを介して前記第2のグラフィックオブジェクトが見えるポータルピクセルであるとの情報を提供すること、
を含む、請求項11〜13のいずれかに記載の方法。 - 一部のオブジェクトが他のオブジェクトを介してのみ見え、他のオブジェクトの外側では見えないように、オブジェクトの可視性が、前記依存関係情報により他のオブジェクトの外側で制限される、請求項11〜16のいずれかに記載の方法。
- 前記依存性グラフは、依存性ツリーであり、前記第1および第2のグラフィックオブジェクトは、それぞれ前記依存性ツリーの第1および第2のノードに対応し、それにより、前記第2のノードは、前記第1のノードの子ノードであり、前記依存性ツリーは、前記第2のオブジェクトが前記第1のオブジェクトを介してのみ見える一方でそれ以外では見えないことを定める、請求項14に記載の方法。
- 前記第1および第2の情報は、前記第1および第2のグラフィックオブジェクトのグラフィックフラグメント1つ以上の情報を有し、前記第1のグラフィックオブジェクトのグラフィックフラグメント1つ以上は、前記第2のグラフィックオブジェクトのフラグメントがそれを介して見える特殊なフラグメントである、請求項11〜18のいずれかに記載の方法。
- ・ 前記第1のグラフィックオブジェクトを有する第1のレンダーレイヤと、前記第2のグラフィックオブジェクトを有する第2のレンダーレイヤとを形成することであって、前記第1および第2のレンダーレイヤは、ピクセルを有し、前記第1のレンダーレイヤは、レンダリング視点から視認された前記第1のグラフィックオブジェクトに対応するピクセルを有し、前記第2のレンダーレイヤは、前記レンダリング視点から視認された前記第2のグラフィックオブジェクトに対応するピクセルを有し、前記第2のグラフィックオブジェクトは、前記レンダリング視点から視認された前記第1のグラフィックオブジェクトにより部分的に遮られる、前記第1のレンダーレイヤと前記第2のレンダーレイヤとを前記形成することと、
・ 前記第1のレンダーレイヤのピクセルと、前記第2のレンダーレイヤのピクセルとを、レンダリング空間内に配置するためのマッピングパラメータを提供することと、
を含む、請求項11〜19のいずれかに記載の方法。 - 少なくとも1つのプロセッサと、コンピュータプログラムコードを備えたメモリとを有する装置であって、前記メモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記装置に少なくとも、
・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を受信することと、
・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を受信することと、
・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を受信することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記受信することと、
・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行される、前記レンダリングすることと、
を実行させるよう構成される、装置。 - 前記第2のグラフィックオブジェクトをレンダリングすることは、前記第1のグラフィックオブジェクトを介した前記第2のグラフィックオブジェクトのレンダリングにおいて前記第1のグラフィックオブジェクトの透明度を求めるために、前記第1のグラフィックオブジェクトの反射率情報を使用することを含むように設定される、請求項21に記載の装置。
- 前記第2のグラフィックオブジェクトは、第3のオブジェクトのミラーイメージであり、前記装置は、
・ 前記第3のオブジェクトを前記第1のグラフィックオブジェクトの鏡面に対して映すことにより、前記第2のグラフィックオブジェクトの前記第2の情報を形成すること、
を前記装置にさせるコンピュータプログラムコードを有する、請求項21または22に記載の装置。 - 前記依存関係情報は、他のグラフィックオブジェクトを介したグラフィックオブジェクトの可視性を示す依存性グラフであり、前記装置は、
・ 前記第1のグラフィックオブジェクトの前記第1の情報を使用して第1のピクセルのための第1のピクセルデータを生成することにより、前記第1のグラフィックオブジェクトをレンダリングすることと、
・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して、前記第1のピクセルのサブセットである第2のピクセルのための第2のピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることと、
を前記装置にさせるコンピュータプログラムコードを有する、請求項21〜23のいずれかに記載の装置。 - ・ レンダリングされるべき第2のピクセルを、ステンシルバッファを使用してマークすることと、
・ 前記ステンシルバッファの前記マークに対応するピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることと、
を前記装置にさせるコンピュータプログラムコードを有する、請求項24に記載の装置。 - 前記第1のグラフィックオブジェクトは、第1のピクセルを有し、前記第2のグラフィックオブジェクトは、レンダーレイヤを有し、前記装置は、
・ 前記第1のピクセルがそれを介して前記第2のグラフィックオブジェクトが見えるポータルピクセルであるかどうかを判断することと、
・ 前記判断が、前記第1のピクセルはポータルピクセルであると示す場合、前記第1の情報および前記第2の情報を使用して前記第1のピクセルをレンダリングすることと、
を前記装置にさせるコンピュータプログラムコードを有する、請求項21〜23のいずれかに記載の装置。 - 一部のオブジェクトが他のオブジェクトを介してのみ見え、他のオブジェクトの外側では見えないように、オブジェクトの可視性が、前記依存関係情報により他のオブジェクトの外側で制限されるよう設定され、前記装置は、前記第1のグラフィックオブジェクトからの色情報と、前記第2のグラフィックオブジェクトからの色情報とをブレンディングすることにより、前記第2のピクセルデータを形成することを、前記装置にさせるコンピュータプログラムコードを有する、請求項21〜26のいずれかに記載の装置。
- 前記依存性グラフは、依存性ツリーであり、前記第1および第2のグラフィックオブジェクトは、それぞれ前記依存性ツリーの第1および第2のノードに対応し、それにより、前記第2のノードは、前記第1のノードの子ノードであり、前記依存性ツリーは、前記第2のオブジェクトが前記第1のオブジェクトを介してのみ見える一方でそれ以外では見えないことを定める、請求項24に記載の装置。
- 前記第1および第2の情報は、前記第1および第2のグラフィックオブジェクトのグラフィックフラグメント1つ以上の情報を有し、前記第1のグラフィックオブジェクトのグラフィックフラグメント1つ以上は、前記第2のグラフィックオブジェクトのフラグメントがそれを介して見える特殊なフラグメントである、請求項21〜28のいずれかに記載の装置。
- ・ 前記第1のグラフィックオブジェクトを有する第1のレンダーレイヤと、前記第2のグラフィックオブジェクトを有する第2のレンダーレイヤとを受信することであって、前記第1および第2のレンダーレイヤは、ピクセルを有し、前記第1のレンダーレイヤは、レンダリング視点から視認された前記第1のグラフィックオブジェクトに対応するピクセルを有し、前記第2のレンダーレイヤは、前記レンダリング視点から視認された前記第2のグラフィックオブジェクトに対応するピクセルを有し、前記第2のグラフィックオブジェクトは、前記レンダリング視点から視認された前記第1のグラフィックオブジェクトにより部分的に遮られる、前記第1のレンダーレイヤと前記第2のレンダーレイヤとを前記受信することと、
・ 前記第1のレンダーレイヤのピクセルと、前記第2のレンダーレイヤのピクセルとを、レンダリング空間内に配置することと、
・ 深度値と前記ピクセルとを関連付けることと、
・ 前記ピクセルおよび前記深度値を使用して、左眼画像および右眼画像をレンダリングすることと、
を前記装置にさせるコンピュータプログラムコードを有する、請求項21〜29のいずれかに記載の装置。 - 少なくとも1つのプロセッサと、コンピュータプログラムコードを備えたメモリとを有する装置であって、前記メモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記装置に少なくとも、
・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を形成することと、
・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を形成することと、
・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を形成することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記形成することと、
・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することによる、前記第2のグラフィックオブジェクトのレンダリングにおいて使用されるよう、前記第1の情報、前記第2の情報、および前記依存関係情報を提供することであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行されるように規定される、前記提供することと、
を実行させるよう構成される、装置。 - 前記第1のグラフィックオブジェクトは、前記第1のグラフィックオブジェクトを介した前記第2のグラフィックオブジェクトのレンダリングにおいて前記第1のグラフィックオブジェクトの透明度を求めるための、反射率情報を有する、請求項31に記載の装置。
- 前記第2のグラフィックオブジェクトは、第3のオブジェクトのミラーイメージであり、前記装置は、
・ 前記第3のオブジェクトを前記第1のグラフィックオブジェクトの鏡面に対して映すことにより、前記第2のグラフィックオブジェクトの前記第2の情報を形成すること、
を前記装置にさせるコンピュータプログラムコードを有する、請求項31または32に記載の装置。 - 前記依存関係情報は、他のグラフィックオブジェクトを介したグラフィックオブジェクトの可視性を示す依存性グラフである、請求項31〜33のいずれかに記載の装置。
- ・ ステンシルバッファのマークに対応するピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングするために、レンダリングされるべきピクセルを前記マークする情報を前記ステンシルバッファを使用して提供すること、
を前記装置にさせるコンピュータプログラムコードを有する、請求項34に記載の装置。 - 前記第1のグラフィックオブジェクトは、第1のピクセルを有し、前記第2のグラフィックオブジェクトは、レンダーレイヤを有し、前記装置は、
・ 前記判断が、前記第1のピクセルはポータルピクセルであると示す場合、前記第1の情報および前記第2の情報を使用して前記第1のピクセルをレンダリングするために、前記第1のピクセルはそれを介して前記第2のグラフィックオブジェクトが見えるポータルピクセルであるとの情報を提供すること、
を前記装置にさせるコンピュータプログラムコードを有する、請求項31〜33のいずれかに記載の装置。 - 一部のオブジェクトが他のオブジェクトを介してのみ見え、他のオブジェクトの外側では見えないように、オブジェクトの可視性が、前記依存関係情報により他のオブジェクトの外側で制限される、請求項31〜36のいずれかに記載の装置。
- 前記依存性グラフは、依存性ツリーであり、前記第1および第2のグラフィックオブジェクトは、それぞれ前記依存性ツリーの第1および第2のノードに対応し、それにより、前記第2のノードは、前記第1のノードの子ノードであり、前記依存性ツリーは、前記第2のオブジェクトが前記第1のオブジェクトを介してのみ見える一方でそれ以外では見えないことを定める、請求項34に記載の装置。
- 前記第1および第2の情報は、前記第1および第2のグラフィックオブジェクトのグラフィックフラグメント1つ以上の情報を有し、前記第1のグラフィックオブジェクトのグラフィックフラグメント1つ以上は、前記第2のグラフィックオブジェクトのフラグメントがそれを介して見える特殊なフラグメントである、請求項31〜38のいずれかに記載の装置。
- ・ 前記第1のグラフィックオブジェクトを有する第1のレンダーレイヤと、前記第2のグラフィックオブジェクトを有する第2のレンダーレイヤとを形成することであって、前記第1および第2のレンダーレイヤは、ピクセルを有し、前記第1のレンダーレイヤは、レンダリング視点から視認された前記第1のグラフィックオブジェクトに対応するピクセルを有し、前記第2のレンダーレイヤは、前記レンダリング視点から視認された前記第2のグラフィックオブジェクトに対応するピクセルを有し、前記第2のグラフィックオブジェクトは、前記レンダリング視点から視認された前記第1のグラフィックオブジェクトにより部分的に遮られる、前記第1のレンダーレイヤと前記第2のレンダーレイヤとを前記形成することと、
・ 前記第1のレンダーレイヤのピクセルと、前記第2のレンダーレイヤのピクセルとを、レンダリング空間内に配置するためのマッピングパラメータを提供することと、
を前記装置にさせるコンピュータプログラムコードを有する、請求項31〜39のいずれかに記載の装置。 - 少なくとも1つのプロセッサと、コンピュータプログラムコードを備えたメモリとを有するシステムであって、前記メモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記システムに少なくとも、
・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を受信することと、
・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を受信することと、
・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を受信することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記受信することと、
・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行される、前記レンダリングすることと、
を実行させるよう構成される、システム。 - 少なくとも1つのプロセッサと、コンピュータプログラムコードを備えたメモリとを有するシステムであって、前記メモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサとともに、前記システムに少なくとも、
・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を形成することと、
・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を形成することと、
・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を形成することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記形成することと、
・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することによる、前記第2のグラフィックオブジェクトのレンダリングにおいて使用されるよう、前記第1の情報、前記第2の情報、および前記依存関係情報を提供することであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行されるように規定される、前記提供することと、
を実行させるよう構成される、システム。 - ・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を受信する手段と、
・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を受信する手段と、
・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を受信する手段であって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記受信する手段と、
・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングする手段であって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行される、前記レンダリングする手段と、
を有する装置。 - ・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を形成する手段と、
・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を形成する手段と、
・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を形成する手段であって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記形成する手段と、
・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することによる、前記第2のグラフィックオブジェクトのレンダリングにおいて使用されるよう、前記第1の情報、前記第2の情報、および前記依存関係情報を提供する手段であって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行されるように規定される、前記提供する手段と、
を有する装置。 - 非一時的なコンピュータ可読媒体上に具現化され、コンピュータプログラムコードを有するコンピュータプログラム製品であって、前記コンピュータプログラムコードは、少なくとも1つのプロセッサ上で実行されると、装置またはシステムに、
・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を受信することと、
・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を受信することと、
・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を受信することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記受信することと、
・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することにより、前記第2のグラフィックオブジェクトをレンダリングすることであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行される、前記レンダリングすることと、
をさせるよう構成される、コンピュータプログラム製品。 - 非一時的なコンピュータ可読媒体上に具現化され、コンピュータプログラムコードを有するコンピュータプログラム製品であって、前記コンピュータプログラムコードは、少なくとも1つのプロセッサ上で実行されると、装置またはシステムに、
・ 第2のグラフィックオブジェクトをレンダリングするための、第1のグラフィックオブジェクトの第1の情報を形成することと、
・ 前記第2のグラフィックオブジェクトをレンダリングするための、前記第2のグラフィックオブジェクトの第2の情報を形成することと、
・ 前記第1のグラフィックオブジェクトと第2のグラフィックオブジェクトとの間の依存関係情報を形成することであって、前記依存関係情報は、前記第2のグラフィックオブジェクトを、視認方向における前記第1のグラフィックオブジェクトと前記第2のグラフィックオブジェクトとの重なりに応じてレンダリングするための情報を有する、前記依存関係情報を前記形成することと、
・ 前記第2のグラフィックオブジェクトの前記第2の情報および前記第1のグラフィックオブジェクトの前記第1の情報を使用して第2のピクセルデータを生成することによる、前記第2のグラフィックオブジェクトのレンダリングにおいて使用されるよう、前記第1の情報、前記第2の情報、および前記依存関係情報を提供することであって、前記第2のグラフィックオブジェクトの前記レンダリングは、前記第2のグラフィックオブジェクトのうち、前記視認方向において前記第1のグラフィックオブジェクトが重なるような部分に対して実行されるように規定される、前記提供することと、
をさせるよう構成される、コンピュータプログラム製品。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/FI2014/050946 WO2016087702A1 (en) | 2014-12-03 | 2014-12-03 | Digital video rendering |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018504009A true JP2018504009A (ja) | 2018-02-08 |
JP6553184B2 JP6553184B2 (ja) | 2019-07-31 |
Family
ID=56091062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017528435A Active JP6553184B2 (ja) | 2014-12-03 | 2014-12-03 | デジタルビデオのレンダリング |
Country Status (6)
Country | Link |
---|---|
US (1) | US10115227B2 (ja) |
EP (2) | EP3982330A1 (ja) |
JP (1) | JP6553184B2 (ja) |
KR (1) | KR102059732B1 (ja) |
CN (1) | CN107005689B (ja) |
WO (1) | WO2016087702A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022502728A (ja) * | 2018-09-14 | 2022-01-11 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | 拡張現実マッピングシステムおよび関連する方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6944137B2 (ja) * | 2016-07-29 | 2021-10-06 | ソニーグループ株式会社 | 画像処理装置および画像処理方法 |
WO2018199701A1 (en) | 2017-04-28 | 2018-11-01 | Samsung Electronics Co., Ltd. | Method for providing content and apparatus therefor |
AU2018390994B2 (en) | 2017-12-22 | 2023-11-16 | Mirage 3.4D Pty Ltd | Camera projection technique system and method |
CN110570357A (zh) * | 2019-07-09 | 2019-12-13 | 深圳市瑞立视多媒体科技有限公司 | 基于ue4引擎的镜像实现方法、装置、设备及存储介质 |
CN114782605A (zh) * | 2022-05-06 | 2022-07-22 | 网易(杭州)网络有限公司 | 毛发虚拟模型的渲染方法、装置、计算机设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1094678A (ja) * | 1996-07-31 | 1998-04-14 | Konami Co Ltd | ドライビングゲーム機及びドライビングゲームプログラムが格納された記録媒体 |
JP2001307128A (ja) * | 2000-02-17 | 2001-11-02 | Sony Computer Entertainment Inc | 画像描画方法、画像描画装置、記録媒体及びプログラム |
JP2005149209A (ja) * | 2003-11-17 | 2005-06-09 | Canon Inc | 複合現実感提示方法、複合現実感提示装置 |
JP2012506573A (ja) * | 2008-10-21 | 2012-03-15 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | シーンの階層化深さモデルを提供するための方法及び装置並びにシーンの階層化深さモデルを有する信号 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2105797A (en) * | 1996-03-14 | 1997-10-01 | I.I. Interactive Innovations Ltd. | Computerized graphics systems |
US6266064B1 (en) * | 1998-05-29 | 2001-07-24 | Microsoft Corporation | Coherent visibility sorting and occlusion cycle detection for dynamic aggregate geometry |
US7528830B2 (en) * | 2003-09-17 | 2009-05-05 | Koninklijke Philips Electronics N.V. | System and method for rendering 3-D images on a 3-D image display screen |
US7965299B2 (en) * | 2005-10-31 | 2011-06-21 | Canon Kabushiki Kaisha | Implementing compositing operations on images |
KR101257849B1 (ko) | 2006-09-29 | 2013-04-30 | 삼성전자주식회사 | 3차원 그래픽 객체 렌더링 방법 및 장치, 이를 위한 렌더링객체 최소화 방법 및 장치 |
KR100790892B1 (ko) * | 2006-10-18 | 2008-01-02 | 삼성전자주식회사 | 투명 객체의 화질 향상을 위한 3차원 그래픽스 데이터렌더링 방법 및 장치 |
WO2010049850A1 (en) * | 2008-10-28 | 2010-05-06 | Koninklijke Philips Electronics N.V. | Generation of occlusion data for image properties |
-
2014
- 2014-12-03 EP EP21201086.2A patent/EP3982330A1/en active Pending
- 2014-12-03 WO PCT/FI2014/050946 patent/WO2016087702A1/en active Application Filing
- 2014-12-03 KR KR1020177018167A patent/KR102059732B1/ko active IP Right Grant
- 2014-12-03 US US15/529,652 patent/US10115227B2/en active Active
- 2014-12-03 JP JP2017528435A patent/JP6553184B2/ja active Active
- 2014-12-03 EP EP14907391.8A patent/EP3228081A4/en not_active Withdrawn
- 2014-12-03 CN CN201480083825.2A patent/CN107005689B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1094678A (ja) * | 1996-07-31 | 1998-04-14 | Konami Co Ltd | ドライビングゲーム機及びドライビングゲームプログラムが格納された記録媒体 |
JP2001307128A (ja) * | 2000-02-17 | 2001-11-02 | Sony Computer Entertainment Inc | 画像描画方法、画像描画装置、記録媒体及びプログラム |
JP2005149209A (ja) * | 2003-11-17 | 2005-06-09 | Canon Inc | 複合現実感提示方法、複合現実感提示装置 |
JP2012506573A (ja) * | 2008-10-21 | 2012-03-15 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | シーンの階層化深さモデルを提供するための方法及び装置並びにシーンの階層化深さモデルを有する信号 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022502728A (ja) * | 2018-09-14 | 2022-01-11 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | 拡張現実マッピングシステムおよび関連する方法 |
JP7250901B2 (ja) | 2018-09-14 | 2023-04-03 | メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー | 拡張現実マッピングシステムおよび関連する方法 |
Also Published As
Publication number | Publication date |
---|---|
US20170330369A1 (en) | 2017-11-16 |
WO2016087702A1 (en) | 2016-06-09 |
EP3228081A1 (en) | 2017-10-11 |
EP3982330A1 (en) | 2022-04-13 |
JP6553184B2 (ja) | 2019-07-31 |
CN107005689A (zh) | 2017-08-01 |
EP3228081A4 (en) | 2018-10-31 |
KR102059732B1 (ko) | 2020-02-20 |
US10115227B2 (en) | 2018-10-30 |
CN107005689B (zh) | 2019-06-14 |
KR20170091710A (ko) | 2017-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10839591B2 (en) | Stereoscopic rendering using raymarching and a virtual view broadcaster for such rendering | |
US10096157B2 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
US20170280133A1 (en) | Stereo image recording and playback | |
EP3959688B1 (en) | Generative latent textured proxies for object category modeling | |
JP6553184B2 (ja) | デジタルビデオのレンダリング | |
US20080246759A1 (en) | Automatic Scene Modeling for the 3D Camera and 3D Video | |
TWI813098B (zh) | 用於新穎視圖合成之神經混合 | |
Bonatto et al. | Real-time depth video-based rendering for 6-DoF HMD navigation and light field displays | |
CN107562185B (zh) | 一种基于头戴vr设备的光场显示系统及实现方法 | |
US20230106679A1 (en) | Image Processing Systems and Methods | |
EP3057316B1 (en) | Generation of three-dimensional imagery to supplement existing content | |
SERIES | Virtual Reality and Light Field Immersive Video Technologies for Real-World Applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180816 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180827 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190703 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6553184 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |