JP6596883B2 - ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム - Google Patents
ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム Download PDFInfo
- Publication number
- JP6596883B2 JP6596883B2 JP2015073561A JP2015073561A JP6596883B2 JP 6596883 B2 JP6596883 B2 JP 6596883B2 JP 2015073561 A JP2015073561 A JP 2015073561A JP 2015073561 A JP2015073561 A JP 2015073561A JP 6596883 B2 JP6596883 B2 JP 6596883B2
- Authority
- JP
- Japan
- Prior art keywords
- real
- display
- real object
- user
- visual feedback
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000004590 computer program Methods 0.000 title claims description 13
- 230000000007 visual effect Effects 0.000 claims description 156
- 230000003287 optical effect Effects 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 3
- 230000010365 information processing Effects 0.000 description 49
- 238000012545 processing Methods 0.000 description 43
- 238000005516 engineering process Methods 0.000 description 30
- 238000009877 rendering Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 23
- 238000004891 communication Methods 0.000 description 19
- 230000001276 controlling effect Effects 0.000 description 10
- 210000003128 head Anatomy 0.000 description 10
- 230000000875 corresponding effect Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 5
- 238000003672 processing method Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000002730 additional effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002079 cooperative effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0176—Head mounted characterised by mechanical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
Description
現実空間の映像と同時にユーザーに視認される仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得部と、
前記位置関係情報に基づく出力を制御するための制御情報を生成する生成部と、
を具備し、
前記生成部は、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
情報処理装置である。
現実空間の映像と同時にユーザーに視認される仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得ステップと、
前記位置関係情報に基づく出力を制御するための制御情報を生成する生成ステップと、
を有し、
前記生成ステップでは、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
を有する情報処理方法である。
現実空間の映像と同時にユーザーに視認される仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得部、
前記位置関係情報に基づく出力を制御するための制御情報を生成する生成部、
としてコンピューターを機能させるようにコンピューター可読形式で記述され、
前記生成部は、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
コンピューター・プログラムである。
図1には、AR物体を含む視覚情報を提示するデバイスの一例として、透過(シースルー)型のヘッド・マウント・ディスプレイ100を装着したユーザーを正面から眺めた様子を示している。透過型のヘッド・マウント・ディスプレイ100を装着したユーザーは、表示画像越しに周囲(現実世界)を観察することができる。したがって、ヘッド・マウント・ディスプレイ100は、AR物体などの仮想的な表示画像を現実世界の風景に重ね合わせて見せることができる。
ヘッド・マウント・ディスプレイ100が現実空間に重畳して表示するAR物体は、ヘッド・マウント・ディスプレイ100を着用するユーザーからの奥行き情報を含む位置情報を保持している。そして、図6や図7に示した方法、あるいはそれ以外の方法により、AR物体に操作を行なおうとする現実物体(ユーザーの手など)の位置情報を測定すると、AR物体と現実物体との奥行き情報を比較して、現実物体がAR物体より手前にあるのか、AR物体に触れているのか、AR物体より奥にあるのかを判定して、その判定結果に基づいて視覚的なフィードバックをユーザーに与える。
図8〜図10に示した例では、現実物体とAR物体との距離の視覚的フィードバックに影を用いた。影は、ARに臨場感やリアリティーを与えるとともに、遮蔽物の存在を表現するので、ユーザーの空間把握に大きな助けとなる。しかしながら、影をリアルタイムに生成し描画するのは演算負荷が高く、また、完全な影を描画するのは難しい。AR物体の表面が平坦でなく凹凸のある形状の場合、影の描画はさらに難しくなる。
図8〜図17は、基本的に、AR物体を正面から操作する場合に行なう視覚的フィードバックの例である。AR物体をユーザーからある程度離間して配置する場合や、AR物体が机面などに設置されている場合は、ユーザーは正面からAR物体を操作する必要がある。しかしながら、例えば図9〜図11からも分かるように、AR物体を正面から操作する場合、ユーザーの手でAR物体の表面の少なくとも一部が隠れて見え難くなり、視覚的フィードバックとしての影を落とすとさらにAR物体は見え難くなる。
図8〜図10には、AR物体の手前側にある現実物体の、AR物体からの距離に応じた影をAR物体の表面に描画するという視覚的フィードバックを例示した。このように、視覚的フィードバックをAR物体の表面に描画すると、AR物体の視認性を低下させてしまう可能性がある。そこで、AR物体の表面に視覚的フィードバックを描画する場合には、AR物体の色又は視覚的フィードバックの色をお互いの対照色として描画することで、色を引き立たせ、ユーザーの視認性を保ちながら視覚的フィードバックを行なうようにしてもよい。
図6には、ヘッド・マウント・ディスプレイ100に装備された外側カメラ504を用いて現実物体(ユーザーの手など)の位置を把握する方法を示した。また、図7には、ユーザーが居る部屋の天井や壁に設置された環境カメラ703を用いて現実物体の位置を把握する方法を示した。これらの方法によれば、カメラの撮影範囲であれば、現実物体とAR物体の位置関係を把握することができるので、撮影範囲全体で視覚的フィードバックを行なうことも可能である。
図24には、AR物体へのユーザーの操作に対する視覚的フィードバックを行なうための機能的構成を模式的に示している。上述したように、視覚的フィードバックは、基本的に、AR物体と、AR物体に対して操作指示を行なう現実物体との位置関係(奥行き方向の距離など)を示す位置関係情報に応じて、AR物体の像に視覚的効果を与えることによって実現される。視覚的フィードバックを行なうための演算処理は、ヘッド・マウント・ディスプレイ100などAR物体を表示する表示装置本体内で実行することができるが、ネットワーク上のサーバーなど外部装置で視覚的フィードバックを行なうための演算処理し、表示装置ではその演算結果に従った表示出力のみを行なうようにしてもよい。後者の場合、表示装置は現実物体(ユーザーの手など)の位置情報を測定した結果をサーバーに送信するようにしてもよい。また、視覚的フィードバックを行なうための演算処理は、専用のハードウェア装置としてではなく、コンピューター上で所定の処理を実現するようにコンピューター可読形式で記述されたコンピューター・プログラムによって実現することも可能である。このようなコンピューター・プログラムを有形的なコンピューター可読記憶媒体に記録され、あるいは有線又は無線の通信路を媒介にして配信される。
(1)現実空間の映像と同時にユーザーに視認される仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得部と、
前記位置関係情報に基づく出力を制御するための制御情報を生成する生成部と、
を具備し、
前記生成部は、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
情報処理装置。
(2)前記生成部は、前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1及び前記第2の位置関係のいずれとも異なる第3の位置関係であると判断される場合には、前記第1及び第2の出力のいずれとも異なる第3の出力を行なうための第3の制御情報を生成する、
上記(1)に記載の情報処理装置。
(3)前記生成部は、視覚情報を含む前記第1乃至第3の出力をそれぞれ行なうための前記第1乃至第3の制御情報の各々を生成する、
上記(2)に記載の情報処理装置。
(4)前記生成部は、前記第1乃至第3の出力のうち少なくとも1つの出力において、前記仮想物体の像に視覚的効果を加える出力を行なうための前記第1乃至第3の制御情報を生成する、
上記(3)に記載の情報処理装置。
(5)前記生成部は、前記仮想物体と前記現実物体との距離を示す情報を含む出力を行なうための制御情報を生成する、
上記(1)に記載の情報処理装置。
(6)前記生成部は、前記仮想物体と前記現実物体との、前記ユーザーから見た奥行き方向の距離を示す情報を含む出力を行なうための制御情報を生成する、
上記(1)に記載の情報処理装置。
(7)前記生成部は、前記現実物体が前記仮想物体の手前にあると判断される場合と、前記仮想物体に接触していると判断される場合と、前記仮想物体の背後にあると判断される場合とで、異なる視覚効果を有する出力を行なうための前記制御情報を生成する、
上記(4)に記載の情報処理装置。
(8)前記生成部は、前記現実物体が前記仮想物体の前後所定の距離以内に設定された操作の有効範囲に存在するときには、前記仮想物体に接触していることを示す出力を行なうための制御情報を生成する、
上記(1)又は(2)のいずれかに記載の情報処理装置。
(9)前記生成部は、前記操作の有効範囲内での前記仮想物体の継続的な操作を許容しつつ、前記仮想物体に接触していないことを通知して、前記ユーザーに前記現実物体の位置補正を促すための制御情報を生成する、
上記(8)に記載の情報処理装置。
(10)前記生成部は、前記現実物体が前記仮想物体に対して設定された視覚的効果の有効範囲内に存在する場合にのみ、前記仮想物体の像に視覚的効果を出力するための制御情報を生成する、
上記(1)乃至(8)のいずれかに記載の情報処理装置。
(11) 前記生成部は、前記仮想物体を含む一定の範囲に前記視覚的効果の有効範囲を設定する、
上記(10)に記載の情報処理装置。
(12)前記生成部は、前記現実物体が前記仮想物体の手前にあり又は前記仮想物体と接触している場合に、前記仮想物体上に前記視覚的効果を出力するための制御情報を生成する、
上記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)前記生成部は、前記仮想物体から前記現実物体までの距離に応じた大きさと鮮明度を持つ前記現実物体の影を前記視覚的効果として出力するための制御情報を生成する、
上記(12)に記載の情報処理装置。
(14)前記生成部は、前記仮想物体から前記現実物体までの距離に応じた大きさと鮮明度を持つリング状の光のインジケーターを前記視覚的効果として出力するための制御情報を生成する、
上記(12)に記載の情報処理装置。
(15)前記生成部は、前記現実物体が前記仮想物体と交差しているときには、警告を出力するための制御情報を生成する、
上記(12)に記載の情報処理装置。
(16)前記生成部は、前記現実物体が前記仮想物体の背後に存在する他の現実物体と衝突する危険を示す警告音を出力し、又は、前記他の現実物体の色を変えた視覚的効果からなる警告を出力するための制御情報を生成する、
上記(15)に記載の情報処理装置。
(17)前記生成部は、前記現実物体による遮蔽領域を考慮して前記仮想物体を描画する視覚的効果を出力するための制御情報を生成する、
上記(12)に記載の情報処理装置。
(18)前記生成部は、前記現実物体による遮蔽領域を考慮して前記視覚的効果を出力するための制御情報を生成する、
上記(12)に記載の情報処理装置。
(19)前記生成部は、前記現実物体が前記仮想物体の背後にある場合には、前記仮想物体から前記現実物体までの距離に応じた視覚的効果を出力するための制御情報を生成する、
上記(1)乃至(11)のいずれかに記載の情報処理装置。
(20)前記生成部は、前記仮想物体の対照色で前記視覚的効果を出力するための制御情報を生成する、
上記(1)に記載の情報処理装置。
(21)前記生成部は、前記仮想物体のうち視覚的効果を加える部分を元の色の対照色で描画する前記視覚的効果を出力するための制御情報を生成する、
上記(1)に記載の情報処理装置。
(22)現実空間の映像と同時にユーザーに視認される仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得ステップと、
前記位置関係情報に基づく出力を制御するための制御情報を生成する生成ステップと、
を有し、
前記生成ステップでは、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
を有する情報処理方法。
(23)現実空間の映像と同時にユーザーに視認されるように仮想物体を表示する表示部と、
前記仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得部と、
前記位置関係情報に基づいて、前記仮想物体と前記現実物体との位置関係を示す前記表示部の出力を制御するための制御情報を生成する生成部と、
を具備し、
前記生成部は、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、前記表示部が第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記表示部が前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
を具備する画像表示装置。
(24)前記仮想物体を生成する仮想物体生成部をさらに備える、
上記(23)に記載の画像表示装置。
(25)現実空間の映像と同時にユーザーに視認される仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得ステップと、
前記位置関係情報に基づく出力を制御するための制御情報を生成する生成ステップと、
前記制御情報に基づいて、前記現実物体との位置関係を示すように前記仮想物体を表示する表示ステップと、
を有し、
前記生成ステップでは、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、前記表示ステップで第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記表示ステップで前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
画像表示方法。
(26)現実空間の映像と同時にユーザーに視認される仮想物体と、前記仮想物体に対して操作指示を行なう現実物体との位置関係を示す位置関係情報を取得する取得部、
前記位置関係情報に基づく出力を制御するための制御情報を生成する生成部、
としてコンピューターを機能させるようにコンピューター可読形式で記述され、
前記生成部は、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが第1の位置関係であると判断される場合には、第1の出力を行なうための第1の制御情報を生成し、
前記位置関係情報に基づいて前記仮想物体と前記現実物体とが前記第1の位置関係とは異なる第2の位置関係であると判断される場合には、前記第1の出力とは異なる第2の出力を行なうための第2の制御情報を生成する、
コンピューター・プログラム。
101L、101R…虚像光学部、102…支持体
103L、103R…マイクロフォン
104L、104R…表示パネル
300…ヘッド・マウント・ディスプレイ
303L、303R…マイクロフォン
304L、304R…表示パネル、305…外側カメラ
306…眼幅調整機構
501…制御部、501A・・・ROM、501B…RAM
502…入力操作部、503…リモコン受信部
504…外側カメラ、505…通信部、506…記憶部
507…画像処理部、508…表示駆動部
509…表示部、510…虚像光学部
511…音声処理部、512…音声入出力部
703…環境カメラ
2401…AR情報取得部、2402…現実物体検出部
2403…物体間関係判定部
2404…AR画像レンダリング部、2405…重畳表示部
Claims (9)
- 現実物体の奥行き情報を取得するセンサと、
両眼に対応する光学部の輻輳表示を制御することで、現実空間上に仮想物体の立体視表示を行う透過型ディスプレイと、
前記現実物体の奥行き情報と前記仮想物体の奥行き情報の比較結果に基づいて、前記仮想物体上の第1の視覚的なフィードバックを変化させる演算装置と、を備え、
前記仮想物体は、前記現実物体の奥行き情報と前記仮想物体の奥行き情報に基づいて前記現実物体により直接的に操作可能なAR物体であり、
前記演算装置は、前記透過型ディスプレイのユーザーから見て前記現実物体がAR物体より手前にある場合、前記透過型ディスプレイを制御することで、
前記現実物体の奥行き情報と前記AR物体の奥行き情報に基づいて、前記AR物体の一部又は全部を非表示にし、
前記比較結果及び前記ユーザーの視線方向に基づいて、前記AR物体と前記現実物体とが第1の距離関係であると判断した場合には、前記第1の視覚的なフィードバックを、前記現実物体に対応した位置に第1のサイズで表示し、
前記比較結果及び前記ユーザーの視線方向に基づいて、前記AR物体と前記現実物体とが前記第1の距離関係よりも近い第2の距離関係であると判断した場合には、前記現実物体に対応した位置に、前記第1の視覚的なフィードバックを第1のサイズよりも小さい第2のサイズで表示する、
ヘッドマウントディスプレイ。 - 前記演算装置は、前記現実物体が前記AR物体の前方の所定の距離から後方の所定の距離に設定された操作の有効範囲に存在するときには、前記第1の視覚的フィードバックに代えて前記AR物体に接触していることを示す第2の視覚的フィードバックを表示するように前記透過型ディスプレイを制御する、
請求項1に記載のヘッドマウントディスプレイ。 - 前記演算装置は、
前記透過型ディスプレイから所定の範囲を含まず、且つ前記AR物体の手前の所定の範囲に、前記第1の視覚的フィードバックを行う有効範囲を設定し、
前記現実物体が前記有効範囲にある場合、前記AR物体の一部又は全部を非表示にしつつ前記第1の視覚的フィードバックを行い、
前記現実物体が前記有効範囲にない場合、前記AR物体の一部又は全部を非表示にしつつ前記第1の視覚的フィードバックを行わない、
請求項1又は2のいずれか1つに記載のヘッドマウントディスプレイ。 - 前記演算装置は、前記現実物体の形状に応じた影を前記第1の視覚的フィードバックとして表示するように前記透過型ディスプレイを制御する、
請求項1乃至3のいずれか1つに記載のヘッドマウントディスプレイ。 - 前記演算装置は、前記ユーザーの視線の位置及び方向に対応付けられ、放射状に広がる仮想光源を設定し、前記仮想光源に基づいて、前記視覚的フィードバックを変化させる、
請求項4に記載のヘッドマウントディスプレイ。 - 前記演算装置は、
前記現実物体が、前記ユーザーから見て前記AR物体の背後に存在する他の現実物体と衝突する可能性があるか否かを判定し、
前記現実物体が前記他の現実物体と衝突する可能性があると判定した場合、前記ユーザーが物体を目視で確認できるようにAR物体の透過度を上昇させるように前記透過型ディスプレイを制御する、
請求項1乃至5のいずれか1つに記載のヘッドマウントディスプレイ。 - 前記演算装置は、前記第1の視覚的フィードバックに対応する前記AR物体の表示範囲の色を対照色に変化させるように前記透過型ディスプレイを制御する、
請求項1乃至6のいずれか1つに記載のヘッドマウントディスプレイ。 - 現実物体の奥行き情報を取得するセンサと、両眼に対応する光学部の輻輳表示を制御することで、現実空間上に仮想物体の立体視表示を行う透過型ディスプレイを備えたヘッドマウントディスプレイにおいて、前記現実物体の奥行き情報と前記仮想物体の奥行き情報の比較結果に基づいて、前記仮想物体上の第1の視覚的なフィードバックを変化させるためのヘッドマウントディスプレイの制御方法であって、
前記仮想物体は、前記現実物体の奥行き情報と前記仮想物体の奥行き情報に基づいて前記現実物体により直接的に操作可能なAR物体であり、
前記透過型ディスプレイのユーザーから見て前記現実物体がAR物体より手前にある場合に、
前記現実物体の奥行き情報と前記AR物体の奥行き情報に基づいて、前記AR物体の一部又は全部を非表示にするように前記透過型ディスプレイを制御するステップと、
前記比較結果及び前記ユーザーの視線方向に基づいて、前記AR物体と前記現実物体とが第1の距離関係であると判断した場合には、前記第1の視覚的なフィードバックを、前記現実物体に対応した位置に第1のサイズで表示するように前記透過型ディスプレイを制御するステップと、
前記比較結果及び前記ユーザーの視線方向に基づいて、前記AR物体と前記現実物体とが前記第1の距離関係よりも近い第2の距離関係であると判断した場合には、前記現実物体に対応した位置に、前記第1の視覚的なフィードバックを第1のサイズよりも小さい第2のサイズで表示するように前記透過型ディスプレイを制御するステップと、
を有するヘッドマウントディスプレイの制御方法。 - 現実物体の奥行き情報を取得するセンサと、両眼に対応する光学部の輻輳表示を制御することで、現実空間上に仮想物体の立体視表示を行う透過型ディスプレイを備えたヘッドマウントディスプレイにおいて、前記現実物体の奥行き情報と前記仮想物体の奥行き情報の比較結果に基づいて、前記仮想物体上の第1の視覚的なフィードバックを変化させるための処理をコンピューター上で実行するようにコンピューター可読形式で記述されたコンピューター・プログラムであって、
前記仮想物体は、前記現実物体の奥行き情報と前記仮想物体の奥行き情報に基づいて前記現実物体により直接的に操作可能なAR物体であり、
前記透過型ディスプレイのユーザーから見て前記現実物体がAR物体より手前にある場合に、
前記現実物体の奥行き情報と前記AR物体の奥行き情報に基づいて、前記AR物体の一部又は全部を非表示にし、
前記比較結果及び前記ユーザーの視線方向に基づいて、前記AR物体と前記現実物体とが第1の距離関係であると判断した場合には、前記第1の視覚的なフィードバックを、前記現実物体に対応した位置に第1のサイズで表示し、
前記比較結果及び前記ユーザーの視線方向に基づいて、前記AR物体と前記現実物体とが前記第1の距離関係よりも近い第2の距離関係であると判断した場合には、前記現実物体に対応した位置に、前記第1の視覚的なフィードバックを第1のサイズよりも小さい第2のサイズで表示する、
ように前記透過型ディスプレイを制御するコンピューター・プログラム。
Priority Applications (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015073561A JP6596883B2 (ja) | 2015-03-31 | 2015-03-31 | ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム |
US15/560,111 US10452128B2 (en) | 2015-03-31 | 2016-02-18 | Information processing apparatus and information processing method |
PCT/JP2016/000871 WO2016157690A1 (en) | 2015-03-31 | 2016-02-18 | Information processing apparatus, information processing method, and computer program |
CN201680017768.7A CN107408026B (zh) | 2015-03-31 | 2016-02-18 | 信息处理设备、信息处理方法和计算机程序 |
EP16712095.5A EP3278209A1 (en) | 2015-03-31 | 2016-02-18 | Information processing apparatus, information processing method, and computer program |
US16/566,477 US10948977B2 (en) | 2015-03-31 | 2019-09-10 | Information processing apparatus and information processing method |
US17/168,231 US11449133B2 (en) | 2015-03-31 | 2021-02-05 | Information processing apparatus and information processing method |
US17/893,496 US11868517B2 (en) | 2015-03-31 | 2022-08-23 | Information processing apparatus and information processing method |
US18/530,399 US20240111358A1 (en) | 2015-03-31 | 2023-12-06 | Information processing apparatus and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015073561A JP6596883B2 (ja) | 2015-03-31 | 2015-03-31 | ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016194744A JP2016194744A (ja) | 2016-11-17 |
JP6596883B2 true JP6596883B2 (ja) | 2019-10-30 |
Family
ID=55637415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015073561A Active JP6596883B2 (ja) | 2015-03-31 | 2015-03-31 | ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム |
Country Status (5)
Country | Link |
---|---|
US (5) | US10452128B2 (ja) |
EP (1) | EP3278209A1 (ja) |
JP (1) | JP6596883B2 (ja) |
CN (1) | CN107408026B (ja) |
WO (1) | WO2016157690A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023234460A1 (ko) * | 2022-06-02 | 2023-12-07 | 한국전자기술연구원 | 대상 객체 적응적 심도 가변형 증강현실 장치 및 방법 |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6596883B2 (ja) * | 2015-03-31 | 2019-10-30 | ソニー株式会社 | ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム |
US11010972B2 (en) * | 2015-12-11 | 2021-05-18 | Google Llc | Context sensitive user interface activation in an augmented and/or virtual reality environment |
EP3416034A4 (en) * | 2016-02-08 | 2019-03-13 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM |
JP2018005091A (ja) * | 2016-07-06 | 2018-01-11 | 富士通株式会社 | 表示制御プログラム、表示制御方法および表示制御装置 |
JP6189496B1 (ja) * | 2016-07-20 | 2017-08-30 | 株式会社コロプラ | 仮想空間を提供する方法、仮想体験を提供する方法、プログラム、および記録媒体 |
JP6858007B2 (ja) * | 2016-11-28 | 2021-04-14 | キヤノン株式会社 | 画像処理システム、画像処理方法 |
JP6795471B2 (ja) * | 2017-08-25 | 2020-12-02 | ファナック株式会社 | ロボットシステム |
US20190066385A1 (en) * | 2017-08-31 | 2019-02-28 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium |
WO2019064987A1 (ja) | 2017-09-27 | 2019-04-04 | 富士フイルム株式会社 | 自筆支援装置 |
US10469768B2 (en) * | 2017-10-13 | 2019-11-05 | Fyusion, Inc. | Skeleton-based effects and background replacement |
WO2019087491A1 (ja) | 2017-10-30 | 2019-05-09 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US10726626B2 (en) * | 2017-11-22 | 2020-07-28 | Google Llc | Interaction between a viewer and an object in an augmented reality environment |
EP3731066A4 (en) * | 2017-12-20 | 2021-01-27 | Sony Corporation | DATA PROCESSING DEVICE AND PROCESS, AND ASSOCIATED PROGRAM |
JP6884233B2 (ja) | 2018-01-23 | 2021-06-09 | 富士フイルム株式会社 | 自筆支援装置、自筆支援方法およびプログラム |
US11553009B2 (en) * | 2018-02-07 | 2023-01-10 | Sony Corporation | Information processing device, information processing method, and computer program for switching between communications performed in real space and virtual space |
US10957110B2 (en) * | 2018-04-17 | 2021-03-23 | Edx Technologies, Inc. | Systems, devices, and methods for tracing paths in augmented reality |
JP7135444B2 (ja) * | 2018-05-29 | 2022-09-13 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
CN111127537A (zh) * | 2018-10-29 | 2020-05-08 | 托比股份公司 | 用于检测头戴式装置中的阴影的方法和装置 |
CN113165513A (zh) * | 2018-11-30 | 2021-07-23 | 株式会社小糸制作所 | 平视显示器、车辆用显示系统以及车辆用显示方法 |
JP7478740B2 (ja) * | 2018-12-19 | 2024-05-07 | アニペン カンパニー リミテッド | アニメーションシーケンスを生成する方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 |
SE543332C2 (en) * | 2019-02-19 | 2020-12-01 | Tobii Ab | Method, computer program and head mountable arrangement for assisting a subject to acquire spatial information about an environment |
JPWO2020195292A1 (ja) * | 2019-03-26 | 2020-10-01 | ||
US11520409B2 (en) * | 2019-04-11 | 2022-12-06 | Samsung Electronics Co., Ltd. | Head mounted display device and operating method thereof |
JP2020187623A (ja) * | 2019-05-16 | 2020-11-19 | 株式会社ソニー・インタラクティブエンタテインメント | 姿勢推定システム、姿勢推定装置、誤差補正方法及び誤差補正プログラム |
CN112241199B (zh) * | 2019-07-19 | 2023-03-24 | 华为技术有限公司 | 虚拟现实场景中的交互方法及装置 |
CN112562088A (zh) * | 2019-09-26 | 2021-03-26 | 苹果公司 | 基于用户移动来呈现环境 |
US11550446B2 (en) | 2020-04-06 | 2023-01-10 | Samsung Electronics Co., Ltd. | Systems and methods for viewing webpages in extended reality environments |
WO2021235316A1 (ja) * | 2020-05-21 | 2021-11-25 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
EP4200690A2 (en) * | 2020-09-25 | 2023-06-28 | Apple Inc. | Methods for manipulating objects in an environment |
CN112291434B (zh) * | 2020-10-23 | 2021-07-30 | 北京蓦然认知科技有限公司 | 一种基于ar的智能通话方法、装置 |
CN112286363B (zh) * | 2020-11-19 | 2023-05-16 | 网易(杭州)网络有限公司 | 虚拟主体形态改变方法及装置、存储介质、电子设备 |
US11995230B2 (en) * | 2021-02-11 | 2024-05-28 | Apple Inc. | Methods for presenting and sharing content in an environment |
JP2022129747A (ja) * | 2021-02-25 | 2022-09-06 | キヤノン株式会社 | 電子装置およびその制御方法 |
US12112009B2 (en) | 2021-04-13 | 2024-10-08 | Apple Inc. | Methods for providing an immersive experience in an environment |
CN113395491A (zh) * | 2021-06-11 | 2021-09-14 | 上海海事大学 | 船舶机舱远程监测报警系统 |
WO2023049705A1 (en) | 2021-09-23 | 2023-03-30 | Apple Inc. | Devices, methods, and graphical user interfaces for content applications |
KR20230111088A (ko) | 2022-01-17 | 2023-07-25 | 한국전자통신연구원 | 광학 투과형 디스플레이 장치 및 그에 있어서의 영상 합성 방법 |
JP2023125554A (ja) * | 2022-02-28 | 2023-09-07 | 株式会社Jvcケンウッド | 仮想空間画像表示装置及び仮想空間画像表示方法並びに仮想空間画像表示プログラム |
US12112011B2 (en) | 2022-09-16 | 2024-10-08 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
US12099653B2 (en) | 2022-09-22 | 2024-09-24 | Apple Inc. | User interface response based on gaze-holding event assessment |
US12108012B2 (en) | 2023-02-27 | 2024-10-01 | Apple Inc. | System and method of managing spatial states and display modes in multi-user communication sessions |
US12118200B1 (en) | 2023-06-02 | 2024-10-15 | Apple Inc. | Fuzzy hit testing |
US12113948B1 (en) | 2023-06-04 | 2024-10-08 | Apple Inc. | Systems and methods of managing spatial groups in multi-user communication sessions |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4950834B2 (ja) * | 2007-10-19 | 2012-06-13 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP4701424B2 (ja) * | 2009-08-12 | 2011-06-15 | 島根県 | 画像認識装置および操作判定方法並びにプログラム |
JP4783456B2 (ja) * | 2009-12-22 | 2011-09-28 | 株式会社東芝 | 映像再生装置及び映像再生方法 |
US20120139915A1 (en) * | 2010-06-07 | 2012-06-07 | Masahiro Muikaichi | Object selecting device, computer-readable recording medium, and object selecting method |
US9122053B2 (en) * | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
US20120218395A1 (en) * | 2011-02-25 | 2012-08-30 | Microsoft Corporation | User interface presentation and interactions |
JP5926500B2 (ja) * | 2011-06-07 | 2016-05-25 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US9547438B2 (en) * | 2011-06-21 | 2017-01-17 | Empire Technology Development Llc | Gesture based user interface for augmented reality |
WO2013093906A1 (en) | 2011-09-19 | 2013-06-27 | Eyesight Mobile Technologies Ltd. | Touch free interface for augmented reality systems |
US20130147793A1 (en) * | 2011-12-09 | 2013-06-13 | Seongyeom JEON | Mobile terminal and controlling method thereof |
US9389420B2 (en) | 2012-06-14 | 2016-07-12 | Qualcomm Incorporated | User interface interaction for transparent head-mounted displays |
JP5791082B2 (ja) * | 2012-07-30 | 2015-10-07 | 国立大学法人横浜国立大学 | 画像合成装置、画像合成システム、画像合成方法およびプログラム |
US9202313B2 (en) * | 2013-01-21 | 2015-12-01 | Microsoft Technology Licensing, Llc | Virtual interaction with image projection |
CN103164518A (zh) * | 2013-03-06 | 2013-06-19 | 杭州九树网络科技有限公司 | 移动终端增强现实应用系统及方法 |
JP5790692B2 (ja) * | 2013-03-29 | 2015-10-07 | ソニー株式会社 | 情報処理装置、情報処理方法および記録媒体 |
US20140354602A1 (en) * | 2013-04-12 | 2014-12-04 | Impression.Pi, Inc. | Interactive input system and method |
US9916681B2 (en) * | 2014-11-04 | 2018-03-13 | Atheer, Inc. | Method and apparatus for selectively integrating sensory content |
CN104407701A (zh) * | 2014-11-27 | 2015-03-11 | 曦煌科技(北京)有限公司 | 一种面向个人的集群化虚拟现实交互系统 |
JP6596883B2 (ja) * | 2015-03-31 | 2019-10-30 | ソニー株式会社 | ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム |
-
2015
- 2015-03-31 JP JP2015073561A patent/JP6596883B2/ja active Active
-
2016
- 2016-02-18 EP EP16712095.5A patent/EP3278209A1/en not_active Ceased
- 2016-02-18 WO PCT/JP2016/000871 patent/WO2016157690A1/en active Application Filing
- 2016-02-18 CN CN201680017768.7A patent/CN107408026B/zh active Active
- 2016-02-18 US US15/560,111 patent/US10452128B2/en active Active
-
2019
- 2019-09-10 US US16/566,477 patent/US10948977B2/en active Active
-
2021
- 2021-02-05 US US17/168,231 patent/US11449133B2/en active Active
-
2022
- 2022-08-23 US US17/893,496 patent/US11868517B2/en active Active
-
2023
- 2023-12-06 US US18/530,399 patent/US20240111358A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023234460A1 (ko) * | 2022-06-02 | 2023-12-07 | 한국전자기술연구원 | 대상 객체 적응적 심도 가변형 증강현실 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
JP2016194744A (ja) | 2016-11-17 |
US20220404901A1 (en) | 2022-12-22 |
US20240111358A1 (en) | 2024-04-04 |
EP3278209A1 (en) | 2018-02-07 |
US20180101223A1 (en) | 2018-04-12 |
US11868517B2 (en) | 2024-01-09 |
CN107408026B (zh) | 2021-03-12 |
US20210157398A1 (en) | 2021-05-27 |
CN107408026A (zh) | 2017-11-28 |
US10948977B2 (en) | 2021-03-16 |
US20200004323A1 (en) | 2020-01-02 |
WO2016157690A1 (en) | 2016-10-06 |
US11449133B2 (en) | 2022-09-20 |
US10452128B2 (en) | 2019-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6596883B2 (ja) | ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム | |
CN110413105B (zh) | 虚拟环境内的虚拟对象的有形可视化 | |
KR20210154814A (ko) | 패스 쓰루 이미징을 갖는 헤드 마운트 디스플레이 | |
US20240272708A1 (en) | Application placement based on head position | |
WO2015111283A1 (ja) | 画像表示装置及び画像表示方法 | |
US10857974B2 (en) | Image display device, image display system, image display method and program | |
KR20230106727A (ko) | 시선-기반 사용자 상호작용 | |
JP5996814B1 (ja) | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム | |
CN110968187B (zh) | 由外围设备启用的远程触摸检测 | |
KR102340665B1 (ko) | 프라이버시 스크린 | |
CN112041788B (zh) | 使用眼睛注视来选择文本输入字段 | |
US11195320B2 (en) | Feed-forward collision avoidance for artificial reality environments | |
JP6332652B1 (ja) | 表示制御装置、及びプログラム | |
CN111566596A (zh) | 用于虚拟现实显示器的真实世界门户 | |
JP2016110177A (ja) | 3次元入力装置及び入力システム | |
US11589001B2 (en) | Information processing apparatus, information processing method, and program | |
US10642349B2 (en) | Information processing apparatus | |
JP2019032713A (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN108140357B (zh) | 信息处理装置 | |
WO2018216327A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2023181634A1 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
JP2017211694A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN112578983A (zh) | 手指取向触摸检测 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190618 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190815 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190916 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6596883 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |