JP6605000B2 - 三次元オブジェクト表示のためのアプローチ - Google Patents
三次元オブジェクト表示のためのアプローチ Download PDFInfo
- Publication number
- JP6605000B2 JP6605000B2 JP2017162984A JP2017162984A JP6605000B2 JP 6605000 B2 JP6605000 B2 JP 6605000B2 JP 2017162984 A JP2017162984 A JP 2017162984A JP 2017162984 A JP2017162984 A JP 2017162984A JP 6605000 B2 JP6605000 B2 JP 6605000B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- computing device
- interface
- content
- page
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013459 approach Methods 0.000 title description 38
- 230000008859 change Effects 0.000 claims description 92
- 238000000034 method Methods 0.000 claims description 69
- 238000009877 rendering Methods 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 10
- 230000003213 activating effect Effects 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 5
- 238000003860 storage Methods 0.000 description 30
- 230000033001 locomotion Effects 0.000 description 27
- 230000004044 response Effects 0.000 description 25
- 230000009471 action Effects 0.000 description 21
- 230000008569 process Effects 0.000 description 17
- 210000001508 eye Anatomy 0.000 description 16
- 238000001514 detection method Methods 0.000 description 13
- 210000003128 head Anatomy 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 13
- 230000004913 activation Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 230000015654 memory Effects 0.000 description 9
- 241000406668 Loxodonta cyclotis Species 0.000 description 8
- 230000003993 interaction Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 238000013515 script Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000001934 delay Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/161—Indexing scheme relating to constructional details of the monitor
- G06F2200/1614—Image rotation following screen orientation, e.g. switching from landscape to portrait mode
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Description
1.表示スクリーン、
少なくとも一つのコンピューティング・デバイス・プロセッサ、及び
命令を含むメモリ・デバイスからなるコンピューティング・デバイスであって、
それら命令が少なくとも一つのコンピューティング・デバイス・プロセッサによって実行されると、コンピューティング・デバイスに、
コンピューティング・デバイスの表示スクリーン上にウェブ・ページを表示するようにとのユーザーからのリクエストを受信させる、
ウェブ・ページ上に少なくとも一つのオブジェクトを表示するために使用される情報を含み、少なくとも一つのオブジェクトが、表示スクリーン上に三次元表示モードが起動されたときに少なくとも一つのオブジェクトに適用すべき三次元外観変化を指定するタグに関連付けられているドキュメント・オブジェクト・モデルを生成させる、
少なくとも一つのオブジェクトを含むウェブ・ページの二次元表現を表示させる、
コンピューティング・デバイスのユーザーに対するコンピューティング・デバイスの方位変化を検出させる、
コンピューティング・デバイスの方位変化に応じて三次元表示モードを起動させる、及び
タグで指定された少なくとも一つのオブジェクトに対する三次元外観変化を適用させることが可能になる、コンピューティング・デバイス。
2.タグで指定された三次元外観変化が、サイズ、形状、陰影効果、焦点、着色、位置またはアニメーションにおける少なくとも一つの変化を含む、条項1に記載のコンピューティング・デバイス。
3.ドキュメント・オブジェクト・モデルが、さらに、少なくとも一つのオブジェクトに適用すべき三次元外観変化を指定する一つ以上の属性を含む、条項1に記載のコンピューティング・デバイス。
4.コンテンツ・ページ上に複数のオブジェクトの少なくとも一つのオブジェクトを表示するために、少なくとも一つのオブジェクトが、表示スクリーン上に三次元表示モードが起動されたときに少なくとも一つのオブジェクトに適用すべき三次元外観変化を指定する属性に関連付けられているオブジェクト・モデルを処理すること、
コンピューティング・デバイスの表示素子上にコンテンツ・ページの二次元表現を表示すること、及び
三次元表示モードを起動させることに応じて、属性に少なくとも部分的に基づき、少なくとも一つのオブジェクトへ三次元外観変化を適用することからなる、コンピュータによる実行方法。
5.さらに、コンピューティング・デバイスのユーザーの相対位置に関してコンピューティング・デバイスの方位変化を検出すること、
コンピューティング・デバイスの方位変化に応じて、コンテンツ・ページに対して三次元表示モードを起動させること、及び
コンテンツ・ページが、属性に少なくとも部分的に基づいて三次元表示モードで表示されている間、少なくとも一つのオブジェクトの三次元表現を表示することからなり、
少なくとも一つのオブジェクトの三次元表現が、少なくとも一つの他のオブジェクトに比べ、表示スクリーンの、より表面近くに現れるように表示される、条項4に記載のコンピュータによる実行方法。
6.属性が、コンテンツ・ページの開発者の少なくとも一人によって、または、コンテンツ・ページを描画するように構成されたアプリケーションによって指定される、条項4に記載のコンピュータによる実行方法。
7.属性が、HTMLタグ、階層式スタイルシートまたはJavaScript(登録商標)の少なくとも一つを使用して指定される、条項4に記載のコンピュータによる実行方法。
8.属性が、複数の三次元外観変化を指定するように構成され、各々の属性が、コンピューティング・デバイスの方位に少なくとも部分的に基づいて三次元外観変化を引き起こす、条項4に記載のコンピュータによる実行方法。
9.オブジェクト・モデルが、一つ以上のノードを含むツリー構造に組織化され、また、ノードの少なくとも一つのサブセットが、少なくとも一つの属性に関連付けられている、条項4に記載のコンピュータによる実行方法。
10.属性が、ユーザー・プロファイルまたはページ・プロファイルの一方に少なくとも部分的に基づいており、ユーザー・プロファイルが、ユーザーのウェブ履歴またはユーザー・プレファレンスの少なくとも一方を示す情報を含み、また、ページ・プロファイルが、デフォルト三次元表現を示す情報を含む、条項4に記載のコンピュータによる実行方法。
11.さらに、属性に少なくとも部分的に基づき、一つ以上のレイヤーに積み重なって現れるようにコンテンツ・ページを描画することからなり、複数のオブジェクトの少なくとも第一オブジェクトが、複数のオブジェクトの少なくとも第二オブジェクトの上方の距離に位置するように現れる、条項4に記載のコンピュータによる実行方法。
12.さらに、属性に少なくとも部分的に基づき、三次元形状の少なくとも一側に複数のオブジェクトの少なくとも一つのオブジェクトを描画することからなり、少なくとも一つのオブジェクトが、三次元形状内に現れるように描画される、条項4に記載のコンピュータによる実行方法。
13.さらに、コンピューティング・デバイスの少なくとも一つのセンサを用いて、コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出すること、及び
属性に少なくとも部分的に基づき、少なくとも一つのオブジェクトが、三次元形状の第一側から三次元形状の第二側へ移動するように見えるよう、少なくとも一つのオブジェクトのレンダリングを調整することからなる、条項12に記載のコンピュータによる実行方法。
14.さらに、コンピューティング・デバイスの以降の方位変化を測定すること、
少なくとも一つのオブジェクトの第二側を表示するために、属性に少なくとも部分的に基づき、少なくとも一つのオブジェクトの回転をアニメ化すること、及び
少なくとも一つのオブジェクトの第二側に、少なくとも一つのオブジェクトに関する第二セットのコンテンツを表示することからなる、条項4に記載のコンピュータによる実行方法。
15.さらに、コンピューティング・デバイスのユーザーの凝視方向を測定すること、
ユーザーの凝視方向に少なくとも部分的に基づき、表示素子上に位置を決定すること、及び
属性に少なくとも部分的に基づき、表示素子上に表示された他の一つのオブジェクトに相対的に拡大されて現れるようにオブジェクトの外観をその位置に調整することからなる、条項4に記載のコンピュータによる実行方法。
16.さらに、複数のオブジェクトの一つのオブジェクト・タイプを決定すること、
複数のオブジェクトの一つに関連付けられるアクションを決定すること、
オブジェクト・タイプに少なくとも部分的に基づき、複数のオブジェクトの一つの3D外観を描画すること、及び
複数のオブジェクトの一つの選択を受信したことに応答して、コンピューティング・デバイスに前記アクションを実行させることからなる、条項4に記載のコンピュータによる実行方法。
17.コンテンツ・ページ上に複数のオブジェクトの少なくとも一つのオブジェクトを表示するために、少なくとも一つのオブジェクトが、表示スクリーン上に三次元表示モードが起動されたときに少なくとも一つのオブジェクトに適用すべき三次元外観変化を指定する属性に関連付けられているオブジェクト・モデルを処理すること、
コンピューティング・デバイスの表示素子上にコンテンツ・ページの二次元表現を表示すること、及び
三次元表示モードを起動させることに応じて、属性に少なくとも部分的に基づき、少なくとも一つのオブジェクトへ三次元外観変化を適用することからなる一セットの作動を実行するための、一つ以上のプロセッサによって実行可能な一つ以上のシーケンスの命令を保存する、非一時的なコンピュータ可読記憶メディア。
18.さらに、属性に少なくとも部分的に基づき、一つ以上のレイヤーに積み重なって現れるように複数のオブジェクトを描画する作動を実行するための、一つ以上のプロセッサによって実行される命令を含み、複数のオブジェクトの少なくとも第一オブジェクトが、複数のオブジェクトの少なくとも第二オブジェクトの上方の距離に位置するように現れる、条項17に記載の非一時的なコンピュータ可読記憶メディア。
19.さらに、属性に少なくとも部分的に基づき、三次元形状の少なくとも一側に複数のオブジェクトの少なくとも一つのオブジェクトを描画する作動を実行するための、一つ以上のプロセッサによって実行される命令を含み、少なくとも一つのオブジェクトが、三次元形状内に現れるように描画される、条項17に記載の非一時的なコンピュータ可読記憶メディア。
20.さらに、コンピューティング・デバイスの少なくとも一つのセンサを用いて、コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出する、及び
属性に少なくとも部分的に基づき、ウェブ・ページ・マップの三次元表現を描画する作動を実行するための、一つ以上のプロセッサによって実行される命令を含み、ウェブ・ページ・マップが、コンテンツ・ページの3D表現及び第二コンテンツ・ページの3D表現を含み、コンテンツ・ページの3D表現が、少なくとも一つの三次元ラインを用いて、第二コンテンツ・ページの3D表現へ結合される、条項17に記載の非一時的なコンピュータ可読記憶メディア。
1.表示スクリーン、
少なくとも一つのコンピューティング・デバイス・プロセッサ、及び
命令を含むメモリ・デバイスからなり、それら命令が、少なくとも一つのコンピューティング・デバイス・プロセッサによって実行されると、コンピューティング・デバイスに、
コンピューティング・デバイスの表示スクリーン上に、複数のインターフェイス・エレメントを含む第一ウェブ・ページの三次元表現を表示させる、
第一ウェブ・ページから第二ウェブ・ページへナビゲートするようにとのユーザーからのリクエストを受信させる、及び
リクエストを受信したことに応答して、
表示スクリーン上の第一ウェブ・ページの三次元表示からの複数のインターフェイス・エレメントの少なくとも一つのサブセットの三次元退去をアニメ化させる、及び
第一ウェブ・ページの複数のインターフェイス・エレメントのサブセットに代わる、第二ウェブ・ページの一つ以上のインターフェイス・エレメントの、表示スクリーン上への三次元出現をアニメ化させることが可能になる、コンピューティング・デバイス。
2.命令が実行されると、さらに、コンピューティング・デバイスに、
所定の速度で少なくとも一方向へ表示スクリーンを退去する第一ウェブ・ページのための、複数のインターフェイス・エレメントの少なくとも一つのインターフェイス・エレメントのアニメーションを描画させる、条項1に記載のコンピューティング・デバイス。
3.命令が実行されると、さらに、コンピューティング・デバイスに、
所定の速度で少なくとも一方向へ表示スクリーンを退去する第一ウェブ・ページのための、複数のインターフェイス・エレメントの少なくとも一つのインターフェイス・エレメントのアニメーションを描画する、及び所定の速度で少なくとも一方向に表示スクリーンへ入る第二ウェブ・ページのための、複数のインターフェイス・エレメントの少なくとも一つのインターフェイス・エレメントのアニメーションを描画させる、条項1に記載のコンピューティング・デバイス。
4.第一ウェブ・ページからの複数のインターフェイス・エレメントの少なくとも一つのサブセットの三次元退去と第二ウェブ・ページの一つ以上のインターフェイス・エレメントの三次元出現をアニメ化することが、第二ウェブ・ページを描画する際の遅延を覆い隠すように構成される、条項3に記載のコンピューティング・デバイス。
5.コンピューティング・デバイスの表示スクリーン上に、一つ以上のオブジェクトを含む第一セットのコンテンツを表示すること、
第二セットのコンテンツにアクセスするためのリクエストを受信すること、
リクエストを受信したことに応答して、表示スクリーン上の第一セットのコンテンツの一つ以上のオブジェクトの退去をアニメ化すること、及び
第一セットのコンテンツの代わりに、コンピューティング・デバイスの表示スクリーン上に第二セットのコンテンツを表示することからなる、コンピュータによる実行方法。
6.第二セットのコンテンツを表示することが、さらに、
第一セットのコンテンツの一つ以上のオブジェクトの少なくとも一つのサブセットに代わる、第二セットのコンテンツの一つ以上のオブジェクトの、表示スクリーン上への三次元出現をアニメ化することを含む、条項5に記載のコンピュータによる実行方法。
7.第一セットのコンテンツの一つ以上のオブジェクトの退去をアニメ化することが、さらに、
一つ以上のオブジェクトが第一の位置から第二の位置へ移動するように見えるよう第一セットのコンテンツの一つ以上のオブジェクトの外観を調整することを含み、第一の位置に描画される一つ以上のオブジェクトが、第二の位置に描画される一つ以上のオブジェクトに比べ、表示スクリーンの、より表面近くに現れる、条項5に記載のコンピュータによる実行方法。
8.第一セットのコンテンツの一つ以上のオブジェクトの退去をアニメ化することが、さらに、
一つ以上のオブジェクトの分離をアニメ化することを含み、第一オブジェクトが、第二のオブジェクトから離れて行くように見えるように描画される、条項5に記載のコンピュータによる実行方法。
9.第一オブジェクトが、所定の速度で第二のオブジェクトから離れて行くように表示される、条項8に記載のコンピュータによる実行方法。
10.一つ以上のオブジェクトが、異なる方向へ表示スクリーンを退去するように表示される、条項8に記載のコンピュータによる実行方法。
11.第二セットのコンテンツの一つ以上のオブジェクトの三次元出現をアニメ化することが、さらに、
第一セットのコンテンツの代わりに、第二セットのコンテンツの二次元表現を描画することを含む、条項6に記載のコンピュータによる実行方法。
12.さらに、一つ以上のオブジェクトの少なくとも一つのサブセットの三次元表現を表示することからなり、一つ以上のオブジェクトの少なくとも一つの三次元表現が、一つ以上のオブジェクトの少なくとも一つの他のオブジェクトに比べ、表示スクリーンの、より表面近くに現れるように表示される、条項11に記載のコンピュータによる実行方法。
13.第二セットのコンテンツの一つ以上のオブジェクトの出現をアニメ化することが、さらに、
第二セットのコンテンツの一つ以上のオブジェクトがスティッチされるアニメーションを表示することを含み、少なくとも第一オブジェクトが、少なくとも第二オブジェクトにスティッチされるように見えるよう描画される、条項5に記載のコンピュータによる実行方法。
14.第二セットのコンテンツの一つ以上のオブジェクトが、異なる速度でコンピューティング・デバイスの表示スクリーン上に現れる、条項6に記載のコンピュータによる実行方法。
15.所定の速度で少なくとも一方向へ表示スクリーンを退去する第一セットのコンテンツのための、複数のインターフェイス・エレメントの少なくとも一つのインターフェイス・エレメントのアニメーションを描画すること、及び
所定の速度で少なくとも一方向に表示スクリーンへ入る第二セットのコンテンツのための、複数のインターフェイス・エレメントの少なくとも一つのインターフェイス・エレメントのアニメーションを描画することからなる、条項5に記載のコンピュータによる実行方法。
16.さらに、コンピューティング・デバイスのネットワーク接続速度を測定すること、
ネットワーク接続速度に少なくとも部分的に基づき、コンピューティング・デバイス上へ第二セットのコンテンツをロードするための時間を推定すること、及び
第二セットのコンテンツの出現が、少なくともその推定時間に渡って生じるようにアニメ化することからなり、
第一セットのコンテンツの退去と第二セットのコンテンツの出現をアニメ化することが、第二セットのコンテンツを描画する際の遅延時間を覆い隠すように構成される、条項6に記載のコンピュータによる実行方法。
17.コンピューティング・デバイスの表示素子上に、一つ以上のオブジェクトを含む第一セットのコンテンツを表示すること、
第二セットのコンテンツにアクセスするためのリクエストを受信すること、
リクエストを受信したことに応答して、表示素子上の第一セットのコンテンツの一つ以上のオブジェクトの退去をアニメ化すること、及び
第一セットのコンテンツの代わりに、コンピューティング・デバイスの表示スクリーン上に第二セットのコンテンツを表示することからなる一セットの作動を実行するための、一つ以上のプロセッサによって実行可能な一つ以上のシーケンスの命令を保存する、非一時的なコンピュータ可読記憶メディア。
18.第二セットのコンテンツを表示することが、さらに、第一セットのコンテンツの一つ以上のオブジェクトに代わる、第二セットのコンテンツの一つ以上のオブジェクトの、表示スクリーン上への三次元出現をアニメ化する作動を実行するための、一つ以上のプロセッサによって実行される命令を含み、
第二セットのコンテンツの一つ以上のオブジェクトの三次元出現をアニメ化することが、さらに、
第一セットのコンテンツの代わりに、第二セットのコンテンツの二次元表現を描画すること、及び
一つ以上のオブジェクトの少なくとも一つのサブセットの三次元表現を描画することを含み、
一つ以上のオブジェクトの少なくとも一つの三次元表現が、一つ以上のオブジェクトの少なくとも一つの他のオブジェクトに比べ、表示スクリーンの、より表面近くに現れるように表示される、条項17に記載の非一時的なコンピュータ可読記憶メディア。
19.第一セットのコンテンツの一つ以上のオブジェクトの退去をアニメ化することが、さらに、
一つ以上のオブジェクトが第一の位置から第二の位置へ移動するように見えるよう第一セットのコンテンツの一つ以上のオブジェクトの外観を調整する作動であって、第一の位置に描画される一つ以上のオブジェクトが、第二の位置に描画される一つ以上のオブジェクトに比べ、表示スクリーンの、より表面近くに現れる作動、及び
一つ以上のオブジェクトの分離をアニメ化する作動であって、第一オブジェクトが、第二のオブジェクトから離れて行くように見えるように描画され、第一オブジェクトが、所定の速度で第二のオブジェクトから離れて行くように表示される作動を実行するための、一つ以上のプロセッサによって実行される命令を含む、条項17に記載の非一時的なコンピュータ可読記憶メディア。
20.コンピューティング・デバイスの方位変化が、コンピューティング・デバイスのカメラでキャプチャされた画像の一つに、あるいは少なくとも一つのセンサに、少なくとも部分的に基づいて判定される、条項17に記載の非一時的なコンピュータ可読記憶メディア。
1.表示スクリーン、
少なくとも一つのコンピューティング・デバイス・プロセッサ、
命令を含むメモリ・デバイスからなり、それら命令が、少なくとも一つのコンピューティング・デバイス・プロセッサによって実行されると、コンピューティング・デバイスに、
コンピューティング・デバイスに対するユーザーの相対位置を測定させる、
コンピューティング・デバイスの表示スクリーン上に、複数のインターフェイス・エレメントを含むウェブ・ページの二次元表現を表示させる、
ユーザーの相対位置に対するコンピューティング・デバイスの方位変化を検出させる、
コンピューティング・デバイスの方位変化に応じて、ウェブ・ページのための三次元表示モードを起動させる、及び
ウェブ・ページが三次元表示モードで表示されている間、複数のインターフェイス・エレメントの少なくとも一つのサブセットの三次元表現を表示させることが可能になり、
複数のインターフェイス・エレメントの少なくとも一つの三次元表現が、複数のインターフェイス・エレメントの少なくとも一つの他のインターフェイス・エレメントに比べ、表示スクリーンの、より表面近くに現れるように表示される、コンピューティング・デバイス。
2.命令が実行されると、さらに、コンピューティング・デバイスに、
コンピューティング・デバイスの第二の方位変化を検出させる、及び
少なくとも一つのインターフェイス・エレメントの外観を調整させることが可能となり、
少なくとも一つのインターフェイス・エレメントの外観の調整が、少なくとも一つのインターフェイス・エレメントのサイズ、形状、色、陰影またはぼかしの少なくとも一つを調整することを含む、条項1に記載のコンピューティング・デバイス。
3.コンピューティング・デバイスの方位変化が、コンピューティング・デバイスのカメラでキャプチャされた画像の一つに、あるいは少なくとも一つのセンサに、少なくとも部分的に基づいて判定される、条項1に記載のコンピューティング・デバイス。
4.コンピューティング・デバイスの表示素子上に、複数のオブジェクトを含むコンテンツの二次元表現を表示すること、
アクティブ化イベントを検出すること、及び
アクティブ化イベントを検出したことに応答して、複数のオブジェクトの少なくとも一つのサブセットの三次元表現を表示することからなる、コンピュータによる実行方法。
5.三次元表現を表示することが、さらに、
複数のオブジェクトの少なくとも一つのオブジェクトを、複数のオブジェクトの少なくとも一つの他のオブジェクトに比べ、コンピューティング・デバイスの表示スクリーンの、より表面近くに現れるように描画することを含み、
複数のオブジェクトが、画像、広告、テキスト、少なくとも一つのリンク、またはヘッダの少なくとも一つを含み、
複数のオブジェクトの少なくとも一つのサブセットの3D表現を表示することが、複数のオブジェクトのサブセットの各々を、各々のオブジェクトに関連付けられた重みに少なくとも部分的に基づく高さで描画することを含む、条項4に記載のコンピュータによる実行方法。
6.アクティブ化イベントが、コンピューティング・デバイスの方位または位置の少なくとも一方の変化、タッチ入力、音声入力、あるいはジェスチャー入力を含む、条項4に記載のコンピュータによる実行方法。
7.少なくとも一つのオブジェクトの三次元表現を表示することが、ユーザー・プロファイルまたはページ・プロファイルの一方に少なくとも部分的に基づいており、ユーザー・プロファイルが、ユーザーのウェブ履歴またはユーザー・プレファレンスの少なくとも一方を示す情報を含み、及び、ページ・プロファイルが、デフォルト三次元表現を示す情報を含む、条項4に記載のコンピュータによる実行方法。
8.少なくとも一つのオブジェクトの三次元表現を表示することが、さらに、
複数のオブジェクトが一つ以上のレイヤーに積み重なって現れるように描画することからなり、複数のオブジェクトの少なくとも第一オブジェクトが、複数のオブジェクトの少なくとも第二オブジェクトの上方の距離に位置するように現れる、条項5に記載のコンピュータによる実行方法。
9.三次元表現を表示することが、さらに、
複数のオブジェクトの少なくとも一つのオブジェクトを、三次元形状の少なくとも一側に描画することを含み、少なくとも一つのオブジェクトが、三次元形状内に現れるように描画される、条項4に記載のコンピュータによる実行方法。
10.さらに、コンピューティング・デバイスの少なくとも一つのセンサを用いて、コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出すること、及び
少なくとも一つのオブジェクトが、三次元形状の第一側から三次元形状の第二側へ移動するように見えるよう、少なくとも一つのオブジェクトのレンダリングを調整することからなる、条項9に記載のコンピュータによる実行方法。
11.さらに、コンピューティング・デバイスの少なくとも一つのセンサを用いて、コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出すること、及び
複数のオブジェクトの少なくとも一つのオブジェクトに関連する第一セットのコンテンツを、その少なくとも一つのオブジェクトの第一側に表示することからなる、条項4に記載のコンピュータによる実行方法。
12.さらに、コンピューティング・デバイスの方位または位置における以降の変化を測定すること、
少なくとも一つのオブジェクトの第二側を表示するために、その少なくとも一つのオブジェクトの回転をアニメ化すること、及び
少なくとも一つのオブジェクトの第二側に、少なくとも一つのオブジェクトに関する第二セットのコンテンツを表示することからなる、条項11に記載のコンピュータによる実行方法。
13.さらに、コンピューティング・デバイスのユーザーの相対位置を測定すること、及び
コンテンツ・ページ上に表示される情報の三次元表現を描画することからなり、
情報が、コンテンツ・ページが更新された最終時刻を示す時間、コンテンツ・ページのセキュリティ・レベルを示す表示エレメントまたはユーザーがコンテンツ・ページを最後に訪問した時間の少なくとも一つを含み、
ユーザーの相対位置を測定することが、コンピューティング・デバイスの少なくとも一つのカメラを用いて画像をキャプチャすること、及びユーザーの相対位置を判定するために画像を分析することを含む、条項4に記載のコンピュータによる実行方法。
14.さらに、コンピューティング・デバイスのユーザーの凝視方向を測定すること、
ユーザーの凝視方向に少なくとも部分的に基づき、表示素子上に位置を決定すること、及び
その位置にオブジェクトの外観を、表示素子上に表示された一つの他のオブジェクトに相対的に拡大されて見えるように調整することからなる、条項4に記載のコンピュータによる実行方法。
15.コンテンツが、複数の関連ウェブ・ページの第一ウェブ・ページ上に表示され、前記方法が、さらに、
コンピューティング・デバイスの少なくとも一つのセンサを用いて、コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出すること、及び
ウェブ・ページ・マップの三次元表現を描画することからなり、
ウェブ・ページ・マップが、第一ウェブ・ページの3D表現及び第二ウェブ・ページの3D表現を含み、第一ウェブ・ページの3D表現が、少なくとも一つの三次元ラインを用いて、第二ウェブ・ページの3D表現へ結合される、条項4に記載のコンピュータによる実行方法。
16.第一ウェブ・ページの3D表現が、第二ウェブ・ページの3D表現の上方の距離にあるように見えるよう描画され、少なくとも一つの三次元ラインの重みが、第一ウェブ・ページ及び第二ウェブ・ページ間のネットワーク・トラフィック量に少なくとも部分的に基づいている、条項15に記載のコンピュータによる実行方法。
17.コンピューティング・デバイスの表示素子上に、複数のオブジェクトを含むコンテンツの二次元表現を表示すること、
アクティブ化イベントを検出すること、及び
アクティブ化イベントを検出したことに応答して、複数のオブジェクトの少なくとも一つのサブセットの三次元表現を表示することからなる一セットの作動を実行するための、一つ以上のプロセッサによって実行可能な一つ以上のシーケンスの命令を保存する、非一時的なコンピュータ可読記憶メディア。
18.三次元表現を表示することが、さらに、一つ以上のプロセッサに、
複数のオブジェクトの少なくとも一つのオブジェクトを、複数のオブジェクトの少なくとも一つの他のオブジェクトに比べ、コンピューティング・デバイスの表示スクリーンの、より表面近くに現れるように描画する作動を実行させることを含み、
少なくとも一つのオブジェクトの三次元表現が、ユーザー・プロファイルまたはページ・プロファイルの一方に少なくとも部分的に基づいており、ユーザー・プロファイルが、ユーザーのウェブ履歴またはユーザー・プレファレンスの少なくとも一方を示す情報を含み、及び、ページ・プロファイルが、デフォルト三次元表現を示す情報を含む、条項17に記載の非一時的なコンピュータ可読記憶メディア。
19.さらに、コンピューティング・デバイスの少なくとも一つのセンサを用いて、コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出する作動、及び
積み重なって見えるように複数のオブジェクトのレンダリングを調整する作動を実行するための、一つ以上のプロセッサによって実行される命令からなり、
複数のオブジェクトの少なくとも第一オブジェクトが、複数のオブジェクトの少なくとも第二オブジェクトの上方の距離に位置するように現れる、条項16に記載の非一時的なコンピュータ可読記憶メディア。
20.さらに、複数のオブジェクトの少なくとも一つのオブジェクトを、三次元形状の少なくとも一側に描画する作動であって、少なくとも一つのオブジェクトが、三次元形状内に現れるように描画される作動、
コンピューティング・デバイスの少なくとも一つのセンサを用いて、コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出する作動、及び
少なくとも一つのオブジェクトが、三次元形状の第一側から三次元形状の第二側へ移動するように見えるよう、少なくとも一つのオブジェクトのレンダリングを調整する作動を実行するための、一つ以上のプロセッサによって実行される命令からなる、条項16に記載の非一時的なコンピュータ可読記憶メディア。
Claims (10)
- 表示スクリーン、
少なくとも一つのコンピューティング・デバイス・プロセッサ、及び
命令を含むメモリ・デバイスからなるコンピューティング・デバイスであって、
前記命令が、前記少なくとも一つのコンピューティング・デバイス・プロセッサによって実行されると、前記コンピューティング・デバイスに、
前記コンピューティング・デバイスの向きの変化を決定させ、
少なくとも前記向きの変化が決定されたことに基づき、前記コンピューティング・デバイスの前記表示スクリーン上に、インターフェイス・エレメントの第一セットの第一インターフェイス・エレメントを含む第一ウェブ・ページの三次元表現を表示させる、
前記第一ウェブ・ページからインターフェイス・エレメントの第二セットの第二インターフェイス・エレメントを含む第二ウェブ・ページへナビゲートするようにとのユーザーからのリクエストを受信させる、
ユーザー・プロファイルに関連付けられたユーザーのコンテンツ嗜好に少なくとも部分的に基づいて、前記第一インターフェイス・エレメントに関連する第一関連コンテンツを決定させる、
前記表示スクリーン上の前記第一ウェブ・ページの前記三次元表示からの前記第一インターフェイス・エレメントの三次元退去であって、前記第一関連コンテンツに少なくとも部分的に基づき決定される前記三次元退去をアニメ化させる、
前記ユーザーのコンテンツ嗜好に少なくとも部分的に基づいて、前記第二インターフェイス・エレメントに関連する第二関連コンテンツを決定させる、及び
前記第一ウェブ・ページの前記第一インターフェイス・エレメントに代わる、前記第二ウェブ・ページの前記第二インターフェイス・エレメントの、前記表示スクリーン上への三次元出現であって、前記第二関連コンテンツに少なくとも部分的に基づき決定される前記三次元出現をアニメ化させることが可能となる、前記コンピューティング・デバイス。 - 前記三次元退去は、前記第一インターフェイス・エレメントを複数の三次元セグメントに分離することを含む、請求項1に記載のコンピューティング・デバイス。
- 前記命令が実行されると、さらに、前記コンピューティング・デバイスに、
前記表示スクリーンを所定の速度で少なくとも一方向へ退去する、前記複数の三次元セグメントのうちの少なくとも一つのアニメーションを描画させる、請求項2に記載のコンピューティング・デバイス。 - 前記命令が実行されると、さらに、前記コンピューティング・デバイスに、
前記表示スクリーンを所定の速度で少なくとも一方向へ退去する前記複数の三次元セグメントのうちの少なくとも一つのアニメーションを描画させ、
前記表示スクリーンへ少なくとも一方向に所定の速度で入る前記第二インターフェイス・エレメントの少なくとも一つのセグメントのアニメーションを描画させる、請求項2に記載のコンピューティング・デバイス。
前記第二インターフェイス・エレメントの少なくとも一つのセグメント - 前記第一ウェブ・ページからの前記第一インターフェイス・エレメントの前記三次元退去と前記第二ウェブ・ページの前記第二インターフェイス・エレメントの前記三次元出現をアニメ化することが、前記第二ウェブ・ページを描画する際の遅延時間を覆い隠すように構成される、請求項4に記載のコンピューティング・デバイス。
- 請求項1〜5のいずれか一項に記載のコンピューティング・デバイスを用いたコンピュータによる実行方法であって、
前記コンピューティング・デバイスの表示スクリーン上におけるインターフェイス・エレメントを含むコンテンツ・ページ上に複数のオブジェクトの少なくとも一つのオブジェクトを表示するために、前記少なくとも一つのオブジェクトが、前記少なくとも一つのオブジェクトに適用すべき三次元外観効果を指定する属性に関連付けられているオブジェクト・モデルを処理することと、
ユーザー・プロファイルに関連したプロファイル情報に少なくとも部分的に基づいて前記属性の値を設定することと、
三次元表示モードを起動することと、
前記コンピューティング・デバイスの向きの変化を検出することと、
前記コンピューティング・デバイスのユーザーに対する前記コンピューティング・デバイスの向きを決定することと、
前記向きに少なくとも部分的に基づいて、前記少なくとも一つのオブジェクトへ前記属性によって指定された前記三次元外観効果を適用することとを備える、コンピュータによる実行方法。 - 前記属性が、ページ・プロファイルの一方に少なくとも部分的に基づいており、前記ユーザー・プロファイルが、ユーザーのウェブ履歴またはユーザー・プレファレンスの少なくとも一方を示す情報を含み、及び、前記ページ・プロファイルが、デフォルト三次元表現を示す情報を含む、請求項6に記載のコンピュータによる実行方法。
- 前記複数のオブジェクトの少なくとも第一オブジェクトが、前記複数のオブジェクトの少なくとも第二オブジェクトの上方の距離に位置するように現れる、請求項6に記載のコンピュータによる実行方法。
- 前記属性に少なくとも部分的に基づき、前記複数のオブジェクトの少なくとも一つのオブジェクトを三次元形状の少なくとも一側に描画することをさらに備え、
前記少なくとも一つのオブジェクトが、前記三次元形状内に現れるように描画される、請求項6に記載のコンピュータによる実行方法。 - 前記コンピューティング・デバイスの少なくとも一つのセンサを用いて、前記コンピューティング・デバイスの方位または位置の少なくとも一方における変化を検出することと、
前記属性に少なくとも部分的に基づき、前記少なくとも一つのオブジェクトが、前記三次元形状の第一側から前記三次元形状の第二側へ移動するように見えるよう、前記少なくとも一つのオブジェクトの前記描画を調整することとを備える、請求項9に記載のコンピュータによる実行方法。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/029,747 US20150082145A1 (en) | 2013-09-17 | 2013-09-17 | Approaches for three-dimensional object display |
US14/029,756 US10067634B2 (en) | 2013-09-17 | 2013-09-17 | Approaches for three-dimensional object display |
US14/029,736 US10592064B2 (en) | 2013-09-17 | 2013-09-17 | Approaches for three-dimensional object display used in content navigation |
US14/029,756 | 2013-09-17 | ||
US14/029,747 | 2013-09-17 | ||
US14/029,736 | 2013-09-17 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016542873A Division JP6201058B2 (ja) | 2013-09-17 | 2014-09-16 | 三次元オブジェクト表示のためのアプローチ |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018022503A JP2018022503A (ja) | 2018-02-08 |
JP6605000B2 true JP6605000B2 (ja) | 2019-11-13 |
Family
ID=52689586
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016542873A Active JP6201058B2 (ja) | 2013-09-17 | 2014-09-16 | 三次元オブジェクト表示のためのアプローチ |
JP2017162984A Active JP6605000B2 (ja) | 2013-09-17 | 2017-08-28 | 三次元オブジェクト表示のためのアプローチ |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016542873A Active JP6201058B2 (ja) | 2013-09-17 | 2014-09-16 | 三次元オブジェクト表示のためのアプローチ |
Country Status (5)
Country | Link |
---|---|
EP (2) | EP3047363B1 (ja) |
JP (2) | JP6201058B2 (ja) |
CN (1) | CN105814532A (ja) |
CA (1) | CA2924496A1 (ja) |
WO (1) | WO2015042048A2 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10592064B2 (en) | 2013-09-17 | 2020-03-17 | Amazon Technologies, Inc. | Approaches for three-dimensional object display used in content navigation |
US10067634B2 (en) | 2013-09-17 | 2018-09-04 | Amazon Technologies, Inc. | Approaches for three-dimensional object display |
US10310593B2 (en) | 2015-04-01 | 2019-06-04 | Koninklijke Philips N.V. | Electronic mobile device |
CN106484116B (zh) * | 2016-10-19 | 2019-01-08 | 腾讯科技(深圳)有限公司 | 媒体文件的处理方法和装置 |
JP6415495B2 (ja) * | 2016-08-09 | 2018-10-31 | 株式会社ミスミ | 設計支援装置、設計支援システム、サーバ及び設計支援方法 |
DE102016216577A1 (de) * | 2016-09-01 | 2018-03-01 | Volkswagen Aktiengesellschaft | Verfahren zur Interaktion mit Bildinhalten, die auf einer Anzeigevorrichtung in einem Fahrzeug dargestellt werden |
US10817126B2 (en) * | 2016-09-20 | 2020-10-27 | Apple Inc. | 3D document editing system |
CN106529409B (zh) * | 2016-10-10 | 2019-08-09 | 中山大学 | 一种基于头部姿态的眼睛注视视角测定方法 |
JP6723895B2 (ja) * | 2016-10-25 | 2020-07-15 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法 |
CN106774821B (zh) * | 2016-11-08 | 2020-05-19 | 广州视源电子科技股份有限公司 | 基于虚拟现实技术的显示方法和系统 |
CN106502709B (zh) * | 2016-11-15 | 2019-08-13 | 腾讯科技(深圳)有限公司 | 应用业务提示方法及应用业务提示装置 |
US10083640B2 (en) * | 2016-12-29 | 2018-09-25 | Pure Depth Limited | Multi-layer display including proximity sensor and depth-changing interface elements, and/or associated methods |
EP3435250A1 (en) * | 2017-07-27 | 2019-01-30 | Vestel Elektronik Sanayi ve Ticaret A.S. | Method, apparatus and computer program for overlaying a web page on a 3d object |
JP6584459B2 (ja) * | 2017-07-31 | 2019-10-02 | ヤフー株式会社 | 情報表示プログラム、情報表示装置、情報表示方法および配信装置 |
JP2019053387A (ja) * | 2017-09-13 | 2019-04-04 | パイオニア株式会社 | 操作入力システム、操作入力制御方法、及び操作入力制御プログラム |
WO2019146032A1 (ja) * | 2018-01-25 | 2019-08-01 | 三菱電機株式会社 | ジェスチャー操作装置およびジェスチャー操作方法 |
CN108304590A (zh) * | 2018-03-09 | 2018-07-20 | 百度在线网络技术(北京)有限公司 | 虚拟现实的网页展示方法、装置、设备及计算机可读介质 |
JP6431227B1 (ja) * | 2018-03-20 | 2018-11-28 | ヤフー株式会社 | 情報表示プログラム、情報表示装置、情報表示方法および配信装置 |
JP6901453B2 (ja) * | 2018-03-20 | 2021-07-14 | ヤフー株式会社 | 情報表示プログラム、情報表示装置、情報表示方法および配信装置 |
JP6987723B2 (ja) * | 2018-09-12 | 2022-01-05 | ヤフー株式会社 | 情報表示プログラム、情報表示装置、情報表示方法および配信装置 |
JP7413758B2 (ja) * | 2019-12-19 | 2024-01-16 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
JP7467748B1 (ja) | 2023-09-27 | 2024-04-15 | Kddi株式会社 | 表示制御装置、表示システム及びプログラム |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0749744A (ja) * | 1993-08-04 | 1995-02-21 | Pioneer Electron Corp | 頭部搭載型表示入力装置 |
US5731805A (en) * | 1996-06-25 | 1998-03-24 | Sun Microsystems, Inc. | Method and apparatus for eyetrack-driven text enlargement |
WO1998014882A1 (en) * | 1996-09-30 | 1998-04-09 | Sandcastle, Inc. | Synchronization of interactions between objects distributed over a network in the presence of latency |
US6161112A (en) * | 1998-05-19 | 2000-12-12 | International Business Machines Corporation | Web page presentation control mechanism and method |
JP2003532189A (ja) * | 2000-04-19 | 2003-10-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | グラフィカルユーザインタフェースを適応させるための方法及び装置 |
JP2002133263A (ja) * | 2000-10-23 | 2002-05-10 | Nippon Telegr & Teleph Corp <Ntt> | 広告提示方法およびシステム |
US6668177B2 (en) * | 2001-04-26 | 2003-12-23 | Nokia Corporation | Method and apparatus for displaying prioritized icons in a mobile terminal |
US7932909B2 (en) * | 2004-04-16 | 2011-04-26 | Apple Inc. | User interface for controlling three-dimensional animation of an object |
US9357153B2 (en) * | 2004-06-30 | 2016-05-31 | Koninklijke Philips N.V. | Method and apparatus for intelligent channel zapping |
EP1667471B1 (en) * | 2004-12-02 | 2008-02-06 | Sony Ericsson Mobile Communications AB | Portable communication device with three dimensional display |
US8180672B2 (en) * | 2006-02-16 | 2012-05-15 | Hillcrest Laboratories, Inc. | Systems and methods for placing advertisements |
EP1884863A1 (en) * | 2006-08-02 | 2008-02-06 | Research In Motion Limited | System and method for adjusting presentation of text and images on an electronic device according to an orientation of the device |
US8572501B2 (en) * | 2007-06-08 | 2013-10-29 | Apple Inc. | Rendering graphical objects based on context |
US20100045596A1 (en) * | 2008-08-21 | 2010-02-25 | Sony Ericsson Mobile Communications Ab | Discreet feature highlighting |
EP2164008A3 (en) * | 2008-09-10 | 2010-12-01 | Advanced Digital Broadcast S.A. | System and method for transforming web page objects |
JP4926207B2 (ja) * | 2009-05-21 | 2012-05-09 | ヤフー株式会社 | 三次元表示への遷移を明示する表示切替装置及び方法 |
JP5513071B2 (ja) * | 2009-10-26 | 2014-06-04 | 株式会社プロフィールド | 情報処理装置、情報処理方法、およびプログラム |
GB2497624B8 (en) * | 2010-03-22 | 2015-01-14 | Mobitv Inc | Tile based media content selection |
US8913056B2 (en) * | 2010-08-04 | 2014-12-16 | Apple Inc. | Three dimensional user interface effects on a display by using properties of motion |
CN101930367B (zh) * | 2010-08-25 | 2014-04-30 | 中兴通讯股份有限公司 | 切屏动画实现方法及移动终端 |
KR101340797B1 (ko) * | 2010-09-01 | 2013-12-11 | 주식회사 팬택 | 3d 객체 표시가 가능한 휴대용 장치 및 그 방법 |
US9069577B2 (en) * | 2010-11-23 | 2015-06-30 | Apple Inc. | Grouping and browsing open windows |
JP5742187B2 (ja) * | 2010-11-26 | 2015-07-01 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
GB2490865A (en) * | 2011-05-09 | 2012-11-21 | Nds Ltd | User device with gaze tracing to effect control |
US9880640B2 (en) * | 2011-10-06 | 2018-01-30 | Amazon Technologies, Inc. | Multi-dimensional interface |
US20130093764A1 (en) * | 2011-10-18 | 2013-04-18 | Research In Motion Limited | Method of animating a rearrangement of ui elements on a display screen of an electronic device |
US20130106831A1 (en) * | 2011-10-28 | 2013-05-02 | Cbs Interactive, Inc. | 3-d presentation of information |
-
2014
- 2014-09-16 EP EP14846399.5A patent/EP3047363B1/en active Active
- 2014-09-16 CA CA2924496A patent/CA2924496A1/en not_active Abandoned
- 2014-09-16 EP EP19207290.8A patent/EP3623924A1/en not_active Withdrawn
- 2014-09-16 WO PCT/US2014/055878 patent/WO2015042048A2/en active Application Filing
- 2014-09-16 JP JP2016542873A patent/JP6201058B2/ja active Active
- 2014-09-16 CN CN201480051260.XA patent/CN105814532A/zh active Pending
-
2017
- 2017-08-28 JP JP2017162984A patent/JP6605000B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN105814532A (zh) | 2016-07-27 |
EP3623924A1 (en) | 2020-03-18 |
CA2924496A1 (en) | 2015-03-26 |
WO2015042048A3 (en) | 2015-05-28 |
EP3047363B1 (en) | 2019-11-06 |
JP6201058B2 (ja) | 2017-09-20 |
WO2015042048A2 (en) | 2015-03-26 |
EP3047363A4 (en) | 2017-05-17 |
EP3047363A2 (en) | 2016-07-27 |
JP2018022503A (ja) | 2018-02-08 |
JP2017501500A (ja) | 2017-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6605000B2 (ja) | 三次元オブジェクト表示のためのアプローチ | |
US20180348988A1 (en) | Approaches for three-dimensional object display | |
US10592064B2 (en) | Approaches for three-dimensional object display used in content navigation | |
US9378581B2 (en) | Approaches for highlighting active interface elements | |
US20150082145A1 (en) | Approaches for three-dimensional object display | |
US9880640B2 (en) | Multi-dimensional interface | |
US9591295B2 (en) | Approaches for simulating three-dimensional views | |
US9437038B1 (en) | Simulating three-dimensional views using depth relationships among planes of content | |
US9224237B2 (en) | Simulating three-dimensional views using planes of content | |
US9213436B2 (en) | Fingertip location for gesture input | |
US9389703B1 (en) | Virtual screen bezel | |
US20160252968A1 (en) | Interface elements for managing gesture control | |
US9201585B1 (en) | User interface navigation gestures | |
US10019140B1 (en) | One-handed zoom | |
US9400575B1 (en) | Finger detection for element selection | |
US9665249B1 (en) | Approaches for controlling a computing device based on head movement | |
US9109921B1 (en) | Contextual based navigation element | |
US10585485B1 (en) | Controlling content zoom level based on user head movement | |
US9524036B1 (en) | Motions for displaying additional content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170828 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180625 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180921 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190625 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190702 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190918 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191015 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6605000 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |