JP2018533099A - 三次元ディスプレイを用いたデータ可視化システム及び方法 - Google Patents
三次元ディスプレイを用いたデータ可視化システム及び方法 Download PDFInfo
- Publication number
- JP2018533099A JP2018533099A JP2018502734A JP2018502734A JP2018533099A JP 2018533099 A JP2018533099 A JP 2018533099A JP 2018502734 A JP2018502734 A JP 2018502734A JP 2018502734 A JP2018502734 A JP 2018502734A JP 2018533099 A JP2018533099 A JP 2018533099A
- Authority
- JP
- Japan
- Prior art keywords
- data
- visualization
- data visualization
- objects
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Processing Or Creating Images (AREA)
- Architecture (AREA)
- Image Generation (AREA)
Abstract
多次元データ空間の3D可視化像を生成するためのデータ可視化システム及び方法を記載する。1つの好適例では、3Dデータ可視化アプリケーションが:多次元データ点の集合を可視化テーブル内にロードすること;データ点の集合に対応する3Dオブジェクトの集合の表現を作成すること;データ次元を可視化属性にマップするマッピングを受信すること;データ次元を3Dオブジェクトの属性にマップする選択したマッピングに基づいて、3Dオブジェクトの集合の可視化属性を決定すること;データ次元を可視化属性にマップする選択したマッピングに基づいて、複数の3Dオブジェクトの各々について、各3Dオブジェクトの可視性を反映するように、可視化テーブル内の可視化の次元を更新すること;及び受信したユーザ入力に基づいて、定めた視点から見た3Dオブジェクトの3Dデータ可視化像を仮想空間内にレンダリングすることを、処理システムに指示する。
Description
連邦政府支援の声明
本発明は、全米科学財団によって授与された認可番号第HCC0917814号の下での政府支援によりなされたものである。米国政府は本発明における特定の権利を有する。本明細書に記載する本発明は、NASA(National Aeronautics and Space Administration:米航空宇宙局)の契約第NNN12AA01C号の下での作業の履行によりなされたものであり、契約者が発明の名称を保有するために選択した公法第96−517号(35 USC 202)の条項の支配下にある。
本発明は、全米科学財団によって授与された認可番号第HCC0917814号の下での政府支援によりなされたものである。米国政府は本発明における特定の権利を有する。本明細書に記載する本発明は、NASA(National Aeronautics and Space Administration:米航空宇宙局)の契約第NNN12AA01C号の下での作業の履行によりなされたものであり、契約者が発明の名称を保有するために選択した公法第96−517号(35 USC 202)の条項の支配下にある。
発明の分野
本発明は、一般に可視化に関するものであり、より具体的には、仮想現実感(VR:virtual reality)ディスプレイ、複合現実感(MR:mixed reality)ディスプレイ、及び拡張現実感(AR:augmented reality)ディスプレイを含む(がそれらに限定されない)三次元表示技術を用いた複合、多次元データの可視化に関するものである。
本発明は、一般に可視化に関するものであり、より具体的には、仮想現実感(VR:virtual reality)ディスプレイ、複合現実感(MR:mixed reality)ディスプレイ、及び拡張現実感(AR:augmented reality)ディスプレイを含む(がそれらに限定されない)三次元表示技術を用いた複合、多次元データの可視化に関するものである。
データ可視化は、一般に、データまたは情報を、コンピュータにより表示することができる視覚的オブジェクトに符号化することによって伝達するために利用される技術を参照する。可視化は、あらゆるデータ分析及び/またはデータマイニング(大量データからの知識取り出し)プロセスの不可欠な構成要素である。多数の例では、幾何学的形状のグラフィック(図式的)表現及びデータ分散の技術が、さらなる見識、及び結果の解釈を示す適切な分析ツールの選択を可能にすることができる。「ビッグデータ」の時代には、高次元のデータ集合からすぐに利用可能な知識を抽出することにおける主要な隘路(ボトルネック)は、ユーザが4次元以上のパターンを可視化する能力(がないこと)であることが多い。
コンピュータ・ディスプレイは、一般に情報を二次元(2D:two-dimensions)で表示する。しかし、立体視を含む多数の異なる視覚的効果により深さをシミュレート(模擬)する種々の三次元(3D:three-dimensional)表示技術が出現しつつあり、こうした技術では、異なる視点からレンダリングした画像を左目及び右目に対して別個に表示する。次に、これら2つの画像を脳内で組み合わせて、3Dの深さの知覚を与える。多数のヘッドマウント(頭部装着)型3Dディスプレイ技術が現在利用可能である。Paul Milgram及びFumio Kishinoによる”A Taxonomy of Mixed Reality Visual Displays”と題されIEICE Transactions on Information Systems, Vol. E77-D, No.12,において1994年12月に公表された論文(非特許文献1)(その開示全体を参照することによって本明細書に含める)は、あらゆる特定の表示状況において提示されるオブジェクトのクラスの混合に関係する「仮想連続体」の概念を提案しており、ここでは実環境が連続体の一方の端を構成し、仮想環境が連続体の他方の端を構成する。この論文では、Milgram及びFumio Kishinoは、仮想環境と複合実環境との違いを次のように説明している:
「従来より成り立っている仮想現実感(VR)環境の見解は、参加者−観察者が、完全に合成の世界に完全に没入し、完全に合成の世界と相互作用することができる、というものである。こうした世界は、一部の現実世界の環境の性質を、実在でも架空でも模倣することができる;しかし、こうした世界は、空間、時間、力学、物性、等を通常、支配する物理法則がもはや成り立たない世界を作り出すことによって、物理的実体の限界を超えることもできる。しかし、この見解において見落とされ得るものは、VRのラベルは、完全な没入及び完全な合成に必ずしも関連しないが、仮想連続体に沿ったどこかに収まる他の種々の環境に関連しても頻繁に用いられる、ということである。本論文では、現実世界と仮想世界との融合を含むVR関係技術の特定の部分集合(サブクラス)に焦点を当て、この部分集合を総称的に複合現実感(MR)と称する。」(Milgram Paul and Fumio Kishino, ”A taxonomy of mixed reality visual displays”, IEICE TRANSACTIONS on Information Systems, 77.12 (1994), p.1321)
「従来より成り立っている仮想現実感(VR)環境の見解は、参加者−観察者が、完全に合成の世界に完全に没入し、完全に合成の世界と相互作用することができる、というものである。こうした世界は、一部の現実世界の環境の性質を、実在でも架空でも模倣することができる;しかし、こうした世界は、空間、時間、力学、物性、等を通常、支配する物理法則がもはや成り立たない世界を作り出すことによって、物理的実体の限界を超えることもできる。しかし、この見解において見落とされ得るものは、VRのラベルは、完全な没入及び完全な合成に必ずしも関連しないが、仮想連続体に沿ったどこかに収まる他の種々の環境に関連しても頻繁に用いられる、ということである。本論文では、現実世界と仮想世界との融合を含むVR関係技術の特定の部分集合(サブクラス)に焦点を当て、この部分集合を総称的に複合現実感(MR)と称する。」(Milgram Paul and Fumio Kishino, ”A taxonomy of mixed reality visual displays”, IEICE TRANSACTIONS on Information Systems, 77.12 (1994), p.1321)
複合現実感の領域内で、拡張現実感(AR)と複合現実感(MR)との間にさらなる区別をつけることができる。ARディスプレイ及びMRディスプレイは、共に、透明表示技術を用いて実現することができ、及び/または、シーンの画像を捕捉し、捕捉した画像を用いて現実世界のシーンと仮想的オブジェクトとを組み合わせた表示をレンダリングすることによって実現することができる。ARとは、一般に、状況的に関係する情報を現実世界のシーンに与える仮想的オブジェクトを表示する3D表示技術を記述するために用いられる。ARは、現実世界の物体が、コンピュータで生成された感覚的入力によって拡張または補足された体験を参照すべく用いられることが多い。MRは時として混合現実感と称され、一般に、現実の物体と仮想的オブジェクトとが共存してリアルタイムで相互作用する新たな環境及び可視化像を生成するための、現実世界と仮想世界との融合を含む。
AR、MR、及びVRディスプレイはすべて、部分的にせよ全体的にせよ仮想的な環境にユーザを没入させるという同様な目標を有する。AR及びVRにより、ユーザは、現実世界に触れ続けながら、自分の周りの仮想的オブジェクトと相互作用する。VRによれば、ユーザは現実世界から隔離されつつ、完全に合成である世界に没入する。
Paul Milgram and Fumio Kishino, "A Taxonomy of Mixed Reality Visual Displays", IEICE Transactions on Information Systems, Vol. E77-D, No.12, 1994年12月
人間は優れたパターン認識システムを有し、視覚を通して、他のすべての感覚を組み合わせたものよりも多くの情報を取得することができる。可視化は、抽象的な情報をより容易に理解される視覚的要素にマップ(対応付け)することによって大量のデータを理解する能力を提供する。本発明の種々の実施形態によるシステム及び方法は、観察者がさらに高次元のデータを探索し、データ内の複雑なパターンを観察する能力を増加させる。人間は、周りの世界及びその中のパターンを三次元で見ることについて生物学的に最適化されている。従って、データを3Dディスプレイにより多次元データ(即ち、表示されるデータの次元数が3以上である)の可視化像として提示することは、データ中の意味のある構造(例えば、クラスタ(集団)、相関、外れ値(異常値))の識別を可能にし、こうした構造は、利用可能な知識を含むことができ、より高次元の空間内に存在することが多く、従来の2D表示技術によるデータの可視化によれば容易に観察可能ではない。さらに、没入可能なAR、MR、及びVR環境は、共同作業的なデータの可視化と探索とを必然的にサポートし、仮想空間を共有する同僚と一緒にデータと相互作用する科学者にとって手助けとなる。
データ可視化を説明するに当たり、グラフィック表示装置の次元(例えば、印刷紙面または平面スクリーンは一般に2D装置であるのに対し、VR/ARヘッドセットは一般に3D表示装置である)とデータの次元とを区別しなければならず、データの次元は、各データ項目に関連する特徴/量/パラメータの数とすることができる(例えば、表計算ソフト(スプレッドシート)における行は単一のデータ項目であり、列の数がその次元である)。さらなる例示として、3列のエントリを有するデータ集合は三次元であり、20列を有するデータ集合は20次元である。いずれのデータ集合も3D表示装置上に表現することができる。追加的な区別は、データがレンダリングまたは可視化されるデータ空間の次元である。3次元(3軸)までのこうしたデータ可視化空間は(実)空間的とすることができ;追加的次元は、データ点の色、透明度、形状、及びサイズにより符号化することができる。このようにして、4以上のデータ次元を、3D表示装置により多次元データ空間内に可視化することができる。データ集合がN次元を有する場合、これらのデータのうちk個の部分集合を任意の所定時刻に可視化することができ、ここにk≦Nである。k>3である場合、3次元までをデータ可視化空間内の空間位置(XYZ)として符号化することができ、残りは色、サイズ、及び形状のようなデータ点の特徴により表現することができる。散布図では、各データ項目(データ点)を個別の幾何学的オブジェクト、例えば点、四角形、球、等として何らかの空間座標(XYZ)で表現し、他の可視の特徴(例えば、色、サイズ、等)は追加的なデータ次元を符号化する。挑戦は、人間が容易に理解することができる、同時に可視化されるデータ次元kの数を最大にすることにある。
多数の好適例では、三次元データ可視化システムが、種々の表示状況におけるデータ可視化を提供することができる。特定の好適例では、多次元データを、従来型の2D表示装置(例えば、平面スクリーン)を用いて視認、ナビゲート(進行)、及び操作することができる3D可視化空間用にレンダリングする。多数の好適例では、10以上のデータ次元の最適化されたレンダリングを用いて、多次元データ空間の3Dデータ可視化像を生成する。いくつかの好適例では、三次元データ可視化システムが、3D表示装置(例えば、VR/ARヘッドセット)を用いて多次元データ空間を表示する際に、多次元データ空間の強化された直感的理解を提供することができる。没入型3Dディスプレイを用いた多次元データ空間内への没入は、データ中に存在し得る幾何学的形状及びその関係(クラスタ、相関、外れ値、偏差、ギャップ、等)を人間が理解する能力を、2Dディスプレイの使用を含む従来型のデータ可視化方法に比べて増強することができる。
本発明の1つの好適例は:表示装置、及びコンピュータシステムを含み、このコンピュータシステムは、3Dデータ可視化アプリケーションを含むメモリ及び処理システムを含む。これに加えて、この3D可視化アプリケーションは:メモリ内にある可視化テーブル(表)内にデータ点の集合をロードすることを処理システムに指示し、各データ点は複数データ次元の値を含み、追加的な可視性値が、可視性の次元で、可視化テーブル内の各データ点に割り当てられ;上記データ点の集合に対応する3Dオブジェクトの集合の表現を生成することを処理システムに指示し、各3Dオブジェクトは、当該3Dオブジェクトをレンダリングする方法を定める可視化属性の集合を有し、これらの可視化属性は、3つの空間次元を有する仮想空間内の当該3Dオブジェクトの位置を含み;データ次元を可視化属性にマップするマッピング(対応付け)を受信することを処理システムに指示し;上記3Dオブジェクトの集合の可視化属性を、データ次元を3Dオブジェクトの属性にマップする選択したマッピングに基づいて決定することを処理システムに指示し、データ次元を3Dオブジェクトの属性にマップする選択したマッピングは、仮想空間内の3Dオブジェクトの各々の位置を定め;複数の上記3Dオブジェクトの各々について、可視化テーブル内の可視性の次元を、データ次元を可視化属性にマップする選択したマッピングに基づいて各3Dオブジェクトの可視性を反映するように更新することを処理システムに指示し;3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることを処理システムに指示する。
他の好適例では、上記表示装置が3D表示装置であり、上記3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが、この3D表示装置により表示されるステレオ(立体)画像をレンダリングすることを含む。
他の好適例では、上記3Dデータ可視化アプリケーションを、3Dレンダリング・エンジンを用いて実現する。
さらに他の好適例では、上記3Dデータ可視化アプリケーションの実現が、さらに、上記3Dレンダリング・エンジンにより実行されるスクリプトに頼る。
さらに他の好適例では、上記可視化属性が、X座標、Y座標、Z座標、形状、サイズ、カラーパレット、カラーマップ、カラースケール(色尺度)、透明度、ID(identification:識別情報)、URL(uniform resource location)、マスク、表示可否、3Dオブジェクトの動き、音発生、触覚フィードバック、及び振動触覚フィードバックから成るグループから選択した少なくとも1つの属性を含む。
さらに他の好適例では、データ次元を可視化属性にマップするマッピングを受信することが、データ次元を可視化属性にマップするマッピングのユーザ選択を受信することをさらに含む。
さらに他の好適例では、データ次元を可視化属性にマップするマッピングを受信することが、記憶されている、データ次元を可視化属性にマップするマッピングの集合を検索することをさらに含む。
他の好適例では、3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが:複数の可視の3Dオブジェクトの可視化属性に基づいて、3Dオブジェクトの少なくとも1グループを生成することと;この3Dオブジェクトの少なくとも1グループの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることとを含む。
他の好適例では、3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが:ユーザ入力に応答して、仮想空間内の仮想環境の一部分を形成する3Dオブジェクトを変更して、上記データ点の集合に対応する3Dオブジェクトが、仮想空間内に静止したままであり、仮想空間内の仮想環境の一部分を形成する3Dオブジェクトの変更に起因して、上記3Dデータ可視化像内の仮想環境に対して変化して見えるようにすることと;上記データ点の集合に対応する可視の3Dオブジェクト及び上記仮想環境の一部分を形成する3Dオブジェクトをレンダリングすることとを含む。
さらに追加的な好適例では、ユーザ入力に応答して、仮想空間内の仮想環境の一部分を形成する3Dオブジェクトを変更することが:ユーザの命令に応答して、上記仮想環境の一部分を形成する3Dオブジェクトのサイズを変更することにより、上記データ点の集合に対応する3Dオブジェクトのサイズを変更して、上記データ点の集合に対応する3Dオブジェクトが上記仮想環境に対してサイズを変化させている印象を生成すること;ユーザの命令に応答して、上記仮想環境の一部分を形成する3Dオブジェクトの位置を移動させることにより、上記データ点の集合に対応する3Dオブジェクトを移動させて、上記データ点の集合に対応する3Dオブジェクトが上記仮想環境に対して移動している印象を生成すること;及び、ユーザの命令に応答して、上記仮想環境の一部分を形成する3Dオブジェクトの位置を移動させて、上記データ点の集合に対応する3Dオブジェクトを回転させて、上記データ点の集合に対応する3Dオブジェクトが上記仮想環境に対して回転している印象を生成することとを含むグループから選択した少なくとも1つの変更を含む。
さらに他の好適例では、3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが:上記3Dオブジェクトの少なくとも一部を照明し、照明される3Dオブジェクトの各々は、ユーザの視点において発光する指向性照明光源を用いて照明されることと;少なくとも照明される3Dオブジェクトを、ユーザの視点に基づいてレンダリングすることとを含む。
さらに他の好適例では、上記3Dオブジェクトの少なくとも一部を照明することが:視野を測定することと;上記3Dオブジェクトを、ユーザの視点において発光する指向性照明光源を用いて、ユーザの視野内で照明することと;ユーザの視野内で照明される3Dオブジェクトをレンダリングすることとを含む。
さらに他の好適例では、3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが:上記3Dオブジェクトの少なくとも一部を、ユーザの視点に基づいて回転させて、回転する3Dオブジェクトの外観がユーザの視点に対して不変であるようにすることと;回転する3Dオブジェクトを、ユーザの視点に基づいてレンダリングすることとを含む。
さらに他の好適例では、3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが:仮想空間内の少なくとも1つのインタラクション(相互作用)プリミティブの位置を、ユーザの視点に基づいて決定することと;この少なくとも1つのインタラクション・プリミティブを、ユーザの視点に基づいてレンダリングすることとを含む。
さらに他の追加的な好適例は、少なくとも1つのインタラクション・プリミティブの透明度を、ユーザの視点に基づいて決定することを含む。
さらに他の追加的な好適例では、上記3Dオブジェクトが、深さの知覚を保つ形状を有する3Dオブジェクトを含む。
さらに他の好適例では、上記深さの知覚を保つ形状が、不変である第1寸法、及びマップされたデータ寸法に基づいて変化する可視化属性である第2寸法によって特徴付けられる。
さらに他の好適例では、上記深さの知覚を保つ形状の少なくとも1つが弾丸状である。
他の追加的な好適例では、データ次元を可視化属性にマップするマッピングを受信することが:対象の特徴の選択を受信することと;複数のデータ次元の少なくとも部分集合の、対象の特徴にとっての重要度を特定することと;高い重要度を有するデータ次元を特定の可視化属性にマップするマッピングを生成することとを含む。
他の追加的な好適例では、複数のデータ次元の少なくとも部分集合の、対象の特徴にとっての重要度を特定することが:数値的であるデータ次元及びカテゴリー的であるデータ次元を識別することと;高い重要度を有する数値的であるデータ次元を可視化属性の第1集合にマップするマッピングを生成することと;高い重要度を有するカテゴリー的であるデータ次元を可視化属性の第2集合にマップするマッピングを生成することとをさらに含む。
さらに他の好適例では、可視化属性の第1集合が、X位置、Y位置、Z位置、及びサイズを含む。
さらに他の追加的な好適例では、可視化属性の第2集合が、形状を含む。
さらに他の追加的な好適例では、上記3Dデータ可視化アプリケーションが、さらに:データ次元を可視化属性にマップする少なくとも1つの更新されたマッピングを受信することを上記処理システムに指示し;データ次元を3Dオブジェクトの属性にマップする上記選択したマッピングに基づいて、上記3Dオブジェクトの集合に対する更新された可視化属性を決定することを、上記処理システムに指示し、データ次元を可視化属性にマップする上記更新されたマッピングは、更新された仮想空間内の可視の3Dオブジェクトの各々の位置を定め;可視の3Dオブジェクトの集合について、当該集合内のそれぞれの3Dオブジェクトの、仮想空間内の位置から仮想空間内の更新された位置までの軌跡を生成することを、上記処理システムに指示し;上記仮想空間内の位置から上記仮想空間内の更新された位置までの生成された軌跡に沿った3Dオブジェクトの移動のアニメーションを、受信したユーザ入力に基づいて決まる視点から対話形式でレンダリングすることを、上記処理システムに指示する。
さらに他の好適例では、上記3Dデータ可視化アプリケーションが、さらに、上記複数の3Dオブジェクトの各々について、更新された可視性の値を、上記更新されたマッピングに基づいて各3Dオブジェクトの可視性を反映するように決定することを、上記処理システムに指示する。
さらに他の好適例では、上記生成された軌跡に沿った3Dオブジェクトの移動のアニメーションを対話形式でレンダリングすることが、レンダリングされたアニメーション中で、3Dオブジェクトの異なる集合がその軌跡に沿った移動を開始する時刻を変化させることをさらに含む。
さらに他の追加的な好適例では、レンダリングされたアニメーション中で、3Dオブジェクトの異なる集合がその軌跡に沿った移動を開始する時刻を、ユーザ入力に基づいて決定する。
さらに他の追加的な好適例では、上記生成された軌跡に沿った3Dオブジェクトの移動のアニメーションを対話形式でレンダリングすることが、レンダリングされたアニメーション中で、3Dオブジェクトの異なる集合がその軌跡に沿って移動する速度を変化させることをさらに含む。
さらに他の追加的な好適例では、3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが:少なくとも1つのアフォーダンスの上記仮想空間内の位置を決定することであって、この少なくとも1つのアフォーダンス上への3Dデータ可視化像の移動を指示するユーザ入力が、この3Dデータ可視化像の変更を開始することと;上記少なくとも1つのアフォーダンス上への3Dデータ可視化像の移動を検出することと;上記少なくとも1つのアフォーダンスのうちの1つに基づいて、上記3Dデータ可視化像を変更することと;変更した3Dデータ可視化像を、上記ユーザの視点に基づいてレンダリングすることとを含む。
さらに他の追加的な好適例では、上記少なくとも1つのアフォーダンスのうちの1つに基づいて上記3Dデータ可視化像を変更することが、上記3Dデータ可視化像のサイズを変更することを含む。
さらに他の追加的な好適例では、上記少なくとも1つのアフォーダンスのうちの1つに基づいて上記3Dデータ可視化像を変更することが:上記3D可視化像内で可視化される3Dオブジェクトに対応する上記可視化テーブル内のデータ点の集合にデータ分析プロセスを適用することと;このデータ分析プロセスの少なくとも1つの結果に基づいて、上記3D可視化像内で可視化される上記3Dオブジェクトの可視化属性を変更することと;上記ユーザの視点に基づいて、上記3Dオブジェクトの変更された可視化属性を含む変更された3Dデータ可視化像をレンダリングすることとを含む。
さらに他の追加的な好適例では、上記データ分析プロセスがクラスタリング(集団化)プロセスである。
さらに他の追加的な好適例では、上記少なくとも1つのアフォーダンスのうちの1つに基づいて上記3Dデータ可視化像を変更することが、上記少なくとも1つのアフォーダンスのうちの1つのアフォーダンス上へ移動された上記3D可視化像内で選択した少なくとも1つの3Dオブジェクトによって表現される3Dオブジェクトの集合の新たな3Dデータ可視化像をレンダリングすることを含む。
さらに他の追加的な好適例は:細長いハンドル及び入力ボタンを有する入力装置をさらに含む。これに加えて、上記3Dデータ可視化アプリケーションは、さらに:入力装置から入力されたポーズ(姿勢)入力及びボタン状態を取得することを上記処理システムに指示し;入力されたポーズ入力及びボタン状態に基づいて、上記3Dデータ可視化像を、ユーザ・インタフェースの状況に基づいて決まる方法で変更することを上記処理システムに指示し;そして変更された3Dデータ可視化像を、上記ユーザの視点に基づいてレンダリングすることを上記処理システムに指示する。
さらに他の追加的な好適例は:入力されたポーズ入力及びボタン状態に基づいて、上記3Dデータ可視化像を、ユーザ・インタフェースの状況に基づいて決まる方法で変更することが、入力されたポーズ入力及びボタン状態が、ボタンが押されていないことを示すことに基づいて、上記仮想空間内の上記3Dデータ可視化像の位置を決定することと;入力されたポーズ入力及びボタン状態が、ボタンが押されていることを示すことに基づいて、上記仮想空間内で上記3Dデータ可視化像を回転させることとを含む。
他の好適例では、上記メモリがアバター(化身)メタデータをさらに含み、このアバター・メタデータは、アバターをレンダリングする方法を定める可視化属性の集合を含み、これらの可視化属性は、上記仮想空間内のアバターの位置を含み、3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から仮想空間内に対話形式でレンダリングすることが、この視点及び上記アバター・メタデータに基づいて、上記3Dデータ可視化像内にアバターをレンダリングすることを含む。
他の好適例では、上記アバター・メタデータがポーズ情報をさらに含み、上記視点及び上記アバター・メタデータに基づいて、上記3Dデータ可視化像内にアバターをレンダリングすることが、上記アバター・メタデータ内のポーズ情報に基づいて、上記3Dデータ可視化像内のアバターのポーズをレンダリングすることをさらに含む。
詳細な説明
本発明の多数の実施形態による、多次元データを3Dグラフとして可視化することができるデータ可視化システム(即ち、3Dデータ可視化システム)、及び多次元データ空間の可視化像を生成する方法は、3D表示技術を用いて、効果的な対話型の高次元データの可視化への挑戦のうちの多数に応えることができる。ここで3Dグラフとは、データの集合を総体的に記述する3Dオブジェクトまたは3Dオブジェクトのグループを参照する一般的意味で用いる。3Dグラフを作り上げる3Dオブジェクトと他の3Dオブジェクトとの区別をつけることができ、この区別を多次元データの3D可視化像内で利用して、3Dグラフを含む仮想環境を表現することができる。現在のデータ可視化技術は、平面スクリーン上に表示された環境を、ユーザが外側から見入ることによって知覚することを大いに求める。本発明のいくつかの実施形態によるシステム及び方法は、より複雑なデータ空間の可視化を可能にし、3D表示技術を利用してユーザを可視化像の内部に置くことによって、そしてデータ可視化の動作を一人称(自分自身)の体験にすることによって、人間が追加的次元を解釈する能力を拡張することができる。この取り組みは、固有受容感覚(人々がそれぞれの身体部分どうしの相対位置を感知する方法)及び運動感覚(人々が、自分自身の体の動きを感知する方法)といった人間の感覚を活性化することができ、外部環境内での人体の体験を記述して説明する。
本発明の多数の実施形態による、多次元データを3Dグラフとして可視化することができるデータ可視化システム(即ち、3Dデータ可視化システム)、及び多次元データ空間の可視化像を生成する方法は、3D表示技術を用いて、効果的な対話型の高次元データの可視化への挑戦のうちの多数に応えることができる。ここで3Dグラフとは、データの集合を総体的に記述する3Dオブジェクトまたは3Dオブジェクトのグループを参照する一般的意味で用いる。3Dグラフを作り上げる3Dオブジェクトと他の3Dオブジェクトとの区別をつけることができ、この区別を多次元データの3D可視化像内で利用して、3Dグラフを含む仮想環境を表現することができる。現在のデータ可視化技術は、平面スクリーン上に表示された環境を、ユーザが外側から見入ることによって知覚することを大いに求める。本発明のいくつかの実施形態によるシステム及び方法は、より複雑なデータ空間の可視化を可能にし、3D表示技術を利用してユーザを可視化像の内部に置くことによって、そしてデータ可視化の動作を一人称(自分自身)の体験にすることによって、人間が追加的次元を解釈する能力を拡張することができる。この取り組みは、固有受容感覚(人々がそれぞれの身体部分どうしの相対位置を感知する方法)及び運動感覚(人々が、自分自身の体の動きを感知する方法)といった人間の感覚を活性化することができ、外部環境内での人体の体験を記述して説明する。
高次元のデータを三次元の可視化像で提示することは、複雑であり、サイズ、形状、及び/またはテクスチャといった3Dオブジェクトの特徴の微妙な変化を用いたデータ内の構造の表現を含み得る。移動及び深さの知覚は、これらの視覚的刺激の一部を混同させることがあり、この混同は、3Dオブジェクトを3Dディスプレイ用にレンダリングする方法が、基になる次元とは無関係である変化(例えば、知覚される色及び/またはサイズを変化させ得る陰影)を導入する環境内で複雑になり得る。本発明の多数の実施形態による3Dデータ可視化システムは、ユーザの視野内にある同様な3Dオブジェクト間の類似性を保ち、3Dオブジェクトのサイズ属性の変化に起因するサイズの変化と、3Dオブジェクトまでの距離の差に起因するサイズの変化とをユーザが区別する能力を増強する技術を利用し、こうした技術は形状選択及び照明モデルを含む(がそれに限定されない)。多数の実施形態では、3Dオブジェクトが多次元データ空間の1つの3D可視化像から異なる多次元データ空間の3D可視化像へ移行する際に、特定の3Dデータ点に対応する3Dオブジェクトの属性の変化をユーザが観察することを可能にするアニメーションを利用することによって、ユーザがデータ内の構造を知覚する能力をさらに増強する。
本発明の多数の実施形態による3Dデータ可視化システムの使い勝手は、3Dデータ可視化像による高次元データのレンダリングを自動的に変更するためにユーザが用いることができるアフォーダンスを3Dユーザ・インタフェース内に設けることによって増強することができる。いくつかの実施形態では、ユーザが多次元データ空間の3D可視化像をアフォーダンス上でドラッグするだけで、特定の動作(例えば、3Dデータ可視化像のサイズの変更、あるいはデータ点のk平均法クラスタリング)が実行される。データは3Dデータ可視化像内で明確なオブジェクト(データ点)として可視化されるが、4以上のデータ次元が、個別のデータ点の性質(例えば、色、サイズ、形状、等)によりレンダリングされることを強調しておく。
容易にわかるように、多次元データ空間内のデータを3Dの形で可視化する能力は、複合データの分析の可能性の無数の可能性を広げ、本発明の多数の実施形態による3Dデータ可視化システムは、データ探索を共同作業的な方法で実行することを可能にする。いくつかの実施形態では、多数のユーザが、同じ物理的位置にいてもいなくても、同じ共有の仮想多次元データ空間を独立して探索することができる。特定の実施形態では、単一のユーザが「ブロードキャスト(広域伝達)型の」対話型セッションをリード(先導)することができ、こうしたセッションでは、すべてのユーザが3Dデータ可視化空間を、リードするユーザによって制御される視点から見る。本発明の種々の実施形態による、多次元データの可視化像を用いて複合データを探索するための多次元データ可視化システム及びプロセス(方法)は、以下でさらに説明する。
三次元データ可視化
複合データを扱う際に、二次元マッピングはデータ内に特有の構造を示し損なうことが多い。図1A〜1Eに8つのクラスタの集合を例示し、これらのクラスタは、仮想的立方体の角部(隅部、コーナー)にデータ中心をおいてレイアウトされている。図1A〜1Cに示す単純な2D射影は、データ内のすべての構造を容易に示すことはできない。図1D及び1Eに示すように3つの空間次元内にデータを可視化すると、クラスタパターンがより容易に識別される。本発明の多数の実施形態による3Dデータ可視化システムは、特定の3D可視化をレンダリングする視点次第では容易に明らかになり得ない構造をユーザがより明確に識別することを可能にする動き及び視差により、ユーザが3Dキュー(合図、指示)と直接相互作用する能力をユーザに提供する。別な言い方をすれば、ユーザが3D可視化における視点をリアルタイムで容易にシフトさせる能力は、追加的な見識をデータ内に生み出す異なる視点からユーザにデータ空間を探索させる視覚的キューを示すことができる。構造を視覚的に観察する能力は、人間のユーザが1つ以上の視点からの目視検査により容易に識別することができる「外れ値」の存在により、データ内の構造を識別するように訓練された機械学習アルゴリズム(例えばk平均クラスタリング)が役に立たない環境において、特に有用であり得る。
複合データを扱う際に、二次元マッピングはデータ内に特有の構造を示し損なうことが多い。図1A〜1Eに8つのクラスタの集合を例示し、これらのクラスタは、仮想的立方体の角部(隅部、コーナー)にデータ中心をおいてレイアウトされている。図1A〜1Cに示す単純な2D射影は、データ内のすべての構造を容易に示すことはできない。図1D及び1Eに示すように3つの空間次元内にデータを可視化すると、クラスタパターンがより容易に識別される。本発明の多数の実施形態による3Dデータ可視化システムは、特定の3D可視化をレンダリングする視点次第では容易に明らかになり得ない構造をユーザがより明確に識別することを可能にする動き及び視差により、ユーザが3Dキュー(合図、指示)と直接相互作用する能力をユーザに提供する。別な言い方をすれば、ユーザが3D可視化における視点をリアルタイムで容易にシフトさせる能力は、追加的な見識をデータ内に生み出す異なる視点からユーザにデータ空間を探索させる視覚的キューを示すことができる。構造を視覚的に観察する能力は、人間のユーザが1つ以上の視点からの目視検査により容易に識別することができる「外れ値」の存在により、データ内の構造を識別するように訓練された機械学習アルゴリズム(例えばk平均クラスタリング)が役に立たない環境において、特に有用であり得る。
図2A及び2Bは、(3つの空間次元内に可視化されたデータをデータ空間外から見ることに制約されることとは対照的に)多次元データ空間の3D可視化像内を移動することによってユーザが得ることができる異なる透視図を例示する。ユーザの視点が図2A中に示す視点から関心データ及び図2B中に示す視点に向かって移動する際に、データの特定部分集合内の構造がより詳細に見える。以下でさらに説明するように、本発明の種々の実施形態による3Dデータ可視化システムは、任意数の異なる入力モダリティ(手段)をサポートすることができ、こうした入力様式により、ユーザは、3Dデータ可視化像のズーム、相対位置、及び/または向きを制御する命令を与えることができる。図2A及び2Bに示す3Dデータ可視化像は、データ次元を3Dオブジェクトの特徴にマップすることによってレンダリングされ、これらの特徴は、3Dオブジェクトの可視性(フィルタ処理基準に基づけば、一部のデータ点は示されないことがある)、3Dデータ可視化像内の3Dオブジェクトの位置、レンダリングされた3Dオブジェクトのサイズ、及び/または3Dオブジェクトの色を含む。特定の実施形態では、データ次元のマッピングを用いて3Dオブジェクトの追加的な特徴を定めることによって、より高次元の可視化像をさらに生成することができ、追加的な特徴は、3Dオブジェクトをレンダリングするために用いる形状、3Dオブジェクトのテクスチャ、及び/または3Dオブジェクトの透明度を含む(が、それらに限定されない)。図2Cに、図2Bに示すデータ集合の3D可視化像を例示し、この3D可視化像は、透明度を用いて追加的なデータ次元を表現している。図2Dに、図2Bに示すデータ集合の3D可視化像を例示し、この3D可視化像は、透明度及びテクスチャを共に用いて追加的なデータ次元を表現している。本発明の種々の実施形態による、異なる3D形状の選定による追加的な次元の表現は、形状を保つ深さの知覚の利用を含めて以下に説明する。他の実施形態では、データ次元を没入体験における非視覚的な態様にマップすることができ、これらの非視覚的な態様は、動き、音発生、触覚フィードバック、及び/または振動触覚フィードバックを含む(が、それらに限定されない)。
3Dデータ可視化像を2D紙面上に図示することに特有の限界は、図2A〜2Dに示す3Dデータ可視化像が、基になる3Dデータ可視化像の二次元射影である、ということにある。本発明の多数の実施形態による3Dデータ可視化システムは、相互作用及び運動視差を可能にする対話型の3D可視化を提供し、相互作用及び運動視差は、図2A及び2Dを生成するために利用される方法で3Dデータを投影する際に失われる。従って、本発明の一実施形態による3Dデータ可視化システムによって生成される3Dデータ可視化像における対話型のデータ探索を例示するビデオ・シーケンス(動画像列)は、
http://www.virtualitics.com/patent/Virtualitics1.mp4、及び
http://www.virtualitics.com/patent/Virtualitics2.mp4
より入手可能であり、同じ対話型セッションの3Dビデオ・シーケンスは、
http://www.virtualitics.com/patent/Virtualitics3.mp4
より入手可能である。上記2Dビデオ・シーケンスと3Dビデオ・シーケンスとの比較は、上記3Dデータ可視化システムによって3Dデータ可視化像を生成するために用いられるデータの構造を解釈するに当たっての、運動視差の効果の感覚を提供する。
http://www.virtualitics.com/patent/Virtualitics1.mp4、
http://www.virtualitics.com/patent/Virtualitics2.mp4、及び
http://www.virtualitics.com/patent/Virtualitics3.mp4
に見出される2D及び3Dビデオ・シーケンスは、その全体を参照することによって本明細書に含める。
http://www.virtualitics.com/patent/Virtualitics1.mp4、及び
http://www.virtualitics.com/patent/Virtualitics2.mp4
より入手可能であり、同じ対話型セッションの3Dビデオ・シーケンスは、
http://www.virtualitics.com/patent/Virtualitics3.mp4
より入手可能である。上記2Dビデオ・シーケンスと3Dビデオ・シーケンスとの比較は、上記3Dデータ可視化システムによって3Dデータ可視化像を生成するために用いられるデータの構造を解釈するに当たっての、運動視差の効果の感覚を提供する。
http://www.virtualitics.com/patent/Virtualitics1.mp4、
http://www.virtualitics.com/patent/Virtualitics2.mp4、及び
http://www.virtualitics.com/patent/Virtualitics3.mp4
に見出される2D及び3Dビデオ・シーケンスは、その全体を参照することによって本明細書に含める。
以下に続く説明の大部分は、3Dオブジェクトを仮想空間内にレンダリングすることによって生み出される対話型の多次元可視化像の生成に関係するが、本発明の多数の実施形態によるシステム及び方法を利用して、多次元データの可視化像を、データを表現するための種々の異なる技術を用いて生成することができる。いくつかの実施形態では、3Dデータ可視化像が、3D折れ線プロット(例えば、図3A及び3B参照)及び/または3D表面(例えば、図4A及び4B参照)を含むことができる。図3A及び3Bは、複数の視点からの3Dグラフの可視化像を例示し、ここではデータを一連の3D折れ線プロットとして可視化している。比較として、これらの3D折れ線プロットの二次元射影を図3C〜3Eに示す。図4A及び4Bに、複数の視点からの3Dグラフの可視化像を例示し、ここではデータを表面として可視化している。比較として、これらの3D表面の二次元射影を図4C〜4Eに示す。従って、本発明の異なる実施形態によるシステム及び方法は、特定種類の3Dデータ可視化像に限定されず、種々の3Dデータ可視化像のいずれをも生成するために利用することができる。本発明の種々の実施形態による、ユーザの認知システムが高次元データを解釈して高次元データと相互作用することを可能にする3Dデータ可視化を実行するためのシステム及び方法は、以下でさらに説明する。
3Dデータ可視化システム
本発明の特定実施形態による3Dデータ可視化システムは、単一ユーザまたは複数ユーザによる3Dグラフの探索用に構成することができる。いくつかの実施形態では、3Dデータ可視化システムが、データ次元を3D仮想オブジェクトにマップする3Dレンダリング・エンジンを含み、これらの3D仮想オブジェクトは、この3Dレンダリング・エンジンによって仮想空間内での可視化用にレンダリングされる。マシンビジョン(機械視覚)システム及び/またはセンサシステムを利用して、1人以上のユーザのポーズを追跡することができ、より具体的には、ユーザの頭部位置を追跡することができる。頭部位置を利用して視点を測定することができ、この視点から、仮想空間の3D表示を、仮想空間内のデータと相互作用しているユーザ毎にレンダリングすることができる。複数のユーザが1つの仮想空間内で共同作業している場合、ユーザの頭部位置及び/またはポーズを利用して、各ユーザに提示される3D表示をレンダリングし、個別ユーザのアバターをデータ空間内にレンダリングすることができる。
本発明の特定実施形態による3Dデータ可視化システムは、単一ユーザまたは複数ユーザによる3Dグラフの探索用に構成することができる。いくつかの実施形態では、3Dデータ可視化システムが、データ次元を3D仮想オブジェクトにマップする3Dレンダリング・エンジンを含み、これらの3D仮想オブジェクトは、この3Dレンダリング・エンジンによって仮想空間内での可視化用にレンダリングされる。マシンビジョン(機械視覚)システム及び/またはセンサシステムを利用して、1人以上のユーザのポーズを追跡することができ、より具体的には、ユーザの頭部位置を追跡することができる。頭部位置を利用して視点を測定することができ、この視点から、仮想空間の3D表示を、仮想空間内のデータと相互作用しているユーザ毎にレンダリングすることができる。複数のユーザが1つの仮想空間内で共同作業している場合、ユーザの頭部位置及び/またはポーズを利用して、各ユーザに提示される3D表示をレンダリングし、個別ユーザのアバターをデータ空間内にレンダリングすることができる。
本発明の一実施形態による、異なるユーザの異なる視点からの3Dグラフのレンダリングを、図5A〜5Dに概念的に例示する。本発明の一実施形態による、複数のユーザのアバターを仮想空間内に示す3D可視化像を、図5Eに例示する。図示する3Dデータ可視化像では3Dグラフ500を示し、このグラフでは、データ点が3Dオブジェクト502として可視化され、他のユーザが仮想空間を探索している視点はアバター504、506として示す。以下に説明するように、ユーザが仮想空間内の自分の位置を確認する能力は、グリッド(格子)線508及び軸ラベル510のような直感的なインタラクション・プリミティブを提供することによって増強することができる。多数の実施形態では、共同作業しているユーザが仮想空間を通って独立して移動することができ、あるいは、一組のユーザが、単一ユーザが仮想空間と相互作用することによって制御される仮想空間の同じ可視化を体験することができる。容易にわかるように、3Dデータ可視化システムによってサポートされる特定の共同作業の探索モードは、所定用途の要求に大きく依存する。
本発明の一実施形態による、ユーザ用の3つの空間次元内に多次元データの可視化像を生成するために利用することができる、及び/または、複数のユーザの共同作業によるこうした3D空間内での多次元データ探索を促進するために利用することができる多次元データ可視化システムを、図6Aに例示する。3Dデータ可視化システム600は3Dデータ可視化コンピュータシステム602を含み、3Dデータ可視化コンピュータシステム602は3Dディスプレイ604と通信するように構成され、図示する実施形態では、3Dディスプレイ604はヘッドマウント・ディスプレイである。
3Dデータ可視化コンピュータシステム602はカメラシステム606に接続することもでき、カメラシステム606を利用してユーザの画像データを捕捉することができ、このデータからユーザのポーズ及び/または頭部位置を測定することができる。このカメラシステムは、ジェスチャー系の入力を検出するための入力モダリティとして用いることもできる。追加的な、及び/または代案の入力モダリティを用意することができ、こうした入力モダリティは、ユーザ入力装置、及び音声入力を検出するためのマイクロホンを含む(が、それらに限定されない)。カメラシステムは、画像データを捕捉することができる種々の異なるカメラシステムのいずれをも含むことができ、こうしたカメラシステムからユーザのポーズを測定することができ、こうしたカメラシステムは、従来型カメラ、飛行時間型カメラ、構造化照明型カメラ、及び/またはマルチビュー(多画像)ステレオカメラを含む(が、それらに限定されない)。ポーズとは、多次元空間内のユーザの位置及び向きの両方のあらゆる表現を記述するために利用することができる。ポーズの単純な表現は頭部位置及び見る方向である。より複雑なポーズ表現は、交連骨格の関節位置を用いてユーザの体位を記述することができる。容易にわかるように、所定の3Dデータ可視化システム600内で利用されるポーズ及び/またはカメラシステムの具体的記述は、特定用途の要求に大きく依存する。
多数の実施形態では、3Dデータ可視化コンピュータシステム602、3Dディスプレイ604、及びカメラシステム606が統合装置である。例えば、3Dデータ可視化コンピュータシステム602、3Dディスプレイ604、及びカメラシステム606は、(それに限定されないが)ワシントン州レッドモンドのマイクロソフト社によって市販されているHoloLens(登録商標)のようなヘッドマウント・ディスプレイ内に実現することができる。他の実施形態では、3Dデータ可視化コンピュータシステム602と3Dディスプレイ604とが無線接続経由で、カリフォルニア州メンロパークのOculus VR, LLCによって市販されているOculus Rift(登録商標)3Dディスプレイが利用しているのと同様の方法で通信することができる。容易にわかるように、3Dデータ可視化像は、MRヘッドセット(例えばHoloLens(登録商標))を用いた複合現実感の状況で表示される、及び/またはVR用3Dディスプレイ(例えばOculus(登録商標))を用いた完全没入型の環境内で表示される仮想オブジェクトの集合として構成することができる。
特定の実施形態では、3Dデータ可視化コンピュータシステムが分散処理を利用することができる。多数の実施形態では、3Dデータ可視化像をレンダリングすることに関連する少なくとも一部の処理を、ヘッドマウント・ディスプレイ内のプロセッサによって実行することができる。いくつかの実施形態では、ヘッドマウント・ディスプレイと通信するローカル・コンピュータシステムによって追加的な処理を実行する。多数の実施形態では、インターネット経由で(可能性としてローカル・コンピュータシステム経由で)ヘッドマウント・ディスプレイと通信するリモート・コンピュータシステム(例えば、クラウド・コンピュータクラスタ内のコンピュータ・リソース)によって処理を実行する。従って、本発明の種々の実施形態による3Dデータ可視化コンピュータシステムは、単一のコンピュータ装置に限定されず、単一のコンピュータ装置、及び/またはヘッドマウント・ディスプレイ内のコンピュータシステム、ローカル・コンピュータシステム、及び/またはリモート・コンピュータシステムの組合せを包含することができる。容易にわかるように、所定の3Dデータ可視化システム内で使用される3Dデータ可視化コンピュータシステムの具体的実現は、特定用途の要求に大きく依存する。
本発明の一実施形態による、複数のユーザが多次元データ空間の3D可視化像内を同時に探索することができる多次元データ可視化システムを図6Bに例示する。3Dデータ可視化システム650は、ネットワーク656越しにサーバー・コンピュータシステム656を介して通信する2つのローカル・コンピュータシステム652を含む。ローカル・コンピュータシステム652の各々は、3Dディスプレイ658及びカメラシステム660に、図6Aを参照して上述したのと同様の方法で接続されている。
図示する実施形態では、ローカル・コンピュータシステム652の各々が、多次元データ空間の3Dモデルを構築して、ユーザのポーズの変化に応答してビデオ・シーケンス(2Dにも3Dにもすることができる)をレンダリングする。多数の実施形態では、ローカル・コンピュータシステム652が、ユーザによる独立したデータ探索を可能にするように構成され、ポーズ情報は、サーバー・コンピュータシステム654を介してローカル・コンピュータ652どうしの間で共有することができる。次に、ポーズ情報を利用して、特定のユーザが仮想空間を見ている位置を示すアバターを、仮想空間内にレンダリングすることができる。多数の実施形態では、ローカル・コンピュータシステム652がブロードキャスト(広域伝達)モードをサポートし、ブロードキャスト・モードでは、1人のユーザが仮想空間を通って進行(ナビゲート)し、進行中のユーザのポーズは、サーバー・コンピュータシステム654を介して、仮想空間内の他のユーザのローカル・コンピュータシステム652に伝達される。進行中のユーザからのポーズ情報を受信したローカル・コンピュータシステム652は、このポーズ情報を用いて、進行中のユーザの視点からの多次元データの可視化像を、他のユーザの3Dディスプレイによる表示用にレンダリングすることができる。
多数の実施形態では、3Dビデオ・シーケンスをレンダリングして、この3Dビデオ・シーケンスを他のユーザのローカル・コンピュータシステム652へストリーム送信することによって、ブロードキャスト・モードがサポートされる。いくつかの実施形態では、サーバー・コンピュータシステム654が、ローカル・コンピュータシステム652から受信したポーズ情報に基づいて、3Dデータ可視化像をユーザ毎に生成して、3Dビデオ・シーケンスをネットワーク656上で、3Dディスプレイによる表示用にローカルコンピュータへストリーム送信するのに十分な計算能力(例えば、グラフィックス・プロセッシング・ユニット(図形処理装置))を含む。
多次元データの3D可視化用のコンピュータシステム
多次元データの3D可視化像を生成することができるコンピュータシステムは種々の形態をとることができ、すべての計算を単一のコンピュータ装置によって実行する実現から、ヘッドマウント・ディスプレイ、ローカル・コンピュータシステム、及び/またはクラウドベースのサーバーシステムにわたって処理を分散させる複合システムまでを含む。異なる処理の具体的な分散は、ユーザの数及び所定用途の要求に大きく依存する。
多次元データの3D可視化像を生成することができるコンピュータシステムは種々の形態をとることができ、すべての計算を単一のコンピュータ装置によって実行する実現から、ヘッドマウント・ディスプレイ、ローカル・コンピュータシステム、及び/またはクラウドベースのサーバーシステムにわたって処理を分散させる複合システムまでを含む。異なる処理の具体的な分散は、ユーザの数及び所定用途の要求に大きく依存する。
本発明の一実施形態による、単一のコンピュータ装置上に実現される多次元データ可視化コンピュータシステムを、図7に示す。多次元データ可視化コンピュータシステム700は、パーソナル・コンピュータ、ラップトップ・コンピュータ、ヘッドマウント・ディスプレイ装置、及び/または3D表示を十分なフレームレートでレンダリングして特定用途の対話型の3Dデータ可視化の要求を満足するのに十分な処理能力を有する他のあらゆるコンピュータ装置とすることができる。
3Dデータ可視化コンピュータシステム700はプロセッサ702を含む。プロセッサ702とは、3Dデータ可視化コンピュータシステムのメモリ704内に記憶された機械可読の命令により計算を実行するように構成することができる、コンピュータ装置内の1つ以上の装置を参照すべく用いる。プロセッサ702は、1つ以上のマイクロプロセッサ(CPU:central processing unit)、1つ以上のグラフィックス・プロセッシング・ユニット(GPU:graphics processing unit)、及び1つ以上のデジタル・シグナル・プロセッサ(DSP:digital signal processor)を含むことができる。これに加えて、プロセッサ702は、3Dデータ可視化コンピュータシステムを加速させるように開発された種々の特定用途向け回路のいずれをも含むことができる。
図示する実施形態では、3Dデータ可視化コンピュータシステム700が、リモート・コンピュータシステム(例えば、他のユーザのコンピュータシステム、及び/またはリモートサーバー・コンピュータシステム)と通信するためのネットワーク・インタフェース706、及び3Dディスプレイ及び/またはカメラシステムを含む(がそれらに限定されない)種々の装置と通信するために利用することができる入力/出力(I/O:input/output)インタフェースを含む。多次元データの3D可視化像を生成するために使用されるコンピュータシステムに要求される具体的な通信及びI/O能力は、一般に所定用途の要求に基づいて決まる。
容易にわかるように、種々のソフトウェア・アプリケーションを利用して、本発明の実施形態による多次元データ可視化コンピュータシステムを実現することができる。図示する実施形態では、3Dデータ可視化像が、オペレーティングシステム712によって生成される計算環境内で実行される3Dデータ可視化アプリケーション710によって生成される。3Dデータ可視化アプリケーション710は、3Dレンダリング・エンジン714を利用して、3Dディスプレイにより表示することができる3Dデータ可視化像を生成する。多数の実施形態では、3Dデータ可視化アプリケーション710が、多次元データ集合716をメモリ内データ構造718内にロードし、メモリ内データ構造718は3Dデータ可視化コンピュータシステムの低レイテンシ(待ち時間)メモリ内に記憶されている。多次元データ集合716は、ファイル及び/またはデータベース内にローカルに記憶することができる。いくつかの実施形態では、多次元データがリモートで(例えば分散型データベース内に)記憶され、多次元データの一部または全部を、3Dデータ可視化アプリケーション710によって維持されるメモリ内データ構造718内にロードする。多数の実施形態では、多次元データを少なくとも1つの可視化テーブル内にロードする。以下に説明するように、3Dデータ可視化アプリケーション710が多次元データを少なくとも1つの可視化テーブル内にロードする際に、追加的なデータ次元を多次元データに追加することができる。いくつかの実施形態では、可視化テーブルが可視性の次元を含み、3Dデータ可視化アプリケーションが、可視化テーブル内に含まれる多次元データ集合内の個別項目の可視性の値を、当該項目に対応する3Dオブジェクトが可視化テーブル内に含まれる多次元データが現在の3D可視化像内で可視であるか否かを反映するように変更する。容易にわかるように、所定用途の要求に適合していれば、種々の追加的次元のいずれをも、3Dデータ可視化アプリケーションによって多次元データに追加することができる。
以下でさらに説明するように、ユーザは、データ次元を3Dデータ可視化像内の3Dオブジェクトの属性にマップするマッピングを選択し、これにより多次元データの可視化像を効果的に生成することができる。これらのマッピングはデータ次元マッピング720として記憶される。3Dデータ可視化アプリケーション710は、データ次元マッピング720を用いて、3Dオブジェクトの属性を3Dレンダリング・エンジン714に提供することができる。多数の実施形態では、3Dレンダリング・エンジン714が、メモリに記憶された3Dモデル722内の3Dオブジェクトのインスタンスを作成し、3Dオブジェクトの属性を更新することができる。いくつかの実施形態では、3Dレンダリング・エンジンが、メモリ内データ構造718内にロードされたデータ点の数に基づいて、3Dオブジェクトのインスタンスを3Dモデル722内に作成することができる。このようにして、3Dレンダリング・エンジン714は、ユーザによる可視化用のデータ次元の選択に応答して、3Dデータ可視化像を容易に生成することができる、というのは、3Dオブジェクトのインスタンスが作成され、3Dレンダリング・エンジン714は、可視化像を生成するために、3Dモデル722内の3Dオブジェクトの属性を変更するだけでよいからである。他の実施形態では、ユーザによる3Dオブジェクトの属性の定義に応答して、3Dオブジェクトのインスタンスを作成する。
3Dレンダリング・エンジン714は、3Dモデル722を利用して、3Dディスプレイにより提示することができるステレオ画像をレンダリングすることができる。多数の実施形態では、3Dデータ可視化アプリケーションが、ディスプレイ・ドライバ724を用いて、レンダリングの視点726を3Dディスプレイにより表示する。特定のレンダリングの視点は、(例えばブロードキャスト中モードでは)リモート・コンピュータシステムから受信したポーズデータ728によって、あるいは3Dデータ可視化コンピュータシステムが画像及び/または他のセンサデータから決定したポーズデータ728に基づいて、決めることができる。
図示する実施形態では、3D可視化アプリケーション710が、ポーズデータ728をマシンビジョン・アプリケーション730から受信し、マシンビジョン・アプリケーション730は、画像データをカメラシステムから1つ以上のカメラドライバ732を用いて取得する。マシンビジョン・アプリケーション720は、捕捉した画像データからユーザの頭部の位置及び向きを含む(がそれに限定されない)ユーザのポーズを抽出するように、プロセッサ702を構成する。上述したように、ユーザのポーズを利用して、3Dモデル722からの画像をレンダリングする視点726を決めることができる。多数の実施形態では、ユーザのポーズを利用して3Dモデルの要素も制御し、これらの要素は、3Dオブジェクトの照明、仮想空間を通る移動速度、及び/またはインタラクション・プリミティブの可視性を含む(が、それらに限定されない)。本発明の種々の実施形態による、ユーザのポーズを利用して多次元データの3D可視化のレンダリングを変更することができる具体的方法は、以下でさらに説明する。
複数のユーザが同じ仮想空間を同時に可視化中である多次元データの3D可視化像を、多次元データ可視化コンピュータシステム700が生成している際には、3Dレンダリング・エンジン714は、アバター毎のポーズ情報を含むアバター・メタデータ734、及び(随意的に)アバターの識別情報を用いて、ユーザの視野内に位置するアバターが、3Dレンダリング・エンジンによるレンダリングの視点726において可視であるような方法で、これらのアバターを3Dモデル722内に含めるることもできる。
多数の実施形態では、3Dレンダリング・エンジン714が3Dグラフィック・エンジンまたは3Dゲーム・エンジンの一部を形成し、この3Dグラフィック・エンジンまたは3Dゲーム・エンジンは、(それに限定されないが)スクリプト言語のようなメカニズムを用いて3Dデータ可視化アプリケーション710を当該3Dグラフィック・エンジン内に実装することを可能にする。他の実施形態では、3Dレンダリング・エンジンが3Dデータ可視化アプリケーションの一部を形成する。容易にわかるように、上記の3Dデータ可視化アプリケーション、3Dレンダリング・エンジン、及び/またはマシンビジョン・アプリケーションは、独立して、単一のアプリケーションとして、あるいは、(それに限定されないが)ウェブ・ブラウザ・アプリケーションのような他のアプリケーション内に、または他のアプリケーション用のプラグインとして実現することができる。3Dデータ可視化アプリケーションを実現することができる具体的方法は、所定のコンピュータシステム及び/または使用事例の要求に大きく依存する。
特定の多次元データ可視化システム及び3Dデータ可視化コンピュータシステムを、図6A〜図7に関して上述しているが、種々のコンピュータ・プラットフォーム(基盤)、3Dディスプレイ、及び/またはカメラシステムのいずれをもを利用して、本発明の種々の実施形態による3Dデータ可視化像内の対話型の探索を可能にするプロセスを実現することができる。本発明の多数の実施形態による3Dデータの対話型の探索は、以下でさらに説明する。
3Dデータ可視化像を生成する
本発明の多数の実施形態による、3Dデータ可視化像を生成するためのプロセスは、データをメモリ内データ構造内へロードすること、及び次に、データ次元を3Dオブジェクトの属性にマップして、3Dディスプレイによる3Dデータ可視化像のレンダリングを可能にすることを含む。本発明の一実施形態による、多次元データの可視化像を生成するためのプロセスを、図8Aに例示する。プロセス800は、データ点を、(それに限定されないが)可視化テーブルのようなメモリ内データ構造内にロードするステップ(802)を含む。図示する実施形態では、データ点の各々に対して、3Dオブジェクトのインスタンスを作成する(ステップ804)。上述したように、データ次元を3Dオブジェクトの属性にマップするマッピングを受信する前に3Dオブジェクトのインスタンスを作成することは、3Dデータ可視化像をレンダリングすることができるためのレイテンシを減少させることができる。他の実施形態では、3Dオブジェクトの属性を決定するデータ・マッピングが規定されるまで、3Dオブジェクトのインスタンスを作成しない。容易にわかるように、3D表示のレンダリングに対する、3Dオブジェクトのインスタンス作成のタイミングは、所定用途の要求に大きく依存する。いくつかの実施形態では、データ点をメモリ内データ構造内にロードするプロセスが、3Dデータ可視化像内における特定データ点の可視性を記述する追加的なデータ次元を生成することを含む。個別のデータ点に対する可視性のデータ次元をプロセス800によって更新して、所定のデータ点が3Dデータ可視化像の一部であるべきでないことを示すことができる。この関係では、可視性は、ユーザの視野内にあることとは区別される概念であり、その代わりに、プロセス800による当該データ点を3Dグラフ内にレンダリングしないことの決定を参照する。あるデータ点を除外する理由は、当該データ点が、ある3Dオブジェクトの属性にマップされるデータ次元のうちの1つに関して、値を有さないか無効な値を有することを含むことができる(が、それに限定されない)。容易にわかるように、所定用途の要求に適合していれば、種々の理由のいずれをも利用して、特定のデータ点を3D可視化像内に含めるべきでないものと判定することができる。データ取得中に追加される可視性のデータ次元は、個別のデータ点を可視化しないことの決定を反映するためのメカニズムを提供する。
本発明の多数の実施形態による、3Dデータ可視化像を生成するためのプロセスは、データをメモリ内データ構造内へロードすること、及び次に、データ次元を3Dオブジェクトの属性にマップして、3Dディスプレイによる3Dデータ可視化像のレンダリングを可能にすることを含む。本発明の一実施形態による、多次元データの可視化像を生成するためのプロセスを、図8Aに例示する。プロセス800は、データ点を、(それに限定されないが)可視化テーブルのようなメモリ内データ構造内にロードするステップ(802)を含む。図示する実施形態では、データ点の各々に対して、3Dオブジェクトのインスタンスを作成する(ステップ804)。上述したように、データ次元を3Dオブジェクトの属性にマップするマッピングを受信する前に3Dオブジェクトのインスタンスを作成することは、3Dデータ可視化像をレンダリングすることができるためのレイテンシを減少させることができる。他の実施形態では、3Dオブジェクトの属性を決定するデータ・マッピングが規定されるまで、3Dオブジェクトのインスタンスを作成しない。容易にわかるように、3D表示のレンダリングに対する、3Dオブジェクトのインスタンス作成のタイミングは、所定用途の要求に大きく依存する。いくつかの実施形態では、データ点をメモリ内データ構造内にロードするプロセスが、3Dデータ可視化像内における特定データ点の可視性を記述する追加的なデータ次元を生成することを含む。個別のデータ点に対する可視性のデータ次元をプロセス800によって更新して、所定のデータ点が3Dデータ可視化像の一部であるべきでないことを示すことができる。この関係では、可視性は、ユーザの視野内にあることとは区別される概念であり、その代わりに、プロセス800による当該データ点を3Dグラフ内にレンダリングしないことの決定を参照する。あるデータ点を除外する理由は、当該データ点が、ある3Dオブジェクトの属性にマップされるデータ次元のうちの1つに関して、値を有さないか無効な値を有することを含むことができる(が、それに限定されない)。容易にわかるように、所定用途の要求に適合していれば、種々の理由のいずれをも利用して、特定のデータ点を3D可視化像内に含めるべきでないものと判定することができる。データ取得中に追加される可視性のデータ次元は、個別のデータ点を可視化しないことの決定を反映するためのメカニズムを提供する。
プロセス800は、データ次元のマッピングを用いて3Dオブジェクトの属性を決定するステップ(806)を含む。ユーザ・インタフェースは、データ点を記述するデータ次元に関する情報を提示して、3Dオブジェクトの属性にマップすべき特定のデータ次元をユーザが選択することを可能にすることができる。いくつかの実施形態では、データ次元のマッピングが3Dオブジェクトの特徴を定め、これらの特徴は、3Dオブジェクトの可視性、仮想空間内の3Dオブジェクトの位置、3Dオブジェクトをレンダリングするために用いる形状、仮想空間内にレンダリングされる3Dオブジェクトのサイズ、及び/または3Dオブジェクトの色を含む(が、それらに限定されない)。特定の実施形態では、4つ以上のデータ次元の可視化像を、データ次元のマッピングを用いることによって生成して、3Dオブジェクトの追加的な特徴を定めることができ、これらの特徴は、3Dオブジェクトのテクスチャ、及び/または3Dオブジェクトの透明度を含む(が、それらに限定されない)。多数の実施形態では、定義することができる属性のリストが:X(浮動小数点の値)、Y(浮動小数点の値)、Z(浮動小数点の値)、形状(浮動小数点の値)、サイズ(浮動小数点の値)、カラーパレット(浮動小数点の値、ストリング(文字列))、カラーマップ(浮動小数点の値、ストリング)、カラースケール(色尺度)(浮動小数点の値、ストリング)、カラースケール(浮動小数点の値、ストリング)、及び透明度(浮動小数点の値)を含む(が、それらに限定されない)。視覚的属性を補完するものとして、データ次元のマッピングを、3Dオブジェクトによって表現されるデータ点を記述するメタデータに関して定義することもでき、これらのメタデータは:ID(ストリング)、URL(ストリング)、マスク(あるデータ点が選択されているか否かを示すために用いる浮動小数点の値)、表示可否(浮動小数点、ストリング、データ点を表示するべきか否かをフィルタに基づいて示すために用いる、例えば”US(United States:米国)”に等しい国名の値を有するデータ点のみを示す)を含む(が、それらに限定されない)。3Dオブジェクトに関連する追加的な属性は、3Dオブジェクトの微妙な動き(例えば、ジッターまたはねじれの異なる速度区分へデータを入れる)、音発生、触覚フィードバック、及び/または振動触覚フィードバックを含むことができる(が、それらに限定されない)。特定の属性を上述しているが、上述した属性の一部または全部のあらゆる部分集合及び/または組合せを、データ点の可視化における追加的な属性と組み合わせることができる。データ点を3Dグラフ内に可視化するために利用される具体的な属性は、所定の3Dデータ可視化システムの要求に大きく依存する。
データ次元を属性にマップするマッピング(ステップ806)はユーザによって実行されることが多いが、ユーザ及び/または3Dデータ可視化システムは、以前から記憶している3Dデータ可視化像を用いて、データ次元を属性にマップするマッピングを定義することもできる。このようにして、ユーザは、新たなデータ集合または更新されたデータ集合(例えば、新たなデータ点が追加されたデータ集合)をロードして、以前に選択したマッピングの集合を利用してデータを可視化することができる。従って、3Dオブジェクトの属性は、以前に生成された3Dデータ可視化像内に含まれるマッピングに基づいて自動的に決定することができる(ステップ806)。多数の実施形態では、複数のユーザが3Dデータ可視化像を共有し、共有される3Dデータ可視化像内のマッピングを利用して、3Dオブジェクトの属性を決定することができる(ステップ806)。複数のユーザは、他のユーザによる独立した利用のために、及び/またはブロードキャスト(広域伝達)される3Dデータ可視化像の一部として、3Dデータ可視化像を共有することができる。
プロセス800は、ユーザの視点に基づいて3D表示をレンダリングする(ステップ814)。従って、ユーザのポーズを測定し(ステップ808)、このポーズを用いて、仮想空間内のユーザの位置、及びユーザの視野内にある3Dオブジェクトに基づいて、3D表示をレンダリングすることができる。以下で図8Bを参照してさらに説明するように、
多数(あるいは全部)の3Dオブジェクトのメッシュに基づいて、1つ以上のメッシュを3Dオブジェクトのグループ用に作成することによって、レンダリング中に追加的な計算効率を得ることができる。このようにして、(それに限定されないが)衝突処理のような物理プロセスを含むプロセスを、ずっと少数の3Dオブジェクトのグループに対して実行することができる。容易にわかるように、3Dデータ可視化像をレンダリングするために必要な計算を低減する目的で、複数の3Dオブジェクトを3Dオブジェクトのグループにまとめることは、所定用途の要求に大きく依存する。
多数(あるいは全部)の3Dオブジェクトのメッシュに基づいて、1つ以上のメッシュを3Dオブジェクトのグループ用に作成することによって、レンダリング中に追加的な計算効率を得ることができる。このようにして、(それに限定されないが)衝突処理のような物理プロセスを含むプロセスを、ずっと少数の3Dオブジェクトのグループに対して実行することができる。容易にわかるように、3Dデータ可視化像をレンダリングするために必要な計算を低減する目的で、複数の3Dオブジェクトを3Dオブジェクトのグループにまとめることは、所定用途の要求に大きく依存する。
3Dデータの効果的な可視化は、ユーザがデータ内の構造を知覚する能力を増強し、可視化されるデータの特徴とは無関係な外観の変化を3Dグラフ内の3Dオブジェクトに取り入れることを回避する。多数の実施形態では、3Dデータ可視化の種々の態様を、ユーザのポーズに基づいて変更して、ユーザがデータの構造を知覚する能力を増強する。いくつかの実施形態では、3D表示をレンダリングするプロセスが、ユーザのポーズに基づいて3Dオブジェクトを照明するステップ(810)を含む。以下に説明するように、ユーザの視野内にある各3Dオブジェクトを、ユーザの視点で、あるいはユーザの視点から少しオフセットした所で発光する指向性光源を用いて照明することは、同様な3Dオブジェクトの外観の類似性を、ユーザの視野全体にわたって保つことができる。本発明の種々の実施形態による、ユーザのポーズに基づいて3Dオブジェクトを照明するプロセスを以下に説明する。3Dオブジェクトが見る方向に基づいて異なる外観を有する場合、ユーザの視野内にある3Dオブジェクトの向きを、ユーザに「対面」するように再配向することができる(但し、以下に説明するように、ユーザに対面することは、実際には3Dオブジェクトを、3D形状の特徴をより良く目立たせることに合った角度に向けることを含む)。このようにして、ユーザがオブジェクトを見る向きがどうであろうと、オブジェクトの外観は3Dグラフ内で常に同じになり、ユーザが意識的または無意識に向きの違いを意味ある情報と混同することが回避される。しかし、他の実施形態では、向きを固定すること、及び/または向きを用いて追加的なデータ次元を可視化することができる(例えば、あるデータ次元が、ユーザの視点に対する向きに、あるいは回転の速度のような動きにマップされる)。
多数の実施形態では、ユーザのポーズを用いて、3Dデータ可視化の他の多数の態様を変更し、これらの態様は、インタラクション・プリミティブの透明度及び/または位置を含む(が、それらに限定されない)。例えば、グリッド(格子)線及び/またはナビゲーション・アフォーダンスのようなインタラクション・プリミティブを仮想空間内に含めて、配向及びナビゲーションを手助けすることができる。多数の実施形態では、ユーザのポーズが、インタラクション・プリミティブがデータ点を表現する3Dオブジェクトを覆い隠す度合いを決める。3Dデータ可視化システムが実現することを目指す特定のユーザ体験に適合していれば、種々の基準を利用して、透明度を増加させるか否か、及び/またはインタラクション・プリミティブの可視性を変更するか否かを決定することができる。多数の実施形態では、3Dグラフを、仮想環境(例えば、仮想オフィス区画または仮想オフィスの一室)を含む可視空間内に含めることができる。ユーザが仮想環境内で3Dグラフを操作する(例えば、3Dグラフを回転させる、あるいは3Dグラフのサイズを増加させる)際に、3Dグラフを静止オブジェクトとして維持し、ユーザの視点に基づいて、仮想環境に関連するメッシュ(例えば、テーブル、椅子、机、壁、等を描画するメッシュ)を3Dグラフに対して変更すること(例えば、仮想環境のサイズを変更すること、あるいは、仮想環境及びユーザの視点を3Dグラフに対して回転させること)によって、計算効率を達成することができる。仮想環境に関連するメッシュは、一般に3Dグラフを作り上げる3Dオブジェクトのメッシュよりも単純である。従って、ユーザが3Dグラフに対する操作を実行する能力を維持しつつ、仮想環境に関連するユーザの視点及び3Dオブジェクトを、3Dグラフに対してシフトさせることは、大きな計算上の利点をもたらすことができ、3Dグラフに対する操作は、仮想環境内で3Dグラフを回転させ、移動させ、及び/またはサイズ変更することを含む(が、それらに限定されない)。容易にわかるように、ユーザのポーズに応答して変更することができる仮想空間の要素は、照明及びインタラクション・プリミティブの可視性に限定されず、所定用途の要求に適合していれば、3Dデータ可視化の種々の態様のいずれをも含むことができ、これらの態様は、ユーザの位置及び/またはポーズに基づいて、ユーザが仮想空間を通って移動する速度、及び/またはユーザが仮想空間内の3Dオブジェクトと相互作用することができる速度を変更することを含む(が、それらに限定されない)。以下に説明するように、本発明の多数の実施形態による3Dデータ可視化システムは、ユーザのポーズ及び/または状況に基づいて、異なる可視化モード間で切り換えることができる。
ユーザのポーズに基づいて3D表示をレンダリングする(ステップ814)具体的方法は、利用している特定の3D表示技術に大きく依存する。多数のヘッドマウント型AR、MR、及びVRヘッドセットにおいて利用されるもののようなステレオ3Dディスプレイを利用する実施形態では、異なる視点からの2つのフレームをレンダリングし、これらのフレームをステレオ・ディスプレイの各々によって提示して、シミュレート(模擬)された深さの知覚をユーザにもたらすことができる。
プロセス800は、ユーザの位置の変化(ステップ808)及び/またはデータ次元を属性にマップするマッピングの変化(ステップ818)に基づいて、レンダリングされる3D表示を更新し続ける。ユーザが対話型セッションを終了すると(ステップ816)、プロセスが完了する。
容易にわかるように、3Dデータ可視化像の相互作用性は、可視化像の更新をレンダリングすることができる速度に依存する。多数の実施形態では、3Dデータ可視化システムが、少なくとも1秒当たり30フレームのフレームレートを目標とする。いくつかの実施形態では、少なくとも1秒当たり60フレーム及び/または少なくとも1秒当たり120フレームの目標フレームレートをサポートする。3Dデータ可視化像を高いフレームレートで更新することは、大量の計算を含む。多数の例では、高いフレームレートを維持するために必要な計算が大量過ぎ、3Dデータ可視化像が、1つ以上のフレームを表示に間に合わせてレンダリングすることができず、フレームドロップ(フレーム欠落)と一般に称されることを生じさせる。特定実施形態では、ユーザの視野の中央にあるフレームの部分をレンダリングし、ユーザの周囲視野内にあるフレームの部分はレンダリングしない良い意味での質的低下をサポートする。所定の3Dデータ可視化システムが、目標フレームレートに必要なすべてのフレームをレンダリングすることができないことに対処する具体的方法は、所定用途の要求に依存する。
目標フレームレートを達成することができる可能性は、3Dデータ可視化像をレンダリングすることの複雑性を低減することによって増加させることができる。多数の実施形態では、本質的に複数の可視の3Dオブジェクトの集合体である3Dオブジェクトのグループを作成することによって計算効率を達成する。オブジェクトの数を低減することは、レンダリング・パイプラインの態様に関連する計算を減少させることができ、これらの計算は、物理エンジンによって実行される3Dオブジェクト間の衝突を検出するための処理、及び描画プロセス自体を含む。いくつかの実施形態では、3Dオブジェクトの単一グループを、3Dグラフ内の可視のデータ点に対応するすべての3Dオブジェクトを用いて作成する。多数の実施形態では、可視の3Dオブジェクトの総数よりも少数の、3Dオブジェクトの複数グループを作成する。特定実施形態では、3Dオブジェクトのグループが、単に、3Dオブジェクトの集合の形状を有するメッシュである。
本発明の一実施形態による、3Dオブジェクトのグループを用いて3Dデータ可視化像をレンダリングするためのプロセスを図8Bに例示する。このプロセス850は、複数の可視化属性を含む3Dデータ・オブジェクトの集合のインスタンス作成(ステップ852)から開始される。3Dデータ・オブジェクトの可視化属性は、データ次元のマッピングの集合を用いて上述したのと同様な方法で決定することができる。特定実施形態では、データ次元のマッピングが可視化テーブル内のデータ次元の値を規定し、これらのデータ次元の値を処理して、3Dオブジェクトの具体的な可視化属性を決定する。複数の可視の3Dオブジェクトのメッシュ及びテクスチャを用いて、3Dオブジェクトの各グループのメッシュ及びテクスチャを生成することによって、3Dオブジェクトの1つ以上のグループを作成する(ステップ856)。いくつかの実施形態では、100,000個もの3Dオブジェクトを利用して、3Dオブジェクトのグループを作成する。3Dオブジェクトのグループを作成する(ステップ856)ために利用する3Dオブジェクトの具体的な数は、一般に所定用途の要求に依存する。
ユーザのポーズを測定し(ステップ858)、3Dオブジェクトのグループを、ユーザのポーズに基づいて照明する(ステップ860)。多数の実施形態では、3Dオブジェクトのグループを頂点毎のベースで描画し、指向性光源を用いて、各頂点を、ユーザの視点(あるいは、ユーザの視点に近い点)からの視線に基づいて決まる方向に照明する。次に、仮想空間内の3Dオブジェクト(3Dオブジェクトのグループを含む)に対する衝突処理を実行して、検出した衝突を、3Dデータ可視化システムによって仮想空間に課せられた制約に応じて解決することができる。次に、仮想空間を、ユーザの視点からレンダリングすることができる(ステップ864)。図示する実施形態では、3D表示をレンダリングする。多数の実施形態では、レンダリングされた表示が3D表示装置を駆動する。
オブジェクトのグループを利用することは、3Dデータ可視化像を高いフレームレートで対話形式でレンダリングすることに関連する処理を大幅に低減することができる。しかし、オブジェクトをグループ化することは、単一の3Dオブジェクトを変更するために、全部の3Dオブジェクトを変更するための処理オーバーヘッドと同じ処理オーバーヘッドを生じさせる。従って、組み合わせて3Dオブジェクトの単一グループにされる、データ点に対応する3Dオブジェクトの数を考慮することは、3Dグラフと相互作用する際に低減される計算オーバーヘッドと、データ・マッピングの更新により3Dグラフが変化する際に相互作用性を保つこととのバランス(釣り合い)を実現することができる。データ次元を属性値にマップするマッピングが変化する際の、1つの3Dグラフから他の3Dグラフへの移動は、以下に説明する。3Dオブジェクトのグループを利用して、データ点のグループをまとめてアニメーション表示して、アニメーション表示中に高いフレームレートを実現することができる。
3Dデータを可視化するための特定のプロセスを、図8A及び8Bを参照して上述したが、所定用途の要求に適合していれば、データ点の次元及び仮想空間内のユーザの位置に基づいて3Dデータ可視化像をレンダリングする種々のプロセスのいずをも利用することができる。データ内の構造をユーザに示す3Dデータ可視化の有効性を増強するために利用することができる技術は、以下でさらに説明する。
複合データの3D可視化の有効性を増強する
本発明の種々の実施形態による3Dデータ可視化システムは、8次元以上のデータの可視化像を生成する能力を有する。高次元データを3Dの形に表現することの挑戦は、3Dデータ可視化像が、基になる3Dオブジェクトの属性とは無関係である、3Dオブジェクトの外観の変化を本質的に取り入れることにある。例えば、ユーザから異なる距離に位置し異なる形状を有する3Dオブジェクトの相対的なサイズを、ユーザが知覚することは困難なことがある。照明、より具体的には陰影も、基になる3Dオブジェクトの属性とは無関係である、3Dオブジェクトの外観の変化を取り入れることがある。3Dデータ可視化像による実験は、深さに起因するサイズの変化とデータの属性としてのサイズの変化とをユーザが区別する能力を保つような形状、及び/または、ユーザの視野全体にわたって同じ方法で3Dオブジェクトを照明し、他の3Dオブジェクト上に陰影を投じる(影を落とす)ことを伴わない照明モードを利用することによって、3Dデータ可視化の有効性を増強することができることを示している。本発明の種々の実施形態による、3D可視化において、形状を保つ深さの知覚及び照明モードを用いて、ユーザがデータ内の構造を知覚する能力を増加させることは、以下でさらに説明する。
本発明の種々の実施形態による3Dデータ可視化システムは、8次元以上のデータの可視化像を生成する能力を有する。高次元データを3Dの形に表現することの挑戦は、3Dデータ可視化像が、基になる3Dオブジェクトの属性とは無関係である、3Dオブジェクトの外観の変化を本質的に取り入れることにある。例えば、ユーザから異なる距離に位置し異なる形状を有する3Dオブジェクトの相対的なサイズを、ユーザが知覚することは困難なことがある。照明、より具体的には陰影も、基になる3Dオブジェクトの属性とは無関係である、3Dオブジェクトの外観の変化を取り入れることがある。3Dデータ可視化像による実験は、深さに起因するサイズの変化とデータの属性としてのサイズの変化とをユーザが区別する能力を保つような形状、及び/または、ユーザの視野全体にわたって同じ方法で3Dオブジェクトを照明し、他の3Dオブジェクト上に陰影を投じる(影を落とす)ことを伴わない照明モードを利用することによって、3Dデータ可視化の有効性を増強することができることを示している。本発明の種々の実施形態による、3D可視化において、形状を保つ深さの知覚及び照明モードを用いて、ユーザがデータ内の構造を知覚する能力を増加させることは、以下でさらに説明する。
形状を保つ深さの知覚
深さの知覚を保つことは、可視化されているデータの次元をユーザが理解する能力を保つに当たり重要であり得る。例えば、サイズを利用してデータ次元を可視化する際に、ユーザの視野内にレンダリングされる特定の3Dオブジェクトのサイズは、3Dオブジェクトのサイズ属性、及び仮想空間内のユーザから3Dオブジェクトまでの距離に共に依存する。データ次元を3Dオブジェクトの形状属性にもマップする場合、オブジェクトの形状がサイズの比較を(深さの差によってその度合いが増す様式で)さらに混同させることがある。実験は、立方体、球、円柱のような異なる形状についての相対的なサイズの知覚は、距離、オブジェクトの整列(アライメント)、色、及び照明を含む種々の要因によって悪影響されることを示している。多数の実施形態では、(それに限定されないが)球状の外観を有する20面体のような多数の面を有する多面体を、3Dデータ可視化像内の3Dオブジェクトの形状として利用する。実験は、3D環境内の球の相対的なサイズをユーザが正確に知覚することができることを示している。しかし、球は、3Dの形にレンダリングするには複雑な形状であり、一般に何百もの面を有する多面体としてレンダリングされる。従って、何百もの面とは対照的に何十面の範囲内のより少数の面を有する多面体の利用は、3Dグラフのレンダリングに関連する計算を大幅に低減することができる。データ次元が3Dオブジェクトの形状及びサイズの属性にマップされる多次元データ空間の3D可視化像を、いくつかの視点から図9A〜9Cに示す。
深さの知覚を保つことは、可視化されているデータの次元をユーザが理解する能力を保つに当たり重要であり得る。例えば、サイズを利用してデータ次元を可視化する際に、ユーザの視野内にレンダリングされる特定の3Dオブジェクトのサイズは、3Dオブジェクトのサイズ属性、及び仮想空間内のユーザから3Dオブジェクトまでの距離に共に依存する。データ次元を3Dオブジェクトの形状属性にもマップする場合、オブジェクトの形状がサイズの比較を(深さの差によってその度合いが増す様式で)さらに混同させることがある。実験は、立方体、球、円柱のような異なる形状についての相対的なサイズの知覚は、距離、オブジェクトの整列(アライメント)、色、及び照明を含む種々の要因によって悪影響されることを示している。多数の実施形態では、(それに限定されないが)球状の外観を有する20面体のような多数の面を有する多面体を、3Dデータ可視化像内の3Dオブジェクトの形状として利用する。実験は、3D環境内の球の相対的なサイズをユーザが正確に知覚することができることを示している。しかし、球は、3Dの形にレンダリングするには複雑な形状であり、一般に何百もの面を有する多面体としてレンダリングされる。従って、何百もの面とは対照的に何十面の範囲内のより少数の面を有する多面体の利用は、3Dグラフのレンダリングに関連する計算を大幅に低減することができる。データ次元が3Dオブジェクトの形状及びサイズの属性にマップされる多次元データ空間の3D可視化像を、いくつかの視点から図9A〜9Cに示す。
多数の実施形態では、仮想空間内のユーザから3Dオブジェクトまでの距離が与えられると、3Dオブジェクトの相対的なサイズを測定するに当たりユーザを手助けする3D形状を保つような深さの知覚を用いて、データ点を可視化する。図10に、高密度のプロットにおいても認識可能であるように設計された3Dオブジェクトの小集合を示す。これらの3Dオブジェクトの形状の構成は、次のいくつかの基準を念頭に置いてなされている:前面、側面、上面、突起、及び曲面領域に対する角部。
前面については、初期テンプレートは2Dプロットと共通の基本形状とした。これらは、円形、三角形、星形、箱形、プラス(十字)形、及びX字形を含む。3D形状は、前面に挙げたものより導出した。円形は、球1000及び円環面1004に変換される。三角形は、ピラミッド形(または四面体)1006及び円錐1004に変換される。箱形は立方体1002及び円柱1010に変換される。X字形及びプラス形も同様なやり方で3Dオブジェクトにすることができるが、これらの3D形状の各枝状部は、覆い隠すオブジェクトを越えて出て、異なる種類の3D形状またはより単純な3D形状における特徴部分と混同される可能性がある。星形プロット系の3D形状も、同じ困難に遭遇し得る。
これらの選定した基本形状は、次の種々の上面及び下面を示す:円形、四角形、点、三角形、及び楕円形。従って、一部の形、特に円柱及び立方体は同じ前面を共有するが、突出する角部の数(あるいはその欠如)及び上面の数が、密集したプロット領域上でも、これらの形を認識可能なままにすることを可能にする。さらに、照明は、形状間の視覚的区別を強めることができ、これらの形状間を区別する能力に役立つ。同様に、円錐1004とピラミッド形1006とは、向き次第では同じ前面、例えば三角形を示すことがある。従って、円錐1004は上を向くように選定するのに対し、ピラミッド型1006は、外向きにしつつ1つの水平エッジ1012を最上部におく。
その複数の面が前側平面に平行になるように設計された3D形状は、他の3D形状にオーバーラップすると、より複雑な面ではなく大きな平面を生成しがちである。同様に、上面及び下面が床面と整列している場合、正投影(正射影)を用いると、上面及び下面が隠れる。従って、図10に示すすべての3D形状を、水平面及び垂直面の両平面上で、同じ量だけ回転させる。結果的な回転は、北向きから30度西寄りの(即ち、スクリーン上昇ベクトルの30度右寄りの)軸の周りに30度回転させることと等価である。容易にわかるように、形状の大集団の非平面のレンダリングを生じさせるための具体的な回転は、特定の3Dデータ可視化システムの要求に大きく依存する。追加的な特徴部分1014を3Dオブジェクトの側面上に追加することも、他方の側面よりも一方の側面に(近づくことによる)より大きな視覚的重要性を与えるために、水平回転成分の恩恵を受けることができる。
図10に示す3D形状には追加的な特徴部分を含めているが、本発明による種々の実施形態により利用する3D形状には、追加的な特徴部分を含める必要はない。多数の実施形態では、3D形状の一次元のみを可視化の属性であるものと限定することによって、深さの知覚を保つ。例えば、可視化される3D形状は不変の高さを有するが、幅はマップされるデータ次元の値に基づいて変化する。特定実施形態では、弾丸状である(即ち、丸形または半球形の端部を有する)3D形状を利用する。多数の実施形態では、弾丸状の3D形状の幅(即ち、弾丸形の円柱部分の直径)が、マップされるデータ次元の値に基づいて変化し、弾丸状の3D形状の高さはデータ値によらず不変である。このようにして、幅は情報を伝え、高さは深さのキュー(合図、指示)を提供する。容易にわかるように、利用される具体的形状は、所定用途の要求に大きく依存する。本発明の種々の実施形態による、3D形状の照明を利用して3Dデータ可視化を強化する方法は、以下に説明する。
3Dデータ可視化用の照明モデル
3Dデータ可視化において用いられる照明モデルは、可視化されたデータをユーザが解釈することができる容易性に大きな影響を与えることができる。上述したように、可視化が、可視化されるデータ次元とは無関係である外観の変化を3Dオブジェクト間に導入する場合、3Dデータ可視化の有効性が低下し得る。図11Aに、3つの静止点光源による一定の照明下で異なる向きから見た際の、球形の形状を有する3Dオブジェクトの外観の変化を示す。容易にわかるように、3Dオブジェクトの表面上の陰影の変化は、3Dオブジェクトによって可視化されるデータ次元についての情報は何も伝えず、ユーザの視野内の異なる領域内に位置する(従って、異なるように照明される)同様な3Dオブジェクトの識別、及び/または相対的なサイズの測定を困難にする。本発明の多数の実施形態による3Dデータ可視化システムは照明モデルを利用し、この照明モデルでは、3Dデータ可視化像をレンダリングする際に、ユーザの視点(またはそれに隣接した所)において発光する別個の指向性光源を用いて、ユーザの視野内にある各3Dデータ・オブジェクトを照明する。図11Aに示すのと同じ視点から見た同じ3Dデータ・オブジェクトを図11Bに例示し、この3Dオブジェクトは、ユーザの視点において発光する指向性照明光源を用いて上述した方法で照明される。3Dオブジェクトをこのように照明することにより、この3Dオブジェクトは、どの視点から見ても同じ外観を有することになる。このようにして、ユーザが仮想空間を通って移動する間に、同様な3Dオブジェクトの外観の類似性を保つことができる、というのは、図12A〜12Cに示すように、オブジェクトの照明がユーザのポーズと共に変化するからである。
3Dデータ可視化において用いられる照明モデルは、可視化されたデータをユーザが解釈することができる容易性に大きな影響を与えることができる。上述したように、可視化が、可視化されるデータ次元とは無関係である外観の変化を3Dオブジェクト間に導入する場合、3Dデータ可視化の有効性が低下し得る。図11Aに、3つの静止点光源による一定の照明下で異なる向きから見た際の、球形の形状を有する3Dオブジェクトの外観の変化を示す。容易にわかるように、3Dオブジェクトの表面上の陰影の変化は、3Dオブジェクトによって可視化されるデータ次元についての情報は何も伝えず、ユーザの視野内の異なる領域内に位置する(従って、異なるように照明される)同様な3Dオブジェクトの識別、及び/または相対的なサイズの測定を困難にする。本発明の多数の実施形態による3Dデータ可視化システムは照明モデルを利用し、この照明モデルでは、3Dデータ可視化像をレンダリングする際に、ユーザの視点(またはそれに隣接した所)において発光する別個の指向性光源を用いて、ユーザの視野内にある各3Dデータ・オブジェクトを照明する。図11Aに示すのと同じ視点から見た同じ3Dデータ・オブジェクトを図11Bに例示し、この3Dオブジェクトは、ユーザの視点において発光する指向性照明光源を用いて上述した方法で照明される。3Dオブジェクトをこのように照明することにより、この3Dオブジェクトは、どの視点から見ても同じ外観を有することになる。このようにして、ユーザが仮想空間を通って移動する間に、同様な3Dオブジェクトの外観の類似性を保つことができる、というのは、図12A〜12Cに示すように、オブジェクトの照明がユーザのポーズと共に変化するからである。
本発明の一実施形態による、仮想空間内のユーザの視野が変化する際に3Dオブジェクトの照明を更新するプロセスを、図13に例示する。プロセス1300は、ポーズ情報を取得し、このポーズ情報を用いてユーザの位置及び視野を測定するステップ(ステップ1302)を含む。ユーザの視野内にある3Dオブジェクトを識別して選択することができる(ステップ1304、1310)。仮想空間内のユーザの位置に対する3Dオブジェクトの位置を用いて、照明の向きを決定することができる(ステップ1306)。照明の向きは、一般に、ユーザの位置から3Dオブジェクトに至る向き、あるいはユーザの位置に隣接する所から3Dオブジェクトに至る向きとして選択する。しかし、照明の向きは、所定用途の要求に基づいて変化させることができる。
図示する実施形態では、指向性照明光源を用いて、ユーザの視野内にある各3Dオブジェクトを照明し、ユーザの視野内にあるすべての照明を更新すると(ステップ1310)、プロセスを完了する。指向性の光は太陽による照明を模擬し、単一方向の平行光線を含む照明モデルを用いることを含む。見る人のポーズに基づく、仮想空間内の複数の3Dオブジェクトの照明を、概念的に図14に示す。別個の指向性光源を用いて各3Dオブジェクトを照明することは、ユーザの視野全体にわたる3Dオブジェクトの均一な照明を提供するに当たり大きな利点をもたらすが、本発明の種々の実施形態によれば、所定用途の要求に適合していれば、均一な照明を実現する他の照明モデルを利用することもできる。上述したように、3Dオブジェクトの各々を、仮想空間内に陰影を投じない(影を落とさない)ように構成することによって、3Dデータ可視化を強化することができる。
仮想空間内の3D形状及び照明の選択に関する以上の説明の大部分は、3Dデータの探索を促進するためにデータを表現することができる方法に関係するが、本発明の多数の実施形態による3Dデータ可視化システムは、追加的な3Dオブジェクトをインタラクション・プリミティブの形で仮想空間内に追加し、これらのインタラクション・プリミティブは、仮想空間内のユーザの位置及びデータに対するユーザの向きの自覚を維持するに当たり、ユーザを手助けする。本発明の種々の実施形態による3Dデータ可視化システム内で利用することができるユーザ・プリミティブは、以下でさらに説明する。
インタラクション・プリミティブを仮想空間内で利用する
本発明の多数の実施形態による3Dデータ可視化システムによって提供される仮想空間内でのユーザの移動の自由は、ユーザが仮想空間内でデータに対する自分の向きを追跡中にすぐに見失い得ることを意味する。本発明のいくつかの実施形態による3Dデータ可視化システムは、インタラクション・プリミティブを利用して、ユーザが可視化されるデータに対する自分の相対的な向きの感覚を維持することを可能にするための仮想的なアンカー(固定具)を提供する。多数の実施形態では、3Dオブジェクトを含む3Dグラフを立方体によって境界付け、この立方体上では、グリッド(格子)パターンがこの立方体の内面上に見える。上述したように、ユーザの位置を利用して、立方体の1つ以上の面を透明にして、グリッド線が3Dグラフ内の3Dオブジェクトを覆い隠さないようにすることができる。特定実施形態では、ラベル付けした軸をユーザの視野内に連続的に示して、データの向きに関する視覚的キューをユーザに提供することができる。
本発明の多数の実施形態による3Dデータ可視化システムによって提供される仮想空間内でのユーザの移動の自由は、ユーザが仮想空間内でデータに対する自分の向きを追跡中にすぐに見失い得ることを意味する。本発明のいくつかの実施形態による3Dデータ可視化システムは、インタラクション・プリミティブを利用して、ユーザが可視化されるデータに対する自分の相対的な向きの感覚を維持することを可能にするための仮想的なアンカー(固定具)を提供する。多数の実施形態では、3Dオブジェクトを含む3Dグラフを立方体によって境界付け、この立方体上では、グリッド(格子)パターンがこの立方体の内面上に見える。上述したように、ユーザの位置を利用して、立方体の1つ以上の面を透明にして、グリッド線が3Dグラフ内の3Dオブジェクトを覆い隠さないようにすることができる。特定実施形態では、ラベル付けした軸をユーザの視野内に連続的に示して、データの向きに関する視覚的キューをユーザに提供することができる。
本発明の一実施形態による3Dデータ可視化システムによって生成される、グリッド、軸、及び軸ラベルの形式のインタラクション・プリミティブを含む3Dグラフを、図15Aに例示する。3Dオブジェクト1500は、平面グリッド1502によって境界付けられた3Dグラフ内に含まれる。三色に符号化された直交軸1504が、方向付けした軸ラベル1506によって強化された視覚的アンカーを提供する。
(特に3Dグラフ内での)対話形式の探索中に3Dグラフに対する向きの感覚を維持するに当たりユーザを手助けするための、特定のインタラクション・プリミティブ及びその使用法を上述しているが、本発明の多数の実施形態によれば、所定用途の要求に適合していれば、向きに関する視覚的キューをユーザに提供するインタラクション・プリミティブのいずれをも利用することができる。
次元を視覚的属性に割り当てるに当たっての重要さの順序付けの実現
高次元データ集合におけるパターン認識に関連する主要な問題は次元性の弊害であり、可視化されるデータ集合に対する識別力に富んだ特徴の部分集合のみを選択することによって、この問題に応えることができる。特徴の意味が重要であり、3Dデータ可視化の目標が、特徴間の関係を見出してデータ集合をより良く理解することにある際には、特徴の選択が特徴の変換(例えば、主成分分析)にとって好ましいことが多い。多数のデータ集合では、データ次元を、数値的であるデータ次元(例えば、変動する量)またはカテゴリー的であるデータ次元(例えば領域)に分離することができる。本発明の多数の実施形態による3Dデータ可視化システムは、取り込み中のデータが数値的であるかカテゴリー的であるかを自動的に検出するように構成され、データ次元分類が正しくない場合にユーザが変更することを可能にする(例えば、ZIP(zone improvement program:)コード(郵便番号)は数値的であるものとして識別され得るが、実際にはカテゴリー的である−「91107」は「91101」よりも大きくはない)。
高次元データ集合におけるパターン認識に関連する主要な問題は次元性の弊害であり、可視化されるデータ集合に対する識別力に富んだ特徴の部分集合のみを選択することによって、この問題に応えることができる。特徴の意味が重要であり、3Dデータ可視化の目標が、特徴間の関係を見出してデータ集合をより良く理解することにある際には、特徴の選択が特徴の変換(例えば、主成分分析)にとって好ましいことが多い。多数のデータ集合では、データ次元を、数値的であるデータ次元(例えば、変動する量)またはカテゴリー的であるデータ次元(例えば領域)に分離することができる。本発明の多数の実施形態による3Dデータ可視化システムは、取り込み中のデータが数値的であるかカテゴリー的であるかを自動的に検出するように構成され、データ次元分類が正しくない場合にユーザが変更することを可能にする(例えば、ZIP(zone improvement program:)コード(郵便番号)は数値的であるものとして識別され得るが、実際にはカテゴリー的である−「91107」は「91101」よりも大きくはない)。
いくつかの実施形態では、3Dデータ可視化が、特徴選択プロセスを実行して、データ次元を可視化属性にマップする具体的なマッピングに関する推奨を提供する。多数の実施形態では、ユーザが関心事の特徴(例えば、電子商取引される基金の集合における運用益の低さ/高さに関して、どれが最重要な変数であるか)を選択する。次に、数値的データ次元及びカテゴリー的データ次元の両方に対して特徴選択プロセスを実行して、関心事の特徴に最も関係する次元を決定する。特定の実施形態では、別個の特徴選択プロセスを、数値的データ次元に対して、及びカテゴリー的データ次元に対して実行する。多数の実施形態では、特徴選択プロセスが一変量の特徴選択プロセスを実行する。他の実施形態では、所定用途の要求に適合していれば、種々の特徴選択プロセスのいずれをも利用することができる。特徴選択プロセスは、順序付けされた特徴のリストを生み出す。いくつかの実施形態では、3Dデータ可視化システムが、数値的データ次元の順序付けされたリストとカテゴリー的データ次元の順序付けされたリストとを別個に生成する。一部の実施形態では、順序付けされたリストを形成するに当たり、データ次元の部分集合のみを考慮する。
一旦、特徴に対するデータ次元の関係性の順序付けが得られると、順序付けの情報を利用して、データ次元を特定の可視化属性にマップする具体的なマッピングを生成または推奨することができる。多数の実施形態では、4つの最重要な数値的データ次元を、3DオブジェクトのX、Y、及びZの空間位置座標、及び3Dオブジェクトのサイズ属性にマップするデータ可視化像を生成する。多数の実施形態では、2つの最重要なカテゴリー的属性を、表示可否及び形状の可視化属性にマップする。多数の実施形態では、追加的な属性に割り当てることができるデータ次元に関する推奨及び/または追加的な推奨を行う対話を提供することができる。特定実施形態では、他のデータ次元の重要度の順序付けを生成するために利用した関心事の特徴を、色の可視化属性にマップすることができる。多数の実施形態では、異なる数値的データ次元及びカテゴリー的データ次元の相対的関連性に基づいて、具体的に推奨するマッピングを決定する。多数の状況では、ユーザの定量的予想及び/または見方から、カテゴリー的データ次元が最も重要である。カテゴリー的な値を3DオブジェクトのX、Y、及びZの空間位置座標にマップする代わりに、3Dオブジェクトを利用して、オーバーラップしない点を有する、3Dの蜂群図(スウォームプロット)または他の種類のカテゴリー的な散布図を生成することができる。本発明の一実施形態による、特定のデータ次元を、3Dデータ可視化像中に見える3Dオブジェクトの特定の属性にマップするマッピングに関する推奨を示すユーザ・インタフェースを、図15Bに例示する。
重要度の順序付けを実行するための特定のプロセス、及びデータ次元を可視化属性にマップするマッピングを推奨及び/または割り当てするための特定のプロセスを上述しているが、本発明の種々の実施形態によれば、特定用途の要求に適合していれば、特定の可視化属性にマップされる特定のデータ次元を推奨するための種々の技術のいずれをも利用することができ、これらの技術は、高速リリーフ(Relief)アルゴリズム、フィッシャー(Fisher)判別比、相関ベースの特徴選択、高速相関ベースフィルタ、及び/またはマルチ(多)クラス特徴選択を利用して重要度の順序付けを実行する技術を含む(が、それらに限定されない)。
データ特性に基づく自動化されたカラーパレット選択
データ内のパターンを強調するに当たり、3Dデータ可視化用の特定データ次元の選択を有意にすることができるのと同様な方法で、特定のデータ次元を可視化属性にマップする方法も、情報を効果的に伝達するにあたり重要であり得る。多数の実施形態では、数値的データ次元を、(それに限定されないが)色のような連続的な可視化属性に非線形の様式でマップして、データ次元と他のデータ次元または対象の特徴との関係に関する最大の情報を伝える値の範囲に対して、3Dオブジェクトの色の最大の差が発生するようにする。多数の実施形態では、データ次元を色にマップする際に、データ次元を不連続な数の色にマップして、色属性の視覚的な区別を加える。容易にわかるように、本発明の種々の実施形態によれば、所定用途の要求に適合していれば、種々の技術のいずれをも利用して、データ次元の値を特定の色にマップすることができる。
データ内のパターンを強調するに当たり、3Dデータ可視化用の特定データ次元の選択を有意にすることができるのと同様な方法で、特定のデータ次元を可視化属性にマップする方法も、情報を効果的に伝達するにあたり重要であり得る。多数の実施形態では、数値的データ次元を、(それに限定されないが)色のような連続的な可視化属性に非線形の様式でマップして、データ次元と他のデータ次元または対象の特徴との関係に関する最大の情報を伝える値の範囲に対して、3Dオブジェクトの色の最大の差が発生するようにする。多数の実施形態では、データ次元を色にマップする際に、データ次元を不連続な数の色にマップして、色属性の視覚的な区別を加える。容易にわかるように、本発明の種々の実施形態によれば、所定用途の要求に適合していれば、種々の技術のいずれをも利用して、データ次元の値を特定の色にマップすることができる。
3Dデータ可視化像内にアニメーション化した遷移の利用
高次元データを分析するユーザは、データ内の異なる関係を探索するために、可視化されるデータ次元を頻繁に変更する。多数の実施形態では、3Dデータ可視化システムが、データ・マッピングが変化する際に、離散したデータ点を表現する特定の3Dオブジェクト間の対応関係を、アニメーションを用いて図示する。第1の3Dグラフから第2の3Dグラフへ移動する点を観察する能力は、データ次元の代案の組合せを3Dオブジェクトの属性にマップすることによって表すことができる、データ内に存在し得る関係を、ユーザが観察することを可能にすることができ、これらの3Dグラフでは、データ点に対応する3Dオブジェクトの1つ以上の属性が変更される。本発明の一実施形態による一連の3Dデータ可視化像を図16A〜16Dに例示し、これらの3Dデータ可視化像では、3DオブジェクトのX属性が、第1データ次元(即ち「年齢」)から第2データ次元(即ち「勤続年数」)に変更されている。
高次元データを分析するユーザは、データ内の異なる関係を探索するために、可視化されるデータ次元を頻繁に変更する。多数の実施形態では、3Dデータ可視化システムが、データ・マッピングが変化する際に、離散したデータ点を表現する特定の3Dオブジェクト間の対応関係を、アニメーションを用いて図示する。第1の3Dグラフから第2の3Dグラフへ移動する点を観察する能力は、データ次元の代案の組合せを3Dオブジェクトの属性にマップすることによって表すことができる、データ内に存在し得る関係を、ユーザが観察することを可能にすることができ、これらの3Dグラフでは、データ点に対応する3Dオブジェクトの1つ以上の属性が変更される。本発明の一実施形態による一連の3Dデータ可視化像を図16A〜16Dに例示し、これらの3Dデータ可視化像では、3DオブジェクトのX属性が、第1データ次元(即ち「年齢」)から第2データ次元(即ち「勤続年数」)に変更されている。
いくつかの実施形態では、データの異なる部分集合を異なる速度でアニメーション化することによって、データの追加的な見識を提供することができる。例えば、クラスタリング・アルゴリズムを利用して、第1の3Dグラフ内のデータを分析して、アニメーションは、異なるクラスタ内の3Dデータ・オブジェクトの異なる速度での動きを含むことができる。特定実施形態では、3Dオブジェクトの移動を指示するユーザ入力を受信すると、3Dオブジェクトの複数の集合が移動を開始するように、ユーザがアニメーションを制御することができる。このようにして、ユーザは3Dオブジェクトの特定集合を区分して、これらの3Dオブジェクトが1つの3Dグラフから他の3Dグラフにマップされる様子を観察することができる。多数の実施形態では、ユーザがアニメーションを反復すること、及び/またはさらなる見識を得るためにアニメーションを予約しておくことができる。
3Dオブジェクトをアニメーション化するための特定の技術を、図16A〜16Dを参照して上述しているが、本発明の種々の実施形態によれば、3Dデータ可視化システムを用いてデータ次元のマッピングを変更する際に、特定用途の要求に適合すれば、種々のアニメーション技術のいずれをも利用して、1つの3Dグラフから他の3Dグラフへの、3Dオブジェクトの属性の変化(位置の変化に加えて、形状の変化、色の変化、サイズの変化、テクスチャの変化、等を含むことができる)を示すことができる。
データの状況表現
上述した、3Dデータ可視化を強化するためのプロセスの多数は、3Dデータ可視化像を生成する方法に焦点を当てている。3Dデータ可視化像を提示する状況は、ユーザが意味のある見識をデータから識別する能力にも影響を与えることができる。ユーザは、一般に、自由空間の量、及び3Dデータ可視化を実行している現実世界の環境内でユーザが移動する自由度に応じて異なる方法で、3Dグラフと相互作用する。ユーザが机に向かいながら3Dグラフと相互作用する際に、ユーザは、一般に、3Dグラフが小型の様式(例えば1フィート×1フィート×1フィートの立方体)で表示されることを好む。ユーザが立ちながら3Dデータ可視化を体験している際には、そしてユーザが大きな移動の自由度を有する環境では、ユーザが3Dグラフをより大きなサイズに拡大して3Dグラフを通って移動することが、より生じやすい。いくつかの実施形態では、仮想環境及び/または複合現実環境が、データの操作を可能にするアフォーダンスを含む。上述したように、仮想環境に対して移動する3Dグラフの外観、及び仮想環境内のアフォーダンスは、3Dグラフを形成する3Dオブジェクトは移動させずに、仮想環境に関連する3Dオブジェクト、及び仮想環境内のユーザの視点を移動させて、3Dグラフが環境に対して操作されている外観を生成することによって実現することができる。これに加えて、3Dグラフの仮想環境に対する相対的な規模が変化する際に、かつ可動環境内での3Dグラフからユーザの視点までの距離に応じて、ユーザが3Dグラフと相互作用する方法を変更することができる。
上述した、3Dデータ可視化を強化するためのプロセスの多数は、3Dデータ可視化像を生成する方法に焦点を当てている。3Dデータ可視化像を提示する状況は、ユーザが意味のある見識をデータから識別する能力にも影響を与えることができる。ユーザは、一般に、自由空間の量、及び3Dデータ可視化を実行している現実世界の環境内でユーザが移動する自由度に応じて異なる方法で、3Dグラフと相互作用する。ユーザが机に向かいながら3Dグラフと相互作用する際に、ユーザは、一般に、3Dグラフが小型の様式(例えば1フィート×1フィート×1フィートの立方体)で表示されることを好む。ユーザが立ちながら3Dデータ可視化を体験している際には、そしてユーザが大きな移動の自由度を有する環境では、ユーザが3Dグラフをより大きなサイズに拡大して3Dグラフを通って移動することが、より生じやすい。いくつかの実施形態では、仮想環境及び/または複合現実環境が、データの操作を可能にするアフォーダンスを含む。上述したように、仮想環境に対して移動する3Dグラフの外観、及び仮想環境内のアフォーダンスは、3Dグラフを形成する3Dオブジェクトは移動させずに、仮想環境に関連する3Dオブジェクト、及び仮想環境内のユーザの視点を移動させて、3Dグラフが環境に対して操作されている外観を生成することによって実現することができる。これに加えて、3Dグラフの仮想環境に対する相対的な規模が変化する際に、かつ可動環境内での3Dグラフからユーザの視点までの距離に応じて、ユーザが3Dグラフと相互作用する方法を変更することができる。
多数の実施形態では、3D可視化システムが、3Dグラフのサイズ変更を制御するユーザに対して表示される3Dユーザ・インタフェース内にアフォーダンスを提供する。多数の実施形態では、3Dデータ可視化システムが、3Dデータ可視化を実行中の現実世界環境に関する情報を用いることができ、そして多次元データ空間の3D可視化像のサイズを、環境内に適合するように調整することができる。
本発明の一実施例による3Dデータ可視化システムによって仮想世界内に生成される3Dデータ可視化像のサイズをユーザが制御することを可能にする、VRユーザ・インタフェース内のアフォーダンスを、図17Aに例示する。仮想環境1700は、アフォーダンス1702を有する仮想オフィスの立方体を含み、アフォーダンス1702は、3Dグラフのサイズを所定の「デスクトップ(机上の)」規模に変更することができる。仮想環境1700は第2アフォーダンス1704及び第3アフォーダンス1706も含み、第2アフォーダンス1704は、3Dグラフのサイズを、「デスクトップ」規模よりも大きい所定の「着席(座位)」規模に変更することができ、第3アフォーダンス1706は、3Dグラフのサイズを、最大の所定の「立席(立位)」規模に変更することができる。ユーザがアフォーダンス上で3Dデータ可視化像を動かすと、3Dデータ可視化像のサイズが変更される。サイズ変更に続いて、ユーザは3Dデータ可視化像をさらに操作することができ、この操作は、3Dデータ可視化像の規模を変更すること(例えば、3Dグラフを「デスクトップ」規模に縮小し、次に、データ(空間)内を通って関心事の特定クラスタに向かって移動するように、3Dグラフを拡大する)を含む。
3Dユーザ・インタフェース内のアフォーダンスを用いて3Dデータ可視化像のサイズを変更することができる方法を、図17B〜17Fに概念的に例示する。図17B及び17Cには、可動環境内のユーザのポーズ(1708)及び3Dデータ可視化像(1710)を例示する。3Dデータ可視化像のサイズを「デスクトップ」規模に変更するために利用することができるアフォーダンス(1702)は、図17C中に見られる。アフォーダンス(1702)上で3Dデータ可視化像(1710)を動かすこと、及びその結果サイズを変更された3Dデータ可視化像(1712)を、図17E及び17Fに概念的に例示する。上述したように、サイズ変更は3Dグラフのサイズを固定しない。サイズ変更に続いて、ユーザは3D可視化像のサイズを変更し続けることができ、そして3Dデータ可視化システムがユーザ入力に応答する方法は変更することができる(例えば、3Dデータ可視化像のサイズに基づいて、3Dジェスチャーの動きに異なるように応答することができる)。アフォーダンスは、ユーザが異なる状況間を移動して、3Dデータ可視化システムに3Dデータ可視化像を変更させることができるメカニズムを提供するに過ぎず、3Dデータ可視化像を変更する方法は、現実世界の空間内での差、及び/または現実世界におけるユーザがデータを探索するために利用可能な移動の自由度を反映することを含む(が、それらに限定されない)。ユーザの状況が、ユーザが移動の自由度を有する立席モードへシフトする際に、ユーザが3Dデータ可視化像を見ることができるように増加した規模を、図17Fに概念的に例示する。
以上の説明は3つの異なるモードまたは動作状況を参照しているが、本発明の種々の実施形態によれば、指定用途の要求に適合していれば、3Dデータ可視化システムは、任意数の異なるモード及び/または状況をサポートすることができる。さらに、3Dデータ可視化像を自動的に変更するユーザ・インタフェース内のアフォーダンスは、データをサイズ変更するだけのアフォーダンスに限定されない。種々の実施形態では、アフォーダンスに富んだアレイを提供し、これらのアフォーダンスは:
機械学習アルゴリズム(例えばk平均法クラスタリング)をデータに適用することによって、及び/または初期の3D可視化像内の単一の3Dオブジェクトによって表現される多次元データの新たな3D可視化像を生成することによって、当該アフォーダンス上で3Dグラフを動かすことに応答するアフォーダンスを含む(が、それらに限定されない)。これに加えて、所定入力に応答して(それに限定されないが)サイズ変更のような自動化された動作を実行することができ、所定入力は、ジェスチャー入力、音声入力、1つ以上の入力装置を介した入力、及び/または一連の入力の任意の組合せを含むことができる(が、それらに限定されない)。従って、3Dデータ可視化システムはあらゆる特定のアフォーダンスの使用に限定されず、所定用途の要求に適合すれば、3Dグラフと相互作用するための任意のアフォーダンス、アフォーダンスの集合、及び/または入力モダリティ(手段)を利用することができる。
機械学習アルゴリズム(例えばk平均法クラスタリング)をデータに適用することによって、及び/または初期の3D可視化像内の単一の3Dオブジェクトによって表現される多次元データの新たな3D可視化像を生成することによって、当該アフォーダンス上で3Dグラフを動かすことに応答するアフォーダンスを含む(が、それらに限定されない)。これに加えて、所定入力に応答して(それに限定されないが)サイズ変更のような自動化された動作を実行することができ、所定入力は、ジェスチャー入力、音声入力、1つ以上の入力装置を介した入力、及び/または一連の入力の任意の組合せを含むことができる(が、それらに限定されない)。従って、3Dデータ可視化システムはあらゆる特定のアフォーダンスの使用に限定されず、所定用途の要求に適合すれば、3Dグラフと相互作用するための任意のアフォーダンス、アフォーダンスの集合、及び/または入力モダリティ(手段)を利用することができる。
いくつかの実施形態では、3Dデータ可視化システムが、現実世界の状況を定めて、3Dデータ可視化像のレンダリングを、この現実世界の環境内に現実的に含まれるように動的に変更する。例えば、仮想的立方体の代わりに、同様なサイズ変更操作を、現実の立方体及び/またはオフィス空間内で実行することができる。多数の実施形態では、深さを検出するカメラシステムを利用して、ユーザを包囲する自由空間の体積に関する情報を取得することができる。他の実施形態では、種々の適切なマシンビジョン技術のいずれをも利用することができる。いくつかの実施形態では、3Dデータ可視化システムが、ユーザのポーズ及び/または視点の変化に関係する空間の体積の変化を検出して、3Dデータ可視化像のサイズを、ユーザの視点から見える自由空間の新たな体積に適した方法で変更する。容易にわかるように、3Dデータ可視化システムは、一般に、ユーザが、可視化像を包含するために利用可能な自由空間の体積に基づいて3Dデータ可視化像のサイズを変更することができる能力に限界を設けない。その代わりに、ユーザは、対話形式のデータ探索を可能にする方法で、3Dデータ可視化像を拡張することができる。
多数の実施形態では、種々の入力モダリティが3Dデータ可視化システムによってサポートされる。いくつかの実施形態では、ユーザがデスクトップ装置を用いて3Dデータ可視化システムと相互作用することができ、こうしたデスクトップ装置は、従来型のウィンドウズ(登録商標)アイコン・メニューポインタ(WIMP:windows icon menu pointer)プログラム、及び/またはタッチジェスチャー系のユーザ・インタフェースを使用するモバイル機器を用いる。ユーザが、(それらに限定されないが)AR、MR、またはVR用のヘッドセットのような没入型3Dディスプレイを介した3Dデータ可視化システムとの相互作用に移行すると、種々の追加的な入力モダリティを用いてユーザ入力を取得することができる。いくつかの実施形態では、マシンビジョン・システムを用いて、3Dジェスチャー系の入力を観測することができる。多数の実施形態では、3Dデータ可視化システムと無線通信する細長いハンドルを有する棒状のユーザー入力装置をユーザに提供する。多数の実施形態では、上記の棒状体が単一のボタンであり、無線通信リンクを介して通信する。3Dデータ可視化システムは、上記棒状体のポーズ及び上記ボタンの状態を追跡することによってユーザ入力を取得することができる。状況に応じて、3Dデータ可視化システムが、上記ボタンを、異なる情報を伝えるものとして解釈することができる。単純な入力モダリティは、ユーザが、ボタンが押されていない際にユーザに対する3Dデータ可視化像の位置を移動させること、及びボタンが押されている際に3Dデータ可視化像を回転させることを可能にすることを含む。他の実施形態では、ユーザの凝視方向、及び/または1つ以上のボタンだけを含むリモートコントローラをユーザ入力として用いることができる。容易にわかるように、本発明の種々の実施形態によれば、所定用途の要求に適合すれば、ポーズ入力とボタン入力との組合せに基づいて、種々の処理のいずれをも開始することができる。さらに、所定の3Dデータ可視化アプリケーションの必要性に適合すれば、種々の追加的な入力モダリティのいずれをもサポートすることができる。
本発明は、特定の態様において説明してきたが、多数の追加的な変更及び変形が、当業者にとって明らかである。従って、本発明の範囲尾及び精神から逸脱することなしに、本発明を、具体的に説明してきた以外の方法で実現することができることは明らかであり、こうした方法は、(それに限定されないが)代案の表示技術(例えば、没入型体験装置)のような、本明細書中に説明したもの以外の種々の実現の変更をを含む。従って、本発明の実施形態は、あらゆる点で例示的であり限定的ではないものとして考えるべきである。
Claims (30)
- 多次元データ空間の可視化像を生成するデータ可視化システムであって、
表示装置と、
コンピュータシステムとを具え、
該コンピュータシステムは、
3Dデータ可視化アプリケーションを含むメモリと、
処理システムとを具え、
前記3Dデータ可視化アプリケーションは、
前記メモリ内にある可視化テーブル内にデータ点の集合をロードすることを前記処理システムに指示し、前記データ点の各々は複数データ次元の値を含み、追加的な可視性値が、可視性の次元で、前記可視化テーブル内の前記データ点の各々に割り当てられ、
前記データ点の集合に対応する3Dオブジェクトの集合の表現を生成することを前記処理システムに指示し、該3Dオブジェクトの各々が、当該3Dオブジェクトをレンダリングする方法を定める可視化属性の集合を有し、該可視化属性は、3つの空間次元を有する仮想空間内の当該3Dオブジェクトの位置を含み、
データ次元を前記可視化属性にマップするマッピングを受信することを処理システムに指示し、
前記3Dオブジェクトの集合の前記可視化属性を、前記データ次元を前記3Dオブジェクトの属性にマップする選択したマッピングに基づいて決定することを前記処理システムに指示し、前記データ次元を前記3Dオブジェクトの属性にマップする前記選択したマッピングは、前記仮想空間内の前記3Dオブジェクトの各々の位置を定め、
複数の前記3Dオブジェクトの各々について、前記可視化テーブル内の可視性の次元を、データ次元を前記可視化属性にマップする前記選択したマッピングに基づいて、前記3Dオブジェクトの可視性を反映するように更新することを前記処理システムに指示し、
前記3Dオブジェクトの3Dデータ可視化像を、受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることを前記処理システムに指示する、
データ可視化システム。 - 前記表示装置が3D表示装置であり、
前記3Dオブジェクトの前記3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、前記3D表示装置により表示されるステレオ画像をレンダリングすることを含む、
請求項1に記載のデータ可視化システム。 - 前記3Dデータ可視化アプリケーションを、3Dレンダリング・エンジンを用いて実現する、請求項1に記載のデータ可視化システム。
- 前記3Dデータ可視化アプリケーションの実現が、さらに、前記3Dレンダリング・エンジンにより実行されるスクリプトに頼る、請求項3に記載のデータ可視化システム。
- 前記可視化属性が、
X座標、
Y座標、
Z座標、
形状、
サイズ、
カラーパレット、
カラーマップ、
カラースケール、
透明度、
ID、
URL、
マスク、
表示可否、
3Dオブジェクトの動き、
音発生、
触覚フィードバック、及び
振動触覚フィードバック
から成るグループから選択した少なくとも1つの属性を含む、請求項1に記載のデータ可視化システム。 - データ次元を前記可視化属性にマップする前記マッピングを受信することが、データ次元を前記可視化属性にマップする前記マッピングのユーザ選択を受信することをさらに含む、請求項1に記載のデータ可視化システム。
- データ次元を前記可視化属性にマップする前記マッピングを受信することが、記憶されている、データ次元を前記可視化属性にマップする前記マッピングの集合を検索することをさらに含む、請求項1に記載のデータ可視化システム。
- 前記3Dオブジェクトの前記3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、
複数の可視の前記3Dオブジェクトの前記可視化属性に基づいて、3Dオブジェクトの少なくとも1グループを生成することと、
前記3Dオブジェクトの少なくとも1グループの3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることと
を含む、請求項1に記載のデータ可視化システム。 - 前記3Dオブジェクトの前記3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、
前記ユーザ入力に応答して、前記仮想空間内の仮想環境の一部分を形成する前記3Dオブジェクトを変更して、前記データ点の集合に対応する3Dオブジェクトが前記仮想空間内に静止したままであり、前記仮想環境の一部分を形成する前記3Dオブジェクトの前記変更に起因して、前記3Dデータ可視化像内の前記仮想環境に対して変化して見えるようにすることと、
前記データ点の集合に対応する可視の前記3Dオブジェクト及び前記仮想環境の一部分を形成する前記3Dオブジェクトをレンダリングすることと
を含む、請求項1に記載のデータ可視化システム。 - 前記ユーザ入力に応答して、前記仮想空間内の前記仮想環境の一部分を形成する前記3Dオブジェクトを変更することが、
ユーザの命令に応答して、前記仮想環境の一部分を形成する前記3Dオブジェクトのサイズを変更することにより、前記データ点の集合に対応する前記3Dオブジェクトのサイズを変更して、前記データ点の集合に対応する前記3Dオブジェクトが前記仮想環境に対してサイズを変化させている印象を生成すること、
前記ユーザの命令に応答して、前記仮想環境の一部分を形成する前記3Dオブジェクトの位置を移動させることにより、前記データ点の集合に対応する前記3Dオブジェクトを移動させて、前記データ点の集合に対応する前記3Dオブジェクトが前記仮想環境に対して移動している印象を生成すること、及び
前記ユーザの命令に応答して、前記仮想環境の一部分を形成する前記3Dオブジェクトの位置を移動させることにより、前記データ点の集合に対応する前記3Dオブジェクトを回転させて、前記データ点の集合に対応する前記3Dオブジェクトが前記仮想環境に対して回転している印象を生成すること
を含むグループから選択した少なくとも1つの変更を含む、請求項9に記載のデータ可視化システム。 - 前記3Dオブジェクトの3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、
前記3Dオブジェクトの少なくとも一部を照明し、前記照明される3Dオブジェクトの各々は、ユーザの視点において発光する指向性照明光源を用いて照明されることと、
少なくとも前記照明される3Dオブジェクトを、前記ユーザの視点に基づいてレンダリングすることと
を含む、請求項1に記載のデータ可視化システム。 - 前記3Dオブジェクトの少なくとも一部を照明することが、
視野を測定することと、
前記3Dオブジェクトを、前記ユーザの視点において発光する指向性照明光源を用いて、ユーザの前記視野内で照明することと、
前記ユーザの視野内で照明される前記3Dオブジェクトをレンダリングすることと
を含む、請求項11に記載のデータ可視化システム。 - 前記3Dオブジェクトの前記3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、
前記3Dオブジェクトの少なくとも一部を、前記ユーザの視点に基づいて回転させて、前記回転する3Dオブジェクトの外観が前記ユーザの視点に対して不変であるようにすることと、
前記回転する3Dオブジェクトを、前記ユーザの視点に基づいてレンダリングすることと
を含む、請求項1に記載のデータ可視化システム。 - 前記3Dオブジェクトの前記3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、
前記仮想空間内の少なくとも1つのインタラクション・プリミティブの位置を、前記ユーザの視点に基づいて決定することと、
前記少なくとも1つのインタラクション・プリミティブを、前記ユーザの視点に基づいてレンダリングすることと
を含む、請求項1に記載のデータ可視化システム。 - 前記少なくとも1つのインタラクション・プリミティブの透明度を、前記ユーザの視点に基づいて決定することを含む、請求項14に記載のデータ可視化システム。
- 前記3Dオブジェクトが、深さの知覚を保つ形状を有する3Dオブジェクトを含む、請求項1に記載のデータ可視化システム。
- 前記データ次元を前記可視化属性にマップする前記マッピングを受信することが、
対象の特徴の選択を受信することと、
前記複数のデータ次元の少なくとも部分集合の、前記対象の特徴にとっての重要度を特定することと、
高い前記重要度を有する前記データ次元を特定の前記可視化属性にマップするマッピングを生成することと
を含む、請求項1に記載のデータ可視化システム。 - 前記複数のデータ次元の少なくとも部分集合の、前記対象の特徴にとっての重要度を特定することが、
数値的であるデータ次元及びカテゴリー的であるデータ次元を識別することと、
高い重要度を有する前記数値的であるデータ次元を、前記可視化属性の第1集合にマップするマッピングを生成することと、
高い重要度を有する前記カテゴリー的であるデータ次元を、前記可視化属性の第2集合にマップするマッピングを生成することと
をさらに含む、請求項17に記載のデータ可視化システム。 - 前記可視化属性の第1集合が、X位置、Y位置、Z位置、及びサイズを含む、請求項18に記載のデータ可視化システム。
- 前記可視化属性の第2集合が形状を含む、請求項19に記載のデータ可視化システム。
- 前記3Dデータ可視化アプリケーションが、さらに、
前記データ次元を前記可視化属性にマップする少なくとも1つの更新されたマッピングを受信することを前記処理システムに指示し、
前記データ次元を前記3Dオブジェクトの属性にマップする前記選択したマッピングに基づいて、前記3Dオブジェクトの集合に対する更新された前記可視化属性を決定することを、前記処理システムに指示し、前記データ次元を前記可視化属性にマップする前記更新されたマッピングは、更新された前記仮想空間内の可視の前記3Dオブジェクトの各々の位置を定め、
可視の前記3Dオブジェクトの集合について、当該集合内のそれぞれの前記3Dオブジェクトの、前記仮想空間内の位置から前記仮想空間内の更新された位置までの軌跡を生成することを、前記処理システムに指示し、
前記仮想空間内の位置から前記仮想空間内の更新された位置までの前記生成された軌跡に沿った前記3Dオブジェクトの移動のアニメーションを、前記受信したユーザ入力に基づいて決まる視点から対話形式でレンダリングすることを、前記処理システムに指示する、
請求項1に記載のデータ可視化システム。 - 前記3Dデータ可視化アプリケーションが、さらに、前記複数の3Dオブジェクトの各々について、更新された可視性の値を、前記更新されたマッピングに基づいて前記3Dオブジェクトの各々の可視性を反映するように決定することを、前記処理システムに指示する、請求項21に記載のデータ可視化システム。
- 前記生成された軌跡に沿った前記3Dオブジェクトの移動のアニメーションを対話形式でレンダリングすることが、レンダリングされた前記アニメーション中で、前記3Dオブジェクトの異なる集合が当該3Dオブジェクトの軌跡に沿った移動を開始する時刻を変化させることをさらに含む、請求項22に記載のデータ可視化システム。
- 前記レンダリングされたアニメーション中で、前記3Dオブジェクトの異なる集合が当該3Dオブジェクトの軌跡に沿った移動を開始する時刻を、ユーザ入力に基づいて決定する、請求項23に記載のデータ可視化システム。
- 前記生成された軌跡に沿った前記3Dオブジェクトの移動のアニメーションを対話形式でレンダリングすることが、前記レンダリングされたアニメーション中で、前記3Dオブジェクトの異なる集合が当該3Dオブジェクトの軌跡に沿って移動する速度を変化させることをさらに含む、請求項21に記載のデータ可視化システム。
- 前記3Dオブジェクトの前記3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、
少なくとも1つのアフォーダンスの前記仮想空間内の位置を決定することであって、該少なくとも1つのアフォーダンス上への前記3Dデータ可視化像の移動を指示するユーザ入力が、前記3Dデータ可視化像の変更を開始することと、
前記少なくとも1つのアフォーダンス上への前記3Dデータ可視化像の移動を検出することと、
前記少なくとも1つのアフォーダンスのうちの1つに基づいて、前記3Dデータ可視化像を変更することと、
前記変更した3Dデータ可視化像を、前記ユーザの視点に基づいてレンダリングすることと
を含む、請求項1に記載のデータ可視化システム。 - 前記少なくとも1つのアフォーダンスのうちの1つに基づいて前記3Dデータ可視化像を変更することが、前記3Dデータ可視化像のサイズを変更することを含む、請求26に記載のデータ可視化システム。
- 前記メモリがアバター・メタデータをさらに含み、該アバター・メタデータは、アバターをレンダリングする方法を定める前記可視化属性の集合を含み、前記可視化属性は、前記仮想空間内の前記アバターの位置を含み、
前記3Dオブジェクトの前記3Dデータ可視化像を、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることが、前記視点及び前記アバター・メタデータに基づいて、前記3Dデータ可視化像内に前記アバターをレンダリングすることを含む、
請求項1に記載のデータ可視化システム。 - 前記アバター・メタデータがポーズ情報をさらに含み、
前記視点及び前記アバター・メタデータに基づいて、前記3Dデータ可視化像内に前記アバターをレンダリングすることが、前記アバター・メタデータ内の前記ポーズ情報に基づいて、前記3Dデータ可視化像内に前記アバターのポーズをレンダリングすることをさらに含む、
請求項28に記載のデータ可視化システム。 - 多次元データ空間の可視化像を生成するデータ可視化システムであって、
3D表示装置と、
コンピュータシステムとを具え、
該コンピュータシステムは、
3Dデータ可視化アプリケーションを含むメモリと、
処理システムとを具え、
前記3Dデータ可視化アプリケーションは、
前記メモリ内にある可視化テーブル内にデータ点の集合をロードすることを前記処理システムに指示し、前記データ点の各々は複数データ次元の値を含み、追加的な可視性値が、可視性の次元で、前記可視化テーブル内の前記データ点の各々に割り当てられ、
前記データ点の集合に対応する3Dオブジェクトの集合の表現を生成することを前記処理システムに指示し、該3Dオブジェクトの各々が、当該3Dオブジェクトをレンダリングする方法を定める可視化属性の集合を有し、該可視化属性は、3つの空間次元を有する仮想空間内の当該3Dオブジェクトの位置を含み、
ユーザが選択した、データ次元を前記可視化属性にマップするマッピングを受信することを処理システムに指示し、
前記3Dオブジェクトの集合の前記可視化属性を、前記データ次元を前記3Dオブジェクトの属性にマップする選択したマッピングに基づいて決定することを前記処理システムに指示し、前記データ次元を前記3Dオブジェクトの属性にマップする前記選択したマッピングは、前記仮想空間内の前記3Dオブジェクトの各々の位置を定め、
複数の前記3Dオブジェクトの各々について、前記可視化テーブル内の可視性の次元を、データ次元を前記可視化属性にマップする前記選択したマッピングに基づいて、前記3Dオブジェクトの可視性を反映するように更新することを前記処理システムに指示し、
前記3Dオブジェクトの3Dデータ可視化像を、前記3Dディスプレイにより表示されるステレオ画像として、受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングすることを前記処理システムに指示し、
前記レンダリングすることは、
複数の可視の前記3Dオブジェクトの前記可視化属性に基づいて、3Dオブジェクトの少なくとも1グループを生成し、
前記ユーザ入力に応答して、前記仮想空間内の仮想環境の一部分を形成する前記3Dオブジェクトを変更して、前記3Dオブジェクトの前記少なくとも1グループが前記仮想空間内に静止したままであり、前記仮想環境の一部分を形成する前記3Dオブジェクトの前記変更に起因して、前記3Dデータ可視化像内の前記仮想環境に対して変化して見えるようにし、
前記3Dオブジェクトの前記少なくとも1グループ及び前記仮想環境の一部分を形成する前記3Dオブジェクトに相当する可視の前記3Dオブジェクトを、前記受信したユーザ入力に基づいて決まる視点から前記仮想空間内に対話形式でレンダリングする
ことによって行う、データ可視化システム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562232119P | 2015-09-24 | 2015-09-24 | |
US62/232,119 | 2015-09-24 | ||
US201662365837P | 2016-07-22 | 2016-07-22 | |
US62/365,837 | 2016-07-22 | ||
PCT/US2016/053842 WO2017054004A1 (en) | 2015-09-24 | 2016-09-26 | Systems and methods for data visualization using tree-dimensional displays |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018533099A true JP2018533099A (ja) | 2018-11-08 |
Family
ID=58387512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018502734A Pending JP2018533099A (ja) | 2015-09-24 | 2016-09-26 | 三次元ディスプレイを用いたデータ可視化システム及び方法 |
Country Status (4)
Country | Link |
---|---|
US (2) | US9665988B2 (ja) |
EP (1) | EP3353751A4 (ja) |
JP (1) | JP2018533099A (ja) |
WO (1) | WO2017054004A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020184259A (ja) * | 2019-05-09 | 2020-11-12 | 株式会社日立製作所 | ソフトウェア解析支援システムおよびそのコンピュータプログラム |
KR102319568B1 (ko) * | 2021-05-31 | 2021-11-01 | 주식회사 트라이폴리곤 | 3d 모델링 방법 및 이러한 방법을 수행하는 장치 |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10127574B2 (en) * | 2011-11-30 | 2018-11-13 | Cynthia Brown | Internet marketing analytics system |
US11232626B2 (en) * | 2011-12-21 | 2022-01-25 | Twenieth Century Fox Film Corporation | System, method and apparatus for media pre-visualization |
US10453242B2 (en) * | 2014-10-29 | 2019-10-22 | Hewlett-Packard Development Company, L.P. | Visualization including multidimensional graphlets |
US11287653B2 (en) | 2015-09-09 | 2022-03-29 | Vantrix Corporation | Method and system for selective content processing based on a panoramic camera and a virtual-reality headset |
US12063380B2 (en) | 2015-09-09 | 2024-08-13 | Vantrix Corporation | Method and system for panoramic multimedia streaming enabling view-region selection |
US10419770B2 (en) | 2015-09-09 | 2019-09-17 | Vantrix Corporation | Method and system for panoramic multimedia streaming |
US10694249B2 (en) * | 2015-09-09 | 2020-06-23 | Vantrix Corporation | Method and system for selective content processing based on a panoramic camera and a virtual-reality headset |
US11108670B2 (en) | 2015-09-09 | 2021-08-31 | Vantrix Corporation | Streaming network adapted to content selection |
JP2018533099A (ja) | 2015-09-24 | 2018-11-08 | カリフォルニア インスティチュート オブ テクノロジー | 三次元ディスプレイを用いたデータ可視化システム及び方法 |
US10134179B2 (en) | 2015-09-30 | 2018-11-20 | Visual Music Systems, Inc. | Visual music synthesizer |
US20180300326A1 (en) * | 2017-04-17 | 2018-10-18 | The Boeing Company | Three-Dimensional Massive Model Visualization Database System |
JP6972647B2 (ja) * | 2017-05-11 | 2021-11-24 | 富士フイルムビジネスイノベーション株式会社 | 三次元形状データの編集装置、及び三次元形状データの編集プログラム |
RU2669716C1 (ru) * | 2017-05-12 | 2018-10-15 | Общество с ограниченной ответственностью "ВИЗЕКС ИНФО" | Система и способ для обработки и анализа больших объемов данных |
EP3451231A1 (en) * | 2017-08-31 | 2019-03-06 | Fujitsu Limited | Imagification of multivariate data |
US11620315B2 (en) * | 2017-10-09 | 2023-04-04 | Tableau Software, Inc. | Using an object model of heterogeneous data to facilitate building data visualizations |
WO2019113299A1 (en) * | 2017-12-06 | 2019-06-13 | Reconstructor Holdings Llc | Methods and systems for representing relational information in 3d space |
US10929476B2 (en) * | 2017-12-14 | 2021-02-23 | Palantir Technologies Inc. | Systems and methods for visualizing and analyzing multi-dimensional data |
US20190188893A1 (en) * | 2017-12-18 | 2019-06-20 | Dataview Vr, Llc | Simulated reality data representation system and method |
US10855564B2 (en) | 2018-01-15 | 2020-12-01 | Worcester Polytechnic Institute | Visualization of network data as a three-dimensional hierarchical data structure in a mixed reality environment |
US10854003B2 (en) | 2018-01-15 | 2020-12-01 | Worcester Polytechnic Institute | Visualization of network data as a three-dimensional hierarchical data structure in a mixed reality environment |
US10438414B2 (en) | 2018-01-26 | 2019-10-08 | Microsoft Technology Licensing, Llc | Authoring and presenting 3D presentations in augmented reality |
CN108346172B (zh) * | 2018-02-26 | 2021-10-08 | 中译语通科技股份有限公司 | 多维空间数据点阵vr展示方法及系统 |
US11461629B1 (en) * | 2018-03-05 | 2022-10-04 | Meta Platforms, Inc. | Neural network model visualization |
US11307880B2 (en) | 2018-04-20 | 2022-04-19 | Meta Platforms, Inc. | Assisting users with personalized and contextual communication content |
US10782986B2 (en) | 2018-04-20 | 2020-09-22 | Facebook, Inc. | Assisting users with personalized and contextual communication content |
US11886473B2 (en) | 2018-04-20 | 2024-01-30 | Meta Platforms, Inc. | Intent identification for agent matching by assistant systems |
US10861238B2 (en) | 2018-05-14 | 2020-12-08 | Microsoft Technology Licensing, Llc | Experiential representation of data in mixed reality |
WO2019221767A1 (en) | 2018-05-14 | 2019-11-21 | Virtualitics, Inc. | Systems and methods for high dimensional 3d data visualization |
US11562514B2 (en) * | 2018-09-07 | 2023-01-24 | Siemens Healthcare Diagnostics Inc. | Instrument analyzers, data displays, and display methods |
US11107274B2 (en) * | 2018-09-17 | 2021-08-31 | Purdue Research Foundation | Methods of processing three dimensional models |
WO2020068788A1 (en) * | 2018-09-24 | 2020-04-02 | K2M, Inc. | System and method for isolating anatomical features in computerized tomography data |
CN113039584A (zh) * | 2018-10-21 | 2021-06-25 | 甲骨文国际公司 | 交互式数据浏览器和3-d仪表盘环境 |
US10353073B1 (en) * | 2019-01-11 | 2019-07-16 | Nurulize, Inc. | Point cloud colorization system with real-time 3D visualization |
US11037126B2 (en) * | 2019-07-09 | 2021-06-15 | Visa International Service Association | Systems and methods for assessing electronic payment readiness |
US11010015B2 (en) | 2019-08-07 | 2021-05-18 | Fmr Llc | Systems and methods for filtering data in virtual reality environments |
CN112489185B (zh) * | 2019-08-20 | 2023-12-12 | 黎欧思照明(上海)有限公司 | 一种基于空间数据采集的集成灯光建模方法 |
CN110599600B (zh) * | 2019-09-16 | 2023-05-23 | 海南诺亦腾海洋科技研究院有限公司 | 数据的多维可视化模型的自动转化方法 |
CN111354085A (zh) * | 2020-02-26 | 2020-06-30 | 广州奇境科技有限公司 | 沉浸式交互Box影像制作方法 |
JP7517405B2 (ja) * | 2020-03-06 | 2024-07-17 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
CN111563357B (zh) * | 2020-04-28 | 2024-03-01 | 纳威科技有限公司 | 电子器件的三维可视化显示方法及系统 |
US11487781B2 (en) | 2020-05-08 | 2022-11-01 | International Business Machines Corporation | Visualizing sparse multi-dimensional data |
US11282267B2 (en) | 2020-07-02 | 2022-03-22 | Cognizant Technology Solutions India Pvt. Ltd. | System and method for providing automated data visualization and modification |
US10949058B1 (en) | 2020-09-03 | 2021-03-16 | Fmr Llc | Generating and manipulating three-dimensional (3D) objects in a 3D environment of an alternative reality software application |
CN112419482B (zh) * | 2020-11-23 | 2023-12-01 | 太原理工大学 | 深度点云融合的矿井液压支架群位姿三维重建方法 |
US11615504B2 (en) * | 2021-04-13 | 2023-03-28 | Qualcomm Incorporated | Methods and apparatus for scalable primitive rate architecture for geometry processing |
US20220375156A1 (en) * | 2021-05-19 | 2022-11-24 | Red Hat, Inc. | Multi-sensory representation of datasets in a virtual reality environment |
US20220382779A1 (en) * | 2021-05-28 | 2022-12-01 | Imply Data, Inc. | Dynamic Query Engine for Data Visualization |
US11551402B1 (en) * | 2021-07-20 | 2023-01-10 | Fmr Llc | Systems and methods for data visualization in virtual reality environments |
US12100077B2 (en) * | 2022-05-04 | 2024-09-24 | Red Hat, Inc. | Visual database system for multidimensional data representation |
US12007963B1 (en) | 2023-04-25 | 2024-06-11 | Bank Of America Corporation | System and method for processing resources and associated metadata in the metaverse using knowledge graphs |
CN117853824B (zh) * | 2024-03-04 | 2024-05-07 | 北京国星创图科技有限公司 | 一种基于大数据的3d沙盘投影分析方法 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5461708A (en) | 1993-08-06 | 1995-10-24 | Borland International, Inc. | Systems and methods for automated graphing of spreadsheet information |
US6057856A (en) | 1996-09-30 | 2000-05-02 | Sony Corporation | 3D virtual reality multi-user interaction with superimposed positional information display for each user |
US6154723A (en) | 1996-12-06 | 2000-11-28 | The Board Of Trustees Of The University Of Illinois | Virtual reality 3D interface system for data creation, viewing and editing |
US6456285B2 (en) * | 1998-05-06 | 2002-09-24 | Microsoft Corporation | Occlusion culling for complex transparent scenes in computer generated graphics |
US6750864B1 (en) | 1999-11-15 | 2004-06-15 | Polyvista, Inc. | Programs and methods for the display, analysis and manipulation of multi-dimensional data implemented on a computer |
CA2403300A1 (en) * | 2002-09-12 | 2004-03-12 | Pranil Ram | A method of buying or selling items and a user interface to facilitate the same |
AU2003226357A1 (en) * | 2002-04-10 | 2003-10-27 | Imagine Xd, Inc. | System and method for visualizing data |
US8131471B2 (en) | 2002-08-08 | 2012-03-06 | Agilent Technologies, Inc. | Methods and system for simultaneous visualization and manipulation of multiple data types |
US8042056B2 (en) * | 2004-03-16 | 2011-10-18 | Leica Geosystems Ag | Browsers for large geometric data visualization |
US7283654B2 (en) | 2004-08-26 | 2007-10-16 | Lumeniq, Inc. | Dynamic contrast visualization (DCV) |
US20070211056A1 (en) * | 2006-03-08 | 2007-09-13 | Sudip Chakraborty | Multi-dimensional data visualization |
KR101257849B1 (ko) * | 2006-09-29 | 2013-04-30 | 삼성전자주식회사 | 3차원 그래픽 객체 렌더링 방법 및 장치, 이를 위한 렌더링객체 최소화 방법 및 장치 |
US9098559B2 (en) * | 2007-08-31 | 2015-08-04 | Sap Se | Optimized visualization and analysis of tabular and multidimensional data |
GB2458927B (en) * | 2008-04-02 | 2012-11-14 | Eykona Technologies Ltd | 3D Imaging system |
KR101590763B1 (ko) * | 2009-06-10 | 2016-02-02 | 삼성전자주식회사 | Depth map 오브젝트의 영역 확장을 이용한 3d 영상 생성 장치 및 방법 |
US8890946B2 (en) | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
WO2011160196A2 (pt) * | 2010-06-24 | 2011-12-29 | Associação Instituto Nacional De Matemática Pura E Aplicada | Método de organização de dados multidimensionais |
US20140151035A1 (en) | 2011-07-28 | 2014-06-05 | Schlumberger Technology Corporation | System and method for performing wellbore fracture operations |
US9824469B2 (en) | 2012-09-11 | 2017-11-21 | International Business Machines Corporation | Determining alternative visualizations for data based on an initial data visualization |
WO2014130044A1 (en) | 2013-02-23 | 2014-08-28 | Hewlett-Packard Development Company, Lp | Three dimensional data visualization |
WO2014193418A1 (en) | 2013-05-31 | 2014-12-04 | Hewlett-Packard Development Company, L.P. | Three dimensional data visualization |
US20150113460A1 (en) | 2013-10-23 | 2015-04-23 | Wal-Mart Stores, Inc. | Data Analytics Animation System and Method |
US20150205840A1 (en) | 2014-01-17 | 2015-07-23 | Crytek Gmbh | Dynamic Data Analytics in Multi-Dimensional Environments |
US9734595B2 (en) | 2014-09-24 | 2017-08-15 | University of Maribor | Method and apparatus for near-lossless compression and decompression of 3D meshes and point clouds |
JP2018533099A (ja) | 2015-09-24 | 2018-11-08 | カリフォルニア インスティチュート オブ テクノロジー | 三次元ディスプレイを用いたデータ可視化システム及び方法 |
DE102015221998B4 (de) | 2015-11-09 | 2019-01-17 | Siemens Healthcare Gmbh | Verfahren zur Unterstützung eines Befunders bei der Ortsbeschreibung einer Zielstruktur in einer Brust, Vorrichtung und Computerprogramm |
US10977435B2 (en) | 2015-12-28 | 2021-04-13 | Informatica Llc | Method, apparatus, and computer-readable medium for visualizing relationships between pairs of columns |
US10482196B2 (en) | 2016-02-26 | 2019-11-19 | Nvidia Corporation | Modeling point cloud data using hierarchies of Gaussian mixture models |
EP3474742A4 (en) | 2016-06-24 | 2020-01-08 | Analytics For Life Inc. | NON-INVASIVE METHOD AND SYSTEM FOR MEASURING MYOCARDIAL ISCHEMIA, IDENTIFICATION, LOCATION AND ESTIMATION OF THE FRACTIONAL FLOW RESERVE (FFR) OF A STENOSIS |
US9953372B1 (en) | 2017-05-22 | 2018-04-24 | Insurance Zebra Inc. | Dimensionality reduction of multi-attribute consumer profiles |
-
2016
- 2016-09-26 JP JP2018502734A patent/JP2018533099A/ja active Pending
- 2016-09-26 EP EP16849900.2A patent/EP3353751A4/en not_active Withdrawn
- 2016-09-26 WO PCT/US2016/053842 patent/WO2017054004A1/en active Application Filing
- 2016-09-26 US US15/276,742 patent/US9665988B2/en active Active
-
2017
- 2017-03-21 US US15/465,528 patent/US10417812B2/en active Active
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020184259A (ja) * | 2019-05-09 | 2020-11-12 | 株式会社日立製作所 | ソフトウェア解析支援システムおよびそのコンピュータプログラム |
WO2020226027A1 (ja) * | 2019-05-09 | 2020-11-12 | 株式会社日立製作所 | ソフトウェア解析支援システムおよびそのコンピュータプログラム |
CN113678099A (zh) * | 2019-05-09 | 2021-11-19 | 株式会社日立制作所 | 软件分析辅助系统及其计算机程序 |
GB2600556A (en) * | 2019-05-09 | 2022-05-04 | Hitachi Ltd | Software analysis assistance system and computer program for same |
JP7261083B2 (ja) | 2019-05-09 | 2023-04-19 | 株式会社日立製作所 | ソフトウェア解析支援システム |
US11693653B2 (en) | 2019-05-09 | 2023-07-04 | Hitachi, Ltd. | Software analysis support system and computer program therefor |
CN113678099B (zh) * | 2019-05-09 | 2023-08-11 | 株式会社日立制作所 | 软件分析辅助系统及其计算机可读记录介质 |
KR102319568B1 (ko) * | 2021-05-31 | 2021-11-01 | 주식회사 트라이폴리곤 | 3d 모델링 방법 및 이러한 방법을 수행하는 장치 |
Also Published As
Publication number | Publication date |
---|---|
US20170092008A1 (en) | 2017-03-30 |
EP3353751A1 (en) | 2018-08-01 |
WO2017054004A8 (en) | 2018-02-08 |
WO2017054004A1 (en) | 2017-03-30 |
US10417812B2 (en) | 2019-09-17 |
US20170193688A1 (en) | 2017-07-06 |
EP3353751A4 (en) | 2019-03-20 |
US9665988B2 (en) | 2017-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10417812B2 (en) | Systems and methods for data visualization using three-dimensional displays | |
Zhao et al. | Metaverse: Perspectives from graphics, interactions and visualization | |
Jankowski et al. | Advances in interaction with 3D environments | |
EP3304252B1 (en) | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality | |
Linowes | Unity virtual reality projects | |
Mario A. Gutiérrez A. et al. | Stepping into virtual reality | |
CN105981076B (zh) | 合成增强现实环境的构造 | |
US12093704B2 (en) | Devices, methods, systems, and media for an extended screen distributed user interface in augmented reality | |
Olson | Perspectives on structural molecular biology visualization: from past to present | |
Medeiros et al. | Proposal and evaluation of a tablet-based tool for 3D virtual environments | |
US11640700B2 (en) | Methods and systems for rendering virtual objects in user-defined spatial boundary in extended reality environment | |
Baker et al. | Human factors in virtual environments for the visual analysis of scientific data | |
Berki | Navigation power of MaxWhere: a unique solution | |
Thiel et al. | Interaction and locomotion techniques for the exploration of massive 3D point clouds in VR environments | |
Capece et al. | A preliminary investigation on a multimodal controller and freehand based interaction in virtual reality | |
Beckhaus | Dynamic potential fields for guided exploration in virtual environments | |
Paes et al. | The relevance of visual cues in immersive environments: Does pictorial realism matter? | |
Eitsuka et al. | Authoring animations of virtual objects in augmented reality-based 3d space | |
Ha et al. | ARWand for an augmuented world builder | |
Piumsomboon | Natural hand interaction for augmented reality. | |
Kolokouris | Interactive presentation of cultural content using hybrid technologies, geographical systems and three-dimensional technologies. | |
Surya et al. | Virtual Laboratory in Mixed Reality with 3D Modelling for Sustainable Design | |
Pavlopoulou et al. | A Mixed Reality application for Object detection with audiovisual feedback through MS HoloLenses | |
Lee et al. | A Responsive Multimedia System (RMS): VR Platform for Immersive Multimedia with Stories | |
Zhao et al. | Visual Informatics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200915 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210413 |