JP7525515B2 - 空間認識システム、空間認識方法、および情報端末 - Google Patents
空間認識システム、空間認識方法、および情報端末 Download PDFInfo
- Publication number
- JP7525515B2 JP7525515B2 JP2021569678A JP2021569678A JP7525515B2 JP 7525515 B2 JP7525515 B2 JP 7525515B2 JP 2021569678 A JP2021569678 A JP 2021569678A JP 2021569678 A JP2021569678 A JP 2021569678A JP 7525515 B2 JP7525515 B2 JP 7525515B2
- Authority
- JP
- Japan
- Prior art keywords
- spatial
- coordinate system
- information terminal
- sign
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 33
- 230000009466 transformation Effects 0.000 claims description 54
- 238000005259 measurement Methods 0.000 claims description 50
- 230000001131 transforming effect Effects 0.000 claims 3
- 239000013598 vector Substances 0.000 description 86
- 238000006243 chemical reaction Methods 0.000 description 47
- 230000006870 function Effects 0.000 description 37
- 238000010586 diagram Methods 0.000 description 25
- 238000004891 communication Methods 0.000 description 23
- 238000012545 processing Methods 0.000 description 21
- 230000014509 gene expression Effects 0.000 description 20
- 239000003550 marker Substances 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 238000010422 painting Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 230000005484 gravity Effects 0.000 description 5
- 238000012423 maintenance Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000005358 geomagnetic field Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000008571 general function Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/80—Recognising image objects characterised by unique random patterns
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
図1~図12を用いて、本発明の実施の形態1の空間認識システムおよび方法について説明する。図1等に示す実施の形態1の空間認識システムおよび方法においては、情報端末1が、使用する対象の空間2の空間データ6を保有する場合と、情報端末1が外部ソースから空間データ6を取得する場合とがある。後者の場合は、図1に示した例のように、情報端末1が例えばサーバ4から空間データ6を取得する。空間データ6は、空間2の形状等が記述されたデータである。空間2は、例えば建物内の部屋やエリア等である。空間2には、予め、その空間2および空間データ6に対応付けられた識別情報(ID)が、標識3等の形態で掲示・表示される。予め、各空間2のIDや形状等を表す空間データ6が、ライブラリーとされて、情報端末1またはサーバ4のDB5に登録されている。空間データ6の構成や方式の詳細については限定しない。
図1は、実施の形態1の空間認識システムの構成を示す。本例では、情報端末1が使用する対象の空間2を、建物内の1つの部屋とし、情報端末1として特にHMD1Aを使用する場合を説明する。実施の形態1の空間認識システムは、ユーザU1が携帯または装着する情報端末1と、情報端末1の使用対象となる空間2と、サーバ4を利用する場合、空間データ6が登録されているサーバ4とを有する。情報端末1は、無線LANのアクセスポイント23等を通じて、インターネットやモバイル網等を含む通信網に接続される。情報端末1は、通信網を介して、サーバ4等の外部装置と通信する。なお、一人のユーザ、1台の情報端末1、および1つの空間2のみを図示しているが、これに限らず、複数のユーザの複数の情報端末および複数の空間を有し、それぞれに同様に適用可能である。
実施の形態1では、情報端末1と空間2(対応する空間データ6)において、実空間内の位置等を指定するための基準となる座標系を、世界座標系と呼ぶ。図1の情報端末1は、自機の位置や向きを表す世界座標系として、端末座標系WAを有する。端末座標系WAは、情報端末1の位置、向き(言い換えると姿勢、回転の状態)、画像表示位置等を認識し制御するための座標系である。空間2は、その空間2の位置や向きを表す世界座標系として、空間座標系W1を有する。空間データ6は、空間座標系W1で記述されている。端末座標系WAと空間座標系W1は基本的に異なる座標系である。各世界座標系の原点および方向は、実空間(地球や地域等)内に固定されている。これらの座標系は、最初の状態では一致していない。
図2は、実施の形態1の空間認識方法の概要を示す。この方法は、図示するステップS1~S5を有する。
図3は、空間2の構成例、および空間2と標識3の位置関係例を示す。この空間2は、例えば会社等の建物内の1つの部屋、例えば第7会議室である。ユーザU1は、情報端末1を使用する対象の空間2である部屋に入る前に、標識3を確認する。ユーザU1は、その場所で情報端末1であるHMD1aを通じて標識3を見る。その際、情報端末1は、標識3からのIDの認識に基づいてこの空間2に対応付けられた空間データ6(例えばID=101の空間データD101)を取得するとともに、この空間2の空間座標系W1に対する端末座標系WAの座標系ペアリングを行う。これにより、この情報端末1の端末座標系WAは、その空間2の空間座標系W1に適合する。言い換えると、それらの座標系を全体で概略的に1つの座標系とみなして、位置認識が共有できる状態となる。ユーザU1は、その部屋に入り、その部屋内でHMD1aを使用する。HMD1aは、その空間データ6を用いて、その空間2の形状等に合わせた位置21にARの仮想画像22を速やかに高精度に表示することができる。
情報端末1は、図2の空間形状データ6Aを含む空間データ6を扱うことができるAR等の機能(対応するアプリケーションプログラム等)を有する。空間形状データ6Aは、例えば空間2を構成する複数の面の面データの集合を持つポリゴンデータである。具体的には、空間形状データ6Aは、床、壁、天井等のデータや、机2a、ホワイトボード2b、その他の設備等のデータがある。なお、空間2の境界は、必ずしも壁等の実物に限らず、ユーザに見えない境界であってもよい。空間2内に配置されている物体は、ユーザに見えない物体、例えば壁内にある設備や配管等であってもよい。それらの構成は、空間データ6の内容の設定に応じたものであり、限定しない。実施の形態1では、説明上わかりやすいように、標識データ6B等を含むデータ群を総称して空間データ6としたが、このような構成に限らず可能である。
図5は、標識3の構成例を示す。図5の(A)は第1例、(B)は第2例、(C)は第3例、(D)は第4例である。(A)での標識3は、横長の矩形の板等の面(標識面と記載する場合がある)に、部屋の名称を示す「第7会議室」文字列が記載されている。本例では、標識面は、空間座標系W1のY1-Z1面に配置されている。また、本例では、標識面の一箇所に、空間2のID301が直接的に文字列として記載されている。情報端末1は、カメラ12によってそのID301を認識できる。この標識3の形状等の構成は、標識データ6Bに記述されている。この標識面は、4個の角点を有し、そのうちの3個の角点として、点p1,p2,p3が、予め測定対象となる特定の対象物である特徴点として規定されている。例えば、点p1は標識面の左上の角点、点p2は標識面の左下の角点、点p3は標識面の右上の角点として規定されている。測定対象位置情報6Cには、その3個の特徴点、または対応する2つの特徴線の指定を含む。言い換えると、測定対象位置情報6Cには、標識3の左辺と上辺との2つの特徴線(対応する2つの特定方向)を測定すべきという指示を含む。また、点p1は、標識3の代表的な位置を表す特徴点として規定されている。なお、説明のために点p1等の特徴点やベクトルv1等の特徴線を図示しているが、実際には記載されない。もしくは、あえて標識面に特徴点や特徴点が特定の画像として記載されて、ユーザおよび情報端末1から認識できるようにしてもよい。
図6は、情報端末1の一例としてのHMD1Aの外観構成例を示す。このHMD1Aは、眼鏡状の筐体10に、表示面11を含む表示デバイスを備える。この表示デバイスは、例えば透過型表示デバイスであり、表示面11には外界の実像が透過され、その実像上に画像が重畳表示される。筐体10には、コントローラ、カメラ12、測距センサ13、他のセンサ部14等が実装されている。
図8は、図1等に対応する実空間内で、ユーザU1の情報端末1であるHMD1Aが、対象の空間2の空間データ6を用いて座標系ペアリングを行う場合の、座標系や諸量に関する説明図を示す。情報端末1は、座標系ペアリングとして、対象の空間2の空間座標系W1に対し自機の端末座標系WAを適合させる動作、言い換えると、端末座標系WAと空間座標系W1とを関連付ける動作を行う。以下では、あるHMD1Aの端末座標系WAとある空間2の空間座標系W1との間で座標系ペアリングを行う場合について記述する。
実施の形態1では、座標系ペアリングの際の諸量として、以下の要素の情報を有する。諸量は、第1情報として特定方向ベクトルと、第2情報として世界座標値と、第3情報として標識位置ベクトルとを有する。詳しくは、図8に示すように、空間2に対応する標識3側の諸量802(図2の諸量データ202)は、(1)第1特定方向ベクトルN1、(2)第2特定方向ベクトルM1、(3)標識3の位置L1に関する座標値d1、という3つの情報を有する。情報端末1側の諸量801(図2の諸量データ201)は、(1)第1特定方向ベクトルNA、(2)第2特定方向ベクトルMA、(3)情報端末1の位置LAに関する座標値dA、(4)標識位置ベクトルP1A、という4つの情報を有する。これらについて以下に順に説明する。
上記座標系ペアリングの際の諸量の取得および測定によって、情報端末1は、標識3との関係から、端末座標系WAと空間座標系W1との関係が分かり、2つの座標系間の変換パラメータ7を計算できる。この変換パラメータ7で表される変換は、空間座標系W1を端末座標系WAに合わせるための変換、あるいは、その逆に端末座標系WAを空間座標系WAに合わせるための変換である。変換パラメータ7は、2つの座標系(WA,W1)の3軸の方向についての変換(言い換えると回転)と、2つの座標系(WA,W1)の原点(OA,O1)の差との計算用パラメータである。図8中には、変換パラメータ7の例として、空間座標系W1での位置等を端末座標系WAでの位置等に合わせるための変換を規定した変換パラメータ7のテーブル例を示す。この変換パラメータ7のテーブルは、構成例として、空間座標系W1の識別情報と、端末座標系WAの識別情報と、それらの2つの座標系間の回転の表現の情報(後述のqA1)と、それらの2つの座標系間の原点の表現の情報(原点間ベクトルo1A)とを有する。
図9は、情報端末1の制御フローを示す。図9のフローは、ステップS11~S17を有する。ステップS11で、情報端末1は、カメラ12や測距センサ13等を用いて、標識3を認識し、標識3から空間2のIDを取得する。情報端末1は、この標識3の認識に基づいて座標系ペアリングの確立の手続きを開始する。
図10は、座標系ペアリングの際における情報端末1の表示面11でのAR表示例を示す。情報端末1は、空間認識機能に係わるグラフィカル・ユーザ・インタフェース(GUI)として、ユーザU1に操作や状態を伝えるための画面表示やそれに伴う音声出力を行ってもよい。本例は、図9のステップS15で情報端末1が諸量801を測定する時に、表示面11にガイドのための画像を表示する例を示す。本例は、ユーザU1が図3のように部屋の前で図5の(B)のような標識3を見た時の状態を示す。表示面11には標識3が見えている。情報端末1は、図9のステップS11で、カメラ12の画像に基づいて標識3を認識する。この際、情報端末1は、例えば画像1001や画像1002を実像上に重畳表示する。
以下では、図8の端末座標系WAと空間座標系W1との間での座標変換の詳細について補足説明する。まず、座標系の関係を説明するための記法をまとめる。実施の形態では、座標系は右手系に統一し、座標系の回転を表すために正規化四元数を用いる。正規化四元数とは、ノルムが1の四元数であり、軸の回りの回転を表すことができる。任意の座標系の回転はこのような正規化四元数で表現できる。単位ベクトル(nX,nY,nZ)を回転軸とした角度ηの回転を表す正規化四元数qは、下記の式1となる。i,j,kは四元数の単位である。単位ベクトル(nX,nY,nZ)の方向に向いた場合の右回りの回転が、ηが正の回転方向である。
式1: q=cos(η/2)+nXsin(η/2)i+nYsin(η/2)j+nZsin(η/2)k
式2: [q]=q/(qq*)1/2
式3: p=pXi+pYj+pZk
式4: PT(n)p=p+nSc(np)
式5: p2=qp1q*
式6: R(n1,n2)=[1-n2n1]
図11は、座標系の変換についての説明図を示す。図11の(A)は、図8と同様に、端末座標系WAと空間座標系W1との異なる2つの座標系間で、実空間内の同じ位置21に関する表現と、座標原点(OA,O1)の差の表現とを示す。位置21の表現として、位置ベクトルGA、位置座標値rA、位置ベクトルG1および位置座標値r1を有する。座標原点の差の表現として、原点間ベクトルo1A,oA1を有する。原点間ベクトルo1Aは、端末座標系WAでの空間座標系W1の原点O1の表現である。原点間ベクトルoA1は、空間座標系W1での端末座標系WAの原点OAの表現である。
qT1=R(nA,n1)
nA1=qT1nAqT1*=n1
mA1=qT1mAqT1*
qT2=R([PT(n1)mA1],[PT(n1)m1])
n1=qT2nA1qT2*
m1=qT2mA1qT2*
q1A=qT2qT1
n1=q1AnAq1A*
m1=q1AmAq1A
qA1=q1A*
式A:
o1A=dA+P1A-qA1d1qA1*
oA1=d1-q1A(dA+P1A)q1A*
oA1=-q1Ao1Aq1A*
r1=q1A(rA-o1A)q1A* =q1ArAq1A*+oA1
rA=qA1(r1-oA1)qA1* =qA1r1qA1*+o1A
図12は、情報端末1が座標系ペアリング後に空間2の空間データ6を利用する例を示す。図12の例では、ユーザU1が情報端末1を使用する空間2である部屋内において、空間データ6で記述されている配置物として、天井1201、壁1202、壁1203、および絵画1204等がある。図示省略するユーザU1の情報端末1である例えばHMD1Aは、前述の標識3に基づいて空間データ6を取得して座標系ペアリングを行うことにより、部屋内の壁1202,1203や絵画1204等の位置や形状を認識できる。本例ではそれらの配置物は概略的に平面で構成されている。例えば、壁1203は、空間座標系W1で、4つの角点の位置の座標値を持つ。絵画1204は、壁1203の平面に沿って配置されており、同様に4つの角点(点p121~p124)の位置の座標値を持つ。
上記のように、実施の形態1の空間認識システムおよび方法によれば、情報端末1側の座標系と空間2側の座標系とが一致していない状態からでも、情報端末1が空間2を好適に認識して利用でき、情報端末1が空間データ6を好適に利用できる。情報端末1は、標識3から空間データ6を特定できるとともに、標識3の場所で座標系ペアリングを速やかに行うことができる。情報端末1は、座標系ペアリングによって、対象の空間2との間で位置認識を共有でき、所望の位置21にARの仮想画像22を速やかに高精度に表示できる。また、情報端末1によって空間データ6を利用して様々な機能やサービスをユーザに対し提供することができる。
実施の形態1に関する変形例として以下も可能である。ユーザU1の情報端末1が対象の空間2に入る前の標識3の認識時に、座標系ペアリングにおいて座標系間の適合に誤差が生じる場合があり得る。この場合を考慮し、変形例において、情報端末1には、座標系ペアリングの誤差の調整を行う機能を有してもよい。具体的には、情報端末1は、ある空間2に関連付けられた1つ以上の標識3の各標識3の認識毎に、あるいは同じ標識3でも各回の認識毎に、座標系ペアリングの誤差の調整を行う。また、情報端末1は、空間2内の配置物の位置、特徴点や特徴線を用いて、変換パラメータ7を調整してもよい。例えば図12を用いて説明すると、情報端末1は、図3のような標識3に基づいた座標系ペアリング後、部屋内で、天井1201や壁1202,1203に関する境界線1211,1212,1213を特徴線とし、境界線1211,1212,1213の交点1214を特徴点として用いて、変換パラメータ7に関する調整を行ってもよい。この場合、調整の際の情報端末1による空間2との位置関係の探索・測定は、一旦標識3との座標系ペアリングによって初期設定として基本的な位置認識が確立されている状態での探索・測定となる。そのため、この際の空間データ6内の特徴点や特徴線が実物のどの点や線に対応しているかについての探索・測定は、従来技術のように全く位置関係が分からない場合に比べ、高速に実行できる。
座標系ペアリング時の空間2内の配置物、特に、図3の机2a等の可動物は、サーバ4のDB5に登録されている空間データ6中の配置物の位置等の状態とは異なっている可能性がある。例えばユーザが机2aを動かしたかもしれない。変形例において、情報端末1は、このような配置物の変動を考慮した機能も有する。情報端末1は、上記調整を含む座標系ペアリングの際には、空間データ6に基づいて、位置変動の可能性が無いまたは低い配置物の特徴点等を用いて、諸量の測定等の処理を行う。位置変動の可能性が無いまたは低い配置物は、壁や天井、あるいはそれらに固定して設置された物体等である。情報端末1は、測定対象位置情報6Cに基づいてそのような配置物を選び、変換パラメータ7の調整に使用する。予め、空間データ6の記述において、そのような位置変動の可能性が無いまたは低い配置物と、位置変動の可能性が高い配置物とを区別して記述しておいてもよい。例えば配置物毎の属性や種類の値として可動有無等が設定されていてもよい。
変形例として、サーバ4または他の装置に、ユーザU1の情報端末1毎の変換パラメータ7を登録してもよい。例えば、図9のステップS16で、ユーザU1の情報端末1は、変換パラメータ7を生成した後、サーバ4にその変換パラメータ7をそのユーザU1の情報端末1用のものとして登録してもよい。この場合、ユーザU1は、同じ空間2を2回目以降に利用する場合には、標識3のIDに基づいて、サーバ4から空間データ6と変換パラメータ7をダウンロードして利用できる。この方法は、情報端末1の端末座標系WAが常に同じ場合等、基準となる端末座標系WAを持つ場合に有効である。
実施の形態1では、情報端末1は、座標系ペアリングの際に、空間2側の諸量802(図8)として、図3のような標識3中の規定の特徴点または特徴線を使用した。これに限らず、変形例として、空間2側の諸量802としては、実空間内において測定できる特定方向についての空間座標系W1での表現を用いてもよい。また、その特定方向としては、鉛直下方向(重力方向)や地磁気方向を用いてもよい。
図15~図20等を用いて、本発明の実施の形態2の空間認識システム等について説明する。以下では、実施の形態2等における実施の形態1とは異なる構成部分について説明する。実施の形態2では、空間認識の対象となる空間を、管理上、複数の領域に分割し、領域毎に前述の1つの空間2として扱う場合を示す。1つの空間2が大きすぎる場合、空間データ6が大きくなり、処理効率や処理速度等が悪くなる可能性が想定される。そこで、実施の形態2は、1つの空間2を適度な大きさの領域として空間データ6を設定する。これにより、処理効率向上等が図れ、有効である。
図15は、空間における複数の領域への分割の一例を示す。図15は、ある建物の空間1500を俯瞰した平面構成の模式図である。この空間1500は、複数の部屋またはエリアや、通路を有する。この空間1500は、複数の領域1501、例えば4個の領域R1~R4に分割されている。各領域1501は、3次元領域であり、実施の形態1での1つの空間2に相当する。領域1501毎にIDが付与されている。なお、本例では、1つの領域1501は1つの部屋等には対応していないが、他の構成では、1つの領域1501を1つの部屋等に対応付けて設定してもよい。本例では、1つのフロアが概略的に同程度の大きさの4個のエリアに対応する4個の領域1501(R1~R4)に分割されている。また、境界を跨ぐ配置物もあるので、ある領域1501と隣接する他の領域1501とで一部が重複していてもよい。例えば領域R1と領域R2は一部の領域R12が重複している。
また、実施の形態2では、空間1500内の領域1501毎に、座標系ペアリングとして適合する端末座標系を異ならせることも可能である。この異ならせることとは、同じユーザU1の情報端末1が、領域1501に応じて適した端末座標系を設定し直すことと捉えてもよいし、領域1501に応じて異なる端末座標系を使い分けることと捉えてもよい。また、複数のユーザの複数の情報端末1におけるそれぞれの端末座標系を、それぞれの領域1501に割り当てることも可能である。
また、図15のような空間1500における隣接する領域1501で、空間データ6をスムーズに利用するために、情報端末1は、隣接する領域1501間での座標変換を可能とする変換パラメータ7を生成および保持してもよい。例えば、領域R1と領域R2との重複する領域R12では、領域R1の空間座標系W1と、領域R2の空間座標系W2との間での変換のための変換パラメータが利用される。
図19は、他の変形例として、隣接する領域1501で使用していたそれぞれの端末座標系間の変換に関する変換パラメータ7の構成例を示す。この変換パラメータ7のテーブルは、「隣接端末座標系」項目を有する。この「隣接端末座標系」項目は、隣接する2つの領域1501で使用される2つの端末座標系の識別情報が格納される。例えば、ユーザU1の情報端末1は、領域R1では端末座標系WAを使用し、隣接する領域R2では別の端末座標系WBを使用する。その場合、情報端末1は、例えば領域R12の標識H12の場所で、次に使用する新たな端末座標系WBを定義する時点で、1行目のように、端末座標系WAと端末座標系WBとの間の変換のパラメータ(qBA,oAB)を生成し設定する。図19のような変換パラメータ7を用いることで、情報端末1は、領域1501間での端末座標系間の切り替えをより高速に実現できる。
図15のように、ユーザU1の情報端末1が、建物の空間1500の外部から建物内に入る際に、標識H0または最初の領域R1の標識H1を利用し、外部の座標系から建物内部の座標系への変換のための変換パラメータ7を生成してもよい。外部の座標系は、例えば緯度・経度・高度を用いた地球や地域等で共通の座標系(例えば図7のGPS受信器144で測位できる座標系)がある。建物内部の座標系は、例えば領域R1~R4の空間座標系である。逆に、ユーザU1の情報端末1が建物の空間1500から外部に出る際に、逆の変換のための変換パラメータ7を生成してもよい。これにより、建物内部のみならず、外部の座標系と建物内部の座標系との間でも変換によって情報端末1の位置認識を連続させることができる。
図20は、空間の分割に関する他の構成例を示す。本例は、ショッピングモール等の建物に対応する全体の空間2000において、複数の領域2001が、例えば店舗テナント毎の領域2001(例:R21,R22,……,R25)として設定されている。例えば領域R21は店舗A用の領域であり、領域R22は店舗B用の領域である。各領域2001のサイズや形状は、店舗テナント等の都合に合わせて、柔軟、詳細に、空間データ6(特に空間形状データ6A)に設定される。また、本例では、領域2001間に重複領域を設けていない。本例では、空間2000の入口付近の看板等において標識H0が設けられている。ユーザU1の情報端末1(例えばHMD1A)は、標識H0からは、建物全体の空間2000についての地図や経路案内を含む空間データ6を取得できる。この空間データ6は、複数の領域2001についての各空間データ6を含んでもよいし、あるいは、ユーザU1が一部の領域2001の空間データ6を選択して取得できるようにしてもよい。各領域2001(R21~R25)には、標識3(例:H21,H22,……,H25)が設置されており、それぞれ対応付けられるID(例:1,2,……,5)を有し、それぞれ空間データ6(例:DR21,DR22,……,DR25)が対応付けられている。
他の実施の形態として以下も可能である。
図21には、変形例として、例えば店舗内での利用の場合の空間2の構成例を示す。ある店舗の空間2内において、複数の商品が販売されている。空間2は、フロア、エリア、通路、棚2100等で区分されており、各商品の位置は、それらと対応付けて管理されている。空間2内の所定の位置には、看板または表示装置等の配置物2101があり、その配置物2101において標識3が構成されている。この標識3は、表示装置の表示画面に画像として表示される態様としてもよい。その場合、標識3の内容の変更が容易に可能である。この標識3には、例えば広告としてある商品Xの情報やコード画像が記載されている。商品購入者であるユーザU1は、情報端末1によって標識3を認識する。情報端末1は、空間データ6を取得し、店舗の空間座標系W1に対する座標系ペアリングを行う。空間データ6には、空間座標系W1における標識3の位置、対象の商品Xの位置、標識3から商品Xまでの経路2103、等の情報が記述されている。
変形例として、空間データ6についての取得権限を設けてもよい。例えば、情報端末1は、標識3の認識時にIDを取得し、そのIDとともに要求をサーバ4へ送信する。サーバ4は、その要求に対し、取得権限の確認のために認証用情報の要求を情報端末1へ送信する。情報端末1は、その要求に対し、ユーザID(または端末ID)およびパスワード等の認証用情報をサーバ4に送信する。サーバ4は、情報端末1から受信した認証用情報を用いた認証によって、対象の空間データ6の取得が許可されるユーザおよび情報端末であること、すなわち取得権限があることを確認する。サーバ4は、権限が確認できた場合には、対象の空間データ6をその情報端末1に応答として送信し、権限が確認できない場合には送信しない。
他の変形例として、情報端末1は、標識3の認識から、前述のIDのみならず、所定の制御情報(言い換えると端末制御情報)を自動的に取得し、その制御情報に従って自動的に制御を実行する。この端末制御情報は、例えばアプリケーションプログラム起動制御情報やファイル指定情報が挙げられる。例えば、ある標識3には、そのような制御情報がコード化された画像が記載される。情報端末1は、標識3のその画像からデコードによってIDおよび制御情報を取得する。情報端末1は、その制御情報に従って、指定されたアプリケーションを起動し、指定されたファイルを自動的に開く。情報端末1は、そのアプリケーションおよびファイルに対応する情報を、表示面11に表示する。アプリケーションの例は、AR機能に関するものが挙げられる。
図22は、他の変形例における標識3の構成例を示す。標識3は、空間2内に配置されている物体2200に設定されていてもよい。図22の例では、空間2(模式的に床のみを示す)内に、物体2200として、所定の作業の作業対象物がある。ユーザU1は、その作業を行う人であるとする。この物体2200は、特に可動物であってもよく、ユーザU1によって動かされる場合がある。すなわち、この物体2200は、空間2(対応する空間座標系W1)内での位置等が変わる場合がある。
Claims (17)
- 空間認識システムであって、
画像を表示する表示面と、カメラと、センサとを備え、端末座標系を有する情報端末と、
前記端末座標系と異なる空間座標系により記述された空間データを保存するサーバと、
空間に設けられ、前記空間データを特定する識別情報が記載されている標識と、
を備え、
前記空間データは、前記空間を構成する配置物の形状を示す空間形状データと、前記センサにより前記標識と前記情報端末との位置と向きを測定する際の基準となる測定対象位置が規定された測定対象位置情報とを含み、
前記情報端末は、
前記カメラにより撮影された前記標識から前記識別情報を取得し、
前記識別情報を用いて特定した前記空間データを前記サーバから取得し、
前記空間データに含まれる前記測定対象位置情報を用いて、前記センサにより前記情報端末と前記標識との位置および向きを測定し、
前記センサにより測定された位置と向きと、前記空間データとを用いて、前記空間座標系と前記端末座標系との間の変換のための変換パラメータを生成し、
前記変換パラメータを用いて、前記空間座標系により記述された仮想物体の位置を前記端末座標系に変換し、
前記端末座標系に変換された位置に前記仮想物体を表示する、
空間認識システム。 - 請求項1記載の空間認識システムにおいて、
前記標識には、前記識別情報をコード化した画像が記載されており、
前記情報端末は、前記標識の前記画像を前記カメラによって認識し、デコードして前記識別情報を取得する、
空間認識システム。 - 請求項1記載の空間認識システムにおいて、
前記標識は、前記空間を構成する床、壁、または天井に設定されている、
空間認識システム。 - 請求項1記載の空間認識システムにおいて、
前記標識は、前記空間に配置されている表示装置に表示される、
空間認識システム。 - 請求項1記載の空間認識システムにおいて、
前記情報端末は、前記標識を認識する際に、前記表示面に前記情報端末のユーザに対するガイドのための仮想画像を表示する、
空間認識システム。 - 請求項1記載の空間認識システムにおいて、
前記空間は、複数の領域に分割されており、
前記空間データは、前記複数の領域に対応付けられた複数の空間データを有する、
空間認識システム。 - 請求項1記載の空間認識システムにおいて、
前記情報端末は、前記空間内における前記標識の位置または前記情報端末の現在位置から、所定の物体の位置または前記情報端末のユーザの指定する位置までの経路案内を、前記表示面への仮想画像の表示によって行う、
空間認識システム。 - 端末座標系を有する情報端末の空間認識方法であって、
前記情報端末は、表示デバイスと、空間に設けられた標識を撮影するカメラと、前記端末座標系と異なる空間座標系により記述された空間データを保存するメモリと、前記情報端末と前記標識との位置と向きを測定するセンサと、を備え、
前記空間データは、前記標識の位置や形状を前記空間座標系で記述した標識データと、
前記空間を構成する配置物の形状を示す空間形状データと、前記センサにより前記情報端末と前記標識との位置と向きを測定する際の基準となる測定対象位置が規定された測定対象位置情報とを含み、
前記空間認識方法は、
前記カメラにより撮影された前記標識から前記空間データを特定する識別情報を取得するステップと、
前記メモリから前記識別情報を用いて特定した前記空間データを取得するステップと、
前記空間データに含まれる前記測定対象位置情報を用いて、前記センサにより前記標識と前記情報端末との位置と向きを測定するステップと、
前記センサにより測定された位置と向きと、前記空間データとを用いて、前記空間座標系と前記端末座標系との間の変換のための変換パラメータを生成するステップと、
前記変換パラメータを用いて、前記空間座標系により記述された仮想物体の位置を前記端末座標系に変換するステップと、
前記端末座標系に変換された位置に前記仮想物体を表示するステップと、
を有する、空間認識方法。 - 請求項8記載の空間認識方法において、
前記標識には、前記識別情報をコード化した画像が記載されており、
前記情報端末は、前記標識の前記画像を前記カメラによって認識し、デコードして前記識別情報を取得する、
空間認識方法。 - 請求項8記載の空間認識方法において、
前記情報端末は、前記標識を認識する際に、前記表示デバイスに前記情報端末のユーザに対するガイドのための仮想画像を表示する、
空間認識方法。 - 請求項8記載の空間認識方法において、
前記空間は、複数の領域に分割されており、
前記空間データは、前記複数の領域に対応付けられた複数の空間データを有する、
空間認識方法。 - 請求項8記載の空間認識方法において、
前記情報端末は、前記空間内における前記標識の位置または前記情報端末の現在位置から、所定の物体の位置または前記情報端末のユーザの指定する位置までの経路案内を、前記表示デバイスへの仮想画像の表示によって行う、
空間認識方法。 - 端末座標系を有する情報端末であって、
表示デバイスと、
空間に設けられた標識を撮影するカメラと、
前記端末座標系と異なる空間座標系により記述された空間データを保存するメモリと、
前記情報端末と前記標識との位置と向きを測定するセンサと、
プロセッサと、
を備え、
前記空間データは、前記標識の位置や形状を前記空間座標系で記述した標識データと、前記空間を構成する配置物の形状を示す空間形状データと、前記センサにより前記情報端末と前記標識との位置と向きを測定する際の基準となる測定対象位置が規定された測定対象位置情報とを含み、
前記プロセッサは、
前記カメラにより撮影された前記標識から前記空間データを特定する識別情報を取得し、
前記メモリから前記識別情報を用いて特定した前記空間データを取得し、
前記空間データに含まれる前記測定対象位置情報を用いて、前記標識と前記情報端末との位置と向きを測定するように前記センサを制御し、
前記センサにより測定された位置と向きと、前記空間データとを用いて、前記空間座標系と前記端末座標系との間の変換のための変換パラメータを生成し、
前記変換パラメータを用いて、前記空間座標系により記述された仮想物体の位置を前記端末座標系に変換し、
前記端末座標系に変換された位置に前記仮想物体を表示するように前記表示デバイスを制御する、
情報端末。 - 請求項13記載の情報端末において、
前記標識には、前記識別情報をコード化した画像が記載されており、
前記情報端末は、前記標識の前記画像を前記カメラによって認識し、デコードして前記識別情報を取得する、
情報端末。 - 請求項13記載の情報端末において、
前記情報端末は、前記標識を認識する際に、前記表示デバイスに前記情報端末のユーザに対するガイドのための仮想画像を表示する、
情報端末。 - 請求項13記載の情報端末において、
前記空間は、複数の領域に分割されており、
前記空間データは、前記複数の領域に対応付けられた複数の空間データを有する、
情報端末。 - 請求項13記載の情報端末において、
前記情報端末は、前記空間内における前記標識の位置または前記情報端末の現在位置から、所定の物体の位置または前記情報端末のユーザの指定する位置までの経路案内を、前記表示デバイスへの仮想画像の表示によって行う、
情報端末。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/000521 WO2021140631A1 (ja) | 2020-01-09 | 2020-01-09 | 空間認識システム、空間認識方法、および情報端末 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021140631A1 JPWO2021140631A1 (ja) | 2021-07-15 |
JP7525515B2 true JP7525515B2 (ja) | 2024-07-30 |
Family
ID=76787905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021569678A Active JP7525515B2 (ja) | 2020-01-09 | 2020-01-09 | 空間認識システム、空間認識方法、および情報端末 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230035962A1 (ja) |
JP (1) | JP7525515B2 (ja) |
CN (1) | CN115004238A (ja) |
WO (1) | WO2021140631A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3640767B1 (de) * | 2018-10-17 | 2024-09-11 | Siemens Schweiz AG | Verfahren zum bestimmen mindestens eines bereichs in mindestens einem eingabemodell für mindestens ein zu platzierendes element |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003281504A (ja) | 2002-03-22 | 2003-10-03 | Canon Inc | 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム |
JP2011186808A (ja) | 2010-03-09 | 2011-09-22 | Sony Corp | 情報処理装置、マップ更新方法、プログラム及び情報処理システム |
WO2011118282A1 (ja) | 2010-03-24 | 2011-09-29 | 株式会社日立製作所 | 世界座標系データベースを利用したサーバ及び端末 |
WO2014136700A1 (ja) | 2013-03-06 | 2014-09-12 | 株式会社メガチップス | 拡張現実提供システム、記録媒体および拡張現実提供方法 |
JP2015176516A (ja) | 2014-03-18 | 2015-10-05 | 富士通株式会社 | 表示装置、表示制御プログラム、および表示制御方法 |
WO2017122367A1 (ja) | 2016-01-15 | 2017-07-20 | 株式会社meleap | 画像表示システム、画像表示システムの制御方法、画像配信システムおよびヘッドマウントディスプレイ |
WO2018123022A1 (ja) | 2016-12-28 | 2018-07-05 | 株式会社メガハウス | コンピュータプログラム、表示装置、頭部装着型表示装置、マーカ |
JP2019153274A (ja) | 2018-02-28 | 2019-09-12 | 東芝デジタルソリューションズ株式会社 | 位置算出装置、位置算出プログラム、位置算出方法、及びコンテンツ付加システム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110248995A1 (en) * | 2010-04-09 | 2011-10-13 | Fuji Xerox Co., Ltd. | System and methods for creating interactive virtual content based on machine analysis of freeform physical markup |
US20120249416A1 (en) * | 2011-03-29 | 2012-10-04 | Giuliano Maciocci | Modular mobile connected pico projectors for a local multi-user collaboration |
WO2015112108A1 (en) * | 2012-11-28 | 2015-07-30 | Visa International Service Association | Multi disparate gesture actions and transactions apparatuses, methods and systems |
US10335677B2 (en) * | 2014-12-23 | 2019-07-02 | Matthew Daniel Fuchs | Augmented reality system with agent device for viewing persistent content and method of operation thereof |
US10438414B2 (en) * | 2018-01-26 | 2019-10-08 | Microsoft Technology Licensing, Llc | Authoring and presenting 3D presentations in augmented reality |
US10546169B2 (en) * | 2018-03-22 | 2020-01-28 | Hall Labs Llc | Augmented reality navigation system |
CN110390365B (zh) * | 2018-04-16 | 2022-11-22 | 台达电子工业股份有限公司 | 载具追踪系统及方法 |
US10964110B2 (en) * | 2018-05-07 | 2021-03-30 | Vmware, Inc. | Managed actions using augmented reality |
US20190347856A1 (en) * | 2018-05-09 | 2019-11-14 | Jong Shyr Huang | Affixing Digital Content to Physical Objects in Augmented Reality |
US12039231B2 (en) * | 2020-03-31 | 2024-07-16 | Augmentecture, Inc. | Method and apparatus utilizing augmented reality for design collaboration |
-
2020
- 2020-01-09 CN CN202080092284.5A patent/CN115004238A/zh active Pending
- 2020-01-09 US US17/790,515 patent/US20230035962A1/en active Pending
- 2020-01-09 WO PCT/JP2020/000521 patent/WO2021140631A1/ja active Application Filing
- 2020-01-09 JP JP2021569678A patent/JP7525515B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003281504A (ja) | 2002-03-22 | 2003-10-03 | Canon Inc | 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム |
JP2011186808A (ja) | 2010-03-09 | 2011-09-22 | Sony Corp | 情報処理装置、マップ更新方法、プログラム及び情報処理システム |
WO2011118282A1 (ja) | 2010-03-24 | 2011-09-29 | 株式会社日立製作所 | 世界座標系データベースを利用したサーバ及び端末 |
WO2014136700A1 (ja) | 2013-03-06 | 2014-09-12 | 株式会社メガチップス | 拡張現実提供システム、記録媒体および拡張現実提供方法 |
JP2015176516A (ja) | 2014-03-18 | 2015-10-05 | 富士通株式会社 | 表示装置、表示制御プログラム、および表示制御方法 |
WO2017122367A1 (ja) | 2016-01-15 | 2017-07-20 | 株式会社meleap | 画像表示システム、画像表示システムの制御方法、画像配信システムおよびヘッドマウントディスプレイ |
WO2018123022A1 (ja) | 2016-12-28 | 2018-07-05 | 株式会社メガハウス | コンピュータプログラム、表示装置、頭部装着型表示装置、マーカ |
JP2019153274A (ja) | 2018-02-28 | 2019-09-12 | 東芝デジタルソリューションズ株式会社 | 位置算出装置、位置算出プログラム、位置算出方法、及びコンテンツ付加システム |
Also Published As
Publication number | Publication date |
---|---|
US20230035962A1 (en) | 2023-02-02 |
JPWO2021140631A1 (ja) | 2021-07-15 |
WO2021140631A1 (ja) | 2021-07-15 |
CN115004238A (zh) | 2022-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101260576B1 (ko) | Ar 서비스를 제공하기 위한 사용자 단말기 및 그 방법 | |
US9558559B2 (en) | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system | |
JP5776201B2 (ja) | 情報処理装置、情報共有方法、プログラム及び端末装置 | |
JP7254943B2 (ja) | 情報端末装置および位置認識共有方法 | |
KR20200031312A (ko) | 가상현실 기반 인테리어 서비스 제공 방법 | |
WO2014162044A1 (en) | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system | |
JP6321570B2 (ja) | 屋内位置情報測位システム及び屋内位置情報測位方法 | |
US9035879B2 (en) | Digital signs | |
CN109154816A (zh) | 用于自主无人机导航的系统和方法 | |
US20150254511A1 (en) | Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information processing method | |
JP2019153274A (ja) | 位置算出装置、位置算出プログラム、位置算出方法、及びコンテンツ付加システム | |
JP2017212510A (ja) | 画像管理装置、プログラム、画像管理システム及び情報端末 | |
CN114092655A (zh) | 构建地图的方法、装置、设备及存储介质 | |
US11334174B2 (en) | Universal pointing and interacting device | |
JP7502346B2 (ja) | 空間認識システム、情報端末、および空間認識方法 | |
JP7525515B2 (ja) | 空間認識システム、空間認識方法、および情報端末 | |
KR20150077607A (ko) | 증강현실을 이용한 공룡 유적지 체험 서비스 제공 시스템 및 그 방법 | |
JP2021509214A (ja) | 移動可能オブジェクトを光学的慣性追跡するための方法及びシステム | |
KR20210025769A (ko) | 증강현실 기반 관람 가이드 서비스 방법 | |
JP7439398B2 (ja) | 情報処理装置、プログラム及び情報処理システム | |
US20240323240A1 (en) | Communication control server, communication system, and communication control method | |
US20240323249A1 (en) | Communication control server, communication system, and communication control method | |
KR20200004135A (ko) | 증강현실 기반의 모델하우스 가상이미지 제공방법 | |
CN108062786B (zh) | 以三维信息模型为基础的综合感知定位技术应用系统 | |
Tang | A mixed reality solution for indoor navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220704 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230912 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240220 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240612 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7525515 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |