Nothing Special   »   [go: up one dir, main page]

JP2024073077A - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP2024073077A
JP2024073077A JP2022184080A JP2022184080A JP2024073077A JP 2024073077 A JP2024073077 A JP 2024073077A JP 2022184080 A JP2022184080 A JP 2022184080A JP 2022184080 A JP2022184080 A JP 2022184080A JP 2024073077 A JP2024073077 A JP 2024073077A
Authority
JP
Japan
Prior art keywords
user
information
camera
terminal device
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022184080A
Other languages
English (en)
Inventor
裕樹 辻
Hiroki Tsuji
早百合 若林
Sayuri WAKABAYASHI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2022184080A priority Critical patent/JP2024073077A/ja
Priority to PCT/JP2023/040477 priority patent/WO2024106317A1/en
Publication of JP2024073077A publication Critical patent/JP2024073077A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】ユーザごとに応じた適切なXRコンテンツの提供を行うことができる情報処理装置および情報処理方法を提案する。【解決手段】情報処理装置は、XRコンテンツをユーザに提示する提示部と第1カメラとを有する端末装置、および、端末装置と同空間内に配置された第2カメラを有する撮像装置と通信可能に設けられた制御部を備える。制御部は、撮像装置が第2カメラの撮像画像に基づいて推定したユーザの属性を含むユーザ情報および当該ユーザの軌跡を示す軌跡情報を撮像装置から取得し、撮像装置によるユーザの軌跡情報と端末装置が示すユーザの軌跡情報とを照合することによってユーザ情報と端末装置を紐付け、端末装置が提示部に提示するXRコンテンツの態様をユーザ情報に応じて端末装置に変更させる。【選択図】図1

Description

本開示は、情報処理装置および情報処理方法に関する。
従来、VR(Virtual Reality)やAR(Augmented Reality)といった、仮想空間と現実空間を融合させる画像処理技術であるXR(Extended Reality、Cross Reality)が知られている。
このXRを用いたXRコンテンツは、ユーザが携帯するスマートフォンや、ユーザが頭部に装着するHMD(Head Mounted Display)などのXR端末を介してユーザへ提供される。
XR端末は、ディスプレイとカメラとを有し、カメラを通して見たあるいは画像処理を施したXR空間に対し、現実空間に存在する実物体に対応する仮想オブジェクトや現実空間には存在しない物体の仮想オブジェクトを表示させる。
なお、このようなXRコンテンツの提供にあたり、実物体に対応する仮想オブジェクトについては、カメラ画像における実物体の位置および姿勢の認識の安定度に応じて表示の乱れを抑制することで品質を高める技術が提案されている(例えば、特許文献1参照)。
特開2012-221250号公報
しかしながら、上述した従来技術には、ユーザごとに応じた適切なXRコンテンツの提供を行ううえで、さらなる改善の余地がある。
例えば、上述した従来技術は、別の言い方をすればカメラ画像における実物体の位置および姿勢に応じて仮想オブジェクトの表示を切り替えるものである。しかし、XRコンテンツは、例えばXR端末の位置および姿勢に応じても適切に仮想オブジェクトの表示を切り替えることが望ましい。
そして、XR端末の位置および姿勢は、例えばXR端末を利用するユーザの身長や挙動といったユーザごとの特徴に左右されやすい。この点、上述した従来技術は、カメラ画像における実物体の位置および姿勢を精度よく認識しようとするものに過ぎず、ユーザごとの特徴までも認識するものではない。
そこで、本開示では、ユーザごとに応じた適切なXRコンテンツの提供を行うことができる情報処理装置および情報処理方法を提案する。
上記の課題を解決するために、本開示に係る一形態の情報処理装置は、XRコンテンツをユーザに提示する提示部と第1カメラとを有する端末装置、および、前記端末装置と同空間内に配置された第2カメラを有する撮像装置と通信可能に設けられた制御部を備える。前記制御部は、前記撮像装置が前記第2カメラの撮像画像に基づいて推定したユーザの属性を含むユーザ情報および当該ユーザの軌跡を示す軌跡情報を前記撮像装置から取得し、前記撮像装置によるユーザの軌跡情報と前記端末装置が示すユーザの軌跡情報とを照合することによって前記ユーザ情報と前記端末装置を紐付け、前記端末装置が前記提示部に提示するXRコンテンツの態様を前記ユーザ情報に応じて前記端末装置に変更させる。
本開示の実施形態に係る情報処理方法の概要説明図(その1)である。 本開示の実施形態に係る情報処理方法の概要説明図(その2)である。 本開示の実施形態に係る情報処理方法の概要説明図(その3)である。 本開示の実施形態に係る情報処理システムの構成例を示す図である。 本開示の実施形態に係るXR端末の構成例を示すブロック図である。 本開示の実施形態に係る施設カメラの構成例を示すブロック図である。 本開示の実施形態に係るサーバ装置の構成例を示すブロック図である。 本開示の実施形態に係る情報処理システムが実行する処理シーケンスを示す図である。 変形例に係る情報処理システムのイメージ図である。 変形例に係る情報処理システムが実行する処理シーケンスを示す図である。 サーバ装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に「-n」(nは自然数)の形式で異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一の符号のみを付する。
また、以下では、「XR空間」は、VRにおける仮想現実空間、ARにおける拡張現実空間、MR(Mixed Reality)における複合現実空間、SR(Substitutional Reality)における代替現実空間など、仮想空間と現実空間を融合させる画像処理技術における各種空間を総称するものとする。
また、「XRコンテンツ」は、XR空間に対し、現実空間に存在する実物体や現実空間には存在しない物体にそれぞれ対応する各種の仮想オブジェクトを提示し、ユーザにXR空間における疑似体験を提供するコンテンツであるものとする。
また、以下では、本開示の実施形態(以下、適宜「本実施形態」と言う)に係る情報処理システム1が、美術館や博物館などの各種施設において、ユーザが利用するXR端末に対しXRコンテンツを提供する例を挙げる。
また、以下に示す項目順序に従って本開示を説明する。
1.概要
2.情報処理システムの構成
3.XR端末の構成
4.施設カメラの構成
5.サーバ装置の構成
6.処理手順
7.変形例
8.ハードウェア構成
9.むすび
<<1.概要>>
図1~図3は、本開示の実施形態に係る情報処理方法の概要説明図(その1)~(その3)である。図1に示すように、本実施形態に係る情報処理システム1は、XR端末10と、施設カメラ30と、サーバ装置100とを含む。
XR端末10は、ユーザUがXRコンテンツを楽しむためのアプリケーションソフトウェア(以下、「XRアプリ」と言う)を実行する端末装置である。XR端末10は、「端末装置」の一例に相当する。XR端末10は、例えばスマートフォンやHMDのほか、タブレット端末や、PC(Personal Computer)や、PDA(Personal Digital Assistant)などによって実現される。XR端末10がHMDである場合、側頭部の全周を回るバンドや頭頂部を通るバンドを用いたヘッドバンド型のHMDや、バイザー部分がディスプレイに相当するヘルメット型のHMDや、レンズ部分がディスプレイに相当する眼鏡型のHMD等であってもよい。
なお、図1には、XR端末10がスマートフォンであり、ユーザU-1がXR端末10-1を利用し、ユーザU-2がXR端末10-2を利用している例を示している。また、ユーザU-1およびユーザU-2は例えば親子であり、ユーザU-1がユーザU-2よりも高身長であるものとする。
施設カメラ30は、XR施設3に1以上設けられる。施設カメラ30は、「撮像装置」の一例に相当する。XR施設3は、ユーザUにXRコンテンツを提供可能な現実空間を有する施設である。XR施設3は、美術館や博物館など、ユーザUが屋内空間を移動しながらXRコンテンツを楽しめる施設であってもよいし、遊園地や街頭など、ユーザUが屋外空間を移動しながらXRコンテンツを楽しめる施設であってもよい。
施設カメラ30は、CPU(Central Processing Unit)等のプロセッサを搭載するインテリジェントカメラ(スマートカメラとも言う)である。施設カメラ30は、撮像画像に基づくユーザUの検知処理、検知したユーザUの属性の推定処理、検知したユーザUの追跡処理等の各種の情報処理を実行可能に設けられる。なお、図1には、XR施設3に少なくとも2台の施設カメラ30-1,30-2が設けられている例を示している。
サーバ装置100は、XR端末10および施設カメラ30を含むXR施設3内の各種装置と通信可能に設けられ、これら各種装置を管理・制御するコンピュータである。サーバ装置100は、XR施設3の内部に設けられてもよいし、外部に設けられてもよい。また、サーバ装置100は、1以上のコンピュータからなるパブリッククラウドサーバとして実現されてもよい。なお、以下では、サーバ装置100が実行する情報処理につき、仮想的に1台のサーバ装置100が行うものとして説明するが、サーバ装置100の物理的な台数を限定するものではない。例えばサーバ装置100がパブリッククラウドサーバとして実現される場合、サーバ装置100が実行する情報処理は、実際には1以上のコンピュータによって適宜分散して実行されてもよい。
サーバ装置100は、例えばXR端末10および施設カメラ30から取得した各種情報に基づいてユーザUとXR端末10とを紐付ける。また、サーバ装置100は、その紐付け結果に基づいて、ユーザUごとに応じた適切なXRコンテンツをXR端末10に提示させる。
具体的には、本実施形態に係る情報処理方法では、サーバ装置100が、施設カメラ30が当該施設カメラ30の撮像画像に基づいて推定したユーザUの属性を含むユーザ情報および当該ユーザUの軌跡を示す軌跡情報を施設カメラ30から取得し、施設カメラ30によるユーザUの軌跡情報とXR端末10が示すユーザUの軌跡情報とを照合することによってユーザ情報とXR端末10を紐付け、XR端末10が提示するXRコンテンツの態様をユーザ情報に応じてXR端末10に変更させる。
より具体的には、図1に示すように、本実施形態に係る情報処理方法では、まず施設カメラ30が、当該施設カメラ30の撮像画像に基づいてユーザUの属性を含むユーザ情報を推定するとともに、ユーザUの軌跡情報を記録する(ステップS1)。
ユーザUの属性は、例えばユーザUの身長などの外形的属性のほか、年齢や性別といったデモグラフィック属性を含む。ユーザUの軌跡情報は、XR施設3におけるユーザUごとの軌跡を示す情報である。
そして、サーバ装置100は、施設カメラ30によるユーザUの軌跡情報とXR端末10が示すユーザUの軌跡情報とを照合し、施設カメラ30が推定したユーザ情報とXR端末10を紐付ける(ステップS2)。
ステップS2では、図2に示すように、サーバ装置100は、施設カメラ30によるユーザUの軌跡情報とXR端末10が示す軌跡情報とを照合し、XR施設3における軌跡が近いものを同一ユーザとして紐付ける。XR端末10が示す軌跡情報は、例えばVPS(Visual Positioning Service)を利用して推定されるXR端末10の位置および姿勢を含むユーザ位置情報のログである。
なお、XR端末10が示す軌跡情報は、VPSを利用したものではなく、XR端末10から取得したGPS(Groval Positioning System)位置情報のログであってもよいし、XR施設3に1以上設けられたビーコン端末を利用したXR端末10の位置情報のログであってもよい。本実施形態は、VPSを利用するものとする。
図1の説明に戻る。そして、サーバ装置100は、各XR端末10に対し、ステップS2で紐付けたユーザ情報を送信し、このユーザ情報に応じて表示するXRコンテンツを自動的に変更させる(ステップS3)。
ステップS3では、図3に示すように、サーバ装置100は、例えば同じXRコンテンツの特定箇所に表示される仮想的なポスターXPにつき、ユーザU-2に比べて高身長であるユーザU-1のXR端末10-1に対してはこのポスターXPを位置P2よりも高位置である位置P1に表示させる。
一方、サーバ装置100は、同じポスターXPにつき、ユーザU-1に比して低身長であるユーザU-2のXR端末10-2に対しては、このポスターXPを位置P1よりも低位置である位置P2に表示させる。すなわち、サーバ装置100は、同じXRコンテンツであってもユーザUそれぞれの身長に応じた高さでポスターXPが表示されるように、仮想オブジェクトの表示を切り替える。
なお、このとき、ポスターXPの位置だけでなく、ユーザU-1に対しては大人向けの、ユーザU-2に対しては子供向けのポスターXPが表示されるように、ユーザUの年齢に応じて内容までも含めた仮想オブジェクトの表示の切り替えを行うようにしてもよい。この年齢や性別といったユーザUのデモグラフィック属性に応じた切り替えを行う変形例については、図9および図10を用いて後述する。
このように、本実施形態に係る情報処理方法では、サーバ装置100が、施設カメラ30が当該施設カメラ30の撮像画像に基づいて推定したユーザUの属性を含むユーザ情報および当該ユーザUの軌跡を示す軌跡情報を施設カメラ30から取得し、施設カメラ30によるユーザUの軌跡情報とXR端末10が示すユーザUの軌跡情報とを照合することによってユーザ情報とXR端末10を紐付け、XR端末10が提示するXRコンテンツの態様をユーザ情報に応じてXR端末10に変更させる。
したがって、本実施形態に係る情報処理方法によれば、ユーザUごとに応じた適切なXRコンテンツの提供を行うことができる。以下、本実施形態に係る情報処理方法を適用した情報処理システム1の構成例について、より具体的に説明する。
<<2.情報処理システムの構成>>
次に、図4は、本開示の実施形態に係る情報処理システム1の構成例を示す図である。なお、図4および後に示す図5~7を用いた説明では、既に説明済みの構成要素については、説明を簡略するか、省略する場合がある。
図4に示すように、情報処理システム1は、1以上のXR端末10と、1以上の施設カメラ30と、サーバ装置100とを含む。
XR端末10は、既に述べた通り、ユーザUが利用する端末装置である。XR端末10は、1以上のXRアプリがインストールされる。XR端末10は、ユーザUによって実行したいXRアプリが選択された場合に、当該アプリを起動し、実行する。
XR端末10と、施設カメラ30と、サーバ装置100とは、インターネットや携帯電話回線網等であるネットワークNを介して相互に通信可能に接続される。なお、少なくともXR端末10とサーバ装置100とは、所定の認証処理を経て認証済みである場合にのみ相互に通信可能となるようにしてもよい。
<<3.XR端末の構成>>
次に、図5は、本開示の実施形態に係るXR端末10の構成例を示すブロック図である。なお、図5および後に示す図6,7では、本実施形態の特徴を説明するために必要な構成要素のみを表しており、一般的な構成要素についての記載を省略している。
換言すれば、図5~図7に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。
図5に示すように、XR端末10は、センサ部11と、HMI(Human Machine Interface)部12と、通信部13と、記憶部14と、制御部15とを備える。
センサ部11は、XR端末10の周囲の状況やXR端末10の状態に関する各種のセンサ情報を取得するセンサ群である。センサ部11は、端末カメラ11aと、慣性センサ11bとを含む。
端末カメラ11aは、ユーザUの前方に位置する被写体(すなわち、現実空間および現実空間に存在する実物体)を撮像する。端末カメラ11aは、「第1カメラ」の一例に相当する。
慣性センサ11bは、XR端末10の加速度および角速度を計測するIMU(Inertial Measurement Unit)としての機能を有する。慣性センサ11bは、図示略の加速度センサおよび角速度センサを含み、XR端末10の加速度および角速度を計測する。
HMI部12は、ユーザUに対する入力および出力に関するインターフェイス部品を提供する構成要素である。HMI部12は、「提示部」の一例に相当する。HMI部12は、ユーザUからの入力操作を受け付ける入力インターフェイスを含む。入力インターフェイスは、例えばタッチパネルによって実現される。なお、入力インターフェイスは、キーボードや、マウスや、ペンタブレットや、マイク等によって実現されてもよい。また、入力インターフェイスは、ソフトウェア部品によって実現されてもよい。
また、HMI部12は、ユーザUに対して画像情報や音声情報を提示する出力インターフェイスを含む。出力インターフェイスは、例えばディスプレイやスピーカー等によって実現される。なお、HMI部12は、入力インターフェイスおよび出力インターフェイスが一体となったタッチパネルディスプレイによって実現されてもよい。
通信部13は、ネットワークアダプタ等によって実現される。通信部13は、無線でネットワークNを介してサーバ装置100と接続され、サーバ装置100との間で各種情報の送受信を行う。
記憶部14は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)等の記憶デバイスによって実現される。記憶部14は、図5の例では、アプリ情報14aと、XRコンテンツ情報14bとを記憶する。
アプリ情報14aは、1以上のXRアプリのプログラムや、XRアプリ以外のアプリのプログラムや、XR端末10が実行する本実施形態に係るプログラムや、これらプログラムの実行中に用いられる各種のパラメータ等を含む情報である。
XRコンテンツ情報14bは、サーバ装置100から取得するユーザ位置情報に応じてXR空間に表示されるべき仮想オブジェクト群が設定された情報である。また、XRコンテンツ情報14bは、サーバ装置100から取得するユーザUのユーザ情報に応じて切り替えられるXRコンテンツの表示モードごとの仮想オブジェクトの表示の態様が設定された情報である。
制御部15は、いわゆるコントローラ(Controller)やプロセッサ(Processor)に相当する。制御部15は、例えば、CPUやMPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等によって、記憶部14に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部15は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現することができる。
制御部15は、アプリ実行部15aと、抽出部15bと、送信部15cと、取得部15dと、表示制御部15eとを有し、以下に説明する情報処理の機能や作用を実現または実行する。
アプリ実行部15aは、ユーザUによってHMI部12を介して選択されたXRアプリをアプリ情報14aから読み込んで実行する。
抽出部15bは、XRアプリの実行中において端末カメラ11aによって撮像された撮像画像を取得する。また、抽出部15bは、取得した撮像画像における特徴点を抽出する。
送信部15cは、通信部13を介し、抽出部15bによって抽出された特徴点群を特徴点情報としてサーバ装置100へ送信する。
取得部15dは、通信部13を介し、サーバ装置100が特徴点情報に基づいて推定したXR端末10の位置および姿勢を含むユーザ位置情報をサーバ装置100から取得する。また、取得部15dは、通信部13を介し、サーバ装置100が施設カメラ30による軌跡情報およびXR端末10が示す軌跡情報を照合することによって特定したユーザ情報をサーバ装置100から取得する。
表示制御部15eは、取得部15dによって取得されたユーザ位置情報に基づいて、当該ユーザ位置情報に応じた仮想オブジェクトを含むXRコンテンツをXR空間に表示する。また、表示制御部15eは、取得部15dによって取得されたユーザ情報に基づいてXRコンテンツ情報14bにおけるXRコンテンツの表示モードを設定する。また、表示制御部15eは、設定した表示モードに応じた表示の態様でXRコンテンツをXR空間に表示する。
<<4.施設カメラの構成>>
次に、施設カメラ30の構成例について説明する。図6は、本開示の実施形態に係る施設カメラ30の構成例を示すブロック図である。図6に示すように、施設カメラ30は、カメラ31と、通信部33と、記憶部34と、制御部35とを備える。
カメラ31は、XR施設3における所定の撮像領域を撮像可能に設けられる。カメラ31は、第1カメラ(端末カメラ11a)と同空間内に配置された「第2カメラ」の一例に相当する。
通信部33は、ネットワークアダプタ等によって実現される。通信部33は、有線または無線でネットワークNを介してサーバ装置100と接続され、サーバ装置100との間で各種情報の送受信を行う。
記憶部34は、例えば、RAM、ROM、フラッシュメモリ等の記憶デバイスによって実現される。記憶部34は、図6の例では、プログラム情報34aと、推定モデル情報34bと、推定情報34cとを記憶する。
プログラム情報34aは、施設カメラ30が実行する本実施形態に係るプログラムや、このプログラムの実行中に用いられる各種のパラメータ等を含む情報である。
推定モデル情報34bは、後述する推定部35bが実行するカメラ31の撮像画像に基づくユーザUの属性の推定処理において用いられる推定モデルを含む情報である。この推定モデルは、例えば深層学習のアルゴリズムを用いて生成されたDNN(Deep Neural Network)モデルである。
推定情報34cは、推定部35bによって推定された属性を含むユーザUごとのユーザ情報が格納される。各ユーザ情報には、ユーザUを一意に識別する識別子であるユーザID(以下、「UID」と言う)が付与される。
また、推定情報34cは、前述の施設カメラ30による軌跡情報(図2参照)がUIDごとに格納される。この軌跡情報は、後述する追跡部35cが実行する追跡処理によって記録される。
制御部35は、いわゆるコントローラやプロセッサに相当する。制御部35は、例えば、CPUやMPU、GPU等によって、記憶部34に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部35は、例えば、ASICやFPGA等の集積回路により実現することができる。
制御部35は、取得部35aと、推定部35bと、追跡部35cと、送信部35dとを有し、以下に説明する情報処理の機能や作用を実現または実行する。
取得部35aは、カメラ31からカメラ31の撮像画像を取得する。推定部35bは、推定モデル情報34bを用いつつ、取得部35aによって取得された撮像画像に基づいてXR施設3を利用する各ユーザUを検知するとともに、検知した各ユーザUの属性を含むユーザ情報を推定する。
また、推定部35bは、推定したユーザ情報を推定情報34cへ格納する。このとき、推定部35bは、各ユーザ情報へUIDを付与する。
追跡部35cは、推定部35bによって検知された各ユーザUをカメラ31の撮像画像に基づいて追跡する追跡処理を実行する。また、追跡部35cは、この追跡処理の結果に基づいて前述の施設カメラ30による軌跡情報をUIDごとに推定情報34cへ記録する。
送信部35dは、通信部33を介し、推定情報34cへ記録されたXR施設3を利用中の各ユーザUのユーザ情報および軌跡情報をサーバ装置100へ送信する。
<<5.サーバ装置の構成>>
次に、サーバ装置100の構成例について説明する。図7は、本開示の実施形態に係るサーバ装置100の構成例を示すブロック図である。図7に示すように、サーバ装置100は、通信部101と、記憶部102と、制御部103とを備える。
通信部101は、ネットワークアダプタ等によって実現される。通信部101は、有線または無線でネットワークNを介してXR端末10および施設カメラ30と接続され、XR端末10および施設カメラ30との間で各種情報の送受信を行う。
記憶部102は、例えば、RAM、ROM、フラッシュメモリ、ハードディスク装置等の記憶デバイスによって実現される。記憶部102は、図7の例では、3D(three-dimensional)マップ情報102aと、端末側軌跡情報102bと、施設カメラ側軌跡情報102cと、照合情報102dとを記憶する。
3Dマップ情報102aは、XR施設3の3Dマップを含む情報である。端末側軌跡情報102bは、前述のXR端末10が示す軌跡情報(図2参照)が格納される。この軌跡情報は、後述する追跡部103dが実行する追跡処理によって記録される。
施設カメラ側軌跡情報102cは、施設カメラ30から送信される前述の施設カメラ30による軌跡情報(図2参照)が格納される。この軌跡情報は、後述する取得部103aによって記録される。
照合情報102dは、後述する照合部103eが実行する端末側軌跡情報102bおよび施設カメラ側軌跡情報102cの照合処理による照合結果が格納される。この照合結果は、XR端末10に対応するとして特定されたUIDおよび当該UIDに紐付くユーザ情報を含む。
また、図示は略しているが、記憶部102は、サーバ装置100が実行する本実施形態に係るプログラムを記憶する。
制御部103は、いわゆるコントローラやプロセッサに相当する。制御部103は、例えば、CPUやMPU、GPU等によって、記憶部102に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部103は、例えば、ASICやFPGA等の集積回路により実現することができる。
制御部103は、取得部103aと、推定部103bと、送信部103cと、追跡部103dと、照合部103eとを有し、以下に説明する情報処理の機能や作用を実現または実行する。
取得部103aは、通信部101を介し、XR端末10から送信される前述の特徴点情報を取得する。また、取得部103aは、通信部101を介し、施設カメラ30から送信されるXR施設3を利用中の各ユーザUのユーザ情報および軌跡情報を取得する。また、取得部103aは、施設カメラ30から取得した施設カメラ30側の軌跡情報を施設カメラ側軌跡情報102cへ記録する。
推定部103bは、取得部103aによって取得されたXR端末10からの特徴点情報および3Dマップ情報102aに基づき、VPSを利用してXR施設3におけるXR端末10の位置および姿勢を含む前述のユーザ位置情報を推定する。また、推定部103bは、送信部103cに対し、推定したユーザ位置情報をXR端末10へ送信させる。
送信部103cは、通信部101を介し、推定部103bによって推定されたユーザ位置情報をXR端末10へ送信する。また、送信部103cは、通信部101を介し、後述する照合部103eが実行する照合処理によって特定されるUIDに紐付くユーザ情報をXR端末10へ送信する。
追跡部103dは、推定部103bによって推定されるユーザ位置情報を追跡し、その追跡結果であるユーザ位置情報のログをXR端末10側の軌跡情報として端末側軌跡情報102bへ記録する。
照合部103eは、端末側軌跡情報102bおよび施設カメラ側軌跡情報102cの照合処理(図2参照)を実行し、XR端末10に対応するUIDを特定することで、施設カメラ30によって推定されたユーザ情報とXR端末10を紐付ける。また、照合部103eは、送信部103cに対し、特定したUIDに紐付くユーザ情報をXR端末10へ送信させる。
<<6.処理手順>>
次に、情報処理システム1が実行する処理手順について、図8を用いて説明する。図8は、本開示の実施形態に係る情報処理システム1が実行する処理シーケンスを示す図である。
図8に示すように、まずXR端末10においてXRアプリが起動されると(ステップS101)、XR端末10の端末カメラ11aが撮像を開始する(ステップS102)。そして、XR端末10は、端末カメラ11aの撮像画像から特徴点を抽出し(ステップS103)、抽出した特徴点群である特徴点情報をサーバ装置100へ送信する(ステップS104)。
サーバ装置100は、XR端末10から送信された特徴点情報に基づいてXR端末10の位置および姿勢を含むユーザ位置情報を推定する(ステップS105)。そして、サーバ装置100は、推定したユーザ位置情報をXR端末10へ送信する(ステップS106)。
XR端末10は、サーバ装置100から送信されたユーザ位置情報を取得すると(ステップS107)、このユーザ位置情報に応じた仮想オブジェクトを含むXRコンテンツをXR空間に表示する(ステップS108)。
なお、サーバ装置100は、ステップS104からステップS106を繰り返しつつ、ユーザ位置情報のログを端末側の軌跡情報として記録する(ステップS109)。
一方、施設カメラ30は、撮像画像に基づいてXR施設3を利用するユーザUを検知すると(ステップS110)、検知したユーザUの属性を含むユーザ情報を推定する(ステップS111)。そして、施設カメラ30は、ユーザ情報ごとにUIDを付与する(ステップS112)。
また、施設カメラ30は、検知したユーザUを追跡し、UIDに紐付けて軌跡情報を記録する(ステップS113)。そして、施設カメラ30は、軌跡情報を含むユーザ情報をサーバ装置100へ送信する(ステップS114)。
サーバ装置100は、施設カメラ30から送信された施設カメラ側の軌跡情報を取得すると(ステップS115)、端末側および施設カメラ側の軌跡情報を照合してXR端末10のUIDを特定する(ステップS116)。
そして、サーバ装置100は、特定したUIDに紐付くユーザ情報をXR端末10へ送信する(ステップS117)。
XR端末10は、サーバ装置100から送信されたユーザ情報に基づいてXRコンテンツの表示モードを切り替える(ステップS118)。そして、XR端末10は、切り替えた表示モードに応じてXRコンテンツをXR空間に表示する(ステップS119)。
<<7.変形例>>
ところで、上述してきた本開示の実施形態には、いくつかの変形例を挙げることができる。
上述した本実施形態では、一例として、ユーザUの身長に応じて自動的にポスターXPを表示する高さを切り替える例を挙げたが、変形例としてユーザUの年齢や性別といった属性に応じて自動的にXRコンテンツの表示を切り替えるようにしてもよい。
図9は、変形例に係る情報処理システム1Aのイメージ図である。情報処理システム1Aは、図9に示すように、例えばXR空間における特定の場所にユーザUが到達した場合に、XR空間に仮想的なドアであるXRドアDを表示させる。
ここで、この情報処理システム1Aが提供するXRコンテンツをユーザU-3およびユーザU-4が利用しているものとする。また、ユーザU-3は女性であり、ユーザU-4は男性であるものとする。
そして、情報処理システム1Aは、例えばユーザU-3がXR空間においてXRドアDを通過すると、ユーザU-3の性別に応じた第1のVR空間をユーザU-3のXR端末10に自動的に表示させる。また、情報処理システム1Aは、例えばユーザU-4がXR空間においてXRドアDを通過すると、ユーザU-4の性別に応じた第1のVR空間とは異なる第2のVR空間をユーザU-4のXR端末10に自動的に表示させる。
なお、ここではユーザUの性別によってXRコンテンツの表示を切り替える例を挙げたが、ユーザUの性別によって表示を切り替えてもよい。また、年齢や性別といったデモグラフィック属性に限らず、例えばライフスタイルや嗜好といったサイコグラフィック属性によって表示を切り替えるようにしてもよい。
これは、ユーザUの属性を推定する推定モデルが、例えばカメラ31の撮像画像におけるユーザUの服装やヘアスタイル、所持品等からサイコグラフィック属性を推定可能となるように学習されることで実現可能である。
なお、情報処理システム1Aが実行する処理手順についても説明しておく。図10は、変形例に係る情報処理システム1Aが実行する処理シーケンスを示す図である。図10は既に示した図8に対応しているため、ここでは図8と異なる点についてのみ説明する。
図10に示すように、情報処理システム1Aでは、XR端末10がステップS108でサーバ装置100からのユーザ位置情報に基づいてXRコンテンツをXR空間に表示した後、XR端末10は、ユーザUが到達した特定の場所でXRドアDを表示する(ステップS201)。
そして、XR端末10は、このXRドアDを表示したことを示す表示情報をサーバ装置100へ送信する(ステップS202)。すると、サーバ装置100は、このXR端末10からの表示情報の取得をトリガとして、図8にも示した端末側および施設カメラ側の軌跡情報を照合してXR端末10のUIDを特定する処理を実行する(ステップS116)。そして、以降は、図8と同様にステップS117~ステップS119が実行されることとなる。
また、上述した本実施形態では、主にXRコンテンツの表示の態様を切り替える例を挙げたが、切り替えの対象は表示の態様に限られない。例えば、XRコンテンツが音声情報や触覚情報等の提示を伴うものであれば、音声出力や触覚出力の態様をユーザUごとのユーザ情報に応じて自動的に切り替えるようにしてもよい、すなわち、本実施形態に係る情報処理方法は、ユーザUの属性を含むユーザ情報に応じてXRコンテンツの提示の態様を自動的に切り替えるものであってよい。
また、上述した本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
例えば、上述した本実施形態では、XR端末10の記憶部14がXRコンテンツ情報14bを記憶する例を挙げたが、サーバ装置100の記憶部102が記憶してもよい。この場合、XR端末10は、専らサーバ装置100の指示に基づいてXRコンテンツの提示の態様を切り替えるエッジデバイスとして機能する。すなわち、この場合、ユーザUの属性を含むユーザ情報に応じてXRコンテンツの提示の態様をXR端末10に切り替えさせる(変更させる)判断は、サーバ装置100側で完結することとなる。
また、上述した本実施形態は、処理内容を矛盾させない領域で適宜組み合わせることが可能である。
<<8.ハードウェア構成>>
上述してきた本実施形態に係るXR端末10、施設カメラ30およびサーバ装置100は、例えば図11に示すような構成のコンピュータ1000によって実現される。サーバ装置100を例に挙げて説明する。図11は、サーバ装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、二次記憶装置1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
CPU1100は、ROM1300又は二次記憶装置1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又は二次記憶装置1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
二次記憶装置1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、二次記憶装置1400は、プログラムデータ1450の一例である本開示に係るプログラムを記録する記録媒体である。
通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が本実施形態に係るサーバ装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部103の機能を実現する。また、二次記憶装置1400には、本開示に係るプログラムや、記憶部102内のデータが格納される。なお、CPU1100は、プログラムデータ1450を二次記憶装置1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
<<9.むすび>>
以上説明したように、本開示の一実施形態によれば、サーバ装置100(「情報処理装置」の一例に相当)は、XRコンテンツをユーザUに提示するHMI部12(「提示部」の一例に相当)と端末カメラ11a(「第1カメラ」の一例に相当)とを有するXR端末10(「端末装置」の一例に相当)、および、XR端末10と同空間内に配置されたカメラ31(「第2カメラ」の一例に相当)を有する施設カメラ30(「撮像装置」の一例に相当)と通信可能に設けられた制御部103を備える。制御部103は、施設カメラ30がカメラ31の撮像画像に基づいて推定したユーザUの属性を含むユーザ情報および当該ユーザUの軌跡を示す軌跡情報を施設カメラ30から取得し、施設カメラ30によるユーザUの軌跡情報とXR端末10が示すユーザUの軌跡情報とを照合することによってユーザ情報とXR端末10を紐付け、XR端末10がHMI部12に提示するXRコンテンツの態様をユーザ情報に応じてXR端末10に変更させる。これにより、ユーザごとに応じた適切なXRコンテンツの提供を行うことができる。
以上、本開示の各実施形態について説明したが、本開示の技術的範囲は、上述の各実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
XRコンテンツをユーザに提示する提示部と第1カメラとを有する端末装置、および、前記端末装置と同空間内に配置された第2カメラを有する撮像装置と通信可能に設けられた制御部を備え、
前記制御部は、
前記撮像装置が前記第2カメラの撮像画像に基づいて推定したユーザの属性を含むユーザ情報および当該ユーザの軌跡を示す軌跡情報を前記撮像装置から取得し、
前記撮像装置によるユーザの軌跡情報と前記端末装置が示すユーザの軌跡情報とを照合することによって前記ユーザ情報と前記端末装置を紐付け、
前記端末装置が前記提示部に提示するXRコンテンツの態様を前記ユーザ情報に応じて前記端末装置に変更させる、
情報処理装置。
(2)
前記制御部は、
前記端末装置が前記提示部に表示するXRコンテンツの態様を前記ユーザ情報に応じて前記端末装置に変更させる、
前記(1)に記載の情報処理装置。
(3)
前記撮像装置は、
前記第2カメラの撮像画像に基づいて身長を含むユーザの外形的属性を推定し、
前記制御部は、
前記身長に応じてXRコンテンツを表示する高さを前記端末装置に変更させる、
前記(2)に記載の情報処理装置。
(4)
前記撮像装置は、
前記第2カメラの撮像画像に基づいて年齢および性別を含むユーザのデモグラフィック属性を推定し、
前記制御部は、
前記デモグラフィック属性に応じて表示するXRコンテンツの内容を前記端末装置に変更させる、
前記(2)または(3)に記載の情報処理装置。
(5)
前記撮像装置は、
前記第2カメラの撮像画像に基づいてライフスタイルおよび嗜好を含むユーザのサイコグラフィック属性を推定し、
前記制御部は、
前記サイコグラフィック属性に応じて表示するXRコンテンツの内容を前記端末装置に変更させる、
前記(4)に記載の情報処理装置。
(6)
前記制御部は、
XR空間における特定の場所にユーザが到達した場合に、前記XR空間に仮想的なドアを表示させ、
ユーザが前記ドアを通過後に表示するXRコンテンツの内容を前記デモグラフィック属性または前記サイコグラフィック属性に応じて前記端末装置に変更させる、
前記(5)に記載の情報処理装置。
(7)
前記制御部は、
前記端末装置が抽出した前記第1カメラの撮像画像における特徴点を前記端末装置から取得し、
前記特徴点および前記同空間の3D(three-dimensional)マップに基づいて前記同空間における前記端末装置の位置および姿勢を含むユーザ位置情報を推定する、
前記(1)~(6)のいずれか一つに記載の情報処理装置。
(8)
前記制御部は、
前記ユーザ位置情報のログを前記端末装置が示すユーザの軌跡情報として記録する、
前記(7)に記載の情報処理装置。
(9)
前記制御部は、
前記端末装置が測位したGPS位置情報を前記端末装置から取得し、
前記GPS位置情報のログを前記端末装置が示すユーザの軌跡情報として記録する、
前記(1)~(6)のいずれか一つに記載の情報処理装置。
(10)
前記制御部は、
前記同空間に1以上設けられたビーコン端末を利用した前記端末装置の位置情報のログを前記端末装置が示すユーザの軌跡情報として記録する、
前記(1)~(6)のいずれか一つに記載の情報処理装置。
(11)
サーバ装置と通信可能に設けられた制御部と、XRコンテンツをユーザに提示する提示部と、第1カメラと、を備える情報処理装置であって、
前記サーバ装置は、
前記情報処理装置と同空間内に配置された第2カメラを有する撮像装置と通信可能に設けられ、
前記撮像装置が前記第2カメラの撮像画像に基づいて推定したユーザの属性を含むユーザ情報および当該ユーザの軌跡を示す軌跡情報を前記撮像装置から取得し、
前記制御部は、
前記サーバ装置が前記撮像装置によるユーザの軌跡情報と前記情報処理装置が示すユーザの軌跡情報とを照合することによって当該情報処理装置と紐付けた前記ユーザ情報を前記サーバ装置から取得し、
前記提示部に提示するXRコンテンツの態様を前記ユーザ情報に応じて変更する、
情報処理装置。
(12)
XRコンテンツをユーザに提示する提示部と第1カメラとを有する端末装置、および、前記端末装置と同空間内に配置された第2カメラを有する撮像装置と通信可能に設けられた情報処理装置が実行する情報処理方法であって、
前記撮像装置が前記第2カメラの撮像画像に基づいて推定したユーザの属性を含むユーザ情報および当該ユーザの軌跡を示す軌跡情報を前記撮像装置から取得することと、
前記撮像装置によるユーザの軌跡情報と前記端末装置が示すユーザの軌跡情報とを照合することによって前記ユーザ情報と前記端末装置を紐付けることと、
前記端末装置が前記提示部に提示するXRコンテンツの態様を前記ユーザ情報に応じて前記端末装置に変更させることと、
を含む、情報処理方法。
(13)
XRコンテンツをユーザに提示する提示部と第1カメラとを有する端末装置、および、前記端末装置と同空間内に配置された第2カメラを有する撮像装置と通信可能に設けられた情報処理装置であるコンピュータに、
前記撮像装置が前記第2カメラの撮像画像に基づいて推定したユーザの属性を含むユーザ情報および当該ユーザの軌跡を示す軌跡情報を前記撮像装置から取得すること、
前記撮像装置によるユーザの軌跡情報と前記端末装置が示すユーザの軌跡情報とを照合することによって前記ユーザ情報と前記端末装置を紐付けること、
前記端末装置が前記提示部に提示するXRコンテンツの態様を前記ユーザ情報に応じて前記端末装置に変更させること、
を実行させる、プログラム。
(14)
XRコンテンツをユーザに提示する提示部と第1カメラとを有する端末装置、および、前記端末装置と同空間内に配置された第2カメラを有する撮像装置と通信可能に設けられた情報処理装置であるコンピュータに、
前記撮像装置が前記第2カメラの撮像画像に基づいて推定したユーザの属性を含むユーザ情報および当該ユーザの軌跡を示す軌跡情報を前記撮像装置から取得すること、
前記撮像装置によるユーザの軌跡情報と前記端末装置が示すユーザの軌跡情報とを照合することによって前記ユーザ情報と前記端末装置を紐付けること、
前記端末装置が前記提示部に提示するXRコンテンツの態様を前記ユーザ情報に応じて前記端末装置に変更させること、
を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
1,1A 情報処理システム
3 XR施設
10 XR端末
11 センサ部
11a 端末カメラ
11b 慣性センサ
12 HMI部
13 通信部
14 記憶部
15 制御部
30 施設カメラ
31 カメラ
33 通信部
34 記憶部
100 サーバ装置
101 通信部
102 記憶部
103 制御部
U ユーザ

Claims (12)

  1. XRコンテンツをユーザに提示する提示部と第1カメラとを有する端末装置、および、前記端末装置と同空間内に配置された第2カメラを有する撮像装置と通信可能に設けられた制御部を備え、
    前記制御部は、
    前記撮像装置が前記第2カメラの撮像画像に基づいて推定したユーザの属性を含むユーザ情報および当該ユーザの軌跡を示す軌跡情報を前記撮像装置から取得し、
    前記撮像装置によるユーザの軌跡情報と前記端末装置が示すユーザの軌跡情報とを照合することによって前記ユーザ情報と前記端末装置を紐付け、
    前記端末装置が前記提示部に提示するXRコンテンツの態様を前記ユーザ情報に応じて前記端末装置に変更させる、
    情報処理装置。
  2. 前記制御部は、
    前記端末装置が前記提示部に表示するXRコンテンツの態様を前記ユーザ情報に応じて前記端末装置に変更させる、
    請求項1に記載の情報処理装置。
  3. 前記撮像装置は、
    前記第2カメラの撮像画像に基づいて身長を含むユーザの外形的属性を推定し、
    前記制御部は、
    前記身長に応じてXRコンテンツを表示する高さを前記端末装置に変更させる、
    請求項2に記載の情報処理装置。
  4. 前記撮像装置は、
    前記第2カメラの撮像画像に基づいて年齢および性別を含むユーザのデモグラフィック属性を推定し、
    前記制御部は、
    前記デモグラフィック属性に応じて表示するXRコンテンツの内容を前記端末装置に変更させる、
    請求項2に記載の情報処理装置。
  5. 前記撮像装置は、
    前記第2カメラの撮像画像に基づいてライフスタイルおよび嗜好を含むユーザのサイコグラフィック属性を推定し、
    前記制御部は、
    前記サイコグラフィック属性に応じて表示するXRコンテンツの内容を前記端末装置に変更させる、
    請求項4に記載の情報処理装置。
  6. 前記制御部は、
    XR空間における特定の場所にユーザが到達した場合に、前記XR空間に仮想的なドアを表示させ、
    ユーザが前記ドアを通過後に表示するXRコンテンツの内容を前記デモグラフィック属性または前記サイコグラフィック属性に応じて前記端末装置に変更させる、
    請求項5に記載の情報処理装置。
  7. 前記制御部は、
    前記端末装置が抽出した前記第1カメラの撮像画像における特徴点を前記端末装置から取得し、
    前記特徴点および前記同空間の3D(three-dimensional)マップに基づいて前記同空間における前記端末装置の位置および姿勢を含むユーザ位置情報を推定する、
    請求項1に記載の情報処理装置。
  8. 前記制御部は、
    前記ユーザ位置情報のログを前記端末装置が示すユーザの軌跡情報として記録する、
    請求項7に記載の情報処理装置。
  9. 前記制御部は、
    前記端末装置が測位したGPS(Groval Positioning System)位置情報を前記端末装置から取得し、
    前記GPS位置情報のログを前記端末装置が示すユーザの軌跡情報として記録する、
    請求項1に記載の情報処理装置。
  10. 前記制御部は、
    前記同空間に1以上設けられたビーコン端末を利用した前記端末装置の位置情報のログを前記端末装置が示すユーザの軌跡情報として記録する、
    請求項1に記載の情報処理装置。
  11. サーバ装置と通信可能に設けられた制御部と、XRコンテンツをユーザに提示する提示部と、第1カメラと、を備える情報処理装置であって、
    前記サーバ装置は、
    前記情報処理装置と同空間内に配置された第2カメラを有する撮像装置と通信可能に設けられ、
    前記撮像装置が前記第2カメラの撮像画像に基づいて推定したユーザの属性を含むユーザ情報および当該ユーザの軌跡を示す軌跡情報を前記撮像装置から取得し、
    前記制御部は、
    前記サーバ装置が前記撮像装置によるユーザの軌跡情報と前記情報処理装置が示すユーザの軌跡情報とを照合することによって当該情報処理装置と紐付けた前記ユーザ情報を前記サーバ装置から取得し、
    前記提示部に提示するXRコンテンツの態様を前記ユーザ情報に応じて変更する、
    情報処理装置。
  12. XRコンテンツをユーザに提示する提示部と第1カメラとを有する端末装置、および、前記端末装置と同空間内に配置された第2カメラを有する撮像装置と通信可能に設けられた情報処理装置が実行する情報処理方法であって、
    前記撮像装置が前記第2カメラの撮像画像に基づいて推定したユーザの属性を含むユーザ情報および当該ユーザの軌跡を示す軌跡情報を前記撮像装置から取得することと、
    前記撮像装置によるユーザの軌跡情報と前記端末装置が示すユーザの軌跡情報とを照合することによって前記ユーザ情報と前記端末装置を紐付けることと、
    前記端末装置が前記提示部に提示するXRコンテンツの態様を前記ユーザ情報に応じて前記端末装置に変更させることと、
    を含む、情報処理方法。
JP2022184080A 2022-11-17 2022-11-17 情報処理装置および情報処理方法 Pending JP2024073077A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022184080A JP2024073077A (ja) 2022-11-17 2022-11-17 情報処理装置および情報処理方法
PCT/JP2023/040477 WO2024106317A1 (en) 2022-11-17 2023-11-09 Information processing device and information processing method for presenting virtual content to a user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022184080A JP2024073077A (ja) 2022-11-17 2022-11-17 情報処理装置および情報処理方法

Publications (1)

Publication Number Publication Date
JP2024073077A true JP2024073077A (ja) 2024-05-29

Family

ID=88965719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022184080A Pending JP2024073077A (ja) 2022-11-17 2022-11-17 情報処理装置および情報処理方法

Country Status (2)

Country Link
JP (1) JP2024073077A (ja)
WO (1) WO2024106317A1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5732988B2 (ja) 2011-04-08 2015-06-10 ソニー株式会社 画像処理装置、表示制御方法及びプログラム
WO2018227098A1 (en) * 2017-06-09 2018-12-13 Vid Scale, Inc. External camera assisted virtual reality
JP7017689B2 (ja) * 2017-12-29 2022-02-09 富士通株式会社 情報処理装置、情報処理システムおよび情報処理方法
GB2571286A (en) * 2018-02-22 2019-08-28 Sony Interactive Entertainment Inc Virtual reality
JPWO2021240889A1 (ja) * 2020-05-28 2021-12-02
EP4394719A1 (en) * 2021-08-25 2024-07-03 Sony Semiconductor Solutions Corporation Information processing device

Also Published As

Publication number Publication date
WO2024106317A1 (en) 2024-05-23

Similar Documents

Publication Publication Date Title
JP7425848B2 (ja) 複合現実システムのための位置特定の決定
US9836889B2 (en) Executable virtual objects associated with real objects
CN105631773B (zh) 用于提供地图服务的电子设备和方法
CN110716645A (zh) 一种增强现实数据呈现方法、装置、电子设备及存储介质
CN110908504B (zh) 一种增强现实博物馆协作交互方法与系统
US11461980B2 (en) Methods and systems for providing a tutorial for graphic manipulation of objects including real-time scanning in an augmented reality
WO2022252688A1 (zh) 增强现实数据呈现方法、装置、电子设备及存储介质
US20240256052A1 (en) User interactions with remote devices
US11721078B2 (en) Information processing system, information processing terminal device, server device, information processing method and program thereof
TWI750822B (zh) 用於為目標設置可呈現的虛擬對象的方法和系統
CN112788443B (zh) 基于光通信装置的交互方法和系统
JP2024073077A (ja) 情報処理装置および情報処理方法
TWI759764B (zh) 基於光通信裝置疊加虛擬物件的方法、電子設備以及電腦可讀取記錄媒體
US20240077984A1 (en) Recording following behaviors between virtual objects and user avatars in ar experiences
US20240020920A1 (en) Incremental scanning for custom landmarkers
US20240073402A1 (en) Multi-perspective augmented reality experience
CN115113728A (zh) 基于vr的网购产品的交互方法、vr设备及用户终端
JP2015184813A (ja) 連携機器選択装置、連携機器選択方法および連携機器選択プログラム