Nothing Special   »   [go: up one dir, main page]

JP7556484B1 - 情報処理装置、情報処理プログラム、および、情報処理方法 - Google Patents

情報処理装置、情報処理プログラム、および、情報処理方法 Download PDF

Info

Publication number
JP7556484B1
JP7556484B1 JP2024016564A JP2024016564A JP7556484B1 JP 7556484 B1 JP7556484 B1 JP 7556484B1 JP 2024016564 A JP2024016564 A JP 2024016564A JP 2024016564 A JP2024016564 A JP 2024016564A JP 7556484 B1 JP7556484 B1 JP 7556484B1
Authority
JP
Japan
Prior art keywords
virtual space
occluding object
occluding
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2024016564A
Other languages
English (en)
Inventor
一郎 名塚
孝士 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2024016564A priority Critical patent/JP7556484B1/ja
Application granted granted Critical
Publication of JP7556484B1 publication Critical patent/JP7556484B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】現実空間の再現性が高い仮想空間を容易に利用することができる情報処理装置、情報処理プログラム、および、情報処理方法を提供する。【解決手段】現実空間を撮影した写真Ptからの立体物Tg1,Tg2の検出に基づき生成されたオブジェクトが遮蔽オブジェクトOj1,Oj2であり、情報処理装置は、遮蔽オブジェクトOj1,Oj2が配置された仮想空間Vsのデータを読み込むことと、仮想空間Vsにアバターおよび視点の位置を設定することと、当該視点から見た仮想空間Vsを描画することと、を実行する。【選択図】図6

Description

本開示は、仮想空間に関わる処理を実行する情報処理装置、情報処理プログラム、および、情報処理方法に関する。
近年、仮想空間の様々な用途が提案されている。用途の一例では、現実空間と同様のユーザの活動を仮想空間で実現することが試みられている。例えば、特許文献1には、仮想空間内に住宅展示場を再現して、仮想空間内でのユーザによる住宅の内覧や購入を可能としたシステムが記載されている。
特開2012-8638号公報
仮想空間において現実空間と同様のユーザの活動を好適に実現するためには、仮想空間がより現実空間に近しい景観を有していることが望ましい。すなわち、仮想空間内の立体物の配置、形状、外観等について、現実空間の再現性が高いことが望まれる。一般に、仮想空間内の立体物の生成には、3DCG(三次元コンピュータグラフィックス)が広く用いられているが、3DCGによるモデリングやマテリアルおよびテクスチャの設定工程を経て再現性の高い仮想空間を構築するには、多くの作業量が必要である。それゆえ、制作のコストや期間の増大が避け難い。したがって、現実空間の再現性が高い仮想空間を容易に構築可能な技術が求められている。
上記課題を解決するための情報処理装置、情報処理プログラム、および、情報処理方法の各態様を記載する。
[態様1]現実空間を撮影した写真からの立体物の検出に基づき生成されたオブジェクトが遮蔽オブジェクトであって、前記遮蔽オブジェクトが配置された仮想空間のデータを読み込むことと、前記仮想空間にアバターおよび視点の位置を設定することと、前記視点から見た前記仮想空間を描画することと、を実行する情報処理装置。
上記構成によれば、写真から遮蔽オブジェクトが生成されることにより仮想空間が構築され、この仮想空間にアバターが配置される。したがって、現実空間の再現性が高い仮想空間を、制作のコストや期間の増大を抑えて容易に構築可能であり、仮想空間での現実空間と同様の活動の的確な実現が可能である。
[態様2]前記情報処理装置は、ネットワークを介して情報中継装置と接続され、前記アバターは、前記情報処理装置を操作するユーザのアバターである自己アバターと、他のユーザのアバターである他者アバターとを含み、前記情報処理装置は、前記情報処理装置の操作に応じて変更される前記自己アバターの位置情報を、前記情報中継装置に送信するとともに、前記情報中継装置から、前記他者アバターの位置情報を受信し、前記自己アバターの位置情報および前記他者アバターの位置情報を反映させた各アバターを含む前記仮想空間を描画する、[態様1]に記載の情報処理装置。
上記構成によれば、情報中継装置を通じた位置情報の交換により、伝送されるデータの容量を抑えつつ、他のユーザのアバターの移動を仮想空間の描画に反映させることができる。
[態様3]前記情報処理装置は、前記仮想空間の描画により生成される画像に前記写真から生成した背景を合成する、[態様1]または[態様2]に記載の情報処理装置。
上記構成によれば、仮想空間の光景として、奥行き方向の描写についても、現実空間の光景に沿った画像の生成が可能である。
[態様4]前記情報処理装置は、ユーザの操作に応じて移動させる前記視点の位置の移動可能範囲を、所定の範囲に制限する、[態様1]~[態様3]のいずれか1つに記載の情報処理装置。
上記構成によれば、仮想空間やその背景において現実空間が再現されている領域が限られている場合であっても、描画された仮想空間の画像において仮想空間内の構造や背景に破綻が生じることが抑えられる。
[態様5]前記仮想空間のデータは、第1の写真から生成された第1の遮蔽オブジェクトのデータと、第2の写真から生成された第2の遮蔽オブジェクトのデータと、前記第1の遮蔽オブジェクトの構成情報と前記第2の遮蔽オブジェクトの構成情報とを平均化することにより生成されたオブジェクトである中間オブジェクトのデータとを含み、前記視点の位置について、描画対象の遮蔽オブジェクトを前記第1の遮蔽オブジェクトから前記第2の遮蔽オブジェクトへ切り替える条件が設定されており、前記情報処理装置は、前記条件が成立したとき、描画対象の遮蔽オブジェクトを、前記第1の遮蔽オブジェクトから前記中間オブジェクトを経て前記第2の遮蔽オブジェクトに切り替えて、前記仮想空間を描画する、[態様1]~[態様4]のいずれか1つに記載の情報処理装置。
上記構成によれば、描画対象の切り替えにより、視点やアバターの移動可能な範囲を広げることが可能であり、複数の遮蔽オブジェクトのデータ全体として仮想空間における再現範囲の拡大が可能である。そして、中間オブジェクトを挟んで描画対象の遮蔽オブジェクトが切り替えられることにより、仮想空間の光景の移り変わりについて、立体感を有した自然な移り変わりが可能となる。
[態様6]1または複数のコンピュータに、現実空間を撮影した写真からの立体物の検出に基づき生成されたオブジェクトが遮蔽オブジェクトであって、前記遮蔽オブジェクトが配置された仮想空間のデータを読み込むことと、前記仮想空間にアバターおよび視点の位置を設定することと、前記視点から見た前記仮想空間を描画することと、を実行させる情報処理プログラム。
上記構成によれば、写真から遮蔽オブジェクトが生成されることにより仮想空間が構築され、この仮想空間にアバターが配置される。したがって、現実空間の再現性が高い仮想空間を、制作のコストや期間の増大を抑えて容易に構築可能であり、仮想空間での現実空間と同様の活動の的確な実現が可能である。
[態様7]1または複数のコンピュータが、現実空間を撮影した写真からの立体物の検出に基づき生成されたオブジェクトが遮蔽オブジェクトであって、前記遮蔽オブジェクトが配置された仮想空間のデータを読み込むことと、前記仮想空間にアバターおよび視点の位置を設定することと、前記視点から見た前記仮想空間を描画することと、を実行する情報処理方法。
上記方法によれば、写真から遮蔽オブジェクトが生成されることにより仮想空間が構築され、この仮想空間にアバターが配置される。したがって、現実空間の再現性が高い仮想空間を、制作のコストや期間の増大を抑えて容易に構築可能であり、仮想空間での現実空間と同様の活動の的確な実現が可能である。
本開示によれば、現実空間の再現性が高い仮想空間を容易に利用することができる。
図1は、一実施形態の情報処理システムの構成を示す図である。 図2は、一実施形態の仮想空間生成装置の構成を示す図である。 図3は、一実施形態の情報中継装置の構成を示す図である。 図4は、一実施形態のユーザ端末の構成を示す図である。 図5は、一実施形態の仮想空間の生成の処理手順を示す図である。 図6は、一実施形態における写真からの仮想空間の生成を模式的に示す図である。 図7は、一実施形態におけるアバターおよび視点が配置された仮想空間を示す図である。 図8は、一実施形態におけるユーザ端末間の情報交換の処理手順を示す図である。 図9は、一実施形態における仮想空間の描画の処理手順を示す図である。 図10は、一実施形態におけるユーザ端末の保持情報を示す図である。 図11は、一実施形態における描画対象の切り替えのためのデータを模式的に示す図である。 図12は、一実施形態における描画対象の切り替えの処理手順を示す図である。
図面を参照して、情報処理装置、情報処理プログラム、および、情報処理方法の一実施形態を説明する。
[情報処理システムの全体構成]
図1を参照して、情報処理装置を含む情報処理システムの全体構成を説明する。図1に示すように、情報処理システム100は、管理システム10と、複数のユーザ端末40とを含む。管理システム10は、仮想空間生成装置20と情報中継装置30とを備える。ユーザ端末40は、情報処理装置の一例である。管理システム10およびユーザ端末40の各々は、インターネット等のネットワークに接続されている。
仮想空間生成装置20は、現実空間を撮影した写真から仮想空間を生成する。仮想空間生成装置20は、パーソナルコンピュータやサーバ装置等のコンピュータ装置である。
ユーザ端末40は、仮想空間でアバターとして活動するユーザが操作する端末である。ユーザ端末40は、ユーザの操作に応じて、仮想空間内にアバターおよび視点の位置を設定し、仮想空間を描画する。ユーザ端末40は、スマートフォン、タブレット端末、パーソナルコンピュータ等のコンピュータ装置である。
情報中継装置30は、ネットワークを通じて、各ユーザ端末40と相互にデータの送受信を行う。情報中継装置30は、ユーザ端末40での仮想空間の描画に必要なアバターの位置等の情報を、複数のユーザ端末40間で中継する。情報中継装置30は、パーソナルコンピュータやサーバ装置等のコンピュータ装置である。
本実施形態の情報処理システム100が提供する仮想空間の用途は、現実空間において可能な活動への利用であれば、特に限定されない。例えば、仮想空間は、観光、工場等の各種の見学、芸術作品の鑑賞等の文化活動、不動産や各種の商品の展示や販売等に用いられる。
[各装置の構成]
図2~図4を参照して、仮想空間生成装置20、情報中継装置30、および、ユーザ端末40の構成を詳細に説明する。
図2に示すように、仮想空間生成装置20は、通信部21、制御部22、および、記憶部23を備えている。
通信部21は、ネットワークへの接続およびデータの送受信等、仮想空間生成装置20と他の装置との通信処理を行う。
制御部22は、記憶部23に格納されたプログラムを実行することにより、対象空間生成部22aとして機能する。
対象空間生成部22aは、現実空間の写真を解析し、写真に含まれる1以上の立体物を検出して、当該立体物の3Dモデルである遮蔽オブジェクトを生成する。検出される立体物は、例えば、柱や什器や置物等の構造物であり、空間内の一部を遮る機能を有した遮蔽物である。生成された遮蔽オブジェクトは、写真から抽出された立体物の色情報に基づくテクスチャを有している。写真からの3Dモデルの生成には、公知の写真測量技術が用いられればよい。
対象空間生成部22aは、仮想的な三次元空間に遮蔽オブジェクトを配置することにより、ユーザ端末40での描画の処理対象となる仮想空間である対象空間を生成する。写真から複数の遮蔽オブジェクトが生成された場合には、写真によって示される現実空間での複数の立体物の位置関係に従って、複数の遮蔽オブジェクトが対象空間に配置される。
記憶部23は、制御部22による処理の実行に必要な各種のプログラムやデータを記憶している。
図3に示すように、情報中継装置30は、通信部31、制御部32、および、記憶部33を備えている。
通信部31は、ネットワークへの接続およびデータの送受信等、情報中継装置30と他の装置との通信処理を行う。
制御部32は、記憶部33に格納されたプログラムを実行することにより、中継処理部32aとして機能する。
中継処理部32aは、ユーザ端末40間の情報の交換を制御する。具体的には、中継処理部32aは、1つのユーザ端末40から、他のユーザ端末40にて反映すべき情報である中継情報を受けたとき、送信先のユーザ端末40を特定し、特定したユーザ端末40に通信部31を介して中継情報を送信する。中継情報には、アバターの位置情報が含まれる。
記憶部33は、制御部32による処理の実行に必要な各種のプログラムやデータを記憶している。こうしたデータには、情報の中継に関わるユーザの管理のためのデータも含まれる。
図4に示すように、ユーザ端末40は、通信部41、制御部42、記憶部43、および、入出力部44を備えている。
通信部41は、ネットワークへの接続およびデータの送受信等、ユーザ端末40と他の装置との通信処理を行う。
制御部42は、記憶部43に格納されたプログラムを実行することにより、情報管理部42aおよび描画処理部42bとして機能する。
情報管理部42aは、対象空間における遮蔽オブジェクトやアバターや視点の位置を管理し、対象空間の描画を指示する。
描画処理部42bは、情報管理部42aの指示を受けて、描画処理を行う。すなわち、描画処理部42bは、上記遮蔽オブジェクト、アバター、視点の位置情報に基づき、対象空間における描画範囲を決定してレンダリングを行うことにより、二次元画像のデータである表示データを生成する。
記憶部43は、制御部42による処理の実行に必要な各種のプログラムやデータを記憶している。記憶部43は、こうしたデータの一例として、描画用データ43aを記憶している。描画用データ43aは、対象空間の描画に要するデータを含む。具体的には、描画用データ43aは、仮想空間生成装置20が生成した遮蔽オブジェクトを含む対象空間のデータである対象空間データ、アバターのモデルや外観のデータであるアバターデータ、対象空間の描画に際して背景として用いる画像のデータである背景データ等を含む。
入出力部44は、ユーザの操作を受け付けて当該操作に応じた信号を制御部に出力する操作部、および、制御部からのデータに基づき画像を表示する表示部を含む。操作部は、タッチパネルやマウスやキーボードであり、表示部は、液晶等のパネルやディスプレイである。
上記各機能を有する仮想空間生成装置20、情報中継装置30、および、ユーザ端末40の各装置の物理的な構成、すなわちハードウェア構成を説明する。各装置は、CPU、MPU、GPU等の演算装置である電子回路、ROM、RAM、レジスタードメモリ、アンバッファードメモリ等のメモリ、および、SSD、HDD等のストレージを備える。演算装置は、ストレージからオペレーティングシステムや各種プログラムをメモリにロードし、メモリから取り出した命令を実行する。各装置は、ASIC、FPGA等の集積回路を備えてもよい。
また、各装置は、ネットワークを介して接続先の装置との間でデータを送受信する通信インターフェースを備えている。通信インターフェースは、ハードウェア、ソフトウェア、または、これらの組み合わせとして実装されている。
各装置が実行する各処理は、各装置が備えるソフトウェアによって実行されてもよいし、各装置が備える集積回路とソフトウェアとの組み合わせによって実現されてもよい。
[対象空間の生成]
図5および図6を参照して、対象空間の生成に関する処理の手順を説明する。
図5に示すように、まず、仮想空間生成装置20は、再現対象の現実空間を撮影した写真のデータである写真データを読み込む(ステップS10)。続いて、仮想空間生成装置20は、写真データを解析して立体物を抽出することにより、遮蔽オブジェクトのデータを生成する(ステップS11)。そして、仮想空間生成装置20は、仮想的な三次元空間に遮蔽オブジェクトを配置すること、すなわち三次元空間での遮蔽オブジェクトの位置を設定することにより、対象空間データを生成する(ステップS12)。ステップS11およびステップS12の処理は、対象空間生成部22aとしての処理である。
1つの対象空間は、互いに異なる位置から現実空間を撮影した複数の写真から生成されてもよいし、1つの位置から現実空間を撮影した1つの写真から生成されてもよい。また、1つの対象空間は、パノラマ写真や360度写真のような広い範囲を含む写真から生成されてもよい。基となる写真における撮影位置や範囲が限られている場合には、遮蔽オブジェクトは、当該オブジェクトの全周について現実空間の立体物の形状および色を再現していなくてよい。遮蔽オブジェクトは、少なくとも1つの視点から見て、現実空間の立体物の形状および色を再現していればよい。
図6は、写真Ptから生成される対象空間Vsを模式的に示す。図6に示す例では、写真Ptに含まれる展示台や置物である2つの立体物Tg1,Tg2に基づき、2つの遮蔽オブジェクトOj1,Oj2が生成されて、これらの遮蔽オブジェクトOj1,Oj2が配置された対象空間Vsが構築されている。
図5に戻り、仮想空間生成装置20は、生成した対象空間データを、ネットワークを通じてユーザ端末40が利用可能なように出力する(ステップS13)。例えば、仮想空間生成装置20は、対象空間データを含めた描画用データ43aを、クラウドストレージに格納してもよいし、アプリケーションソフトウェアとして提供してもよい。
また、描画用データ43aに含まれる背景データも、仮想空間生成装置20によって生成されればよい。仮想空間生成装置20は、対象空間データの生成に用いた写真データから、背景データを生成する。例えば、写真の全体あるいは遮蔽オブジェクトの基とした立体物以外の部分から背景データが生成される。こうした背景データの生成も、対象空間生成部22aとしての処理である。
[対象空間の描画]
図7~図10を参照して、対象空間の描画に関する処理の手順を説明する。
まず、ユーザ端末40による対象空間の描画の処理の概要を説明する。ユーザ端末40は、ネットワークを通じて描画用データ43aを取得する。そして、ユーザ端末40は、ユーザ端末40を操作するユーザ自身のアバターである自己アバターの位置、および、視点の位置を、対象空間に対して設定する。自己アバターおよび視点の各位置は、例えば所定の初期位置から、ユーザ端末40に対するユーザの操作に応じて変更される。視点の位置は、アバターの位置の移動に追従して移動してもよい。また、ユーザ端末40は、情報中継装置30からの情報に基づき、他のユーザのアバターである他者アバターの位置を、対象空間に対して設定する。
ユーザ端末40は、視点の位置に応じた範囲、すなわち視点から見た所定の範囲に描画範囲を決定し、遮蔽オブジェクトおよびアバターのデータや位置情報に基づいて、対象空間における上記描画範囲の画像を生成する。そして、ユーザ端末40は、背景データを用いて、上記画像に視点の位置に応じた背景を合成して、表示データを生成する。表示部が表示データを用いて画像を表示することにより、ユーザ端末40に対象空間の画像が表示される。
図7は、アバターおよび視点の位置が設定された対象空間Vsを模式的に示す。図7に示す例では、対象空間Vsに、自己アバターAaと1人の他者アバターAbとが配置されている。視点Cmの位置に対する遮蔽オブジェクトOj1,Oj2およびアバターAa,Abの位置に応じて、遮蔽オブジェクトOj1,Oj2およびアバターAa,Abの一部が他に隠れるように描画される。これによって、ユーザ端末40に表示された対象空間Vsの画像を見るユーザは、対象空間Vs内の構造物やアバターの位置関係を把握できる。
なお、視点およびアバターの位置の設定と変更には、視点およびアバターの向きの設定と変更も含まれる。
上述のように、ユーザ端末40は、視点の位置を、ユーザ端末40に対するユーザの操作に応じて移動させる。この際、視点の移動可能範囲は、対象空間内の構造や背景に破綻が生じない範囲に制限される。具体的には、視点から見た遮蔽オブジェクトの形状および色や配置が現実空間に沿って再現されている範囲、あるいは、背景データから視点に応じた背景が生成可能な範囲に、視点の移動可能範囲が制限される。例えば、視点の移動可能範囲は、対象空間の生成に用いられた写真の撮影位置に対応する対象空間内の位置を中心とする所定の範囲である。こうした視点の移動に関する処理は、情報管理部42aとしての処理である。
これにより、限られた視点や範囲の写真から対象空間が生成された場合のように、対象空間内やその背景領域において現実空間が再現されている領域に限りがある場合でも、対象空間の画像を見るユーザが違和感を覚え難くなる。そして、対象空間の全ての領域で現実空間を再現する場合と比べて、対象空間の構築に要する負荷の軽減が可能である。
続いて、ユーザ端末40による各処理を詳細に説明する。まず、図8を参照して、情報中継装置30を介したユーザ端末40間の情報の交換について説明する。ユーザ端末40と情報中継装置30とは、例えば対象空間の描画の開始に際して、ネットワークを介して接続される。図8では、例として、第1のユーザ端末40Aと第2のユーザ端末40Bとの2つのユーザ端末40間での情報の交換の手順を示している。第1のユーザ端末40Aと第2のユーザ端末40Bとは、いずれも、共通の対象空間について描画処理を行っている。
図8に示すように、第1のユーザ端末40Aにて、当該ユーザ端末40Aを操作する第1のユーザのアバターの位置がユーザ端末40Aの操作に基づき変更されると、ユーザ端末40Aは、第1のユーザのアバターの位置を示すアバター位置情報IaAを情報中継装置30に送信する(ステップS20)。
同様に、第2のユーザ端末40Bにて、当該ユーザ端末40Bを操作する第2のユーザのアバターの位置がユーザ端末40Bの操作に基づき変更されると、ユーザ端末40Bは、第2のユーザのアバターの位置を示すアバター位置情報IaBを情報中継装置30に送信する(ステップS21)。
情報中継装置30は、ユーザ端末40から情報を受信すると、中継処理として、送信先の他のユーザ端末40を特定して情報を送信する(ステップS22)。例えば、同一の対象空間について描画を行っているユーザ端末40が情報の送信対象とされる。
これにより、第1のユーザのアバター位置情報IaAが、第2のユーザ端末40Bに送信され、第2のユーザのアバター位置情報IaBが、第1のユーザ端末40Aに送信される。そして、第1のユーザ端末40Aでは、他者アバターの位置についてアバター位置情報IaBが反映されて対象空間の描画処理が行われる(ステップS23)。第1のユーザ端末40Aにおいて、自己アバターの位置にはアバター位置情報IaAが反映される。
同様に、第2のユーザ端末40Bでは、他者アバターの位置についてアバター位置情報IaAが反映されて対象空間の描画処理が行われる(ステップS24)。第2のユーザ端末40Bにおいて、自己アバターの位置にはアバター位置情報IaBが反映される。
以上により、ユーザ端末40に表示される対象空間の画像において、他のユーザのアバターの移動が反映される。アバター位置情報はテキストデータとして伝送されるため、伝送データの容量を抑えつつ、アバターの移動の反映が可能である。なお、こうしたアバター位置情報の交換は3以上のユーザ端末40間で行われてもよいし、アバター位置情報以外の情報の交換も行われてもよい。また、アバター位置情報にはアバターの向きの情報も含まれればよい。こうした情報の交換は、情報中継装置30の中継処理部32aによって管理される。
次に、図9および図10を参照して、ユーザ端末40による対象空間の描画に関わる処理を説明する。
ユーザ端末40では、描画用データ43aの読み出しやユーザ端末40の操作や情報中継装置30からの情報の受信に基づいて、遮蔽オブジェクトの位置、視点の位置、自己アバターの位置、他者アバターの位置を示す各情報が、メモリの所定の領域に保持されている。これらのうち、遮蔽オブジェクトの位置情報は固定である。視点および自己アバターの位置情報はユーザ端末40の操作に基づき更新され、他者アバターの位置情報は、情報中継装置30からの情報に基づき更新される。
図9に示すように、情報の更新により、視点の位置情報、自己アバターの位置情報、他者アバターの位置情報のいずれかに変更があると(ステップS30)、フラグが設定されて各情報がメモリの描画処理用の領域に複製される(ステップS31)。これらは、情報管理部42aとしての処理である。
詳細には、図10に示すように、ユーザ端末40の第1の記憶領域45に、上述の各情報である遮蔽オブジェクト位置情報Io、視点位置情報Ic、自己アバター位置情報Ia、他者アバター位置情報Ibが保持されている。複数の遮蔽オブジェクトが存在する場合には、複数の遮蔽オブジェクト位置情報Ioが保持され、複数の他者アバターが存在する場合には、複数の他者アバター位置情報Ibが保持される。
第1の記憶領域45に保持されている情報は、上述のように、ユーザ端末40の操作や情報中継装置30からの情報に基づき更新される。視点位置情報Ic、自己アバター位置情報Ia、および、他者アバター位置情報Ibのうちの少なくとも1つが変更されると、第1の記憶領域45に保持されている情報が、第2の記憶領域46に複製される。変更された情報については変更後の情報が複製される。
この際、視点フラグ情報Fc、自己アバターフラグ情報Fa、他者アバターフラグ情報Fbも、第2の記憶領域46に保持される。視点フラグ情報Fcは、視点位置情報Icにおける変更の有無を示す機能を有する。すなわち、視点位置情報Icが変更されたとき、視点フラグ情報Fcはtrueとされ、視点位置情報Icが変更されていないとき、視点フラグ情報Fcはfalseとされる。自己アバターフラグ情報Faは、自己アバター位置情報Iaにおける変更の有無を示す機能を有する。すなわち、自己アバター位置情報Iaが変更されたとき、自己アバターフラグ情報Faはtrueとされ、自己アバター位置情報Iaが変更されていないとき、自己アバターフラグ情報Faはfalseとされる。他者アバターフラグ情報Fbは、他者アバター位置情報Ibにおける変更の有無を示す機能を有する。すなわち、他者アバター位置情報Ibが変更されたとき、他者アバターフラグ情報Fbはtrueとされ、他者アバター位置情報Ibが変更されていないとき、他者アバターフラグ情報Fbはfalseとされる。
図9に戻り、情報を複製すると、情報管理部42aは、描画を指示する(ステップS32)。これを受けて、描画処理部42bは、第2の記憶領域46に保持されている情報および描画用データ43aを用いて、対象空間を描画する(ステップS33)。すなわち、描画処理部42bは、視点位置情報Icに応じた描画範囲を設定し、遮蔽オブジェクト位置情報Io、自己アバター位置情報Ia、他者アバター位置情報Ibに基づき描画範囲に含まれる遮蔽オブジェクトおよびアバターを描画する。描画に際しては、各フラグ情報Fa,Fb,Fcを利用してもよい。例えば、視点フラグ情報Fcがfalseであれば、描画範囲の新たな設定は行わず、前回の描画処理時と同じ描画範囲を用いればよい。
また、情報管理部42aは、自己アバターフラグ情報Faがtrueであるかを確認し(ステップS34)、自己アバターフラグ情報Faがtrueである場合(ステップS34にて肯定判定)、自己アバター位置情報Iaを、通信部41を介して情報中継装置30に送信する(ステップS35)。自己アバターフラグ情報Faがfalseである場合(ステップS34にて否定判定)には、自己アバター位置情報Iaの送信は行われない。
描画処理部42bは、ステップS33で生成した対象空間の描画画像に背景を合成することにより表示データを生成し、表示データを表示部に出力する(ステップS36)。これにより、ユーザ端末40の表示部の表示画像が更新されて、対象空間の新たな画像が表示される。なお、背景の合成は、ステップS33における対象空間の描画に併せて実施されてもよいし、アバターが先に描画されて遮蔽オブジェクトや背景と合成されてもよい。
以上のように、本実施形態では、写真から遮蔽オブジェクトが生成されることにより対象空間が構築される。現実空間の写真は容易に入手可能であるため、3DCGによるモデリングやマテリアルおよびテクスチャの設定工程を経て仮想空間を構築する場合と比べて、現実空間の再現性が高い仮想空間を、制作のコストや期間の増大を抑えて容易に構築可能である。また、現実空間において店舗等の内装の変更があった場合にも、仮想空間への反映に対応しやすい。
また、写真からオブジェクトのテクスチャが生成されるため、仮想空間内の構造物の色や質感といった外観について、ユーザは、写真同様の印象、すなわち、現実空間の再現性が高い印象を受けやすい。
そして、こうした仮想空間にアバターを配置することで、現実空間と同様の活動を仮想空間で行うことが可能である。仮想空間が容易に構築可能であることにより、仮想空間の用途の拡大も可能である。
[描画対象の切り替え]
ユーザ端末40においては、視点の移動に応じて、描画対象の遮蔽オブジェクトが切り替えられてもよい。図11および図12を参照して、こうした切替処理について説明する。
切替処理が行われる場合、描画用データ43aの対象空間データには、複数の遮蔽オブジェクトデータと、中間オブジェクトデータとが含まれる。これらのデータは、仮想空間生成装置20の対象空間生成部22aによって生成される。
1つの遮蔽オブジェクトデータは、対象空間に同時に配置される1以上の遮蔽オブジェクトの3Dモデルおよび位置のデータを含む。言い換えれば、切替処理が行われない場合の対象空間データは、1つの遮蔽オブジェクトデータから構成されている。1つの中間オブジェクトデータもまた、対象空間に同時に配置される1以上の遮蔽オブジェクトの3Dモデルおよび位置のデータを含む。
詳細には、仮想空間生成装置20は、1つの現実空間を互いに異なる位置から撮影した複数の写真データの各々から、遮蔽オブジェクトデータを生成する。例えば、図11に示すように、第1の写真Pt1と、第1の写真Pt1よりも被写体である立体物に近い位置から現実空間を撮影した第2の写真Pt2とが用いられる。第1の写真Pt1と第2の写真Pt2とは、共通の立体物を少なくとも1つ含む。
そして、第1の写真Pt1からの立体物の抽出により、第1の遮蔽オブジェクトのデータである遮蔽オブジェクトデータDs1が生成される。第1の写真Pt1が複数の立体物を含む場合には、各立体物に対応する遮蔽オブジェクトのそれぞれが第1の遮蔽オブジェクトであり、遮蔽オブジェクトデータDs1は、遮蔽オブジェクトの群のデータである。同様に、第2の写真Pt2からの立体物の抽出により、第2の遮蔽オブジェクトのデータである遮蔽オブジェクトデータDs2が生成される。
また、第1の写真Pt1からは、ユーザ端末40での対象空間の描画に際して、第1の遮蔽オブジェクトが描画対象であるときに背景として用いられる画像のデータが生成される。同様に、第2の写真Pt2からは、第2の遮蔽オブジェクトが描画対象であるときに背景として用いられる画像のデータが生成される。同一の写真に基づき生成された遮蔽オブジェクトデータと背景データとは互いに対応付けられて描画用データ43aに含められる。
さらに、仮想空間生成装置20は、第1の遮蔽オブジェクトデータDs1と、第2の遮蔽オブジェクトデータDs2とを用いて、これらのデータが含む情報を平均化することにより、中間オブジェクトデータDmを生成する。すなわち、中間オブジェクトデータDmは、オブジェクトを構成する各部の座標や色の情報として、第1の遮蔽オブジェクトと第2の遮蔽オブジェクトとの平均値を有する遮蔽オブジェクトのデータである。言い換えれば、中間オブジェクトデータDmが示す遮蔽オブジェクトが中間オブジェクトであり、中間オブジェクトは、そのサイズや配置について、第1の遮蔽オブジェクトと第2の遮蔽オブジェクトとの中間の構成を有する。
以上のように、切替対象の2つの遮蔽オブジェクトに対して1つの中間オブジェクトが生成される。例えば、第1の遮蔽オブジェクトと第2の遮蔽オブジェクトとが切替対象であり、さらに、第2の遮蔽オブジェクトと第3の遮蔽オブジェクトとが切替対象である場合、第1の遮蔽オブジェクトと第2の遮蔽オブジェクトとから第1の中間オブジェクトが生成され、第2の遮蔽オブジェクトと第3の遮蔽オブジェクトとから第2の中間オブジェクトが生成される。
図12を参照して、ユーザ端末40による描画対象の遮蔽オブジェクトの切り替えの処理手順を説明する。図12では、例として、第1の写真に基づく第1の遮蔽オブジェクトから、第2の写真に基づく第2の遮蔽オブジェクトに描画対象が切り替えられる場合の手順を示している。
図12に示すように、ユーザ端末40は、第1の遮蔽オブジェクトが描画されている状態において(ステップS50)、描画対象の切替条件が成立したかを判定する(ステップS51)。
詳細には、第1の遮蔽オブジェクトが描画対象であるとき、先の図7~図10を参照して説明した対象空間の描画に際しては、対象空間内に配置されたオブジェクトとして第1遮蔽オブジェクトが描画される。そして、第1の遮蔽オブジェクトから第2の遮蔽オブジェクトへの描画対象の切替条件が予め設定されており、この切替条件は、描画用データ43aに含まれてユーザ端末40に保持されている。切替条件は、視点の位置についての条件であり、例えば、特定の遮蔽オブジェクトに対して視点が所定位置よりも近づく等のように、視点が所定の範囲内に移動したことが切替条件とされる。一例では、視点が、第1の写真の撮影位置に対応する位置よりも、第2の写真の撮影位置に対応する位置に近くなることが切替条件とされる。
切替条件が成立していない場合(ステップS51にて否定判定)、描画対象は第1の遮蔽オブジェクトのまま維持される。切替条件が成立した場合(ステップS51にて肯定判定)、ユーザ端末40は、描画対象を中間オブジェクトとして対象空間を描画し(ステップS52)、その後、描画対象を第2の遮蔽オブジェクトとして対象空間を描画する(ステップS53)。上記中間オブジェクトは、第1の遮蔽オブジェクトと第2の遮蔽オブジェクトとの平均化により生成されたオブジェクトである。上記の処理において、ステップS51の処理は、情報管理部42aとしての処理であり、ステップS50,S52,S53の処理は、描画処理部42bとしての処理である。
このように、描画対象は、第1の写真に基づく第1の遮蔽オブジェクトから、中間オブジェクトを経て、第2の写真に基づく第2の遮蔽オブジェクトに切り替えられる。中間オブジェクトの描画期間は、例えば数フレームに対応する期間等に予め設定されていればよい。各オブジェクトの位置が対象空間の基準位置に対して定められていることにより、描画対象のオブジェクトが切り替えられても、同一の立体物を表すオブジェクトとアバターとの位置関係は維持される。
描画対象の切り替えは、言い換えれば、対象空間に配置する遮蔽オブジェクトの入れ替えであり、遮蔽オブジェクトごとの仮想空間を対象空間として捉えるならば、描画対象の対象空間の切り替えとも言える。
描画対象が第1の遮蔽オブジェクトである場合、合成対象の背景は、第1の写真に基づく背景であり、描画対象が第2の遮蔽オブジェクトである場合、合成対象の背景は、第2の写真に基づく背景である。描画対象が中間オブジェクトである場合の背景は、第1の写真または第2の写真から生成されてもよいし、第1の写真と第2の写真との平均化等により生成されてもよい。
以上の処理により、ユーザ端末40に表示される対象空間の画像が、第1の写真に対応する光景から第2の写真に対応する光景に切り替わる際に、オブジェクトの位置や大きさが緩やかに変化する。例えば、第1の遮蔽オブジェクトが図11に示した第1の写真Pt1に基づくオブジェクトであり、第2の遮蔽オブジェクトが図11に示した第2の写真Pt2に基づくオブジェクトである場合、中間オブジェクトを挟んで描画対象が切り替えられることにより、ユーザ端末40に表示される対象空間の画像においては、オブジェクトである立体物が向かって左にずれつつ手前に拡大していくように、表示内容が変化する。
したがって、視点の移動に伴って表示される対象空間の光景の移り変わりが立体感を有して滑らかになり、描画対象の切り替わりに際してユーザが違和感を覚えることが抑えられる。そして、このように描画対象を切り替えることにより、1つの遮蔽オブジェクトデータおよび背景データによる対象空間の再現範囲が限られている場合であっても、視点やアバターの移動可能な範囲を広げることが可能であり、複数の遮蔽オブジェクトデータ全体として再現範囲の拡大が可能である。
以上説明したように、本実施形態によれば、以下に列挙する効果が得られる。
(1)写真から遮蔽オブジェクトが生成されることにより仮想空間が構築され、この仮想空間にアバターが配置される。したがって、現実空間の再現性が高い仮想空間を、制作のコストや期間の増大を抑えて容易に構築可能であり、仮想空間での現実空間と同様の活動の的確な実現が可能である。
(2)アバターの位置情報が、情報中継装置30を通じてユーザ端末40間で交換されることにより、各ユーザ端末40において他者のアバターの移動が反映される。これにより、伝送されるデータの容量を抑えつつ、他のユーザのアバターの移動をユーザ端末40における仮想空間の描画に反映させることができる。
(3)仮想空間の描画により生成される画像に、写真から生成された背景が合成される。これにより、仮想空間の光景として、奥行き方向の描写についても、現実空間の光景に沿った画像の生成が可能である。
(4)視点の位置の移動可能範囲が制限されることにより、仮想空間やその背景において現実空間が再現されている領域が限られている場合であっても、描画された仮想空間の画像において仮想空間内の構造や背景に破綻が生じることが抑えられる。
(5)描画対象の遮蔽オブジェクトの切り替えによって、視点やアバターの移動可能な範囲を広げることが可能であり、複数の遮蔽オブジェクトデータ全体として仮想空間における再現範囲の拡大が可能である。そして、中間オブジェクトを挟んで描画対象の遮蔽オブジェクトが切り替えられることにより、仮想空間の光景の移り変わりについて、立体感を有した自然な移り変わりが可能となる。
[変形例]
上記実施形態は、以下のように変更して実施することが可能である。
・対象空間の描画処理は、仮想空間生成装置20または情報中継装置30にて行われ、生成された画像がユーザ端末40に送信されてもよい。この場合、描画用データ43aは、描画処理を行う装置にて読み込まれ、ユーザ端末40におけるアバターおよび視点の操作情報が、描画処理を行う装置に送信されて、描画に反映される。この描画処理を行う装置が情報処理装置であり、当該装置に格納されて描画処理を行わせるプログラムが情報処理プログラムである。また、情報処理装置は、対象空間の生成処理と描画処理との双方を行ってもよい。
・仮想空間生成装置20と情報中継装置30とは、1つのコンピュータ装置であってもよい。また、情報処理装置は、単体のコンピュータ装置であってもよいし、複数のコンピュータ装置から構成されてもよい。
Aa,Ab…アバター
Oj1,Oj2…遮蔽オブジェクト
Pt,Pt1,Pt2…写真
Tg1,Tg2…立体物
Vs…対象空間
10…管理システム
20…仮想空間生成装置
30…情報中継装置
40…ユーザ端末
100…情報処理システム

Claims (6)

  1. 現実空間を撮影した写真からの立体物の検出に基づき生成されたオブジェクトが遮蔽オブジェクトであって、前記遮蔽オブジェクトが配置された仮想空間のデータを読み込むことと、
    前記仮想空間にアバターおよび視点の位置を設定することと、
    前記視点から見た前記仮想空間を描画することと、を実行する情報処理装置であって、
    前記仮想空間のデータは、第1の写真から生成された第1の遮蔽オブジェクトのデータと、第2の写真から生成された第2の遮蔽オブジェクトのデータと、前記第1の遮蔽オブジェクトの構成情報と前記第2の遮蔽オブジェクトの構成情報とを平均化することにより生成されたオブジェクトである中間オブジェクトのデータとを含み、
    前記視点の位置について、描画対象の遮蔽オブジェクトを前記第1の遮蔽オブジェクトから前記第2の遮蔽オブジェクトへ切り替える条件が設定されており、
    前記情報処理装置は、前記条件が成立したとき、描画対象の遮蔽オブジェクトを、前記第1の遮蔽オブジェクトから前記中間オブジェクトを経て前記第2の遮蔽オブジェクトに切り替えて、前記仮想空間を描画する
    情報処理装置。
  2. 前記情報処理装置は、ネットワークを介して情報中継装置と接続され、
    前記アバターは、前記情報処理装置を操作するユーザのアバターである自己アバターと、他のユーザのアバターである他者アバターとを含み、
    前記情報処理装置は、
    前記情報処理装置の操作に応じて変更される前記自己アバターの位置情報を、前記情報中継装置に送信するとともに、前記情報中継装置から、前記他者アバターの位置情報を受信し、
    前記自己アバターの位置情報および前記他者アバターの位置情報を反映させた各アバターを含む前記仮想空間を描画する
    請求項1に記載の情報処理装置。
  3. 前記情報処理装置は、
    前記仮想空間の描画により生成される画像に前記写真から生成した背景を合成する
    請求項1に記載の情報処理装置。
  4. 前記情報処理装置は、
    ユーザの操作に応じて移動させる前記視点の位置の移動可能範囲を、所定の範囲に制限する
    請求項1に記載の情報処理装置。
  5. 1または複数のコンピュータに、
    現実空間を撮影した写真からの立体物の検出に基づき生成されたオブジェクトが遮蔽オブジェクトであって、前記遮蔽オブジェクトが配置された仮想空間のデータを読み込むことと、
    前記仮想空間にアバターおよび視点の位置を設定することと、
    前記視点から見た前記仮想空間を描画することと、を実行させるプログラムであって、
    前記仮想空間のデータは、第1の写真から生成された第1の遮蔽オブジェクトのデータと、第2の写真から生成された第2の遮蔽オブジェクトのデータと、前記第1の遮蔽オブジェクトの構成情報と前記第2の遮蔽オブジェクトの構成情報とを平均化することにより生成されたオブジェクトである中間オブジェクトのデータとを含み、
    前記視点の位置について、描画対象の遮蔽オブジェクトを前記第1の遮蔽オブジェクトから前記第2の遮蔽オブジェクトへ切り替える条件が設定されており、
    前記コンピュータに、前記条件が成立したとき、描画対象の遮蔽オブジェクトを、前記第1の遮蔽オブジェクトから前記中間オブジェクトを経て前記第2の遮蔽オブジェクトに切り替えて、前記仮想空間を描画することを実行させる
    情報処理プログラム。
  6. 1または複数のコンピュータが、
    現実空間を撮影した写真からの立体物の検出に基づき生成されたオブジェクトが遮蔽オブジェクトであって、前記遮蔽オブジェクトが配置された仮想空間のデータを読み込むことと、
    前記仮想空間にアバターおよび視点の位置を設定することと、
    前記視点から見た前記仮想空間を描画することと、を実行する情報処理方法であって、
    前記仮想空間のデータは、第1の写真から生成された第1の遮蔽オブジェクトのデータと、第2の写真から生成された第2の遮蔽オブジェクトのデータと、前記第1の遮蔽オブジェクトの構成情報と前記第2の遮蔽オブジェクトの構成情報とを平均化することにより生成されたオブジェクトである中間オブジェクトのデータとを含み、
    前記視点の位置について、描画対象の遮蔽オブジェクトを前記第1の遮蔽オブジェクトから前記第2の遮蔽オブジェクトへ切り替える条件が設定されており、
    前記コンピュータが、前記条件が成立したとき、描画対象の遮蔽オブジェクトを、前記第1の遮蔽オブジェクトから前記中間オブジェクトを経て前記第2の遮蔽オブジェクトに切り替えて、前記仮想空間を描画することを実行する
    情報処理方法。
JP2024016564A 2024-02-06 2024-02-06 情報処理装置、情報処理プログラム、および、情報処理方法 Active JP7556484B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024016564A JP7556484B1 (ja) 2024-02-06 2024-02-06 情報処理装置、情報処理プログラム、および、情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2024016564A JP7556484B1 (ja) 2024-02-06 2024-02-06 情報処理装置、情報処理プログラム、および、情報処理方法

Publications (1)

Publication Number Publication Date
JP7556484B1 true JP7556484B1 (ja) 2024-09-26

Family

ID=92839457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024016564A Active JP7556484B1 (ja) 2024-02-06 2024-02-06 情報処理装置、情報処理プログラム、および、情報処理方法

Country Status (1)

Country Link
JP (1) JP7556484B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054569A (ja) 2011-09-05 2013-03-21 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
JP2024008779A (ja) 2022-07-07 2024-01-19 Jp Games株式会社 情報処理装置、情報処理方法及びプログラム
JP2024011933A (ja) 2022-07-15 2024-01-25 グリー株式会社 情報処理システム、情報処理方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054569A (ja) 2011-09-05 2013-03-21 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
JP2024008779A (ja) 2022-07-07 2024-01-19 Jp Games株式会社 情報処理装置、情報処理方法及びプログラム
JP2024011933A (ja) 2022-07-15 2024-01-25 グリー株式会社 情報処理システム、情報処理方法、及びプログラム

Similar Documents

Publication Publication Date Title
WO2018188499A1 (zh) 图像、视频处理方法和装置、虚拟现实装置和存储介质
JP6181917B2 (ja) 描画システム、描画サーバ、その制御方法、プログラム、及び記録媒体
US5684943A (en) Method and apparatus for creating virtual worlds
JP4226639B1 (ja) 画像処理装置、画像処理方法、ならびに、プログラム
US11776197B2 (en) Method and apparatus for displaying personalized face of three-dimensional character, device, and storage medium
EP1977801B1 (en) Game machine, game machine control method, and information storage medium
JP7249755B2 (ja) 画像処理システムおよびその制御方法、プログラム
JP7186901B2 (ja) ホットスポットマップの表示方法、装置、コンピュータ機器および読み取り可能な記憶媒体
CN111803945A (zh) 界面渲染方法、装置、电子设备及存储介质
US11461942B2 (en) Generating and signaling transition between panoramic images
Hoberman et al. Immersive training games for smartphone-based head mounted displays
CN105389090A (zh) 游戏交互界面显示的方法及装置、移动终端和电脑终端
JP2001126085A (ja) 画像生成システム、画像表示システム、画像生成プログラムを記録したコンピュータ読み取り可能な記録媒体および画像生成方法
WO2024087883A1 (zh) 视频画面渲染方法、装置、设备和介质
CN110517346B (zh) 虚拟环境界面的展示方法、装置、计算机设备及存储介质
CN110889384A (zh) 场景切换方法及装置、电子设备和存储介质
JP6975370B1 (ja) 画像表示方法、プログラム及びデータ生成方法
JP7556484B1 (ja) 情報処理装置、情報処理プログラム、および、情報処理方法
CN112206519B (zh) 实现游戏场景环境变化的方法、装置、存储介质及计算机设备
JP2006094458A (ja) 映像信号処理装置および仮想現実感生成装置ならびに記録媒体
JP2004178036A (ja) 遠隔者の映像を伴う仮想空間の提示装置
JP2006040053A (ja) 画像処理方法及びプログラム
JP7541148B2 (ja) コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法
CN117499693A (zh) 虚拟直播视频的生成方法、装置、设备及可读存储介质
Kurillo et al. Teleimmersive 3D collaborative environment for cyberarchaeology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240206

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240826

R150 Certificate of patent or registration of utility model

Ref document number: 7556484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150