JP6216398B2 - Image generating apparatus and image generating method - Google Patents
Image generating apparatus and image generating method Download PDFInfo
- Publication number
- JP6216398B2 JP6216398B2 JP2016031165A JP2016031165A JP6216398B2 JP 6216398 B2 JP6216398 B2 JP 6216398B2 JP 2016031165 A JP2016031165 A JP 2016031165A JP 2016031165 A JP2016031165 A JP 2016031165A JP 6216398 B2 JP6216398 B2 JP 6216398B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- virtual space
- positional relationship
- users
- mounted display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Description
この発明は、ヘッドマウントディスプレイに表示される画像を生成する装置および方法に関する。 The present invention relates to an apparatus and a method for generating an image to be displayed on a head mounted display.
ゲーム機に接続されたヘッドマウントディスプレイを頭部に装着して、ヘッドマウントディスプレイに表示された画面を見ながら、コントローラなどを操作してゲームプレイすることが行われている。ゲーム機に接続された通常の据え置き型のディスプレイでは、ディスプレイの画面の外側にもユーザの視野範囲が広がっているため、ディスプレイの画面に集中できなかったり、ゲームへの没入感に欠けることがある。その点、ヘッドマウントディスプレイを装着すると、ヘッドマウントディスプレイに表示される映像以外はユーザは見ないため、映像世界への没入感が高まり、ゲームのエンタテインメント性を一層高める効果がある。 A head-mounted display connected to a game machine is attached to the head, and a game is played by operating a controller or the like while viewing a screen displayed on the head-mounted display. In a normal stationary display connected to a game machine, the user's field of view extends outside the display screen, so it may not be possible to concentrate on the display screen or lack of immersion in the game. . On the other hand, when the head mounted display is mounted, since the user does not see any video other than the video displayed on the head mounted display, the feeling of immersion in the video world is increased and the entertainment property of the game is further enhanced.
また、ヘッドマウントディスプレイにパノラマ画像を表示させ、ヘッドマウントディスプレイを装着したユーザが頭部を回転させると、360度のパノラマ画像や仮想空間が表示されるようにすると、さらに映像への没入感が高まり、ゲームなどのアプリケーションの操作性も向上する。 In addition, when a panoramic image is displayed on the head-mounted display and a user wearing the head-mounted display rotates his / her head, a 360-degree panoramic image and a virtual space are displayed. The operability of applications such as games will be improved.
しかしながら、ヘッドマウントディスプレイにパノラマ画像や仮想空間を表示させるにはヘッドマウントディスプレイ側に計算パワーが必要であり、処理負荷が大きくなる。 However, in order to display a panoramic image or a virtual space on the head mounted display, calculation power is required on the head mounted display side, which increases processing load.
本発明はこうした課題に鑑みてなされたものであり、その目的は、ヘッドマウントディスプレイに表示する画像を効率良く生成することのできる画像生成装置および画像生成方法を提供することにある。 The present invention has been made in view of these problems, and an object thereof is to provide an image generation apparatus and an image generation method capable of efficiently generating an image to be displayed on a head-mounted display.
上記課題を解決するために、本発明のある態様の画像生成装置は、ネットワークを介してヘッドマウントディスプレイにクラウドサービスを提供する画像生成装置であって、撮影方向の異なる複数の撮影画像を受信する撮影画像受信部と、撮影方向の異なる複数の撮影画像を合成してパノラマ画像を生成するパノラマ画像処理部と、パノラマ画像をヘッドマウントディスプレイの仕様に適した画像フォーマットに変換するフォーマット変換部と、フォーマット変換後のパノラマ画像をヘッドマウントディスプレイに送信するパノラマ画像送信部とを含む。 In order to solve the above-described problem, an image generation apparatus according to an aspect of the present invention is an image generation apparatus that provides a cloud service to a head-mounted display via a network, and receives a plurality of captured images having different shooting directions. A captured image receiving unit, a panoramic image processing unit that generates a panoramic image by combining a plurality of captured images with different shooting directions, a format conversion unit that converts the panoramic image into an image format suitable for the specifications of the head mounted display, A panoramic image transmission unit that transmits the panoramic image after the format conversion to the head mounted display.
本発明の別の態様もまた、画像生成装置である。この装置は、ネットワークを介してヘッドマウントディスプレイにクラウドサービスを提供する画像生成装置であって、ヘッドマウントディスプレイに搭載された位置センサにより取得された前記ヘッドマウントディスプレイを装着するユーザの位置の情報を受信する位置情報受信部と、複数のユーザ間の位置関係にもとづいて前記複数のユーザのキャラクタの位置関係を決定する位置関係処理部と、決定されたキャラクタの位置関係にもとづいて前記複数のユーザのキャラクタを仮想空間に配置し、仮想空間をレンダリングする3次元レンダリング部と、レンダリングされた仮想空間の情報を前記ヘッドマウントディスプレイに送信する描画データ送信部とを含む。 Another embodiment of the present invention is also an image generation device. This device is an image generation device that provides a cloud service to a head-mounted display via a network, and obtains information on the position of a user wearing the head-mounted display acquired by a position sensor mounted on the head-mounted display. A positional information receiving unit for receiving, a positional relationship processing unit for determining the positional relationship of the characters of the plurality of users based on the positional relationship between the plurality of users, and the plurality of users based on the positional relationship of the determined characters Are arranged in a virtual space, a three-dimensional rendering unit that renders the virtual space, and a drawing data transmission unit that transmits information of the rendered virtual space to the head mounted display.
本発明のさらに別の態様は、画像生成方法である。この方法は、ネットワークを介してヘッドマウントディスプレイにクラウドサービスを提供する画像生成方法であって、撮影方向の異なる複数の撮影画像を受信する撮影画像受信ステップと、撮影方向の異なる複数の撮影画像を合成してパノラマ画像を生成するパノラマ画像処理ステップと、パノラマ画像をヘッドマウントディスプレイの仕様に適した画像フォーマットに変換するフォーマット変換ステップと、フォーマット変換後のパノラマ画像をヘッドマウントディスプレイに送信するパノラマ画像送信ステップとを含む。 Yet another embodiment of the present invention is an image generation method. This method is an image generation method for providing a cloud service to a head-mounted display via a network, and includes a captured image receiving step for receiving a plurality of captured images with different shooting directions, and a plurality of captured images with different shooting directions. A panorama image processing step for combining and generating a panorama image, a format conversion step for converting the panorama image into an image format suitable for the specifications of the head mounted display, and a panorama image for transmitting the panorama image after the format conversion to the head mounted display Sending step.
本発明のさらに別の態様もまた、画像生成方法である。この方法は、ネットワークを介してヘッドマウントディスプレイにクラウドサービスを提供する画像生成方法であって、ヘッドマウントディスプレイに搭載された位置センサにより取得された前記ヘッドマウントディスプレイを装着するユーザの位置の情報を受信する位置情報受信ステップと、複数のユーザ間の位置関係にもとづいて前記複数のユーザのキャラクタの位置関係を決定する位置関係処理ステップと、決定されたキャラクタの位置関係にもとづいて前記複数のユーザのキャラクタを仮想空間に配置し、仮想空間をレンダリングする3次元レンダリングステップと、レンダリングされた仮想空間の情報を前記ヘッドマウントディスプレイに送信する描画データ送信ステップとを含む。 Yet another embodiment of the present invention is also an image generation method. This method is an image generation method for providing a cloud service to a head mounted display via a network, and information on the position of a user wearing the head mounted display acquired by a position sensor mounted on the head mounted display is obtained. A positional information receiving step for receiving, a positional relationship processing step for determining the positional relationship of the characters of the plurality of users based on the positional relationship between the plurality of users, and the plurality of users based on the determined positional relationship of the characters Are arranged in a virtual space, and a three-dimensional rendering step for rendering the virtual space, and a drawing data transmission step for transmitting information on the rendered virtual space to the head mounted display are included.
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above-described constituent elements and the expression of the present invention converted between a method, an apparatus, a system, a computer program, a data structure, a recording medium, and the like are also effective as an aspect of the present invention.
本発明によれば、ヘッドマウントディスプレイに表示する画像を効率良く生成することができる。 ADVANTAGE OF THE INVENTION According to this invention, the image displayed on a head mounted display can be produced | generated efficiently.
図1は、ヘッドマウントディスプレイ100の外観図である。ヘッドマウントディスプレイ100は、本体部110、前頭部接触部120、および側頭部接触部130を含む。
FIG. 1 is an external view of the head mounted
ヘッドマウントディスプレイ100は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための表示装置である。
The head mounted
ヘッドマウントディスプレイ100に内蔵または外付けされたGPS(Global Positioning System)などの位置センサによりユーザの位置情報を計測することができる。また、ヘッドマウントディスプレイ100に内蔵または外付けされた姿勢センサによりヘッドマウントディスプレイ100を装着したユーザの頭部の向きや傾きといった姿勢情報を計測することができる。
The position information of the user can be measured by a position sensor such as GPS (Global Positioning System) incorporated in or externally attached to the head mounted
本体部110には、ディスプレイ、位置情報取得センサ、姿勢センサ、通信装置などが含まれる。前頭部接触部120および側頭部接触部130には、ユーザの体温、脈拍、血液成分、発汗、脳波、脳血流などの生体情報を計測することのできる生体情報取得センサが含まれる。
The
ヘッドマウントディスプレイ100には、さらに、ユーザの目を撮影するカメラが設けられてもよい。ヘッドマウントディスプレイ100に搭載されたカメラにより、ユーザの視線、瞳孔の動き、瞬きなどを検出することができる。
The head mounted
ここでは、ヘッドマウントディスプレイ100に表示される画像の生成方法を説明するが、本実施の形態の画像生成方法は、狭義のヘッドマウントディスプレイ100に限らず、めがね、めがね型ディスプレイ、めがね型カメラ、ヘッドフォン、ヘッドセット(マイクつきヘッドフォン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラつき帽子、ヘアバンドなどを装着した場合にも適用することができる。
Here, a method for generating an image displayed on the head mounted
図2は、ヘッドマウントディスプレイ100の機能構成図である。
FIG. 2 is a functional configuration diagram of the head mounted
制御部10は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。入力インタフェース20は、タッチパネルおよびタッチパネルコントローラから操作信号や設定信号を受け付け、制御部10に供給する。出力インタフェース30は、制御部10から画像信号を受け取り、ディスプレイに表示させる。バックライト32は、液晶ディスプレイにバックライトを供給する。
The
通信制御部40は、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、制御部10から入力されるデータを外部に送信する。通信制御部40は、また、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、外部からデータを受信し、制御部10に出力する。
The
記憶部50は、制御部10が処理するデータやパラメータ、操作信号などを一時的に記憶する。
The
GPSユニット60は、制御部10からの操作信号にしたがって、GPS衛星から位置情報を受信して制御部10に供給する。無線ユニット62は、制御部10からの操作信号にしたがって、無線基地局から位置情報を受信して制御部10に供給する。
The
姿勢センサ64は、ヘッドマウントディスプレイ100の本体部110の向きや傾きなどの姿勢情報を検出する。姿勢センサ64は、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現される。
The
外部入出力端子インタフェース70は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインタフェースである。外部メモリ72は、フラッシュメモリなどの外部メモリである。
The external input /
時計部80は、制御部10からの設定信号によって時間情報を設定し、時間データを制御部10に供給する。
The
制御部10は、画像やテキストデータを出力インタフェース30に供給してディスプレイに表示させたり、通信制御部40に供給して外部に送信させることができる。
The
図3は、本実施の形態に係る画像生成システムの構成図である。画像生成システムは、ヘッドマウントディスプレイ100、クラウドサーバ200、およびカメラ300を含む。
FIG. 3 is a configuration diagram of the image generation system according to the present embodiment. The image generation system includes a head mounted
ヘッドマウントディスプレイ100は、ユーザが頭部に装着して静止画、動画などの画像鑑賞を行うことのできる頭部装着型表示装置の一例である。ヘッドマウントディスプレイ100は、有線LANや無線LAN、ブルートゥース(商標)、携帯電話回線などの通信機能を備え、外部とのデータ入出力が可能である。ヘッドマウントディスプレイ100は、ネットワーク400を介してクラウドサーバ200とデータ通信を行う。また、ヘッドマウントディスプレイ100に搭載されたGPSセンサによりユーザの位置を計測し、ユーザの位置情報をクラウドサーバ200に送信することができる。また、ヘッドマウントディスプレイ100に搭載された姿勢センサによりヘッドマウントディスプレイ100の向きや傾きを計測し、姿勢情報をクラウドサーバ200に送信することができる。
The head-mounted
カメラ300は、2次元または3次元の静止画や動画を撮影することができる画像データ取得装置の一例である。カメラ300は、有線LANや無線LAN、ブルートゥース(商標)、携帯電話回線などの通信機能を備え、外部とのデータ入出力が可能である。カメラ300は、ネットワーク400を介してクラウドサーバ200とデータ通信を行う。また、カメラ300は、撮影時の露出やレンズ情報、姿勢などの機器情報を記録する機能を持ち、クラウドサーバ200に撮影画像データとともに機器情報を送信することができる。また、カメラ300は、内蔵もしくは外付けの超音波やレーザーを用いた距離センサによって撮影した被写体までの距離を計測する機能を有してもよく、クラウドサーバ200に撮影画像データとともに距離情報を送信することができる。
The
クラウドサーバ200は、カメラ300で取得した画像データをヘッドマウントディスプレイ100に表示するのに適した形態に加工してヘッドマウントディスプレイ100に送信する。
The
たとえば、ハードウェア仕様の異なるヘッドマウントディスプレイに対応するように、クラウドサーバ200は、解像度、表示方法、画質など各ヘッドマウントディスプレイに最適化したデータに変換してもよい。クラウドサーバ200は、カメラ300で撮影された画像データをヘッドマウントディスプレイでの表示に最適となるように加工してもよい。クラウドサーバ200は、2次元画像を撮影する複数のカメラで撮影した複数枚の撮影画像から3次元表示可能な画像データに加工してもよい。クラウドサーバ200は、2次元画像を撮影する複数のカメラで撮影した複数枚の撮影画像から被写体までの距離データを計算してもよい。クラウドサーバ200は、距離センサで取得した距離データと画像データを組み合わせる事で2次元表示可能な画像データに加工してもよい。クラウドサーバ200は、カメラ300で撮影したデータをつなぎ合わせる事でパノラマ画像データを生成してもよい。
For example, the
このように、クラウドサービスを利用することでクラウドサーバ200側で画像にいろいろな処理を施すことができるため、ヘッドマウントディスプレイ100およびカメラ300のハードウェア構成を簡単かつ安価にすることができる。カメラ300が撮影した画像をクラウドサーバ200に送信し、ヘッドマウントディスプレイ100が最適化されたデータを受け取って表示することにより、ユーザはリアルタイムで遠隔地のパノラマ画像を見ることができる。
As described above, since various processes can be performed on the image on the
図4は、パノラマ画像生成装置500の機能構成図である。パノラマ画像生成装置500の機能構成は、クラウドサーバ200に実装される。パノラマ画像生成装置500の機能構成の一部をヘッドマウントディスプレイ100またはカメラ300に実装することもできる。
FIG. 4 is a functional configuration diagram of the panoramic
撮影画像受信部510は、カメラ300から撮影方向の異なる複数の撮影画像を受信し、画像データ記憶部520に保存する。パノラマ画像処理部530は、画像データ記憶部520に記憶された撮影方向の異なる複数の撮影画像をステッチング処理によってつなぎ合わせてパノラマ画像を生成する。
The captured
フォーマット変換部540は、ヘッドマウントディスプレイ100の仕様に合わせて、パノラマ画像の解像度、アスペクト比(縦横比)、3次元表示データ形式などを変換する。
The
パノラマ画像送信部550は、フォーマット変換部540により変換されたパノラマ画像データをヘッドマウントディスプレイ100に送信する。
The panorama
カメラ300がパノラマ撮影が可能な撮像装置である場合は、撮影画像受信部510はカメラ300からパノラマ画像を受信して画像データ記憶部520に保存する。この場合、ステッチング処理は不要であるから、フォーマット変換部540がパノラマ画像を画像データ記憶部520から読み出してヘッドマウントディスプレイ100の仕様に合わせて画像形式を変換すればよい。
When the
カメラ300が被写体までの距離を測定する距離センサを備えている場合、撮影画像受信部510は、カメラ300から2次元パノラマ撮影画像とともに距離情報を受信し、画像データ記憶部520に2次元パノラマ撮影画像と距離情報を保存する。パノラマ画像処理部530は、画像解析を行い、2次元パノラマ撮影画像から距離情報を用いて視差を計算し、左目用画像と右目用画像を含む3次元パノラマ画像を生成する。フォーマット変換部540は、ヘッドマウントディスプレイ100の仕様に合わせて、3次元パノラマ画像の解像度、アスペクト比(縦横比)、表示データ形式などを変換する。パノラマ画像送信部550は、3次元パノラマ画像をヘッドマウントディスプレイ100に送信する。
When the
また、クラウドサーバ200のパノラマ画像処理部530は、カメラ300により撮影された実写画像に各種のエフェクトを施してもよい。たとえば、コンピュータグラフィックス(CG)調、アニメーション調、セピア調などのエフェクトを実写画像に施す。また、パノラマ画像処理部530は、ゲームキャラクタなどのCGを生成し、カメラ300により撮影された実写画像に重ねてレンダリングしてもよい。これにより、クラウドサーバ200は実写画像とCGを合成した映像コンテンツをヘッドマウントディスプレイ100に配信することができる。
In addition, the panoramic
図5は、複数のヘッドマウントディスプレイにより映像を共有するシステムの構成図である。映像共有システムは、複数のヘッドマウントディスプレイ100a、100bおよびクラウドサーバ200を含む。ヘッドマウントディスプレイ100a、100bはネットワーク400を介してクラウドサーバ200とデータ通信する。
FIG. 5 is a configuration diagram of a system for sharing a video by a plurality of head mounted displays. The video sharing system includes a plurality of head mounted
ヘッドマウントディスプレイ100a、100bは実世界におけるユーザの位置情報をクラウドサーバ200に送信する。クラウドサーバ200はユーザの位置関係を反映した画像データをヘッドマウントディスプレイ100a、100bに送信する。
The head mounted displays 100 a and 100 b transmit user location information in the real world to the
たとえば、複数のユーザが一つの部屋でテーブルを囲んで座っている場合、クラウドサーバ200は各ユーザの位置情報をもとに現実の位置情報を仮想世界のアバタの位置情報に反映させてアバタの位置を決めて仮想空間内に各ユーザのアバタを描画する。また、映画館内や展示物の前で複数のユーザがヘッドマウントディスプレイを装着した場合、ユーザの現実世界での位置に応じて、視点位置の異なる映像をユーザのヘッドマウントディスプレイに配信してもよい。また、複数のユーザが異なるロケーションにいる場合、ユーザのロケーション間の距離をアバタの位置関係やアバタの表示サイズに反映してもよい。
For example, when a plurality of users are sitting around a table in one room, the
図6は、仮想空間描画処理装置600の機能構成図である。仮想空間描画処理装置600の機能構成は、クラウドサーバ200に実装される。仮想空間描画処理装置600の機能構成の一部をヘッドマウントディスプレイ100に実装することもできる。
FIG. 6 is a functional configuration diagram of the virtual space
ユーザ位置・向き受信部610は、ヘッドマウントディスプレイ100に内蔵されたGPSセンサにより取得されたユーザの位置の情報、およびヘッドマウントディスプレイ100に内蔵された姿勢センサにより取得されたユーザの頭部の向きの情報をヘッドマウントディスプレイ100から受信し、ユーザデータベース660にユーザの位置および向きの情報をユーザの識別情報に関連づけて保存する。
The user position /
位置関係処理部620は、ユーザデータベース660から複数のユーザの位置および向きの情報を読み出し、複数のユーザの位置関係を決定する。たとえば、現実世界において二人のユーザが向き合っているなら、仮想空間においても二人のユーザのアバタが向き合うようにアバタの位置と向きを決定する。また、現実世界におけるユーザAとユーザBの間の距離が、ユーザAとユーザCの間の距離よりも大きい場合、仮想空間においてもユーザAのアバタはユーザBのアバタよりもユーザCのアバタに近い位置に配置される。ユーザAとユーザBが向き合っている場合は、ユーザAのアバタとユーザBのアバタを向き合わせる。ユーザA、B、Cが一つの対象物を取り囲んで向き合っている場合は、ユーザA、B、Cのアバタも仮想空間におけるオブジェクトを取り囲んで向き合うように向きを決定する。
The positional
視線方向設定部630は、ユーザの現実の方向に応じて、各ユーザのカメラ位置、言い換えれば仮想空間における視線方向を設定する。たとえば、一つの対象物の周りを複数のユーザが取り囲んでいる場合、ユーザが現実の対象物に向かっている方向をユーザの仮想空間における視線方向とする。
The line-of-sight
3次元レンダリング部640は、仮想空間情報記憶部670から仮想空間の情報やキャラクタのデータを読み出し、各ユーザの視線方向から見た仮想空間の3次元レンダリングを行う。仮想空間には各ユーザのアバタが合成される。描画データ送信部650は仮想空間の描画データをヘッドマウントディスプレイ100に送信する。
The three-
図7は、仮想空間描画処理手順を説明するシーケンス図である。 FIG. 7 is a sequence diagram illustrating the virtual space drawing processing procedure.
ヘッドマウントディスプレイ100は、各種変数を初期化する(S10)。ヘッドマウントディスプレイ100に搭載されたGPSセンサや姿勢センサがユーザの位置と向きを測定する(S12)。ヘッドマウントディスプレイ100の通信制御部40は、ユーザの位置と向きの情報をクラウドサーバ200に送信する。
The head mounted
クラウドサーバ200の位置関係処理部620は、ユーザの位置情報にもとづいて、仮想空間内の位置にユーザのキャラクタをマッピングする(S14)。位置関係処理部620は、仮想空間内に既にマッピングされた他のユーザとの相対的な位置関係を計算し、当該ユーザのキャラクタを表示する位置と向きを決定する(S16)。視線方向設定部630は、当該ユーザのカメラ方向、すなわち仮想空間における視線方向を計算する(S18)。3次元レンダリング部640は、当該ユーザの視点方向から見た仮想空間の3次元レンダリングを行う(S20)。描画データ送信部650は、3次元レンダリングの描画データをヘッドマウントディスプレイ100に送信する。
The positional
ヘッドマウントディスプレイ100は、3次元描画データを表示する(S22)。終了条件を満たせば(S24のY)、終了し、終了条件を満たさない場合(S24のN)、ステップS12に戻って、それ以降の処理が繰り返される。
The head mounted
図8は、図7のステップS16の他ユーザとの位置関係処理の手順を詳しく説明するフローチャートである。 FIG. 8 is a flowchart for explaining in detail the procedure of the positional relationship process with another user in step S16 of FIG.
まず、仮想空間に既にアバタがいるかどうかを判定する(S30)。仮想空間にまだアバタがいなければ(S30のN)、仮想空間に当該ユーザのアバタを登場させる(S42)。 First, it is determined whether or not an avatar already exists in the virtual space (S30). If there is no avatar yet in the virtual space (N in S30), the avatar of the user appears in the virtual space (S42).
仮想空間に既にアバタが存在する場合(S30のY)、位置関係のスコア計算を行う(S32)。たとえば、実世界におけるユーザ間の距離をもとに、位置関係のスコアを求める。各ユーザの実世界における位置と方向の情報を用いて、アバタの相対的位置関係、すなわち、アバタ間の距離や、あるアバタが別のアバタに対して取る向きを決定する。 If an avatar already exists in the virtual space (Y in S30), a positional relation score is calculated (S32). For example, the position relationship score is obtained based on the distance between users in the real world. Using the information on the position and direction of each user in the real world, the relative positional relationship of avatars, that is, the distance between avatars and the direction that one avatar takes with respect to another avatar are determined.
図12〜図15を参照してステップS32の位置関係のスコア計算の一例を説明する。ここではスコア計算方法の一例を説明するが、スコア計算方法はこれに限定されるものではない。 An example of the positional relationship score calculation in step S32 will be described with reference to FIGS. Although an example of the score calculation method will be described here, the score calculation method is not limited to this.
図12および図13は、仮想空間と実世界に地理的な相関関係がない場合における、ユーザの位置関係のスコア計算方法を説明する図である。 12 and 13 are diagrams for describing a score calculation method for a user's positional relationship when there is no geographical correlation between the virtual space and the real world.
まず、各ユーザの実世界の位置の緯度経度データにもとづいて、各ユーザを基準とした他のユーザの距離および方向を求める。GPSデータを用いて実世界におけるユーザの位置を取得する。図12(a)は、ユーザ1、ユーザ2、ユーザ3の実世界の位置の緯度経度データを示す。
First, based on the latitude and longitude data of each user's real-world position, the distance and direction of another user based on each user are obtained. The position of the user in the real world is acquired using GPS data. FIG. 12A shows the latitude and longitude data of the real world positions of the
図12(b)は、実世界におけるユーザ1を基準としたユーザ2およびユーザ3の距離と方向を示す。ユーザ1を基準としたユーザ2の距離はLr_12であり、方向はAr_12である。また、ユーザ1を基準としたユーザ3の距離はLr_13であり、方向はAr_13である。ここで、方向は緯線を基準とした時計回りの角度で定義する。
FIG. 12B shows the distance and direction of the user 2 and the user 3 with respect to the
同様に、図12(c)は、実世界におけるユーザ3を基準としたユーザ2およびユーザ1の距離と方向を示す。ユーザ3を基準としたユーザ2の距離はLr_32であり、方向はAr_32である。また、ユーザ3を基準としたユーザ1の距離はLr_31であり、方向はAr_31である。
Similarly, FIG.12 (c) shows the distance and direction of the user 2 and the
なお、事前に仮想空間にいるアバタが一人だけである場合は、方向の計算は省略することができる。 If there is only one avatar in the virtual space in advance, the direction calculation can be omitted.
次に、各ユーザの仮想空間の位置の絶対座標にもとづいて、各ユーザを基準とした他のユーザの距離および方向を求める。図13(a)は、ユーザ1、ユーザ2、ユーザ3の仮想空間の位置の絶対座標を示す。
Next, based on the absolute coordinates of the position of each user in the virtual space, the distances and directions of other users based on each user are obtained. FIG. 13A shows absolute coordinates of positions of the virtual spaces of the
図13(b)は、仮想空間におけるユーザ1を基準としたユーザ2およびユーザ3の距離と方向を示す。ユーザ1を基準としたユーザ2の距離はLv_12であり、方向はAv_12である。また、ユーザ1を基準としたユーザ3の距離はLv_13であり、方向はAv_13である。
FIG. 13B shows the distance and direction of the user 2 and the user 3 with respect to the
同様に、図13(c)は、仮想空間におけるユーザ3を基準としたユーザ2およびユーザ1の距離と方向を示す。ユーザ3を基準としたユーザ2の距離はLv_32であり、方向はAv_32である。また、ユーザ3を基準としたユーザ1の距離はLv_31であり、方向はAv_31である。
Similarly, FIG.13 (c) shows the distance and direction of the user 2 and the
次に、実世界におけるユーザ間の距離・方向と、仮想空間におけるユーザ間の距離・方向とを比較し、相関係数を計算する。 Next, the distance / direction between users in the real world is compared with the distance / direction between users in the virtual space, and a correlation coefficient is calculated.
ユーザmとユーザnについての実世界と仮想空間の位置関係の相関係数Rmnは次式で定義される。
Rmn=|Lv_mn−Lr_mn|×|Av_mn−Ar_mn|
ここで、|a|は値aの絶対値を取る演算である。
The correlation coefficient Rmn of the positional relationship between the real world and the virtual space for the user m and the user n is defined by the following equation.
Rmn = | Lv_mn−Lr_mn | × | Av_mn−Ar_mn |
Here, | a | is an operation that takes the absolute value of the value a.
相関係数Rmnをユーザの位置関係のスコアとして用いて(相関係数が小さいほどスコアは高く、相関係数が大きいほどスコアは低いとする)、相関係数Rmnが事前に決めた閾値以下であれば、実世界と仮想空間の位置関係は同じであるとみなす。 The correlation coefficient Rmn is used as the score of the user's positional relationship (the smaller the correlation coefficient, the higher the score, and the higher the correlation coefficient, the lower the score), and the correlation coefficient Rmn is below a predetermined threshold value. If there is, it is considered that the positional relationship between the real world and the virtual space is the same.
図14および図15は、仮想空間と実世界に地理的な相関関係がある場合における、ユーザの位置関係のスコア計算方法を説明する図である。 14 and 15 are diagrams illustrating a score calculation method for a user's positional relationship when there is a geographical correlation between the virtual space and the real world.
まず、各ユーザの実世界の位置の緯度経度データおよび実世界の地理的な基準点の緯度経度データにもとづいて、実世界の地理的な基準点(ここでは東京)を基準とした各ユーザの距離および方向を求める。GPSデータを用いて実世界におけるユーザの位置を取得する。図14(a)は、ユーザ1、ユーザ2、ユーザ3、および東京の実世界の位置の緯度経度データを示す。
First, based on the latitude / longitude data of each user's real world location and the latitude / longitude data of the real world geographical reference point, each user's reference is based on the real world geographical reference point (here, Tokyo). Find the distance and direction. The position of the user in the real world is acquired using GPS data. FIG. 14A shows latitude and longitude data of the
図14(b)は、実世界における東京を基準としたユーザ2の距離と方向を示す。実世界の東京を基準としたユーザ2の距離はLr_02であり、方向はAr_02である。同様に、図14(c)は、実世界における東京を基準としたユーザ1の距離と方向を示す。実世界の東京を基準としたユーザ1の距離はLr_01であり、方向はAr_01である。図14(d)は、実世界における東京を基準としたユーザ3の距離と方向を示す。実世界の東京を基準としたユーザ3の距離はLr_03であり、方向はAr_03である。
FIG. 14B shows the distance and direction of the user 2 with reference to Tokyo in the real world. The distance of the user 2 with respect to Tokyo in the real world is Lr_02 and the direction is Ar_02. Similarly, FIG.14 (c) shows the distance and direction of the
次に、各ユーザの仮想空間の位置の絶対座標および仮想空間の地理的な基準点の絶対座標にもとづいて、仮想空間の地理的な基準点(ここでは東京)を基準とした各ユーザの距離および方向を求める。図15(a)は、ユーザ1、ユーザ2、ユーザ3、および東京の仮想空間の位置の絶対座標を示す。
Next, based on the absolute coordinates of the virtual space position of each user and the absolute coordinates of the geographical reference point of the virtual space, the distance of each user based on the geographical reference point of the virtual space (here, Tokyo) And seek directions. FIG. 15A shows the absolute coordinates of the positions of the
図15(b)は、仮想空間における東京を基準としたユーザ2の距離と方向を示す。仮想空間の東京を基準としたユーザ2の距離はLv_02であり、方向はAv_02である。同様に、図15(c)は、仮想空間における東京を基準としたユーザ1の距離と方向を示す。仮想空間の東京を基準としたユーザ1の距離はLv_01であり、方向はAv_01である。図15(d)は、仮想空間における東京を基準としたユーザ3の距離と方向を示す。仮想空間の東京を基準としたユーザ3の距離はLv_03であり、方向はAv_03である。
FIG. 15B shows the distance and direction of the user 2 with reference to Tokyo in the virtual space. The distance of the user 2 with reference to the virtual space Tokyo is Lv_02, and the direction is Av_02. Similarly, FIG.15 (c) shows the distance and direction of the
次に、実世界における基準点とユーザ間の距離・方向と、仮想空間における基準点とユーザ間の距離・方向とを比較し、相関係数を計算する。 Next, the distance / direction between the reference point and the user in the real world and the distance / direction between the reference point and the user in the virtual space are compared, and a correlation coefficient is calculated.
基準点とユーザmについての実世界と仮想空間の位置関係の相関係数R0mは次式で定義される。
R0m=|Lv_0m−Lr_0m|×|Av_0m−Ar_0m|
The correlation coefficient R0m of the positional relationship between the real world and the virtual space for the reference point and the user m is defined by the following equation.
R0m = | Lv — 0m−Lr — 0m | × | Av — 0m—Ar — 0m |
相関係数R0mをユーザの位置関係のスコアとして用いて(相関係数が小さいほどスコアは高く、相関係数が大きいほどスコアは低いとする)、相関係数R0mが事前に決めた閾値以下であれば、実世界と仮想空間の位置関係は同じであるとみなす。 The correlation coefficient R0m is used as a score of the user's positional relationship (the smaller the correlation coefficient, the higher the score, and the higher the correlation coefficient, the lower the score), so that the correlation coefficient R0m is equal to or less than a predetermined threshold. If there is, it is considered that the positional relationship between the real world and the virtual space is the same.
再び図8を参照する。実世界の位置関係と仮想空間内のアバタの位置関係が同じかどうかを判定する(S34)。これは、仮想空間内でアバタが移動することがあり、現実の位置関係から外れていくことがあるからである。ステップS32で求めた相関係数Rmn(またはR0m)について閾値Rthと比較する。すべてのユーザについて、Rmn<Rth(またはR0m<Rth)であれば、実世界の位置関係と仮想空間内のアバタの位置関係は同じであると判定する。実世界の位置関係と仮想空間内のアバタの位置関係が所定の範囲で保たれている場合(S34のY)、仮想空間に当該ユーザのアバタを登場させる(S42)。 Refer to FIG. 8 again. It is determined whether the real world positional relationship is the same as the avatar positional relationship in the virtual space (S34). This is because the avatar may move in the virtual space and deviate from the actual positional relationship. The correlation coefficient Rmn (or R0m) obtained in step S32 is compared with the threshold value Rth. If Rmn <Rth (or R0m <Rth) for all users, it is determined that the real world positional relationship and the avatar positional relationship in the virtual space are the same. When the positional relationship between the real world and the avatar in the virtual space is maintained within a predetermined range (Y in S34), the user's avatar appears in the virtual space (S42).
実世界の位置関係と仮想空間内のアバタの位置関係が保たれていない場合(S34のN)、ユーザ同士の現実の位置関係に近い場所が仮想空間にあるか判定する(S36)。ステップS34で行った相関係数と閾値の比較において、一人以上のユーザについてRmn<Rth(またはR0m<Rth)であれば、ユーザ同士の現実の位置関係に近い場所が仮想空間にあると判定する。ユーザ同士の現実の位置関係に近い場所が仮想空間内にある場合(S36のY)、その場所の中からスコアがもっとも高いものを最も近い場所に決定する(S38)。たとえば、ステップS34で行った相関係数と閾値の比較において、Rmn<Rth(またはR0m<Rth)を満たしているユーザのデータのみを使って位置を決定する。ユーザ同士の現実の位置関係に近い場所が仮想空間内にない場合(S36のN)、適当な場所、たとえばランダムな位置や最後方の位置を決定する(S40)。いずれの場合でも、決定された場所に当該ユーザのアバタを登場させる(S42)。 When the positional relationship between the real world and the avatar in the virtual space is not maintained (N in S34), it is determined whether there is a place in the virtual space that is close to the actual positional relationship between the users (S36). In the comparison between the correlation coefficient and the threshold value performed in step S34, if Rmn <Rth (or R0m <Rth) for one or more users, it is determined that there is a place close to the actual positional relationship between the users in the virtual space. . If there is a place in the virtual space that is close to the actual positional relationship between users (Y in S36), the place with the highest score is determined as the closest place (S38). For example, in the comparison between the correlation coefficient and the threshold value performed in step S34, the position is determined using only user data satisfying Rmn <Rth (or R0m <Rth). If there is no place close to the actual positional relationship between users in the virtual space (N in S36), an appropriate place, for example, a random position or the last position is determined (S40). In any case, the user's avatar appears at the determined location (S42).
図9A〜図9Dは、仮想空間にユーザのアバタを登場させる例を説明する図である。ここでは、4人のユーザA〜Dのアバタ700a〜700dを仮想空間に登場させる例を説明する。4人のユーザA〜Dは、現実世界において異なる場所にいるとする。
9A to 9D are diagrams illustrating an example in which a user's avatar appears in the virtual space. Here, an example will be described in which
図9Aに示すように、ユーザAが最初に仮想空間にログインし、アバタ700aが仮想空間内に登場したとする。
As shown in FIG. 9A, it is assumed that user A first logs in to the virtual space, and
現実世界において、残りのユーザB、ユーザC、ユーザDはこの順でユーザAに対して近い位置にいるとする。たとえば、東京にいるユーザAに対して、ユーザBは横浜、ユーザCは神戸、ユーザDは香港にいるとする。 In the real world, it is assumed that the remaining users B, C, and D are close to the user A in this order. For example, for user A in Tokyo, user B is in Yokohama, user C is in Kobe, and user D is in Hong Kong.
ユーザB、ユーザC、ユーザDのアバタを仮想空間内に登場させる際、現実世界における位置関係を考慮して、図9Bに示すように、ユーザBのアバタ700bを先に登場させ、次に図9Cに示すように、ユーザCのアバタ700cを登場させ、最後に図9Dに示すように、ユーザDのアバタ700dを登場させる。このように最初にアバタを登場させたユーザに対して近くにいるユーザのアバタは先に出現し、遠くにいるユーザのアバタはゆっくり出現する。このように、ユーザ間の現実の距離に応じて各ユーザのアバタの出現速度を変えることによって、現実世界の距離感を仮想空間に反映させることができる。
When the avatars of the user B, the user C, and the user D appear in the virtual space, the
上記の説明では、ユーザA、B、C、Dが互いに離れた場所にいる場合を考えたが、ユーザA、B、C、Dがたとえば同じ部屋にいる場合は、ユーザA、B、C、Dの向きを仮想空間内のアバタ700a、700b、700c、700dの向きに反映させてもよい。たとえば、ユーザAとユーザBがテーブルを挟んで向かい合っている場合は、ユーザAのアバタ700aとユーザBのアバタ700bを仮想空間内のテーブルで向かい合う位置に配置される。
In the above description, the case where the users A, B, C, and D are located away from each other is considered. However, when the users A, B, C, and D are in the same room, for example, the users A, B, C, and D The direction of D may be reflected in the direction of the
図10は、仮想空間にユーザのアバタを登場させる別の例を説明する図である。図9A〜図9Dでは、最初にアバタ700aを仮想空間に登場させたユーザAに対するユーザB、C、Dの現実の位置関係にもとづいて、ユーザB、C、Dのアバタ700b、700c、700dを登場させる順序を決めたが、図10では、ユーザB、C、Dのアバタ700b、700c、700dは乗り物に乗って登場する。
FIG. 10 is a diagram illustrating another example in which a user's avatar appears in the virtual space. 9A to 9D, based on the actual positional relationship between the users B, C, and D with respect to the user A who first made the
図10に示すように、ユーザAに対して最も近い位置にいるユーザBのアバタ700bは自転車に乗って登場し、次に近い位置にいるユーザCのアバタ700cは自動車に乗って登場し、最も遠い位置にいるユーザDのアバタ700dは飛行機に乗って登場する。このように最初にアバタを登場させたユーザとの距離に応じてアバタの乗り物を変えることで現実世界の距離感を仮想空間に反映させることができる。
As shown in FIG. 10, the
図9A〜図9Dおよび図10で説明したように、先に仮想空間にアバタを登場させたユーザに対する距離に応じて他のユーザのアバタの現れ方を異ならせることでユーザは現実の距離感をヘッドマウントディスプレイ100に表示された仮想空間の中でも感じることができる。なお、ユーザ間の現実の距離に応じて、アバタの出現速度と乗り物の種類の両方を変えるようにしてもよい。
As described with reference to FIGS. 9A to 9D and FIG. 10, by changing the appearance of other users' avatars according to the distance to the user who previously made the avatar appear in the virtual space, the user can feel the real sense of distance. It can be felt in the virtual space displayed on the head mounted
図11は、ゲーム画面にユーザのアバタを登場させる例を説明する図である。地球上のある基準点(たとえば東京)からユーザの現実の位置までの距離をゲームに反映させる。ただし、ユーザの現実の位置によってゲーム上、不利とならないように、基準点をランダムにしたり、条件によって変えるようにする。 FIG. 11 is a diagram illustrating an example in which a user's avatar appears on the game screen. The distance from a reference point on the earth (for example, Tokyo) to the actual position of the user is reflected in the game. However, the reference point is made random or changed according to conditions so as not to be disadvantageous in the game depending on the actual position of the user.
図11に示すように、ユーザA、B、C、Dの地球上の位置を、互いの位置関係をできるだけ保持しながら、ゲーム内の位置にマッピングすることでユーザA、B、C、Dのアバタ700a、700b、700c、700dを表示する。ゲーム内の位置は取りうる場所が限定されるため、ユーザA、B、C、Dの現実の位置関係を、アバタ700a、700b、700c、700dの仮想空間内の位置関係に厳密に対応させる必要はなく、現実世界におけるユーザ同士の距離感が仮想空間におけるアバタの位置関係にある程度反映するものであればよい。
As shown in FIG. 11, by mapping the positions of the users A, B, C, D on the earth to the positions in the game while maintaining the mutual positional relationship as much as possible, the users A, B, C, D The
以上説明したように、本実施の形態によれば、位置や姿勢検出可能なセンサを備えたヘッドマウントディスプレイをクラウドサービスに組み入れることによって、ヘッドマウントディスプレイを装着したユーザの現実の位置関係や姿勢を仮想空間に反映させ、ヘッドマウントディスプレイに表示される画面への没入感および操作性を向上させることができる。またクラウドサーバを利用することでクライアント側のヘッドマウントディスプレイのハードウェア構成を単純化することができる。 As described above, according to the present embodiment, by incorporating a head mounted display equipped with a sensor capable of detecting the position and orientation into the cloud service, the actual positional relationship and orientation of the user wearing the head mounted display can be determined. Reflecting in the virtual space, it is possible to improve the immersive feeling and operability of the screen displayed on the head mounted display. Moreover, the hardware configuration of the client-side head mounted display can be simplified by using a cloud server.
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。そのような変形例を説明する。 The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. . Such a modification will be described.
10 制御部、 20 入力インタフェース、 30 出力インタフェース、 32 バックライト、 40 通信制御部、 42 ネットワークアダプタ、 44 アンテナ、 50 記憶部、 60 GPSユニット、 62 無線ユニット、 64 姿勢センサ、 70 外部入出力端子インタフェース、 72 外部メモリ、 80 時計部、 100 ヘッドマウントディスプレイ、 110 本体部、 120 前頭部接触部、 130 側頭部接触部、 200 クラウドサーバ、 300 カメラ、 400 ネットワーク、 500 パノラマ画像生成装置、 510 撮影画像受信部、 520 画像データ記憶部、 530 パノラマ画像処理部、 540 フォーマット変換部、 550 パノラマ画像送信部、 600 仮想空間描画処理装置、 610 ユーザ位置・向き受信部、 620 位置関係処理部、 630 視線方向設定部、 640 3次元レンダリング部、 650 描画データ送信部、 660 ユーザデータベース、 670 仮想空間情報記憶部。
10 control unit, 20 input interface, 30 output interface, 32 backlight, 40 communication control unit, 42 network adapter, 44 antenna, 50 storage unit, 60 GPS unit, 62 wireless unit, 64 attitude sensor, 70 external input /
Claims (10)
ヘッドマウントディスプレイを装着するユーザの位置の情報を取得する位置情報取得部と、
複数のユーザ間の位置関係にもとづいて前記複数のユーザのキャラクタの位置関係を決定する位置関係処理部と、
決定されたキャラクタの位置関係にもとづいて前記複数のユーザのキャラクタを仮想空間に配置し、仮想空間をレンダリングする3次元レンダリング部とを含み、
前記位置関係処理部は、前記複数のユーザ間の現実の距離に応じて前記仮想空間における前記複数のユーザのキャラクタ間の距離を決定し、
前記3次元レンダリング部は、前記複数のユーザ間の現実の距離に応じて、各ユーザのキャラクタが仮想空間に出現する態様を変えることを特徴とする画像生成装置。 An image generation device that provides an image to a head mounted display ,
A position information acquisition unit that acquires information on the position of the user wearing the head mounted display;
A positional relationship processing unit that determines the positional relationship of the characters of the plurality of users based on the positional relationship between the plurality of users;
A plurality of user characters arranged in a virtual space based on the determined character positional relationship, and a three-dimensional rendering unit for rendering the virtual space,
The positional relationship processing unit determines a distance between the characters of the plurality of users in the virtual space according to an actual distance between the plurality of users .
The three-dimensional rendering unit changes an aspect in which each user's character appears in a virtual space according to an actual distance between the plurality of users .
前記位置関係処理部は、各ユーザの向きにもとづいて各ユーザのキャラクタの仮想空間内の向きを決定することを特徴とする請求項1に記載の画像生成装置。 An orientation information receiving unit that receives information on the orientation of the head of the user wearing the head mounted display acquired by the attitude sensor mounted on the head mounted display;
The image generation apparatus according to claim 1, wherein the positional relationship processing unit determines the orientation of each user's character in the virtual space based on the orientation of each user.
ヘッドマウントディスプレイを装着するユーザの位置の情報を取得する位置情報取得ステップと、
複数のユーザ間の位置関係にもとづいて前記複数のユーザのキャラクタの位置関係を決定する位置関係処理ステップと、
決定されたキャラクタの位置関係にもとづいて前記複数のユーザのキャラクタを仮想空間に配置し、仮想空間をレンダリングする3次元レンダリングステップとを含み、
前記位置関係処理ステップは、前記複数のユーザ間の現実の距離に応じて前記仮想空間における前記複数のユーザのキャラクタ間の距離を決定し、
前記3次元レンダリングステップは、前記複数のユーザ間の現実の距離に応じて、各ユーザのキャラクタが仮想空間に出現する態様を変えることを特徴とする画像生成方法。 An image generation method for providing an image to a head mounted display ,
A position information acquisition step of acquiring information of a position of a user wearing the head mounted display;
A positional relationship processing step for determining the positional relationship of the characters of the plurality of users based on the positional relationship between the plurality of users;
A three-dimensional rendering step of arranging the plurality of user characters in a virtual space based on the determined positional relationship of the characters and rendering the virtual space;
The positional relationship processing step determines a distance between the characters of the plurality of users in the virtual space according to an actual distance between the plurality of users .
In the three-dimensional rendering step, an aspect in which each user's character appears in a virtual space is changed according to an actual distance between the plurality of users .
ヘッドマウントディスプレイを装着するユーザの位置の情報を取得する位置情報取得ステップと、
複数のユーザ間の位置関係にもとづいて前記複数のユーザのキャラクタの位置関係を決定する位置関係処理ステップと、
決定されたキャラクタの位置関係にもとづいて前記複数のユーザのキャラクタを仮想空間に配置し、仮想空間をレンダリングする3次元レンダリングステップとをコンピュータに実行させ、
前記位置関係処理ステップは、前記複数のユーザ間の現実の距離に応じて前記仮想空間における前記複数のユーザのキャラクタ間の距離を決定し、
前記3次元レンダリングステップは、前記複数のユーザ間の現実の距離に応じて、各ユーザのキャラクタが仮想空間に出現する態様を変えることを特徴とするプログラム。 An image generation program for providing an image to a head mounted display ,
A position information acquisition step of acquiring information of a position of a user wearing the head mounted display;
A positional relationship processing step for determining the positional relationship of the characters of the plurality of users based on the positional relationship between the plurality of users;
Arranging the plurality of user characters in the virtual space based on the determined positional relationship of the characters, and causing the computer to execute a three-dimensional rendering step of rendering the virtual space;
The positional relationship processing step determines a distance between the characters of the plurality of users in the virtual space according to an actual distance between the plurality of users.
The three-dimensional rendering step changes the manner in which each user's character appears in a virtual space in accordance with an actual distance between the plurality of users .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016031165A JP6216398B2 (en) | 2016-02-22 | 2016-02-22 | Image generating apparatus and image generating method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016031165A JP6216398B2 (en) | 2016-02-22 | 2016-02-22 | Image generating apparatus and image generating method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012155607A Division JP5891131B2 (en) | 2012-07-11 | 2012-07-11 | Image generating apparatus and image generating method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017182018A Division JP6487512B2 (en) | 2017-09-22 | 2017-09-22 | Head mounted display and image generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016140078A JP2016140078A (en) | 2016-08-04 |
JP6216398B2 true JP6216398B2 (en) | 2017-10-18 |
Family
ID=56559423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016031165A Active JP6216398B2 (en) | 2016-02-22 | 2016-02-22 | Image generating apparatus and image generating method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6216398B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6242473B1 (en) * | 2016-12-22 | 2017-12-06 | 株式会社コロプラ | Method for providing virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program |
JP6244593B1 (en) | 2017-01-30 | 2017-12-13 | 株式会社コロプラ | Information processing method, apparatus, and program for causing computer to execute information processing method |
JP6821461B2 (en) * | 2017-02-08 | 2021-01-27 | 株式会社コロプラ | A method executed by a computer to communicate via virtual space, a program that causes the computer to execute the method, and an information control device. |
JP6851278B2 (en) * | 2017-07-21 | 2021-03-31 | Kddi株式会社 | Content distribution devices, systems, programs and methods that determine the bit rate according to user status and complexity |
JP6918630B2 (en) * | 2017-08-16 | 2021-08-11 | 株式会社コロプラ | Information processing methods, programs and computers |
JP7077595B2 (en) | 2017-12-11 | 2022-05-31 | 富士フイルムビジネスイノベーション株式会社 | Information processing equipment and information processing programs |
JP7073702B2 (en) | 2017-12-11 | 2022-05-24 | 富士フイルムビジネスイノベーション株式会社 | Information processing equipment and information processing programs |
JP2019105960A (en) | 2017-12-12 | 2019-06-27 | 富士ゼロックス株式会社 | Information processing apparatus and information processing program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3413127B2 (en) * | 1999-06-11 | 2003-06-03 | キヤノン株式会社 | Mixed reality device and mixed reality presentation method |
JP4469653B2 (en) * | 2004-05-06 | 2010-05-26 | 任天堂株式会社 | Game system and game program |
JP4637889B2 (en) * | 2007-10-10 | 2011-02-23 | ヤフー株式会社 | Virtual space broadcasting device |
KR20090067822A (en) * | 2007-12-21 | 2009-06-25 | 삼성전자주식회사 | System for making mixed world reflecting real states and method for embodying it |
JP5310729B2 (en) * | 2008-09-01 | 2013-10-09 | 日本電気株式会社 | Avatar display method, avatar display device and program |
JP2012014599A (en) * | 2010-07-02 | 2012-01-19 | Sony Computer Entertainment Inc | Information processor, display control method, program and information storage medium |
-
2016
- 2016-02-22 JP JP2016031165A patent/JP6216398B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016140078A (en) | 2016-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5891131B2 (en) | Image generating apparatus and image generating method | |
JP6216398B2 (en) | Image generating apparatus and image generating method | |
JP6643357B2 (en) | Full spherical capture method | |
JP6353214B2 (en) | Image generating apparatus and image generating method | |
US10681276B2 (en) | Virtual reality video processing to compensate for movement of a camera during capture | |
JP6732617B2 (en) | Information processing apparatus and image generation method | |
JP2017097122A (en) | Information processing device and image generation method | |
JP6615732B2 (en) | Information processing apparatus and image generation method | |
JPWO2016009865A1 (en) | Information processing apparatus and method, display control apparatus and method, playback apparatus and method, program, and information processing system | |
JP2017215875A (en) | Image generation device, image generation system, and image generation method | |
JP2016015683A (en) | Image generator and image generating method | |
CN118338237A (en) | Method and apparatus for providing audio content in immersive reality | |
JP6487512B2 (en) | Head mounted display and image generation method | |
JP2017201742A (en) | Processing device, and image determining method | |
WO2019150201A1 (en) | Multiviewing virtual reality user interface | |
CN109791436B (en) | Apparatus and method for providing virtual scene | |
JP6518645B2 (en) | INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD | |
US11187895B2 (en) | Content generation apparatus and method | |
US10902617B2 (en) | Data processing for position detection using optically detectable indicators | |
WO2023248832A1 (en) | Remote viewing system and on-site imaging system | |
WO2022220305A1 (en) | Video display system, information processing method, and program | |
JP2006129472A (en) | Image processing apparatus and image processing method, and program | |
JP2024031113A (en) | Information processing device and image generation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170922 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6216398 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |