JP7290852B2 - MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD - Google Patents
MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD Download PDFInfo
- Publication number
- JP7290852B2 JP7290852B2 JP2018230300A JP2018230300A JP7290852B2 JP 7290852 B2 JP7290852 B2 JP 7290852B2 JP 2018230300 A JP2018230300 A JP 2018230300A JP 2018230300 A JP2018230300 A JP 2018230300A JP 7290852 B2 JP7290852 B2 JP 7290852B2
- Authority
- JP
- Japan
- Prior art keywords
- rendering
- content
- information
- server
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 30
- 238000009877 rendering Methods 0.000 claims description 229
- 238000004364 calculation method Methods 0.000 claims description 28
- 239000000872 buffer Substances 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 18
- 230000003111 delayed effect Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 10
- 238000004088 simulation Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 241000475481 Nebula Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Description
本発明は、多コンテンツ描画システム及び多コンテンツ描画方法に関する。 The present invention relates to a multi-content drawing system and a multi-content drawing method.
近年、コンピュータによるゲームやチャットの際に仮想世界を再現するようなサービスが数多く出てきている。このようなサービスはユーザに自身のモデルをアップロードさせることによって、自身があたかもその世界に訪れたかのように錯覚させる。 2. Description of the Related Art In recent years, a large number of services that reproduce virtual worlds during computer games and chats have appeared. Such services allow users to upload their own models, making them feel as if they have visited the world.
例えば、特許文献1には、仮想世界における複数のキャラクターの移動を含むゲーム処理を行うゲーム処理手段と、複数のキャラクターから、所定の条件に基づいて、1のキャラクターを特定キャラクターとして特定する特定手段と、複数のキャラクターのうち特定キャラクターを除く複数の非特定キャラクターの移動に共通性があるか否かを判定する判定手段と、判定手段によって、共通性があると判定されなかった場合には特定キャラクターを優先表示キャラクターとして決定し、共通性があると判定された場合には少なくとも何れかの非特定キャラクターを優先表示キャラクターとして決定する、決定手段と、複数のキャラクターのうち、少なくとも前記優先表示キャラクターが表示画像の所定の領域に入るように描画関連パラメータを調整する調整手段を備えるシステムが開示されている。 For example, Patent Document 1 discloses game processing means for performing game processing including movement of a plurality of characters in a virtual world, and identification means for identifying one character as a specific character from a plurality of characters based on predetermined conditions. and a determining means for determining whether or not there is commonality in the movement of a plurality of non-specific characters excluding a specific character among the plurality of characters, and if it is determined that there is no commonality by the determining means, the specified determination means for determining a character as a priority display character, and determining at least one non-specific character as a priority display character if it is determined that there is commonality; and at least the priority display character among a plurality of characters. A system is disclosed that includes adjustment means for adjusting drawing-related parameters such that the .DELTA.
ユーザが自身のモデルをアップロードさせるコンテンツ構造はあまり広く実現されていない。このようなシステム中で同時に同じサーバ、ルームなどお互いが見えるような空間にユーザ同士が入るためにはユーザがあらかじめ他のユーザのアバターをダウンロードしなければならない。そのような構造を想定した際には、特にデータ転送量やユーザデバイスにおけるレンダリングコストの肥大化などの問題が伴う。 Content structures that allow users to upload their own models are not widely implemented. In such a system, users must download other users' avatars in advance in order for users to enter the same server, room, or other space where they can see each other at the same time. Assuming such a structure entails problems such as an increase in the amount of data transfer and rendering costs in user devices.
すなわち、参加者が多くなればなるほど、それぞれのユーザがサーバからダウンロードしなければならないデータが大きく肥大化してしまう。また、一部のユーザがかなり大きなモデルをアップロードしてしまうと、他のユーザもこれをダウンロードしなければならず、膨大なネットワーク帯域の消費をする。そして、このモデルのレンダリングが各クライアントによって行われるために、ロースペックなデバイスのユーザは表示領域に入ってくる他人というコントロールしえない条件によってデバイスの処理の重さが大きく変わってしまう問題がある。 That is, the more participants there are, the more data each user must download from the server. Also, if some users upload a fairly large model, other users will have to download it as well, consuming a lot of network bandwidth. And since the rendering of this model is done by each client, users of low-spec devices have the problem that the processing load of the device changes greatly depending on the uncontrollable conditions such as other people entering the display area. .
このように、ユーザが自由にモデルをアップロードできるような仮想空間サービスなどでは、20~30名程度が一度の接続数の限界となっている現状がある。 In this way, in virtual space services where users can freely upload models, the current situation is that the number of connections at one time is limited to about 20 to 30 people.
本発明は、上記課題に鑑みてなされたものであり、特定の領域に存在する多種、多数のコンテンツを最適な負荷で描画する多コンテンツ描画システム及び多コンテンツ描画方法を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to provide a multi-content rendering system and a multi-content rendering method that render a large number of various types of content existing in a specific area with an optimum load. .
本発明の一態様は、複数のクライアント端末が接続する特定の領域に存在する多種、多数のコンテンツを描画する多コンテンツ描画システムであって、少なくとも、コンテンツを含む特定の領域の描画結果を生成する領域レンダリングサーバと、コンテンツの描画に関する計算を行うコンテンツレンダリングサーバを備え、コンテンツレンダリングサーバにはそれぞれのクライアント端末から登録されたキャラクタを含むコンテンツに関する情報が送信され、領域レンダリングサーバは、位置及び視点に関する情報をコンテンツレンダリングサーバに送信し、コンテンツレンダリングサーバからコンテンツのレンダリングに関する像としての情報を受信することを特徴とする。 One aspect of the present invention is a multi-content rendering system that renders a large number of various types of content existing in a specific area to which a plurality of client terminals are connected , and generates a rendering result of at least the specific area containing the content. An area rendering server and a content rendering server that perform calculations related to content rendering are provided. Information on content including registered characters is sent to the content rendering server from each client terminal, and the area rendering server receives information on position and viewpoint. It is characterized by transmitting information to a content rendering server and receiving information as a picture regarding content rendering from the content rendering server.
本発明の一態様によれば、コンテンツサーバでは登録されているモデルに関する演算のみ行い、領域レンダリングサーバではコンテンツサーバで行う計算を必要とせずにコンテンツのレンダリングに関する像としての情報のみを受け取ることにより、特定の領域に存在する多種、多数のコンテンツを最適な負荷で描画することができる。 According to one aspect of the present invention, the content server only performs calculations on registered models, and the region rendering server receives only graphical information regarding the rendering of the content without requiring calculations performed by the content server. It is possible to render a large number of various types of content existing in a specific area with an optimum load.
このとき、本発明の一態様では、コンテンツは3Dモデルを含むこととしてもよい。 At this time, in one aspect of the present invention, the content may include a 3D model.
3Dモデルのような重いデータ処理が必要な情報であっても、本発明の一態様では、レンダリングに関する像としての情報をやり取りするため、最適な負荷で描画することができる。 Even information that requires heavy data processing such as a 3D model can be rendered with an optimum load because, according to one aspect of the present invention, information is exchanged as an image regarding rendering.
また、本発明の一態様では、レンダリングに関する像としての情報は遅延シェーディングに基づくG-bufferとしてもよい。 Further, in one aspect of the present invention, the image information related to rendering may be a G-buffer based on delayed shading.
このようにすれば、仮に描画負荷が大きなコンテンツであったとしても、重くなるのはコンテンツレンダリングサーバにおける計算時のみであり、コンテンツそれぞれの負荷に応じてスケーリングすることによってその後の全体の描画処理の負荷には影響しなくなる。 In this way, even if the content has a large drawing load, it is only the time of calculation in the content rendering server that becomes heavy. load will not be affected.
また、本発明の一態様では、レンダリングに関する像としての情報はフォワードレンダリングに基づくレンダリング情報を含むとしてもよい。 Further, according to one aspect of the present invention, the image information related to rendering may include rendering information based on forward rendering.
レンダリングに関する像としての情報は遅延シェーディングに限らず、フォワードレンダリングに基づくものであってもよい。 Image information regarding rendering is not limited to deferred shading, and may be based on forward rendering.
また、本発明の一態様では、特定の領域は、複数の領域レンダリングサーバの処理により描画されるようにしてもよい。 Further, in one aspect of the present invention, a specific area may be rendered by processing of a plurality of area rendering servers.
複数の領域レンダリングサーバにより分割して管理することにより、広大な領域を描画するような場合であっても、負荷を軽減することができる。 By dividing and managing by a plurality of area rendering servers, it is possible to reduce the load even when rendering a large area.
本発明の他の態様は、複数のクライアント端末が接続する特定の領域に存在する多種、多数のコンテンツを描画する多コンテンツ描画方法であって、計算手段を用いてそれぞれのクライアント端末から登録されたキャラクタを含むコンテンツの描画に関する計算を行う計算工程と、描画手段においてコンテンツの位置及び視点に関する情報を取得する描画条件取得工程と、描画手段から情報を計算手段に送信し、計算手段からレンダリングに関する像としての情報を受信するレンダリング情報取得工程と、レンダリングに関する像としての情報からコンテンツを含む特定の領域の描画結果を生成する描画工程を有することを特徴とする。
Another aspect of the present invention is a multi-content rendering method for rendering a large number of various types of content present in a specific area to which a plurality of client terminals are connected . A calculation step of performing calculations related to drawing content including a character ; a drawing condition acquisition step of obtaining information about the position and viewpoint of content in the drawing means; and a drawing step of generating a drawing result of a specific area containing the content from information about the rendering as an image.
本発明の他の態様によれば、計算手段ではコンテンツの描画に関する演算のみ行い、描画手段ではコンテンツの描画に関する計算を必要とせずにコンテンツのレンダリングに関する像としての情報のみを受け取ることにより、特定の領域に存在する多種、多数のコンテンツを最適な負荷で描画することができる。 According to another aspect of the present invention, the computing means only performs operations related to content rendering, and the rendering means does not require computations related to content rendering, and receives only image information related to content rendering, so that a specific It is possible to render a large number of various types of contents present in the area with an optimum load.
このとき、本発明の他の態様では、コンテンツは3Dモデルを含むこととしてもよい。 Then, in another aspect of the invention, the content may include a 3D model.
3Dモデルのような重いデータ処理が必要な情報であっても、本発明の一態様では、レンダリングに関する像としての情報をやり取りするため、最適な負荷で描画することができる。 Even information that requires heavy data processing such as a 3D model can be rendered with an optimum load because, according to one aspect of the present invention, information is exchanged as an image regarding rendering.
また、本発明の他の態様では、レンダリングに関する像としての情報は遅延シェーディングに基づくG-bufferとしてもよい。 Also, in another aspect of the present invention, the image information related to rendering may be a G-buffer based on deferred shading.
このようにすれば、仮に描画負荷が大きなコンテンツであったとしても、重くなるのはコンテンツレンダリングサーバにおける計算時のみであり、コンテンツそれぞれの負荷に応じてスケーリングすることによってその後の全体の描画処理の負荷には影響しなくなる。 In this way, even if the content has a large drawing load, it is only the time of calculation in the content rendering server that becomes heavy. load will not be affected.
また、本発明の一態様では、レンダリングに関する像としての情報はフォワードレンダリングに基づくレンダリング情報を含むとしてもよい。 Further, according to one aspect of the present invention, the image information related to rendering may include rendering information based on forward rendering.
レンダリングに関する像としての情報は遅延シェーディングに限らず、フォワードレンダリングに基づくものであってもよい。 Image information regarding rendering is not limited to deferred shading, and may be based on forward rendering.
また、本発明の他の態様では、特定の領域を複数の描画手段により分割し、描画結果を生成する描画手段は、隣接する描画手段から、該描画手段が管理する領域の描画結果を取得するようにしてもよい。 In another aspect of the present invention, a specific area is divided by a plurality of drawing means, and the drawing means for generating the drawing results acquires the drawing results of the area managed by the drawing means from the adjacent drawing means. You may do so.
複数の描画手段により分割して管理することにより、広大な領域を描画するような場合であっても、負荷を軽減することができる。 By dividing and managing by a plurality of drawing means, it is possible to reduce the load even when drawing a large area.
また、本発明の他の態様は、上記多コンテンツ描画方法をコンピュータに実行させるためのプログラムである。 Another aspect of the present invention is a program for causing a computer to execute the multi-content drawing method.
以上説明したように本発明によれば、特定の領域に存在する多種、多数のコンテンツを最適な負荷で描画することができる。 As described above, according to the present invention, it is possible to render a large number of various types of content existing in a specific area with an optimum load.
以下、本発明の好適な実施の形態について詳細に説明する。なお、以下に説明する本実
施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではなく、本
実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。
Preferred embodiments of the present invention will be described in detail below. It should be noted that the present embodiment described below does not unduly limit the content of the present invention described in the claims, and all of the configurations described in the present embodiment are essential as means for solving the present invention. not necessarily.
本発明の一実施形態に係る多コンテンツ描画システムが適用される一例として、ゲームや仮想世界のようなバーチャルなコンテンツにおいて、ユーザはカスタマイズしたモデル(参加者のキャラクタ等)を登録して運用し、クライアント端末には、各ユーザ(モデル)の視点に応じた画像が描画される状況を想定する。図1は、従来の描画システムの構成を示す概略図であり、図2は、本発明の一実施形態に係る多コンテンツ描画システムの構成を示す概略図である。 As an example of application of the multi-content rendering system according to an embodiment of the present invention, users register and operate customized models (participant characters, etc.) in virtual content such as games and virtual worlds. A situation is assumed in which an image corresponding to the viewpoint of each user (model) is drawn on the client terminal. FIG. 1 is a schematic diagram showing the configuration of a conventional rendering system, and FIG. 2 is a schematic diagram showing the configuration of a multi-content rendering system according to one embodiment of the present invention.
従来の描画システム100では、図1に示すように、ユーザはクライアント端末101からレンダリングサーバ102にモデルMを登録(アップロード)し、その後は、レンダリングサーバ102に対してレンダリング結果をリクエストする。また、ユーザはクライアント端末101から自身のキャラクタMの動きなどの入力データをレンダリングサーバ102に送信する。
In the
図1に示すような描画システム100のように、あるユーザのモデルMからの視点を基にそれぞれのモデルM、M1、M2の描画情報を描画をするデバイス上にダウンロードする従来の方法では、ネットワークの帯域を浪費する、あるいはモデル情報をダウンロードしてデバイス上で描画する場合にはデバイスの計算負荷が重くなる問題があった。
As in the
また、他の3DモデルM1、M2があるユーザのモデルMの視界内Sに入った場合などに対処するため、レンダリングサーバ102は事前にユーザからモデルM1、M2をダウンロードしなければならず、その度に多くの帯域を浪費してしまっていた。このような問題を解決するためには、突然モデルデータをダウンロードしなければならないような状態を避けることが必要となる。
In addition, in order to deal with cases such as when other 3D models M1 and M2 enter the field of view S of the user's model M, the
本発明はこのような問題を解決するために発案されたものであり、本発明の一態様は、図2に示すように、特定の領域Rに存在する多種、多数のコンテンツM、M1、M2を描画する多コンテンツ描画システム10であって、少なくとも、特定の領域Rの描画結果を生成する領域レンダリングサーバ12と、コンテンツの描画に関する計算を行うコンテンツレンダリングサーバ13を備え、領域レンダリングサーバ12は、位置及び視点に関する情報をコンテンツレンダリングサーバ13に送信し、コンテンツレンダリングサーバ13からコンテンツのレンダリングに関する像としての情報を受信することを特徴とする。
The present invention was invented to solve such problems, and one aspect of the present invention is, as shown in FIG. comprising at least an area rendering
本発明では、このような構成とすることにより、モデルMはコンテンツレンダリングサーバ13Aに格納(アップロード)後は他のサーバに移す必要がなく、必要に応じてその場でのレンダリング結果のみ取得すればよいため、モデルMのダウンロードによる帯域問題が解決される。
In the present invention, with such a configuration, after the model M is stored (uploaded) in the content rendering
仮にコンテンツレンダリングサーバ13でのモデル描画が重かったとしても、重くなるのはそのモデルの計算だけであり、全体の描画処理の負荷には影響しない。重いモデルをあげたユーザのキャラクタ(アバター)の場合、重くなるのはそのコンテンツサーバだけである。単純にそのコンテンツだけ重い状態としておくか、そのユーザの需要に応じてそのコンテンツサーバだけ高性能な計算機を割り当てることができる。また、本発明の実施形態によっては、ユーザが自身のモデルMをあげるコンテンツレンダリングサーバ13Aを強化などすることによってコンテンツの負荷を見るユーザにかけてしまうことを避けて、コンテンツのアップロード者にかけることができる。
Even if the model drawing in the
また、ユーザーサイドに配信されるのはモデルデータではないコンテンツのレンダリング結果であるのでコンテンツの情報を配信先に分からせることなくレンダリングの結果を得ることができる。したがって、ユーザーサイドにコンテンツの3Dモデルをダウンロードさせる必要がなく、コンテンツの保護を図ることができる。また、領域レンダリングサーバ12に3Dモデルをダウンロードさせる必要がないため、ユーザ自身がモデルデータを用いて配信する際に3Dモデルをサービス提供者に渡すことなく、サービス中でモデル表示を利用することができる。
In addition, since what is delivered to the user side is not the model data but the rendering result of the content, the rendering result can be obtained without letting the delivery destination know the information of the content. Therefore, it is possible to protect the content without requiring the user to download the 3D model of the content. In addition, since there is no need to download the 3D model to the
図3は、本発明の他の実施形態に係る多コンテンツ描画システム20の構成を示す概略図である。本発明の一実施形態に係る多コンテンツ描画システム20では、図3に示すように、特定の領域Rを複数の領域レンダリングサーバ22(22A~22P)により分割して管理するようにすることができる。これにより、広大な領域を描画するような場合であっても、負荷を軽減することができる。詳細については後述する。
FIG. 3 is a schematic diagram showing the configuration of a
次に、本発明の一実施形態に係る多コンテンツ描画システムの構成要素である、領域レンダリングサーバ12とコンテンツレンダリングサーバ13の構成について説明する。
Next, configurations of the
領域レンダリングサーバ12とコンテンツレンダリングサーバ13は、それぞれ、サーバとして備えるべき、1又は複数のCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random access Memory)、通信ユニット等を備え、さらにGPU(Graphics Processing Unit)を備えていてもよい。また、必要に応じてキーボード、タッチパネル等の入力部や表示モニタ等の出力部等を有していてもよい。各構成要素の数及び性能は、描画の対象となる特定の領域Rの規模や、コンテンツの種類、数、計算の負荷等により状況に適したものを選択すればよい。また、領域レンダリングサーバ12とコンテンツレンダリングサーバ13には、それぞれ、後述する多コンテンツ描画方法を実現するためのプログラムを有する。
The
領域レンダリングサーバ12やコンテンツレンダリングサーバ13のCPUは、互いの通信ユニットを介して受信したデータや、ROMに記憶されている各種プログラムに従って、各サーバに備わる各構成要素の動作を制御する機能を有する。本実施形態では、CPUは、多コンテンツ描画方法を実行させるためのプログラムに従って、多コンテンツの描画のための動作を制御する。また、CPUは、これら各種処理を実行する際に、必要なデータ等をRAM(Random access Memory)等に適宜記憶させる機能を有する。また、GPU(Graphics Processing Unit)は、画像処理に特化した演算装置であり、レンダリング処理等を実行するために、各サーバに備わっていることが好ましい。
The CPUs of the
ROMやRAMといったメモリは、多コンテンツ描画システム10の各構成要素の動作制御に必要な情報を記憶する機能を有する。本実施形態では、メモリは、多コンテンツ描画システム10により実行される多コンテンツ描画方法を領域レンダリングサーバ12及びコンテンツレンダリングサーバ13間で実行させるためのプログラムが記憶されている。
Memories such as ROM and RAM have the function of storing information necessary for controlling the operation of each component of the multiple
通信ユニットは、領域レンダリングサーバ12、コンテンツレンダリングサーバ13及びクライアント端末11間でのデータの送受信を行う機能を有する。通信ユニットは有線又は無線の通信回線を通じて他のサーバや端末との通信を行う。領域レンダリングサーバ12が複数ある場合には、各領域レンダリングサーバ12は少なくとも隣接する他の領域レンダリングサーバと通信可能であり、また、各領域レンダリングサーバ12は、1又は複数のコンテンツレンダリングサーバ13のそれぞれと通信可能である。
The communication unit has a function of transmitting and receiving data among the
次に、クライアント端末(ユーザデバイス)11、領域レンダリングサーバ12、コンテンツレンダリングサーバ13のそれぞれにおいて行われる処理について説明する。
Next, processing performed in each of the client terminal (user device) 11,
クライアント端末(ユーザデバイス)11は、ユーザが本発明の一実施形態に係る多コンテンツ描画システム10を利用する際に用いる端末である。例えば、汎用コンピュータ、タブレット端末、スマートフォン、携帯情報端末等の各種演算処理が可能な演算装置を備えた情報端末装置をいう。クライアント端末(ユーザデバイス)11は、自身が登録したキャラクタ(アバター)Mの位置情報などから、リクエストを送る先の領域レンダリングサーバ12を求めて描画結果を要求する。また、クライアント端末(ユーザデバイス)11は、必要に応じてサーバ上で同期されているアバターMの位置などのシーン情報を操作する。これは、領域レンダリングサーバ12が領域内を管理していて、これの変更を要求するようなリクエストを出してもよいし、別にシーンの状態を管理するようなサーバがあってもよい。
A client terminal (user device) 11 is a terminal used by a user when using the multiple
領域レンダリングサーバ12は、必要に応じて特定の描画結果を取得できるような状況を作る。領域レンダリングサーバ12が複数存在する場合には、領域レンダリングサーバ12は、隣接する領域を管理する領域レンダリングサーバと接続を確立する。そして、領域レンダリングサーバ12は、クライアント端末(ユーザデバイス)11からの接続があった際に、キャラクタ(アバター)Mの視点に含まれうる隣接領域を管理する領域レンダリングサーバより描画結果を取得する。各領域レンダリングは、他の領域レンダリングサーバから要求があった際に、同時に渡されるカメラパラメータを用いた描画結果を取得する。
Region-
領域レンダリングサーバ22(22A~22P)が図3に示すように複数存在する場合に、自身の周囲の領域レンダリングサーバとの接合面に対して、隣接する領域レンダリングサーバから取得した描画結果を貼り付けることによって領域外の平面が描画されたようにすることができる。この際の接合面は、4面による立方体が平面上に並んでいるような形状でも良いし、六角柱が並ぶような形状でもよい。空間を十分に充填し、平面によって区切られている任意の形状を用いればよい。 When there are a plurality of area rendering servers 22 (22A to 22P) as shown in FIG. 3, the drawing results obtained from the adjacent area rendering servers are pasted on the joint surface with the surrounding area rendering servers. This makes it possible to render planes outside the region as if they were drawn. The joint surface at this time may have a shape in which four-sided cubes are arranged on a plane, or a shape in which hexagonal columns are arranged. Any shape that sufficiently fills the space and is bounded by planes may be used.
また、領域レンダリングサーバ12は、領域中のコンテンツを管理するすべてのコンテンツレンダリングサーバ13(13A~13C)に対してレンダリングに関する像としての情報の更新をリクエストする。レンダリングに関する像としての情報としては、深度、法線、Light Accumulation buffer、表示領域判定用マスク画像およびアルベド、ラフネス、メタリックなどを始めとするマテリアル情報等が挙げられるが、遅延シェーディングに基づくG-bufferを用いることができる。G-bufferは、画面全体の法線、深さなどを表すバッファである。領域レンダリングサーバは、例えば、コンテンツレンダリングサーバで更新されたG-bufferを領域中で一つにまとめて一つの平面のG-bufferとして合成する。このとき、必要に応じて深さだけのG-bufferを特定のライト視点からリクエストすることでシャドウマップを作成し、前記平面とライト情報、シャドウマップなどを用いて実際のライティングを行い、ライティング結果を反映した画像を生成する。この際、実際のユーザから見た視点に合うようなゆがんだ射影行列を用いることができる。
In addition, the
本発明の一実施形態に係る多コンテンツ描画システムにおいて、コンテンツレンダリングサーバから領域レンダリングサーバへと送られるレンダリングに関する像としての情報は、遅延シェーディング(Deferred Shading)のみに限定されるわけではなく、フォワードレンダリング(Forward Rendering)に基づく像としての情報であってもよい。フォワードレンダリングは、ライトの情報を送ってライティングまでをコンテンツレンダリングサーバで行う手法であり、最終的なレンダリング結果と透明度などの合成に必要なマスク(mask)情報あるいは深度(depth)情報をレンダリングに関する像としての情報として領域レンダリングサーバに送信する。 In the multi-content rendering system according to an embodiment of the present invention, the image information regarding rendering sent from the content rendering server to the region rendering server is not limited to only deferred shading, but also forward rendering. It may be information as an image based on (Forward Rendering). Forward rendering is a method in which light information is sent and lighting is performed by the content rendering server, and mask information or depth information necessary for synthesizing the final rendering result and transparency etc. is sent to the rendering image. to the region rendering server as information as
コンテンツレンダリングサーバ13は、コンテンツを描画するのに適切な面の大きさを定めるためにコンテンツを囲う最小領域又は画像圧縮に適したサイズの領域を事前に計算する。この領域の計算は、ある視点が与えられたときに必要な描画画面の大きさを十分に計算できるような物であれば何でもよい。例えばAABB(Axis Aligned Bounding Box)や単純なモデルを囲う球面の計算などによることができる。コンテンツレンダリングサーバ13では、この領域を例えば、ユーザカメラから見た際にうまく映るような射影行列を計算する。
The
コンテンツレンダリングサーバ13は、領域レンダリングサーバ12からリクエストがあった際にこのリクエストに応じてレンダリングに関する像としての情報を結果として送る。上述したようにレンダリングに関する像としての情報は、例えばG-bufferである。この際、データを圧縮して転送すればデータ転送量をより軽減化することができる。コンテンツレンダリングサーバは、前記射影行列を用いて既存のモデルからG-bufferを生成して領域レンダリングサーバ12に受け渡す。
When receiving a request from the
次に、本発明の一実施形態に係る多コンテンツ描画方法について、図面を使用しながら説明する。図4は、本発明の一実施形態に係る多コンテンツ描画方法の概略を示すフロー図である。本発明の一態様は、特定の領域に存在する多種、多数のコンテンツを描画する多コンテンツ描画方法であって、計算手段を用いてコンテンツの描画に関する計算を行う計算工程S1と、描画手段においてコンテンツの位置及び視点に関する情報を取得する描画条件取得工程S2と、描画手段から情報を計算手段に送信し、計算手段からレンダリングに関する像としての情報を受信するレンダリング情報取得工程S3と、レンダリングに関する像としての情報からコンテンツを含む特定の領域の描画結果を生成する描画工程S4を有する。 Next, a multi-content rendering method according to an embodiment of the present invention will be described with reference to the drawings. FIG. 4 is a flow diagram outlining a multi-content rendering method according to an embodiment of the present invention. One aspect of the present invention is a multi-content rendering method for rendering a large number of various types of content existing in a specific area, comprising: a computing step S1 of performing computation related to rendering of content using a computing means; Rendering condition acquisition step S2 for acquiring information about the position and viewpoint of , rendering information acquisition step S3 for transmitting information from the rendering means to the calculation means and receiving information as an image related to rendering from the calculation means, and as an image related to rendering and a drawing step S4 of generating a drawing result of a specific area containing the content from the information of.
計算工程S1は、計算手段を用いてコンテンツの描画に関する計算を行う工程である。計算手段としては、例えば上述したようなコンテンツレンダリングサーバが挙げられる。また、コンテンツとしては、ゲームやチャットなどの仮想空間おいて、ユーザが設定した自身のモデル(アバター)等であり、これらのモデルは、3Dモデルを含むものである。計算手段においては、例えば、上述したようにコンテンツを描画するのに適切な面の大きさを定めるためにコンテンツを囲う最小領域又は画像圧縮に適したサイズの領域を計算し、この領域を例えばユーザカメラから見た際にうまく映るような射影行列を計算する。 The calculation step S1 is a step of performing calculations related to content drawing using a calculation means. Computing means include, for example, a content rendering server as described above. Also, the content is a model (avatar) set by the user in a virtual space such as a game or chat, and these models include 3D models. In the calculation means, for example, a minimum area surrounding the content or an area of a size suitable for image compression is calculated in order to determine the size of the surface suitable for rendering the content as described above, and this area is used by the user, for example. Calculate a projection matrix that looks good when viewed from the camera.
描画条件取得工程S2は、描画手段においてコンテンツの位置及び視点に関する情報を取得する工程である。描画手段は、基本的には計算手段とは別に設けられる構成であり、例えば上述したような領域レンダリングサーバが挙げられる。ゲームやチャットなどの仮想空間においては、通常、ユーザは自身が登録したモデル(アバター)を操作して視点を変えたり、画面内の場所を移動したりする。この時の情報がユーザの操作するクライアント端末(ユーザデバイス)から描画手段へと送られる。 The drawing condition acquisition step S2 is a step of acquiring information about the position and viewpoint of the content in the drawing means. The rendering means is basically a configuration provided separately from the computing means, and includes, for example, the area rendering server as described above. In virtual spaces such as games and chats, users usually operate models (avatars) registered by themselves to change viewpoints and move locations within the screen. Information at this time is sent from the client terminal (user device) operated by the user to the drawing means.
レンダリング情報取得工程S3は、描画手段から情報を計算手段に送信し、計算手段からレンダリングに関する像としての情報を受信する。この時、対象とするユーザのモデル(アバター)の視野内に他のユーザのモデル(アバター)が存在する場合には、他のモデルについてのレンダリングに関する像としての情報も含めて受信する。レンダリングに関する像としての情報は、例えば上述したように遅延シェーディングに基づくG-bufferを用いることができる。このように、描画手段では直接コンテンツに関するデータは扱わずに、計算手段を介してレンダリングに関する像としての情報のみを受け取るため、コンテンツが多種、多数になったとしても描画負荷が重くなるような状態を防止することができる。したがって、本発明の一実施形態に係る描画方法では、より多くのユーザが参加した状態であっても各ユーザのモデル(アバター)を同時に多数描画することを可能にする。 The rendering information acquisition step S3 transmits information from the drawing means to the calculation means, and receives information as an image regarding rendering from the calculation means. At this time, if another user's model (avatar) is present in the field of view of the target user's model (avatar), information regarding the rendering of the other model as an image is also received. For image information related to rendering, for example, G-buffer based on delayed shading can be used as described above. In this way, the rendering means does not directly handle data related to the content, but receives only image information related to rendering via the computing means. can be prevented. Therefore, in the drawing method according to one embodiment of the present invention, it is possible to draw a large number of models (avatars) of each user at the same time even when more users participate.
描画工程S4は、レンダリングに関する像としての情報からコンテンツを含む特定の領域の描画結果を生成する工程である。例えば、モデル(アバター)の位置、視点、当該視野中に含まれる配置物や他のモデル(アバター)に関するシーン情報に合わせて計算手段からレンダリングに関する像としての情報(例えばG-buffer)を取得し、G-buffer情報及びシーン情報からライティングをしてユーザ視点でのレンダリング結果を描画する。 The drawing step S4 is a step of generating a drawing result of a specific area containing content from information as an image regarding rendering. For example, image information (for example, G-buffer) regarding rendering is acquired from the calculation means in accordance with the position of the model (avatar), the viewpoint, the arrangement included in the field of view, and the scene information regarding other models (avatars). , G-buffer information and scene information to draw rendering results from the user's viewpoint.
また、本発明の一実施形態に係る多コンテンツ描画方法では、例えば図3に示すように、特定の領域を複数の描画手段(領域レンダリングサーバ)により分割し、描画結果を生成する描画手段は、隣接する描画手段から、描画手段が管理する領域の描画結果を取得するようにしてもよい。 In addition, in the multi-content drawing method according to one embodiment of the present invention, as shown in FIG. 3, for example, a specific area is divided by a plurality of drawing means (area rendering servers), and the drawing means for generating a drawing result is: The drawing result of the area managed by the drawing means may be acquired from the adjacent drawing means.
図5は、特定の領域Rを複数の描画手段で分割した際のレンダリングの方法を示した模式図である。特定の領域RにあるユーザのモデルMが存在していた場合に、ある時にモデルMの視野内Sの画像が描画のために必要であったとする。その際にその平面に写りうる領域は領域r1を含むものであって、これを領域r1を管理するノードに対して結果の画像を問い合わせる。この際の結果画像はr2の領域とr3の領域に依存するため、このノードが隣り合わせる領域r4のノードに対して結果の画像を送るように問い合わせる。これは基本的に再帰的に繰り返される。このように複数個のノードが返す情報を元に各画像を組み合わせて結果となる画像を得ることができる。 FIG. 5 is a schematic diagram showing a rendering method when a specific area R is divided by a plurality of drawing means. Suppose that a model M of a user exists in a specific region R, and an image of S within the field of view of the model M is required for rendering at some point. At that time, the area that can be imaged on the plane includes the area r1, and the resulting image is inquired of the node that manages the area r1. Since the resulting image at this time depends on the areas of r2 and r3, this node inquires the node of the adjacent area r4 to send the resulting image. This is basically recursive. In this way, the resulting image can be obtained by combining the images based on the information returned by the multiple nodes.
以下、本発明について、実施例を用いてさらに具体的に説明するが、本発明は、以下の実施例に何ら限定されるものではない。 EXAMPLES The present invention will be described in more detail below using examples, but the present invention is not limited to the following examples.
<実施例1.ユーザが自身の3Dアバターをアップロードする形式の仮想現実環境>
本発明の一実施形態に係る多コンテンツ描画システム及び多コンテンツ描画方法は、事前に予期できないような多種のモデルを表示することに秀でている。したがって、例えば、ユーザそれぞれが自身のデザインしたモデルをアップロードし得るような環境、同時にそれぞれのユーザが動くことにより他のユーザに観測され得るような環境、新しいユーザが突如空間内に配置されるような環境といった仮想空間での表現に適している。現実的な例としては、MMORPGなどのゲーム的要素や3D空間上のSNS空間など、同時多発的にそれぞれのユーザが独立した操作をするような例が挙げられる。
<Example 1. A virtual reality environment in which users upload their own 3D avatar>
A multi-content rendering system and multi-content rendering method according to an embodiment of the present invention excels at displaying a wide variety of models that cannot be predicted in advance. Therefore, for example, an environment where each user can upload their own designed model, an environment where each user's movement can be observed by other users at the same time, and a new user can suddenly be placed in the space. It is suitable for representation in a virtual space such as a dynamic environment. Realistic examples include game elements such as MMORPG, SNS space in 3D space, and the like, in which each user operates independently at the same time.
このような環境下で、例えば、ユーザはサービスの登録時に自身のモデル(アバター)をコンテンツレンダリングサーバにアップロードする。このコンテンツレンダリングサーバは、他のユーザと共有のものであってもよいし、重いモデルであることが想定される場合は占有のコンテンツレンダリングサーバを割り当てればよい。これにより、ネットワーク全体に与える負荷に対するペナルティをユーザ自身に負担させることもできる。 Under such circumstances, for example, a user uploads his model (avatar) to the content rendering server when registering for the service. This content rendering server may be shared with other users, or if a heavy model is expected, a dedicated content rendering server may be assigned. As a result, the user himself/herself can be made to bear the penalty for the load imposed on the entire network.
次に、ユーザは自身のアバターが所属する領域の領域レンダリングサーバにアクセスする。この際、動的に領域レンダリングサーバが増加するなどの場合は、領域レンダリングサーバのリストを管理するような領域レンダリングサーバを解決する目的のサーバがあってもよい。静的にあらかじめ領域から定まる場合には、単にこれらのサーバだけ存在していればよい。また、接続は、例えば、単なるソケット通信で接続を確立してもよい。必要に応じてストリーミング配信などに使われている圧縮技術などを応用できる。 The user then accesses the region rendering server for the region to which his avatar belongs. At this time, if the number of area rendering servers increases dynamically, there may be a server for the purpose of solving area rendering servers that manages a list of area rendering servers. If the area is statically determined in advance, it is sufficient that only these servers exist. Also, the connection may be established by simple socket communication, for example. Compression technology used for streaming distribution can be applied as needed.
領域レンダリングサーバは写り得る隣接領域レンダリングノードに対してアバターの位置から見た場合のレンダリング結果をリクエストする。単にユーザが接続された場合と同一の状況として一般化ができる。この際にPerspective Offcenterな射影行列を用いることにより正常なレンダリング結果を得る。 The region rendering server requests the rendering results as seen from the avatar's position from the possible adjacent region rendering nodes. It can be generalized as the same situation as when the user is simply connected. At this time, a normal rendering result is obtained by using a Perspective Offcenter projection matrix.
そして、シーン情報を取得する。単にアバターのみによって構成される場合は、領域レンダリングノードは自身に接続されるクライアントのリストからシーン情報を復元できる。また、アバターのみでなく、あらかじめ置かれた物体なども混ざり構成される場合は、別途シーングラフの管理ノードなどを用意してこれらから逐次シーン上の物体リストなどの姿勢を解決する。 Then, the scene information is acquired. If composed solely of avatars, the region rendering node can retrieve the scene information from the list of clients connected to it. In addition, when not only avatars but also pre-placed objects are mixed, a separate scene graph management node is prepared, and the poses of the object list on the scene are solved sequentially from these.
その後、領域レンダリングサーバは、シーン情報に合わせてコンテンツレンダリングサーバからG-bufferを取得し、G-buffer情報及びシーン情報からライティングをしてユーザ視点でのレンダリング結果を描画する。 After that, the region rendering server acquires the G-buffer from the content rendering server in accordance with the scene information, performs lighting from the G-buffer information and the scene information, and draws the rendering result from the user's viewpoint.
<実施例2.動的にモデルの形状が同時多発的に変わり得る状況下でのシミュレーション表示>
本発明の一実施形態に係る多コンテンツ描画システム及び多コンテンツ描画方法は、モデル自身の形状生成からレンダリングをする部分と全体のレンダリングを行う部分が独立であることから、シミュレーションのための形状生成コストが非常に高くそれを現実的な速度で外部に転送を行うことが現実的ではないデータのシミュレーションも可能である。例えば、ある部分領域のG-buffer描画結果を与えられたカメラ視点から取得することができるシミュレーションが挙げられる。シミュレーション目的によってはリアルタイムに行うことも可能であるし、それが必要のない状況でも特定領域のシミュレーション結果を現実的な速度で取得可能であるなら逐次的に大規模な空間を描画できる。
<Example 2. Simultaneous display under conditions where the shape of the model can dynamically change at the same time>
In the multi-contents rendering system and the multi-contents rendering method according to one embodiment of the present invention, since the part that renders from the shape generation of the model itself and the part that renders the entire model are independent, the shape generation cost for simulation is It is also possible to simulate data that is so high that it is not practical to transfer it to the outside at a realistic speed. For example, there is a simulation that can acquire the G-buffer drawing result of a certain partial area from a given camera viewpoint. Depending on the purpose of the simulation, it can be done in real time, and even in situations where it is not necessary, if the simulation results of a specific area can be obtained at a realistic speed, a large-scale space can be drawn sequentially.
まず、コンテンツレンダリングサーバでシミュレーションを行う。上記のシミュレーションをコンテンツレンダリングサーバにより行い、領域レンダリングサーバのリクエストに応じて結果を返す。実際の運用ではコンテンツレンダリングサーバはシミュレーションを実行する主体となる者が自分で立ててもよい。シミュレーションに参加するノードに空いている領域を割り当てることによる大規模空間のグリッドコンピューティングシステムとしてこのようなコンテンツレンダリングサーバを運用してもよい。 First, a simulation is performed on the content rendering server. The above simulation is performed by the content rendering server, and results are returned in response to requests from the region rendering server. In actual operation, the content rendering server may be set up by the person who executes the simulation. Such a content rendering server may be operated as a large-scale grid computing system by allocating free areas to nodes participating in the simulation.
その後、コンテンツレンダリングサーバより領域レンダリングサーバが結果を取得する。領域レンダリングサーバは大域的に必要な処理を行う。ここでの大域的な処理とはライティングにとらわれない。例えば、星雲のシミュレーションなどであれば、コンテンツレンダリングサーバが返す各部分領域のシミュレーション結果からそれぞれのコンテンツレンダリングサーバ同士の間での相互作用に関わる値の算出などを行う。 The region rendering server then retrieves the results from the content rendering server. The Region Rendering Server performs the necessary processing globally. Global processing here is lighting agnostic. For example, in the case of a nebula simulation, values related to interaction between the content rendering servers are calculated from the simulation results of each partial area returned by the content rendering servers.
なお、上記のように本発明の一実施形態について詳細に説明したが、本発明の新規事項
及び効果から実体的に逸脱しない多くの変形が可能であることは、当業者には、容易に理
解できるであろう。従って、このような変形例は、全て本発明の範囲に含まれるものとす
る。
Although one embodiment of the present invention has been described in detail as above, those skilled in the art will easily understand that many modifications are possible without substantially departing from the novel matters and effects of the present invention. You can. Accordingly, all such modifications are intended to be included within the scope of the present invention.
例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と
共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置
き換えることができる。また、多コンテンツ描画システムの構成、動作も本発明の一実
施形態で説明したものに限定されず、種々の変形実施が可能である。
For example, a term described at least once in the specification or drawings together with a different, broader or synonymous term can be replaced with the different term anywhere in the specification or drawings. Also, the configuration and operation of the multi-content drawing system are not limited to those described in the embodiment of the present invention, and various modifications are possible.
10,20 多コンテンツ描画システム、11,21 クライアント端末、12,22(22A~22P) 領域レンダリングサーバ、13(13A~13C),23(23A~23C) コンテンツレンダリングサーバ、100 描画システム、101 クライアント端末、102 レンダリングサーバ、M,M1,M2 モデル、R 特定の領域、S 視界内、S1 計算工程、S2 描画条件取得工程、S3 レンダリング情報取得工程、S4 描画工程 10, 20 multiple content rendering system, 11, 21 client terminal, 12, 22 (22A to 22P) area rendering server, 13 (13A to 13C), 23 (23A to 23C) content rendering server, 100 rendering system, 101 client terminal , 102 rendering server, M, M1, M2 model, R specific region, S within field of view, S1 calculation process, S2 drawing condition acquisition process, S3 rendering information acquisition process, S4 drawing process
Claims (11)
少なくとも、
上記コンテンツを含む上記特定の領域の描画結果を生成する領域レンダリングサーバと、
上記コンテンツの描画に関する計算を行うコンテンツレンダリングサーバを備え、
上記コンテンツレンダリングサーバにはそれぞれの上記クライアント端末から登録されたキャラクタを含むコンテンツに関する情報が送信され、
上記領域レンダリングサーバは、位置及び視点に関する情報を上記コンテンツレンダリングサーバに送信し、該コンテンツレンダリングサーバからコンテンツのレンダリングに関する像としての情報を受信することを特徴とする多コンテンツ描画システム。 A multi-content rendering system that renders a large number of various types of content existing in a specific area to which a plurality of client terminals are connected ,
at least,
a region rendering server that generates a rendering result of the specific region containing the content;
A content rendering server that performs calculations related to drawing the content,
Information about contents including characters registered from each of the client terminals is transmitted to the content rendering server,
The multi-content rendering system, wherein the area rendering server transmits information on position and viewpoint to the content rendering server, and receives image information on content rendering from the content rendering server.
計算手段を用いてそれぞれの上記クライアント端末から登録されたキャラクタを含む上記コンテンツの描画に関する計算を行う計算工程と、
描画手段において上記コンテンツの位置及び視点に関する情報を取得する描画条件取得工程と、
上記描画手段から上記情報を上記計算手段に送信し、該計算手段からレンダリングに関する像としての情報を受信するレンダリング情報取得工程と、
上記レンダリングに関する像としての情報から上記コンテンツを含む上記特定の領域の描画結果を生成する描画工程
を有することを特徴とする多コンテンツ描画方法。 A multi-content rendering method for rendering a large number of various types of content existing in a specific area to which a plurality of client terminals are connected ,
a calculation step of performing calculations relating to drawing of the content including the character registered from each of the client terminals using a calculation means;
a drawing condition obtaining step of obtaining information about the position and viewpoint of the content in the drawing means;
a rendering information acquisition step of transmitting the information from the drawing means to the calculation means and receiving information as an image related to rendering from the calculation means;
A multi-contents drawing method, comprising: a drawing step of generating a drawing result of the specific area containing the content from information as an image regarding the rendering.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018230300A JP7290852B2 (en) | 2018-12-07 | 2018-12-07 | MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018230300A JP7290852B2 (en) | 2018-12-07 | 2018-12-07 | MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020091811A JP2020091811A (en) | 2020-06-11 |
JP7290852B2 true JP7290852B2 (en) | 2023-06-14 |
Family
ID=71012949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018230300A Active JP7290852B2 (en) | 2018-12-07 | 2018-12-07 | MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7290852B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102394158B1 (en) * | 2020-12-17 | 2022-05-09 | 주식회사 컬러버스 | A System and Method for Streaming Metaverse Space |
JP7348943B2 (en) * | 2021-12-22 | 2023-09-21 | 凸版印刷株式会社 | Content management system, content management method, and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013099511A (en) | 2011-11-07 | 2013-05-23 | Square Enix Holdings Co Ltd | Rendering system, rendering server, control method thereof, program, and recording medium |
JP2016066149A (en) | 2014-09-24 | 2016-04-28 | 株式会社コロプラ | Display system, display method and program |
JP2017531224A (en) | 2014-09-16 | 2017-10-19 | インテル・コーポレーション | Coarse pixel delay shading |
-
2018
- 2018-12-07 JP JP2018230300A patent/JP7290852B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013099511A (en) | 2011-11-07 | 2013-05-23 | Square Enix Holdings Co Ltd | Rendering system, rendering server, control method thereof, program, and recording medium |
JP2017531224A (en) | 2014-09-16 | 2017-10-19 | インテル・コーポレーション | Coarse pixel delay shading |
JP2016066149A (en) | 2014-09-24 | 2016-04-28 | 株式会社コロプラ | Display system, display method and program |
Non-Patent Citations (1)
Title |
---|
今給黎 隆,GPUグラフィックスパイプラインでの粗片描画,情報処理学会 研究報告 コンピュータグラフィックスとビジュアル情報学(CG) 2018-CG-170 [online] ,日本,情報処理学会,p.1-4 |
Also Published As
Publication number | Publication date |
---|---|
JP2020091811A (en) | 2020-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12083423B2 (en) | Video game overlay | |
CN112104593B (en) | System and method for managing converged-reality scene events | |
CN112316424B (en) | Game data processing method, device and storage medium | |
US9937423B2 (en) | Voice overlay | |
CN102204207B (en) | Virtual environment comprises web content | |
US9633379B1 (en) | Qualified video delivery advertisement | |
JP2015215908A (en) | Cloud-sourced video rendering system | |
CN111142967B (en) | Augmented reality display method and device, electronic equipment and storage medium | |
US20230290043A1 (en) | Picture generation method and apparatus, device, and medium | |
US20050253872A1 (en) | Method and system for culling view dependent visual data streams for a virtual environment | |
JP7290852B2 (en) | MULTI-CONTENT DRAWING SYSTEM AND MULTI-CONTENT DRAWING METHOD | |
CN112316433A (en) | Game picture rendering method, device, server and storage medium | |
CN106780707A (en) | The method and apparatus of global illumination in simulated scenario | |
CN115984449A (en) | Illumination rendering method and device, electronic equipment and storage medium | |
CN113313796A (en) | Scene generation method and device, computer equipment and storage medium | |
US8531453B2 (en) | Augmenting virtual worlds simulation with enhanced assets | |
JP6054677B2 (en) | Processing system, information processing apparatus, control method, program, and recording medium | |
WO2024152678A1 (en) | Generation method and apparatus for human body depth map, and electronic device, storage medium and computer program product | |
WO2023164244A1 (en) | Methods and systems for facilitating the cooperation of large numbers of computing devices with particular application to maintaining, presenting and editing a shared 3-dimensional virtual space to multiple users | |
CN119027560A (en) | A rendering method and device for virtual space | |
WO2024198669A1 (en) | Rendering method and apparatus based on virtual world, and device and storage medium | |
WO2014108214A1 (en) | Client-server system for a web-based furniture shop | |
CN117893659A (en) | AR rendering method and device based on distributed computing and electronic equipment | |
CN117751389A (en) | Generating a surface mesh from a voxel model of a three-dimensional environment | |
Miyake et al. | A Web page that provides map‐based interfaces for VRML/X3D content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230526 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7290852 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |