JP7521072B1 - VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD - Google Patents
VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD Download PDFInfo
- Publication number
- JP7521072B1 JP7521072B1 JP2023102732A JP2023102732A JP7521072B1 JP 7521072 B1 JP7521072 B1 JP 7521072B1 JP 2023102732 A JP2023102732 A JP 2023102732A JP 2023102732 A JP2023102732 A JP 2023102732A JP 7521072 B1 JP7521072 B1 JP 7521072B1
- Authority
- JP
- Japan
- Prior art keywords
- viewer
- virtual space
- avatar
- performer
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000002716 delivery method Methods 0.000 title description 2
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000009826 distribution Methods 0.000 claims abstract description 261
- 230000009471 action Effects 0.000 claims description 363
- 230000033001 locomotion Effects 0.000 claims description 195
- 238000000034 method Methods 0.000 claims description 109
- 230000008569 process Effects 0.000 claims description 103
- 238000004891 communication Methods 0.000 claims description 22
- 230000000875 corresponding effect Effects 0.000 description 62
- 238000010586 diagram Methods 0.000 description 61
- 230000006870 function Effects 0.000 description 47
- 230000001360 synchronised effect Effects 0.000 description 39
- 230000003111 delayed effect Effects 0.000 description 24
- 230000008921 facial expression Effects 0.000 description 23
- 230000008859 change Effects 0.000 description 21
- 230000001965 increasing effect Effects 0.000 description 18
- 230000000694 effects Effects 0.000 description 17
- 230000005540 biological transmission Effects 0.000 description 11
- 238000007726 management method Methods 0.000 description 11
- 230000004044 response Effects 0.000 description 10
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 8
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 7
- 230000001815 facial effect Effects 0.000 description 5
- 230000008520 organization Effects 0.000 description 5
- 239000000126 substance Substances 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- HMUNWXXNJPVALC-UHFFFAOYSA-N 1-[4-[2-(2,3-dihydro-1H-inden-2-ylamino)pyrimidin-5-yl]piperazin-1-yl]-2-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)ethanone Chemical compound C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)N1CCN(CC1)C(CN1CC2=C(CC1)NN=N2)=O HMUNWXXNJPVALC-UHFFFAOYSA-N 0.000 description 3
- 230000003139 buffering effect Effects 0.000 description 3
- 239000012141 concentrate Substances 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 230000004886 head movement Effects 0.000 description 3
- 230000009191 jumping Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000000725 suspension Substances 0.000 description 3
- LDXJRKWFNNFDSA-UHFFFAOYSA-N 2-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)-1-[4-[2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidin-5-yl]piperazin-1-yl]ethanone Chemical compound C1CN(CC2=NNN=C21)CC(=O)N3CCN(CC3)C4=CN=C(N=C4)NCC5=CC(=CC=C5)OC(F)(F)F LDXJRKWFNNFDSA-UHFFFAOYSA-N 0.000 description 2
- YLZOPXRUQYQQID-UHFFFAOYSA-N 3-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)-1-[4-[2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidin-5-yl]piperazin-1-yl]propan-1-one Chemical compound N1N=NC=2CN(CCC=21)CCC(=O)N1CCN(CC1)C=1C=NC(=NC=1)NCC1=CC(=CC=C1)OC(F)(F)F YLZOPXRUQYQQID-UHFFFAOYSA-N 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000002250 progressing effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 239000002390 adhesive tape Substances 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Information Transfer Between Computers (AREA)
Abstract
【課題】より多くの視聴者ユーザーが参加できるようにすること。【解決手段】仮想空間コンテンツの映像を表示可能であって各視聴者ユーザー毎に割り当てられた視聴者ユーザー端末と、視聴者ユーザー端末に接続されたサーバコンピュータとを含む仮想空間コンテンツ配信システムであって、前記視聴者ユーザー端末は、前記視聴者アバターに対応した前記仮想空間の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を前記サーバコンピュータから送信されてくる前記仮想空間の仮想空間データにもとづいて生成する。【選択図】図10[Problem] To enable more viewer users to participate. [Solution] A virtual space content distribution system including a viewer user terminal capable of displaying images of virtual space content and assigned to each viewer user, and a server computer connected to the viewer user terminal, wherein when the viewer user terminal displays a viewer avatar viewpoint image, which is a viewpoint image of the virtual space corresponding to the viewer avatar, the viewer user terminal generates the viewer avatar viewpoint image based on virtual space data of the virtual space transmitted from the server computer. [Selected Figure] Figure 10
Description
本発明は、仮想空間における仮想空間コンテンツを配信可能な仮想空間コンテンツ配信システム、仮想空間コンテンツ配信プログラム、および仮想空間コンテンツ配信方法に関する。 The present invention relates to a virtual space content distribution system capable of distributing virtual space content in a virtual space, a virtual space content distribution program, and a virtual space content distribution method.
従来、配信ユーザ(演者)の動きに連動して仮想空間において動作する該配信ユーザ(演者)のキャラクタオブジェクト(アバター)のアニメーションを、視聴者ユーザーの端末とコンピュータネットワークを介して接続されたサーバコンピュータにおいて生成し、かかるアニメーションを含む動画コンテンツをライブ配信するとともに、視聴する視聴者ユーザーについても、視聴者ユーザーからの要求に応じて、配信ユーザ(演者)のアバターが参加している仮想空間に観客として参加することが可能な配信システムが知られている(例えば、特許文献1参照)。 Conventionally, a distribution system is known in which animation of a character object (avatar) of a broadcast user (performer) that moves in a virtual space in conjunction with the movements of the broadcast user (performer) is generated in a server computer connected to a viewer user's terminal via a computer network, video content including such animation is live-distributed, and the viewer user can also participate as an audience member in the virtual space in which the avatar of the broadcast user (performer) is participating, upon request from the viewer user (see, for example, Patent Document 1).
しかしながら、特許文献1にあっては、サーバコンピュータにおいてアニメーションを含む動画コンテンツを生成することから、参加する視聴者ユーザーが多くなると、サーバコンピュータの処理能力を超えてしまい、動画コンテンツの配信に不具合を生じてしまうことから、多くの視聴者ユーザーを参加させることができないという問題があった。
However, in
本発明は、このような問題点に着目してなされたもので、より多くの視聴者ユーザーを参加させることのできる仮想空間コンテンツ配信システム、仮想空間コンテンツ配信プログラム、および仮想空間コンテンツ配信方法を提供することを目的とする。 The present invention has been made in response to these problems, and aims to provide a virtual space content distribution system, a virtual space content distribution program, and a virtual space content distribution method that allow more viewer users to participate.
請求項1の仮想空間コンテンツ配信システムは、
仮想空間(例えば、仮想ライブ会場)における仮想空間コンテンツ(例えば、仮想ライブ)を配信するための仮想空間コンテンツ配信システムであって、
前記仮想空間コンテンツの映像を出力可能な端末(例えば、スマートフォンP、コンピュータPC)であって、前記仮想空間コンテンツの対象となる仮想空間に参加可能な視聴者アバターを該仮想空間において動作させる操作を行う視聴者ユーザーが利用可能な視聴者ユーザー端末(例えば、視聴者端末300)と、
前記視聴者ユーザー端末に通信ネットワーク(例えば、インターネット)を介して接続され、少なくとも前記仮想空間に関する処理(例えば、仮想空間更新処理、仮想空間更新データ生成処理等)と前記仮想空間コンテンツの配信に関する処理(例えば、仮想空間更新データ配信処理、生成音声配信処理等)とを実行可能なサーバコンピュータ(例えば、配信用サーバコンピュータ100)と、
を含み、
前記視聴者ユーザーが複数であって、各視聴者ユーザー毎に前記視聴者ユーザー端末が割り当てられており(例えば、図1に示すように、視聴者ユーザーA~Cに視聴者端末300a~cが割り当てられている部分)、
各々の前記視聴者ユーザー端末は、前記視聴者アバターに対応した前記仮想空間の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を前記サーバコンピュータから送信されてくる前記仮想空間の仮想空間データ(例えば、仮想空間更新データ)にもとづいて生成し、
前記仮想空間コンテンツは、演者ユーザーが演者アバターとして前記仮想空間に参加可能なコンテンツであり、
前記仮想空間データは、前記演者アバターの動作を生成するための演者アバター用動作データを含み、
前記視聴者ユーザー端末は、前記演者アバター用動作データにもとづいて前記演者アバターの動作を生成するときに、該生成に係わる処理負荷が異なる複数の生成態様にて当該動作を生成可能である
ことを特徴としている。
この特徴によれば、処理負荷が大きな視聴者アバター視点映像の生成が視聴者ユーザー端末側で行われるので、より多くの視聴者ユーザーを参加させることができる。また、演者ユーザーが演者アバターとして参加することとともに、該演者アバターの動作を視聴者アバター視点映像において反映させることができるので、仮想空間コンテンツの興趣をより一層向上できる。更に、生成態様を変更することで、演出アバターの動作状況に対応した視聴者アバター視点映像を生成することができるともに、視聴者ユーザー端末の処理能力等の違いについても対応することができる。
The virtual space content delivery system according to
A virtual space content distribution system for distributing virtual space content (e.g., a virtual live performance) in a virtual space (e.g., a virtual live performance venue),
a viewer user terminal (e.g., viewer terminal 300) that is a terminal (e.g., a smartphone P, a computer PC) capable of outputting an image of the virtual space content and that can be used by a viewer user who performs an operation to operate a viewer avatar that can participate in the virtual space that is the target of the virtual space content in the virtual space ;
A server computer (e.g., a distribution server computer 100) that is connected to the viewer user terminal via a communication network (e.g., the Internet) and is capable of executing at least processes related to the virtual space (e.g., a virtual space update process, a virtual space update data generation process, etc.) and processes related to the distribution of the virtual space content (e.g., a virtual space update data distribution process, a generated audio distribution process, etc.);
Including,
There are a plurality of viewer users, and each viewer user is assigned a viewer user terminal (for example, as shown in FIG. 1, viewer users A to C are assigned
each of the viewer user terminals, when displaying a viewer avatar viewpoint image which is a viewpoint image of the virtual space corresponding to the viewer avatar, generates the viewer avatar viewpoint image based on virtual space data (e.g., virtual space update data) of the virtual space transmitted from the server computer ;
The virtual space content is content in which a performer user can participate in the virtual space as a performer avatar,
the virtual space data includes performer avatar motion data for generating motions of the performer avatar;
The viewer user terminal is capable of generating the movement of the performer avatar in a plurality of generation modes having different processing loads when generating the movement of the performer avatar based on the performer avatar movement data.
It is characterized by the following.
According to this feature, the generation of viewer avatar viewpoint images, which requires a large processing load, is performed on the viewer user terminal side, so that more viewer users can participate. Also, performer users can participate as performer avatars, and the movements of the performer avatars can be reflected in the viewer avatar viewpoint images, so that the interest of the virtual space content can be further increased. Furthermore, by changing the generation mode, viewer avatar viewpoint images corresponding to the movement status of the performance avatar can be generated, and differences in the processing capabilities of viewer user terminals can also be accommodated.
請求項2の仮想空間コンテンツ配信システムは、請求項1に記載の仮想空間コンテンツ配信システムであって、
前記仮想空間コンテンツは、前記演者アバターが前記仮想空間においてパフォーマンス(例えば、歌唱やダンス)を行うコンテンツである
ことを特徴としている。
この特徴によれば、演者アバターがパフォーマンスを行うので、仮想空間コンテンツの興趣をより一層向上できる。
The virtual space content delivery system of
The virtual space content is characterized in that the performer avatar performs a performance (e.g., singing or dancing) in the virtual space.
According to this feature, since a performer avatar performs, the interest of the virtual space content can be further increased.
請求項3の仮想空間コンテンツ配信システムは、請求項1または2に記載の仮想空間コンテンツ配信システムであって、
各々の前記視聴者アバターに対応した視点映像ではなく、各々の前記視聴者ユーザー端末において共通して表示される共通視点映像(例えば、仮想カメラ視点映像)については、前記サーバコンピュータが生成して前記視聴者ユーザー端末に映像配信可能である(例えば、図25に示すように、実施例2の開演前説、開演演出、フライング演出期間中のように、仮想カメラ視点映像のみが視聴可能な期間については、配信用サーバコンピュータ100が仮想カメラ視点映像を生成して視聴者端末300に配信する部分)
ことを特徴としている。
この特徴によれば、重複した処理が視聴者ユーザー端末において実行されることによって、システム全体の処理負荷が無駄に増大してしまうことを防ぐことができる。
The virtual space content delivery system of
Regarding a common viewpoint image (e.g., a virtual camera viewpoint image) that is commonly displayed on each of the viewer user terminals, rather than a viewpoint image corresponding to each of the viewer avatars, the server computer can generate it and distribute it to the viewer user terminal (for example, as shown in FIG. 25, during a period in which only the virtual camera viewpoint image is viewable, such as during the pre-show, opening performance, and flying performance periods in Example 2, the
It is characterized by the following.
According to this feature, it is possible to prevent unnecessary increase in the processing load of the entire system due to duplicated processing being executed at the viewer user terminal.
請求項4の仮想空間コンテンツ配信システムは、請求項3に記載の仮想空間コンテンツ配信システムであって、
前記視聴者ユーザー端末において、前記視聴者アバター視点映像と前記共通視点映像とのいずれかの視点映像を選択して表示可能な特定期間においては、前記共通視点映像を前記視聴者ユーザー端末が生成して表示する(例えば、図26に示すように、実施例2のMC期間中及びフライング演出期間中を除く演目期間中のように、視聴者ユーザー視点映像と仮想カメラ視点映像の両方を視聴可能な期間については、仮想カメラ視点映像を視聴者端末300側で生成する部分)
ことを特徴としている。
この特徴によれば、視点映像が切り替わるときに、映像が途切れる等の不具合が生じることを防ぐことができる。
The virtual space content delivery system of
During a specific period in which either the viewer avatar viewpoint video or the common viewpoint video can be selected and displayed on the viewer user terminal, the viewer user terminal generates and displays the common viewpoint video (for example, as shown in FIG. 26, during a program period excluding the MC period and the flying performance period in Example 2, during a period in which both the viewer user viewpoint video and the virtual camera viewpoint video can be viewed, the virtual camera viewpoint video is generated on the
It is characterized by the following.
According to this feature, it is possible to prevent problems such as interruption of the video when switching the viewpoint video.
請求項5の仮想空間コンテンツ配信システムは、請求項3に記載の仮想空間コンテンツ配信システムであって、
前記サーバコンピュータにおける処理負荷が大きい特別期間においては、前記共通視点映像についても前記視聴者ユーザー端末が生成して表示する(例えば、配信用サーバコンピュータ100における処理負荷が大きい、実施例2の衣装チェンジ演出期間や分身演出期間においては、仮想カメラ視点映像を視聴者端末300側で生成する部分)
ことを特徴としている。
この特徴によれば、サーバコンピュータにおける処理負荷が一時的に極端に大きくなってしまうことを防ぐことができる。
The virtual space content delivery system of
In a special period in which the processing load on the server computer is large, the viewer user terminal also generates and displays the common viewpoint video (for example, in a costume change performance period or a double-ego performance period in the second embodiment in which the processing load on the
It is characterized by the following.
This feature makes it possible to prevent the processing load on the server computer from temporarily becoming extremely large.
請求項6の仮想空間コンテンツ配信システムは、請求項1または2に記載の仮想空間コンテンツ配信システムであって、
前記サーバコンピュータは、前記仮想空間の基本データ並びに該仮想空間に参加するアバターの基本データを含む事前データ(例えば、仮想空間データ、演者アバターデータ、視聴者アバターデータ等を含む事前データ)を、仮想空間コンテンツを開始する前に各々の前記視聴者ユーザー端末に対して事前送信する(例えば、配信用サーバコンピュータ100が、事前データDL期間において事前データを配信する部分)
ことを特徴としている。
この特徴によれば、仮想空間コンテンツの開始時において視聴者アバター視点映像が良好に表示されない不具合の発生を防ぐことができる。
A virtual space content delivery system according to
The server computer transmits advance data including basic data of the virtual space and basic data of avatars participating in the virtual space (e.g., advance data including virtual space data, performer avatar data, viewer avatar data, etc.) to each of the viewer user terminals before starting the virtual space content (e.g., a portion in which the
It is characterized by the following.
This feature makes it possible to prevent the occurrence of a problem in which the viewer avatar viewpoint video is not displayed properly at the start of virtual space content.
請求項7の仮想空間コンテンツ配信システムは、請求項6に記載の仮想空間コンテンツ配信システムであって、
前記サーバコンピュータは、前記事前データの受信完了が確認できない前記視聴者ユーザー端末に対しては、前記仮想空間データを送信せずに各々の前記視聴者ユーザー端末において共通して表示される共通視点映像を送信する(例えば、事前データDL完了チェックタイミングにおいて事前データのダウンロードが完了していない視聴者端末300に対して、配信用サーバコンピュータ100が生成した仮想カメラ視点映像が配信されることで、視聴者端末300においては、仮想ライブの全ての期間において仮想カメラ視点映像のみが表示可能とされている部分)
ことを特徴としている。
この特徴によれば、仮想空間コンテンツの開始後において基本データ等の送信によってサーバコンピュータにおける処理負荷が過度に増大してしまうことを防ぎつつ、視聴者ユーザーが仮想空間コンテンツを視聴できなくなってしまうことを防ぐこともできる。
The virtual space content delivery system of claim 7 is the virtual space content delivery system according to
The server computer does not transmit the virtual space data to the viewer user terminals for which it cannot confirm that the advance data has been received, but transmits a common viewpoint video to be displayed in common on each of the viewer user terminals (for example, a virtual camera viewpoint video generated by the
It is characterized by the following.
This feature prevents the processing load on the server computer from increasing excessively due to the transmission of basic data, etc. after the start of the virtual space content, while also preventing the viewer user from being unable to view the virtual space content.
請求項8の仮想空間コンテンツ配信システムは、請求項1または2に記載の仮想空間コンテンツ配信システムであって、
前記視聴者ユーザー端末として第1視聴者ユーザー端末(例えば、変形例2-2の視聴者ユーザーAの視聴者端末300a)と第2視聴者ユーザー端末(例えば、変形例2-2の視聴者ユーザーBの視聴者端末300b)とを含み、
前記サーバコンピュータは、前記第2視聴者ユーザー端末には、前記第1視聴者ユーザー端末とは異なる前記仮想空間データを送信可能である(例えば、視聴者端末300aに送信される特別動作Aの情報を含む仮想空間更新データAと、視聴者端末300bに送信される特別動作Aの情報を含まない仮想空間更新データBとが異なる部分)
ことを特徴としている。
この特徴によれば、仮想空間データの自由度を高めることができるとともに、第1視聴者ユーザー端末と第2視聴者ユーザー端末とにおいて異なる視聴者アバター視点映像を生成させることができる。
The virtual space content delivery system of
The viewer user terminals include a first viewer user terminal (e.g.,
The server computer can transmit the virtual space data to the second viewer user terminal that is different from that transmitted to the first viewer user terminal (for example, the difference between virtual space update data A including information on special action A transmitted to
It is characterized by the following.
According to this feature, it is possible to increase the degree of freedom of the virtual space data, and to generate different viewer avatar viewpoint images for the first viewer user terminal and the second viewer user terminal.
請求項9の仮想空間コンテンツ配信システムは、請求項8に記載の仮想空間コンテンツ配信システムであって、
前記第2視聴者ユーザー端末は、前記第1視聴者ユーザー端末に送信される前記仮想空間データとは異なる仮想空間データにもとづいて、該第1視聴者ユーザー端末を利用する第1視聴者ユーザーの第1視聴者アバターの動作とは異なる動作(例えば、変形例2-2における特別動作)を行う第2視聴者アバターの映像を生成可能である
ことを特徴としている。
この特徴によれば、第1視聴者アバターの動作とは異なる動作を行う第2視聴者アバターの映像を、第2視聴者ユーザー端末において表示できるため、仮想空間コンテンツに対する第2視聴者ユーザーの興趣を向上できる。
The virtual space content delivery system of claim 9 is the virtual space content delivery system according to
The second viewer user terminal is characterized in that it is capable of generating an image of a second viewer avatar performing an action (e.g., a special action in variant example 2-2) different from the action of the first viewer avatar of the first viewer user using the first viewer user terminal based on virtual space data different from the virtual space data transmitted to the first viewer user terminal.
According to this feature, an image of a second viewer avatar performing actions different from those of the first viewer avatar can be displayed on the second viewer user terminal, thereby increasing the second viewer user's interest in the virtual space content.
請求項10の仮想空間コンテンツ配信プログラムは、
仮想空間(例えば、仮想ライブ会場)における仮想空間コンテンツ(例えば、仮想ライブ)を、少なくともサーバコンピュータ(例えば、配信用サーバコンピュータ100)を用いてネットワーク(例えば、インターネット)を介して配信するための仮想空間コンテンツ配信プログラム(例えば、配信用サーバコンピュータ100において仮想空間更新データの送信に関して動作するプログラム、および視聴者端末300において視聴者アバター視点映像を生成に関して動作するプログラム)であって、
前記仮想空間コンテンツの対象となる仮想空間に参加可能なアバター(例えば、視聴者アバター)は、視聴者ユーザーが利用可能な端末であって前記ネットワークを介して前記サーバコンピュータに接続された視聴者ユーザー端末(例えば、視聴者端末300)における操作によって前記仮想空間において動作する視聴者アバターを含み、
前記視聴者ユーザーが複数であって、各視聴者ユーザー毎に前記視聴者ユーザー端末が割り当てられており(例えば、図1に示すように、視聴者ユーザーA~Cに視聴者端末300a~cが割り当てられている部分)、
各々の前記視聴者ユーザー端末において、前記視聴者アバターに対応した前記仮想空間の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を前記サーバコンピュータから送信されてくる前記仮想空間の仮想空間データ(例えば、仮想空間更新データ)にもとづいて生成するステップ(例えば、視聴者視点映像生成処理)を含み、
前記仮想空間コンテンツは、演者ユーザーが演者アバターとして前記仮想空間に参加可能なコンテンツであり、
前記仮想空間データは、前記演者アバターの動作を生成するためのデータであって、前記視聴者ユーザー端末において前記演者アバターの動作を生成するときに該生成に係わる処理負荷が異なる複数の生成態様にて当該動作を生成可能な演者アバター用動作データを含む
ことを特徴としている。
この特徴によれば、処理負荷が大きな視聴者アバター視点映像の生成が視聴者ユーザー端末側で行われるので、より多くの視聴者ユーザーを参加させることができる。また、演者ユーザーが演者アバターとして参加することとともに、該演者アバターの動作を視聴者アバター視点映像において反映させることができるので、仮想空間コンテンツの興趣をより一層向上できる。更に、生成態様を変更することで、演出アバターの動作状況に対応した視聴者アバター視点映像を生成することができるともに、視聴者ユーザー端末の処理能力等の違いについても対応することができる。
The virtual space content delivery program according to
A virtual space content distribution program (e.g., a program that operates in the
The avatars (e.g., viewer avatars) that can participate in the virtual space that is the subject of the virtual space content include viewer avatars that operate in the virtual space by operating a viewer user terminal (e.g., viewer terminal 300) that is a terminal available to a viewer user and is connected to the server computer via the network,
There are a plurality of viewer users, and each viewer user is assigned a viewer user terminal (for example, as shown in FIG. 1, viewer users A to C are assigned
a step of generating, in each of the viewer user terminals, a viewer avatar viewpoint image, which is a viewpoint image of the virtual space corresponding to the viewer avatar, based on virtual space data of the virtual space (e.g., virtual space update data) transmitted from the server computer (e.g., a viewer viewpoint image generating process) ;
The virtual space content is content in which a performer user can participate in the virtual space as a performer avatar,
The virtual space data is data for generating movements of the performer avatar, and is characterized in that it includes movement data for the performer avatar that can generate the movements of the performer avatar in a plurality of generation modes that have different processing loads when generating the movements of the performer avatar on the viewer user terminal .
According to this feature, the generation of viewer avatar viewpoint images, which requires a large processing load, is performed on the viewer user terminal side, so that more viewer users can participate. Also, performer users can participate as performer avatars, and the movements of the performer avatars can be reflected in the viewer avatar viewpoint images, so that the interest of the virtual space content can be further increased. Furthermore, by changing the generation mode, viewer avatar viewpoint images corresponding to the movement status of the performance avatar can be generated, and differences in the processing capabilities of viewer user terminals can also be accommodated.
請求項11の仮想空間コンテンツ配信方法は、
仮想空間(例えば、仮想ライブ会場)における仮想空間コンテンツ(例えば、仮想ライブ)を、少なくともサーバコンピュータ(例えば、配信用サーバコンピュータ100)を用いてネットワーク(例えば、インターネット)を介して配信するための仮想空間コンテンツ配信方法であって、
前記仮想空間コンテンツの対象となる仮想空間に参加可能なアバター(例えば、視聴者アバター)は、視聴者ユーザーが利用可能な端末であって前記ネットワークを介して前記サーバコンピュータに接続された視聴者ユーザー端末(例えば、視聴者端末300)における操作によって前記仮想空間において動作する視聴者アバターを含み、
前記視聴者ユーザーが複数であって、各視聴者ユーザー毎に前記視聴者ユーザー端末が割り当てられており(例えば、図1に示すように、視聴者ユーザーA~Cに視聴者端末300a~cが割り当てられている部分)、
各々の前記視聴者ユーザー端末において、前記視聴者アバターに対応した前記仮想空間の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を前記サーバコンピュータから送信されてくる前記仮想空間の仮想空間データ(例えば、仮想空間更新データ)にもとづいて生成する手順(例えば、視聴者視点映像生成処理)を含み、
前記仮想空間コンテンツは、演者ユーザーが演者アバターとして前記仮想空間に参加可能なコンテンツであり、
前記仮想空間データは、前記演者アバターの動作を生成するためのデータであって、前記視聴者ユーザー端末において前記演者アバターの動作を生成するときに該生成に係わる処理負荷が異なる複数の生成態様にて当該動作を生成可能な演者アバター用動作データを含む
ことを特徴としている。
この特徴によれば、処理負荷が大きな視聴者アバター視点映像の生成が視聴者ユーザー端末側で行われるので、より多くの視聴者ユーザーを参加させることができる。また、演者ユーザーが演者アバターとして参加することとともに、該演者アバターの動作を視聴者アバター視点映像において反映させることができるので、仮想空間コンテンツの興趣をより一層向上できる。更に、生成態様を変更することで、演出アバターの動作状況に対応した視聴者アバター視点映像を生成することができるともに、視聴者ユーザー端末の処理能力等の違いについても対応することができる。
The virtual space content delivery method according to
A virtual space content distribution method for distributing virtual space content (e.g., a virtual live performance) in a virtual space (e.g., a virtual live performance venue) via a network (e.g., the Internet) using at least a server computer (e.g., a distribution server computer 100), comprising:
The avatars (e.g., viewer avatars) that can participate in the virtual space that is the subject of the virtual space content include viewer avatars that operate in the virtual space by operating a viewer user terminal (e.g., viewer terminal 300) that is a terminal available to a viewer user and is connected to the server computer via the network,
There are a plurality of viewer users, and each viewer user is assigned a viewer user terminal (for example, as shown in FIG. 1, viewer users A to C are assigned
a step (e.g., a viewer viewpoint image generation process) of generating, in each of the viewer user terminals, a viewer avatar viewpoint image which is a viewpoint image of the virtual space corresponding to the viewer avatar, the viewer avatar viewpoint image based on virtual space data (e.g., virtual space update data) of the virtual space transmitted from the server computer ;
The virtual space content is content in which a performer user can participate in the virtual space as a performer avatar,
The virtual space data is data for generating movements of the performer avatar, and is characterized in that it includes movement data for the performer avatar that can generate the movements of the performer avatar in a plurality of generation modes that have different processing loads when generating the movements of the performer avatar on the viewer user terminal .
According to this feature, the generation of viewer avatar viewpoint images, which requires a large processing load, is performed on the viewer user terminal side, so that more viewer users can participate. Also, performer users can participate as performer avatars, and the movements of the performer avatars can be reflected in the viewer avatar viewpoint images, so that the interest of the virtual space content can be further increased. Furthermore, by changing the generation mode, viewer avatar viewpoint images corresponding to the movement status of the performance avatar can be generated, and differences in the processing capabilities of viewer user terminals can also be accommodated.
尚、本発明は、本発明の請求項に記載された発明特定事項のみを有するものであって良いし、本発明の請求項に記載された発明特定事項とともに該発明特定事項以外の構成を有するものであっても良い。 The present invention may have only the invention-specific matters described in the claims of the present invention, or may have the invention-specific matters described in the claims of the present invention as well as configurations other than the invention-specific matters.
本発明の仮想空間コンテンツ配信システムを実施するための形態について、実施例にもとづいて図面を用いて以下に説明する。尚、複数の図面において同一の又は類似する構成要素には同じ参照符号を付することで、重複する説明は省くものとする。また、本発明に係わる仮想空間コンテンツ配信プログラムは、仮想空間コンテンツ配信システムを構成する後述するサーバコンピュータや各端末から成るシステム全体で使用されるプログラムであってもよいし、仮想空間コンテンツ配信システムを構成する一部の装置である、例えば、サーバコンピュータや各端末だけで動作するものであってもよく、以下において説明する各処理については、いずれも、処理が行われる機器に記憶されているプログラムによって実行される。 The following describes the form for implementing the virtual space content distribution system of the present invention based on the embodiment and the drawings. Note that the same reference numerals are used to designate identical or similar components in multiple drawings, and duplicated explanations will be omitted. The virtual space content distribution program of the present invention may be a program used by the entire system consisting of the server computer and each terminal that constitute the virtual space content distribution system, which will be described later, or it may be a program that operates only on a portion of the devices that constitute the virtual space content distribution system, such as the server computer or each terminal, and each process described below is executed by a program stored in the device on which the process is performed.
図1は、本発明の1実施形態である実施例1における仮想空間コンテンツ配信システムのシステム構成例を示すブロック図であり、図1に示す本実施例1のシステムでは、演者ユーザーに対応した演者アバター1が、図12に示す仮想ライブ会場においてライブイベントを行う仮想ライブが仮想空間コンテンツとして配信される。尚、以下において配信とは、複数に対する送信であり、送信と同義である。
Figure 1 is a block diagram showing an example of the system configuration of a virtual space content distribution system in Example 1, which is an embodiment of the present invention. In the system of Example 1 shown in Figure 1, a virtual live performance in which a
本実施例1の仮想空間コンテンツ配信システムは、図1に示すように、主に、仮想空間である図11に示す仮想ライブ会場に関する各種処理や仮想ライブの配信に関する各種処理を実行可能な配信用サーバコンピュータ100と、仮想ライブイベントを運営・管理するイベント運営機関のイベント管理者Mが、仮想ライブイベントの配信を管理するために使用する管理者端末150と、演者ユーザーが使用する演者端末200と、仮想ライブに仮想参加して仮想ライブを視聴する視聴者ユーザーが使用可能な視聴者端末300とから構成されており、配信用サーバコンピュータ100、管理者端末150、演者端末200、視聴者端末300は、オープンコンピュータネットワークであるインターネット網Nを介して、相互にデータ通信可能に接続されている。
As shown in FIG. 1, the virtual space content distribution system of this
尚、本実施例1では、管理者端末150や演者端末200についてもインターネット網Nを介して配信用サーバコンピュータ100に接続させた形態を例示しているが、本発明はこれに限定されるものではなく、例えば、図11に示すスタジオが、イベント運営機関が運営するスタジオであって、イベント運営機関が演者ユーザーにスタジオを提供している等の場合であって、これらスタジオに配信用サーバコンピュータ100が設置されている場合にあっては、管理者端末150や演者端末200を配信用サーバコンピュータ100にローカルにデータ通信接続した形態としたり、スタジオ施設内のローカルエリアネットワークLANを介して通信接続するようにしてもよい。
In this
また、図1に示すように、視聴者ユーザーA、視聴者ユーザーB、視聴者ユーザーC…のように、視聴者ユーザーは複数であって、視聴者端末300としては、個々の視聴者ユーザーA、視聴者ユーザーB、視聴者ユーザーC…が使用可能な視聴者端末300a、視聴者端末300b、視聴者端末300c…を含む。尚、視聴者ユーザーは、通常、複数であるが、1人でもよいし、4人以上であってもよく、その数は仮想空間である仮想ライブ会場等に応じて適宜に決定すればよい。以下、視聴者ユーザーA、視聴者ユーザーB、視聴者ユーザーC…を総称して視聴者ユーザーと表記する場合があるとともに、視聴者端末300a、視聴者端末300b、視聴者端末300c…を総称して視聴者端末300と表記する場合がある。
As shown in FIG. 1, there are multiple viewer users, such as viewer user A, viewer user B, viewer user C, etc., and
また、本実施例1では、演者ユーザーを1人とした形態を例示しているが、本発明はこれに限定されるものではなく、仮想ライブは、単独で活動している複数の演者ユーザーが仮想参加する共演イベントであってもよいし、共同で活動している複数人のグループが仮想参加するグループイベントであってもよく、このように、複数の演者が出演する場合には、各演者ユーザー毎に演者端末200a、演者端末200b、演者端末200c…を設けるようにしてもよいし、複数人のグループで出演する場合であれば、1つの演者端末200を複数人で使用するようにしてもよい。
In addition, in this
また、図1においては、配信用サーバコンピュータ100を単体として図示しているが、本発明はこれに限定されるものではなく、これら配信用サーバコンピュータ100を、仮想空間処理を主に行う第1サーバコンピュータと配信処理を主に行う第2サーバコンピュータ等の複数のサーバコンピュータで構成したり、あるいは、クラウドサーバ等にて構成して、イベントの規模や参加する聴者ユーザーの数等に応じてサーバコンピュータの数を適宜に変更可能としてもよい。
In addition, in FIG. 1, the
同様に、管理者端末150についても、図1においては単体として図示しているが、本発明はこれに限定されるものではなく、これら管理者端末150を、ライブに仮想参加する演者ユーザーや視聴者ユーザーの数等に応じて複数としてもよいことはいうまでもない。
Similarly, while the
<配信用サーバコンピュータ>
図2は、本実施例1に用いた配信用サーバコンピュータ100の構成を示す図である。本実施例1で用いた配信用サーバコンピュータ100は、上記のように、イベント運営機関が運営するスタジオに設置された比較的処理能力に優れた通常のサーバコンピュータであって、図2に示すように、データバス108に接続されたプロセッサ(CPU)101、メモリ(RAM)102、ハードディスク等のストレージ103、オープンコンピュータネットワークであるインターネットを介したTCP/IPプロトコルによる双方向に通信が可能な通信インターフェイス(I/F)104と、キーボード等の入力装置等を接続可能な入出力インターフェイス(I/F)105を有している。
<Distribution server computer>
Fig. 2 is a diagram showing the configuration of the
尚、本実施例1では、ローカル操作を可能とするために、入出力インターフェイス(I/F)105を設けているが、通信インターフェイス(I/F)104を介してのリモート操作が可能である場合には、入出力インターフェイス(I/F)105を設けない形態としてもよい。
In this
配信用サーバコンピュータ100のストレージ103には、図示しないサーバ機能を提供するためのオペレーションシステム(サーバOS)に加えて、図3に示すように、各種のデータやプログラムが記憶されている。具体的には、主に、ライブイベントを管理するイベント管理機能を提供するためのイベント管理プログラム110、仮想空間である仮想ライブ会場の仮想空間を提供するための仮想空間生成プログラム120、演者ユーザーを管理する演者ユーザー管理機能を提供するための演者ユーザー管理プログラム130と、視聴者ユーザーを管理する視聴者ユーザー管理機能を提供するための視聴者ユーザー管理プログラム132と、が記憶されている。
In addition to an operation system (server OS) for providing server functions (not shown), various data and programs are stored in the
イベント管理プログラム110は、管理者端末150と協同して仮想ライブ会場(図12参照)で開催されるイベントである仮想ライブを管理するためのプログラムであって、該イベント管理プログラム110とともにストレージ103に記憶されているイベントデータ111(図7参照)、タイムスケジュールデータ(TSデータ)112、楽曲データ113を使用して仮想ライブイベントの進行を管理可能とされている。
The
本実施例1に用いたイベントデータ111を、図7に例示する。イベントデータ111は、イベントに固有に付与されたイベントIDに対応付けて、イベント名、タイムスケジュール(TS)データのファイル名、出演者である演者ユーザーに固有に付与された演者ID、楽曲リストのファイル名、後述する仮想観客領域の第3領域に仮想参加が許可された特別な視聴者ユーザーの情報が登録されている参加視聴者リストのファイル名と、後述する仮想観客領域の第4領域に仮想参加を予約した視聴者ユーザーの情報が登録されている参加視聴者リストのファイル名等の情報が記憶されている。
An example of the
尚、タイムスケジュールデータ(TSデータ)112は、開催される仮想ライブイベントの進行順序や楽曲等の演目が時系列に記述されたデータとされており、該タイムスケジュールデータ(TSデータ)112に記述されたタイムスケジュールにもとづいて仮想ライブイベントが進行するように管理される。また、これらタイムスケジュールデータ(TSデータ)112やイベントデータ111等は、管理者端末150をイベント管理者Mが操作することによって変更、更新、追加することができる。
The time schedule data (TS data) 112 is data that describes the order of progression of the virtual live event to be held and the programs such as songs in chronological order, and the virtual live event is managed so that it progresses based on the time schedule described in the time schedule data (TS data) 112. Furthermore, the time schedule data (TS data) 112 and
また、楽曲データ113は、演者ユーザーが歌唱する各楽曲の演奏パート(所謂カラオケ)のデータであって、イベント管理プログラム110によってタイムスケジュールデータ(TSデータ)112にもとづいて、後述する音声制御プログラム124によって再生されて、演者端末200や視聴者端末300に送信される(図11参照)。
The
仮想空間生成プログラム120は、図12に示す仮想空間である仮想ライブ会場を提供するためのプログラムであって、該仮想空間生成プログラム120とともにストレージ103に記憶されている仮想ライブ会場の構造等が記述された仮想空間データ121、仮想ライブ会場に配置される種々の物体(ステージ上の星の装飾物である仮想配置オブジェクト43や上空の星のオブジェである仮想空中オブジェクト50~52を含む)等を仮想空間内に配置するためのオブジェクトデータ122、並びに後述する演者ユーザーデータ131に含まれている演者アバターデータおよび視聴者ユーザーデータ133に含まれている視聴者アバターデータとを用いて、演者アバターや視聴者アバターが仮想参加している仮想ライブ会場を提供する機能を有する。
The virtual
視点映像制御プログラム123は、図12に示すように、仮想ライブ会場に仮想的に設定された仮想カメラC1~C4並びに空中移動仮想カメラ(図示略)からの視点映像を生成する機能を提供するとともに、視聴者端末300と協同して仮想ライブ会場の第3領域にて仮想参加している視聴者アバター11~14、第4領域にて仮想参加している視聴者アバター21~32の各視点からの映像を視聴者端末300に表示する機能を提供するためのプログラムである。尚、仮想カメラC2は、仮想ライブ会場のステージ上にいる演者アバター1の視点からの映像とするために設定された仮想カメラであり、該仮想カメラC2からの視点映像が、演者端末200と協同して該演者端末200に接続された後述するプロジェクタ211によって、スタジオにもうけられているスクリーンSに投影されるようになっている。
As shown in FIG. 12, the viewpoint
音声制御プログラム124は、仮想ライブイベントにおいて配信される音声(楽曲を含む)に関する制御を行うためのプログラムであり、具体的には、楽曲データ113の再生機能や演者ユーザーが発した音声を再生した楽曲と合成して管理者端末150や視聴者端末300に配信する機能を提供する。
The
コメント制御プログラム125は、後述する視聴者端末300に記憶されている視聴者用コメント制御プログラムと協同して、仮想ライブイベントにおいて各視聴者ユーザーが視聴者端末300において入力した種々のコメントを、時系列に演者端末200並びに視聴者端末300に表示させる機能を提供する。
The
ギフト制御プログラム126は、後述する視聴者端末300に記憶されている視聴者用プログラムと協同して、視聴者ユーザーから演者ユーザーに贈られるギフトに関する制御を行うためのプログラムであり、具体的には、ギフトデータ134に記憶されている各種ギフトに設定された購入単価の情報にもとづいて視聴者ユーザーがギフトの購入を行う機能や、ギフトデータ134に含まれているギフトのオブジェクトデータを用いて購入したギフトを視聴者ユーザーが演者ユーザーに贈るための処理機能(贈るときの演出等の処理を含む)や、贈られたギフトの所有者を視聴者ユーザーから演者ユーザーに変更するための処理機能等を提供する。
The
演者ユーザー管理プログラム130は、該演者ユーザー管理プログラム130とともにストレージ103に記憶されている図8に示す演者ユーザーデータ131にもとづいて、演者ユーザーに関する情報の管理機能並びに認証機能等を提供する。
The performer
本実施例1で用いた演者ユーザーデータ131を、図8に例示する。演者ユーザーデータ131は、演者ユーザーに固有に付与された演者ユーザーIDに対応付けて、当該演者ユーザーのアカウント(電子メールアドレス)、名称、認証情報、仮想空間において使用するアバターのアバターデータのファイル名、所有しているアイテムが登録されているアイテムリストのファイル名、等の各種情報が記憶されている。尚、図8には図示していないが、各演者ユーザーが所有しているポイント等の仮想価値の情報を演者ユーザーデータ131として記憶するようにしてもよい。
The
演者ユーザーは、演者ユーザーID、アカウント、認証情報とを照合する等によって認証できるようになっているとともに、各演者ユーザーが視聴者から贈られることで所有することになったアイテム(ギフト)を、アイテムリストから特定できるようになっている。 Performer users can be authenticated by matching their performer user ID, account, and authentication information, and items (gifts) that each performer user has received from viewers and that they come to own can be identified from an item list.
視聴者ユーザー管理プログラム132は、該プログラムとともにストレージ103に記憶されている図9に示す視聴者ユーザーデータ133にもとづいて、視聴者ユーザーに関する情報の管理機能並びに認証機能等を提供する。
The viewer
本実施例1に用いた視聴者ユーザーデータ133を、図9に例示する。視聴者ユーザーデータ133は、視聴者ユーザーに固有に付与された視聴者ユーザーIDに対応付けて、当該視聴者ユーザーのアカウント(電子メールアドレス)、認証情報、仮想空間において使用するアバターのアバターデータのファイル名、仮想空間において使用可能なポイントの所有数である所有ポイント、ポイントを使用して購入したアイテム(ギフト)が登録されているアイテムリストのファイル名、氏名、生年月日、電話番号等の個人情報等の各種情報が記憶されている。尚、図9には示していないが、コメントとともに表示されるニックネーム(コメントネーム)についても視聴者ユーザーデータ133に登録されていて、該ニックネーム(コメントネーム)がコメントとともに表示される。また、ポイントは、例えば、所定の運営会社から購入することで増やすことができる。
The
<演者端末>
図4は、本実施例1の仮想空間コンテンツ配信システムにおける演者端末200の構成例を示す図である。演者端末200は、本実施例1では、図11に示すように、演者ユーザーが演技動作を行うスタジオに隣接する調整室内に設けられていて、比較的処理能力に優れた通常のコンピュータを使用しており、図4に示すように、データバス208に接続されたプロセッサ(CPU)201、メモリ(RAM)202、ハードディスク等のストレージ203、オープンコンピュータネットワークであるインターネットを介したTCP/IPプロトコルによる双方向に通信が可能な通信インターフェイス(I/F)204、表示装置A210~表示装置C212が接続されたグラフィックスプロセッシングユニット(GPU)を含む画像処理部206、各種の入出力デバイスが接続された入出力インターフェイス(I/F)205を有している。
<Performer terminal>
Fig. 4 is a diagram showing an example of the configuration of a
入出力インターフェイス(I/F)205には、入力デバイスとして、演者ユーザーが左右の手足及び腰に装着している複数の装着センサ220C1~220C5(図11参照)を含むモーションセンサ220、演者の顔の表情を入力するための撮像カメラで構成される表情入力装置221、演者ユーザーの頭部に装着されている集音マイクにより構成される音声入力装置222、演者ユーザーを補助する補助オペレータOが操作可能に設けられたキーボードやタッチパネル等の操作入力装置224等が接続される。尚、これら入力デバイスとして、演者ユーザーが把持することで種々の操作を行うことが可能なコントローラを設けることで、補助オペレータOによることなく、演者自身が種々の操作を行うことができるようにしてもよい。
The input/output interface (I/F) 205 is connected to the following input devices: a
尚、本実施例1では、演者ユーザーが楽曲に合わせた上演動作(歌唱やダンス等の楽曲動作を含む)を行うため、上演中における操作を補助オペレータOが補助する形態としているが、これら補助オペレータOを複数人としたり、或いは、操作内容を予め演者端末200において、例えば、シーケンスプログラム等に設定しておくことで、補助オペレータOを設けない形態としてもよい。
In this
入出力インターフェイス(I/F)205には、出力デバイスとして演者ユーザーが装着している高機能イヤホン(イヤモニ)や調整室に配置されたスピーカー等を含む音声出力装置223が接続されることで、配信用サーバコンピュータ100から送信される再生楽曲の音が高機能イヤホン(イヤモニ)を介して演者ユーザーに対して出力されるとともに、スピーカーからは、演者の音声とともに楽曲音声が出力されることで、演者ユーザーが発した音声を含む楽曲の状況を、補助オペレータO等が調整室において確認することができるようになっている。
The input/output interface (I/F) 205 is connected to an
本実施例1では、演者ユーザーが装着している集音マイクから、再生された楽曲音声が入力されることによる不都合を回避するために高機能イヤホン(イヤモニ)を使用しているが、本発明はこれに限定されるものではなく、楽曲音声が入力されることによる不都合を回避できるのであれば、スタジオ内のスピーカー等から、楽曲音声を出力するようにしてもよい。
In this
尚、本実施例1では、集音マイクを演者ユーザーが装着する形態を例示しているが、これら集音マイクを、スタジオの床、壁、又は天井に設置される設置型のものとしてもよい。
Note that, in this
ここで、本実施例1の演者端末200で使用したモーションセンサ220について説明する。モーションセンサ220は、演者ユーザーの体の動き(動作)を適切に検出(計測)できるものであれば、任意のものを使用することができる。本実施例1では、演者の動作をより正確且つ短周期で検出可能とするために、演者ユーザーが体に装着する複数の装着センサ220C1~220C5を使用している。尚、モーションセンサ220を、レーザー光等を用いたLiDER等の演者が機器を装着しないタイプのものを使用してもよい。
Here, we will explain the
尚、本実施例1では、演者ユーザーが上演動作をする際のセンサ等の装着による動作負担、特には、頭部の動作負担を軽減するために、演者ユーザーの頭部の動作を、後述するように、表情入力装置221を構成する撮像カメラにて撮像された画像を用いた画像認識によって検出し、頭部以外の動作を5つの装着センサ220C1~220C5を使用した形態を例示しているが、例えば、演者ユーザーの頭部等にも装着センサを設けたり、更に、より詳細な動作を検出するために、より多く(7以上)の装着センサを装着するようにしてもよい。
In this
装着センサ220C1~220C5は、図11に示すように、隣接する調整室とガラス窓を隔てたスタジオルーム内に設置されているベースステーション220a及びベースステーション220bと協働して、自らの位置及び向きを検出する。
As shown in FIG. 11, the mounting sensors 220C1 to 220C5 detect their own position and orientation in cooperation with
これらベースステーション220a及びベースステーション220bは、一例として、多軸レーザーエミッターを使用できる。ベースステーション220aは、同期用の点滅光を発した後に、例えば鉛直軸の周りでレーザー光を走査する。ベースステーション220bは、例えば水平軸の周りでレーザー光を走査する。
装着センサ220C1~220C5はそれぞれ、ベースステーション220a及びベースステーション220bからの点滅光及びレーザー光の入射を検知する光センサを複数備えていてもよい。
Each of the mounting sensors 220C1 to 220C5 may include multiple optical sensors that detect the incidence of blinking light and laser light from the
装着センサ220C1~220C5はそれぞれ、点滅光の入射タイミングとレーザー光の入射タイミングとの時間差、各光センサでの受光時間、各光センサが検知したレーザー光の入射角度、及び必要に応じてこれら以外の情報に基づいて、自らの位置及び向きを検出可能とされており、例えば、HTC CORPORATIONから提供されているViveTrackerや、ベースステーションを好適に使用することができる。 Each of the mounting sensors 220C1 to 220C5 can detect its own position and orientation based on the time difference between the incidence of the blinking light and the incidence of the laser light, the light reception time at each optical sensor, the incidence angle of the laser light detected by each optical sensor, and other information as necessary. For example, ViveTracker or a base station provided by HTC CORPORATION can be suitably used.
ベースステーション220a及びベースステーション220bは、一定のインターバルで点滅光の発光及びレーザー光の走査を行うので、各装着センサ220C1~220C5の検出情報は、当該インターバルごとに更新される。そして、これら装着センサ220C1~220C5の各々において算出された各モーションセンサの位置及び向きを示す検出情報は、近距離無線通信によって演者端末200に入力され、フェイスモーションの情報とともに、演者アバター情報として配信用サーバコンピュータ100に送信される(図10参照)。
尚、本実施例1では、ベースステーション220a及びベースステーション220bの2つのベースステーションを使用した形態を例示しているが、本発明はこれに限定されるものではなく、これらベースステーションを3つ以上としてもよい。
Note that in this
また、モーションセンサ220を、演者ユーザーに装着される複数のモーションセンサの各々に多数の赤外LED或いは可視光LEDを搭載し、これらのLEDからの光を、スタジオの床や壁に設けられた赤外線カメラで検知することで、当該モーションセンサの各々の位置及び向きを検出してもよい。
また、モーションセンサ220を、演者ユーザーの負担を軽減するために、装着センサ220C1~220C5に代えて、より軽量な反射マーカーを用いたモーションセンサを使用してもよい。つまり、演者ユーザーの身体の各部に粘着テープなどにより貼着された反射マーカーを撮影して撮影データを生成し、この撮影データを画像処理することにより、反射マーカーの位置及び向きを検出することで、演者ユーザーの動作を検出するものであってもよく、この場合にあっては、スタジオ内に演者ユーザーを撮影するカメラマンを配置して、該カメラマンが演者ユーザーを撮影することで、演者ユーザーの動作を、検出に適した方向から撮影することで、良好に検出できるようにしてもよい。
Moreover, in order to reduce the burden on the performer user, the
また、モーションセンサ220として、慣性センサが内蔵されたスーツ、例えば、Xsens.com社が上市しているMVNモーションキャプチャシステム用の慣性センサ内蔵スーツを使用し、慣性センサから出力されるセンサ信号を解析することにより、演者ユーザーの動作を検出するものであってもよい。
表情入力装置221は、演者ユーザーの顔を含む頭部の動作を適切に検出できるものであれば、任意のものを使用することができる。本実施例1では、具体的には、演者ユーザーの顔を含む頭部画像を連続的に撮像可能に配置された撮像カメラ(デジタルカメラ)にて構成されており、該撮像カメラにて撮像された演者ユーザーの頭の動きと顔の動き(表情)を、画像認識にて検知し、該検知した頭の動きと顔の動き(表情)であるフェイスモーションの情報が、図10に示すように、ボディモーションの情報とともに演者アバター情報として配信用サーバコンピュータ100に送信される。
Any facial
尚、表情入力装置221は、本実施例1で使用した撮像カメラ(デジタルカメラ)に限定されるものではなく、例えば、表情入力装置221は、人物の顔の奥行きを検出可能な3Dカメラであってもよいし、例えば、LiDERデバイスが搭載されたスマートフォン等の携帯端末を使用することもできる。この場合、これらの携帯端末を演者ユーザーが装着するようにしてもよい。
The facial
本実施例1の演者端末200では、上記のように、3つの表示装置A210~表示装置C212を有しており、表示装置A210は、図11示すように、調整室に設けられている液晶モニター等であり、表示装置B211は、スタジオ内に設けられたスクリーンSに映像を投影するプロジェクタであり、表示装置C212は、スタジオ内にスクリーンSに隣接して設けられた縦型の大型ディスプレイである。
As described above, the
スタジオの調整室内に配置されている表示装置A210には、仮想カメラC1~C4の各視点からの映像や後述するフライング演出期間における空中移動仮想カメラからの視点映像と、コメントの内容と、補助オペレータOが演者ユーザーに伝達したいメッセージを入力するメッセージ入力ウインドウ等が表示される。 Display device A210, which is placed in the studio's adjustment room, displays images from each of the virtual cameras C1 to C4, as well as viewpoint images from a virtual camera moving in the air during the flying performance period described below, as well as the contents of comments and a message input window into which assistant operator O inputs any message he or she wishes to convey to the performer user.
一方、スタジオ内に設けられた表示装置B211であるプロジェクタから投影されるスクリーンSには、演者の視点である仮想カメラC2(図12参照)の視点映像である、例えば、図15に示すように、第3領域や第4領域においてライブに仮想参加している視聴者のアバターを含む映像が表示されることで、演者ユーザーが、仮想ライブに仮想参加している視聴者ユーザーの状況を、映像によって確認できるようになっている。 On the other hand, a screen S projected from a projector, which is a display device B211 installed in the studio, displays an image from the viewpoint of a virtual camera C2 (see FIG. 12), which is the viewpoint of the performer, for example, as shown in FIG. 15, including avatars of viewers virtually participating in the live performance in the third and fourth areas, allowing the performer user to check the status of the viewer users virtually participating in the virtual live performance through the image.
また、スタジオ内に設けられた表示装置C212には、視聴者ユーザーのコメントや、補助オペレータOが入力したコメントやメッセージ等が表示されることで、演者ユーザーが、上演中においても視聴者ユーザーのコメントを確認したり、補助オペレータOからのメッセージを確認することができる。 In addition, comments from viewer users, as well as comments and messages entered by the assistant operator O, are displayed on the display device C212 installed in the studio, allowing the performer user to check the comments from viewer users and messages from the assistant operator O even during the performance.
ストレージ203には、演者端末200であるコンピュータを動作させるためのオペレーションシステム(OS)に加えて、プロセッサ(CPU)201等が実行することで仮想空間コンテンツである仮想ライブにおける演者ユーザーによる演者アバター1の動作制御機能を初めとする各種機能を、配信用サーバコンピュータ100と協働して提供するための演者用プログラムが記憶されている。
In addition to an operating system (OS) for operating the computer that is the
演者用プログラムは、図4に示すように、演者アバター制御プログラム、演者用視点映像制御プログラム、演者用視点映像制御プログラム、演者用音声制御プログラム、演者用コメント制御プログラム、演者認証用データ等を含む。 As shown in FIG. 4, the performer programs include a performer avatar control program, a performer viewpoint image control program, a performer viewpoint image control program, a performer voice control program, a performer comment control program, performer authentication data, etc.
演者アバター制御プログラムは、主に、モーションセンサ220を用いて演者ユーザーのボディモーションをスキャンするとともに、表情入力装置221を用いて演者ユーザーのフェイスモーション(表情)をスキャンして、演者アバターを動作させるための演者アバター情報を生成して配信用サーバコンピュータ100に送信する機能を提供するプログラムである。
The performer avatar control program is a program that provides the function of primarily scanning the body motion of the performer user using the
演者用視点映像制御プログラムは、配信用サーバコンピュータ100から配信される仮想空間更新データにもとづいて演者視点である仮想カメラC2の視点映像を生成、出力する機能を提供するプログラムである。
The performer's viewpoint image control program is a program that provides the function of generating and outputting the viewpoint image of virtual camera C2, which is the performer's viewpoint, based on the virtual space update data distributed from the
演者用音声制御プログラムは、配信用サーバコンピュータ100から配信される再生楽曲データにもとづく楽曲の再生音を、音声出力装置223を介して出力するとともに、音声入力装置222から入力される音声をデータ化して演者音声データとして配信用サーバコンピュータ100に送信し、楽曲の再生音と演者音声とからなるモニター音声を生成、出力する機能を提供するプログラムである。
The performer's voice control program is a program that provides the function of outputting the playback sound of a song based on the playback music data distributed from the
演者用コメント制御プログラムは、配信用サーバコンピュータ100から配信される視聴者ユーザーによる各コメント等を表示する機能を提供するプログラムである。
The performer comment control program is a program that provides the function of displaying each comment by the viewer user that is distributed from the
演者認証用データは、配信用サーバコンピュータ100との通信接続において演者ユーザーが本人であることを認証するためのデータである。
The performer authentication data is used to authenticate the identity of the performer user in a communication connection with the
尚、演者アバター制御プログラムには、演者アバターデータに含まれる演者アバターの骨格を示すリグデータ(スケルトンデータ」と呼ばれることもある。)を構成する骨( ボーン) の位置及び回転角度のパラメータ情報を生成可能なモーションパラメータ生成プログラム等が含まれているとともに、撮像カメラによって撮像された画像から演者ユーザーの頭部の位置と表情とを画像認識するための画像認識処理プログラム等が含まれている。 The performer avatar control program includes a motion parameter generation program capable of generating parameter information for the positions and rotation angles of the bones that make up the rig data (sometimes called "skeleton data") that indicates the skeleton of the performer avatar included in the performer avatar data, as well as an image recognition processing program for image recognition of the performer user's head position and facial expression from the image captured by the imaging camera.
また、本実施例1では、演者端末200は、イベント運営機関が運営するスタジオに設置された演者端末200となるコンピュータを、複数の演者ユーザーが共同で利用し、ライブイベントを開催するときにおいて、個々の演者ユーザーが、演者認証用データを入力することで当該演者ユーザーの演者端末200として利用できるようにした形態を例示しているが、本発明はこれに限定されるものではなく、例えば、演者ユーザーが自宅等から仮想ライブに出演する場合であって、演者端末200が、演者ユーザーが自宅に設置している自分専用のコンピュータである場合のように、所有する演者ユーザーのみが利用する形態であってもよく、このような場合には、演者認証用データの記憶は必ずしも必要ない。
In addition, in this
このように、本実施例1の仮想空間コンテンツ配信システムを構成する演者端末200を演者ユーザー等が使用することで、演者ユーザーは、仮想ライブ会場における仮想ステージG上に配置された演者アバター1を、自身の動作に連動して動作させることができるとともに、演者アバター1の表情に自身の表情を反映させることができる。また、自分の声を演者アバター1の声として、配信用サーバコンピュータ100を通じて視聴者に配信することができる。
In this way, by using the
<視聴者端末>
図5は、本実施例1の仮想空間コンテンツ配信システムにおける視聴者端末300の構成例を示す図である。視聴者端末300は、本実施例1では、視聴者ユーザーが携行するスマートフォンPや視聴者ユーザーが自宅等に設置している据え置き型の通常のコンピュータ(PC)とされており、図5に示すように、データバス308に接続されたプロセッサ(CPU)301、メモリ(RAM)302、ハードディスクや不揮発性メモリ等のストレージ303、オープンコンピュータネットワークであるインターネットを介したTCP/IPプロトコルによる双方向に通信が可能な通信インターフェイス(I/F)304、表示装置310が接続されたグラフィックスプロセッシングユニット(GPU)を含む画像処理部306、各種の入出力デバイスが接続された入出力インターフェイス(I/F)305を有している。
<Viewer terminal>
Fig. 5 is a diagram showing an example of the configuration of a
表示装置310は、後述するように、ストレージ303に記憶されている視聴者用プログラムに含まれる視聴者用視点映像制御プログラムによって、配信用サーバコンピュータ100から配信される仮想空間更新データ(図10参照)によって更新される仮想空間である仮想ライブ会場の仮想空間データにもとづいて生成される各視点映像や、後述するフライング演出期間において配信用サーバコンピュータ100から配信されるフライング視点映像を表示可能なものであればよく、視聴者端末300がスマートフォンPである場合は、該スマートフォンPが有するディスプレイが該当し、視聴者端末300が通常のコンピュータ(PC)であれば、コンピュータ(PC)を構成する据え置き型のディスプレイが該当する。尚、これらディスプレイは、平面視画像(2D画像)を表示するものに限らず、例えば、視聴者が装着可能なヘッドマウントディスプレイ(HMD)のように、右目画像と左目画像とを表示することで、立体視画像(3D画像)を表示可能なものであってもよい。
The
入出力インターフェイス(I/F)305には、入力デバイスとして、視聴者が各種の操作が可能とされた1または複数のデバイスからなる操作入力装置321と、配信用サーバコンピュータ100から配信されるライブ音声等を出力可能なイヤホンやスピーカー等の音声出力装置322が接続される。
The input/output interface (I/F) 305 is connected to an
尚、音声出力装置322は単独のデバイスではなく、上記したヘッドマウントディスプレイ(HMD)のように表示装置310と一体とされたものであってもよいことはいうまでもない。
It goes without saying that the
操作入力装置321は、視聴者が視聴者アバターの移動等を含む動作操作、ズーム操作、コメントに関する操作、ギフト等に関する操作等、の各種操作を実行可能なものであれば任意のものを使用することができ、例えば、スマートフォンのディスプレイ表面に形成された透明タッチパネル、コンピュータを構成するキーボード、ゲームコントローラ等の少なくとも1つ以上で構成される。
The
尚、本実施例1では、視聴者として、後述するように、仮想ライブ会場における仮想観客領域が、図12に示すように、演者ユーザーによって特別に許可された視聴者ユーザーだけが仮想参加できる仮想ステージG近傍の第3領域と、一般の視聴者ユーザーが仮想参加できる第3領域周囲の第4領域とに区分けされており、第4領域に仮想参加する視聴者ユーザーは、上記したように、タッチパネル、キーボード、ゲームコントローラ等の操作入力装置321であればよいが、第3領域に仮想参加する視聴者ユーザーは、操作入力装置321として、例えば、上述した慣性センサが内蔵されたMVNモーションキャプチャスーツを所有していることで、演者ユーザーと同様に、視聴者アバターを自身の動作によって細かく動作させることのできる視聴者ユーザーである。
In this
但し、第3領域に仮想参加が許可された視聴者ユーザーであっても、視聴者アバターの表情を変更することまではできないが、本発明はこれに限定されるものではなく、これら視聴者アバターの表情を、例えば、上記したように、視聴者ユーザーがスマートフォンのカメラ機能やコンピュータに接続したカメラを使用して視聴者ユーザーの顔の表情を認識させることで、演者ユーザーの変更レベルとは異なるレベルであっても、変更できるようにしてもよい。 However, even viewer users who are permitted to virtually participate in the third area cannot change the facial expression of the viewer avatar, but the present invention is not limited to this, and the facial expressions of these viewer avatars may be changed, for example, as described above, by the viewer user using the camera function of a smartphone or a camera connected to a computer to recognize the facial expression of the viewer user, even if it is at a different level from the change level of the performer user.
尚、これら入出力インターフェイス(I/F)305に接続される各種の入出力デバイスは、内蔵のものであっても外付けのものあってもよく、外付けのデバイスの場合には、有線、無線のいずれの接続形態であってもよい。 The various input/output devices connected to the input/output interface (I/F) 305 may be built-in or external, and in the case of external devices, they may be connected in either a wired or wireless manner.
ストレージ303には、視聴者端末300であるスマートフォンやコンピュータを動作させるためのオペレーションシステム(OS)に加えて、プロセッサ(CPU)301等が実行することで仮想空間コンテンツである仮想ライブにおける視聴者ユーザーに関するライブ視聴機能を初めとする各種機能を、配信用サーバコンピュータ100と協働して提供するための視聴者用プログラムが視聴アプリとして記憶されている。
In addition to an operating system (OS) for operating the
視聴者用プログラムは、図5に示すように、表示装置310に表示する仮想ライブの各視点映像を生成する機能を提供する視聴者用視点映像制御プログラム、配信用サーバコンピュータ100から配信される仮想ライブのライブ音声(データ)に基づくライブ音声を音声出力装置322から出力する機能を提供する視聴者用音声制御プログラム、配信用サーバコンピュータ100から配信されるコメントデータにもとづくコメントを表示するとともに、視聴者が入力するコメントと配信用サーバコンピュータ100に送信する等のコメントに関する機能を提供する視聴者用コメント制御プログラム、配信用サーバコンピュータ100との通信接続において視聴者ユーザーが本人であることを認証するための視聴者認証用データ等を含む。
As shown in FIG. 5, the viewer program includes a viewer viewpoint image control program that provides the function of generating each viewpoint image of the virtual live to be displayed on the
尚、図5には図示していないが、上記したプログラム以外に、ギフトに関する制御等を行うギフト制御プログラムや、後述する変形例3-1(図42,図43参照)に示すように、ライブイベントの開始前において事前に仮想ライブ会場において視聴者アバターが仮想参加する領域(位置)を予約するための領域指定プログラム等が含まれているが、これら以外の他のプログラムが含まれていてもよい。 Note that, although not shown in FIG. 5, in addition to the above-mentioned programs, there is included a gift control program that controls gifts, and an area designation program for reserving an area (position) in which a viewer avatar will virtually participate in the virtual live venue in advance before the start of the live event, as shown in variant example 3-1 (see FIGS. 42 and 43) described below, but other programs may also be included.
視聴者が入力するコメントは、本実施例1では、テキスト形式の短文メッセージとされているが、これらテキスト形式の短文メッセージに限定されるものではなく、例えば、静止画形式のメッセージ、動画形式のメッセージ、及びこれら以外の任意の形式の電子的なメッセージであってもよい。尚、コメントは、表示装置310において各視点映像に重ねて表示される。
In this
このように、本実施例1の仮想空間コンテンツ配信システムを構成する視聴者端末300視聴者ユーザーが使用することで、仮想ライブ会場に仮想参加している視聴者アバターを移動や動作させて、視聴者アバターによる視点を変更することで表示装置310に表示される視点映像を変更することができるとともに、ズーム状態(視点の状態)についても変更することができ、視聴者アバターを動作させて演者アバター1を応援することができる。
In this way, by using the
尚、第3領域に仮想参加した視聴者アバターの場合は、第3領域内においてだけ移動が可能とされていて、第4領域には移動することはできない。一方、第4領域に仮想参加した視聴者アバターの場合は、第4領域内においてだけ移動が可能とされていて、第3領域には移動することはできない。但し、本発明はこれに限定されるものではなく、3領域に仮想参加した視聴者アバターの場合は第4領域に移動できるようにしてもよい。尚、視聴者アバターは、当然、仮想ステージG等には移動することができないので、演者アバター1の視認が仮想ステージG上に視聴者アバターが移動することによって阻害されてしまうことはない。
Note that a viewer avatar that virtually participates in the third area is only allowed to move within the third area, and cannot move to the fourth area. On the other hand, a viewer avatar that virtually participates in the fourth area is only allowed to move within the fourth area, and cannot move to the third area. However, the present invention is not limited to this, and a viewer avatar that virtually participates in three areas may be allowed to move to the fourth area. Note that a viewer avatar naturally cannot move onto the virtual stage G, etc., so visibility of the
また、これら表示装置310に視点映像が表示されるともに、ライブ音声が出力されることで、自分が仮想ライブ会場に立ち会っているような感覚で、仮想ライブを楽しむことができる。
In addition, by displaying viewpoint images on these
また、詳しい説明は省略するが、視聴者用コメント制御プログラムにより提供されるコメント機能によって、自分や他の視聴者ユーザーが入力したコメントを確認しながら仮想ライブを楽しむことができるとともに、ギフト制御プログラムによるギフト機能によって、自分が所有しているアイテムを演者アバター1に贈ることで、仮想ライブを盛り上げることもできる。
Although we will not go into detail here, the comment function provided by the viewer comment control program allows viewers to enjoy the virtual live show while checking comments entered by themselves and other viewer users, and the gift function provided by the gift control program allows viewers to give items they own to the
<管理者端末>
図6は、本実施例1の仮想空間コンテンツ配信システムにおける管理者端末150の構成例を示す図である。管理者端末150は、本実施例1では、演者端末200とともに、スタジオに隣接している調整室内に設けられた通常のコンピュータを使用しており、図6に示すように、データバス158に接続されたプロセッサ(CPU)151、メモリ(RAM)152、ハードディスク等のストレージ153、オープンコンピュータネットワークであるインターネットを介したTCP/IPプロトコルによる双方向に通信が可能な通信インターフェイス(I/F)154、表示装置160が接続されたグラフィックスプロセッシングユニット(GPU)を含む画像処理部156、各種の入出力デバイスが接続された入出力インターフェイス(I/F)155、を有している。
<Administrator terminal>
Fig. 6 is a diagram showing an example of the configuration of the
表示装置160は、後述するように、ストレージ153に記憶されている管理者用プログラムに含まれる管理者用視点映像制御プログラムによって、配信用サーバコンピュータ100から配信される仮想空間更新データ(図10参照)によって更新される仮想空間である仮想ライブ会場の仮想空間データにもとづいて生成される、後述する各仮想カメラC1~C4並びにフライング演出期間における空中移動仮想カメラの各視点映像を個別に表示可能であるとともに、配信用サーバコンピュータ100から配信されるコメントデータにもとづくコメントを表示可能なものであればよく、1または複数の据え置き型のディスプレイによって構成されている。
As described below, the
入出力インターフェイス(I/F)155には、入力デバイスとして、イベント管理者Mが各種の操作が可能とされた1または複数のデバイスからなる操作入力装置161と、配信用サーバコンピュータ100から配信されるライブ音声等を出力可能なイヤホンやヘッドホンやスピーカー等の音声出力装置162が接続される。
The input/output interface (I/F) 155 is connected to an
操作入力装置161は、イベント管理者Mが、仮想ライブのイベントに関する入力や設定等の各種操作を実行可能なものであれば任意のものを使用することができ、例えば、コンピュータを構成するキーボードや、ディスプレイ表面に形成された透明タッチパネルや視点切替コントローラ等の少なくとも1つ以上で構成される。
The
尚、これら入出力インターフェイス(I/F)155に接続される各種の入出力デバイスは、有線、無線のいずれの接続形態であってもよい。 The various input/output devices connected to the input/output interface (I/F) 155 may be connected in either a wired or wireless manner.
ストレージ153には、管理者端末150であるコンピュータを動作させるためのオペレーションシステム(OS)に加えて、プロセッサ(CPU)151等が実行することで仮想空間コンテンツである仮想ライブの配信に関する配信管理機能を初めとする各種機能を、配信用サーバコンピュータ100と協働して提供するための管理者用プログラムが記憶されている。
In addition to an operating system (OS) for operating the computer that is the
管理者用プログラムは、図6に示すように、管理者用視点映像制御プログラム、管理者用音声制御プログラム、管理者用コメント制御プログラム、視聴者管理プログラム、演者管理プログラム等を含む。 As shown in FIG. 6, the administrator programs include an administrator viewpoint video control program, an administrator audio control program, an administrator comment control program, a viewer management program, a performer management program, etc.
管理者用視点映像制御プログラムは、表示装置160に表示する各仮想カメラからの視点映像を生成する機能並びに各視点の変更や切替機能を提供するプログラムである。
The administrator viewpoint image control program is a program that provides the function of generating viewpoint images from each virtual camera to be displayed on the
管理者用音声制御プログラムは、配信用サーバコンピュータ100から配信される仮想ライブの音声データに基づくライブ音声を音声出力装置162から出力する機能を提供するプログラムである。
The administrator audio control program is a program that provides the function of outputting live audio from the
管理者用コメント制御プログラムは、配信用サーバコンピュータ100から配信されるコメントデータにもとづくコメントを表示するとともに、配信を禁止するコメントや視聴者を選択して配信されないようにする等のコメントに関する機能を提供するプログラムである。
The administrator comment control program is a program that displays comments based on comment data distributed from the
視聴者管理プログラムは、仮想ライブに仮想参加する視聴者ユーザーを管理するためのプログラムであり、演者管理プログラムは、仮想ライブに仮想参加する演者ユーザーを管理するためのプログラムである。 The viewer management program is a program for managing viewer users who virtually participate in a virtual live performance, and the performer management program is a program for managing performer users who virtually participate in a virtual live performance.
尚、図6には図示していないが、操作者である管理者が本人であるか否かを認証するための認証用プログラムや、仮想ライブのタイムスケジュールや楽曲順等を編集するためのスケジュール用プログラム等が含まれているが、これら以外のプログラムが含まれていてもよい。 Note that although not shown in FIG. 6, the system includes an authentication program for authenticating whether the administrator who is the operator is the actual person, and a schedule program for editing the time schedule and song order of the virtual live performance, but may also include other programs.
このように、本実施例1の仮想空間コンテンツ配信システムを構成する管理者端末150をイベント管理者Mが操作することによって、イベントを実行するための種々の設定、例えば、演目や楽曲順、演出に関する設定や、タイムスケジュール、フライング演出期間において空中移動仮想カメラが移動する軌道等の各種設定を実施できるようになっており、このようにして設定された内容にもとづいて仮想ライブが管理されるようになっている。
In this way, the event manager M can operate the
<仮想ライブ会場>
本実施例1で使用した仮想空間である仮想ライブ会場を図12に示す。仮想ライブ会場は、図12に示すように、現実空間におけるライブ会場と同様に、演者ユーザーが演者アバター1として登壇する仮想ステージGと、観客となる視聴者ユーザーが視聴者アバターとして仮想参加する仮想観客領域とを有する仮想空間とされている。
<Virtual live venue>
A virtual live performance venue, which is the virtual space used in Example 1, is shown in Fig. 12. As shown in Fig. 12, the virtual live performance venue, like a live performance venue in real space, is a virtual space having a virtual stage G where performer users appear as
仮想ステージGは、図12に示すように、比較的広い面積の台形状の床面を有しており、現実空間のライブ会場と同様に、演者アバター1が仮想ステージG上を移動できる。仮想ステージGの仮想客席方向とは逆方向側には、図12に示すように、中央部と右側部と左側部とに3分割された仮想ステージ壁が形成されており、これら仮想ステージ壁の前面に、仮想ディスプレイ40、41、42が設けられていて、該仮想ディスプレイ40、41、42に、演出用の画像や映像が仮想表示されるようになっている。
As shown in FIG. 12, virtual stage G has a relatively large trapezoidal floor surface, and
尚、仮想ディスプレイ40、41、42の間には、演者ユーザーに関係する星の仮想配置オブジェクト43が配置されているとともに、仮想ステージG上の領域であって仮想ステージ壁に囲まれた第1領域よりも上方の領域である第2領域には、図12に示すように、大きな星の仮想空中オブジェクト50~52が配置されている。尚、仮想空中オブジェクト50~52は、第2領域内を移動できるようになっている。
A star
仮想ステージGの前側には、視聴者ユーザーが視聴者アバターとして仮想ライブ会場に仮想参加できる仮想観客領域が設けられている。この仮想観客領域は、図12に示すように、演者アバター1が登壇する仮想ステージGの中央に近い特別領域である第3領域と、第3領域を囲むように形成された領域であって仮想ステージGの中央からの距離が第3領域よりも大きい第4領域とが設けられている。
A virtual audience area is provided in front of the virtual stage G, where viewer users can virtually participate in the virtual live venue as viewer avatars. As shown in FIG. 12, this virtual audience area is made up of a third area, which is a special area close to the center of the virtual stage G where the
これら第3領域には、所定の上限数の範囲内で、仮想参加が許可された特別な視聴者ユーザーが仮想参加可能とされていて、本実施例1では、図12に示すように、例えば、所定の仮想参加実績を満たすとともに演者ユーザーによって仮想参加が許可された4人の視聴者ユーザーの視聴者アバター11~14が配置されている。
In these third areas, special viewer users who are permitted to participate virtually can participate virtually up to a certain upper limit. In this
また、第4領域には、仮想ライブの開始前において仮想参加を予約した一般の視聴者ユーザーの視聴者アバター21~32が配置されている。尚、図12において、視聴者アバター21~32は、便宜上、簡素化して表示しているが、視聴者アバター11~14と同様のアバターである。 The fourth area also contains viewer avatars 21-32 of general viewer users who have booked virtual participation before the start of the virtual live event. Note that in FIG. 12, viewer avatars 21-32 are shown in a simplified manner for convenience, but are the same avatars as viewer avatars 11-14.
尚、第3領域に配置された各視聴者アバター11~14は、視聴者ユーザーが視聴者端末を操作することで、該第3領域内を移動することが可能とされているとともに、第4領域に配置された各視聴者アバター21~32も、視聴者ユーザーが視聴者端末を操作することで、該第4領域内を移動することが可能とされている。
In addition, each
仮想ライブ会場には、図12に示すように、4つの仮想カメラC1~C4が仮想配置(設定)されている。仮想カメラC1は、演者アバター1の正面位置に、演者アバター1に対面するように仮想配置された仮想カメラであり、仮想カメラC1による視点映像は、図13(a)に示すように、演者アバター1を正面近傍位置から見た視点映像となる。
As shown in FIG. 12, four virtual cameras C1 to C4 are virtually positioned (set) in the virtual live venue. Virtual camera C1 is virtually positioned in front of
仮想カメラC2は、演者アバター1の頭上に仮想配置(設定)されたカメラであり、該仮想カメラC2による視点映像は、図15に示すように、演者アバター1から仮想観客領域を見た演者視点映像となる。
The virtual camera C2 is a camera virtually placed (set) above the head of the
仮想カメラC3は、演者アバター1の斜め後方の仮想ディスプレイ41上に仮想配置された仮想カメラであり、仮想カメラC3による視点映像は、図13(c)に示すように、演者アバター1の斜め後方から仮想観客領域を見た視点映像となる。
Virtual camera C3 is a virtual camera virtually placed on the
仮想カメラC4は、演者アバター1の斜め後方の仮想ディスプレイ42上に仮想配置された仮想カメラであり、仮想カメラC4による視点映像は、図13(b)に示すように、演者アバター1の斜め後方から仮想観客領域を見た視点映像となる。
Virtual camera C4 is a virtual camera virtually placed on the
また、本実施例1では、固定配置(設定)された仮想カメラC1~C4に加えて、仮想空間である仮想ライブ会場の空間内を空中移動可能に設定された空中移動仮想カメラ(図示略)が仮想配置されている。これら空中移動仮想カメラが移動する空中軌道並びに空中軌道上の個々の位置における視点方向(アングル)等は、管理者端末150によって予め設定されていて、後述するフライング演出期間において、演者アバター1が空中移動仮想カメラの空中軌道を追随するように仮想飛翔することで、仮想飛翔する演者アバター1を空中移動仮想カメラで捉えた視点映像が生成されるようになっている。
In addition, in this
尚、本実施例1では、図12に示すように、固定配置(設定)された仮想カメラとして4つの仮想カメラC1~C4を仮想配置した形態を例示しているが、本発明はこれに限定されるものではなく、これら固定配置(設定)された仮想カメラを5以上としてもよいし、逆に、固定配置(設定)された仮想カメラを設けることなく、仮想ライブ会場に仮想参加した各アバターに対応した視点から見た視点映像だけが、演者端末200や視聴者端末300に表示されるようにしてもよい。
In this
また、本実施例1では、空中移動仮想カメラを1つとした形態を例示しているが、本発明はこれに限定されるものではなく、これら空中移動仮想カメラを複数とした形態としてもよいし、逆に、空中移動仮想カメラを仮想配置しない形態としてもよい。
In addition, in this
<スタジオ>
図11は、本実施例1において使用したスタジオを示す図であり、スタジオには、前述したようにガラス窓を隔てた調整室が隣接して設けられており、演者ユーザーがスタジオ内で歌唱に対応した各動作を行うとともに、補助オペレータOが調整室に設置されている演者端末200の操作等を補助する。装着センサ220C1~220C5を装着した演者ユーザーの周囲には、ベースステーション220aとベースステーション220bとがスタンドに搭載配置されているとともに、演者ユーザーのほほ正面位置には、表情入力装置221を構成する撮像カメラがスタンドに搭載配置されている。
<Studio>
11 is a diagram showing the studio used in Example 1, and as described above, the studio is adjacent to the control room separated by a glass window, and the performer user performs each action corresponding to singing in the studio, while the assistant operator O assists with the operation of the
演者ユーザーがスタジオ内で対峙する壁面にはスクリーンSが設けられており、スタジオの天井に配置されたプロジェクタ(表示装置B211)から、仮想カメラC2の視点映像がスクリーンSに投影されることで、図15に示すように、演者アバター1から仮想観客領域を見た視点映像がスクリーンSに表示されるようになっており、演者ユーザーが、仮想観客領域において仮想参加している視聴者アバターの様子(ライブに対する視聴者の反応)を逐次、把握しながらライブを進めることができるようになっている。
A screen S is provided on the wall facing the performer user in the studio, and a projector (display device B211) placed on the ceiling of the studio projects the viewpoint image of virtual camera C2 onto screen S, so that the viewpoint image seen from
また、スクリーンSの側方位置には、表示装置C212としての縦型の大型ディスプレイが配置されていて、該大型ディスプレイに視聴者のコメントや補助オペレータOが演者ユーザーに伝達したいメッセージ等が表示されるようになっている。尚、表示装置C212には、ライブにおいて演者が歌唱する楽曲の歌詞や、セリフ等の情報(演者支援情報)が表示されるようにしてもよい。 A large vertical display serving as display device C212 is placed to the side of screen S, and is configured to display comments from viewers and messages that the assistant operator O wishes to convey to the performer user. Note that display device C212 may also be configured to display information (performer support information) such as the lyrics and lines of the song sung by the performer during the live performance.
<仮想空間コンテンツ配信システムの動作>
図10は、本実施例1の仮想空間コンテンツ配信システムの動作、具体的には、仮想ライブの映像や音声が配信される流れを説明する説明図である。
<Operation of Virtual Space Content Distribution System>
FIG. 10 is an explanatory diagram for explaining the operation of the virtual space content delivery system of the first embodiment, specifically, the flow of delivery of video and audio of a virtual live performance.
まず、映像系について説明する。配信用サーバコンピュータ100は、前述したように、仮想空間生成プログラム120および演者ユーザーや視聴者ユーザーのアバターデータ等にもとづいて仮想ライブ会場の仮想空間を提供可能とされており、これら演者ユーザーや視聴者ユーザーの各アバターの動作等が、演者端末200から送信される演者アバター情報や、視聴者端末300から送信される視聴者アバター情報によって仮想空間の状態が記述された仮想空間データが更新されることで、演者ユーザーの動作が演者アバター1の動作に反映されるとともに、視聴者ユーザーの動作(操作)が視聴者アバターの動作に反映される。
First, the video system will be described. As mentioned above, the
尚、図10には示していないが、演者端末200並びに視聴者端末300には、仮想ライブに仮想参加するために配信用サーバコンピュータ100と通信接続することに伴って、配信用サーバコンピュータ100から仮想ライブ会場の仮想空間データが事前に配信されて記憶されており、このようにして事前に記憶されている仮想空間データが、後述するように、配信用サーバコンピュータ100から逐次配信される仮想空間更新データによって順次更新されることで、仮想ライブ会場の最新の状態を、演者端末200並びに視聴者端末300にて特定できるようになっている。
Although not shown in FIG. 10, when the
具体的には、前述したスタジオにおける演者ユーザーの動作や表情は、前述した演者アバター制御プログラムによるボディモーションスキャン並びにフェイスモーションスキャンの各機能によって所定時間間隔にてスキャンされて演者アバター情報が生成されて配信用サーバコンピュータ100に送信される。
Specifically, the movements and facial expressions of the performer user in the studio are scanned at predetermined time intervals by the body motion scan and face motion scan functions of the performer avatar control program described above, and performer avatar information is generated and transmitted to the
一方、第3領域に仮想参加が許可された視聴者ユーザーは、演者と同様に、モーションセンサを使用しているため、ボディモーションスキャン並びにフェイスモーションスキャンの各機能によって所定時間間隔にてスキャンされて視聴者アバター情報が生成されて配信用サーバコンピュータ100に送信される。
On the other hand, viewer users who are permitted to virtually participate in the third area use motion sensors, just like the performers, and are scanned at predetermined time intervals using the body motion scan and face motion scan functions to generate viewer avatar information that is then sent to the
また、第4領域に仮想参加が許可された視聴者ユーザーは、視聴者端末300のタッチパネルやキーボードやコントローラを使用して、移動操作、視点方向の変更操作、視点状況(ズーム)の変更操作、手を挙げる操作、手をたたく操作、跳ねる操作等の各種の操作を行うことで、視聴者アバターに対応する動作をさせることができる。そして、これら各操作のうち、視聴者アバターの動作に関係する操作にもとづいて視聴者アバター情報が生成されて配信用サーバコンピュータ100に送信される。
In addition, a viewer user who is permitted to virtually participate in the fourth area can use the touch panel, keyboard, or controller of the
尚、第3領域に仮想参加している視聴者ユーザーも、移動や視点状況(ズーム)の変更操作、手を挙げる操作、手をたたく操作、跳ねる操作等の各種の操作を、コントローラ等を使用して実行することができ、この場合、各動作に対応したメニュー項目が表示され、該各動作に対応したメニュー項目をコントローラ等を使用して選択することができる。 In addition, viewer users virtually participating in the third area can also use a controller or the like to perform various operations such as movement, changing the viewpoint (zoom), raising their hands, clapping their hands, jumping, etc. In this case, menu items corresponding to each operation are displayed, and the menu items corresponding to each operation can be selected using a controller or the like.
このように、視聴者端末300においては、視聴者アバターに行わせる各動作に対応した操作を受付けるアバター動作操作処理が実行される。尚、アバター動作操作処理においては、上記した各動作に対応したメニュー項目の表示や消去等の処理も含まれている。
In this way, the
このようにして演者端末200から送信される演者アバター情報や視聴者端末300から送信される視聴者アバター情報にもとづいて、配信用サーバコンピュータ100は、仮想空間データを更新する仮想空間更新処理を実行することで、仮想ライブ会場に仮想参加している各アバターに演者ユーザーの動作や視聴者ユーザーの動作(操作)を反映させる。
In this way, based on the performer avatar information transmitted from the
そして、更新前の仮想空間データと更新後の仮想空間データとにもとづいて仮想空間更新データを生成する仮想空間更新データ生成処理を実行した後、該生成した仮想空間更新データを演者端末200と視聴者端末300とに配信する。
Then, a virtual space update data generation process is executed to generate virtual space update data based on the virtual space data before the update and the virtual space data after the update, and the generated virtual space update data is distributed to the
仮想空間更新データが配信された演者端末200と視聴者端末300においては、図10に示すように、配信されてきた仮想空間更新データにもとづいて、事前記憶されている仮想空間データが更新されるとともに、該更新された仮想空間データを使用した演者視点映像生成処理や視聴者視点映像生成処理が実行されることで、更新された仮想空間データにもとづく演者視点映像や視聴者視点映像が生成されて、該生成された演者視点映像や視聴者視点映像が演者端末200と視聴者端末300において表示される(視聴者視点映像出力処理)。
As shown in FIG. 10, in the
このように、本実施例1では、視聴者アバターにより仮想ライブ会場に仮想参加している各視聴者ユーザーの視点映像は、各視聴者ユーザーの視聴者端末300側で生成されて表示されることで、これら各視聴者ユーザーの視聴者アバター視点映像を配信用サーバコンピュータ100で生成することにより配信用サーバコンピュータ100の処理負荷が著しく大きくなって、多くの視聴者ユーザーが仮想ライブに参加できなくなってしまうことを回避できるとともに、処理負荷が増大することによって配信が困難となってしまうことを回避できるようになっている。
In this way, in this
本実施例1では、仮想ステージG上の演者アバター1に近い第3領域にて仮想参加している視聴者アバター13の視聴者ユーザーの視聴者端末300の表示装置310には、図13(d)に示すように、演者アバター1に近い視聴者アバター13から見た視点映像である演者アバター1のほぼ正面が大きく表示される視点映像が生成されて表示される一方、仮想ステージG上の演者アバター1から遠い第4領域であって、例えば、視聴者アバター13の後方位置において仮想参加している視聴者アバター28の視聴者ユーザーの視聴者端末300の表示装置310には、図13(e)に示すように、演者アバター1から遠い視聴者アバター28から見た視点映像である、第3領域にて仮想参加している視聴者アバター13や視聴者アバター14越しに、演者アバター1のほぼ正面が相対的に小さく見える視点映像が表示される。
In this
また、上面視コ字状に設定されている第4領域の仮想ステージGの端側位置において仮想参加している視聴者アバター32の視聴者ユーザーの視聴者端末300の表示装置310には、図13(f)に示すように、演者アバター1の斜め前方位置の視聴者アバター32から見た視点映像である、第3領域にて仮想参加している視聴者アバター14越しに、演者アバター1が相対的に小さく見える視点映像が表示される。
In addition, the
尚、図13に示す表示例は、いずれも、視聴者端末300が据置型のコンピュータ(PC)であって表示装置310が、据置型のディスプレイである場合を例示しているが、例えば、視聴者端末300がスマートフォンPやタブレット等である場合には、仮想カメラC1の視点映像の場合には、図14(a)に示すように表示されるとともに、該視聴者端末300が視聴者アバター13の視聴者端末300である場合には、図14(b)に示すように表示される。
The display examples shown in FIG. 13 all illustrate the case where the
次に、音声系について説明すると、配信用サーバコンピュータ100においてタイムスケジュールデータ(TSデータ)112にもとづいて楽曲データ113が音声制御プログラム124によって再生され、再生楽曲(データ)として演者端末200に送信される(楽曲再生処理)。
Next, regarding the audio system, in the
演者端末200においては、配信用サーバコンピュータ100から送信された再生楽曲(データ)による楽曲音声が、演者ユーザーが装着している高機能イヤホン(イヤモニ)を通じて該演者ユーザーに対して出力されるとともに(再生楽曲出力処理)、該出力された再生楽曲に合わせて演者ユーザーが歌唱することで、集音マイク(音声入力装置222)から入力される演者音声がデータ化されて演者音声(データ)として配信用サーバコンピュータ100に送信される。
On the
配信用サーバコンピュータ100は、演者端末200から受信した演者音声(データ)による演者音声と前述した楽曲再生処理にて再生した再生楽曲とから配信音声(データ)を生成し(配信音声生成処理)、該生成した配信音声(データ)を視聴者端末300に配信する(生成音声配信処理)。
The
視聴者端末300では、配信用サーバコンピュータ100から配信された配信音声(データ)により配信音声が、イヤホンやスピーカー等の音声出力装置322から出力されることで、視聴者は、あたかも仮想ライブ会場において演者アバター1が歌唱しているようにライブ音声を聞くことができる。
In the
尚、演者端末200においては、上記したように、演者音声(データ)が配信用サーバコンピュータ100に送信されるとともに、図10に示すように、モニター音声生成処理とモニター音声出力処理とが実行されることにより、調整室に配置されているスピーカーから再生楽曲の楽曲音声と演者音声とが出力されることで、演者ユーザーの歌唱の状況等を補助オペレータO等が調整室において確認することができるようになっている。
In addition, as described above, in the
<視聴者用視点映像制御処理>
次に、視聴者端末300において、視聴者用プログラムに含まれる視聴者用視点映像制御プログラムにもとづいて実行される視聴者用視点映像制御処理について、図20を用いて説明する。
<Viewer's viewpoint video control processing>
Next, a viewer's viewpoint video control process executed in the
視聴者用視点映像制御処理においては、先ず、演者アバター1が図19に示すように、仮想飛翔するフライング演出期間中であるか否かを判定する(ステップS1)。フライング演出期間中であるか否かは、配信用サーバコンピュータ100から、フライング演出期間中であることを示す演出状態データによって特定することができる。尚、配信用サーバコンピュータ100は、タイムスケジュールデータにもとづいてフライング演出期間となるときに、視聴者端末300に対してフライング演出期間中であることを示す演出状態データを送信する。
In the viewer viewpoint video control process, first, it is determined whether or not the
フライング演出期間中である場合(ステップS1でY)は、ステップS21に進む一方、フライング演出期間中でない場合(ステップS1でN)は、視点の移動操作(アバターの移動操作や動作操作による視点の変更を含む)やズーム操作を含む視点関係操作が無効とされているか否かを判定する(ステップS2)。 If it is during the flying performance period (Y in step S1), proceed to step S21. If it is not during the flying performance period (N in step S1), it is determined whether viewpoint-related operations including viewpoint movement operations (including avatar movement operations and viewpoint changes due to motion operations) and zoom operations are disabled (step S2).
視点関係操作が無効とされている場合(ステップS2でY)は、ステップS7に進む。視点関係操作が無効とされていない場合(ステップS2でN)は、アバターの移動操作や動作操作等の視点が変化する操作が有るか否かを判定し(ステップS3)、操作がある場合(ステップS3でY)は操作に応じて視聴者視点を変更し、操作がない場合(ステップS3でN)は、ステップS5に進んで、ズーム操作があるか否かを判定する(ステップS5)。 If the viewpoint-related operation is disabled (Y in step S2), proceed to step S7. If the viewpoint-related operation is not disabled (N in step S2), determine whether or not there is an operation that changes the viewpoint, such as an operation to move the avatar or an operation to move the motion (step S3), and if there is an operation (Y in step S3), change the viewer viewpoint according to the operation, and if there is no operation (N in step S3), proceed to step S5 and determine whether or not there is a zoom operation (step S5).
ズーム操作がある場合(ステップS5でY)は、表示装置310に表示されている映像領域を操作に応じた映像領域に変更し、ズーム操作がない場合(ステップS5でN)は、動作追随設定の有無を判定する(ステップS7)。
If a zoom operation is performed (Y in step S5), the image area displayed on the
この動作追随設定は、視聴者ユーザーが、自身が操作に使用するデバイスの種類や、操作についての習熟度に応じて、視聴者端末300において、例えば、ライブ開始前やライブ中に、任意に設定することができる。具体的には、例えば、使用するタッチパネル、キーボード、ゲームコントローラ等の操作入力装置321の操作に慣れていない場合や、アバターの移動操作や動作操作による視点の変更に慣れていない場合、後述するように、自身の視聴者アバターの仮想参加位置が演者アバター1から遠く、ズームアップで拡大表示していることで、演者アバター1の少しの動作でも演者アバター1が適切に表示されなくなってしまう等、演者アバター1の移動や動作に対応して視点を上手く変更できない場合等に設定される。
This motion tracking setting can be set at the viewer's terminal 300 at will, for example, before the start of a live performance or during a live performance, depending on the type of device the viewer uses for operation and his/her level of proficiency in operation. Specifically, the motion tracking setting is set when, for example, the viewer is not familiar with operating the
動作追随設定がない場合(ステップS7でN)は、ステップS11に進む一方、動作追随設定がある場合(ステップS7でY)は、更に、動作追随条件が成立したか否かを判定する(ステップS8)。 If there is no motion tracking setting (N in step S7), proceed to step S11, whereas if there is a motion tracking setting (Y in step S7), it is further determined whether the motion tracking condition is met (step S8).
動作追随条件とは、本実施例1においては、表示装置310において演者アバター1が良好に表示されなくなることがほぼ確実である条件としており、具体的には、演者アバター1の頭部(顔でもよい)が、表示装置310の表示領域の周辺における所定範囲内に入っている場合には、演者アバター1の移動や動作によって表示領域外に頭部(顔)が移動して良好に表示されなくなってしまう可能性が著しく高いことから、動作追随条件が成立したものと判断するようにしている。
In this
このように、本実施例1では、演者アバター1の頭部(顔)が表示領域に表示されなくなる前に動作追随条件が成立したと判断することで、演者アバター1の頭部(顔)が表示領域に表示されなくなってしまうことを大幅に低減できるようにしているが、本発明はこれに限定されるものではなく、これら動作追随条件を、表示領域外に頭部(顔)が移動したことを条件としてもよいし、これら以外の条件を動作追随条件としてもよい。つまり、これら動作追随条件としては、演者アバター1が表示領域に良好に表示されなくなってしまうことを防ぐことができる条件であれば、任意の条件を使用することができる。
In this way, in this
動作追随条件が成立した場合(ステップS8でY)は、視点関係操作を無効化した後(ステップS12)、表示装置310の表示領域に表示される視点映像として、演者アバター1の頭部(顔)が表示領域の周辺における所定範囲に囲まれた非成立範囲内となる動作追随視点に視点が自動的に変更されて、該動作追随視点から見た視点映像が表示装置310の表示領域に表示される(ステップS13)。
If the action-following condition is met (Y in step S8), after disabling the viewpoint-related operation (step S12), the viewpoint image displayed in the display area of the
一方、動作追随条件が成立していない場合(ステップS8でN)は、更に、視点関係操作が無効化されているか否かを判定し(ステップS9)、視点関係操作が無効化されている場合(ステップS9でY)は、無効化されている視点関係操作を有効化して(ステップS10)からステップS11に進み、視点関係操作が無効化されていない場合(ステップS9でN)はステップS10を経由することなくステップS11に進む。 On the other hand, if the motion tracking condition is not met (N in step S8), it is further determined whether or not the viewpoint-related operation is disabled (step S9). If the viewpoint-related operation is disabled (Y in step S9), the disabled viewpoint-related operation is enabled (step S10) and the process proceeds to step S11. If the viewpoint-related operation is not disabled (N in step S9), the process proceeds to step S11 without going through step S10.
ステップ11では、動作追随設定が設定されていないこと、若しくは、動作追随条件が成立していないことにより、視聴者アバターの視点映像が表示装置310の表示領域に継続表示される(ステップS11)。
In
また、前述したように、ライブにおいて演者アバター1が仮想飛翔するフライング演出期間となった場合は、ステップS1でYと判定されてステップS21に進み、フライング演出期間の開始タイミングであるか否かを判定する(ステップS21)。
Also, as mentioned above, if the flying performance period in which the
フライング演出期間の開始タイミングである場合(ステップS21でY)は、フライング演出期間の開始前において表示装置310の表示領域に表示されていた視聴者アバターの視点映像または動作追随視点映像に代えて、配信用サーバコンピュータ100から配信されるフライング視点映像を表示し(ステップS22)、その後、視点関係操作を無効化して(ステップS23)、ステップS1に戻る。
If it is time to start the flying performance period (Y in step S21), the flying viewpoint video delivered from the
尚、本実施例1では、フライング演出期間においては、全ての視聴者ユーザーの視聴者端末300に同一のフライング視点映像を表示することから、個々の視聴者ユーザーで異なる視聴者アバター視点映像のように、各視聴者端末300側でフライング視点映像を生成するのではなく、配信用サーバコンピュータ100側で生成して視聴者端末300に配信することで、視点の空中移動を伴うことで、視点映像の描画負荷が大きいフライング視点映像を、処理能力が低い視聴者端末300であっても、良好に表示できるようにしているが、本発明はこれに限定されるものではなく、これらフライング視点映像を、視聴者アバター視点映像と同様に、個々の視聴者端末300側で生成するようにしてもよい。
In this
一方、フライング演出期間の開始タイミングでない場合(ステップS21でN)は、更に、フライング演出期間の終了タイミングであるか否かを判定する(ステップS24)。 On the other hand, if it is not the start timing of the flying performance period (N in step S21), it is further determined whether it is the end timing of the flying performance period (step S24).
フライング演出期間の終了タイミングであるか否かは、配信用サーバコンピュータ100から送信されるフライング視点映像のデータ中に含まれる終了を示すデータにもとづいて特定してもよいし、フライング視点映像とは異なる前述した演出状態データによって特定してもよい。
Whether or not it is the end timing of the flying performance period may be determined based on data indicating the end contained in the flying viewpoint video data transmitted from the
フライング演出期間の終了タイミングでない場合(ステップS24でN)、つまり、フライング演出期間中である場合には、ステップS26に進んで、フライング視点映像を更新した後、ステップ1に戻る一方、フライング演出期間の終了タイミングである場合(ステップS24でY)は、視点関係操作を有効化した後(ステップS25)、ステップS11に進んで、フライング演出期間中に表示装置310の表示領域に表示していたフライング視点映像に代えて、視聴者アバターの視点映像を表示装置310の表示領域に表示した後、ステップS1に戻る。
If it is not the end of the flying performance period (N in step S24), that is, if it is during the flying performance period, proceed to step S26, update the flying viewpoint video, and then return to
このように、本実施例1の視聴者端末300において図20に示す視聴者用視点映像制御処理が実行されることによって視聴者端末300に表示される各視点映像を、図16~図19を用いて説明する。
In this way, the viewer's viewpoint video control process shown in FIG. 20 is executed in the viewer's terminal 300 in this
図16は、本実施例1の視聴者端末300においてズーム操作をした場合の表示装置310の表示内容を示す図であり、ズーム操作を何もしていないデフォルトの状態では、図16(a)に示すように、演者アバター1の上半身を中心とした映像領域の視点映像が表示されている。このデフォルト状態において、視聴者ユーザーがズームアップ操作、例えば、視聴者端末300がスマートフォンPである場合であれば、「+」の表示(図示略)に触れる操作を行い、視聴者端末300がコンピュータ(PC)である場合であれば、キーボードの「+」キーを操作した場合は、例えば、図16(b)に示すように、演者アバター1の頭部(顔)を中心とした映像領域の視点映像が表示される。
Figure 16 is a diagram showing the display contents of the
一方、視聴者ユーザーがズームダウン操作、例えば、視聴者端末300がスマートフォンPである場合であれば、「-」の表示(図示略)に触れる操作を行い、視聴者端末300がコンピュータ(PC)である場合であれば、キーボードの「-」キーを操作した場合は、例えば、図16(c)に示すように、演者アバター1の全身が含まれる映像領域の視点映像が表示される。
On the other hand, if the viewer user performs a zoom-down operation, for example, by touching the "- " display (not shown) if the
尚、図16では、ズームの機能を解り易くするために、視聴者アバターの視点ではなく、仮想カメラC1の視点映像を使用して説明したが、図17に示すように、視聴者アバターの視点についても同様にズームアップ、ズームダウンを行うことができる。 Note that in Figure 16, in order to make the zoom function easier to understand, the explanation was given using the viewpoint image of virtual camera C1 rather than the viewpoint of the viewer avatar, but as shown in Figure 17, zooming up and down can also be performed on the viewpoint of the viewer avatar in the same way.
また、図20の視聴者用視点映像制御処理においては、詳述していないが、例えば、ライブが開始されるときに、演者アバター1が仮想ステージGに初めて登場する場合は、視聴者アバターの視点が演者アバター1に向いていないことから、登場する演者アバター1が視聴者端末300に表示されない期間が長くなってしまう可能性があるので、このように、演者アバター1が最初に登場する期間等を登場演出期間等とし、これらの演出期間において、視聴者端末300に表示される視点映像を、聴者アバターの視点映像ではなく、仮想カメラC1の視点映像等に自動的に切り替えて表示するとともに、これら仮想カメラC1の視点映像においてもズームアップ等を、個々の視聴者ユーザーが実行できるようにしてもよい。
Although not described in detail in the viewer viewpoint image control process of FIG. 20, for example, when
図17は、視聴者アバターの視点映像の例として、第4領域に仮想参加している視聴者アバター28の視点映像を示している。図17に示すように、視聴者アバター28の視点映像には、第3領域に仮想参加している視聴者アバター13と視聴者アバター14の頭部が含まれており、これら視聴者アバター13と視聴者アバター14の頭部越しに演者アバター1を見る映像となる。
Figure 17 shows the viewpoint image of
このため、視聴者アバター28の視聴者ユーザーは、例えば、ズームアップ操作を行って、図17(b)に示すように、演者アバター1の上半身が中心的に表示される映像領域に変更することで、視聴者アバター13と視聴者アバター14が表示されないようにして、ライブを楽しむことができる。
Therefore, the viewer user of
但し、図17(b)に示すようにズームアップした状態においては、例えば、ライブが進行して演者アバター1が移動したり大きく動作するようになると、これら演者アバター1の動作に合わせて視聴者アバター28の視点を視聴者ユーザーが上手く変更することができないと、図18(d)~(f)に示すように、演者アバター1が良好に表示されない状態となる場合があるため、視点の操作に注意を払うことによって、ライブに集中することが難しくなってしまい、ライブを良好に楽しむことができなくなる場合がある。
However, in the zoomed-in state shown in FIG. 17(b), for example, as the live performance progresses and the
しかし、本実施例1では、上記のように、視聴者ユーザーが動作追随設定を行った場合には、図18(a)~(c)に示すように、演者アバター1の頭部が表示領域の周辺所定領域内に入ることで動作追随条件が成立して視点が自動的に動作追随視点に変更され、該動作追随視点の視点映像が表示されるようになるため、視聴者ユーザーは、視点の操作に注意を払う必要がなくなるので、ライブに集中できることで良好にライブを楽しむことができるようになる。
However, in this
そして、ライブが進行してフライング演出期間となると、図19に示すように、個々の視聴者アバターの視点映像から空中移動仮想カメラから見たフライング視点映像に、視聴者ユーザーが操作しなくても自動的に変更される。 As the live performance progresses and the flying performance period begins, as shown in Figure 19, the viewpoint images of the individual viewer avatars are automatically changed to flying viewpoint images seen from a virtual camera moving in the air, without any operation by the viewer user.
具体的には、演者アバター1が仮想飛翔をする前に、羽根のオブジェクトが演者アバター1の背中において大きくなる映像が表示される。そして、演者アバター1が仮想ライブ会場の第2領域に仮想配置されている星の仮想空中オブジェクト50を見あげるようにすることで視聴者アバターの視点も同様に移動する。このとき、演者アバター1の周囲には、光のエフェクト61が出現する。
Specifically, before the
その後、演者アバター1が仮想飛翔に移ると、表示装置310に表示される視点映像は、図19(b)までの視聴者アバターの視点映像から、図19(c)に示すように、空中移動仮想カメラから見たフライング視点映像に自動的に切り替わる。
After that, when the
そして、フライング演出期間において空中移動仮想カメラは、前述したように、予め設定された空中軌道にもとづいて第2領域内を空中移動し、これら空中移動する空中移動仮想カメラから見たフライング視点映像が、図19(d)に示すように表示装置310に表示される。
During the flying performance period, the airborne virtual camera moves through the second area based on a preset aerial trajectory as described above, and the flying viewpoint image seen from this airborne moving virtual camera is displayed on the
<実施例1の変形例>
上記した実施例1では、一般動作(第1動作)を、演者アバター1が仮想ステージGに移動せずに立っている動作とし、特別動作(第2動作)を、演者アバター1が仮想飛翔を行っている動作とし、特定動作(第3動作)を、演者アバター1が横方向に急移動する動作とした形態を例示しているが、本発明はこれに限定されるものではなく、配信するコネテンツに応じた動作であってよく、例えば、一般動作(第1動作)は、配信されるコンテンツにおいて、演者アバターが最も多くの期間に亘って実行している動作(通常動作)としてもよく、特別動作(第2動作)を、配信されるコンテンツにおいて、最も短い期間である特別期間において実行している動作や最も頻度が少ない動作とし、特定動作(第3動作)を、一般動作(第1動作)よりも実行される期間が短いが特別動作よりも実行されている期間が長い動作や一般動作(第1動作)よりも実行される頻度が少ないが特別動作よりも実行される頻度が多い操作としてもよい。尚、特別動作(第2動作)が、特定動作(第3動作)を含む場合があってもよい。
<Modification of the First Embodiment>
In the above-mentioned first embodiment, the general action (first action) is an action in which the
また、上記した実施例1では、特別動作(第2動作)に対応した視点への切替機能と、特定動作(第3動作)に追随する追随機能と、の双方の機能を有している形態を例示したが、本発明はこれに限定されるものではなく、これらのいずれか一方の機能のみを有する仮想空間コンテンツ配信システムであってもよい。 In addition, in the above-mentioned Example 1, an embodiment is exemplified in which there is both a function of switching the viewpoint corresponding to a special action (second action) and a function of following a specific action (third action), but the present invention is not limited to this, and the virtual space content delivery system may have only one of these functions.
上記した実施例1では、視聴者ユーザーの視点を、演者アバターの動作に応じて変更、追随させる形態を例示したが、本発明はこれに限定されるものではなく、例えば、これら視点の変更、追随を、仮想ステージGにおける演出物であるスモークや花火(火柱)の仕掛け、特殊なライティング、仮想ステージGの変形等の特定の演出に応じて実行するようにしてもよい。 In the above-mentioned Example 1, an example was given of a form in which the viewpoint of the viewer user is changed and followed in accordance with the movements of the performer avatar, but the present invention is not limited to this. For example, the change and following of the viewpoint may be performed in accordance with specific effects such as smoke or fireworks (pillars of fire) devices, special lighting, and deformation of the virtual stage G, which are effects on the virtual stage G.
次に、実施例2の仮想空間コンテンツ配信システムについて、図21~図28を用いて以下に説明する。尚、実施例1と同一の構成については、同一の符号を付して説明を省略する。 Next, the virtual space content distribution system of the second embodiment will be described below with reference to Figs. 21 to 28. Note that the same components as those of the first embodiment will be denoted by the same reference numerals and the description will be omitted.
実施例2の仮想空間コンテンツ配信システムの構成は、図1に示す実施例1の構成と同一であるが、仮想ライブの進行内容が異なることで、仮想カメラC1~C4や空中移動仮想カメラからの視点映像(以下、仮想カメラ視点映像と総称する)が配信される期間や、これら仮想カメラ視点映像を生成する主体が、実施例1とは異なる点が本実施例2の特徴部分である。 The configuration of the virtual space content delivery system of Example 2 is the same as that of Example 1 shown in FIG. 1, but the progress of the virtual live performance is different, and the period during which the viewpoint images from the virtual cameras C1 to C4 and the airborne moving virtual camera (hereinafter collectively referred to as virtual camera viewpoint images) are delivered and the entity that generates these virtual camera viewpoint images are different from those of Example 1, which is a characteristic feature of Example 2.
図21は、実施例2の仮想空間コンテンツ配信システムにおいて配信される仮想ライブの進行内容を示す図である。実施例2の仮想ライブは、まず、仮想ライブの開始前の期間として、「ライブ仮想空間参加可能期間」と「開演前説」の期間とが設けられていて、視聴者ユーザーは、該ライブ仮想空間参加可能期間において仮想ライブの対象の仮想空間である仮想ライブ会場に仮想参加することができる。 Fig. 21 is a diagram showing the progress of a virtual live performance distributed in the virtual space content distribution system of Example 2. In the virtual live performance of Example 2, a "live virtual space participation period" and a "pre-performance speech" period are set as periods before the start of the virtual live performance, and during the live virtual space participation period, viewer users can virtually participate in the virtual live performance venue, which is the virtual space that is the target of the virtual live performance.
尚、「開演前説」の期間の終了間際に設定されている事前データDL完了チェックタイミングまでの期間は、事前データダウンロード(DL)期間とされていて、ライブ仮想空間参加可能期間中に仮想参加した視聴者ユーザーの視聴者端末300に対して、仮想ライブ会場の仮想空間データ(基本データ)、演者アバター1のアバターデータ、並びに仮想参加した他の視聴者ユーザーのアバターデータ等が、事前データとして配信用サーバコンピュータ100からダウンロード(DL)されるようになっている。
The period up to the pre-data download completion check timing, which is set just before the end of the "pre-show speech" period, is the pre-data download (DL) period, during which virtual space data (basic data) of the virtual live venue, avatar data of
また、事前データダウンロード(DL)期間の終了タイミングである事前データDL完了チェックタイミングにおいては、事前データのダウンロード(DL)が、各視聴者端末300において完了しているか否かがチェックされる。
In addition, at the pre-data DL completion check timing, which is the end timing of the pre-data download (DL) period, it is checked whether the pre-data download (DL) has been completed at each
尚、「開演前説」の期間においては、当該仮想ライブについての説明等がビデオ映像等によって紹介される。よって、これら「開演前説」の期間中においても事前データをダウンロード(DL)可能な期間とすることで、ライブ仮想空間参加可能期間において終了間際に仮想参加した視聴者アバターのアバターデータについても、各視聴者端末300が配信用サーバコンピュータ100からダウンロード(DL)することができるようになっている。
During the "pre-show introduction" period, explanations about the virtual live show are given through video footage, etc. Therefore, by making the "pre-show introduction" period a period during which advance data can be downloaded (DL), each
また、実施例2の仮想ライブは、図21に示すように、「開演演出」→「第1MC」→「第1演目」→「第2MC」→「第2演目」…のように進行していく。「開演演出」は、仮想ステージGに演者アバター1が登場する演出である。「第1MC」は、仮想ステージGに登場した演者アバター1が、トークによって視聴者に対して挨拶を行うとともに、最初に上演する第1演目についての紹介を行う。「第1演目」は、演者アバター1(演者)の歌唱とダンスとを含むとともに、途中に、仮想ライブ会場を仮想飛翔する演者アバター1を空中移動仮想カメラから仮想撮像した映像によるフライング演出を含む演目である。「第2MC」は、演者アバター1(演者)がトークによって、主に、第2演目についての紹介を行う。「第2演目」は、演者アバター1(演者)の歌唱とダンスとを含むとともに、途中に、演者アバター1が衣装を交換する状況を仮想カメラC1によって仮想撮像した映像による衣装チェンジ演出と、演者アバター1が複数人に分身する状況を仮想カメラC1によって仮想撮像した映像による分身演出とを含む演目である。
As shown in FIG. 21, the virtual live performance of Example 2 progresses as follows: "Opening performance" → "First MC" → "First performance" → "Second MC" → "Second performance" ... "Opening performance" is a performance in which
これら各演出や演目等が実行される各期間における配信用サーバコンピュータ100の処理負荷としては、ライブ仮想空間参加可能期間が最も低い「低」である一方、特別演出である「フライング演出」、「衣装チェンジ演出」、「分身演出」が実行される期間が最も高い「高」である。「開演前説」、「開演演出」、「第1MC」、「フライング演出」までの「第1演目」の期間は、配信用サーバコンピュータ100の処理負荷は「中」であり、「フライング演出」後の「第1演目」の期間、「第2MC」、「衣装チェンジ演出」までの「第2演目」の期間も処理負荷は「中」であり、「衣装チェンジ演出」から「分身演出」までの「第2演目」の期間も「中」であり、「分身演出」後の「第2演目」の期間も「中」である。
The processing load on the
次に、実施例2の仮想ライブにおける各期間について、視聴者端末300において視聴可能な視点映像について説明すると、仮想参加してから「開演前説」が開始されるまでのライブ仮想空間参加可能期間においては、視聴者アバター視点映像だけが表示可能とされている。
Next, regarding each period in the virtual live in Example 2, the viewpoint images that can be viewed on the
そして、「開演前説」が開始されるタイミングで、仮想カメラ視点映像、具体的には、仮想カメラC1の視点映像だけが表示可能とされている。このように、仮想ライブの開始前であるにも係わらず「開演前説」において視点映像を、仮想カメラ視点映像のみとするのは、これら開演前説には、仮想ライブに関する注意点等の説明も含まれているため、視聴者端末300において視聴者アバター視点映像を表示していることによって、仮想ステージGにて行われている開演前説を視聴しない視聴者ユーザーが発生してしまうことを防ぐことを目的としている。
When the "pre-show speech" begins, only the virtual camera viewpoint image, specifically the viewpoint image of virtual camera C1, can be displayed. In this way, the viewpoint image during the "pre-show speech" is limited to the virtual camera viewpoint image even though it is before the start of the virtual live performance. This is because the pre-show speeches also include explanations of points to note about the virtual live performance, and the purpose is to prevent viewer users from not viewing the pre-show speech taking place on virtual stage G due to the viewer avatar viewpoint image being displayed on the
尚、これら「開演前説」の仮想カメラ視点映像は、後述するように、配信用サーバコンピュータ100にて生成されて各視聴者端末300に配信されるので、事前データのダウンロードが未完了の視聴者端末300においても表示することができる。
As described below, these virtual camera viewpoint images of the "introduction" are generated by the
上記した事前データDL完了チェックタイミングにおいて事前データのダウンロードが完了している視聴者端末300については、「第1MC」と「フライング演出」までの「第1演目」の期間、並びに「フライング演出」後の期間においては、仮想カメラ視点映像に加えて視聴者アバター視点映像を表示可能とされている。
For
一方、上記した事前データDL完了チェックタイミングにおいて事前データのダウンロードが完了していない視聴者端末300については、視聴者アバター視点映像を正確に生成することができないので、配信用サーバコンピュータ100において生成された仮想カメラ視点映像が配信されることによって、仮想ライブの全ての期間において仮想カメラ視点映像のみが表示可能とされ、視聴者アバター視点映像を表示させることはできないようになっている。
On the other hand, for
また、配信用サーバコンピュータ100の処理負荷が「高」である「フライング演出」、「衣装チェンジ演出」、「分身演出」の各映像のうち、「衣装チェンジ演出」、「分身演出」の仮想カメラC1の仮想カメラ視点映像は、これら「衣装チェンジ演出」、「分身演出」以外の第2演目期間中の仮想カメラ視点映像と同様に、配信用サーバコンピュータ100ではなく各視聴者端末300において生成することで、これら「衣装チェンジ演出」、「分身演出」の仮想カメラC1の仮想カメラ視点映像の生成するための配信用サーバコンピュータ100の処理負荷を低減できるようにしている。
In addition, among the images of the "Flying Performance", "Costume Change Performance", and "Double Ego Performance", which have a "high" processing load on the
尚、「フライング演出」の期間についても、配信用サーバコンピュータ100における処理負荷が高い期間であることから「衣装チェンジ演出」、「分身演出」と同様に、視聴者端末300において生成することが考えられるが、この場合、仮想ライブ会場内を移動する空中移動仮想カメラの移動軌跡の詳細な軌道データ等を各視聴者端末300に事前に配信して映像を生成する必要があることから、実施例2では配信用サーバコンピュータ100側で「フライング演出」の映像を生成、配信しているが、本発明はこれに限定されるものではなく、「フライング演出」の映像についても、配信用サーバコンピュータ100の処理負荷の低減を目的として、各視聴者端末300において生成するようにしてもよい。
The "flying performance" period is also a period in which the processing load on the
ここで、実施例2の配信用サーバコンピュータ100において使用される参加者ユーザーテーブルについて、図23を用いて簡潔に説明する。
Here, we briefly explain the participant user table used in the
参加者ユーザーテーブルは、図7に示すイベントデータに登録されている個々の仮想ライブイベントにおいて、仮想ライブへの視聴者ユーザーの参加状況や事前データのダウンロード状況等を特定できるようにするために使用されるデータテーブルであって、図23に示すように、参加者ID(視聴者ユーザーID)に対応付けて、当該参加者(視聴者ユーザー)の参加状態を特定可能な参加識別データ(参加識別フラグ)と、当該参加者(視聴者ユーザー)の参加エリアと、事前データのダウンロード状態を特定可能な事前データDL識別データ(事前データDL識別フラグ)等のデータが記憶可能なテーブルである。 The participant user table is a data table used to identify the participation status of viewer users in a virtual live event and the download status of advance data for each virtual live event registered in the event data shown in FIG. 7, and as shown in FIG. 23, it is a table that can store data such as participation identification data (participation identification flag) that can identify the participation status of the participant (viewer user) in association with a participant ID (viewer user ID), the participation area of the participant (viewer user), and advance data DL identification data (advance data DL identification flag) that can identify the download status of advance data.
尚、参加者IDの項目には、イベントデータにおいて、当該仮想ライブに対応して記憶されている各参加者グループのファイルに記述されている参加予定者の視聴者ユーザーIDが全て登録されて使用される。 In addition, the participant ID field will contain all the viewer user IDs of the people who are expected to participate and are described in the file for each participant group stored in the event data in association with the virtual live.
参加識別データ(参加識別フラグ)は、参加者ID(視聴者ユーザーID)の登録時において、非参加状態に対応する「0」が登録されており、各参加者(視聴者ユーザー)の参加が認証によって許可されたときに、参加を示す「1」に更新される。よって、該参加識別データ(参加識別フラグ)によって、参加予定視聴者ユーザーのうち、参加している視聴者ユーザーと、何らかの理由で参加できなかった視聴者ユーザーとを特定することができる。 When a participant ID (viewer user ID) is registered, the participation identification data (participation identification flag) is registered as "0", which corresponds to a non-participating state, and is updated to "1", indicating participation, when the participation of each participant (viewer user) is permitted by authentication. Therefore, the participation identification data (participation identification flag) makes it possible to identify, among the viewer users who are scheduled to participate, those who are participating and those who were unable to participate for some reason.
参加エリアのデータは、各参加者(視聴者ユーザー)の参加エリアが、第3領域であるのか、第4領域であるのかを特定可能なデータとされており、各参加者(視聴者ユーザー)の参加が認証によって許可されたときに、登録されるデータである。 The participation area data is data that can identify whether the participation area of each participant (viewer user) is the third area or the fourth area, and is registered when the participation of each participant (viewer user) is permitted by authentication.
事前データDL識別データ(事前データDL識別フラグ)は、前述した事前データDL完了チェックタイミングにおいて事前データのダウンロード(DL)が完了しているか否かのチェックにもとづいて、完了している場合は、未完了を示す「0」から完了を示す「1」に更新される。よって、これら事前データDL識別データ(事前データDL識別フラグ)によって、仮想参加している各参加者(視聴者ユーザー)のうち、事前データのダウンロード(DL)が完了していない全ての参加者(視聴者ユーザー)を容易に特定することができる。 The pre-data DL identification data (pre-data DL identification flag) is updated based on a check as to whether the download (DL) of the pre-data is complete at the pre-data DL completion check timing described above, and if it is complete, it is updated from "0", indicating incomplete, to "1", indicating complete. Therefore, by using this pre-data DL identification data (pre-data DL identification flag), it is possible to easily identify all participants (viewer users) who have not completed the download (DL) of their pre-data among the participants (viewer users) who are virtually participating.
次に、実施例2において視聴者ユーザーが仮想ライブ会場に仮想参加することで事前データがダウンロードされる流れについて、図22を用いて説明する。 Next, the flow of downloading advance data by a viewer user virtually participating in a virtual live performance venue in Example 2 will be described with reference to FIG. 22.
まず、視聴者ユーザーは、視聴者端末300にて実行している視聴者用プログラム(視聴アプリ)において、自分が仮想参加を予定している仮想ライブへの参加操作、例えば、参加メニューの選択やキーボードにおいて参加操作が割り当てられている特定キーの操作を実行する。
First, the viewer user performs an operation to join the virtual live event that he or she plans to virtually participate in, such as selecting a participation menu or operating a specific key on the keyboard to which the participation operation is assigned, in the viewer program (viewing application) running on the
この参加操作の実行によって、視聴者端末300から配信用サーバコンピュータ100に対して、視聴者ユーザーIDや当該視聴者ユーザーを認証するための認証用データを含む参加要求が送信される。
By executing this participation operation, a participation request including the viewer user ID and authentication data for authenticating the viewer user is sent from the
参加要求を受信した配信用サーバコンピュータ100においては、ライブ仮想空間参加可能期間であることを条件に、参加者認証処理を実行する。参加者認証処理では、受信した参加要求に含まれる視聴者ユーザーIDが、参加対象の仮想ライブに対応している参加者ユーザーデータベースに、参加者IDとして登録されているか否かによって、当該視聴者ユーザーが該当する仮想ライブの参加予定者であるのか否かを判定するとともに、図9に示す視聴者ユーザーデータにおいて、当該視聴者ユーザーIDに対応付けて記憶されている認証情報ファイルデータから特定される認証情報ファイルに記述された認証用データと、参加要求に含まれる認証用データとを照合することで視聴者ユーザーの認証を行う。
The
視聴者ユーザーが参加予定者であって、認証用データによる認証が完了した場合には、参加者ユーザーテーブルの参加識別データ(参加識別フラグ)を、「参加」に対応する「1」に更新する。 If the viewer user is a prospective participant and has completed authentication using the authentication data, the participant identification data (participation identification flag) in the participant user table is updated to "1", which corresponds to "participation".
そして、配信用サーバコンピュータ100は、参加要求の送信元の視聴者端末300に対して、参加対象の仮想ライブに対応する事前データをダウンロードさせるために事前データDL指示情報を送信(返信)する。視聴者端末300は、該事前データDL指示情報の受信によって、参加が許可されたことを確認することができる。
Then, the
事前データDL指示情報の受信に応じて視聴者端末300は、ダウンロードする事前データを特定し、特定した事前データのダウンロードを要求する事前データDL要求を配信用サーバコンピュータ100に送信する。
In response to receiving the advance data DL instruction information, the
この事前データDL要求の受信に応じて配信用サーバコンピュータ100は、事前データ送信処理を実行する。
In response to receiving this advance data DL request, the
この事前データ送信処理においては、事前データDL要求の送信元の視聴者端末300に対して要求された事前データを送信する。尚、事前データには、前述したように、仮想ライブ会場の仮想空間データ(基本データ)、演者アバター1のアバターデータ、並びに、既に仮想参加している他の視聴者ユーザーのアバターデータ等が含まれている。
In this advance data transmission process, the requested advance data is transmitted to the
尚、事前データ送信処理においては、事前データDL要求の送信元以外の視聴者端末300であって、参加者データテーブルによって既に参加が確認されている視聴者ユーザーの視聴者端末300に対して、事前データDL要求の送信元の視聴者ユーザーのアバターデータを、事前データとして追加配信する。これによって、仮想ライブに仮想参加している各視聴者ユーザーの視聴者端末300には、仮想空間データ(基本データ)と演者アバターのアバターデータとともに、仮想ライブに仮想参加している全ての視聴者ユーザーのアバターデータが事前に配信されて記憶されることになる。
In addition, in the advance data transmission process, the avatar data of the viewer user who sent the advance data DL request is additionally distributed as advance data to the
そして、このようにして視聴者端末300に記憶された事前データは、前述した事前データDL完了チェックタイミング(図21参照)において全ての事前データのダウンロードが完了しているか否かが確認され、事前データのダウンロードが完了している場合に、参加者ユーザーテーブルの事前データDL識別データ(事前データDL識別フラグ)が、未完了を示す「0」から完了を示す「1」に更新される。 Then, at the pre-data DL completion check timing described above (see FIG. 21), it is checked whether or not all of the pre-data has been downloaded, and if the pre-data download has been completed, the pre-data DL identification data (pre-data DL identification flag) in the participant user table is updated from "0", indicating incomplete, to "1", indicating complete.
尚、事前データのダウンロードが完了していないことで、事前データDL識別データ(事前データDL識別フラグ)が、未完了を示す「0」のままである参加者(視聴者ユーザー)に対しては、前述したように、仮想カメラ視点映像のみが表示可能とされる。 As described above, for participants (viewer users) whose advance data download has not been completed and whose advance data DL identification data (advance data DL identification flag) remains at "0," indicating incomplete download, only the virtual camera viewpoint image can be displayed.
次に、視聴者端末300に表示される各種視点映像が生成される主体が、仮想ライブの各期間において変化する状況について、図24~図27を用いて説明する。
Next, we will use Figures 24 to 27 to explain how the subject generating the various viewpoint videos displayed on the
まず、視聴者端末300において視聴者アバター視点映像だけが表示可能とされるライブ仮想空間参加可能期間中については、図24に示すように、配信用サーバコンピュータ100から送信される、演者ユーザーの動作に連動した動作を行う演者アバター1の動作を生成するための演者アバター用動作データを含む仮想空間更新データにもとづいて、事前データの受信によって既に視聴者端末300において記憶されている仮想空間データが逐次更新され、該更新された仮想空間データにもとづいて視聴者視点映像生成処理が視聴者端末300にて実行されて視聴者アバター視点映像が生成されて、映像出力処理によって出力(表示)される。尚、図24では、演者端末200を省略しているが、仮想空間更新データは、実施例1において図10に示されるように、演者端末200に対しても送信される。
First, during the live virtual space participation period when only the viewer avatar viewpoint video can be displayed on the
また、視聴者端末300において仮想カメラ視点映像のみが表示可能とされる「開演前説」、「開演演出」、「フライング演出」の各期間については、図25に示すように、配信用サーバコンピュータ100において、仮想空間更新データ配信処理においては仮想空間更新データが演者端末200に対してだけ送信される。そして、仮想空間更新データ配信処理に次いで仮想カメラ視点映像が生成される仮想カメラ視点映像生成処理と、該仮想カメラ視点映像生成処理にて生成された仮想カメラ視点映像の映像データを、仮想ライブに参加している全ての視聴者端末300に配信する仮想カメラ視点映像データ配信処理が実行される。
Furthermore, during each of the periods of "Pre-show", "Opening performance", and "Flying performance" in which only virtual camera viewpoint images can be displayed on the
これら仮想カメラ視点映像データ配信処理にて配信用サーバコンピュータ100から配信された仮想カメラ視点映像データは、該仮想カメラ視点映像データを受信した視聴者端末300において映像出力処理が実行されることによって表示される。
The virtual camera viewpoint video data distributed from the
つまり、図27に示すように、仮想カメラ視点映像のみが表示可能とされる「開演前説」、「開演演出」、「フライング演出」の各期間については、仮想カメラ視点映像は、配信用サーバコンピュータ100において生成される。
In other words, as shown in FIG. 27, during the periods of "pre-show," "opening performance," and "flying performance," in which only virtual camera viewpoint images can be displayed, the virtual camera viewpoint images are generated by the
また、視聴者端末300において視聴者アバター視点映像と仮想カメラ視点映像のいずれかを選択して表示可能な期間であるMC期間中及びフライング演出期間中を除く演目期間中においては、図26に示すように、配信用サーバコンピュータ100において仮想空間更新データ配信処理が実行されることによって、仮想ライブに参加している各視聴者ユーザーの視聴者端末300に対して仮想空間更新データが配信されることによって、視聴者端末300において仮想空間更新処理が実行される。
In addition, during the performance period, excluding the MC period and the flying performance period, during which the
そして、視聴者端末300においては、表示対象の映像として視聴者アバター視点映像が選択されているか否かが判定され、視聴者アバター視点映像が選択されている場合には、図24に示す流れと同様に、視聴者視点映像生成処理が実行されることで視聴者アバター視点映像が生成されて、該生成された視聴者アバター視点映像が映像出力処理によって表示される。
Then, in the
一方、表示対象の映像として視聴者アバター視点映像が選択されていない場合、すなわち、表示対象の映像として仮想カメラ視点映像が選択されている場合には、視聴者端末300において仮想カメラ視点映像生成処理が実行されることで、仮想カメラ視点映像が生成され、該生成された仮想カメラ視点映像が映像出力処理によって表示される。
On the other hand, when the viewer avatar viewpoint video is not selected as the video to be displayed, i.e., when the virtual camera viewpoint video is selected as the video to be displayed, the virtual camera viewpoint video generation process is executed in the
尚、この仮想カメラ視点映像において生成される仮想カメラ視点映像は、仮想カメラC1、C3、C4のいずれの視点映像とするかを、視聴者ユーザーが選択できるようにしてもよいし、配信用サーバコンピュータ100が全ての視聴者端末300に対して指示するようにしてもよい。
The viewer user may be able to select which of the virtual cameras C1, C3, or C4 the virtual camera viewpoint image generated in this virtual camera viewpoint image should be, or the
つまり、図27に示すように、視聴者端末300において仮想カメラ視点映像と視聴者アバター視点映像のいずれかが表示可能とされるMC期間中及びフライング演出期間中を除く演目期間中については、仮想カメラ視点映像は、視聴者端末300において生成される。このように、仮想カメラ視点映像と視聴者アバター視点映像とのいずれかを選択して視聴者端末300に表示可能な期間については、視聴者ユーザーの選択によって仮想カメラ視点映像と視聴者アバター視点映像との相互の切り替えが実行されるため、仮想カメラ視点映像データを配信用サーバコンピュータ100からの配信によって表示する場合に比較して、これら映像の切り替えを映像が途切れてしまう等の不具合を生じることなく、且つ、これら映像の切り替えに伴う配信用サーバコンピュータ100の処理負荷の増大を防ぎつつ実行することができる。
In other words, as shown in FIG. 27, during the performance period excluding the MC period and the flying performance period when either the virtual camera viewpoint video or the viewer avatar viewpoint video can be displayed on the
一方、視聴者端末300において仮想カメラ視点映像のみが表示可能な期間である、「開演前説」、「開演演出」、「フライング演出」の各期間については、仮想カメラ視点映像は、配信用サーバコンピュータ100においてのみ生成されて、各視聴者端末300に配信される。このように、視聴者端末300において仮想カメラ視点映像のみが表示可能な期間においては、仮想カメラ視点映像が配信用サーバコンピュータ100においてのみ生成されるため、仮想カメラ視点映像を生成する処理が視聴者端末300において重複して実行されることによって、システム全体の処理負荷が無駄に増大してしまうことを防ぐことができる。
Meanwhile, during each of the periods of "pre-show", "opening performance", and "flying performance", when only the virtual camera viewpoint video can be displayed on the
ここで、視聴者端末300において視点映像が切り替わる際の状況について、仮想カメラ視点映像のみが表示可能な期間である、「フライング演出」の期間を例に、図28を用いて説明する。
Here, the situation when the viewpoint video is switched on the
例えば、図28に示すように、「第1MC」の期間および「フライング演出」までの第1演目の期間中において視聴者アバター視点映像が表示されている視聴者端末300において、仮想カメラ視点映像(空中移動仮想カメラからの視点映像)のみが表示可能な「フライング演出」の期間が開始されたときから、配信用サーバコンピュータ100が仮想カメラ視点映像(空中移動仮想カメラからの視点映像)の配信を開始すると、これら配信が開始してから仮想カメラ視点映像が表示されるまでの期間において視聴者端末300において仮想カメラ視点映像(空中移動仮想カメラからの視点映像)が表示されない状態となってしまい、「フライング演出」の最初の映像を視聴者が視聴できなくなってしまう不具合が生じる畏れがある。
For example, as shown in FIG. 28, on a
このため、実施例2の配信用サーバコンピュータ100は、図28に示すように、視聴者アバター視点映像から仮想カメラ視点映像(空中移動仮想カメラからの視点映像)に強制的に視点映像が変更される「フライング演出」の開始時において、該「フライング演出」の開始タイミングよりも前の特定タイミングにおいて、BF事前通知を視聴者端末300に送信することで、フライング演出期間の開始前において仮想カメラ視点映像(空中移動仮想カメラからの視点映像)の事前配信を開始する配信開始(バッファリング開始)タイミングを視聴者端末300に通知する。
For this reason, as shown in FIG. 28, at the start of a "flying performance" in which the viewpoint image is forcibly changed from the viewer avatar viewpoint image to the virtual camera viewpoint image (viewpoint image from a virtual camera moving in the air), the
視聴者端末300は、BF事前通知の受信に応じて、配信用サーバコンピュータ100から仮想カメラ視点映像(空中移動仮想カメラからの視点映像)の配信が開始されるタイミングを特定し、該タイミングになったときから受信した仮想カメラ視点映像(空中移動仮想カメラからの視点映像)のバッファリングを開始する。
In response to receiving the BF advance notification, the
これら仮想カメラ視点映像(空中移動仮想カメラからの視点映像)の配信が開始されるタイミング、つまり、バッファリングを開始するタイミングは、視聴者端末300の映像記憶機能の違いを考慮して適宜に決定すればよいが、例えば、映像のフレーム数として数十フレームに該当する期間とすればよい。
The timing at which distribution of these virtual camera viewpoint images (viewpoint images from virtual cameras moving in the air) begins, i.e., the timing at which buffering begins, can be determined appropriately taking into account differences in the image storage capabilities of the
このように、実施例2の配信用サーバコンピュータ100は、フライング演出期間の開始前から、フライング演出の仮想カメラ視点映像(空中移動仮想カメラからの視点映像)の生成、配信を開始し、視聴者端末300は、該配信された仮想カメラ視点映像をバッファリングしているので、フライング演出期間が開始されたときに、該フライング演出期間の開始前に表示していた視聴者アバター視点映像から仮想カメラ視点映像に瞬時に映像を変更することができるので、「フライング演出」の最初の映像を視聴者が視聴できなくなってしまう不具合が生じることを防ぐことができる。
In this way, the
また、「フライング演出」の期間が終了するときにおいては、「フライング演出」の開始前において視聴者アバター視点映像が選択されていたことから、該「フライング演出」の期間の終了に応じて、フライング演出の仮想カメラ視点映像(空中移動仮想カメラからの視点映像)から視聴者アバター視点映像に視点映像が切り替わるが、この場合においても、「フライング演出」の期間が終了したときから視聴者アバター視点映像を生成して表示すると、「フライング演出」の開始時と同様に、視聴者アバター視点映像が生成されて表示されるまでの期間において視聴者端末300において視聴者アバター視点映像が表示されない状態となってしまう不具合が生じる畏れがある。
Furthermore, when the period of the "flying performance" ends, because the viewer avatar viewpoint video was selected before the start of the "flying performance", the viewpoint video switches from the flying performance's virtual camera viewpoint video (viewpoint video from the virtual camera moving in the air) to the viewer avatar viewpoint video when the period of the "flying performance" ends. However, even in this case, if the viewer avatar viewpoint video is generated and displayed from the time when the period of the "flying performance" ends, there is a risk that a malfunction will occur in which the viewer avatar viewpoint video is not displayed on the
このため、実施例2の配信用サーバコンピュータ100は、これら「フライング演出」の期間が終了するときにおいても、図28に示すように、終了TM(タイミング)事前通知を視聴者端末300に送信することで、仮想カメラ視点映像(空中移動仮想カメラからの視点映像)の配信が終了する「フライング演出」の期間終了タイミングを事前に視聴者端末300に通知する。
For this reason, even when the period of these "flying effects" ends, the
視聴者端末300は、終了TM(タイミング)事前通知の受信に応じて、配信用サーバコンピュータ100から仮想カメラ視点映像(空中移動仮想カメラからの視点映像)の配信が停止されるタイミングを事前に特定し、該タイミングよりも前の所定タイミングとなったときから視聴者視点映像生成処理を開始して、視聴者アバター視点映像を事前生成する。
In response to receiving the end TM (timing) advance notification, the
尚、配信用サーバコンピュータ100は、終了TM(タイミング)事前通知の送信時から、仮想空間更新データの配信を実行することで、視聴者端末300は、受信した仮想空間更新データによって仮想空間データを更新する仮想空間処理を実行しているので、上記した所定タイミングにおいて、その時点の仮想ライブ会場の状況を反映した視聴者アバター視点映像を生成することができる。
The
このように、実施例2の配信用サーバコンピュータ100は、フライング演出期間の終了前に終了TM(タイミング)事前通知を視聴者端末300に送信して、フライング演出期間の終了前に事前に視聴者アバター視点映像を視聴者端末300が生成できるようにしているので、視聴者端末300において視聴者アバター視点映像が表示されない状態となってしまう不具合が生じることを防ぐことができる。
In this way, the
尚、図28においては、「フライング演出」を例に説明したが、視聴者アバター視点映像から仮想カメラ視点映像に強制的に視点映像が変更される「開演前説」と「開演演出」の期間についても、同様の制御が行われる。 Note that in Figure 28, the "flying performance" has been explained as an example, but similar control is also performed during the "pre-show" and "opening performance" periods, when the viewpoint image is forcibly changed from the viewer avatar viewpoint image to the virtual camera viewpoint image.
以上、実施例2の仮想空間コンテンツ配信システムでは、視聴者ユーザーが複数であって、各視聴者ユーザー毎に視聴者端末300が割り当てられており、視聴者端末300が、視聴者アバターに対応した仮想ライブ会場(仮想空間)の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を配信用サーバコンピュータ100から送信されてくる仮想空間更新データ(仮想空間データ)にもとづいて生成しており、これら処理負荷が大きな視聴者アバター視点映像の生成が視聴者端末300で行われるので、より多くの視聴者ユーザーを仮想ライブに参加させることができる。
As described above, in the virtual space content distribution system of Example 2, there are multiple viewer users, and each viewer user is assigned a
また、実施例2の仮想空間コンテンツは、演者ユーザーが演者アバター1として仮想ライブ会場に参加可能なコンテンツであるとともに、演者アバター1が仮想ライブ会場において、歌唱やダンス等の楽曲動作(パフォーマンス)を行うコンテンツであるので、仮想空間コンテンツの興趣を向上できる。
The virtual space content of Example 2 is content that allows a performer user to participate in a virtual live venue as
また、実施例2の仮想空間更新データ(仮想空間データ)には、演者アバター1の動作を生成するための演者アバター用動作データを含まれているため、視聴者端末300において生成される視聴者アバター視点映像においても演者アバター1の動作を正確に反映させることができる。
In addition, since the virtual space update data (virtual space data) of Example 2 includes performer avatar movement data for generating the movements of
また、実施例2の各視聴者端末300において共通して表示される共通視点映像、例えば、「開演前説」、「開演演出」、「フライング演出」の映像については、配信用サーバコンピュータ100において生成されて各視聴者端末300に配信されるので、重複した処理が各視聴者端末300において実行されることによって、システム全体の処理負荷が無駄に増大してしまうことを防ぐことができる。
In addition, the common viewpoint video displayed in common on each
また、実施例2の視聴者端末300において、視聴者アバター視点映像と仮想カメラ視点映像とのいずれかの視点映像を選択して表示可能な期間である、「MC期間」と「フライング演出」の期間以外の演目期間(特定期間)中においては、仮想カメラ視点映像が視聴者端末300において生成されて表示されるので、視点映像が切り替わるときに、映像が途切れる等の不具合が生じることを防ぐことができる。
In addition, in the
また、実施例2の配信用サーバコンピュータ100における処理負荷が大きい特別期間となる、「衣装チェンジ演出」や「分身演出」の期間においては、仮想カメラ視点映像(共通視点映像)についても各視聴者端末300が生成して表示するため、配信用サーバコンピュータ100における処理負荷が一時的に極端に大きくなってしまうことを防ぐことができる。
In addition, during special periods such as "costume change performance" and "doppelganger performance" in which the processing load on the
また、実施例2の配信用サーバコンピュータ100は、仮想ライブ会場(仮想空間)の基本データ並びに仮想ライブ会場に仮想参加する演者アバター1および視聴者アバターの基本データを含む事前データを、仮想ライブが開始する前に各視聴者端末300に対して事前送信しているので、仮想ライブの開始時において視聴者アバター視点映像が良好に表示されない不具合の発生を防ぐことができる。
In addition, the
また、実施例2の配信用サーバコンピュータ100は、事前データの受信完了が確認できない視聴者端末300に対しては、仮想カメラ視点映像(共通視点映像)を送信しており、このようにすることで、仮想ライブの開始後において基本データ等の送信によって配信用サーバコンピュータ100における処理負荷が過度に増大してしまうことを防ぎつつ、視聴者ユーザーが仮想ライブを視聴できなくなってしまうことも防ぐことができる。
In addition, the
<実施例2の変形例>
図29は、実施例2についての変形例2-1における視聴者視点映像生成処理の処理内容を示すフロー図である。
<Modification of the second embodiment>
FIG. 29 is a flowchart showing the process of generating a viewer's viewpoint video in the modification 2-1 of the second embodiment.
上記した実施例2では、演者アバター1の動作を含む視聴者アバター視点映像を、常に一律に生成する形態を示したが、本発明はこれに限定されるものではなく、これら視聴者アバター視点映像を、視聴者端末300における視聴者ユーザーの選択によって、映像生成における処理負荷の異なる複数の態様で生成するようにしてもよい。
In the above-mentioned Example 2, a form was shown in which the viewer avatar viewpoint images including the movements of the
つまり、視聴者ユーザーが使用する視聴者端末300としては、実施例1において例示しているように、処理能力の高い据え置き型のパーソナルコンピュータ(PC)である場合もあれば、パーソナルコンピュータ(PC)よりも処理能力が相対的に低いスマ-トフォン端末やタブレット端末等である場合もあるように、処理能力の異なる端末が使用されることが想定されるが、このように処理能力の異なる端末において、視聴者アバター視点映像を、常に一律に生成してしまうと、低処理能力の端末においては、視聴者アバター視点映像を適切に生成することができず、視聴者アバター視点映像と音声とにズレが生じたり、或いは、視聴者アバター視点映像が不連続の不自然な映像になってしまう畏れがあるため、例えば、演者動作を含む視聴者アバター視点映像を生成する場合に、映像の生成に係わる処理負荷が高い高精細な演者動作を含む視聴者アバター視点映像を生成するのか、映像の生成に係わる処理負荷が低い低精細な演者動作を含む視聴者アバター視点映像を生成するのかを、視聴者が、使用する端末の処理能力に応じて適宜、選択できるようにしてもよい。
In other words, as shown in Example 1, the
具体的には、視聴者端末300において実行される視聴者視点映像生成処理を、図29のフロー図に示す内容とすればよく、該視聴者視点映像生成処理においては、まず、視聴者端末300において視聴者ユーザーによって選択されている演者動作生成態様を特定する(ステップS101)。そして、特定した演者動作生成態様が、高処理負荷態様であるか否かを判定し(ステップS102)、高処理負荷態様が選択されている場合(ステップS102でY)は、高精細な演者動作を含む視聴者アバター視点映像を生成する(ステップS103)。一方、高処理負荷態様が選択されていない場合(ステップS102でN)は、低精細な演者動作を含む視聴者アバター視点映像を生成する(ステップS104)。
Specifically, the viewer viewpoint video generation process executed on the
尚、図29においては、高処理負荷態様と低処理負荷態様の2態様とした形態を例示しているが、本発明はこれに限定されるものではなく、これら処理負荷態様を3態様以上としてもよい。 Note that, although FIG. 29 illustrates an example of two modes, a high processing load mode and a low processing load mode, the present invention is not limited to this, and three or more processing load modes may be used.
また、上記した実施例2(実施例1も同様)においては、視聴者ユーザーの視聴者アバターの移動を含む全ての動作を、仮想空間更新データの配信によって各視聴者アバターに反映させる形態を例示しているが、本発明はこれに限定されるものではなく、例えば、これら視聴者アバターの動作として、通常では実行不能な動作であって、特別な費用を支払った場合において可能となる動作、例えば、演者アバター1に対して自身の視聴者アバターをアピールすることが可能な特別動作を行う操作を視聴者端末300において可能とする場合にあっては、該特別動作は、演者ユーザーに向ける動作であって、他の視聴者ユーザーに向けるものではないので、これら特別動作を含む仮想空間更新データを、他の視聴者ユーザーの視聴者端末300に配信しないようにして、これら特別動作を実行可能とすることによって配信用サーバコンピュータ100の処理負荷が過大に増加してしまうことを防ぐことができるようにしてもよい。
In addition, in the above-mentioned Example 2 (similar to Example 1), an example is given in which all actions, including the movement of the viewer avatar of the viewer user, are reflected in each viewer avatar by distributing virtual space update data, but the present invention is not limited to this. For example, in a case where the actions of these viewer avatars are actions that are normally not executable but are possible when a special fee is paid, for example, an operation to perform a special action that allows the
このように、特別動作を含む仮想空間更新データを、他の視聴者ユーザーの視聴者端末300に配信しない場合には、図30の変形例2-2に示すように、視聴者ユーザーAが特別動作に対応する操作を実行することで視聴者ユーザーAの視聴者アバターが特別動作を行った場合は、配信用サーバコンピュータ100から視聴者ユーザーAの視聴者端末300には、視聴者ユーザーAの視聴者アバターが特別動作を実行していることに対応する仮想空間更新データAが送信されるが、視聴者ユーザーAとは異なる視聴者ユーザーBの視聴者端末300には、視聴者ユーザーAの視聴者アバターが特別動作を実行していない仮想空間更新データBが配信される。
In this way, if virtual space update data including special actions is not distributed to the
よって、視聴者ユーザーAの視聴者端末300と、視聴者ユーザーBの視聴者端末300とには、異なる仮想空間更新データが配信用サーバコンピュータ100から配信されることになるので、仮想空間更新データの自由度を高めることができるとともに、視聴者ユーザーAの視聴者端末300と、視聴者ユーザーBの視聴者端末300とにおいて異なる視聴者アバター視点映像を生成させることができるようになる。
As a result, different virtual space update data is delivered from the
また、視聴者ユーザーAの視聴者端末300は、視聴者ユーザーBの視聴者端末300に配信される仮想空間更新データBとは異なる仮想空間更新データAにもとづいて、視聴者ユーザーBの視聴者アバターが可能な動作とは異なる特別動作を行う視聴者ユーザーAの視聴者アバターの映像を生成して表示することができるので、仮想空間コンテンツである仮想ライブに対する視聴者ユーザーAの興趣を向上できる。
In addition,
また、上記した実施例2(実施例1も同様)においては、第4領域に仮想参加している視聴者ユーザーの視聴者アバターについても、アバターの態様が個々の視聴者ユーザーで異なる通常のアバターとした形態を例示しているが、本発明はこれに限定されるものではなく、例えば、仮想ライブにおける各種の視点映像を生成する際の処理負荷を低減することを目的として、第4領域に仮想参加している視聴者ユーザーの視聴者アバターを、アバターの態様が簡素化された簡易アバターとするようにしてもよい。 In addition, in the above-mentioned Example 2 (which is also the same as Example 1), the viewer avatars of the viewer users virtually participating in the fourth area are illustrated as normal avatars in which the avatar appearance differs for each viewer user, but the present invention is not limited to this. For example, in order to reduce the processing load when generating various viewpoint images in a virtual live performance, the viewer avatars of the viewer users virtually participating in the fourth area may be simplified avatars in which the avatar appearance is simplified.
尚、図30においては、特別な費用を支払った場合において可能となる特別動作を実行する場合について例示しているが、例えば、上述したように、簡易アバターを使用するような場合にあっては、簡易アバターの移動以外の通常動作、例えば、手を振る動作、手を叩く動作、視聴者アバターの向きを変える動作等について、特別動作と同様に、他の視聴者ユーザーに配信される仮想空間更新データには、含まれないようにすることで、より一層、配信用サーバコンピュータ100の処理負荷を低減できるようにしてもよい。
Note that FIG. 30 illustrates an example of a special action that becomes possible when a special fee is paid, but for example, in the case of using a simplified avatar as described above, normal actions other than the movement of the simplified avatar, such as waving, clapping, and changing the direction of the viewer avatar, may be prevented from being included in the virtual space update data distributed to other viewer users, just like special actions, thereby further reducing the processing load on the
次に、実施例3の仮想空間コンテンツ配信システムについて図31~図41を用いて以下に説明する。尚、実施例1や実施例2と同一の構成については、同一の符号を付して説明を省略する。 Next, the virtual space content distribution system of the third embodiment will be described below with reference to Figs. 31 to 41. Note that the same components as those of the first and second embodiments will be given the same reference numerals and will not be described.
実施例3の仮想空間コンテンツ配信システムの構成は、図1に示す実施例1、2の構成と同一であるが、仮想ライブの進行内容が実施例1、2とは異なるとともに、実施例1、2においては視聴者アバターの動作として実行可能とされていないコンテンツ対応動作である、充填された薬剤を混合させることで発光する棒状のケミカルライトK(以下ケミライトKと略記する)を左右に振るケミライト動作(図33参照)を実行可能であって、これらケミライト動作に関係する制御が実施例1、2とは異なる点が本実施例3の特徴部分である。 The configuration of the virtual space content distribution system of Example 3 is the same as that of Examples 1 and 2 shown in FIG. 1, but the progress of the virtual live performance differs from that of Examples 1 and 2, and the chemilight action (see FIG. 33) of swinging a rod-shaped chemical light K (hereinafter abbreviated as chemilight K) that emits light by mixing the loaded medicine can be performed, which is a content-compatible action that is not executable as a viewer avatar action in Examples 1 and 2. The control related to these chemilight actions differs from that of Examples 1 and 2, which is a characteristic feature of Example 3.
図31は、実施例3の仮想空間コンテンツ配信システムにおいて配信される仮想ライブの進行内容を示す図である。実施例3の仮想ライブは、まず、仮想ライブの開始前の期間として、「ライブ仮想空間参加可能期間」と「開演前説」の期間とが設けられていて、視聴者ユーザーは、該ライブ仮想空間参加可能期間において仮想ライブの対象の仮想空間に仮想参加することができる。 Figure 31 is a diagram showing the progress of a virtual live performance distributed in a virtual space content distribution system of Example 3. In the virtual live performance of Example 3, a "live virtual space participation period" and a "pre-show speech" period are set as periods before the start of the virtual live performance, and viewer users can virtually participate in the virtual space that is the subject of the virtual live performance during the live virtual space participation period.
尚、ライブ仮想空間参加可能期間と「開演前説」の期間の終了間際に設定されている事前データダウンロード終了タイミング(図示略)までの期間は、実施例2と同じく事前データダウンロード(DL)期間とされていて、ライブ仮想空間参加可能期間中に仮想参加した視聴者ユーザーの視聴者端末300に対して、仮想ライブ会場の仮想空間データ(基本データ)、演者アバター1のアバターデータ、並びに仮想参加した他の視聴者ユーザーのアバターデータ等が、事前データとして配信用サーバコンピュータ100からダウンロード(DL)されるようになっている。
The period from the live virtual space participation period to the end of the advance data download (not shown), which is set just before the end of the "pre-show speech" period, is the advance data download (DL) period, as in Example 2, and the virtual live venue virtual space data (basic data), avatar data of
また、「開演前説」の期間においては、実施例2と同様に、開始予定の仮想ライブについての説明等がビデオ映像等によって紹介される。 In addition, during the "pre-show" period, explanations about the upcoming virtual live show will be provided through video footage, etc., just as in Example 2.
実施例3の仮想ライブは、図31に示すように、「開演演出」→「第1MC」→「第1演目」→「第2MC」→「第2演目」→「第3MC」→「第3演目」…のように進行していく。「開演演出」と「第1MC」、「第2(3)MC」は、実施例2の内容と同様である。「第1演目」、「第2演目」、「第3演目」…は、演者アバター1(演者)の歌唱とダンスとを含む。 As shown in FIG. 31, the virtual live performance in Example 3 progresses as follows: "Opening performance" → "First MC" → "First performance" → "Second MC" → "Second performance" → "Third MC" → "Third performance", etc. The "Opening performance", "First MC", and "Second (3rd) MC" are the same as those in Example 2. The "First performance", "Second performance", "Third performance", etc. include singing and dancing by performer avatar 1 (performer).
「第1MC」、「第2MC」、「第3MC」の各期間の終了直前には、ケミライト動作において遅延動作を行う参加者(視聴者ユーザー)を決定するための遅延動作者決定処理(図37参照)の実行タイミングが設定されていることで、「第1演目」、「第2演目」、「第3演目」…の各演目において異なる参加者(視聴者ユーザー)が遅延動作を行う参加者(視聴者ユーザー)として決定されるようになっている。 Just before the end of each period of the "First MC," "Second MC," and "Third MC," the execution timing of the delay action determination process (see FIG. 37) for determining the participant (viewer user) who will perform the delay action in the chem-light action is set, so that a different participant (viewer user) is determined as the participant (viewer user) who will perform the delay action in each of the "First Performance," "Second Performance," "Third Performance," etc.
実施例3の仮想ライブにおける各演出や演目等が実行される各期間において演者アバター1が実行可能な動作は、図31に示すように、手や足や頭等のアバターの一部を動かす通常動作以外に、演者アバター1が登場する開演演出においては、仮想ステージG上を移動する動作とトークに関する動作を実行可能とされている。尚、図31においては、演者アバター1や視聴者アバターが可能な動作である通常動作については記載スペースの都合上、記載を省略している。
As shown in FIG. 31, the actions that the
また、「第1MC」、「第2MC」、「第3MC」…のMC期間中においては、「開演演出」と同様に、通常動作以外に、仮想ステージG上を移動する動作とトークに関する動作を実行可能とされており、「第1演出」、「第2演出」、「第3演出」…の演目期間中においては、通常動作以外に、歌唱の動作とダンスの動作が可能とされている。尚、ダンスの動作においては、仮想ステージG上を移動する動作が含まれる場合がある。 In addition, during the MC periods of "First MC", "Second MC", "Third MC", etc., in addition to normal actions, actions related to moving on the virtual stage G and talking can be performed, as in the "Opening performance", and during the performance periods of "First performance", "Second performance", "Third performance", etc., in addition to normal actions, singing and dancing can be performed. Note that dancing actions may include actions of moving on the virtual stage G.
実施例3の仮想ライブにおける各期間において仮想ライブ会場に仮想参加した参加者(視聴者ユーザー)の視聴者アバターが実行可能な動作は、手や足や頭等のアバターの一部を動かす通常動作以外に、ライブ開始前期間(ライブ仮想空間参加可能期間および開演前説期間)、開演演出期間、各MC期間中においては、図32における視聴者アバター12や視聴者アバター13が実行しているように、個々の参加者(視聴者ユーザー)がケミライトKを振るタイミングや早さが同調していない非同調のケミライト動作が可能とされているとともに、図32(A)における視聴者アバター11や視聴者アバター14が実行しているように、仮想ライブ会場内を移動する動作が可能とされている。尚、図32においては、第4領域に参加している視聴者アバターについては、便宜的に簡略表示しているが、視聴者アバター11~14と同様のアバターとされているとともに、視聴者アバター11~14と同様の動作が可能とされている。
In each period of the virtual live in Example 3, the actions that can be performed by the viewer avatar of a participant (viewer user) who virtually participates in the virtual live venue include normal actions of moving parts of the avatar such as hands, feet, and head, as well as asynchronous chemilight actions in which the timing and speed of waving the chemilight K of individual participants (viewer users) are not synchronized, as performed by
尚、非同調のケミライト動作は、後述するように、各視聴者端末300において視聴者ユーザーによってデフォルトとして個別に選択された速度1~速度5のいずれかの早さ(調子)にてケミライトKを左右に振る動作である。
As described below, the non-synchronized chemilight action is the action of shaking the chemilight K from side to side at any speed (cadence) of
また、「第1演目」、「第2演目」、「第3演目」…の各演目期間において仮想参加している参加者(視聴者ユーザー)の視聴者アバターが実行可能な動作は、通常動作以外に、図32(B)に示すように、視聴者アバター11~14の動作のように、個々の参加者(視聴者ユーザー)の視聴者アバターがケミライトKを振るタイミングや早さが、配信用サーバコンピュータ100から送信される各種情報(図33参照)によって同調している同調のケミライト動作が可能とされている。つまり、実施例3においては、演者アバターが演目を上演している各演目期間においては、視聴者アバターの移動が禁止されることで、これら視聴者アバターが各演目期間において移動することによって、仮想ライブに悪影響が生じてしまうこと、例えば、他の視聴者アバター等の衝突等によって、他の視聴者アバターの視聴に支障が出たり、該移動によって演者の集中力が低下してしまう等の支障が出てしまうことを防ぐことができる。
In addition to normal actions, the viewer avatars of participants (viewer users) virtually participating in each performance period of "First Performance", "Second Performance", "Third Performance", etc. can perform synchronized chemilight actions, such as the actions of
尚、ケミライト動作は、仮想ライブに仮想参加した全ての参加者(視聴者ユーザー)の視聴者アバターが実行可能な動作ではなく、ケミライトKの仮想アイテムを事前に購入した参加者(視聴者ユーザー)の視聴者アバターだけが可能な動作であるので、仮想ライブに仮想参加している視聴者アバターであっても、ケミライトKを所持していない視聴者アバターはケミライト動作を行うことができないため、各演目期間においてケミライト動作を行っていない視聴者アバターが存在することになる。 The Chemilight action is not an action that can be performed by the viewer avatars of all participants (viewer users) who virtually participate in the virtual live, but is only an action that can be performed by the viewer avatars of participants (viewer users) who have purchased the Chemilight K virtual item in advance. Therefore, even if a viewer avatar is virtually participating in the virtual live, if the viewer avatar does not possess Chemilight K, the viewer avatar cannot perform the Chemilight action, and therefore there will be viewer avatars that do not perform the Chemilight action during each performance period.
これら視聴者アバターの動作である移動が、視聴者ユーザーが視聴者端末300として使用しているパーソナルコンピュータ(PC)において禁止される状況について、図40、図41を用いて説明すると、演者アバター1が上演を行っていないライブ開始前期間や各MC期間において視聴者ユーザーが動作メニューを表示させる操作を実行した場合には、視聴者端末300においてアバター動作操作処理が実行されることで、図40(B)に示すように、「移動」および「ケミライト」の動作メニューがアクティブ(有効)状態にて表示されることで、「移動」および「ケミライト」のいずれの動作も実行可能であることが報知され、視聴者ユーザーは、「移動」および「ケミライト」のいずれの動作も、選択入力によって視聴者アバターに実行させることができる。
Using Figures 40 and 41, we will explain the situation in which movement, which is an action of the viewer avatar, is prohibited on the personal computer (PC) that the viewer user is using as the viewer terminal 300.If the viewer user performs an operation to display the action menu during the period before the start of a live performance or during each MC period when the
尚、図40、41においては、説明を容易化とするために、「移動」および「ケミライト」の動作以外の通常動作等の項目については省略しているとともに、これら移動」および「ケミライト」の項目以外の項目が含まれていてもよいことはいうまでもない。 In addition, in Figures 40 and 41, in order to simplify the explanation, items such as normal operations other than the "Move" and "Chemilite" operations have been omitted, and it goes without saying that items other than these "Move" and "Chemilite" items may be included.
一方、演者アバター1が上演を行っている演目期間中において、視聴者ユーザーが動作メニューを表示させる操作を実行した場合には、上述したように、移動が禁止されていることにより、アバター動作操作処理によって、図41に示すように、「ケミライト」の動作メニューのみがアクティブ(有効)状態にて表示され、「移動」の動作メニューが非アクティブ(無効)状態にて表示されることで、視聴者ユーザーは、「ケミライト」の動作を選択入力によって視聴者アバターに実行させることができるが、「移動」の動作を実行させることはできない。
On the other hand, if a viewer user performs an operation to display the action menu during the performance period in which
尚、これら動作メニューの表示制御による視聴者アバターの動作制限については、視聴者端末300側においてアバター動作操作処理が実行されることで、その時点が、演目期間中であるのか否かをBPM情報や振り始め情報にもとづいて判定することで行うようにしてもよいし、仮想ライブ中の各時点において、視聴者アバターの各動作について、実行の可能・不可能を特定可能な動作制限情報を配信用サーバコンピュータ100が逐次生成して各視聴者端末300に配信することで、該動作制限情報にもとづいて視聴者端末300が動作制限を実行するようにしてもよいし、これら動作制限情報を送信せずに、視聴者端末300において動作に応じた操作を一旦受付けておき、配信用サーバコンピュータ100において、該受付けた動作の有効・無効を判断するようにしてもよい。
These action restrictions on the viewer avatar by controlling the display of the action menu may be performed by executing an avatar action operation process on the
次に、上記のように、同調したケミライト動作を行うために、配信用サーバコンピュータ100から各視聴者端末300に送信される情報を図31と図33(A)に示す。具体的には、配信用サーバコンピュータ100からは、実施例1において説明した仮想空間更新データとともに、図33(A)に示すように、BPM(ビートパーミニッツ)情報、ケミライト動作情報、遅延動作情報が送信される。
Next, in order to perform synchronized chemi-lighting operations as described above, information transmitted from the
また、これらBPM情報、ケミライト動作情報、遅延動作情報に加えて、図31並びに図35に示すように、ケミライト動作を行っている各視聴者アバターが、各演目の開始時においてケミライトKを振り始めるタイミングを特定可能な振り始め情報が、各演目の開始から所定期間(視聴者アバターの動作を停止する期間)前のタイミングにおいて配信用サーバコンピュータ100から各視聴者端末300に送信されるようになっており、該振り始め情報によって特定されるタイミング(実施例3では演目の開始タイミングとほぼ同じタイミング)にもとづいてケミライト動作を行っている各視聴者アバターがケミライトKを振り始めることで、各視聴者アバターのケミライト動作が同調するようになる。
In addition to the BPM information, chemilight action information, and delayed action information, as shown in Figures 31 and 35, swing start information that can identify the timing at which each viewer avatar performing the chemilight action will start swinging the chemilight K at the start of each performance is transmitted from the
実施例3の振り始め情報は、該振り始め情報の受信タイミングから所定期間後のタイミングを指定する情報、つまり、所定期間の大きさを特定可能な情報とされており、該振り始め情報を受信した各視聴者端末300は、その受信タイミングからタイマカウントを開始してタイマアップしたタイミングによって所定期間後のタイミングであるケミライトKの振り始めのタイミング(演目の開始タイミング)を特定することができる。
The swing start information in Example 3 is information that specifies the timing a predetermined period after the timing of receiving the swing start information, that is, information that can identify the length of the predetermined period, and each
尚、実施例3においては、図31に示すように、演目の開始から所定期間前に振り始め情報が送信される以前の期間においては、視聴者Cアバターが実行している視聴者アバターの移動や、視聴者Aアバターや視聴者Bアバターが実行しているデフォルトの振り速度による非同調のケミライト動作が可能とされているが、振り始め情報の送信タイミングから該振り始め情報によって指定されたタイミングである同調したケミライト動作の開始タイミングである演目の開始タイミングまでの所定期間においては、視聴者アバターの動作が全て停止(禁止)されるようになっており、このようにすることで、各視聴者アバターが同調したケミライト動作を適切に開始できるようになるとともに、非同調のケミライト動作から、いきなり振り速度等が異なる同調したケミライト動作に移行することによる違和感が視聴者に生じてしまうことを回避できる。また、実施例3では、後述するBPM(ビートパーミニッツ)情報の配信が、楽曲に同調したケミライト動作が最初から適切に開始できるようにするために、演目の開始タイミングよりも所定期間前の振り始め情報の送信タイミングから事前に配信されるようになっているので、これらBPM情報が非同調のケミライト動作に誤って反映されてしまうことも防ぐことができる。 In Example 3, as shown in FIG. 31, during the period before the swing start information is transmitted a predetermined time before the start of the performance, the movement of the viewer avatar performed by the viewer C avatar and the asynchronous chemi-lighting action performed by the viewer A avatar and the viewer B avatar at the default swing speed are possible; however, during the predetermined period from the transmission of the swing start information to the start of the performance, which is the start timing of the synchronized chemi-lighting action specified by the swing start information, all actions of the viewer avatar are stopped (prohibited). This enables each viewer avatar to appropriately begin synchronized chemi-lighting action, and avoids the viewer feeling uncomfortable when suddenly transitioning from an asynchronous chemi-lighting action to a synchronized chemi-lighting action with a different swing speed, etc. In addition, in Example 3, the BPM (beats per minute) information described below is distributed in advance from the timing of sending the start of the dance information, which is a certain period before the start of the performance, so that chemi-light movements synchronized with the music can start properly from the beginning, and this BPM information can be prevented from being erroneously reflected in non-synchronized chemi-light movements.
BPM(ビートパーミニッツ)情報は、一分の間に含まれる楽曲のビート数を表したもので、テンポが速い楽曲の場合にはBPMの数値が多くなり、テンポが遅い楽曲の場合にはBPMの数値が少なくなる。BPM(ビートパーミニッツ)情報は、これらBPMの数値に対応してビートとビートとの間隔とビートのタイミングを特定可能なデータとして記述されており、ビートのタイミングをBPM基準タイミング(図33参照)として該BPM情報から特定するとともに、これらビートとビートとの間隔においてケミライトKを左右に振る1サイクルの動作が完了するように動作することにより、ケミライト動作の早さを各演目において上演されている楽曲の早さ(テンポ)に一致せることができるとともに、各視聴者アバターのケミライト動作の早さを同じ早さに合わせることができる。 BPM (beats per minute) information indicates the number of beats in a song that occurs within one minute; for songs with a fast tempo, the BPM value is high, and for songs with a slow tempo, the BPM value is low. The BPM (beats per minute) information is written as data that can identify the interval between beats and the timing of the beats corresponding to these BPM values, and by identifying the timing of the beats from the BPM information as the BPM reference timing (see Figure 33), and operating so that one cycle of swinging the Chemilight K back and forth is completed at the interval between these beats, the speed of the Chemilight movement can be matched to the speed (tempo) of the song being performed in each performance, and the speed of the Chemilight movement of each viewer avatar can be adjusted to the same speed.
実施例3では、BPM情報は、上記したように、演目の開始タイミングよりも所定期間前の振り始め情報が送信タイミングから事前に配信されるが、これら所定期間において配信されるBPM情報は、視聴者アバターの非同期のケミライト動作には反映されず、これら事前に送信されるBPM情報から特定されるビートやビート間の期間から、視聴者端末300は、演目の開始タイミングよりも前において、事前に、同調したケミライト動作の態様を特定することができるので、このように、同調したケミライト動作の態様を視聴者端末300が事前に特定するために使用されることで、これら同調したケミライト動作が、演目の開始タイミングから的確に実行されるようになる。
In Example 3, as described above, the BPM information is transmitted in advance from the transmission timing, with the start of the swing information being transmitted a predetermined period before the start of the performance, but the BPM information transmitted during this predetermined period is not reflected in the asynchronous chemi-light movements of the viewer avatar, and the
ケミライト動作情報は、仮想ライブに仮想参加している視聴者アバターのうち、ケミライト動作を行っている視聴者アバターを特定するための情報である。つまり、上記したように、ケミライトKを事前購入していない視聴者アバターはケミライト動作が可能とされていないとともに、ケミライトKを事前購入していてもケミライト動作をしていない視聴者アバターも存在するため、仮想ライブに仮想参加している全ての視聴者アバターについて、ケミライト動作をしているか否かが記述されたデータをケミライト動作情報として各視聴者端末300に送信することで、各視聴者端末300において視聴者アバター視点映像や仮想カメラ視点映像を生成する際に、該ケミライト動作情報にもとづいてケミライト動作の実行の有無が各視聴者アバターについて特定されて視聴者アバターの動作に反映されるようになっている。
The chemilight action information is information for identifying viewer avatars that are performing the chemilight action among the viewer avatars virtually participating in the virtual live. In other words, as described above, viewer avatars that have not purchased chemilight K in advance are not capable of performing the chemilight action, and there are also viewer avatars that have purchased chemilight K in advance but are not performing the chemilight action. Therefore, for all viewer avatars virtually participating in the virtual live, data describing whether or not they are performing the chemilight action is transmitted to each
遅延動作情報は、ケミライト動作をしている視聴者アバターについて、図33(B)に示す遅延A、遅延Bの動作を行う視聴者アバターを特定可能とするための情報であって、ケミライト動作をしている全ての視聴者アバター(視聴者ユーザー)について、遅延なしのグループに属するか、遅延Aのグループに属するか、遅延Bのグループに属するかが記述されたデータとされている。 The delayed action information is information for identifying viewer avatars performing the chem-light action that perform the delayed A or delayed B action shown in FIG. 33 (B), and is data describing whether all viewer avatars (viewer users) performing the chem-light action belong to the no-delay group, the delayed A group, or the delayed B group.
つまり、遅延動作情報によって「遅延なし」のグループに属することが特定される視聴者アバター(視聴者ユーザー)については、例えば、図33(B)において視聴者アバター13が行うケミライト動作のように、BPM情報によって特定されるビートタイミングに対応したBPM基準タイミングから遅れ(ズレ)ることなく1サイクル(ケミライトKを左右に1回振る動作サイクル)のケミライト動作を開始する。
In other words, for a viewer avatar (viewer user) that is identified as belonging to the "no delay" group by the delay action information, for example, the chemilight action performed by
また、遅延動作情報によって「遅延A」のグループに属することが特定される視聴者アバター(視聴者ユーザー)については、例えば、図33(B)において視聴者アバター12が行うケミライト動作のように、BPM情報によって特定されるビートタイミングに対応したBPM基準タイミングから0.1秒だけ遅れたタイミングで1サイクル(左右に振る動作サイクル)のケミライト動作を開始する。
Furthermore, for viewer avatars (viewer users) identified by the delay action information as belonging to the "Delay A" group, the viewer avatars will begin one cycle of chemilight action (a swinging action cycle from side to side) at a timing delayed by 0.1 seconds from the BPM reference timing corresponding to the beat timing identified by the BPM information, such as the chemilight action performed by
また、遅延動作情報によって「遅延B」のグループに属することが特定される視聴者アバター(視聴者ユーザー)については、例えば、図33(B)において視聴者アバター11が行うケミライト動作のように、BPM情報によって特定されるビートタイミングに対応したBPM基準タイミングから0.2秒だけ遅れたタイミングで1サイクル(左右に振る動作サイクル)のケミライト動作を開始する。
Furthermore, for viewer avatars (viewer users) identified by the delay action information as belonging to the "Delay B" group, the viewer avatar will begin one cycle of chemilight action (a swinging action cycle from side to side) at a timing delayed by 0.2 seconds from the BPM reference timing corresponding to the beat timing identified by the BPM information, such as the chemilight action performed by
このような遅延動作情報を送信して、BPM基準タイミングから0.1秒、0.2秒だけ遅れ(ズレ)たケミライト動作を視聴者アバター12、視聴者アバター11に行わせるようにする理由としては、例えば、振り始め情報とBPM情報とにもとづいて、視聴者アバターが行う全てのケミライト動作が完全に一致(同期)してしまうと、ケミライト動作が現実離れした動作となってしまうことで、仮想ライブの現実性が大きく低下してしまう畏れがあるため、視聴者アバターが行うケミライト動作の現実性を高めるために、一部の視聴者アバターについては、敢えてケミライト動作のタイミングを、同調を外れない所定範囲の秒数である0.2秒の範囲でずらすようにしている。
The reason for transmitting such delayed action information to have
尚、実施例3では、ズレを生成する形態として、ズレのタイミングを視聴者端末300においてBPM情報から特定し易いことからBPM基準タイミングから遅延させた形態を例示しているが、本発明はこれに限定されるものではなく、例えば、遅延Bのグループのタイミングを、遅延ではなく、BPM基準タイミングの0.1秒前のタイミングとして、BPM基準タイミングからの差をより小さくするようにしてもよい。
In the third embodiment, the timing of the shift is delayed from the BPM reference timing because it is easy to identify the timing of the shift from the BPM information on the
また、実施例3では、ズレの最大値を、同調を外れない所定範囲である0.2秒とした形態を例示しているが、本発明はこれに限定されるものではなく、これらズレの最大値は、視聴者が同調していないと感じることがない適宜な期間とすればよく、一定の秒数に限られない。つまり、早いテンポの楽曲であれば、ズレの最大値は少ない秒数となり、遅いテンポの楽曲であれば、ズレの最大値は大きな秒数となるように、可変の秒数であってもよく、このような場合には、例えば、楽曲のテンポ(BPM)の逆数に所定の割合(例えば10%)を乗じて得られる数値に対応した秒数としてもよい。 In addition, in Example 3, the maximum deviation is set to 0.2 seconds, which is a predetermined range that does not cause out-of-sync, but the present invention is not limited to this, and these maximum deviations can be any appropriate period that does not make the listener feel out of sync, and are not limited to a fixed number of seconds. In other words, the maximum deviation can be a variable number of seconds, so that if the music has a fast tempo, the maximum deviation will be a small number of seconds, and if the music has a slow tempo, the maximum deviation will be a large number of seconds. In such a case, for example, the number of seconds can be set to a number corresponding to a value obtained by multiplying the inverse of the tempo (BPM) of the music by a predetermined percentage (e.g., 10%).
また、実施例3では、ケミライト動作情報と遅延動作情報を個別の情報(データ)とした形態を例示しているが、本発明はこれに限定されるものではなく、これらを1つのデータとしてもよい。 In addition, in Example 3, an example is given in which the chemilight operation information and the delay operation information are treated as separate pieces of information (data), but the present invention is not limited to this, and these may be treated as a single piece of data.
また、実施例3では、ズレのタイミングを0.1秒後と0.2秒後の2つとすることで、よりケミライト動作の現実性を向上できるようにしているが、本発明はこれに限定されるものではなく、これらズレのタイミングを1つだけに簡素化してもよいし、逆に、3以上として更に現実性を向上できるようにしてしてもよい。 In addition, in Example 3, the timing of the shift is set to two, 0.1 seconds and 0.2 seconds, to further improve the realism of the chemilight operation, but the present invention is not limited to this, and the timing of the shift may be simplified to just one, or conversely, may be set to three or more to further improve the realism.
また、実施例3では、各演目においてズレのタイミング数を同一としているが、本発明はこれに限定されるものではなく、例えば、テンポが非常に速い楽曲の演目については、ズレのタイミング数を少なくまたは「無し」とし、テンポが遅い楽曲の演目については、ズレのタイミング数を多くする等のように、演目に応じてズレのタイミング数を変更するようにしてもよい。 In addition, in Example 3, the number of timing deviations is the same for each piece, but the present invention is not limited to this. For example, the number of timing deviations may be reduced or "none" for a piece of music with a very fast tempo, and the number of timing deviations may be increased for a piece of music with a slow tempo. In this way, the number of timing deviations may be changed depending on the piece.
次に、実施例3の配信用サーバコンピュータ100において使用される参加者ユーザーテーブルを図34(A)に示す。実施例3の参加者ユーザーテーブルは、実施例2の参加者ユーザーテーブルと同様に、参加者ID(視聴者ユーザーID)に対応付けて、当該参加者(視聴者ユーザー)の参加状態を特定可能な参加識別データ(参加識別フラグ)と、当該参加者(視聴者ユーザー)の参加エリアと、参加者(視聴者ユーザー)の視聴者アバターがその時点において存在している仮想ライブ会場における位置を特定可能な参加者座標と、仮想アイテムであるケミライトKの購入の有無を特定可能なケミライトアイテム購入のデータと、ケミライト動作中であるか否かを特定可能なケミライト動作ステータスのデータと、ケミライト動作のデフォルト速度の種類を特定可能なデフォルト速度のデータと、上述した「遅延なし」、「遅延A」、「遅延B」のいずれのグループに属しているのかを特定可能な遅延種別のデータ等が記憶可能なテーブルである。
Next, FIG. 34(A) shows a participant user table used in the
参加者IDの項目には、イベントデータにおいて、当該仮想ライブに対応して記憶されている各参加者グループのファイルに記述されている参加予定者の視聴者ユーザーIDが全て登録される。また、参加識別データ(参加識別フラグ)は、参加者ID(視聴者ユーザーID)の登録時において、非参加状態に対応する「0」が登録されており、各参加者(視聴者ユーザー)の参加が認証によって許可されたときに、参加を示す「1」に更新される。よって、図34(A)に示す例において、参加識別データ(参加識別フラグ)が「0」となっている「MID-00007」の視聴者ユーザーは、何らかの理由で仮想ライブに参加していないことを特定することができる。 The participant ID field registers all viewer user IDs of prospective participants described in the files of each participant group stored in the event data corresponding to the virtual live. In addition, the participation identification data (participation identification flag) is registered as "0", corresponding to a non-participating state, when the participant ID (viewer user ID) is registered, and is updated to "1", indicating participation, when the participation of each participant (viewer user) is permitted by authentication. Therefore, in the example shown in Figure 34 (A), it is possible to identify that viewer user "MID-00007", whose participation identification data (participation identification flag) is "0", is not participating in the virtual live for some reason.
参加エリアのデータは、各参加者(視聴者ユーザー)の参加エリアが、第3領域であるのか、第4領域であるのかを特定可能なデータとされており、各参加者(視聴者ユーザー)の参加が認証によって許可されたときに、登録されるデータである。参加者座標のデータは、仮想空間更新処理において逐次更新されるデータであって、個々の参加者(視聴者ユーザー)の視聴者アバターが仮想ライブ会場内において位置している場所の座標データである。よって、該座標データから、個々の視聴者アバターがその時点において存在している仮想ライブ会場内の位置を簡便に特定することができる。 The participation area data is data that can identify whether the participation area of each participant (viewer user) is the third area or the fourth area, and is registered when the participation of each participant (viewer user) is permitted by authentication. The participant coordinate data is data that is updated sequentially in the virtual space update process, and is coordinate data of the location where the viewer avatar of each participant (viewer user) is located within the virtual live venue. Therefore, from the coordinate data, the location within the virtual live venue where each viewer avatar is located at that time can be easily identified.
ケミライトアイテム購入のデータは、購入に応じて購入済みであることを示す「1」に、未購入を示す「0」からデータが更新される。よって、上述したように、ケミライトアイテム購入のデータが「1」の視聴者ユーザーの視聴者アバターだけが、ケミライト動作を行うことができ、これらケミライト動作の実行に対応した操作が実行されることに応じて、該操作の有効・無効が、ケミライトアイテム購入のデータにもとづいて配信用サーバコンピュータ100において判定される。
The chemilite item purchase data is updated from "0" indicating that the item has not been purchased to "1" indicating that the item has been purchased in response to the purchase. Therefore, as described above, only the viewer avatar of a viewer user whose chemilite item purchase data is "1" can perform chemilite actions, and as operations corresponding to the execution of these chemilite actions are performed, the validity or invalidity of the operation is determined in the
ケミライト動作ステータスのデータは、各参加者(視聴者ユーザー)の視聴者アバターがケミライト動作を実行しているか否かを特定可能なデータであって、ケミライト動作の実行に対応する操作が視聴者端末300において実行され、該操作が有効と判断されたときに、非実効を示す「0」から「1」に更新されるとともに、ケミライト動作の非実行(終了)に対応する操作が視聴者端末300において実行されたことに応じて、実行を示す「1」から非実効を示す「0」に更新される。
The chemilite action status data is data that can identify whether or not the viewer avatar of each participant (viewer user) is performing a chemilite action, and when an operation corresponding to the execution of a chemilite action is executed on the
デフォルト振り速度のデータは、非同調のケミライト動作を行う場合においてケミライトKを振る速度を特定可能なデータであって、例えば、第1演目の開始前等の期間においてケミライト動作の実行操作をした場合において、視聴者ユーザーが選択した速度に対応したデータである。具体的には、実施例3においては、これらデフォルト速度として、低速である速度1(P1)から高速である速度5(P5)までの5段階の速度を視聴者ユーザーが選択することができ、これら視聴者ユーザーによって視聴者端末300において選択されたデフォルト速度の情報が、配信用サーバコンピュータ100に通知されて登録される。
The default swing speed data is data that can specify the speed at which the chemilite K is swung when performing an asynchronous chemilite action, and corresponds to the speed selected by the viewer user when performing the chemilite action during a period such as before the start of the first performance. Specifically, in Example 3, the viewer user can select from five default speeds ranging from a low speed 1 (P1) to a high speed 5 (P5), and information on the default speeds selected by the viewer user on the
よって、非同調のケミライト動作が可能な期間において視聴者アバターがケミライトKを振る場合の速度は、該視聴者アバターが対応する視聴者ユーザーの視聴者ユーザーIDに対応付けられているデフォルト速度のデータにもとづいた速度とされる。 Therefore, the speed at which the viewer avatar swings the chemilight K during a period when asynchronous chemilight operation is possible is based on the default speed data associated with the viewer user ID of the viewer user to which the viewer avatar corresponds.
遅延種別のデータは、各視聴者ユーザーの視聴者アバターが、上述した「遅延なし」、「遅延A」、「遅延B」のいずれのグループに属しているのかを特定可能なデータであって、「遅延なし」に属する場合には「N」が登録され、「遅延A」に属する場合には「A」が登録され、「遅延B」に属する場合には「B」が登録される。 The delay type data is data that identifies which group each viewer user's viewer avatar belongs to, the "no delay", "delay A", or "delay B" group described above. If it belongs to "no delay", "N" is registered, if it belongs to "delay A", "A" is registered, and if it belongs to "delay B", "B" is registered.
ここで、視聴者アバターが「遅延なし」、「遅延A」、「遅延B」のいずれのグループに決定される流れについて、図31、図37を用いて説明する。 Here, we will explain the process by which a viewer avatar is assigned to either the "No Delay", "Delay A", or "Delay B" group using Figures 31 and 37.
これら「遅延なし」、「遅延A」、「遅延B」のグループ割は、図37(A)に示す遅延動作者決定処理が配信用サーバコンピュータ100において実行されることにより行われる。
These groupings of "No Delay", "Delay A", and "Delay B" are performed by the
尚、配信用サーバコンピュータ100において遅延動作者決定処理が実行されるタイミングは、1回だけではなく、図31に示すように、各演目が開始される直前の複数のタイミングにおいて実行される。よって、実施例3では、各演目ことに「遅延なし」、「遅延A」、「遅延B」に属する視聴者アバターが変化する。
The timing at which the delay performer determination process is executed in the
このように、各演目が開始される直前のタイミングで実行される遅延動作者決定処理においては、まず、図37(A)に示すように、ケミライト動作を実行している視聴者アバターを全て特定する(ステップS201)。具体的には、図34(A)に示す参加者ユーザーテーブルにおいて、その時点においてケミライト動作ステータスのデータとして「1」が登録されている参加者ID(視聴者ユーザーID)を全て特定すればよい。 In this way, in the delayed performer determination process that is executed immediately before the start of each performance, first, as shown in FIG. 37(A), all viewer avatars that are performing the chem-lighting action are identified (step S201). Specifically, it is sufficient to identify all participant IDs (viewer user IDs) that have "1" registered as the chem-lighting action status data at that time in the participant user table shown in FIG. 34(A).
そして、特定したケミライト動作を実行している視聴者アバターから、「遅延A」のケミライト動作を行う視聴者アバターと、「遅延B」のケミライト動作を行う視聴者アバターとを、図37(B)示す決定用テーブルの決定割合にて選出する(ステップS202)。 Then, from the viewer avatars performing the identified chemilighting actions, a viewer avatar performing a "delay A" chemilighting action and a viewer avatar performing a "delay B" chemilighting action are selected based on the determination ratio in the determination table shown in FIG. 37 (B) (step S202).
実施例3における決定割合は、図37(B)に示されるように、「遅延A」のケミライト動作を行う視聴者アバターを、ケミライト動作を行う視聴者アバター全体の20%、「遅延B」のケミライト動作を行う視聴者アバターを、ケミライト動作を行う視聴者アバター全体の10%とする形態を例示している。このように、ズレが大きくなる程、決定割合を少なくすることで、ズレの状態がより現実に違いズレとなることから好ましいが、これらの決定割合は、適宜に決定すればよい。但し、「遅延A」と「遅延B」とを合計した割合は、50%を超えないようにすることが好ましい。 As shown in FIG. 37(B), the determination ratios in Example 3 are exemplified as follows: viewer avatars performing the "Delay A" chemilight action make up 20% of all viewer avatars performing the chemilight action, and viewer avatars performing the "Delay B" chemilight action make up 10% of all viewer avatars performing the chemilight action. In this way, the larger the deviation, the lower the determination ratio, which is preferable because it makes the deviation more realistic; however, these determination ratios may be determined as appropriate. However, it is preferable that the combined ratio of "Delay A" and "Delay B" does not exceed 50%.
尚、実施例3では、これら決定割合を1つとした形態を例示しているが、本発明はこれに限定されるものではなく、例えば、決定割合が異なる決定用テーブルを複数設けておき、演目の楽曲に応じて、使用する決定用テーブルを変更することで、決定割合を変えるようにしてもよい。 Note that in Example 3, an example is shown in which the determination ratio is one, but the present invention is not limited to this. For example, multiple determination tables with different determination ratios may be provided, and the determination ratio may be changed by changing the determination table to be used depending on the music in the program.
これら選出の具体的な方法は限定されないが、例えば、ステップS201において特定したケミライト動作を実行している視聴者アバターの総数Mに、「遅延B」に対応する決定割合である10%を乗じた決定数1と、「遅延B」に対応する決定割合である20%を乗じた決定数2とを算出し、ステップS201において特定したケミライト動作を実行している視聴者アバターから、決定数1に達するまで抽選を実施して「遅延B」のケミライト動作を行う視聴者アバターを決定し、未決定の視聴者アバターから決定数2に達するまで抽選を実施して「遅延A」のケミライト動作を行う視聴者アバターを決定し、残りの視聴者アバターを「遅延なし」のケミライト動作を行う視聴者アバターとして決定すればよい。
The specific method of selection is not limited, but for example, a
そして、参加者ユーザーテーブルの遅延動作種別のデータを、上記した決定結果にもとづいて更新する(ステップS203)。 Then, the delay action type data in the participant user table is updated based on the above-mentioned determination result (step S203).
そして、更新後の遅延動作種別のデータにもとづいて新たな遅延動作情報を生成して各視聴者端末300に配信する(ステップS204)。 Then, new delay operation information is generated based on the updated delay operation type data and distributed to each viewer terminal 300 (step S204).
次に、実施例3の配信用サーバコンピュータ100において使用される楽曲リストデータを図34(B)に示す。尚、楽曲リストデータは1つのファイルデータとして配信用サーバコンピュータ100に記憶されている。
Next, FIG. 34(B) shows the song list data used in the
楽曲リストデータは、図34(B)に示すように、演目種別に対応付けて「楽曲名」、「楽曲ID」、「BPM」等の情報が記憶されており、演目種別の情報にもとづいて、各演目においてどの楽曲が使用されるのかを特定可能とされている。 As shown in FIG. 34(B), the song list data stores information such as "song name," "song ID," and "BPM" in association with the type of performance, and it is possible to identify which songs will be used in each performance based on the information on the type of performance.
つまり、図34(B)に示す例においては、第1演目においては、楽曲ID「GK-XXXX」の楽曲が上演され、第2演目においては、楽曲ID「GK-YYYY」の楽曲が上演され、第3演目においては、楽曲ID「GK-ZZZZ」の楽曲が上演されることが特定できる。 In other words, in the example shown in FIG. 34(B), it can be determined that the song with song ID "GK-XXXX" will be performed in the first performance, the song with song ID "GK-YYYY" will be performed in the second performance, and the song with song ID "GK-ZZZZ" will be performed in the third performance.
また、BPMのデータから、第1演目において上演される楽曲は、1分間に82ビートと、比較的テンポが遅い楽曲であり、第2目において上演される楽曲は、1分間に123ビートと比較的テンポが早い楽曲であり、第3目において上演される楽曲は、1分間に136ビートと、更に早いテンポの楽曲であることが解る。尚、図34(B)では、BPMのデータを整数の数値としているが、本発明はこれに限定されるものではなく、これらの値を小数点以下の値を含む数値としてもよい。 It can also be seen from the BPM data that the music performed in the first performance has a relatively slow tempo of 82 beats per minute, the music performed in the second performance has a relatively fast tempo of 123 beats per minute, and the music performed in the third performance has an even faster tempo of 136 beats per minute. Note that while the BPM data in Figure 34(B) is expressed as integer numerical values, the present invention is not limited to this, and these values may be numerical values including decimal points.
よって、図35に示すように、第1演目においては、楽曲ID「GK-XXXX」のBPMである1分間に82ビートに対応したBPM情報が第1演目対応BPM情報として各視聴者端末300に配信され、第2演目においては、楽曲ID「GK-YYYY」のBPMである1分間に123ビートに対応したBPM情報が第2演目対応BPM情報として各視聴者端末300に配信され、第3演目においては、楽曲ID「GK-ZZZZ」のBPMである1分間に136ビートに対応したBPM情報が第3演目対応BPM情報として各視聴者端末300に配信される。つまり、各演目においては、上演される楽曲に対応した異なるBPM情報が配信される。
Therefore, as shown in FIG. 35, in the first performance, BPM information corresponding to 82 beats per minute, which is the BPM of the song ID "GK-XXXX", is distributed to each
尚、これら第1演目対応BPM情報、第2演目対応BPM情報、第3演目対応BPM情報は、いずれも、図35に示すように、第1演目、第2演目、第3演目の開始タイミングの所定期間前の振り始め情報の送信タイミングから配信が開始されるが、該所定期間は、視聴者アバターの動作が停止される視聴者アバター動作停止期間Tとされることによって視聴者アバターの動作であるケミライト動作に反映されることはない。 As shown in FIG. 35, the BPM information for the first performance, the BPM information for the second performance, and the BPM information for the third performance all begin to be distributed from the timing of sending the swing start information a predetermined period before the start of the first performance, the second performance, and the third performance, but this predetermined period is treated as a viewer avatar motion stop period T during which the motion of the viewer avatar is stopped, and is therefore not reflected in the chemilight motion, which is the motion of the viewer avatar.
ここで、実施例3において視聴者ユーザーが仮想ライブ会場に仮想参加する際の流れについて、図36を用いて説明する。 Here, the flow when a viewer user virtually participates in a virtual live venue in Example 3 will be explained with reference to FIG. 36.
まず、視聴者ユーザーは、視聴者端末300にて実行している視聴者用プログラム(視聴アプリ)において、自分が仮想参加を予定している仮想ライブへの参加操作、例えば、参加メニューの選択やキーボードにおいて参加操作が割り当てられている特定キーの操作を実行する。
First, the viewer user performs an operation to join the virtual live show that he or she plans to virtually participate in, for example, by selecting a participation menu or operating a specific key on the keyboard to which the participation operation is assigned, in the viewer program (viewing application) running on the
この参加操作の実行によって、視聴者端末300から配信用サーバコンピュータ100に対して、視聴者ユーザーIDや当該視聴者ユーザーを認証するための認証用データを含む参加要求が送信される。
By executing this participation operation, a participation request including the viewer user ID and authentication data for authenticating the viewer user is sent from the
参加要求を受信した配信用サーバコンピュータ100においては、ライブ仮想空間参加可能期間であることを条件に、参加者認証処理を実行する。参加者認証処理では、受信した参加要求に含まれる視聴者ユーザーIDが、参加対象の仮想ライブに対応している参加者ユーザーデータベースに、参加者IDとして登録されているか否かによって、当該視聴者ユーザーが該当する仮想ライブの参加予定者であるのか否かを判定するとともに、図9に示す視聴者ユーザーデータにおいて、当該視聴者ユーザーIDに対応付けて記憶されている認証情報ファイルデータから特定される認証情報ファイルに記述された認証用データと、参加要求に含まれる認証用データとを照合することで視聴者ユーザーの認証を行う。
The
視聴者ユーザーが参加予定者であって、認証用データによる認証が完了した場合には、参加者ユーザーテーブルの参加識別データ(参加識別フラグ)を、「参加」に対応する「1」に更新したのち、配信用サーバコンピュータ100は、参加要求の送信元の視聴者端末300に対して、参加完了情報を返信する。このようにして返信された参加完了情報の受信に応じて視聴者端末300においては、仮想参加が完了したことを示すメッセージが表示されることで、仮想参加が完了したことが報知される。これにより、視聴者ユーザーは、例えば、仮想参加が完了した仮想ライブにおいて購入可能な仮想アイテム(ケミライトKを含む)の購入等が可能となる。
If the viewer user is a prospective participant and authentication using the authentication data is complete, the participation identification data (participation identification flag) in the participant user table is updated to "1" corresponding to "participation", and the
配信用サーバコンピュータ100は、参加完了通知処理に次いで、事前データ送信処理を実行することで、事前データを新たに仮想参加した視聴者ユーザーの視聴者端末300に送信する。このようにして送信された事前データを受信した視聴者端末300は、受信した事前データを記憶し、その後、該記憶した事前データにもとづいて視聴者視点映像を生成して表示(出力)を開始する。これにより、視聴者ユーザーは、仮想参加した自身の視聴者アバターから見た仮想ライブ会場の映像を見ることがきる。
Following the participation completion notification process, the
次に、仮想参加後における配信用サーバコンピュータ100と視聴者端末300との間の情報の流れについて、図38を用いて説明する。
Next, the flow of information between the
尚、図38において、配信用サーバコンピュータ100における仮想空間更新処理までの流れについては、実施例1と同様であるので、ここでの説明を省略する。但し、視聴者端末300におけるアバター動作操作処理における操作には、ケミライト動作に係わる操作が含まれる。
In FIG. 38, the flow up to the virtual space update process in the
配信用サーバコンピュータ100においては、仮想空間更新処理の後に参加者ユーザーテーブル更新処理が実行されることで、参加者ユーザーテーブル、具体的には、例えば、参加者座標のデータ、ケミライト動作ステータスのデータ、デフォルト振り速度のデータ等が更新される場合がある。
In the
そして、配信用サーバコンピュータ100においては、BPM情報の送信期間中であるか否かが判定される。尚、BPM情報は後述するように、各演目期間の開始前においても配信(送信)される(図35参照)。
Then, the
BPM情報の送信期間中である場合には、ケミライト動作情報、BPM情報、遅延動作情報を、演者端末200並びに各視聴者端末300に対して配信(送信)する。このようにして配信されたケミライト動作情報、BPM情報、遅延動作情報は、演者端末200並びに各視聴者端末300において更新記憶される。
When it is the period for transmitting BPM information, the chemilight operation information, BPM information, and delayed operation information are distributed (transmitted) to the
尚、実施例3では、各演目期間中においても、視聴者端末300において新たにケミライト動作を視聴者アバターに実行させる操作が可能とされているが、これら各演目期間においては、図31に示すように、遅延操作者決定処理が実行されないため、該演目期間において新たにケミライト動作の実行操作を行った視聴者ユーザーに対しては、「遅延なし」が一義的に割り当てられ、これら新たにケミライト動作を行った視聴者ユーザーの情報が反映されたケミライト動作情報とともに、該視聴者ユーザーが「遅延なし」のグループに属していることを特定可能な遅延動作情報が、演者端末200および各視聴者端末300に対して送信される。但し、各演目期間中は、図31に示すように、配信用サーバコンピュータ100の処理負荷が相対的に高い状態であるので、上記したような処理を行うことに伴う処理負荷の増加によって配信用サーバコンピュータ100の処理負荷の更なる増大を防ぐために、視聴者端末300において新たにケミライト動作を視聴者アバターに実行させる操作を不能としてもよい。
In the third embodiment, even during each performance period, the
次いで、配信用サーバコンピュータ100においては、実施例1と同様に、仮想空間更新データ生成処理並びに仮想空間更新データ配信処理が実行されることで、仮想空間更新データが、演者端末200並びに各視聴者端末300に対して配信(送信)される。
Next, in the
このようにして配信(送信)された仮想空間更新データの受信に応じて各視聴者端末300においては、仮想空間更新処理が実行されることで、受信した仮想空間更新データの更新内容が各視聴者端末300において記憶されている仮想空間データに反映された後、図39(A)に示す視聴者視点映像生成処理1が実行される。
In response to receiving the virtual space update data distributed (transmitted) in this manner, each
図39(A)は、実施例3の視聴者端末300において実行される視聴者視点映像生成処理1の処理内容を示すフロー図であり、この視聴者視点映像生成処理1においては、まず、更新後の仮想空間データにもとづいて通常の視聴者視点映像を生成する処理を行う(ステップS300)。
Figure 39 (A) is a flow diagram showing the process of viewer's viewpoint
次ぎに、配信用サーバコンピュータ100から受信して更新記憶したケミライト動作情報と遅延動作情報とにもとづいて、ケミライト動作を実行中の視聴者アバターとその遅延種別とを全て特定する(ステップS301)。
Next, based on the chemi-lighting action information and delay action information received and updated from the
そして、ステップS301において特定した遅延種別と、受信したBPM情報とにもとづいた動作態様を、ケミライト動作を実行中の各視聴者アバターのケミライト動作に反映する(ステップS302)。 Then, the operation mode based on the delay type identified in step S301 and the received BPM information is reflected in the chem-lighting operation of each viewer avatar currently performing the chem-lighting operation (step S302).
このようにステップS302における反映によって、BPM情報にもとづいた同調したケミライト動作を行っている視聴者アバターを含む視聴者アバター視点映像を生成する(ステップS303)。 In this way, by reflecting the changes made in step S302, a viewer avatar viewpoint image is generated that includes a viewer avatar performing synchronized chemilighting actions based on the BPM information (step S303).
これら視聴者視点映像生成処理1にて生成された、各視聴者アバターのケミライト動作が同調している視聴者アバター視点映像は、視聴者視点映像出力処理によって各視聴者端末300において出力(表示)される。
The viewer avatar perspective images, in which the chemilight actions of each viewer avatar are synchronized, generated by viewer perspective
尚、BPM情報の配信期間中であっても、視聴者アバターの動作の停止期間である場合には、そもそも、振り始めタイミング前の期間であって視聴者アバターの動作が停止されることによって視聴者アバターがBPM情報の反映対象であるケミライト動作を行っていないので、視聴者視点映像は、動作を停止している視聴者アバターを含む視聴者アバター視点映像が生成されて表示されることになる。 Note that even if BPM information is being distributed, if the viewer avatar is not moving during this period, the viewer avatar's movement is stopped before the swing start timing, and the viewer avatar is not performing the chemilight movement that is the subject of the BPM information, so the viewer's viewpoint image will be generated and displayed as a viewer's avatar viewpoint image that includes the viewer avatar that is not moving.
一方、BPM情報の送信期間中でない場合には、ケミライト動作情報、デフォルト振り速度情報を演者端末200並びに各視聴者端末300に対して配信(送信)する。このようにして配信されたケミライト動作情報、デフォルト振り速度情報は、演者端末200並びに各視聴者端末300において更新記憶される。
On the other hand, when it is not the period for transmitting BPM information, the chemilight action information and default swing speed information are distributed (transmitted) to the
尚、デフォルト振り速度情報は、参加者ユーザーテーブルにおけるデフォルト振り速度のデータにもとづく情報であって、ケミライト動作を実行している各視聴者アバターについてデフォルト速度を特定可能なデータが含まれていることで、該デフォルト振り速度情報を受信した各視聴者端末300において、ケミライト動作を実行している全ての視聴者アバターについて、各々の視聴者アバターがケミライト動作においてケミライトKを振る速度(速度1~速度5)を特定できるようになっている。
The default swing speed information is based on the default swing speed data in the participant user table and includes data that can identify the default speed for each viewer avatar performing the chemi-lighting action. This allows each
また、デフォルト振り速度は、例えば各MC期間において視聴者ユーザーによって変更される場合があるが、これらの変更は、デフォルト振り速度情報が逐次配信されることによって他の視聴者ユーザーの視聴者端末において更新される。 In addition, the default swing speed may be changed by a viewer user during each MC period, for example, and these changes are updated on the viewer terminals of other viewer users by sequentially distributing the default swing speed information.
次いで、配信用サーバコンピュータ100においては、実施例1と同様に、仮想空間更新データ生成処理並びに仮想空間更新データ配信処理が実行されることで、仮想空間更新データが、演者端末200並びに各視聴者端末300に対して配信(送信)される。
Next, in the
このようにして配信(送信)された仮想空間更新データの受信に応じて各視聴者端末300においては、仮想空間更新処理が実行されることで、受信した仮想空間更新データの更新内容が各視聴者端末300において記憶されている仮想空間データに反映された後、図39(B)に示す視聴者視点映像生成処理2が実行される。
In response to receiving the virtual space update data distributed (transmitted) in this manner, each
図39(B)は、実施例3の視聴者端末300において実行される視聴者視点映像生成処理2の処理内容を示すフロー図であり、この視聴者視点映像生成処理2においては、まず、更新後の仮想空間データにもとづいて通常の視聴者視点映像を生成する処理を行う(ステップS400)。
Figure 39 (B) is a flow diagram showing the process of viewer's viewpoint
次ぎに、配信用サーバコンピュータ100から受信して更新記憶したケミライト動作情報とデフォルト振り速度情報とにもとづいて、ケミライト動作を実行中の視聴者アバターとそのデフォルト振り速度を全て特定する(ステップS401)。
Next, based on the chemi-lighting action information and default swing speed information received and updated from the
そして、ステップS401において特定したデフォルト振り速度にもとづいた動作態様を、ケミライト動作を実行中の各視聴者アバターのケミライト動作に反映する(ステップS402)。 Then, the motion mode based on the default swing speed identified in step S401 is reflected in the chemi-lighting motion of each viewer avatar currently performing the chemi-lighting motion (step S402).
このようにステップS402における反映によって、デフォルト振り速度情報により特定される各視聴者ユーザーによって固有に選択された振り速度によってケミライトKが振られる非同調のケミライト動作を行っている視聴者アバターを含む視聴者アバター視点映像を生成する(ステップS403)。 In this way, by reflecting the reflection in step S402, a viewer avatar viewpoint image is generated that includes a viewer avatar performing an asynchronous chemilighting action in which the chemilight K is swung at a swing speed uniquely selected by each viewer user as specified by the default swing speed information (step S403).
これら視聴者視点映像生成処理2にて生成された、各視聴者アバターのケミライト動作が同調していない視聴者アバター視点映像は、視聴者視点映像出力処理によって各視聴者端末300において出力(表示)される。
These viewer avatar perspective images, in which the chemilight actions of each viewer avatar are not synchronized, generated by viewer perspective
以上、実施例3の仮想空間コンテンツ配信システムでは、視聴者アバターは、コンテンツ関連動作であるケミライト動作を実行可能であり、複数の視聴者アバターがケミライト動作を実行するときに、各視聴者アバターのケミライト動作のタイミングを同調させるためのコンテンツ関連動作調整手段となる、配信用サーバコンピュータ100がケミライト動作情報、BPM情報、遅延動作情報を配信する処理や、視聴者端末300が、これらケミライト動作情報、BPM情報、遅延動作情報を受信して更新記憶して、該記憶した情報にもとづいて視聴者視点映像生成処理1を実行することにより、各視聴者アバターによるケミライト動作が同調するようになるので、仮想空間に参加している個々の視聴者ユーザーの興趣を高めることができる。
As described above, in the virtual space content distribution system of Example 3, the viewer avatar can perform a chemilight action, which is a content-related action, and when multiple viewer avatars perform chemilight actions, the
また、実施例3の仮想空間コンテンツ配信システムでは、ケミライト動作を実行する複数の視聴者アバターのうちの一部の視聴者アバターの動作タイミングを、同調させた同調タイミングから0.2秒の範囲内において異なっている非同調タイミングとなる「遅延A」や「遅延B」の動作態様に調整することが可能であるので、仮想ライブ空間でのケミライト動作の現実性が向上して、視聴者ユーザーの興趣をより一層高めることができる。 In addition, in the virtual space content distribution system of Example 3, it is possible to adjust the operation timing of some of the viewer avatars among multiple viewer avatars performing chemilight operations to "delay A" or "delay B" operation modes, which are non-synchronized timings that differ within a range of 0.2 seconds from the synchronized synchronization timing, thereby improving the realism of the chemilight operations in the virtual live space and further increasing the interest of the viewer user.
また、実施例3の仮想空間コンテンツ配信システムでは、実施例1と同様に、視聴者端末300において、同調したケミライト動作を行う視聴者アバターの映像を含む視聴者アバター視点映像を生成して表示することができるので、より多くの視聴者ユーザーを仮想ライブに参加させることができるとともに、このような視聴者ユーザーをより多く参加させた場合にあっても、仮想ライブ空間に参加している個々の視聴者ユーザーの興趣を高めることができる。
Furthermore, in the virtual space content distribution system of Example 3, as in Example 1, a viewer avatar viewpoint image including an image of a viewer avatar performing synchronized chemilight actions can be generated and displayed on the
また、実施例3の仮想空間コンテンツ配信システムでは、仮想空間コンテンツとして仮想ライブ空間に仮想参加可能な演者アバターにより上演される楽曲の歌唱やダンス等の上演コンテンツを含み、ケミライト動作を同調させるための情報であるBPM情報は、上演コンテンツである楽曲のテンポに対応した情報であるので、演者アバターにより上演される楽曲にケミライト動作を同調させることができるので、仮想空間コンテンツの興趣をより一層向上できる。 In addition, in the virtual space content distribution system of Example 3, the virtual space content includes performance content such as singing and dancing to music performed by performer avatars who can virtually participate in the virtual live space, and the BPM information, which is information for synchronizing the chemilight movements, is information corresponding to the tempo of the music, which is the performance content, so that the chemilight movements can be synchronized to the music performed by the performer avatars, thereby further increasing the interest of the virtual space content.
また、実施例3の仮想空間コンテンツ配信システムでは、配信用サーバコンピュータ100から、動作同調情報として楽曲のテンポに対応したBPM情報と、ケミライト動作の開始時期を特定可能な開始情報となる振り始め情報とを含むので、ケミライト動作を楽曲のテンポに対応させることができる。
In addition, in the virtual space content distribution system of Example 3, the
また、実施例3の仮想空間コンテンツ配信システムでは、図35に示すように、第1上演コンテンツである第1演目の楽曲が進行しているときには、第1演目の楽曲のテンポ(BPM)に対応した第1演目対応BPM情報が配信用サーバコンピュータ100から配信され、第2上演コンテンツである第2演目の楽曲が進行しているときには、第2演目の楽曲のテンポ(BPM)に対応した第2演目対応BPM情報が配信用サーバコンピュータ100から配信されるので、上演コンテンツである楽曲のテンポの違いに対応した異なる振り早さのケミライト動作を行うことができる。
In addition, in the virtual space content distribution system of Example 3, as shown in FIG. 35, when the music of the first performance, which is the first performance content, is progressing, first performance-specific BPM information corresponding to the tempo (BPM) of the music of the first performance is distributed from the
また、実施例3の仮想空間コンテンツ配信システムでは、BPM情報や振り始め情報が、各演目期間において楽曲が開始される所定期間前に配信用サーバコンピュータ100から事前に配信されるので、楽曲の開始時において、ケミライト動作が同調しない状態が発生してしまうことを防ぐことができる。 In addition, in the virtual space content distribution system of Example 3, BPM information and start of dance information are distributed in advance from the distribution server computer 100 a predetermined period before the start of a song during each performance period, so that it is possible to prevent the chemilight operation from becoming out of sync at the start of a song.
また、実施例3の仮想空間コンテンツ配信システムでは、視聴者端末300は、楽曲が開始される前に送信されるBPM情報については、視聴者アバターのケミライト動作に反映しないので、楽曲開始前のケミライト動作が不自然となってしまうことによる仮想空間コンテンツの興趣低下を防ぐことができる。
In addition, in the virtual space content distribution system of Example 3, the
また、実施例3の仮想空間コンテンツ配信システムでは、ケミライト動作を行っている視聴者アバターのうち、20%の割合の視聴者アバターについては、ケミライト動作の開始タイミングを、BPM基準タイミングから0.1秒だけ遅れた第1非同調タイミングとする「遅延A」のグループに決定可能であるとともに、10%の割合の視聴者アバターについては、ケミライト動作の開始タイミングを、BPM基準タイミングから0.2秒だけ遅れた第2非同調タイミングとする「遅延B」のグループに決定可能であり、このように、遅延の態様が複数となることで、より一層、ケミライト動作の現実性を向上できる。 Furthermore, in the virtual space content delivery system of Example 3, of the viewer avatars performing the chemilighting action, 20% of the viewer avatars can be determined to be in the "Delay A" group, in which the start timing of the chemilighting action is the first non-synchronized timing delayed by 0.1 seconds from the BPM reference timing, and 10% of the viewer avatars can be determined to be in the "Delay B" group, in which the start timing of the chemilighting action is the second non-synchronized timing delayed by 0.2 seconds from the BPM reference timing. In this way, by providing multiple delay modes, the realism of the chemilighting action can be further improved.
また、実施例3の仮想空間コンテンツ配信システムでは、仮想空間コンテンツである仮想ライブの主コンテンツ(第1コンテンツ)である歌唱とダンスとを伴う楽曲が上演される上演コンテンツと、上演コンテンツとは異なる非上演コンテンツであるMC(トーク)のコンテンツとを含み、視聴者アバターは、上演コンテンツが配信されている各演目期間においては上演コンテンツにおいて上演される楽曲に対応したケミライト動作を実行可能である一方、MC(トーク)が配信されているMC期間においては、MC期間におけるトークに対応しない移動動作を実行可能であり、このようにすることで、視聴者アバターによる動作が、上演コンテンツの配信時においては楽曲に同調したケミライト動作に調整される一方、各MC期間におけるトークのコンテンツの配信時においてはトークに対応しない移動動作が可能とされるので、仮想ライブ空間に参加している個々の視聴者ユーザーの興趣を高めることができる。 In addition, the virtual space content distribution system of Example 3 includes performance content in which a song accompanied by singing and dancing is performed as the main content (first content) of the virtual live, which is the virtual space content, and MC (talk) content, which is non-performance content different from the performance content, and the viewer avatar can perform chemi-lighting actions corresponding to the song performed in the performance content during each performance period in which the performance content is distributed, while during the MC period in which the MC (talk) is distributed, the viewer avatar can perform movement actions that do not correspond to the talk during the MC period. In this way, the actions of the viewer avatar are adjusted to chemi-lighting actions in sync with the song when the performance content is distributed, while movement actions that do not correspond to the talk are possible when the talk content is distributed during each MC period, thereby increasing the interest of each viewer user participating in the virtual live space.
また、実施例3の仮想空間コンテンツ配信システムでは、主コンテンツ(第1コンテンツ)が、仮想ライブ空間に仮想参加可能な演者アバター1により上演される上演コンテンツであって、演者アバター1により上演される楽曲の歌唱やダンスが含まれているので、視聴者アバターのケミライト動作が上演コンテンツである楽曲やダンスに対応した動作に調整されるので、仮想空間コンテンツの興趣をより一層向上できる。
In addition, in the virtual space content distribution system of Example 3, the main content (first content) is performance content performed by
また、実施例3の仮想空間コンテンツ配信システムでは、MC(トーク)が配信されている各MC期間において配信されるコンテンツは、演者アバター1によって楽曲が上演される上演コンテンツを含まれていないので、上演コンテンツに対応しない移動動作が上演コンテンツの配信中である演目期間中に実行されてしまうことを適切に防ぐことができる。
In addition, in the virtual space content distribution system of Example 3, the content distributed during each MC period when MC (talk) is distributed does not include performance content in which a musical piece is performed by
また、実施例3の仮想空間コンテンツ配信システムでは、上演コンテンツは、第1期間となる第1演目期間において配信される楽曲ID「GK-XXXX」の楽曲(第1期間コンテンツ)と、第1期間とは異なる第2期間となる第2演目期間において配信される楽曲ID「GK-YYYY」の楽曲(第2期間コンテンツ)と、を含み、視聴者アバターのケミライト動作を同調させるための動作情報となるBPM情報としては、第1期間においては第1演目対応BPM情報が送信され、第2期間においては、第1演目対応BPM情報とは異なるテンポを特定可能な第2演目対応BPM情報が送信されるので、異なる期間に配信される各上演コンテンツである楽曲のテンポの違いに対応したケミライト動作に調整することができる。 In addition, in the virtual space content distribution system of Example 3, the performance content includes a song with a song ID of "GK-XXXX" (first period content) that is distributed during a first performance period that is a first period, and a song with a song ID of "GK-YYYY" (second period content) that is distributed during a second performance period that is a second period different from the first period, and as BPM information that serves as the operation information for synchronizing the chemi-light operation of the viewer avatar, BPM information corresponding to the first performance is transmitted during the first period, and BPM information corresponding to the second performance that can specify a tempo different from the BPM information corresponding to the first performance is transmitted during the second period, so that the chemi-light operation can be adjusted to correspond to the difference in tempo of the songs that are the performance contents distributed during different periods.
また、実施例3の仮想空間コンテンツ配信システムは、仮想空間コンテンツとして、仮想ライブ空間に仮想参加する演者アバター1が楽曲を上演することで主コンテンツとなる上演コンテンツ(第1コンテンツと)と、演者アバター1が楽曲を上演せずにMC(トーク)を行うことで主コンテンツとならない非上演コンテンツ(第2コンテンツ)とを含み、上演コンテンツが配信されている各演目期間において視聴者アバターの動作のうち所定動作である移動を制限する一方、非上演コンテンツ(MC)が配信されている各MC期間においては移動を制限しない動作制限機能を備えているので、上演コンテンツが配信されている期間においては視聴者アバターの移動が制限されるので、これら移動によって上演コンテンツの興趣が低下してしまうことを防ぐことができる。一方、非上演コンテンツであるMC(トーク)が配信されている各MC期間においては、移動が制限されないので、視聴者アバターの動作が過度に制限されてしまうことも防ぐことができる。
The virtual space content distribution system of Example 3 includes, as virtual space content, performance content (first content) that becomes the main content when
また、実施例3の仮想空間コンテンツ配信システムでは、上演コンテンツが配信されている各演目期間と、上演コンテンツが配信されていない各MC期間においても、図40、図41に示すように、視聴者アバターの特定動作となるケミライト動作に対応した操作である「ケミライト」の項目を選択する操作が可能とされており、該操作が実行されたときには、各演目期間においては同調したケミライト動作が制限(禁止)されることなく可能とされ、各MC期間においては非同調のケミライト動作が制限(禁止)されることなく可能とされており、このようにすることで、視聴者ユーザーは、上演コンテンツの配信期間である各演目期間と、非上演コンテンツの配信期間である各MC期間のいずれにおいても、特定操作となる「ケミライト」の項目を選択する操作によって視聴者アバターにケミライト動作を行わせることができる。 In addition, in the virtual space content distribution system of Example 3, as shown in Figures 40 and 41, during each performance period when performance content is being distributed and during each MC period when performance content is not being distributed, an operation of selecting the "Chemilite" item, which is an operation corresponding to the chemilite action that is a specific action of the viewer avatar, is possible, and when this operation is executed, synchronized chemilite actions are possible without restriction (prohibition) during each performance period, and non-synchronized chemilite actions are possible without restriction (prohibition) during each MC period. In this way, a viewer user can have the viewer avatar perform a chemilite action by selecting the "Chemilite" item, which is a specific operation, during both each performance period when performance content is being distributed and each MC period when non-performance content is being distributed.
また、実施例3の仮想空間コンテンツ配信システムでは、上演コンテンツが配信される各演目期間が開始される前の所定期間、つまり、振り始め情報が送信されてから各演目期間が開始されるまでの所定期間についても、演目期間とみなして該演目期間と同様に、移動を含む視聴者アバターの動作を全て制限(禁止)しており、このようにすることで、視聴者アバターの移動等の動作が、演目期間が開始される前の所定期間においても制限(禁止)されるので、これら移動等の動作が、演目期間が開始される時点まで行われることによって上演コンテンツの興趣が低下してしまうことをより的確に防ぐことができる。 In addition, in the virtual space content distribution system of Example 3, the predetermined period before the start of each performance period during which performance content is distributed, that is, the predetermined period from when the start of swing information is transmitted until the start of each performance period, is also considered to be a performance period, and all actions of the viewer avatar, including movement, are restricted (prohibited) in the same way as for the performance period. In this way, movements such as movement of the viewer avatar are restricted (prohibited) even during the predetermined period before the performance period begins, so that it is possible to more accurately prevent a decrease in interest in the performance content due to these movements and other actions being performed up until the start of the performance period.
尚、上記した実施例3では、演目期間が開始される前の所定期間においては、移動以外の視聴者アバターの動作を全て制限(禁止)した形態を例示しているが、これら制限(禁止)する動作を移動だけとしてもよい。 Note that in the above-mentioned Example 3, an example is given in which all actions of the viewer avatar other than movement are restricted (prohibited) during a specified period before the start of the performance period, but the only action that is restricted (prohibited) may be movement.
また、実施例3の仮想空間コンテンツ配信システムでは、上演コンテンツが配信される各演目期間においては、上演コンテンツである楽曲のテンポに対応したケミライト動作が可能とされているので、仮想ライブ空間に参加している視聴者ユーザーの興趣を高めることができる。 In addition, in the virtual space content distribution system of Example 3, during each performance period in which the performance content is distributed, chemical light operation corresponding to the tempo of the musical piece that is the performance content is possible, thereby increasing the interest of the viewer users participating in the virtual live space.
<実施例3の変形例>
上記実施例3では、実施例1,2と同じく、視聴者アバターは、仮想参加している第3領域内または第4領域内を自由に移動できる形態を例示したが、このようにすると、例えば、第4領域に参加している異なる視聴者アバター同志が仮想衝突したり同一仮想位置に重複することによって仮想空間データにエラー等が生じてしまう等の問題が生じる可能性がある。
<Modification of the third embodiment>
In the above Example 3, as in Examples 1 and 2, an example was given of a form in which a viewer avatar can move freely within the third or fourth area in which they are virtually participating. However, doing so may give rise to problems such as errors in the virtual space data due to, for example, different viewer avatars participating in the fourth area colliding virtually with each other or overlapping in the same virtual position.
このような問題を解消するために、例えば、図42、図43、図44に示す変形例3-1に示すようにしてもよい。具体的には、第3領域や第4領域を図42に示すように細かな領域に区切るとともに、これらの領域のうちのどの領域にて仮想ライブに仮想参加するのかを、図42に示すように、仮想ライブの事前参加受付け時(仮想参加予約時)や仮想ライブの仮想参加時等において視聴者ユーザーから受付けて、視聴者ユーザーが視聴者アバターで仮想参加する場合には、事前に選択した領域においてだけ参加が可能となるともに、該選択した領域内だけで移動できるように制限(禁止)することで、視聴者アバター同志が仮想衝突したり同一仮想位置に重複することによって仮想空間データにエラー等が生じてしまうことを防ぎつつ、視聴者アバターの移動が過度に制限されてしまうことも防ぐことができる。 To solve such problems, for example, a modification 3-1 shown in Figures 42, 43, and 44 may be used. Specifically, the third and fourth areas are divided into smaller areas as shown in Figure 42, and the viewer user is asked which of these areas they will virtually participate in the virtual live show in when pre-participation in the virtual live show (when reserving virtual participation) or when virtually participating in the virtual live show, as shown in Figure 42. When the viewer user virtually participates with a viewer avatar, they can only participate in the area selected in advance, and movement is restricted (prohibited) to only within the selected area. This prevents viewer avatars from colliding with each other virtually or overlapping in the same virtual position, which could cause errors in the virtual space data, while also preventing the movement of the viewer avatar from being overly restricted.
これら移動の制限(禁止)としては、具体的には、例えば、図43の「H5」の領域を仮想参加位置として選択した視聴者ユーザーの場合には、図44に示すように、「H5」の周囲の領域である「G4~G6」や「H4」、「H6」、「I4~I6」の各領域への移動する操作を行った場合に、視聴者端末300において該移動が移動禁止領域への移動と判定されることで、例えば、図44(B)に示すように、「移動可能範囲を超えているため指示位置へは移動できません。」の警告表示が、視聴者端末300において表示されることによって該移動が制限(禁止)される一方、「H5」の領域内における移動に関しては、該警告表示が表示されずに移動が許可されることで、視聴者ユーザーは、仮想参加した「H5」の領域内において視聴者アバターを移動できるようにすればよい。
Specific examples of the restriction (prohibition) of these movements include, for example, in the case of a viewer user who has selected the "H5" area in FIG. 43 as the virtual participation position, when the viewer user performs an operation to move to any of the areas surrounding "H5", such as "G4-G6", "H4", "H6", or "I4-I6", as shown in FIG. 44, the movement is determined by the
尚、これら移動を禁止する範囲については、上記した仮想参加した範囲に限定されるものではなく、例えば、仮想ライブに複数の人数のグループで仮想参加していて、仮想参加している位置が隣接しているような状況については、グループであることを示す情報にもとづいて、これらグループで参加している視聴者アバターが仮想参加している範囲については、移動可能範囲とするようにしてもよい。 The range in which movement is prohibited is not limited to the range of virtual participation described above. For example, in a situation where a group of multiple people is virtually participating in a virtual live show and the locations of the virtual participants are adjacent to each other, the range in which the viewer avatars participating in this group are virtually participating may be set as a movable range based on information indicating that they are a group.
また、上記した変形例3-1は、実施例3の変形例として記載しているが、実施例3だけではなく、実施例1、2にも適用可能である。 Moreover, although the above-mentioned modified example 3-1 is described as a modified example of the third embodiment, it is applicable not only to the third embodiment but also to the first and second embodiments.
また、上記した実施例3では、振り始め情報の送信タイミングから演目開始タイミングまでの所定期間を視聴者アバター動作停止期間Tとして視聴者アバターの動作を禁止した形態を例示しているが、本発明はこれに限定されるものではなく、例えば、図45に示す変形例3-2に示すように、これら振り始め情報の送信タイミングから演目開始タイミングまでの所定期間において、非同調のケミライト動作を実行している視聴者アバターについて、振り始め情報の送信タイミングの時点の動作状態を、同調したケミライト動作の開始時の動作状態に移行させる調整動作を実行させる調整動作期間としてもよい。 In addition, in the above-mentioned Example 3, a predetermined period from the timing of sending the start swing information to the timing of the start of the performance is set as a viewer avatar operation suspension period T in which the movement of the viewer avatar is prohibited, but the present invention is not limited to this. For example, as shown in variant example 3-2 in FIG. 45, during the predetermined period from the timing of sending the start swing information to the timing of the start of the performance, an adjustment operation period may be set in which an adjustment operation is performed for a viewer avatar performing a non-synchronized chemi-lighting action, to transition the action state at the time of sending the start swing information to the action state at the start of a synchronized chemi-lighting action.
尚、これら調整動作については、振り始め情報の送信タイミングの時点の視聴者アバターの姿勢と、ケミライト動作の開始時の姿勢とを比較して、その姿勢差を補う動作を、例えば公知のモーションモーフィングプログラム等を使用して生成することができる。
また、上記変形例3-2では、同調のケミライト動作が開始される演目開始タイミングを例に説明したが、これら調整動作期間を同調のケミライト動作が終了する演目終了タイミングにおいて実施するようにしてもよい。つまり、同調のケミライト動作が終了するときの視聴者アバターの姿勢と、非同調のケミライト動作を開始するときの視聴者アバターの姿勢との姿勢差を補う調整動作を、調整動作期間を設けて実行するようにしてもよい。
Furthermore, for these adjustment actions, the posture of the viewer avatar at the time the swing start information is sent can be compared with the posture at the start of the chemilight action, and actions that compensate for the posture difference can be generated using, for example, a known motion morphing program.
In addition, in the above modification 3-2, the timing at which the synchronized chemi-lighting action starts is used as an example for explanation, but these adjustment action periods may be performed at the timing at which the synchronized chemi-lighting action ends. In other words, an adjustment action that compensates for the difference in posture between the viewer avatar's posture when the synchronized chemi-lighting action ends and the viewer avatar's posture when the non-synchronized chemi-lighting action starts may be performed by setting an adjustment action period.
つまり、変形例3-2に示すように、同調したケミライト動作を開始または終了するときに、開始前の視聴者アバターの姿勢と同調したケミライト動作の開始時の姿勢との差、同調したケミライト動作の終了時の姿勢と終了後の視聴者アバターの姿勢との差、を調整するための調整動作を生成することで、視聴者アバターの動作が連続しない動作となって不自然となってしまうことを防ぐことができる。 In other words, as shown in variant example 3-2, when starting or ending a synchronized chemi-lighting action, an adjustment action is generated to adjust the difference between the viewer avatar's posture before the action begins and the posture at the start of the synchronized chemi-lighting action, and the difference between the posture at the end of the synchronized chemi-lighting action and the posture of the viewer avatar after the action ends, thereby preventing the viewer avatar's movements from becoming discontinuous and unnatural.
また、上記実施例3では、図31に示すように、各MC期間を演目期間に含めない形態としているが、本発明はこれに限定されるものではなく、図46の変形例3-3に示すように、これらMC(トーク)についても、演者ユーザーによっては演目に含めるようにしてもよく、この場合には、これらMCの期間においても、演目期間として移動等の動作を禁止するようにしてもよい。尚、このようにMC(トーク)を演者の演目に含める場合にあっては、これらMC(トーク)の期間も演目期間に含まれることから、楽曲の場合と同様にBPM情報としてMC(トーク)に対応したMC用BPM情報が送信されることで、ケミライト動作がMC(トーク)に対応したテンポの動作に調整されることになる。 In addition, in the above Example 3, as shown in FIG. 31, each MC period is not included in the program period, but the present invention is not limited to this. As shown in Variation 3-3 in FIG. 46, depending on the performer user, these MC (talk) periods may also be included in the program, in which case movements and other actions may be prohibited during these MC periods as part of the program period. Note that when MC (talk) is included in the performer's program in this way, these MC (talk) periods are also included in the program period, and thus MC BPM information corresponding to the MC (talk) is sent as BPM information, just as in the case of music, and the chemilight action is adjusted to an action with a tempo corresponding to the MC (talk).
つまり、仮想空間コンテンツに含まれる第1コンテンツに、演者アバター1による喋り(トーク)のコンテンツが含まれることになるので、視聴者アバターのケミライト動作を喋り(トーク)に対応した動作に調整することができる。
In other words, the first content included in the virtual space content includes content of the
尚、上記の変形例3-3のようにMC(トーク)を演者の演目に含める場合には、視聴者アバターの移動等の動作が常に禁止されてしまうことから、例えば、図46に示すように、ライブ開始前において視聴者が仮想参加してから仮想ライブが開始されるまでの待機期間や、MC期間のうちの特定のMC期間や、仮想ライブ中において演者が休息するための休息期間等において、過去の仮想ライブ等のアーカイブ動画コンテンツ等が、仮想ディスプレイ40、41、42に表示される期間を演目期間に含まれない期間として移動等の動作が可能とされるようにすればよく、この場合には、演者のMC(トーク)のコンテンツも、歌唱やダンスとともに上演コンテンツに含まれ、アーカイブ動画コンテンツ等、仮想ディスプレイ40、41、42に表示されるコンテンツ等が非上演コンテンツとなる。
When an MC (talk) is included in the performer's repertoire as in variant example 3-3 above, movement of the viewer avatar and other actions are always prohibited. Therefore, for example, as shown in FIG. 46, during the waiting period from when the viewer virtually joins before the start of the live performance until the virtual live performance begins, during a specific MC period within the MC period, or during a rest period for the performers to rest during the virtual live performance, the period during which archived video content of past virtual live performances and the like is displayed on
また、上記実施例3では、各演目期間において視聴者アバターが制限(禁止)される動作として移動を例示しているが、本発明はこれに限定されるものではなく、これら移動だけはなく、図47の変形例3-4に示すように、ジャンプ(跳躍)や、他の視聴者アバターに作用する動作となる他の視聴者アバターとのハイタッチの動作を各演目期間において制限(禁止)するようにしてもよい。 In addition, in the above Example 3, movement is given as an example of an action that is restricted (prohibited) by the viewer avatar during each performance period, but the present invention is not limited to this, and in addition to these movements, as shown in Variation 3-4 of FIG. 47, jumping (jumping) and high-fiving with other viewer avatars, which are actions that affect other viewer avatars, may also be restricted (prohibited) during each performance period.
つまり、上演コンテンツが配信される期間である各演目期間において制限(禁止)される視聴者アバターの動作には、仮想ライブ空間内に仮想参加している他の視聴者アバターに対して作用を及ぼす動作やジャンプ(跳躍)が含まれ、このようにすることで、他の視聴者アバターに対して作用を及ぼす動作やジャンプ(跳躍)によって上演コンテンツの興趣が低下してしまうことを防ぐことができる。尚、作用を及ぼす対象は、視聴者アバター以外に演者アバターが含まれていてもよい。 In other words, the actions of viewer avatars that are restricted (prohibited) during each performance period, which is the period during which performance content is distributed, include actions and jumps that affect other viewer avatars virtually participating in the virtual live space, thereby preventing the performance content from losing interest due to actions and jumps that affect other viewer avatars. Note that the targets of the actions may include performer avatars in addition to viewer avatars.
尚、これら演目中において制限(禁止)される視聴者アバターの動作としては、図47に示す動作に限らず、各演目期間おいて視聴者アバターに違和感を与えると考えられる動作を含めるようにすればよい。 The actions of the viewer avatar that are restricted (prohibited) during these performances are not limited to those shown in FIG. 47, but may include any action that is considered to cause discomfort to the viewer avatar during each performance period.
同様に、上記実施例3では、各演目期間において視聴者アバターが実行可能なコンテンツ関連動作を、ケミライトKを左右に振るケミライト動作である1の動作のみとした形態を例示しているが、本発明はこれに限定されるものではなく、例えば、これらの動作が複数の動作、例えば、図47に示すように、ケミライトKを左右に振るケミライト動作に加えて、ケミライトKを前後に振るケミライト動作や、視聴者アバターが上方に挙げた両手を左右に揺らすウエーブ動作を含むようにして、これら3つの各コンテンツ関連動作を各コンテンツ関連動作が対応する演目において実行できるようにしてもよい。 Similarly, in the above Example 3, an example is given of a form in which the content-related action that the viewer avatar can perform during each performance period is only one action, which is the chemilight action of waving the chemilight K from side to side, but the present invention is not limited to this, and for example, these actions may include multiple actions, such as, as shown in FIG. 47, in addition to the chemilight action of waving the chemilight K from side to side, a chemilight action of waving the chemilight K back and forth and a wave action in which the viewer avatar swings both hands raised above from side to side, so that each of these three content-related actions can be performed in the performance to which each content-related action corresponds.
これら演目中に実行可能とされるコンテンツ関連動作は、図47に示す3つの動作に限らず、各演目期間おいて全視聴者アバターに違和感を与えることがない動作として事前に許容されている動作であれば、コンテンツ関連動作に加えることができる。 The content-related actions that can be performed during these performances are not limited to the three actions shown in FIG. 47. Any action that is pre-approved as an action that does not cause discomfort to all viewer avatars during each performance period can be added to the content-related actions.
尚、ケミライトKを前後に振るケミライト動作やウエーブ動作についても、ケミライトKを左右に振るケミライト動作と同様に、BPM情報と振り始め情報とにもとづいて、これらの動作を行う複数の視聴者アバター同士が、上演される楽曲に対応したテンポにて同調した動作を行うことができる。 As for the chemilight action of waving the chemilight K back and forth and the wave action, similar to the chemilight action of waving the chemilight K left and right, multiple viewer avatars performing these actions can synchronize their movements at a tempo that corresponds to the music being performed based on the BPM information and the start of the movement information.
つまり、ケミライト動作は、左右に振る動作と、前後に振る動作との動作態様が異なる複数のケミライト動作を含み、変形例3-4の仮想空間コンテンツ配信システムは、いずれのケミライト動作についても、複数の視聴者アバターのケミライト動作を同調させることが可能である。このように、ケミライト動作が複数の動作態様となるとともに、これら複数の動作態様のケミライト動作について同調させることが可能となるので、仮想ライブ空間に参加している個々の視聴者ユーザーの興趣を、より一層高めることができる。 In other words, the chemilight action includes multiple chemilight actions with different action patterns, such as shaking left and right and shaking back and forth, and the virtual space content distribution system of variant example 3-4 is capable of synchronizing the chemilight actions of multiple viewer avatars for any of the chemilight actions. In this way, the chemilight action has multiple action patterns, and it is possible to synchronize the chemilight actions of these multiple action patterns, which further increases the interest of each viewer user participating in the virtual live space.
また、これら複数のコンテンツ関連動作を実行可能とする場合にあっては、演目期間以外のライブ開始前の期間やMC期間中においては、例えば、図47に示すように、全ての種類のコンテンツ関連動作を実行できるようにしてよいとともに、1の演目において実行可能なコンテンツ関連動作についても、1種類ではなく、例えば、ウエーブ動作に対応する演目期間において、ケミライトKを左右に振るケミライト動作も可能とする等のように、複数のコンテンツ関連動作を実行可能としてもよい。 In addition, when these multiple content-related actions are executable, during periods before the start of a live performance or during MC periods other than the performance period, it is possible to make all types of content-related actions executable, as shown in FIG. 47, for example, and it is also possible to make multiple content-related actions executable in one performance, rather than just one type, such as making the chemilight action of shaking the chemilight K from side to side possible during the performance period corresponding to the wave action.
また、上記した実施例3では、遅延動作者決定処理を配信用サーバコンピュータ100において実行することで、同調したケミライト動作において遅延動作を行う視聴者アバターを配信用サーバコンピュータ100が決定する形態を例示しているが、本発明はこれに限定されるものではなく、例えば、図48の変形例3-5に示すように、これら遅延動作者決定処理を視聴者端末300において実行することで、遅延動作を行う視聴者アバターを視聴者端末300において決定するようにしてもよい。
In addition, in the above-mentioned Example 3, the delay performer determination process is executed in the
つまり、変形例3-5においては、視聴者端末300において、各視聴者アバターのケミライト動作のタイミングが同調した視聴者アバター視点映像を生成可能であって、配信用サーバコンピュータ100は、ケミライト動作を実行している視聴者アバターを特定可能な関連動作実行情報としてケミライト動作情報を各視聴者端末300に配信可能であり、視聴者端末300は、ケミライト動作情報から特定されるケミライト動作を実行している視聴者アバターの一部について、ケミライト動作を非同調タイミングである「遅延A」や「遅延B」に調整可能であり、このようにすることで、配信用サーバコンピュータ100が遅延動作情報を配信する必要がなくなるので、これら遅延動作情報を配信するための配信用サーバコンピュータ100における処理負荷を低減することができる。
In other words, in variant example 3-5, the
尚、変形例3-5において視聴者端末300が実行する遅延動作者決定処理の実行タイミングと処理内容は、図37に示す配信用サーバコンピュータ100が実行するタイミングと処理内容と同様とすればよく、この場合、決定用テーブルを事前データとして配信用サーバコンピュータ100から受信して記憶しておけばよいとともに、処理の実行時においてケミライト動作を実行している視聴者アバターについては、配信用サーバコンピュータ100から配信されるケミライト動作情報から特定すればよいとともに、決定結果については、参加者ユーザーテーブルではなく、ケミライト動作情報に含まれる全参加者の視聴者ユーザーIDに対応付けて、決定結果を記憶、更新するための遅延動作者テーブルに反映するようにし、これら遅延動作者テーブルから特定される決定結果にもとづいて、視聴者視点映像生成処理1を実行すればよい。
In addition, in variant example 3-5, the execution timing and processing contents of the delayed performer determination process executed by the
また、変形例3-5においては、遅延動作者決定処理が個々の視聴者端末300において個別に実行されるため、視聴者ユーザーAの視聴者端末300において、例えば「遅延A」の遅延動作者として決定される視聴者アバターが、視聴者ユーザーBの視聴者端末300においては、「遅延B」の遅延動作者として決定される場合となるように、個々の視聴者端末300において生成される同調したケミライト動作を含む視聴者ユーザー視点映像が、視聴者端末300毎に異なる映像となる。
In addition, in variant example 3-5, the delayed performer determination process is executed individually in each
また、実施例3においては、振り始め情報によってケミライト動作を開始するタイミングを、上演コンテンツである楽曲の開始タイミング(演目期間の開始タイミング)とした形態を例示しているが、本発明はこれに限定されるものではなく、これら振り始め情報によってケミライト動作を開始するタイミングを、演目期間の開始タイミングや楽曲の開始タイミングとは異なるタイミング、例えば、演目期間の開始タイミングから一定期間が経過したタイミングや、楽曲の開始タイミングからイントロ等の部分が経過して歌唱が開始されるタイミング等のタイミングとしてもよい。 In addition, in Example 3, the timing for starting the chemilight operation based on the start of the swing information is set to the start timing of the song that is the performance content (the start timing of the performance period), but the present invention is not limited to this, and the timing for starting the chemilight operation based on the start of the swing information may be set to a timing different from the start timing of the performance period or the start timing of the song, for example, a certain period of time has passed since the start timing of the performance period, or the start timing of the song after the intro or other part has passed and singing begins.
以上、本発明を各実施例及び変形例にもとづいて説明したが、具体的な構成は上記した各実施例及び変形例に限定されるものではなく、本発明の要旨を逸脱しない範囲における変更や追加があっても本発明に含まれる。 The present invention has been described above based on each embodiment and modified example, but the specific configuration is not limited to the above-mentioned embodiments and modified examples, and the present invention also includes modifications and additions that do not deviate from the gist of the present invention.
例えば、変形例3-1で示したように、視聴者アバターの仮想参加位置を各視聴者ユーザーに事前に選択させるようにする場合にあっては、例えば、第4領域において仮想ステージGに向かって右側となるA1~C6の領域を選択した視聴者ユーザーについては、フライング演出期間における視点映像として、仮想飛翔する演者アバター1の右側前方位置からの視点映像が生成されて表示され、第4領域において仮想ステージGに向かって中央となるD4~H6の領域を選択した視聴者ユーザーについては、フライング演出期間における視点映像として、仮想飛翔する演者アバター1の中央前方位置からの視点映像が生成されて表示され、第4領域において仮想ステージGに向かって左側となるI1~K6の領域を選択した視聴者ユーザーについては、フライング演出期間における視点映像として、仮想飛翔する演者アバター1の左側前方位置からの視点映像が生成されて表示されるように、視聴者ユーザーが選択した位置に応じて、特別動作である仮想飛翔における視点映像が、各視聴者ユーザーが選択した位置(領域)に対応した視点映像となるようにしてもよい。
For example, as shown in variant example 3-1, in the case where each viewer user is made to select the virtual participation position of the viewer avatar in advance, for example, for a viewer user who selects areas A1 to C6 on the right side as facing the virtual stage G in the fourth area, a viewpoint image from the right front position of the virtually flying
また、上記各実施例及び変形例では、視聴者アバター視点映像を視聴者端末300側で生成して表示する形態を例示したが、本発明はこれに限定されるものではなく、例えば、仮想参加者が少ないライブイベント等の場合には、視聴者アバターからの視点映像についても配信用サーバコンピュータ100側で生成して配信するようにしてもよい。また、視聴者ユーザーが、自分が所有する端末の処理能力や利用可能なデータ通信環境に応じて、視聴者アバター視点映像を視聴者端末300側で生成するか配信用サーバコンピュータ100側で生成するかを選択できるようにしてもよいし、配信用サーバコンピュータ100が、通信接続している視聴者端末300の処理能力を特定して、該特定した処理能力にもとづいて、視聴者端末300側で生成するか配信用サーバコンピュータ100側で生成するかを決定するようにしてもよい。
In addition, in the above embodiments and modified examples, the viewer avatar viewpoint video is generated and displayed on the
また、上記各実施例及び変形例では、配信用サーバコンピュータ100を、仮想ライブを主催するイベント運営機関が運営するスタジオに設置した形態を例示しているが、本発明はこれに限定されるものではなく、これら配信用サーバコンピュータ100としては、サーバコンピュータを貸し出す企業がデータセンタ等において所有するサーバコンピュータを使用したり、上述したように、クラウドサービスによるサーバコンピュータを使用してもよく、これらサーバコンピュータの設置形態は、配信用サーバコンピュータ100の機能を得られる形態であれば、任意の形態とすることができる。
In addition, in each of the above embodiments and variants, the
また、上記各実施例及び変形例では、演者ユーザーが一人で歌唱やダンス等の上演動作を行う形態を例示しているが、本発明はこれに限定されるものではなく、これら演者ユーザーが、複数人からなるグループであってもよく、これら複数人からなるグループで仮想ライブを行う場合には、複数人で1台の演者端末200を共有してもよいし、グループの各メンバー毎に演者端末200を設ける形態としてもよい。尚、演者ユーザーが、複数人のメンバーからなるグループである場合に、例えば、視点追随対象者指定処理を配信用サーバコンピュータ100や視聴者端末300の少なくとも一方で実行することで、視点を追随する対象とするメンバーを、視聴者ユーザーが選択できるようにしてもよい。
In addition, in each of the above embodiments and variations, a performer user performs performance actions such as singing and dancing alone; however, the present invention is not limited to this, and the performer users may be a group of multiple people. When a virtual live performance is performed by a group of multiple people, the multiple people may share one
また、上記各実施例及び変形例では、演者ユーザーが一人で歌唱やダンス等の上演動作を行う形態を例示しているが、本発明はこれに限定されるものではなく、歌唱を行う歌唱者とダンス動作を行うアクターとが個別の人物とされていてもよく、この場合、歌唱者の演者端末とアクターの演者端末を個別として、歌唱者はアクターが上演動作を行うスタジオ以外の場所で歌唱するようにしてもよい。 In addition, in each of the above embodiments and modified examples, a performer user sings, dances, and performs other performance actions alone; however, the present invention is not limited to this, and the singer who sings and the actor who dances may be separate persons. In this case, the singer's performer terminal and the actor's performer terminal may be separate, and the singer may sing in a location other than the studio where the actor performs the performance actions.
また、上記各実施例及び変形例では、配信用サーバコンピュータ100、管理者端末150、演者端末200、視聴者端末300を接続するコンピュータ通信ネットワークとして、インターネット網を例示しているが、本発明はこれに限定されるものではなく、これら通信ネットワークは、特定のエリア内だけでデータ通信可能なローカルエリアネットワークで構成されていてもよいし、その一部にローカルエリアネットワークやローカルデータ通信が含まれていてもよい。
In addition, in each of the above embodiments and variations, the Internet network is used as an example of a computer communication network connecting the
また、上記各実施例及び変形例では、視聴者端末300としてスマートフォンPやコンピュータ(PC)とした形態を例示しているが、本発明はこれに限定されるものではなく、これらコンピュータは、持ち運び可能なノートパソコンであってもよいし、タブレット端末、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の、少なくとも2D映像と音声とを出力可能な各種情報処理装置であってもよい。
In addition, in the above embodiments and variants, the
また、上記各実施例及び変形例では、演者ユーザーが、スタジオで歌唱を含む上演を行う形態を例示したが、本発明はこれに限定されるものではなく、例えば、演者ユーザーが自宅等に設置されている演者端末200を使用して、自宅等から仮想ライブに出演するようにしてもよい。
In addition, in each of the above embodiments and variants, a performer user performs in a studio, including singing, but the present invention is not limited to this. For example, a performer user may use a
また、上記各実施例及び変形例では、仮想空間コンテンツとして仮想ライブを例示したが、本発明はこれに限定されるものではなく、これら仮想空間コンテンツとしては、例えば、演者ユーザーが自分のファンと集うファンミーティングや、トークセッション等、視聴者ユーザーにとって有益なコンテンツであって、演者アバター1と視聴者アバターとが仮想参加する仮想空間に関するコンテンツであれば、どのようなコンテンツであってもよい。
In addition, in the above embodiments and variants, a virtual live performance has been given as an example of virtual space content, but the present invention is not limited to this, and the virtual space content may be any content that is beneficial to viewer users, such as a fan meeting where performer users gather with their fans, or a talk session, and is related to a virtual space in which
また、上記各実施例及び変形例では、固定配置(設定)された仮想カメラとして4つの仮想カメラC1~C4や空中移動仮想カメラの視点切替を、管理者端末150における設定や操作によって事前に行える形態を例示しているが、本発明はこれに限定されるものではなく、例えば、これら視点切替を、管理者端末150においてイベント管理者Mが、操作入力装置161を構成する視点切替コントローラ等を使用して、リアルタイムに行うようにしてもよい。
In addition, in each of the above embodiments and modified examples, the viewpoint switching of the four virtual cameras C1 to C4 as fixedly positioned (set) virtual cameras and the airborne moving virtual camera is exemplified as a form in which the viewpoint switching can be performed in advance by setting and operating the
また、上記各実施例及び変形例では、仮想カメラとして仮想空間内に固定配置(設定)された仮想カメラC1~C4を使用する形態を例示しているが、本発明はこれに限定されるものではなく、例えば、仮想カメラC1~C4に、加えるか若しくは代えて、移動可能な仮想移動カメラを仮想ライブ会場内に配置して、該仮想移動カメラの仮想空間内の位置や撮像方向等を、管理者端末150においてイベント管理者Mやカメラマン等が操作により制御して、仮想移動カメラの視点映像とするようにしてもよい。
In addition, in each of the above embodiments and modified examples, virtual cameras C1 to C4 fixedly placed (set) in the virtual space are used as virtual cameras, but the present invention is not limited to this. For example, in addition to or instead of the virtual cameras C1 to C4, a movable virtual moving camera may be placed in the virtual live venue, and the position and imaging direction of the virtual moving camera in the virtual space may be controlled by the event manager M or a cameraman through operation of the
また、上記各実施例及び変形例では、演者アバターの表情に反映させるために、演者ユーザーの顔の表情を検出可能とするために、スクリーンSに仮想カメラC2の視点映像を表示する形態を例示しているが、本発明はこれに限定されるものではなく、例えば、演者ユーザーの顔の表情を検出するセンサ機能を有する高機能ヘッドマウントディスプレイであれば、これら高機能ヘッドマウントディスプレイを装着して上演を行うようにしてもよく、このようにすることで、演者ユーザーの仮想ライブへの没入感を向上することができるようにしてもよい。また、演者アバターの表情に演者ユーザーの顔の表情を詳細に反映しなくてもよい場合は、通常のヘッドマウントディスプレイを演者ユーザーが装着して上演を行うようにしてもよい。 In addition, in each of the above embodiments and variants, an example is given of a form in which the viewpoint image of the virtual camera C2 is displayed on the screen S so that the facial expressions of the performer user can be detected and reflected in the facial expressions of the performer avatar, but the present invention is not limited to this. For example, if the performer user is a high-performance head-mounted display that has a sensor function for detecting the facial expressions of the performer user, the performer user may wear this high-performance head-mounted display while performing the performance, which may improve the performer user's sense of immersion in the virtual live performance. In addition, if the facial expressions of the performer user do not need to be reflected in detail in the facial expressions of the performer avatar, the performer user may wear a normal head-mounted display while performing the performance.
また、上記実施例3では、ケミライト動作のタイミングとして、BPM基準タイミングから0.1秒遅れた遅延Aや0.2秒遅れた遅延Bのタイミングを設ける形態を例示しているが、本発明はこれに限定されるものではなく、これら遅延Aや遅延Bのタイミングを設けることなく、ケミライト動作を行っている全ての視聴者アバターが、同一のBPM基準タイミングのみで同期してケミライト動作を行うようにしてもよい。つまり、本発明において同調とは、基準タイミングのみでの同期だけではなく、一部の視聴者アバターのケミライト動作のタイミングが、ほぼ同じタイミングとして認識できる所定範囲として0.2秒の範囲内において異なっている動作態様を含むものであり、よって、同調タイミングには、BPM基準タイミングである同期タイミングだけではなく、擬同期タイミングである遅延Aや遅延Bのタイミングが含まれる。 In addition, in the above Example 3, the timing of the chemilight operation is exemplified by setting delay A, which is 0.1 seconds behind the BPM reference timing, and delay B, which is 0.2 seconds behind the BPM reference timing, but the present invention is not limited to this, and all viewer avatars performing the chemilight operation may perform the chemilight operation in synchronization with only the same BPM reference timing, without setting delay A or delay B. In other words, in the present invention, synchronization does not only mean synchronization with only the reference timing, but also includes an operation mode in which the timing of the chemilight operation of some viewer avatars differs within a predetermined range of 0.2 seconds that can be recognized as approximately the same timing, and therefore the synchronization timing includes not only the synchronization timing, which is the BPM reference timing, but also the delay A and delay B, which are pseudo-synchronization timings.
また、上記実施例3では、図31や図35に示すように、振り始め情報が送信されてから各演目期間の開始タイミングよりまでの期間を視聴者アバター動作停止期間Tとした形態を例示していが、本発明はこれに限定されるものではなく、これら視聴者アバター動作停止期間Tを設けない形態として、各MC期間中は、全期間において視聴者アバターは、ケミライト動作が可能とされていてもよい。 In addition, in the above Example 3, as shown in Figures 31 and 35, an example is given in which the viewer avatar motion suspension period T is the period from when the start of swinging information is transmitted to the start timing of each performance period, but the present invention is not limited to this. As an example of a form in which these viewer avatar motion suspension periods T are not provided, the viewer avatar may be able to perform chemilight motion throughout the entire period of each MC period.
また、上記各実施例及び変形例では、仮想ライブの配信時においてリアルタイムに演者ユーザーが歌唱や歌唱動作(上演動作)を実行する形態とすることで、演者ユーザーが、仮想ライブに仮想参加している視聴者ユーザーの反応等を確認しながらライブを進行できるようにしているが、本発明はこれに限定されるものではなく、演者ユーザーの歌唱や歌唱動作(上演動作)は、リアルタイムではなく、予め、歌唱や歌唱動作(上演動作)を実行しておき、これら歌唱の音声や歌唱動作(上演動作)を演者アバター情報として配信用サーバコンピュータ100に記録しておき、該記録した歌唱の音声や歌唱動作(上演動作)をライブの進行に応じて再生することによって仮想ライブを開催するようにしてもよい。
In addition, in each of the above embodiments and variations, the performer user sings or performs singing actions (performance actions) in real time during the distribution of the virtual live performance, allowing the performer user to proceed with the live performance while checking the reactions of the viewer users who are virtually participating in the virtual live performance, but the present invention is not limited to this, and the performer user's singing or singing actions (performance actions) may not be performed in real time, but may be performed in advance, and the singing voice and singing actions (performance actions) may be recorded in the
また、演者ユーザーの歌唱や歌唱動作(上演)に替えて、コンピュータグラフィック等で作成した仮想の演者による歌唱や歌唱動作(上演動作)を演者アバター情報として配信用サーバコンピュータに記録しておき、該記録した歌唱の音声や歌唱動作(上演動作)をライブの進行に応じて再生することによって仮想ライブを開催するようにしてもよい。 In addition, instead of the performer user's singing or singing actions (performance), the singing or singing actions (performance actions) of a virtual performer created using computer graphics or the like can be recorded as performer avatar information on a distribution server computer, and a virtual live performance can be held by playing back the recorded singing voice and singing actions (performance actions) as the live performance progresses.
このように、予め、歌唱や歌唱動作(上演動作)を実行して演者アバター情報を配信用サーバコンピュータ100に記録、再生して仮想ライブを配信する場合にあっては、該配信時における仮想空間コンテンツ配信システムの構成は、配信用サーバコンピュータ100、管理者端末150、視聴者端末300とで構成されることになり、仮想空間において演者アバター1を動作させる操作を行う演者ユーザーが利用可能な演者ユーザー端末である演者端末200を含まない構成となる。
In this way, when singing or singing actions (performance actions) are performed in advance to record and play back performer avatar information on the
1 演者アバター
100 配信用サーバコンピュータ
150 管理者端末
200 演者端末
300 視聴者端末
1
Claims (11)
前記仮想空間コンテンツの映像を出力可能な端末であって、前記仮想空間コンテンツの対象となる仮想空間に参加可能な視聴者アバターを該仮想空間において動作させる操作を行う視聴者ユーザーが利用可能な視聴者ユーザー端末と、
前記視聴者ユーザー端末に通信ネットワークを介して接続され、少なくとも前記仮想空間に関する処理と前記仮想空間コンテンツの配信に関する処理とを実行可能なサーバコンピュータと、
を含み、
前記視聴者ユーザーが複数であって、各視聴者ユーザー毎に前記視聴者ユーザー端末が割り当てられており、
各々の前記視聴者ユーザー端末は、前記視聴者アバターに対応した前記仮想空間の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を前記サーバコンピュータから送信されてくる前記仮想空間の仮想空間データにもとづいて生成し、
前記仮想空間コンテンツは、演者ユーザーが演者アバターとして前記仮想空間に参加可能なコンテンツであり、
前記仮想空間データは、前記演者アバターの動作を生成するための演者アバター用動作データを含み、
前記視聴者ユーザー端末は、前記演者アバター用動作データにもとづいて前記演者アバターの動作を生成するときに、該生成に係わる処理負荷が異なる複数の生成態様にて当該動作を生成可能である
ことを特徴とする仮想空間コンテンツ配信システム。 A virtual space content distribution system for distributing virtual space content in a virtual space, comprising:
a viewer user terminal capable of outputting a video of the virtual space content and usable by a viewer user who performs an operation to operate a viewer avatar that can participate in a virtual space that is a target of the virtual space content in the virtual space ;
a server computer connected to the viewer user terminal via a communication network and capable of executing at least processes related to the virtual space and processes related to the distribution of the virtual space content;
Including,
The viewer users are multiple, and the viewer user terminal is assigned to each viewer user;
each of the viewer user terminals, when displaying a viewer avatar viewpoint image which is a viewpoint image of the virtual space corresponding to the viewer avatar, generates the viewer avatar viewpoint image based on virtual space data of the virtual space transmitted from the server computer ;
The virtual space content is content in which a performer user can participate in the virtual space as a performer avatar,
the virtual space data includes performer avatar motion data for generating motions of the performer avatar;
The viewer user terminal is capable of generating the movement of the performer avatar in a plurality of generation modes having different processing loads when generating the movement of the performer avatar based on the performer avatar movement data.
A virtual space content delivery system comprising:
ことを特徴とする請求項1に記載の仮想空間コンテンツ配信システム 2. The virtual space content delivery system according to claim 1 , wherein the virtual space content is content in which the performer avatar performs a performance in the virtual space.
ことを特徴とする請求項1または2に記載の仮想空間コンテンツ配信システム。 The virtual space content distribution system described in claim 1 or 2, characterized in that a common viewpoint image that is displayed in common on each of the viewer user terminals, rather than a viewpoint image corresponding to each of the viewer avatars, can be generated by the server computer and distributed to the viewer user terminal.
ことを特徴とする請求項3に記載の仮想空間コンテンツ配信システム。 The virtual space content distribution system described in claim 3, characterized in that during a specific period in which the viewer user terminal can select and display either the viewer avatar viewpoint video or the common viewpoint video, the viewer user terminal generates and displays the common viewpoint video.
ことを特徴とする請求項3に記載の仮想空間コンテンツ配信システム。 4. The virtual space content delivery system according to claim 3 , wherein during a special period when the processing load on the server computer is large, the common viewpoint video is also generated and displayed by the viewer user terminal.
ことを特徴とする請求項1または2に記載の仮想空間コンテンツ配信システム。 The virtual space content distribution system described in claim 1 or 2, characterized in that the server computer transmits advance data including basic data of the virtual space and basic data of avatars participating in the virtual space to each of the viewer user terminals before starting the virtual space content.
ことを特徴とする請求項6に記載の仮想空間コンテンツ配信システム。 The virtual space content distribution system described in claim 6, characterized in that, for viewer user terminals where it is not possible to confirm that the advance data has been completely received, the server computer does not transmit the virtual space data to the viewer user terminals, but transmits a common viewpoint video that is displayed in common on each of the viewer user terminals.
前記サーバコンピュータは、前記第2視聴者ユーザー端末には、前記第1視聴者ユーザー端末とは異なる前記仮想空間データを送信可能である
ことを特徴とする請求項1または請求項2に記載の仮想空間コンテンツ配信システム。 The viewer user terminals include a first viewer user terminal and a second viewer user terminal,
3. The virtual space content delivery system according to claim 1 , wherein said server computer is capable of transmitting to said second viewer user terminal said virtual space data different from that transmitted to said first viewer user terminal.
ことを特徴とする請求項8に記載の仮想空間コンテンツ配信システム。 The virtual space content distribution system described in claim 8, characterized in that the second viewer user terminal is capable of generating an image of a second viewer avatar that performs actions different from the actions of a first viewer avatar of a first viewer user using the first viewer user terminal based on virtual space data different from the virtual space data transmitted to the first viewer user terminal.
前記仮想空間コンテンツの対象となる仮想空間に参加可能なアバターは、視聴者ユーザーが利用可能な端末であって前記ネットワークを介して前記サーバコンピュータに接続された視聴者ユーザー端末における操作によって前記仮想空間において動作する視聴者アバターを含み、
前記視聴者ユーザーが複数であって、各視聴者ユーザー毎に前記視聴者ユーザー端末が割り当てられており、
各々の前記視聴者ユーザー端末において、前記視聴者アバターに対応した前記仮想空間の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を前記サーバコンピュータから送信されてくる前記仮想空間の仮想空間データにもとづいて生成するステップを含み、
前記仮想空間コンテンツは、演者ユーザーが演者アバターとして前記仮想空間に参加可能なコンテンツであり、
前記仮想空間データは、前記演者アバターの動作を生成するためのデータであって、前記視聴者ユーザー端末において前記演者アバターの動作を生成するときに該生成に係わる処理負荷が異なる複数の生成態様にて当該動作を生成可能な演者アバター用動作データを含む
ことを特徴とする仮想空間コンテンツ配信プログラム。 A virtual space content distribution program for distributing virtual space content in a virtual space via a network using at least a server computer, comprising:
the avatars capable of participating in the virtual space that is the subject of the virtual space content include viewer avatars that operate in the virtual space by operating a viewer user terminal that is a terminal available to a viewer user and is connected to the server computer via the network;
The viewer users are multiple, and the viewer user terminal is assigned to each viewer user;
a step of generating, in each of the viewer user terminals, a viewer avatar viewpoint image, which is a viewpoint image of the virtual space corresponding to the viewer avatar, based on virtual space data of the virtual space transmitted from the server computer;
The virtual space content is content in which a performer user can participate in the virtual space as a performer avatar,
The virtual space data is data for generating movements of the performer avatar, and includes performer avatar movement data that can generate the movements of the performer avatar in a plurality of generation modes that have different processing loads when generating the movements of the performer avatar on the viewer user terminal.A virtual space content distribution program characterized in that the virtual space data includes performer avatar movement data that can generate the movements of the performer avatar in a plurality of generation modes that have different processing loads when generating the movements of the performer avatar on the viewer user terminal.
前記仮想空間コンテンツの対象となる仮想空間に参加可能なアバターは、視聴者ユーザーが利用可能な端末であって前記ネットワークを介して前記サーバコンピュータに接続された視聴者ユーザー端末における操作によって前記仮想空間において動作する視聴者アバターを含み、
前記視聴者ユーザーが複数であって、各視聴者ユーザー毎に前記視聴者ユーザー端末が割り当てられており、
各々の前記視聴者ユーザー端末において、前記視聴者アバターに対応した前記仮想空間の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を前記サーバコンピュータから送信されてくる前記仮想空間の仮想空間データにもとづいて生成する手順を含み、
前記仮想空間コンテンツは、演者ユーザーが演者アバターとして前記仮想空間に参加可能なコンテンツであり、
前記仮想空間データは、前記演者アバターの動作を生成するためのデータであって、前記視聴者ユーザー端末において前記演者アバターの動作を生成するときに該生成に係わる処理負荷が異なる複数の生成態様にて当該動作を生成可能な演者アバター用動作データを含む
ことを特徴とする仮想空間コンテンツ配信方法。 A virtual space content distribution method for distributing virtual space content in a virtual space via a network using at least a server computer, comprising:
the avatars capable of participating in the virtual space that is the subject of the virtual space content include viewer avatars that operate in the virtual space by operating a viewer user terminal that is a terminal available to a viewer user and is connected to the server computer via the network;
The viewer users are multiple, and the viewer user terminal is assigned to each viewer user;
a step of generating, in each of the viewer user terminals, a viewer avatar viewpoint image, which is a viewpoint image of the virtual space corresponding to the viewer avatar, based on virtual space data of the virtual space transmitted from the server computer;
The virtual space content is content in which a performer user can participate in the virtual space as a performer avatar,
A virtual space content distribution method characterized in that the virtual space data is data for generating movements of the performer avatar, and includes performer avatar movement data that can generate the movements of the performer avatar in a plurality of generation modes that have different processing loads when generating the movements of the performer avatar on the viewer user terminal .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023102732A JP7521072B1 (en) | 2023-06-22 | 2023-06-22 | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023102732A JP7521072B1 (en) | 2023-06-22 | 2023-06-22 | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7521072B1 true JP7521072B1 (en) | 2024-07-23 |
Family
ID=91954389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023102732A Active JP7521072B1 (en) | 2023-06-22 | 2023-06-22 | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7521072B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7557594B1 (en) | 2023-10-24 | 2024-09-27 | カバー株式会社 | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020091504A (en) | 2018-10-31 | 2020-06-11 | 株式会社ドワンゴ | Avatar display system in virtual space, avatar display method in virtual space, and computer program |
JP2020102236A (en) | 2020-02-18 | 2020-07-02 | 株式会社ActEvolve | Content distribution system, receiving device and program |
WO2021246183A1 (en) | 2020-06-03 | 2021-12-09 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
JP2022533734A (en) | 2019-05-20 | 2022-07-25 | フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. | Presenting immersive media content and interactive 360° video communication |
-
2023
- 2023-06-22 JP JP2023102732A patent/JP7521072B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020091504A (en) | 2018-10-31 | 2020-06-11 | 株式会社ドワンゴ | Avatar display system in virtual space, avatar display method in virtual space, and computer program |
JP2022533734A (en) | 2019-05-20 | 2022-07-25 | フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. | Presenting immersive media content and interactive 360° video communication |
JP2020102236A (en) | 2020-02-18 | 2020-07-02 | 株式会社ActEvolve | Content distribution system, receiving device and program |
WO2021246183A1 (en) | 2020-06-03 | 2021-12-09 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7557594B1 (en) | 2023-10-24 | 2024-09-27 | カバー株式会社 | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6431233B1 (en) | Video distribution system that distributes video including messages from viewing users | |
WO2020138107A1 (en) | Video streaming system, video streaming method, and video streaming program for live streaming of video including animation of character object generated on basis of motion of streaming user | |
JP6420077B2 (en) | Game system | |
JP6707111B2 (en) | Three-dimensional content distribution system, three-dimensional content distribution method, computer program | |
US20220222881A1 (en) | Video display device and display control method for same | |
US12137274B2 (en) | Video distribution system distributing video that includes message from viewing user | |
WO2021246183A1 (en) | Information processing device, information processing method, and program | |
JP7521072B1 (en) | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD | |
JP5632792B2 (en) | Participation type content management apparatus, viewing terminal, participation type content management program, and viewing program | |
WO2022190917A1 (en) | Information processing device, information processing terminal, information processing method, and program | |
JP6688378B1 (en) | Content distribution system, distribution device, reception device, and program | |
JP2020144887A (en) | Avatar display system in virtual space, avatar display method in virtual space, and computer program | |
JP6951394B2 (en) | Video distribution system that distributes videos including messages from viewers | |
JP7521074B1 (en) | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD | |
JP7495558B1 (en) | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD | |
JP7521073B1 (en) | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD | |
US11206452B2 (en) | Video display system, information processing apparatus, and video display method | |
WO2022190919A1 (en) | Information processing device, information processing method, and program | |
JP7521038B1 (en) | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD | |
JP7521039B1 (en) | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD | |
JP7576678B1 (en) | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD | |
JP7557594B1 (en) | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD | |
JP7557595B1 (en) | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD | |
JP7542113B1 (en) | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD | |
JP7557577B1 (en) | VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240411 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20240411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7521072 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |