Nothing Special   »   [go: up one dir, main page]

JP7521072B1 - VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD - Google Patents

VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD Download PDF

Info

Publication number
JP7521072B1
JP7521072B1 JP2023102732A JP2023102732A JP7521072B1 JP 7521072 B1 JP7521072 B1 JP 7521072B1 JP 2023102732 A JP2023102732 A JP 2023102732A JP 2023102732 A JP2023102732 A JP 2023102732A JP 7521072 B1 JP7521072 B1 JP 7521072B1
Authority
JP
Japan
Prior art keywords
viewer
virtual space
avatar
performer
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023102732A
Other languages
Japanese (ja)
Inventor
貴也 金柿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
COVER CORP.
Original Assignee
COVER CORP.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by COVER CORP. filed Critical COVER CORP.
Priority to JP2023102732A priority Critical patent/JP7521072B1/en
Application granted granted Critical
Publication of JP7521072B1 publication Critical patent/JP7521072B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

【課題】より多くの視聴者ユーザーが参加できるようにすること。【解決手段】仮想空間コンテンツの映像を表示可能であって各視聴者ユーザー毎に割り当てられた視聴者ユーザー端末と、視聴者ユーザー端末に接続されたサーバコンピュータとを含む仮想空間コンテンツ配信システムであって、前記視聴者ユーザー端末は、前記視聴者アバターに対応した前記仮想空間の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を前記サーバコンピュータから送信されてくる前記仮想空間の仮想空間データにもとづいて生成する。【選択図】図10[Problem] To enable more viewer users to participate. [Solution] A virtual space content distribution system including a viewer user terminal capable of displaying images of virtual space content and assigned to each viewer user, and a server computer connected to the viewer user terminal, wherein when the viewer user terminal displays a viewer avatar viewpoint image, which is a viewpoint image of the virtual space corresponding to the viewer avatar, the viewer user terminal generates the viewer avatar viewpoint image based on virtual space data of the virtual space transmitted from the server computer. [Selected Figure] Figure 10

Description

本発明は、仮想空間における仮想空間コンテンツを配信可能な仮想空間コンテンツ配信システム、仮想空間コンテンツ配信プログラム、および仮想空間コンテンツ配信方法に関する。 The present invention relates to a virtual space content distribution system capable of distributing virtual space content in a virtual space, a virtual space content distribution program, and a virtual space content distribution method.

従来、配信ユーザ(演者)の動きに連動して仮想空間において動作する該配信ユーザ(演者)のキャラクタオブジェクト(アバター)のアニメーションを、視聴者ユーザーの端末とコンピュータネットワークを介して接続されたサーバコンピュータにおいて生成し、かかるアニメーションを含む動画コンテンツをライブ配信するとともに、視聴する視聴者ユーザーについても、視聴者ユーザーからの要求に応じて、配信ユーザ(演者)のアバターが参加している仮想空間に観客として参加することが可能な配信システムが知られている(例えば、特許文献1参照)。 Conventionally, a distribution system is known in which animation of a character object (avatar) of a broadcast user (performer) that moves in a virtual space in conjunction with the movements of the broadcast user (performer) is generated in a server computer connected to a viewer user's terminal via a computer network, video content including such animation is live-distributed, and the viewer user can also participate as an audience member in the virtual space in which the avatar of the broadcast user (performer) is participating, upon request from the viewer user (see, for example, Patent Document 1).

特開2012-120098号公報JP 2012-120098 A

しかしながら、特許文献1にあっては、サーバコンピュータにおいてアニメーションを含む動画コンテンツを生成することから、参加する視聴者ユーザーが多くなると、サーバコンピュータの処理能力を超えてしまい、動画コンテンツの配信に不具合を生じてしまうことから、多くの視聴者ユーザーを参加させることができないという問題があった。 However, in Patent Document 1, video content including animation is generated on a server computer, so when a large number of viewer users participate, the processing capacity of the server computer is exceeded, causing problems in the distribution of the video content, and it is therefore not possible to allow many viewer users to participate.

本発明は、このような問題点に着目してなされたもので、より多くの視聴者ユーザーを参加させることのできる仮想空間コンテンツ配信システム、仮想空間コンテンツ配信プログラム、および仮想空間コンテンツ配信方法を提供することを目的とする。 The present invention has been made in response to these problems, and aims to provide a virtual space content distribution system, a virtual space content distribution program, and a virtual space content distribution method that allow more viewer users to participate.

請求項1の仮想空間コンテンツ配信システムは、
仮想空間(例えば、仮想ライブ会場)における仮想空間コンテンツ(例えば、仮想ライブ)を配信するための仮想空間コンテンツ配信システムであって、
前記仮想空間コンテンツの映像を出力可能な端末(例えば、スマートフォンP、コンピュータPC)であって、前記仮想空間コンテンツの対象となる仮想空間に参加可能な視聴者アバターを該仮想空間において動作させる操作を行う視聴者ユーザーが利用可能な視聴者ユーザー端末(例えば、視聴者端末300)と、
前記視聴者ユーザー端末に通信ネットワーク(例えば、インターネット)を介して接続され、少なくとも前記仮想空間に関する処理(例えば、仮想空間更新処理、仮想空間更新データ生成処理等)と前記仮想空間コンテンツの配信に関する処理(例えば、仮想空間更新データ配信処理、生成音声配信処理等)とを実行可能なサーバコンピュータ(例えば、配信用サーバコンピュータ100)と、
を含み、
前記視聴者ユーザーが複数であって、各視聴者ユーザー毎に前記視聴者ユーザー端末が割り当てられており(例えば、図1に示すように、視聴者ユーザーA~Cに視聴者端末300a~cが割り当てられている部分)、
各々の前記視聴者ユーザー端末は、前記視聴者アバターに対応した前記仮想空間の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を前記サーバコンピュータから送信されてくる前記仮想空間の仮想空間データ(例えば、仮想空間更新データ)にもとづいて生成し、
前記仮想空間コンテンツは、演者ユーザーが演者アバターとして前記仮想空間に参加可能なコンテンツであり、
前記仮想空間データは、前記演者アバターの動作を生成するための演者アバター用動作データを含み、
前記視聴者ユーザー端末は、前記演者アバター用動作データにもとづいて前記演者アバターの動作を生成するときに、該生成に係わる処理負荷が異なる複数の生成態様にて当該動作を生成可能である
ことを特徴としている。
この特徴によれば、処理負荷が大きな視聴者アバター視点映像の生成が視聴者ユーザー端末側で行われるので、より多くの視聴者ユーザーを参加させることができる。また、演者ユーザーが演者アバターとして参加することとともに、該演者アバターの動作を視聴者アバター視点映像において反映させることができるので、仮想空間コンテンツの興趣をより一層向上できる。更に、生成態様を変更することで、演出アバターの動作状況に対応した視聴者アバター視点映像を生成することができるともに、視聴者ユーザー端末の処理能力等の違いについても対応することができる。
The virtual space content delivery system according to claim 1 comprises:
A virtual space content distribution system for distributing virtual space content (e.g., a virtual live performance) in a virtual space (e.g., a virtual live performance venue),
a viewer user terminal (e.g., viewer terminal 300) that is a terminal (e.g., a smartphone P, a computer PC) capable of outputting an image of the virtual space content and that can be used by a viewer user who performs an operation to operate a viewer avatar that can participate in the virtual space that is the target of the virtual space content in the virtual space ;
A server computer (e.g., a distribution server computer 100) that is connected to the viewer user terminal via a communication network (e.g., the Internet) and is capable of executing at least processes related to the virtual space (e.g., a virtual space update process, a virtual space update data generation process, etc.) and processes related to the distribution of the virtual space content (e.g., a virtual space update data distribution process, a generated audio distribution process, etc.);
Including,
There are a plurality of viewer users, and each viewer user is assigned a viewer user terminal (for example, as shown in FIG. 1, viewer users A to C are assigned viewer terminals 300a to 300c),
each of the viewer user terminals, when displaying a viewer avatar viewpoint image which is a viewpoint image of the virtual space corresponding to the viewer avatar, generates the viewer avatar viewpoint image based on virtual space data (e.g., virtual space update data) of the virtual space transmitted from the server computer ;
The virtual space content is content in which a performer user can participate in the virtual space as a performer avatar,
the virtual space data includes performer avatar motion data for generating motions of the performer avatar;
The viewer user terminal is capable of generating the movement of the performer avatar in a plurality of generation modes having different processing loads when generating the movement of the performer avatar based on the performer avatar movement data.
It is characterized by the following.
According to this feature, the generation of viewer avatar viewpoint images, which requires a large processing load, is performed on the viewer user terminal side, so that more viewer users can participate. Also, performer users can participate as performer avatars, and the movements of the performer avatars can be reflected in the viewer avatar viewpoint images, so that the interest of the virtual space content can be further increased. Furthermore, by changing the generation mode, viewer avatar viewpoint images corresponding to the movement status of the performance avatar can be generated, and differences in the processing capabilities of viewer user terminals can also be accommodated.

請求項の仮想空間コンテンツ配信システムは、請求項に記載の仮想空間コンテンツ配信システムであって、
前記仮想空間コンテンツは、前記演者アバターが前記仮想空間においてパフォーマンス(例えば、歌唱やダンス)を行うコンテンツである
ことを特徴としている。
この特徴によれば、演者アバターがパフォーマンスを行うので、仮想空間コンテンツの興趣をより一層向上できる。
The virtual space content delivery system of claim 2 is the virtual space content delivery system according to claim 1 ,
The virtual space content is characterized in that the performer avatar performs a performance (e.g., singing or dancing) in the virtual space.
According to this feature, since a performer avatar performs, the interest of the virtual space content can be further increased.

請求項の仮想空間コンテンツ配信システムは、請求項1または2に記載の仮想空間コンテンツ配信システムであって、
各々の前記視聴者アバターに対応した視点映像ではなく、各々の前記視聴者ユーザー端末において共通して表示される共通視点映像(例えば、仮想カメラ視点映像)については、前記サーバコンピュータが生成して前記視聴者ユーザー端末に映像配信可能である(例えば、図25に示すように、実施例2の開演前説、開演演出、フライング演出期間中のように、仮想カメラ視点映像のみが視聴可能な期間については、配信用サーバコンピュータ100が仮想カメラ視点映像を生成して視聴者端末300に配信する部分)
ことを特徴としている。
この特徴によれば、重複した処理が視聴者ユーザー端末において実行されることによって、システム全体の処理負荷が無駄に増大してしまうことを防ぐことができる。
The virtual space content delivery system of claim 3 is the virtual space content delivery system according to claim 1 or 2,
Regarding a common viewpoint image (e.g., a virtual camera viewpoint image) that is commonly displayed on each of the viewer user terminals, rather than a viewpoint image corresponding to each of the viewer avatars, the server computer can generate it and distribute it to the viewer user terminal (for example, as shown in FIG. 25, during a period in which only the virtual camera viewpoint image is viewable, such as during the pre-show, opening performance, and flying performance periods in Example 2, the distribution server computer 100 generates the virtual camera viewpoint image and distributes it to the viewer terminal 300).
It is characterized by the following.
According to this feature, it is possible to prevent unnecessary increase in the processing load of the entire system due to duplicated processing being executed at the viewer user terminal.

請求項の仮想空間コンテンツ配信システムは、請求項に記載の仮想空間コンテンツ配信システムであって、
前記視聴者ユーザー端末において、前記視聴者アバター視点映像と前記共通視点映像とのいずれかの視点映像を選択して表示可能な特定期間においては、前記共通視点映像を前記視聴者ユーザー端末が生成して表示する(例えば、図26に示すように、実施例2のMC期間中及びフライング演出期間中を除く演目期間中のように、視聴者ユーザー視点映像と仮想カメラ視点映像の両方を視聴可能な期間については、仮想カメラ視点映像を視聴者端末300側で生成する部分)
ことを特徴としている。
この特徴によれば、視点映像が切り替わるときに、映像が途切れる等の不具合が生じることを防ぐことができる。
The virtual space content delivery system of claim 4 is the virtual space content delivery system according to claim 3 ,
During a specific period in which either the viewer avatar viewpoint video or the common viewpoint video can be selected and displayed on the viewer user terminal, the viewer user terminal generates and displays the common viewpoint video (for example, as shown in FIG. 26, during a program period excluding the MC period and the flying performance period in Example 2, during a period in which both the viewer user viewpoint video and the virtual camera viewpoint video can be viewed, the virtual camera viewpoint video is generated on the viewer terminal 300 side).
It is characterized by the following.
According to this feature, it is possible to prevent problems such as interruption of the video when switching the viewpoint video.

請求項の仮想空間コンテンツ配信システムは、請求項に記載の仮想空間コンテンツ配信システムであって、
前記サーバコンピュータにおける処理負荷が大きい特別期間においては、前記共通視点映像についても前記視聴者ユーザー端末が生成して表示する(例えば、配信用サーバコンピュータ100における処理負荷が大きい、実施例2の衣装チェンジ演出期間や分身演出期間においては、仮想カメラ視点映像を視聴者端末300側で生成する部分)
ことを特徴としている。
この特徴によれば、サーバコンピュータにおける処理負荷が一時的に極端に大きくなってしまうことを防ぐことができる。
The virtual space content delivery system of claim 5 is the virtual space content delivery system according to claim 3 ,
In a special period in which the processing load on the server computer is large, the viewer user terminal also generates and displays the common viewpoint video (for example, in a costume change performance period or a double-ego performance period in the second embodiment in which the processing load on the distribution server computer 100 is large, the virtual camera viewpoint video is generated on the viewer terminal 300 side).
It is characterized by the following.
This feature makes it possible to prevent the processing load on the server computer from temporarily becoming extremely large.

請求項の仮想空間コンテンツ配信システムは、請求項1または2に記載の仮想空間コンテンツ配信システムであって、
前記サーバコンピュータは、前記仮想空間の基本データ並びに該仮想空間に参加するアバターの基本データを含む事前データ(例えば、仮想空間データ、演者アバターデータ、視聴者アバターデータ等を含む事前データ)を、仮想空間コンテンツを開始する前に各々の前記視聴者ユーザー端末に対して事前送信する(例えば、配信用サーバコンピュータ100が、事前データDL期間において事前データを配信する部分)
ことを特徴としている。
この特徴によれば、仮想空間コンテンツの開始時において視聴者アバター視点映像が良好に表示されない不具合の発生を防ぐことができる。
A virtual space content delivery system according to claim 6 is the virtual space content delivery system according to claim 1 or 2,
The server computer transmits advance data including basic data of the virtual space and basic data of avatars participating in the virtual space (e.g., advance data including virtual space data, performer avatar data, viewer avatar data, etc.) to each of the viewer user terminals before starting the virtual space content (e.g., a portion in which the delivery server computer 100 delivers advance data during a advance data DL period).
It is characterized by the following.
This feature makes it possible to prevent the occurrence of a problem in which the viewer avatar viewpoint video is not displayed properly at the start of virtual space content.

請求項の仮想空間コンテンツ配信システムは、請求項に記載の仮想空間コンテンツ配信システムであって、
前記サーバコンピュータは、前記事前データの受信完了が確認できない前記視聴者ユーザー端末に対しては、前記仮想空間データを送信せずに各々の前記視聴者ユーザー端末において共通して表示される共通視点映像を送信する(例えば、事前データDL完了チェックタイミングにおいて事前データのダウンロードが完了していない視聴者端末300に対して、配信用サーバコンピュータ100が生成した仮想カメラ視点映像が配信されることで、視聴者端末300においては、仮想ライブの全ての期間において仮想カメラ視点映像のみが表示可能とされている部分)
ことを特徴としている。
この特徴によれば、仮想空間コンテンツの開始後において基本データ等の送信によってサーバコンピュータにおける処理負荷が過度に増大してしまうことを防ぎつつ、視聴者ユーザーが仮想空間コンテンツを視聴できなくなってしまうことを防ぐこともできる。
The virtual space content delivery system of claim 7 is the virtual space content delivery system according to claim 6 ,
The server computer does not transmit the virtual space data to the viewer user terminals for which it cannot confirm that the advance data has been received, but transmits a common viewpoint video to be displayed in common on each of the viewer user terminals (for example, a virtual camera viewpoint video generated by the distribution server computer 100 is distributed to a viewer terminal 300 for which the advance data download completion check timing has not yet been completed, so that only the virtual camera viewpoint video can be displayed on the viewer terminal 300 during the entire period of the virtual live).
It is characterized by the following.
This feature prevents the processing load on the server computer from increasing excessively due to the transmission of basic data, etc. after the start of the virtual space content, while also preventing the viewer user from being unable to view the virtual space content.

請求項の仮想空間コンテンツ配信システムは、請求項1または2に記載の仮想空間コンテンツ配信システムであって、
記視聴者ユーザー端末として第1視聴者ユーザー端末(例えば、変形例2-2の視聴者ユーザーAの視聴者端末300a)と第2視聴者ユーザー端末(例えば、変形例2-2の視聴者ユーザーBの視聴者端末300b)とを含み、
前記サーバコンピュータは、前記第2視聴者ユーザー端末には、前記第1視聴者ユーザー端末とは異なる前記仮想空間データを送信可能である(例えば、視聴者端末300aに送信される特別動作Aの情報を含む仮想空間更新データAと、視聴者端末300bに送信される特別動作Aの情報を含まない仮想空間更新データBとが異なる部分)
ことを特徴としている。
この特徴によれば、仮想空間データの自由度を高めることができるとともに、第1視聴者ユーザー端末と第2視聴者ユーザー端末とにおいて異なる視聴者アバター視点映像を生成させることができる。
The virtual space content delivery system of claim 8 is the virtual space content delivery system according to claim 1 or 2,
The viewer user terminals include a first viewer user terminal (e.g., viewer terminal 300a of viewer user A in modification 2-2) and a second viewer user terminal (e.g., viewer terminal 300b of viewer user B in modification 2-2),
The server computer can transmit the virtual space data to the second viewer user terminal that is different from that transmitted to the first viewer user terminal (for example, the difference between virtual space update data A including information on special action A transmitted to viewer terminal 300a and virtual space update data B not including information on special action A transmitted to viewer terminal 300b).
It is characterized by the following.
According to this feature, it is possible to increase the degree of freedom of the virtual space data, and to generate different viewer avatar viewpoint images for the first viewer user terminal and the second viewer user terminal.

請求項の仮想空間コンテンツ配信システムは、請求項に記載の仮想空間コンテンツ配信システムであって、
前記第2視聴者ユーザー端末は、前記第1視聴者ユーザー端末に送信される前記仮想空間データとは異なる仮想空間データにもとづいて、該第1視聴者ユーザー端末を利用する第1視聴者ユーザーの第1視聴者アバターの動作とは異なる動作(例えば、変形例2-2における特別動作)を行う第2視聴者アバターの映像を生成可能である
ことを特徴としている。
この特徴によれば、第1視聴者アバターの動作とは異なる動作を行う第2視聴者アバターの映像を、第2視聴者ユーザー端末において表示できるため、仮想空間コンテンツに対する第2視聴者ユーザーの興趣を向上できる。
The virtual space content delivery system of claim 9 is the virtual space content delivery system according to claim 8 ,
The second viewer user terminal is characterized in that it is capable of generating an image of a second viewer avatar performing an action (e.g., a special action in variant example 2-2) different from the action of the first viewer avatar of the first viewer user using the first viewer user terminal based on virtual space data different from the virtual space data transmitted to the first viewer user terminal.
According to this feature, an image of a second viewer avatar performing actions different from those of the first viewer avatar can be displayed on the second viewer user terminal, thereby increasing the second viewer user's interest in the virtual space content.

請求項1の仮想空間コンテンツ配信プログラムは、
仮想空間(例えば、仮想ライブ会場)における仮想空間コンテンツ(例えば、仮想ライブ)を、少なくともサーバコンピュータ(例えば、配信用サーバコンピュータ100)を用いてネットワーク(例えば、インターネット)を介して配信するための仮想空間コンテンツ配信プログラム(例えば、配信用サーバコンピュータ100において仮想空間更新データの送信に関して動作するプログラム、および視聴者端末300において視聴者アバター視点映像を生成に関して動作するプログラム)であって、
前記仮想空間コンテンツの対象となる仮想空間に参加可能なアバター(例えば、視聴者アバター)は、視聴者ユーザーが利用可能な端末であって前記ネットワークを介して前記サーバコンピュータに接続された視聴者ユーザー端末(例えば、視聴者端末300)における操作によって前記仮想空間において動作する視聴者アバターを含み、
前記視聴者ユーザーが複数であって、各視聴者ユーザー毎に前記視聴者ユーザー端末が割り当てられており(例えば、図1に示すように、視聴者ユーザーA~Cに視聴者端末300a~cが割り当てられている部分)、
各々の前記視聴者ユーザー端末において、前記視聴者アバターに対応した前記仮想空間の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を前記サーバコンピュータから送信されてくる前記仮想空間の仮想空間データ(例えば、仮想空間更新データ)にもとづいて生成するステップ(例えば、視聴者視点映像生成処理)を含み、
前記仮想空間コンテンツは、演者ユーザーが演者アバターとして前記仮想空間に参加可能なコンテンツであり、
前記仮想空間データは、前記演者アバターの動作を生成するためのデータであって、前記視聴者ユーザー端末において前記演者アバターの動作を生成するときに該生成に係わる処理負荷が異なる複数の生成態様にて当該動作を生成可能な演者アバター用動作データを含
ことを特徴としている。
この特徴によれば、処理負荷が大きな視聴者アバター視点映像の生成が視聴者ユーザー端末側で行われるので、より多くの視聴者ユーザーを参加させることができる。また、演者ユーザーが演者アバターとして参加することとともに、該演者アバターの動作を視聴者アバター視点映像において反映させることができるので、仮想空間コンテンツの興趣をより一層向上できる。更に、生成態様を変更することで、演出アバターの動作状況に対応した視聴者アバター視点映像を生成することができるともに、視聴者ユーザー端末の処理能力等の違いについても対応することができる。
The virtual space content delivery program according to claim 10 ,
A virtual space content distribution program (e.g., a program that operates in the distribution server computer 100 to transmit virtual space update data, and a program that operates in the viewer terminal 300 to generate a viewer avatar viewpoint video) for distributing virtual space content (e.g., a virtual live performance) in a virtual space (e.g., a virtual live performance venue) over a network (e.g., the Internet) using at least a server computer (e.g., a distribution server computer 100),
The avatars (e.g., viewer avatars) that can participate in the virtual space that is the subject of the virtual space content include viewer avatars that operate in the virtual space by operating a viewer user terminal (e.g., viewer terminal 300) that is a terminal available to a viewer user and is connected to the server computer via the network,
There are a plurality of viewer users, and each viewer user is assigned a viewer user terminal (for example, as shown in FIG. 1, viewer users A to C are assigned viewer terminals 300a to 300c),
a step of generating, in each of the viewer user terminals, a viewer avatar viewpoint image, which is a viewpoint image of the virtual space corresponding to the viewer avatar, based on virtual space data of the virtual space (e.g., virtual space update data) transmitted from the server computer (e.g., a viewer viewpoint image generating process) ;
The virtual space content is content in which a performer user can participate in the virtual space as a performer avatar,
The virtual space data is data for generating movements of the performer avatar, and is characterized in that it includes movement data for the performer avatar that can generate the movements of the performer avatar in a plurality of generation modes that have different processing loads when generating the movements of the performer avatar on the viewer user terminal .
According to this feature, the generation of viewer avatar viewpoint images, which requires a large processing load, is performed on the viewer user terminal side, so that more viewer users can participate. Also, performer users can participate as performer avatars, and the movements of the performer avatars can be reflected in the viewer avatar viewpoint images, so that the interest of the virtual space content can be further increased. Furthermore, by changing the generation mode, viewer avatar viewpoint images corresponding to the movement status of the performance avatar can be generated, and differences in the processing capabilities of viewer user terminals can also be accommodated.

請求項1の仮想空間コンテンツ配信方法は、
仮想空間(例えば、仮想ライブ会場)における仮想空間コンテンツ(例えば、仮想ライブ)を、少なくともサーバコンピュータ(例えば、配信用サーバコンピュータ100)を用いてネットワーク(例えば、インターネット)を介して配信するための仮想空間コンテンツ配信方法であって、
前記仮想空間コンテンツの対象となる仮想空間に参加可能なアバター(例えば、視聴者アバター)は、視聴者ユーザーが利用可能な端末であって前記ネットワークを介して前記サーバコンピュータに接続された視聴者ユーザー端末(例えば、視聴者端末300)における操作によって前記仮想空間において動作する視聴者アバターを含み、
前記視聴者ユーザーが複数であって、各視聴者ユーザー毎に前記視聴者ユーザー端末が割り当てられており(例えば、図1に示すように、視聴者ユーザーA~Cに視聴者端末300a~cが割り当てられている部分)、
各々の前記視聴者ユーザー端末において、前記視聴者アバターに対応した前記仮想空間の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を前記サーバコンピュータから送信されてくる前記仮想空間の仮想空間データ(例えば、仮想空間更新データ)にもとづいて生成する手順(例えば、視聴者視点映像生成処理)を含み、
前記仮想空間コンテンツは、演者ユーザーが演者アバターとして前記仮想空間に参加可能なコンテンツであり、
前記仮想空間データは、前記演者アバターの動作を生成するためのデータであって、前記視聴者ユーザー端末において前記演者アバターの動作を生成するときに該生成に係わる処理負荷が異なる複数の生成態様にて当該動作を生成可能な演者アバター用動作データを含
ことを特徴としている。
この特徴によれば、処理負荷が大きな視聴者アバター視点映像の生成が視聴者ユーザー端末側で行われるので、より多くの視聴者ユーザーを参加させることができる。また、演者ユーザーが演者アバターとして参加することとともに、該演者アバターの動作を視聴者アバター視点映像において反映させることができるので、仮想空間コンテンツの興趣をより一層向上できる。更に、生成態様を変更することで、演出アバターの動作状況に対応した視聴者アバター視点映像を生成することができるともに、視聴者ユーザー端末の処理能力等の違いについても対応することができる。
The virtual space content delivery method according to claim 11 ,
A virtual space content distribution method for distributing virtual space content (e.g., a virtual live performance) in a virtual space (e.g., a virtual live performance venue) via a network (e.g., the Internet) using at least a server computer (e.g., a distribution server computer 100), comprising:
The avatars (e.g., viewer avatars) that can participate in the virtual space that is the subject of the virtual space content include viewer avatars that operate in the virtual space by operating a viewer user terminal (e.g., viewer terminal 300) that is a terminal available to a viewer user and is connected to the server computer via the network,
There are a plurality of viewer users, and each viewer user is assigned a viewer user terminal (for example, as shown in FIG. 1, viewer users A to C are assigned viewer terminals 300a to 300c),
a step (e.g., a viewer viewpoint image generation process) of generating, in each of the viewer user terminals, a viewer avatar viewpoint image which is a viewpoint image of the virtual space corresponding to the viewer avatar, the viewer avatar viewpoint image based on virtual space data (e.g., virtual space update data) of the virtual space transmitted from the server computer ;
The virtual space content is content in which a performer user can participate in the virtual space as a performer avatar,
The virtual space data is data for generating movements of the performer avatar, and is characterized in that it includes movement data for the performer avatar that can generate the movements of the performer avatar in a plurality of generation modes that have different processing loads when generating the movements of the performer avatar on the viewer user terminal .
According to this feature, the generation of viewer avatar viewpoint images, which requires a large processing load, is performed on the viewer user terminal side, so that more viewer users can participate. Also, performer users can participate as performer avatars, and the movements of the performer avatars can be reflected in the viewer avatar viewpoint images, so that the interest of the virtual space content can be further increased. Furthermore, by changing the generation mode, viewer avatar viewpoint images corresponding to the movement status of the performance avatar can be generated, and differences in the processing capabilities of viewer user terminals can also be accommodated.

尚、本発明は、本発明の請求項に記載された発明特定事項のみを有するものであって良いし、本発明の請求項に記載された発明特定事項とともに該発明特定事項以外の構成を有するものであっても良い。 The present invention may have only the invention-specific matters described in the claims of the present invention, or may have the invention-specific matters described in the claims of the present invention as well as configurations other than the invention-specific matters.

本発明の実施例1における仮想空間コンテンツ配信システムのシステム構成例を示すブロック図である。1 is a block diagram showing an example of a system configuration of a virtual space content delivery system according to a first embodiment of the present invention. 本発明の実施例1の仮想空間コンテンツ配信システムにおける配信用サーバコンピュータの構成例を示す図である。1 is a diagram illustrating an example of the configuration of a delivery server computer in a virtual space content delivery system according to a first embodiment of the present invention. 本発明の実施例1の配信用サーバコンピュータが有するストレージに記憶されている各種データを示す図である。3 is a diagram showing various data stored in a storage device of a delivery server computer according to the first embodiment of the present invention; FIG. 本発明の実施例1の仮想空間コンテンツ配信システムにおける演者端末の構成例を示す図である。2 is a diagram showing an example of the configuration of a performer terminal in the virtual space content distribution system according to the first embodiment of the present invention; FIG. 本発明の実施例1の仮想空間コンテンツ配信システムにおける視聴者端末の構成例を示す図である。2 is a diagram illustrating an example of the configuration of a viewer terminal in the virtual space content delivery system according to the first embodiment of the present invention. 本発明の実施例1の仮想空間コンテンツ配信システムにおける管理者端末の構成例を示す図である。2 is a diagram illustrating an example of the configuration of an administrator terminal in the virtual space content delivery system according to the first embodiment of the present invention. FIG. 本発明の実施例1の仮想空間コンテンツ配信システムにおけるイベントデータの構成例を示す図である。3 is a diagram showing an example of the configuration of event data in the virtual space content delivery system according to the first embodiment of the present invention; FIG. 本発明の実施例1の仮想空間コンテンツ配信システムにおける演者ユーザーデータの構成例を示す図である。A figure showing an example of the configuration of performer user data in the virtual space content distribution system of Example 1 of the present invention. 本発明の実施例1の仮想空間コンテンツ配信システムにおける視聴者ユーザーデータの構成例を示す図である。3 is a diagram showing an example of the configuration of viewer user data in the virtual space content delivery system according to the first embodiment of the present invention; FIG. 本発明の実施例1の仮想空間コンテンツ配信システムを構成する各端末とサーバコンピュータとの間において送受されるデータを示す説明図である。2 is an explanatory diagram showing data exchanged between each terminal and a server computer constituting the virtual space content distribution system according to the first embodiment of the present invention; FIG. 本発明の実施例1の仮想空間コンテンツ配信システムにおいて、演者ユーザーが利用するスタジオの設備を示す模式図である。1 is a schematic diagram showing the facilities of a studio used by a performer user in a virtual space content delivery system according to a first embodiment of the present invention. FIG. 本発明の実施例1の仮想空間コンテンツ配信システムにおいて使用される仮想空間である仮想ライブ会場を示す図である。1 is a diagram showing a virtual live performance venue, which is a virtual space used in a virtual space content distribution system according to a first embodiment of the present invention. FIG. 本発明の実施例1の仮想空間コンテンツ配信システムを構成する視聴者端末における表示例を示す図である。1 is a diagram showing an example of a display on a viewer terminal constituting the virtual space content delivery system according to the first embodiment of the present invention; 本発明の実施例1の仮想空間コンテンツ配信システムを構成する視聴者端末における表示例を示す図である。1 is a diagram showing an example of a display on a viewer terminal constituting the virtual space content delivery system according to the first embodiment of the present invention; 本発明の実施例1の仮想空間コンテンツ配信システムを構成する演者端末における表示例を示す図である。1 is a diagram showing an example of a display on a performer terminal constituting a virtual space content distribution system according to a first embodiment of the present invention. FIG. 本発明の実施例1の仮想空間コンテンツ配信システムを構成する視聴者端末におけるズーム操作による表示例を示す図である。1A to 1C are diagrams illustrating examples of display by zooming operations on a viewer terminal constituting the virtual space content delivery system according to the first embodiment of the present invention. 本発明の実施例1の仮想空間コンテンツ配信システムを構成する視聴者端末におけるズーム操作による表示例を示す図である。1A to 1C are diagrams illustrating examples of display by zooming operations on a viewer terminal constituting the virtual space content delivery system according to the first embodiment of the present invention. 本発明の実施例1の仮想空間コンテンツ配信システムを構成する視聴者端末における表示例を示す図である。1 is a diagram showing an example of a display on a viewer terminal constituting the virtual space content delivery system according to the first embodiment of the present invention; 本発明の実施例1の仮想空間コンテンツ配信システムを構成する視聴者端末におけるフライング演出期間の表示例を示す図である。A figure showing an example of the display of a flying performance period on a viewer terminal constituting the virtual space content distribution system of Example 1 of the present invention. 本発明の実施例1の仮想空間コンテンツ配信システムを構成する視聴者端末において実行される視聴者用視点映像制御処理の一例を示すフロー図である。1 is a flow diagram showing an example of a viewer viewpoint video control process executed in a viewer terminal constituting the virtual space content delivery system according to the first embodiment of the present invention. 本発明の実施例2の仮想空間コンテンツ配信システムにて配信される仮想ライブの内容を示す説明図である。FIG. 11 is an explanatory diagram showing the contents of a virtual live performance delivered by a virtual space content delivery system according to a second embodiment of the present invention. 本発明の実施例2の仮想空間コンテンツ配信システムを構成する配信用サーバコンピュータと視聴者端末との間において送受されるデータを示す説明図である。11 is an explanatory diagram showing data exchanged between a delivery server computer and a viewer terminal constituting a virtual space content delivery system according to a second embodiment of the present invention; FIG. 本発明の実施例2の仮想空間コンテンツ配信システムを構成する配信用サーバコンピュータにおいて使用される参加者ユーザーテーブルを示す図である。13 is a diagram showing a participant user table used in a delivery server computer constituting a virtual space content delivery system according to a second embodiment of the present invention. FIG. 本発明の実施例2の仮想空間コンテンツ配信システムを構成する配信用サーバコンピュータと視聴者端末との間において送受されるデータを示す説明図である。11 is an explanatory diagram showing data exchanged between a delivery server computer and a viewer terminal constituting a virtual space content delivery system according to a second embodiment of the present invention; FIG. 本発明の実施例2の仮想空間コンテンツ配信システムを構成する配信用サーバコンピュータと視聴者端末との間において送受されるデータを示す説明図である。11 is an explanatory diagram showing data exchanged between a delivery server computer and a viewer terminal that constitute a virtual space content delivery system according to a second embodiment of the present invention. FIG. 本発明の実施例2の仮想空間コンテンツ配信システムを構成する配信用サーバコンピュータと視聴者端末との間において送受されるデータを示す説明図である。11 is an explanatory diagram showing data exchanged between a delivery server computer and a viewer terminal constituting a virtual space content delivery system according to a second embodiment of the present invention; FIG. 本発明の実施例2の仮想空間コンテンツ配信システムにおいて仮想ライブの期間種別と仮想カメラ視点映像の生成主体との関係を示す説明図である。11 is an explanatory diagram showing the relationship between the period type of a virtual live show and the entity that generates the virtual camera viewpoint video in a virtual space content distribution system according to a second embodiment of the present invention. FIG. 本発明の実施例2の仮想空間コンテンツ配信システムを構成する配信用サーバコンピュータと視聴者端末とにおける仮想カメラ視点映像並びに視聴者視点映像の生成状況を示す説明図である。10 is an explanatory diagram showing the generation status of a virtual camera viewpoint image and a viewer viewpoint image in a distribution server computer and a viewer terminal that constitute a virtual space content distribution system of Example 2 of the present invention. FIG. 本発明の実施例2の変形例における視聴者視点映像生成処理を示すフロー図である。FIG. 11 is a flow diagram showing a viewer viewpoint video generation process in a modified example of the second embodiment of the present invention. 本発明の実施例2の変形例において配信用サーバコンピュータから送信される仮想空間更新データの内容を示す図である。FIG. 13 is a diagram showing the contents of virtual space update data transmitted from a delivery server computer in a modified example of the second embodiment of the present invention. 本発明の実施例3の仮想空間コンテンツ配信システムにて配信される仮想ライブの内容を示す説明図である。FIG. 11 is an explanatory diagram showing the contents of a virtual live performance delivered by a virtual space content delivery system according to a third embodiment of the present invention. (A)、(B)は、本発明の実施例3の仮想ライブにおける視聴者ユーザーの動作態様を示す図である。13A and 13B are diagrams illustrating the behavior of a viewer user in a virtual live event according to a third embodiment of the present invention. (A)は、本発明の実施例3の仮想空間コンテンツ配信システムを構成する配信用サーバコンピュータから視聴者端末に送受されるデータを示す説明図であり、(B)は、仮想ライブにおける各視聴者ユーザーの動作タイミングの違いを示す説明図である。1A is an explanatory diagram showing data sent and received from a distribution server computer constituting a virtual space content distribution system of Example 3 of the present invention to a viewer terminal, and FIG. 1B is an explanatory diagram showing differences in the timing of actions of each viewer user during a virtual live performance. (A)は、本発明の実施例3の仮想空間コンテンツ配信システムを構成する配信用サーバコンピュータにおいて使用される参加者ユーザーテーブルを示す図であり、(B)は、配信用サーバコンピュータに記憶されている楽曲リストデータを示す図である。1A is a diagram showing a participant user table used in a distribution server computer constituting a virtual space content distribution system of Example 3 of the present invention, and FIG. 1B is a diagram showing music list data stored in the distribution server computer. 本発明の実施例3の仮想ライブの各期間において配信用サーバコンピュータによる各情報の送信状況を示す説明図である。FIG. 13 is an explanatory diagram showing the transmission status of each piece of information by the distribution server computer during each period of the virtual live in Example 3 of the present invention. 本発明の実施例3の仮想空間コンテンツ配信システムを構成する配信用サーバコンピュータと視聴者端末との間において送受されるデータを示す説明図である。13 is an explanatory diagram showing data exchanged between a delivery server computer and a viewer terminal that constitute a virtual space content delivery system according to a third embodiment of the present invention. FIG. 本発明の実施例3の仮想空間コンテンツ配信システムを構成する配信用サーバコンピュータにおいて実行される遅延動作者決定処理の内容を示すフロー図である。FIG. 11 is a flow diagram showing the contents of a delay actor determination process executed in a delivery server computer constituting a virtual space content delivery system according to a third embodiment of the present invention. 本発明の実施例3の仮想空間コンテンツ配信システムを構成する配信用サーバコンピュータと視聴者端末との間において送受されるデータを示す説明図である。13 is an explanatory diagram showing data exchanged between a delivery server computer and a viewer terminal that constitute a virtual space content delivery system according to a third embodiment of the present invention. FIG. (A)は、本発明の実施例3の仮想空間コンテンツ配信システムを構成する視聴者端末において実行される視聴者視点映像生成処理1の内容を示すフロー図であり、(B)は、視聴者視点映像生成処理2の内容を示すフロー図である。13A is a flow diagram showing the contents of viewer perspective video generation process 1 executed in a viewer terminal constituting a virtual space content distribution system of Example 3 of the present invention, and FIG. 13B is a flow diagram showing the contents of viewer perspective video generation process 2. (A)、(B)は、本発明の実施例3の仮想空間コンテンツ配信システムを構成する視聴者端末における仮想ライブの視聴者視点映像の表示例である。13A and 13B are examples of the display of a viewer's viewpoint video of a virtual live performance on a viewer terminal constituting a virtual space content delivery system according to a third embodiment of the present invention. (A)、(B)は、本発明の実施例3の仮想空間コンテンツ配信システムを構成する視聴者端末における仮想ライブの視聴者視点映像の表示例である。13A and 13B are examples of the display of a viewer's viewpoint video of a virtual live performance on a viewer terminal constituting a virtual space content delivery system according to a third embodiment of the present invention. 本発明の変形例における仮想ライブ会場を示す図である。FIG. 13 is a diagram showing a virtual live concert venue in a modified example of the present invention. 本発明の変形例における仮想ライブ会場への参加位置選択画面を示す図である。FIG. 13 is a diagram showing a participation position selection screen for a virtual live performance venue in a modified example of the present invention. (A)、本発明の変形例における視聴者ユーザーの移動可能範囲を示す図であり、(B)は、該変形例において視聴者端末に表示される表示例を示す図である。FIG. 13A is a diagram showing a movable range of a viewer user in a modified example of the present invention, and FIG. 13B is a diagram showing an example of a display displayed on a viewer terminal in the modified example. 本発明の変形例において、視聴者アバターの動作が調整される状況を示す説明図である。11 is an explanatory diagram showing a situation in which the movement of a viewer avatar is adjusted in a modified example of the present invention. 本発明の変形例において、仮想ライブの期間と上演コンテンツと非上演コンテンツが行われる期間との関係を示す図である。A diagram showing the relationship between the duration of a virtual live show and the periods during which performance content and non-performance content are performed in a modified example of the present invention. 本発明の変形例において、仮想ライブの期間と視聴者アバターが可能な動作との関係を示す図である。A diagram showing the relationship between the duration of a virtual live show and the actions that a viewer avatar can take in a modified example of the present invention. 本発明の変形例において、配信用サーバコンピュータと視聴者端末との間において送受されるデータを示す説明図である。FIG. 11 is an explanatory diagram showing data exchanged between a distribution server computer and a viewer terminal in a modified example of the present invention.

本発明の仮想空間コンテンツ配信システムを実施するための形態について、実施例にもとづいて図面を用いて以下に説明する。尚、複数の図面において同一の又は類似する構成要素には同じ参照符号を付することで、重複する説明は省くものとする。また、本発明に係わる仮想空間コンテンツ配信プログラムは、仮想空間コンテンツ配信システムを構成する後述するサーバコンピュータや各端末から成るシステム全体で使用されるプログラムであってもよいし、仮想空間コンテンツ配信システムを構成する一部の装置である、例えば、サーバコンピュータや各端末だけで動作するものであってもよく、以下において説明する各処理については、いずれも、処理が行われる機器に記憶されているプログラムによって実行される。 The following describes the form for implementing the virtual space content distribution system of the present invention based on the embodiment and the drawings. Note that the same reference numerals are used to designate identical or similar components in multiple drawings, and duplicated explanations will be omitted. The virtual space content distribution program of the present invention may be a program used by the entire system consisting of the server computer and each terminal that constitute the virtual space content distribution system, which will be described later, or it may be a program that operates only on a portion of the devices that constitute the virtual space content distribution system, such as the server computer or each terminal, and each process described below is executed by a program stored in the device on which the process is performed.

図1は、本発明の1実施形態である実施例1における仮想空間コンテンツ配信システムのシステム構成例を示すブロック図であり、図1に示す本実施例1のシステムでは、演者ユーザーに対応した演者アバター1が、図12に示す仮想ライブ会場においてライブイベントを行う仮想ライブが仮想空間コンテンツとして配信される。尚、以下において配信とは、複数に対する送信であり、送信と同義である。 Figure 1 is a block diagram showing an example of the system configuration of a virtual space content distribution system in Example 1, which is an embodiment of the present invention. In the system of Example 1 shown in Figure 1, a virtual live performance in which a performer avatar 1 corresponding to a performer user performs a live event in a virtual live venue shown in Figure 12 is distributed as virtual space content. Note that in the following, distribution means transmission to multiple people, and is synonymous with transmission.

本実施例1の仮想空間コンテンツ配信システムは、図1に示すように、主に、仮想空間である図11に示す仮想ライブ会場に関する各種処理や仮想ライブの配信に関する各種処理を実行可能な配信用サーバコンピュータ100と、仮想ライブイベントを運営・管理するイベント運営機関のイベント管理者Mが、仮想ライブイベントの配信を管理するために使用する管理者端末150と、演者ユーザーが使用する演者端末200と、仮想ライブに仮想参加して仮想ライブを視聴する視聴者ユーザーが使用可能な視聴者端末300とから構成されており、配信用サーバコンピュータ100、管理者端末150、演者端末200、視聴者端末300は、オープンコンピュータネットワークであるインターネット網Nを介して、相互にデータ通信可能に接続されている。 As shown in FIG. 1, the virtual space content distribution system of this embodiment 1 is mainly composed of a distribution server computer 100 capable of executing various processes related to the virtual live venue shown in FIG. 11, which is a virtual space, and various processes related to the distribution of the virtual live event, an administrator terminal 150 used by an event manager M of an event management organization that manages and operates the virtual live event to manage the distribution of the virtual live event, a performer terminal 200 used by a performer user, and a viewer terminal 300 that can be used by a viewer user who virtually participates in and watches the virtual live event, and the distribution server computer 100, the administrator terminal 150, the performer terminal 200, and the viewer terminal 300 are connected to each other so that data communication can be performed via the Internet network N, which is an open computer network.

尚、本実施例1では、管理者端末150や演者端末200についてもインターネット網Nを介して配信用サーバコンピュータ100に接続させた形態を例示しているが、本発明はこれに限定されるものではなく、例えば、図11に示すスタジオが、イベント運営機関が運営するスタジオであって、イベント運営機関が演者ユーザーにスタジオを提供している等の場合であって、これらスタジオに配信用サーバコンピュータ100が設置されている場合にあっては、管理者端末150や演者端末200を配信用サーバコンピュータ100にローカルにデータ通信接続した形態としたり、スタジオ施設内のローカルエリアネットワークLANを介して通信接続するようにしてもよい。 In this embodiment 1, the administrator terminal 150 and the performer terminal 200 are also connected to the distribution server computer 100 via the Internet network N, but the present invention is not limited to this. For example, if the studio shown in FIG. 11 is a studio operated by an event management organization that provides studios to performer users, and the distribution server computer 100 is installed in these studios, the administrator terminal 150 and the performer terminal 200 may be locally connected to the distribution server computer 100 via data communication, or may be connected via a local area network LAN within the studio facility.

また、図1に示すように、視聴者ユーザーA、視聴者ユーザーB、視聴者ユーザーC…のように、視聴者ユーザーは複数であって、視聴者端末300としては、個々の視聴者ユーザーA、視聴者ユーザーB、視聴者ユーザーC…が使用可能な視聴者端末300a、視聴者端末300b、視聴者端末300c…を含む。尚、視聴者ユーザーは、通常、複数であるが、1人でもよいし、4人以上であってもよく、その数は仮想空間である仮想ライブ会場等に応じて適宜に決定すればよい。以下、視聴者ユーザーA、視聴者ユーザーB、視聴者ユーザーC…を総称して視聴者ユーザーと表記する場合があるとともに、視聴者端末300a、視聴者端末300b、視聴者端末300c…を総称して視聴者端末300と表記する場合がある。 As shown in FIG. 1, there are multiple viewer users, such as viewer user A, viewer user B, viewer user C, etc., and viewer terminals 300 include viewer terminals 300a, 300b, 300c, etc. that can be used by each of viewer users A, B, C, etc. Although there are usually multiple viewer users, there may be one or four or more, and the number may be determined appropriately depending on the virtual space, such as a virtual live venue. Hereinafter, viewer user A, viewer user B, viewer user C, etc. may be collectively referred to as viewer users, and viewer terminals 300a, 300b, 300c, etc. may be collectively referred to as viewer terminals 300.

また、本実施例1では、演者ユーザーを1人とした形態を例示しているが、本発明はこれに限定されるものではなく、仮想ライブは、単独で活動している複数の演者ユーザーが仮想参加する共演イベントであってもよいし、共同で活動している複数人のグループが仮想参加するグループイベントであってもよく、このように、複数の演者が出演する場合には、各演者ユーザー毎に演者端末200a、演者端末200b、演者端末200c…を設けるようにしてもよいし、複数人のグループで出演する場合であれば、1つの演者端末200を複数人で使用するようにしてもよい。 In addition, in this embodiment 1, an example is given in which there is one performer user, but the present invention is not limited to this, and the virtual live performance may be a joint event in which multiple performer users who are working individually virtually participate, or a group event in which a group of multiple people who are working together virtually participate. In this way, when multiple performers are appearing, performer terminal 200a, performer terminal 200b, performer terminal 200c, etc. may be provided for each performer user, or when a group of multiple people are performing, one performer terminal 200 may be used by multiple people.

また、図1においては、配信用サーバコンピュータ100を単体として図示しているが、本発明はこれに限定されるものではなく、これら配信用サーバコンピュータ100を、仮想空間処理を主に行う第1サーバコンピュータと配信処理を主に行う第2サーバコンピュータ等の複数のサーバコンピュータで構成したり、あるいは、クラウドサーバ等にて構成して、イベントの規模や参加する聴者ユーザーの数等に応じてサーバコンピュータの数を適宜に変更可能としてもよい。 In addition, in FIG. 1, the distribution server computer 100 is illustrated as a single unit, but the present invention is not limited to this. The distribution server computer 100 may be configured with multiple server computers, such as a first server computer that mainly performs virtual space processing and a second server computer that mainly performs distribution processing, or may be configured as a cloud server, etc., and the number of server computers may be changed appropriately depending on the scale of the event, the number of participating listener users, etc.

同様に、管理者端末150についても、図1においては単体として図示しているが、本発明はこれに限定されるものではなく、これら管理者端末150を、ライブに仮想参加する演者ユーザーや視聴者ユーザーの数等に応じて複数としてもよいことはいうまでもない。 Similarly, while the administrator terminal 150 is illustrated as a single unit in FIG. 1, the present invention is not limited to this, and it goes without saying that there may be multiple administrator terminals 150 depending on the number of performer users and viewer users virtually participating in the live performance.

<配信用サーバコンピュータ>
図2は、本実施例1に用いた配信用サーバコンピュータ100の構成を示す図である。本実施例1で用いた配信用サーバコンピュータ100は、上記のように、イベント運営機関が運営するスタジオに設置された比較的処理能力に優れた通常のサーバコンピュータであって、図2に示すように、データバス108に接続されたプロセッサ(CPU)101、メモリ(RAM)102、ハードディスク等のストレージ103、オープンコンピュータネットワークであるインターネットを介したTCP/IPプロトコルによる双方向に通信が可能な通信インターフェイス(I/F)104と、キーボード等の入力装置等を接続可能な入出力インターフェイス(I/F)105を有している。
<Distribution server computer>
Fig. 2 is a diagram showing the configuration of the distribution server computer 100 used in this embodiment 1. As described above, the distribution server computer 100 used in this embodiment 1 is a normal server computer with relatively excellent processing power installed in a studio operated by an event management organization, and as shown in Fig. 2, has a processor (CPU) 101 connected to a data bus 108, a memory (RAM) 102, a storage 103 such as a hard disk, a communication interface (I/F) 104 capable of two-way communication by TCP/IP protocol via the Internet, which is an open computer network, and an input/output interface (I/F) 105 to which an input device such as a keyboard can be connected.

尚、本実施例1では、ローカル操作を可能とするために、入出力インターフェイス(I/F)105を設けているが、通信インターフェイス(I/F)104を介してのリモート操作が可能である場合には、入出力インターフェイス(I/F)105を設けない形態としてもよい。 In this embodiment 1, an input/output interface (I/F) 105 is provided to enable local operation, but if remote operation is possible via a communication interface (I/F) 104, the input/output interface (I/F) 105 may not be provided.

配信用サーバコンピュータ100のストレージ103には、図示しないサーバ機能を提供するためのオペレーションシステム(サーバOS)に加えて、図3に示すように、各種のデータやプログラムが記憶されている。具体的には、主に、ライブイベントを管理するイベント管理機能を提供するためのイベント管理プログラム110、仮想空間である仮想ライブ会場の仮想空間を提供するための仮想空間生成プログラム120、演者ユーザーを管理する演者ユーザー管理機能を提供するための演者ユーザー管理プログラム130と、視聴者ユーザーを管理する視聴者ユーザー管理機能を提供するための視聴者ユーザー管理プログラム132と、が記憶されている。 In addition to an operation system (server OS) for providing server functions (not shown), various data and programs are stored in the storage 103 of the distribution server computer 100 as shown in FIG. 3. Specifically, mainly stored are an event management program 110 for providing an event management function for managing live events, a virtual space generation program 120 for providing a virtual space for a virtual live venue, a performer user management program 130 for providing a performer user management function for managing performer users, and a viewer user management program 132 for providing a viewer user management function for managing viewer users.

イベント管理プログラム110は、管理者端末150と協同して仮想ライブ会場(図12参照)で開催されるイベントである仮想ライブを管理するためのプログラムであって、該イベント管理プログラム110とともにストレージ103に記憶されているイベントデータ111(図7参照)、タイムスケジュールデータ(TSデータ)112、楽曲データ113を使用して仮想ライブイベントの進行を管理可能とされている。 The event management program 110 is a program for managing a virtual live event, which is an event held at a virtual live venue (see FIG. 12), in cooperation with the administrator terminal 150, and is capable of managing the progress of the virtual live event using event data 111 (see FIG. 7), time schedule data (TS data) 112, and music data 113 stored in the storage 103 together with the event management program 110.

本実施例1に用いたイベントデータ111を、図7に例示する。イベントデータ111は、イベントに固有に付与されたイベントIDに対応付けて、イベント名、タイムスケジュール(TS)データのファイル名、出演者である演者ユーザーに固有に付与された演者ID、楽曲リストのファイル名、後述する仮想観客領域の第3領域に仮想参加が許可された特別な視聴者ユーザーの情報が登録されている参加視聴者リストのファイル名と、後述する仮想観客領域の第4領域に仮想参加を予約した視聴者ユーザーの情報が登録されている参加視聴者リストのファイル名等の情報が記憶されている。 An example of the event data 111 used in this embodiment 1 is shown in FIG. 7. The event data 111 stores information such as the event name, the file name of the time schedule (TS) data, a performer ID uniquely assigned to the performer user who is the performer, the file name of the music list, the file name of the participating viewer list in which the information of special viewer users who are permitted to participate virtually is registered in the third area of the virtual audience area described below, and the file name of the participating viewer list in which the information of viewer users who have reserved virtual participation is registered in the fourth area of the virtual audience area described below, in association with the event ID uniquely assigned to the event.

尚、タイムスケジュールデータ(TSデータ)112は、開催される仮想ライブイベントの進行順序や楽曲等の演目が時系列に記述されたデータとされており、該タイムスケジュールデータ(TSデータ)112に記述されたタイムスケジュールにもとづいて仮想ライブイベントが進行するように管理される。また、これらタイムスケジュールデータ(TSデータ)112やイベントデータ111等は、管理者端末150をイベント管理者Mが操作することによって変更、更新、追加することができる。 The time schedule data (TS data) 112 is data that describes the order of progression of the virtual live event to be held and the programs such as songs in chronological order, and the virtual live event is managed so that it progresses based on the time schedule described in the time schedule data (TS data) 112. Furthermore, the time schedule data (TS data) 112 and event data 111 can be changed, updated, or added by the event manager M operating the manager terminal 150.

また、楽曲データ113は、演者ユーザーが歌唱する各楽曲の演奏パート(所謂カラオケ)のデータであって、イベント管理プログラム110によってタイムスケジュールデータ(TSデータ)112にもとづいて、後述する音声制御プログラム124によって再生されて、演者端末200や視聴者端末300に送信される(図11参照)。 The song data 113 is data on the performance parts (so-called karaoke) of each song sung by the performer user, and is played by the audio control program 124 (described later) based on the time schedule data (TS data) 112 by the event management program 110, and is transmitted to the performer terminal 200 and the viewer terminal 300 (see FIG. 11).

仮想空間生成プログラム120は、図12に示す仮想空間である仮想ライブ会場を提供するためのプログラムであって、該仮想空間生成プログラム120とともにストレージ103に記憶されている仮想ライブ会場の構造等が記述された仮想空間データ121、仮想ライブ会場に配置される種々の物体(ステージ上の星の装飾物である仮想配置オブジェクト43や上空の星のオブジェである仮想空中オブジェクト50~52を含む)等を仮想空間内に配置するためのオブジェクトデータ122、並びに後述する演者ユーザーデータ131に含まれている演者アバターデータおよび視聴者ユーザーデータ133に含まれている視聴者アバターデータとを用いて、演者アバターや視聴者アバターが仮想参加している仮想ライブ会場を提供する機能を有する。 The virtual space generation program 120 is a program for providing a virtual live venue, which is the virtual space shown in FIG. 12, and has the function of providing a virtual live venue in which performer avatars and viewer avatars are virtually participating, using virtual space data 121 describing the structure of the virtual live venue, which is stored in storage 103 together with the virtual space generation program 120, object data 122 for placing various objects (including virtual placement object 43, which is a star decoration on the stage, and virtual aerial objects 50-52, which are star objects in the sky) to be placed in the virtual space, and performer avatar data included in performer user data 131 described below and viewer avatar data included in viewer user data 133.

視点映像制御プログラム123は、図12に示すように、仮想ライブ会場に仮想的に設定された仮想カメラC1~C4並びに空中移動仮想カメラ(図示略)からの視点映像を生成する機能を提供するとともに、視聴者端末300と協同して仮想ライブ会場の第3領域にて仮想参加している視聴者アバター11~14、第4領域にて仮想参加している視聴者アバター21~32の各視点からの映像を視聴者端末300に表示する機能を提供するためのプログラムである。尚、仮想カメラC2は、仮想ライブ会場のステージ上にいる演者アバター1の視点からの映像とするために設定された仮想カメラであり、該仮想カメラC2からの視点映像が、演者端末200と協同して該演者端末200に接続された後述するプロジェクタ211によって、スタジオにもうけられているスクリーンSに投影されるようになっている。 As shown in FIG. 12, the viewpoint image control program 123 is a program that provides a function to generate viewpoint images from virtual cameras C1-C4 virtually set in the virtual live venue and an airborne virtual camera (not shown), and also provides a function to display images from the viewpoints of viewer avatars 11-14 virtually participating in the third area of the virtual live venue and viewer avatars 21-32 virtually participating in the fourth area on the viewer terminal 300. Note that virtual camera C2 is a virtual camera set to provide an image from the viewpoint of performer avatar 1 on the stage of the virtual live venue, and the viewpoint image from virtual camera C2 is projected onto a screen S installed in the studio by a projector 211 (described later) connected to the performer terminal 200 in cooperation with the performer terminal 200.

音声制御プログラム124は、仮想ライブイベントにおいて配信される音声(楽曲を含む)に関する制御を行うためのプログラムであり、具体的には、楽曲データ113の再生機能や演者ユーザーが発した音声を再生した楽曲と合成して管理者端末150や視聴者端末300に配信する機能を提供する。 The audio control program 124 is a program for controlling the audio (including music) distributed during the virtual live event, and specifically provides a function for playing music data 113 and a function for synthesizing the audio produced by the performer user with the played music and distributing it to the administrator terminal 150 and the viewer terminal 300.

コメント制御プログラム125は、後述する視聴者端末300に記憶されている視聴者用コメント制御プログラムと協同して、仮想ライブイベントにおいて各視聴者ユーザーが視聴者端末300において入力した種々のコメントを、時系列に演者端末200並びに視聴者端末300に表示させる機能を提供する。 The comment control program 125 cooperates with a viewer comment control program stored in the viewer terminal 300 described below to provide a function for displaying various comments entered by each viewer user in the viewer terminal 300 during a virtual live event in chronological order on the performer terminal 200 and the viewer terminal 300.

ギフト制御プログラム126は、後述する視聴者端末300に記憶されている視聴者用プログラムと協同して、視聴者ユーザーから演者ユーザーに贈られるギフトに関する制御を行うためのプログラムであり、具体的には、ギフトデータ134に記憶されている各種ギフトに設定された購入単価の情報にもとづいて視聴者ユーザーがギフトの購入を行う機能や、ギフトデータ134に含まれているギフトのオブジェクトデータを用いて購入したギフトを視聴者ユーザーが演者ユーザーに贈るための処理機能(贈るときの演出等の処理を含む)や、贈られたギフトの所有者を視聴者ユーザーから演者ユーザーに変更するための処理機能等を提供する。 The gift control program 126 is a program for controlling gifts given from viewer users to performer users in cooperation with a viewer program stored in the viewer terminal 300 described below, and specifically provides functions such as a function for the viewer user to purchase gifts based on information on the unit purchase price set for various gifts stored in the gift data 134, a processing function for the viewer user to give gifts purchased using the gift object data included in the gift data 134 to the performer user (including processing for presentation when giving the gift), and a processing function for changing the owner of a gift given from the viewer user to the performer user.

演者ユーザー管理プログラム130は、該演者ユーザー管理プログラム130とともにストレージ103に記憶されている図8に示す演者ユーザーデータ131にもとづいて、演者ユーザーに関する情報の管理機能並びに認証機能等を提供する。 The performer user management program 130 provides management functions and authentication functions for information regarding performer users based on the performer user data 131 shown in FIG. 8, which is stored in the storage 103 together with the performer user management program 130.

本実施例1で用いた演者ユーザーデータ131を、図8に例示する。演者ユーザーデータ131は、演者ユーザーに固有に付与された演者ユーザーIDに対応付けて、当該演者ユーザーのアカウント(電子メールアドレス)、名称、認証情報、仮想空間において使用するアバターのアバターデータのファイル名、所有しているアイテムが登録されているアイテムリストのファイル名、等の各種情報が記憶されている。尚、図8には図示していないが、各演者ユーザーが所有しているポイント等の仮想価値の情報を演者ユーザーデータ131として記憶するようにしてもよい。 The performer user data 131 used in this Example 1 is illustrated in FIG. 8. The performer user data 131 stores various information, such as the performer user's account (email address), name, authentication information, the file name of the avatar data of the avatar used in the virtual space, and the file name of the item list in which the items owned are registered, in association with a performer user ID uniquely assigned to the performer user. Although not illustrated in FIG. 8, information on virtual value such as points owned by each performer user may also be stored as the performer user data 131.

演者ユーザーは、演者ユーザーID、アカウント、認証情報とを照合する等によって認証できるようになっているとともに、各演者ユーザーが視聴者から贈られることで所有することになったアイテム(ギフト)を、アイテムリストから特定できるようになっている。 Performer users can be authenticated by matching their performer user ID, account, and authentication information, and items (gifts) that each performer user has received from viewers and that they come to own can be identified from an item list.

視聴者ユーザー管理プログラム132は、該プログラムとともにストレージ103に記憶されている図9に示す視聴者ユーザーデータ133にもとづいて、視聴者ユーザーに関する情報の管理機能並びに認証機能等を提供する。 The viewer user management program 132 provides functions such as management of information about viewer users and authentication functions based on the viewer user data 133 shown in FIG. 9, which is stored in the storage 103 together with the program.

本実施例1に用いた視聴者ユーザーデータ133を、図9に例示する。視聴者ユーザーデータ133は、視聴者ユーザーに固有に付与された視聴者ユーザーIDに対応付けて、当該視聴者ユーザーのアカウント(電子メールアドレス)、認証情報、仮想空間において使用するアバターのアバターデータのファイル名、仮想空間において使用可能なポイントの所有数である所有ポイント、ポイントを使用して購入したアイテム(ギフト)が登録されているアイテムリストのファイル名、氏名、生年月日、電話番号等の個人情報等の各種情報が記憶されている。尚、図9には示していないが、コメントとともに表示されるニックネーム(コメントネーム)についても視聴者ユーザーデータ133に登録されていて、該ニックネーム(コメントネーム)がコメントとともに表示される。また、ポイントは、例えば、所定の運営会社から購入することで増やすことができる。 The viewer user data 133 used in the present embodiment 1 is illustrated in FIG. 9. The viewer user data 133 stores various information associated with a viewer user ID uniquely assigned to the viewer user, such as the viewer user's account (email address), authentication information, the file name of the avatar data of the avatar to be used in the virtual space, owned points which are the number of points that can be used in the virtual space, the file name of an item list in which items (gifts) purchased using points are registered, and personal information such as name, date of birth, and telephone number. Although not shown in FIG. 9, a nickname (comment name) displayed together with a comment is also registered in the viewer user data 133, and the nickname (comment name) is displayed together with the comment. Points can be increased, for example, by purchasing points from a specified operating company.

<演者端末>
図4は、本実施例1の仮想空間コンテンツ配信システムにおける演者端末200の構成例を示す図である。演者端末200は、本実施例1では、図11に示すように、演者ユーザーが演技動作を行うスタジオに隣接する調整室内に設けられていて、比較的処理能力に優れた通常のコンピュータを使用しており、図4に示すように、データバス208に接続されたプロセッサ(CPU)201、メモリ(RAM)202、ハードディスク等のストレージ203、オープンコンピュータネットワークであるインターネットを介したTCP/IPプロトコルによる双方向に通信が可能な通信インターフェイス(I/F)204、表示装置A210~表示装置C212が接続されたグラフィックスプロセッシングユニット(GPU)を含む画像処理部206、各種の入出力デバイスが接続された入出力インターフェイス(I/F)205を有している。
<Performer terminal>
Fig. 4 is a diagram showing an example of the configuration of a performer terminal 200 in the virtual space content delivery system of this embodiment 1. In this embodiment 1, as shown in Fig. 11, the performer terminal 200 is installed in a control room adjacent to a studio where a performer user performs his/her acting motions, and uses a normal computer with relatively excellent processing power, and as shown in Fig. 4, has a processor (CPU) 201 connected to a data bus 208, a memory (RAM) 202, a storage 203 such as a hard disk, a communication interface (I/F) 204 capable of two-way communication by TCP/IP protocol via the Internet, which is an open computer network, an image processing unit 206 including a graphics processing unit (GPU) to which display devices A210 to C212 are connected, and an input/output interface (I/F) 205 to which various input/output devices are connected.

入出力インターフェイス(I/F)205には、入力デバイスとして、演者ユーザーが左右の手足及び腰に装着している複数の装着センサ220C1~220C5(図11参照)を含むモーションセンサ220、演者の顔の表情を入力するための撮像カメラで構成される表情入力装置221、演者ユーザーの頭部に装着されている集音マイクにより構成される音声入力装置222、演者ユーザーを補助する補助オペレータOが操作可能に設けられたキーボードやタッチパネル等の操作入力装置224等が接続される。尚、これら入力デバイスとして、演者ユーザーが把持することで種々の操作を行うことが可能なコントローラを設けることで、補助オペレータOによることなく、演者自身が種々の操作を行うことができるようにしてもよい。 The input/output interface (I/F) 205 is connected to the following input devices: a motion sensor 220 including multiple wearable sensors 220C1-220C5 (see FIG. 11) worn by the performer user on the left and right limbs and waist; a facial expression input device 221 consisting of an imaging camera for inputting the performer's facial expressions; a voice input device 222 consisting of a sound-collecting microphone worn on the performer user's head; and an operation input device 224 such as a keyboard or touch panel that can be operated by an assistant operator O who assists the performer user. Note that by providing these input devices with a controller that the performer user can hold to perform various operations, the performer himself may be able to perform various operations without the assistance of the assistant operator O.

尚、本実施例1では、演者ユーザーが楽曲に合わせた上演動作(歌唱やダンス等の楽曲動作を含む)を行うため、上演中における操作を補助オペレータOが補助する形態としているが、これら補助オペレータOを複数人としたり、或いは、操作内容を予め演者端末200において、例えば、シーケンスプログラム等に設定しておくことで、補助オペレータOを設けない形態としてもよい。 In this embodiment 1, the performer user performs performance actions in accordance with the music (including musical actions such as singing and dancing), and an assistant operator O assists with operations during the performance. However, there may be multiple assistant operators O, or the operation contents may be set in advance in the performer terminal 200, for example, in a sequence program, so that an assistant operator O is not provided.

入出力インターフェイス(I/F)205には、出力デバイスとして演者ユーザーが装着している高機能イヤホン(イヤモニ)や調整室に配置されたスピーカー等を含む音声出力装置223が接続されることで、配信用サーバコンピュータ100から送信される再生楽曲の音が高機能イヤホン(イヤモニ)を介して演者ユーザーに対して出力されるとともに、スピーカーからは、演者の音声とともに楽曲音声が出力されることで、演者ユーザーが発した音声を含む楽曲の状況を、補助オペレータO等が調整室において確認することができるようになっている。 The input/output interface (I/F) 205 is connected to an audio output device 223 including high-performance earphones (ear monitors) worn by the performer user as output devices and speakers placed in the control room, so that the sound of the music being played sent from the distribution server computer 100 is output to the performer user via the high-performance earphones (ear monitors), and the music audio is output from the speakers along with the performer's voice, allowing an assistant operator O, etc., to check the status of the music, including the voice produced by the performer user, in the control room.

本実施例1では、演者ユーザーが装着している集音マイクから、再生された楽曲音声が入力されることによる不都合を回避するために高機能イヤホン(イヤモニ)を使用しているが、本発明はこれに限定されるものではなく、楽曲音声が入力されることによる不都合を回避できるのであれば、スタジオ内のスピーカー等から、楽曲音声を出力するようにしてもよい。 In this embodiment 1, high-performance earphones (in-ear monitors) are used to avoid inconvenience caused by the reproduced music audio being input from the sound collection microphone worn by the performer user, but the present invention is not limited to this, and the music audio may be output from speakers in the studio, etc., as long as it is possible to avoid inconvenience caused by the input of the music audio.

尚、本実施例1では、集音マイクを演者ユーザーが装着する形態を例示しているが、これら集音マイクを、スタジオの床、壁、又は天井に設置される設置型のものとしてもよい。 Note that, in this embodiment 1, an example is shown in which the sound collection microphones are worn by the performers, but these sound collection microphones may also be stationary microphones that are installed on the floor, walls, or ceiling of the studio.

ここで、本実施例1の演者端末200で使用したモーションセンサ220について説明する。モーションセンサ220は、演者ユーザーの体の動き(動作)を適切に検出(計測)できるものであれば、任意のものを使用することができる。本実施例1では、演者の動作をより正確且つ短周期で検出可能とするために、演者ユーザーが体に装着する複数の装着センサ220C1~220C5を使用している。尚、モーションセンサ220を、レーザー光等を用いたLiDER等の演者が機器を装着しないタイプのものを使用してもよい。 Here, we will explain the motion sensor 220 used in the performer terminal 200 of this Example 1. Any motion sensor can be used as long as it can properly detect (measure) the body movements (movements) of the performer user. In this Example 1, in order to enable more accurate and shorter-period detection of the performer's movements, multiple wearable sensors 220C1 to 220C5 are used that are worn by the performer user on the body. Note that the motion sensor 220 may be of a type that does not require the performer to wear any equipment, such as a LiDER that uses laser light or the like.

尚、本実施例1では、演者ユーザーが上演動作をする際のセンサ等の装着による動作負担、特には、頭部の動作負担を軽減するために、演者ユーザーの頭部の動作を、後述するように、表情入力装置221を構成する撮像カメラにて撮像された画像を用いた画像認識によって検出し、頭部以外の動作を5つの装着センサ220C1~220C5を使用した形態を例示しているが、例えば、演者ユーザーの頭部等にも装着センサを設けたり、更に、より詳細な動作を検出するために、より多く(7以上)の装着センサを装着するようにしてもよい。 In this embodiment 1, in order to reduce the burden on the performer user's head caused by wearing sensors when performing a performance, in particular the burden on the head, the performer user's head movements are detected by image recognition using images captured by the imaging camera constituting the facial expression input device 221, as described below, and five wearable sensors 220C1 to 220C5 are used to detect movements other than the head. However, for example, wearable sensors may also be provided on the performer user's head, or more wearable sensors (seven or more) may be worn to detect more detailed movements.

装着センサ220C1~220C5は、図11に示すように、隣接する調整室とガラス窓を隔てたスタジオルーム内に設置されているベースステーション220a及びベースステーション220bと協働して、自らの位置及び向きを検出する。 As shown in FIG. 11, the mounting sensors 220C1 to 220C5 detect their own position and orientation in cooperation with base station 220a and base station 220b, which are installed in a studio room separated from the adjacent adjustment room by a glass window.

これらベースステーション220a及びベースステーション220bは、一例として、多軸レーザーエミッターを使用できる。ベースステーション220aは、同期用の点滅光を発した後に、例えば鉛直軸の周りでレーザー光を走査する。ベースステーション220bは、例えば水平軸の周りでレーザー光を走査する。 Base station 220a and base station 220b can use, as an example, a multi-axis laser emitter. After emitting a flashing light for synchronization, base station 220a scans the laser light, for example, around a vertical axis. Base station 220b scans the laser light, for example, around a horizontal axis.

装着センサ220C1~220C5はそれぞれ、ベースステーション220a及びベースステーション220bからの点滅光及びレーザー光の入射を検知する光センサを複数備えていてもよい。 Each of the mounting sensors 220C1 to 220C5 may include multiple optical sensors that detect the incidence of blinking light and laser light from the base station 220a and base station 220b.

装着センサ220C1~220C5はそれぞれ、点滅光の入射タイミングとレーザー光の入射タイミングとの時間差、各光センサでの受光時間、各光センサが検知したレーザー光の入射角度、及び必要に応じてこれら以外の情報に基づいて、自らの位置及び向きを検出可能とされており、例えば、HTC CORPORATIONから提供されているViveTrackerや、ベースステーションを好適に使用することができる。 Each of the mounting sensors 220C1 to 220C5 can detect its own position and orientation based on the time difference between the incidence of the blinking light and the incidence of the laser light, the light reception time at each optical sensor, the incidence angle of the laser light detected by each optical sensor, and other information as necessary. For example, ViveTracker or a base station provided by HTC CORPORATION can be suitably used.

ベースステーション220a及びベースステーション220bは、一定のインターバルで点滅光の発光及びレーザー光の走査を行うので、各装着センサ220C1~220C5の検出情報は、当該インターバルごとに更新される。そして、これら装着センサ220C1~220C5の各々において算出された各モーションセンサの位置及び向きを示す検出情報は、近距離無線通信によって演者端末200に入力され、フェイスモーションの情報とともに、演者アバター情報として配信用サーバコンピュータ100に送信される(図10参照)。 Base station 220a and base station 220b emit flashing light and perform laser light scanning at regular intervals, so the detection information of each worn sensor 220C1-220C5 is updated at each interval. Detection information indicating the position and orientation of each motion sensor calculated in each of these worn sensors 220C1-220C5 is input to the performer terminal 200 via short-range wireless communication and transmitted to the distribution server computer 100 as performer avatar information together with facial motion information (see FIG. 10).

尚、本実施例1では、ベースステーション220a及びベースステーション220bの2つのベースステーションを使用した形態を例示しているが、本発明はこれに限定されるものではなく、これらベースステーションを3つ以上としてもよい。 Note that in this embodiment 1, an example is shown in which two base stations, base station 220a and base station 220b, are used, but the present invention is not limited to this, and three or more base stations may be used.

また、モーションセンサ220を、演者ユーザーに装着される複数のモーションセンサの各々に多数の赤外LED或いは可視光LEDを搭載し、これらのLEDからの光を、スタジオの床や壁に設けられた赤外線カメラで検知することで、当該モーションセンサの各々の位置及び向きを検出してもよい。 Motion sensor 220 may also be configured such that each of a number of motion sensors worn by the performer user is equipped with a number of infrared LEDs or visible light LEDs, and the position and orientation of each of the motion sensors is detected by detecting the light from these LEDs with an infrared camera installed on the floor or wall of the studio.

また、モーションセンサ220を、演者ユーザーの負担を軽減するために、装着センサ220C1~220C5に代えて、より軽量な反射マーカーを用いたモーションセンサを使用してもよい。つまり、演者ユーザーの身体の各部に粘着テープなどにより貼着された反射マーカーを撮影して撮影データを生成し、この撮影データを画像処理することにより、反射マーカーの位置及び向きを検出することで、演者ユーザーの動作を検出するものであってもよく、この場合にあっては、スタジオ内に演者ユーザーを撮影するカメラマンを配置して、該カメラマンが演者ユーザーを撮影することで、演者ユーザーの動作を、検出に適した方向から撮影することで、良好に検出できるようにしてもよい。 Moreover, in order to reduce the burden on the performer user, the motion sensor 220 may be replaced with a motion sensor using a lighter reflective marker instead of the wearable sensors 220C1-220C5. In other words, the motion sensor may detect the performer user's movements by photographing reflective markers attached to various parts of the performer user's body with adhesive tape or the like to generate photographic data, and then detecting the position and orientation of the reflective markers through image processing of the photographic data. In this case, a cameraman who photographs the performer user may be positioned in the studio, and the cameraman may photograph the performer user from a direction suitable for detection, thereby enabling the motion of the performer user to be detected well.

また、モーションセンサ220として、慣性センサが内蔵されたスーツ、例えば、Xsens.com社が上市しているMVNモーションキャプチャシステム用の慣性センサ内蔵スーツを使用し、慣性センサから出力されるセンサ信号を解析することにより、演者ユーザーの動作を検出するものであってもよい。 Motion sensor 220 may also be a suit with a built-in inertial sensor, such as a suit with a built-in inertial sensor for the MVN motion capture system marketed by Xsens.com, and the movements of the performer user may be detected by analyzing the sensor signal output from the inertial sensor.

表情入力装置221は、演者ユーザーの顔を含む頭部の動作を適切に検出できるものであれば、任意のものを使用することができる。本実施例1では、具体的には、演者ユーザーの顔を含む頭部画像を連続的に撮像可能に配置された撮像カメラ(デジタルカメラ)にて構成されており、該撮像カメラにて撮像された演者ユーザーの頭の動きと顔の動き(表情)を、画像認識にて検知し、該検知した頭の動きと顔の動き(表情)であるフェイスモーションの情報が、図10に示すように、ボディモーションの情報とともに演者アバター情報として配信用サーバコンピュータ100に送信される。 Any facial expression input device 221 can be used as long as it can properly detect the movement of the head, including the face, of the performer user. In this embodiment 1, specifically, it is configured with an imaging camera (digital camera) arranged so as to be able to continuously capture head images, including the face, of the performer user, and the head movement and facial movement (facial expression) of the performer user captured by the imaging camera are detected by image recognition, and the facial motion information, which is the detected head movement and facial movement (facial expression), is transmitted to the distribution server computer 100 as performer avatar information together with body motion information, as shown in FIG. 10.

尚、表情入力装置221は、本実施例1で使用した撮像カメラ(デジタルカメラ)に限定されるものではなく、例えば、表情入力装置221は、人物の顔の奥行きを検出可能な3Dカメラであってもよいし、例えば、LiDERデバイスが搭載されたスマートフォン等の携帯端末を使用することもできる。この場合、これらの携帯端末を演者ユーザーが装着するようにしてもよい。 The facial expression input device 221 is not limited to the imaging camera (digital camera) used in the first embodiment. For example, the facial expression input device 221 may be a 3D camera capable of detecting the depth of a person's face, or a mobile terminal such as a smartphone equipped with a LiDER device. In this case, the performer user may wear such a mobile terminal.

本実施例1の演者端末200では、上記のように、3つの表示装置A210~表示装置C212を有しており、表示装置A210は、図11示すように、調整室に設けられている液晶モニター等であり、表示装置B211は、スタジオ内に設けられたスクリーンSに映像を投影するプロジェクタであり、表示装置C212は、スタジオ内にスクリーンSに隣接して設けられた縦型の大型ディスプレイである。 As described above, the performer terminal 200 of this embodiment 1 has three display devices A210 to C212. Display device A210 is an LCD monitor or the like installed in the control room as shown in FIG. 11. Display device B211 is a projector that projects an image onto a screen S installed in the studio. Display device C212 is a large vertical display installed adjacent to the screen S in the studio.

スタジオの調整室内に配置されている表示装置A210には、仮想カメラC1~C4の各視点からの映像や後述するフライング演出期間における空中移動仮想カメラからの視点映像と、コメントの内容と、補助オペレータOが演者ユーザーに伝達したいメッセージを入力するメッセージ入力ウインドウ等が表示される。 Display device A210, which is placed in the studio's adjustment room, displays images from each of the virtual cameras C1 to C4, as well as viewpoint images from a virtual camera moving in the air during the flying performance period described below, as well as the contents of comments and a message input window into which assistant operator O inputs any message he or she wishes to convey to the performer user.

一方、スタジオ内に設けられた表示装置B211であるプロジェクタから投影されるスクリーンSには、演者の視点である仮想カメラC2(図12参照)の視点映像である、例えば、図15に示すように、第3領域や第4領域においてライブに仮想参加している視聴者のアバターを含む映像が表示されることで、演者ユーザーが、仮想ライブに仮想参加している視聴者ユーザーの状況を、映像によって確認できるようになっている。 On the other hand, a screen S projected from a projector, which is a display device B211 installed in the studio, displays an image from the viewpoint of a virtual camera C2 (see FIG. 12), which is the viewpoint of the performer, for example, as shown in FIG. 15, including avatars of viewers virtually participating in the live performance in the third and fourth areas, allowing the performer user to check the status of the viewer users virtually participating in the virtual live performance through the image.

また、スタジオ内に設けられた表示装置C212には、視聴者ユーザーのコメントや、補助オペレータOが入力したコメントやメッセージ等が表示されることで、演者ユーザーが、上演中においても視聴者ユーザーのコメントを確認したり、補助オペレータOからのメッセージを確認することができる。 In addition, comments from viewer users, as well as comments and messages entered by the assistant operator O, are displayed on the display device C212 installed in the studio, allowing the performer user to check the comments from viewer users and messages from the assistant operator O even during the performance.

ストレージ203には、演者端末200であるコンピュータを動作させるためのオペレーションシステム(OS)に加えて、プロセッサ(CPU)201等が実行することで仮想空間コンテンツである仮想ライブにおける演者ユーザーによる演者アバター1の動作制御機能を初めとする各種機能を、配信用サーバコンピュータ100と協働して提供するための演者用プログラムが記憶されている。 In addition to an operating system (OS) for operating the computer that is the performer terminal 200, the storage 203 stores a performer program that is executed by the processor (CPU) 201 etc. to provide various functions in cooperation with the distribution server computer 100, including the function of allowing the performer user to control the movement of the performer avatar 1 in a virtual live performance, which is virtual space content.

演者用プログラムは、図4に示すように、演者アバター制御プログラム、演者用視点映像制御プログラム、演者用視点映像制御プログラム、演者用音声制御プログラム、演者用コメント制御プログラム、演者認証用データ等を含む。 As shown in FIG. 4, the performer programs include a performer avatar control program, a performer viewpoint image control program, a performer viewpoint image control program, a performer voice control program, a performer comment control program, performer authentication data, etc.

演者アバター制御プログラムは、主に、モーションセンサ220を用いて演者ユーザーのボディモーションをスキャンするとともに、表情入力装置221を用いて演者ユーザーのフェイスモーション(表情)をスキャンして、演者アバターを動作させるための演者アバター情報を生成して配信用サーバコンピュータ100に送信する機能を提供するプログラムである。 The performer avatar control program is a program that provides the function of primarily scanning the body motion of the performer user using the motion sensor 220 and scanning the facial motion (facial expression) of the performer user using the facial expression input device 221 to generate performer avatar information for operating the performer avatar and transmit it to the distribution server computer 100.

演者用視点映像制御プログラムは、配信用サーバコンピュータ100から配信される仮想空間更新データにもとづいて演者視点である仮想カメラC2の視点映像を生成、出力する機能を提供するプログラムである。 The performer's viewpoint image control program is a program that provides the function of generating and outputting the viewpoint image of virtual camera C2, which is the performer's viewpoint, based on the virtual space update data distributed from the distribution server computer 100.

演者用音声制御プログラムは、配信用サーバコンピュータ100から配信される再生楽曲データにもとづく楽曲の再生音を、音声出力装置223を介して出力するとともに、音声入力装置222から入力される音声をデータ化して演者音声データとして配信用サーバコンピュータ100に送信し、楽曲の再生音と演者音声とからなるモニター音声を生成、出力する機能を提供するプログラムである。 The performer's voice control program is a program that provides the function of outputting the playback sound of a song based on the playback music data distributed from the distribution server computer 100 via the audio output device 223, converting the audio input from the audio input device 222 into data and sending it to the distribution server computer 100 as performer voice data, and generating and outputting a monitor voice consisting of the playback sound of the song and the performer's voice.

演者用コメント制御プログラムは、配信用サーバコンピュータ100から配信される視聴者ユーザーによる各コメント等を表示する機能を提供するプログラムである。 The performer comment control program is a program that provides the function of displaying each comment by the viewer user that is distributed from the distribution server computer 100.

演者認証用データは、配信用サーバコンピュータ100との通信接続において演者ユーザーが本人であることを認証するためのデータである。 The performer authentication data is used to authenticate the identity of the performer user in a communication connection with the distribution server computer 100.

尚、演者アバター制御プログラムには、演者アバターデータに含まれる演者アバターの骨格を示すリグデータ(スケルトンデータ」と呼ばれることもある。)を構成する骨( ボーン) の位置及び回転角度のパラメータ情報を生成可能なモーションパラメータ生成プログラム等が含まれているとともに、撮像カメラによって撮像された画像から演者ユーザーの頭部の位置と表情とを画像認識するための画像認識処理プログラム等が含まれている。 The performer avatar control program includes a motion parameter generation program capable of generating parameter information for the positions and rotation angles of the bones that make up the rig data (sometimes called "skeleton data") that indicates the skeleton of the performer avatar included in the performer avatar data, as well as an image recognition processing program for image recognition of the performer user's head position and facial expression from the image captured by the imaging camera.

また、本実施例1では、演者端末200は、イベント運営機関が運営するスタジオに設置された演者端末200となるコンピュータを、複数の演者ユーザーが共同で利用し、ライブイベントを開催するときにおいて、個々の演者ユーザーが、演者認証用データを入力することで当該演者ユーザーの演者端末200として利用できるようにした形態を例示しているが、本発明はこれに限定されるものではなく、例えば、演者ユーザーが自宅等から仮想ライブに出演する場合であって、演者端末200が、演者ユーザーが自宅に設置している自分専用のコンピュータである場合のように、所有する演者ユーザーのみが利用する形態であってもよく、このような場合には、演者認証用データの記憶は必ずしも必要ない。 In addition, in this embodiment 1, the performer terminal 200 is illustrated as a form in which a computer serving as the performer terminal 200 installed in a studio operated by an event management organization is used jointly by multiple performer users to hold a live event, and each performer user can input performer authentication data to use the computer as the performer terminal 200 of that performer user. However, the present invention is not limited to this, and the performer terminal 200 may be used only by the performer user who owns it, such as when a performer user appears in a virtual live event from his or her home, and the performer terminal 200 is a computer installed in the performer user's home and dedicated to the performer user's own use, and in such cases, storage of performer authentication data is not necessarily required.

このように、本実施例1の仮想空間コンテンツ配信システムを構成する演者端末200を演者ユーザー等が使用することで、演者ユーザーは、仮想ライブ会場における仮想ステージG上に配置された演者アバター1を、自身の動作に連動して動作させることができるとともに、演者アバター1の表情に自身の表情を反映させることができる。また、自分の声を演者アバター1の声として、配信用サーバコンピュータ100を通じて視聴者に配信することができる。 In this way, by using the performer terminal 200 constituting the virtual space content distribution system of this embodiment 1, the performer user can move the performer avatar 1 placed on the virtual stage G in the virtual live venue in conjunction with the performer user's own movements, and can have the performer user's own facial expressions reflected in the facial expressions of the performer avatar 1. In addition, the performer user can distribute his or her own voice as the voice of the performer avatar 1 to viewers via the distribution server computer 100.

<視聴者端末>
図5は、本実施例1の仮想空間コンテンツ配信システムにおける視聴者端末300の構成例を示す図である。視聴者端末300は、本実施例1では、視聴者ユーザーが携行するスマートフォンPや視聴者ユーザーが自宅等に設置している据え置き型の通常のコンピュータ(PC)とされており、図5に示すように、データバス308に接続されたプロセッサ(CPU)301、メモリ(RAM)302、ハードディスクや不揮発性メモリ等のストレージ303、オープンコンピュータネットワークであるインターネットを介したTCP/IPプロトコルによる双方向に通信が可能な通信インターフェイス(I/F)304、表示装置310が接続されたグラフィックスプロセッシングユニット(GPU)を含む画像処理部306、各種の入出力デバイスが接続された入出力インターフェイス(I/F)305を有している。
<Viewer terminal>
Fig. 5 is a diagram showing an example of the configuration of a viewer terminal 300 in the virtual space content delivery system of the present embodiment 1. In the present embodiment 1, the viewer terminal 300 is a smartphone P carried by a viewer user or a regular desktop computer (PC) installed at a viewer user's home or the like, and as shown in Fig. 5, has a processor (CPU) 301 connected to a data bus 308, a memory (RAM) 302, a storage 303 such as a hard disk or non-volatile memory, a communication interface (I/F) 304 capable of two-way communication by TCP/IP protocol via the Internet, which is an open computer network, an image processing unit 306 including a graphics processing unit (GPU) to which a display device 310 is connected, and an input/output interface (I/F) 305 to which various input/output devices are connected.

表示装置310は、後述するように、ストレージ303に記憶されている視聴者用プログラムに含まれる視聴者用視点映像制御プログラムによって、配信用サーバコンピュータ100から配信される仮想空間更新データ(図10参照)によって更新される仮想空間である仮想ライブ会場の仮想空間データにもとづいて生成される各視点映像や、後述するフライング演出期間において配信用サーバコンピュータ100から配信されるフライング視点映像を表示可能なものであればよく、視聴者端末300がスマートフォンPである場合は、該スマートフォンPが有するディスプレイが該当し、視聴者端末300が通常のコンピュータ(PC)であれば、コンピュータ(PC)を構成する据え置き型のディスプレイが該当する。尚、これらディスプレイは、平面視画像(2D画像)を表示するものに限らず、例えば、視聴者が装着可能なヘッドマウントディスプレイ(HMD)のように、右目画像と左目画像とを表示することで、立体視画像(3D画像)を表示可能なものであってもよい。 The display device 310 may be any device capable of displaying various viewpoint images generated based on the virtual space data of the virtual live venue, which is a virtual space updated by the virtual space update data (see FIG. 10) distributed from the distribution server computer 100, by the viewer viewpoint image control program included in the viewer program stored in the storage 303, as described below, and the flying viewpoint images distributed from the distribution server computer 100 during the flying performance period described below. If the viewer terminal 300 is a smartphone P, the display device 310 corresponds to the display of the smartphone P, and if the viewer terminal 300 is a normal computer (PC), the display device 310 corresponds to a stationary display constituting the computer (PC). Note that these displays are not limited to those that display planar images (2D images), but may be, for example, those that can display stereoscopic images (3D images) by displaying right-eye images and left-eye images, such as a head-mounted display (HMD) that can be worn by the viewer.

入出力インターフェイス(I/F)305には、入力デバイスとして、視聴者が各種の操作が可能とされた1または複数のデバイスからなる操作入力装置321と、配信用サーバコンピュータ100から配信されるライブ音声等を出力可能なイヤホンやスピーカー等の音声出力装置322が接続される。 The input/output interface (I/F) 305 is connected to an operation input device 321 consisting of one or more devices that allow the viewer to perform various operations as input devices, and an audio output device 322 such as earphones or speakers that can output live audio, etc., distributed from the distribution server computer 100.

尚、音声出力装置322は単独のデバイスではなく、上記したヘッドマウントディスプレイ(HMD)のように表示装置310と一体とされたものであってもよいことはいうまでもない。 It goes without saying that the audio output device 322 need not be a separate device, but may be integrated with the display device 310, such as the head-mounted display (HMD) described above.

操作入力装置321は、視聴者が視聴者アバターの移動等を含む動作操作、ズーム操作、コメントに関する操作、ギフト等に関する操作等、の各種操作を実行可能なものであれば任意のものを使用することができ、例えば、スマートフォンのディスプレイ表面に形成された透明タッチパネル、コンピュータを構成するキーボード、ゲームコントローラ等の少なくとも1つ以上で構成される。 The operation input device 321 may be any device that allows the viewer to perform various operations such as motion operations including movement of the viewer avatar, zoom operations, operations related to comments, operations related to gifts, etc. For example, it may be composed of at least one of a transparent touch panel formed on the display surface of a smartphone, a keyboard constituting a computer, a game controller, etc.

尚、本実施例1では、視聴者として、後述するように、仮想ライブ会場における仮想観客領域が、図12に示すように、演者ユーザーによって特別に許可された視聴者ユーザーだけが仮想参加できる仮想ステージG近傍の第3領域と、一般の視聴者ユーザーが仮想参加できる第3領域周囲の第4領域とに区分けされており、第4領域に仮想参加する視聴者ユーザーは、上記したように、タッチパネル、キーボード、ゲームコントローラ等の操作入力装置321であればよいが、第3領域に仮想参加する視聴者ユーザーは、操作入力装置321として、例えば、上述した慣性センサが内蔵されたMVNモーションキャプチャスーツを所有していることで、演者ユーザーと同様に、視聴者アバターを自身の動作によって細かく動作させることのできる視聴者ユーザーである。 In this embodiment 1, as described below, the virtual audience area in the virtual live venue is divided into a third area near the virtual stage G in which only viewer users who have been specially permitted by the performer user can virtually participate, and a fourth area around the third area in which general viewer users can virtually participate, as shown in FIG. 12. Viewer users who virtually participate in the fourth area may have an operation input device 321 such as a touch panel, keyboard, or game controller as described above, but viewer users who virtually participate in the third area possess an operation input device 321 such as an MVN motion capture suit with the above-mentioned inertial sensor built in, and are viewer users who can precisely move the viewer avatar with their own movements, just like the performer users.

但し、第3領域に仮想参加が許可された視聴者ユーザーであっても、視聴者アバターの表情を変更することまではできないが、本発明はこれに限定されるものではなく、これら視聴者アバターの表情を、例えば、上記したように、視聴者ユーザーがスマートフォンのカメラ機能やコンピュータに接続したカメラを使用して視聴者ユーザーの顔の表情を認識させることで、演者ユーザーの変更レベルとは異なるレベルであっても、変更できるようにしてもよい。 However, even viewer users who are permitted to virtually participate in the third area cannot change the facial expression of the viewer avatar, but the present invention is not limited to this, and the facial expressions of these viewer avatars may be changed, for example, as described above, by the viewer user using the camera function of a smartphone or a camera connected to a computer to recognize the facial expression of the viewer user, even if it is at a different level from the change level of the performer user.

尚、これら入出力インターフェイス(I/F)305に接続される各種の入出力デバイスは、内蔵のものであっても外付けのものあってもよく、外付けのデバイスの場合には、有線、無線のいずれの接続形態であってもよい。 The various input/output devices connected to the input/output interface (I/F) 305 may be built-in or external, and in the case of external devices, they may be connected in either a wired or wireless manner.

ストレージ303には、視聴者端末300であるスマートフォンやコンピュータを動作させるためのオペレーションシステム(OS)に加えて、プロセッサ(CPU)301等が実行することで仮想空間コンテンツである仮想ライブにおける視聴者ユーザーに関するライブ視聴機能を初めとする各種機能を、配信用サーバコンピュータ100と協働して提供するための視聴者用プログラムが視聴アプリとして記憶されている。 In addition to an operating system (OS) for operating the viewer terminal 300, such as a smartphone or computer, the storage 303 also stores a viewer program as a viewing application that is executed by the processor (CPU) 301 or the like to provide various functions, including a live viewing function for viewer users in a virtual live, which is virtual space content, in cooperation with the distribution server computer 100.

視聴者用プログラムは、図5に示すように、表示装置310に表示する仮想ライブの各視点映像を生成する機能を提供する視聴者用視点映像制御プログラム、配信用サーバコンピュータ100から配信される仮想ライブのライブ音声(データ)に基づくライブ音声を音声出力装置322から出力する機能を提供する視聴者用音声制御プログラム、配信用サーバコンピュータ100から配信されるコメントデータにもとづくコメントを表示するとともに、視聴者が入力するコメントと配信用サーバコンピュータ100に送信する等のコメントに関する機能を提供する視聴者用コメント制御プログラム、配信用サーバコンピュータ100との通信接続において視聴者ユーザーが本人であることを認証するための視聴者認証用データ等を含む。 As shown in FIG. 5, the viewer program includes a viewer viewpoint image control program that provides the function of generating each viewpoint image of the virtual live to be displayed on the display device 310, a viewer audio control program that provides the function of outputting live audio from the audio output device 322 based on the live audio (data) of the virtual live distributed from the distribution server computer 100, a viewer comment control program that displays comments based on comment data distributed from the distribution server computer 100 and provides functions related to comments such as comments entered by the viewer and transmitted to the distribution server computer 100, and viewer authentication data for authenticating the identity of the viewer user in a communication connection with the distribution server computer 100.

尚、図5には図示していないが、上記したプログラム以外に、ギフトに関する制御等を行うギフト制御プログラムや、後述する変形例3-1(図42,図43参照)に示すように、ライブイベントの開始前において事前に仮想ライブ会場において視聴者アバターが仮想参加する領域(位置)を予約するための領域指定プログラム等が含まれているが、これら以外の他のプログラムが含まれていてもよい。 Note that, although not shown in FIG. 5, in addition to the above-mentioned programs, there is included a gift control program that controls gifts, and an area designation program for reserving an area (position) in which a viewer avatar will virtually participate in the virtual live venue in advance before the start of the live event, as shown in variant example 3-1 (see FIGS. 42 and 43) described below, but other programs may also be included.

視聴者が入力するコメントは、本実施例1では、テキスト形式の短文メッセージとされているが、これらテキスト形式の短文メッセージに限定されるものではなく、例えば、静止画形式のメッセージ、動画形式のメッセージ、及びこれら以外の任意の形式の電子的なメッセージであってもよい。尚、コメントは、表示装置310において各視点映像に重ねて表示される。 In this embodiment 1, the comments entered by the viewer are short messages in text format, but are not limited to these short messages in text format and may be, for example, messages in still image format, messages in video format, or any other electronic message format. The comments are displayed on the display device 310, superimposed on each viewpoint video.

このように、本実施例1の仮想空間コンテンツ配信システムを構成する視聴者端末300視聴者ユーザーが使用することで、仮想ライブ会場に仮想参加している視聴者アバターを移動や動作させて、視聴者アバターによる視点を変更することで表示装置310に表示される視点映像を変更することができるとともに、ズーム状態(視点の状態)についても変更することができ、視聴者アバターを動作させて演者アバター1を応援することができる。 In this way, by using the viewer terminal 300 constituting the virtual space content distribution system of this embodiment 1, a viewer user can move and operate the viewer avatar virtually participating in the virtual live venue, and by changing the viewpoint of the viewer avatar, the viewpoint image displayed on the display device 310 can be changed, and the zoom state (viewpoint state) can also be changed, allowing the viewer avatar to operate and cheer on the performer avatar 1.

尚、第3領域に仮想参加した視聴者アバターの場合は、第3領域内においてだけ移動が可能とされていて、第4領域には移動することはできない。一方、第4領域に仮想参加した視聴者アバターの場合は、第4領域内においてだけ移動が可能とされていて、第3領域には移動することはできない。但し、本発明はこれに限定されるものではなく、3領域に仮想参加した視聴者アバターの場合は第4領域に移動できるようにしてもよい。尚、視聴者アバターは、当然、仮想ステージG等には移動することができないので、演者アバター1の視認が仮想ステージG上に視聴者アバターが移動することによって阻害されてしまうことはない。 Note that a viewer avatar that virtually participates in the third area is only allowed to move within the third area, and cannot move to the fourth area. On the other hand, a viewer avatar that virtually participates in the fourth area is only allowed to move within the fourth area, and cannot move to the third area. However, the present invention is not limited to this, and a viewer avatar that virtually participates in three areas may be allowed to move to the fourth area. Note that a viewer avatar naturally cannot move onto the virtual stage G, etc., so visibility of the performer avatar 1 is not obstructed by the viewer avatar moving onto the virtual stage G.

また、これら表示装置310に視点映像が表示されるともに、ライブ音声が出力されることで、自分が仮想ライブ会場に立ち会っているような感覚で、仮想ライブを楽しむことができる。 In addition, by displaying viewpoint images on these display devices 310 and outputting live audio, users can enjoy the virtual live performance with the feeling that they are actually present at the virtual live performance venue.

また、詳しい説明は省略するが、視聴者用コメント制御プログラムにより提供されるコメント機能によって、自分や他の視聴者ユーザーが入力したコメントを確認しながら仮想ライブを楽しむことができるとともに、ギフト制御プログラムによるギフト機能によって、自分が所有しているアイテムを演者アバター1に贈ることで、仮想ライブを盛り上げることもできる。 Although we will not go into detail here, the comment function provided by the viewer comment control program allows viewers to enjoy the virtual live show while checking comments entered by themselves and other viewer users, and the gift function provided by the gift control program allows viewers to give items they own to the performer avatar 1 to liven up the virtual live show.

<管理者端末>
図6は、本実施例1の仮想空間コンテンツ配信システムにおける管理者端末150の構成例を示す図である。管理者端末150は、本実施例1では、演者端末200とともに、スタジオに隣接している調整室内に設けられた通常のコンピュータを使用しており、図6に示すように、データバス158に接続されたプロセッサ(CPU)151、メモリ(RAM)152、ハードディスク等のストレージ153、オープンコンピュータネットワークであるインターネットを介したTCP/IPプロトコルによる双方向に通信が可能な通信インターフェイス(I/F)154、表示装置160が接続されたグラフィックスプロセッシングユニット(GPU)を含む画像処理部156、各種の入出力デバイスが接続された入出力インターフェイス(I/F)155、を有している。
<Administrator terminal>
Fig. 6 is a diagram showing an example of the configuration of the administrator terminal 150 in the virtual space content delivery system of this embodiment 1. In this embodiment 1, the administrator terminal 150 uses a normal computer installed in a control room adjacent to the studio together with the performer terminal 200, and as shown in Fig. 6, has a processor (CPU) 151 connected to a data bus 158, a memory (RAM) 152, a storage 153 such as a hard disk, a communication interface (I/F) 154 capable of two-way communication by TCP/IP protocol via the Internet, which is an open computer network, an image processing unit 156 including a graphics processing unit (GPU) to which a display device 160 is connected, and an input/output interface (I/F) 155 to which various input/output devices are connected.

表示装置160は、後述するように、ストレージ153に記憶されている管理者用プログラムに含まれる管理者用視点映像制御プログラムによって、配信用サーバコンピュータ100から配信される仮想空間更新データ(図10参照)によって更新される仮想空間である仮想ライブ会場の仮想空間データにもとづいて生成される、後述する各仮想カメラC1~C4並びにフライング演出期間における空中移動仮想カメラの各視点映像を個別に表示可能であるとともに、配信用サーバコンピュータ100から配信されるコメントデータにもとづくコメントを表示可能なものであればよく、1または複数の据え置き型のディスプレイによって構成されている。 As described below, the display device 160 is configured as one or more stationary displays capable of individually displaying the viewpoint images of each of the virtual cameras C1 to C4 described below and the virtual camera moving in the air during the flying performance period, which are generated based on the virtual space data of the virtual live venue, which is a virtual space updated by the virtual space update data (see FIG. 10) distributed from the distribution server computer 100, by the administrator viewpoint image control program included in the administrator program stored in the storage 153, as well as comments based on the comment data distributed from the distribution server computer 100.

入出力インターフェイス(I/F)155には、入力デバイスとして、イベント管理者Mが各種の操作が可能とされた1または複数のデバイスからなる操作入力装置161と、配信用サーバコンピュータ100から配信されるライブ音声等を出力可能なイヤホンやヘッドホンやスピーカー等の音声出力装置162が接続される。 The input/output interface (I/F) 155 is connected to an operation input device 161 consisting of one or more devices that allow the event manager M to perform various operations as input devices, and an audio output device 162 such as earphones, headphones, or speakers that can output live audio, etc., distributed from the distribution server computer 100.

操作入力装置161は、イベント管理者Mが、仮想ライブのイベントに関する入力や設定等の各種操作を実行可能なものであれば任意のものを使用することができ、例えば、コンピュータを構成するキーボードや、ディスプレイ表面に形成された透明タッチパネルや視点切替コントローラ等の少なくとも1つ以上で構成される。 The operation input device 161 can be any device that allows the event manager M to perform various operations such as input and settings related to the virtual live event, and may be composed of at least one of, for example, a keyboard constituting a computer, a transparent touch panel formed on the surface of a display, a viewpoint switching controller, etc.

尚、これら入出力インターフェイス(I/F)155に接続される各種の入出力デバイスは、有線、無線のいずれの接続形態であってもよい。 The various input/output devices connected to the input/output interface (I/F) 155 may be connected in either a wired or wireless manner.

ストレージ153には、管理者端末150であるコンピュータを動作させるためのオペレーションシステム(OS)に加えて、プロセッサ(CPU)151等が実行することで仮想空間コンテンツである仮想ライブの配信に関する配信管理機能を初めとする各種機能を、配信用サーバコンピュータ100と協働して提供するための管理者用プログラムが記憶されている。 In addition to an operating system (OS) for operating the computer that is the administrator terminal 150, the storage 153 also stores an administrator program that is executed by the processor (CPU) 151 etc. to provide various functions in cooperation with the distribution server computer 100, including a distribution management function for the distribution of virtual live shows, which are virtual space content.

管理者用プログラムは、図6に示すように、管理者用視点映像制御プログラム、管理者用音声制御プログラム、管理者用コメント制御プログラム、視聴者管理プログラム、演者管理プログラム等を含む。 As shown in FIG. 6, the administrator programs include an administrator viewpoint video control program, an administrator audio control program, an administrator comment control program, a viewer management program, a performer management program, etc.

管理者用視点映像制御プログラムは、表示装置160に表示する各仮想カメラからの視点映像を生成する機能並びに各視点の変更や切替機能を提供するプログラムである。 The administrator viewpoint image control program is a program that provides the function of generating viewpoint images from each virtual camera to be displayed on the display device 160, as well as the function of changing and switching between each viewpoint.

管理者用音声制御プログラムは、配信用サーバコンピュータ100から配信される仮想ライブの音声データに基づくライブ音声を音声出力装置162から出力する機能を提供するプログラムである。 The administrator audio control program is a program that provides the function of outputting live audio from the audio output device 162 based on the audio data of the virtual live broadcast distributed from the distribution server computer 100.

管理者用コメント制御プログラムは、配信用サーバコンピュータ100から配信されるコメントデータにもとづくコメントを表示するとともに、配信を禁止するコメントや視聴者を選択して配信されないようにする等のコメントに関する機能を提供するプログラムである。 The administrator comment control program is a program that displays comments based on comment data distributed from the distribution server computer 100, and provides comment-related functions such as prohibiting comments from being distributed and selecting viewers to prevent them from being distributed.

視聴者管理プログラムは、仮想ライブに仮想参加する視聴者ユーザーを管理するためのプログラムであり、演者管理プログラムは、仮想ライブに仮想参加する演者ユーザーを管理するためのプログラムである。 The viewer management program is a program for managing viewer users who virtually participate in a virtual live performance, and the performer management program is a program for managing performer users who virtually participate in a virtual live performance.

尚、図6には図示していないが、操作者である管理者が本人であるか否かを認証するための認証用プログラムや、仮想ライブのタイムスケジュールや楽曲順等を編集するためのスケジュール用プログラム等が含まれているが、これら以外のプログラムが含まれていてもよい。 Note that although not shown in FIG. 6, the system includes an authentication program for authenticating whether the administrator who is the operator is the actual person, and a schedule program for editing the time schedule and song order of the virtual live performance, but may also include other programs.

このように、本実施例1の仮想空間コンテンツ配信システムを構成する管理者端末150をイベント管理者Mが操作することによって、イベントを実行するための種々の設定、例えば、演目や楽曲順、演出に関する設定や、タイムスケジュール、フライング演出期間において空中移動仮想カメラが移動する軌道等の各種設定を実施できるようになっており、このようにして設定された内容にもとづいて仮想ライブが管理されるようになっている。 In this way, the event manager M can operate the manager terminal 150 constituting the virtual space content distribution system of this embodiment 1 to implement various settings for executing the event, such as the program, order of songs, settings related to the performance, the time schedule, and the trajectory of the virtual camera moving in the air during the flying performance period, and the virtual live performance is managed based on the settings made in this way.

<仮想ライブ会場>
本実施例1で使用した仮想空間である仮想ライブ会場を図12に示す。仮想ライブ会場は、図12に示すように、現実空間におけるライブ会場と同様に、演者ユーザーが演者アバター1として登壇する仮想ステージGと、観客となる視聴者ユーザーが視聴者アバターとして仮想参加する仮想観客領域とを有する仮想空間とされている。
<Virtual live venue>
A virtual live performance venue, which is the virtual space used in Example 1, is shown in Fig. 12. As shown in Fig. 12, the virtual live performance venue, like a live performance venue in real space, is a virtual space having a virtual stage G where performer users appear as performer avatars 1 and a virtual audience area where audience users virtually participate as audience avatars.

仮想ステージGは、図12に示すように、比較的広い面積の台形状の床面を有しており、現実空間のライブ会場と同様に、演者アバター1が仮想ステージG上を移動できる。仮想ステージGの仮想客席方向とは逆方向側には、図12に示すように、中央部と右側部と左側部とに3分割された仮想ステージ壁が形成されており、これら仮想ステージ壁の前面に、仮想ディスプレイ40、41、42が設けられていて、該仮想ディスプレイ40、41、42に、演出用の画像や映像が仮想表示されるようになっている。 As shown in FIG. 12, virtual stage G has a relatively large trapezoidal floor surface, and performer avatar 1 can move on virtual stage G in the same way as in a live venue in real space. On the side of virtual stage G opposite the virtual audience seats, as shown in FIG. 12, a virtual stage wall is formed that is divided into three parts: a center, a right side, and a left side, and virtual displays 40, 41, and 42 are provided in front of these virtual stage walls, and images and videos for the performance are virtually displayed on the virtual displays 40, 41, and 42.

尚、仮想ディスプレイ40、41、42の間には、演者ユーザーに関係する星の仮想配置オブジェクト43が配置されているとともに、仮想ステージG上の領域であって仮想ステージ壁に囲まれた第1領域よりも上方の領域である第2領域には、図12に示すように、大きな星の仮想空中オブジェクト50~52が配置されている。尚、仮想空中オブジェクト50~52は、第2領域内を移動できるようになっている。 A star virtual placement object 43 related to the performer user is placed between the virtual displays 40, 41, and 42, and large star virtual aerial objects 50 to 52 are placed in a second area, which is an area on the virtual stage G above the first area surrounded by the virtual stage walls, as shown in FIG. 12. The virtual aerial objects 50 to 52 are capable of moving within the second area.

仮想ステージGの前側には、視聴者ユーザーが視聴者アバターとして仮想ライブ会場に仮想参加できる仮想観客領域が設けられている。この仮想観客領域は、図12に示すように、演者アバター1が登壇する仮想ステージGの中央に近い特別領域である第3領域と、第3領域を囲むように形成された領域であって仮想ステージGの中央からの距離が第3領域よりも大きい第4領域とが設けられている。 A virtual audience area is provided in front of the virtual stage G, where viewer users can virtually participate in the virtual live venue as viewer avatars. As shown in FIG. 12, this virtual audience area is made up of a third area, which is a special area close to the center of the virtual stage G where the performer avatar 1 appears, and a fourth area, which is formed to surround the third area and is located at a greater distance from the center of the virtual stage G than the third area.

これら第3領域には、所定の上限数の範囲内で、仮想参加が許可された特別な視聴者ユーザーが仮想参加可能とされていて、本実施例1では、図12に示すように、例えば、所定の仮想参加実績を満たすとともに演者ユーザーによって仮想参加が許可された4人の視聴者ユーザーの視聴者アバター11~14が配置されている。 In these third areas, special viewer users who are permitted to participate virtually can participate virtually up to a certain upper limit. In this embodiment 1, as shown in FIG. 12, for example, viewer avatars 11 to 14 of four viewer users who have met a certain virtual participation record and have been permitted to participate virtually by the performer user are placed.

また、第4領域には、仮想ライブの開始前において仮想参加を予約した一般の視聴者ユーザーの視聴者アバター21~32が配置されている。尚、図12において、視聴者アバター21~32は、便宜上、簡素化して表示しているが、視聴者アバター11~14と同様のアバターである。 The fourth area also contains viewer avatars 21-32 of general viewer users who have booked virtual participation before the start of the virtual live event. Note that in FIG. 12, viewer avatars 21-32 are shown in a simplified manner for convenience, but are the same avatars as viewer avatars 11-14.

尚、第3領域に配置された各視聴者アバター11~14は、視聴者ユーザーが視聴者端末を操作することで、該第3領域内を移動することが可能とされているとともに、第4領域に配置された各視聴者アバター21~32も、視聴者ユーザーが視聴者端末を操作することで、該第4領域内を移動することが可能とされている。 In addition, each viewer avatar 11 to 14 arranged in the third area can be moved within the third area by the viewer user operating the viewer terminal, and each viewer avatar 21 to 32 arranged in the fourth area can be moved within the fourth area by the viewer user operating the viewer terminal.

仮想ライブ会場には、図12に示すように、4つの仮想カメラC1~C4が仮想配置(設定)されている。仮想カメラC1は、演者アバター1の正面位置に、演者アバター1に対面するように仮想配置された仮想カメラであり、仮想カメラC1による視点映像は、図13(a)に示すように、演者アバター1を正面近傍位置から見た視点映像となる。 As shown in FIG. 12, four virtual cameras C1 to C4 are virtually positioned (set) in the virtual live venue. Virtual camera C1 is virtually positioned in front of performer avatar 1 so as to face the performer avatar 1, and the viewpoint image captured by virtual camera C1 is a viewpoint image viewed from a position close to the front of performer avatar 1, as shown in FIG. 13(a).

仮想カメラC2は、演者アバター1の頭上に仮想配置(設定)されたカメラであり、該仮想カメラC2による視点映像は、図15に示すように、演者アバター1から仮想観客領域を見た演者視点映像となる。 The virtual camera C2 is a camera virtually placed (set) above the head of the performer avatar 1, and the viewpoint image captured by the virtual camera C2 is a performer viewpoint image viewed from the performer avatar 1 toward the virtual audience area, as shown in FIG. 15.

仮想カメラC3は、演者アバター1の斜め後方の仮想ディスプレイ41上に仮想配置された仮想カメラであり、仮想カメラC3による視点映像は、図13(c)に示すように、演者アバター1の斜め後方から仮想観客領域を見た視点映像となる。 Virtual camera C3 is a virtual camera virtually placed on the virtual display 41 diagonally behind the performer avatar 1, and the viewpoint image from virtual camera C3 is a viewpoint image looking at the virtual audience area from diagonally behind the performer avatar 1, as shown in Figure 13 (c).

仮想カメラC4は、演者アバター1の斜め後方の仮想ディスプレイ42上に仮想配置された仮想カメラであり、仮想カメラC4による視点映像は、図13(b)に示すように、演者アバター1の斜め後方から仮想観客領域を見た視点映像となる。 Virtual camera C4 is a virtual camera virtually placed on the virtual display 42 diagonally behind the performer avatar 1, and the viewpoint image from virtual camera C4 is a viewpoint image looking at the virtual audience area from diagonally behind the performer avatar 1, as shown in FIG. 13(b).

また、本実施例1では、固定配置(設定)された仮想カメラC1~C4に加えて、仮想空間である仮想ライブ会場の空間内を空中移動可能に設定された空中移動仮想カメラ(図示略)が仮想配置されている。これら空中移動仮想カメラが移動する空中軌道並びに空中軌道上の個々の位置における視点方向(アングル)等は、管理者端末150によって予め設定されていて、後述するフライング演出期間において、演者アバター1が空中移動仮想カメラの空中軌道を追随するように仮想飛翔することで、仮想飛翔する演者アバター1を空中移動仮想カメラで捉えた視点映像が生成されるようになっている。 In addition, in this embodiment 1, in addition to the fixedly placed (set) virtual cameras C1 to C4, an air-moving virtual camera (not shown) is virtually placed so that it can move through the air in the virtual live venue space, which is a virtual space. The aerial trajectories along which these air-moving virtual cameras move and the viewpoint directions (angles) at each position on the aerial trajectory are preset by the administrator terminal 150, and during the flying performance period described below, the performer avatar 1 virtually flies so as to follow the aerial trajectory of the air-moving virtual camera, thereby generating a viewpoint image in which the flying performer avatar 1 is captured by the air-moving virtual camera.

尚、本実施例1では、図12に示すように、固定配置(設定)された仮想カメラとして4つの仮想カメラC1~C4を仮想配置した形態を例示しているが、本発明はこれに限定されるものではなく、これら固定配置(設定)された仮想カメラを5以上としてもよいし、逆に、固定配置(設定)された仮想カメラを設けることなく、仮想ライブ会場に仮想参加した各アバターに対応した視点から見た視点映像だけが、演者端末200や視聴者端末300に表示されるようにしてもよい。 In this embodiment 1, as shown in FIG. 12, four virtual cameras C1 to C4 are virtually arranged as fixedly arranged (set) virtual cameras, but the present invention is not limited to this. The number of these fixedly arranged (set) virtual cameras may be five or more. Conversely, without providing fixedly arranged (set) virtual cameras, only the viewpoint images seen from the viewpoints corresponding to each avatar virtually participating in the virtual live venue may be displayed on the performer terminal 200 and the viewer terminal 300.

また、本実施例1では、空中移動仮想カメラを1つとした形態を例示しているが、本発明はこれに限定されるものではなく、これら空中移動仮想カメラを複数とした形態としてもよいし、逆に、空中移動仮想カメラを仮想配置しない形態としてもよい。 In addition, in this embodiment 1, an example is given of a configuration in which there is one virtual camera moving in the air, but the present invention is not limited to this, and a configuration in which there are multiple virtual cameras moving in the air, or conversely, a configuration in which no virtual camera moving in the air is virtually placed, may also be used.

<スタジオ>
図11は、本実施例1において使用したスタジオを示す図であり、スタジオには、前述したようにガラス窓を隔てた調整室が隣接して設けられており、演者ユーザーがスタジオ内で歌唱に対応した各動作を行うとともに、補助オペレータOが調整室に設置されている演者端末200の操作等を補助する。装着センサ220C1~220C5を装着した演者ユーザーの周囲には、ベースステーション220aとベースステーション220bとがスタンドに搭載配置されているとともに、演者ユーザーのほほ正面位置には、表情入力装置221を構成する撮像カメラがスタンドに搭載配置されている。
<Studio>
11 is a diagram showing the studio used in Example 1, and as described above, the studio is adjacent to the control room separated by a glass window, and the performer user performs each action corresponding to singing in the studio, while the assistant operator O assists with the operation of the performer terminal 200 installed in the control room. Around the performer user wearing the mounting sensors 220C1 to 220C5, base stations 220a and 220b are mounted on a stand, and an imaging camera constituting the facial expression input device 221 is mounted on a stand in a position almost in front of the performer user.

演者ユーザーがスタジオ内で対峙する壁面にはスクリーンSが設けられており、スタジオの天井に配置されたプロジェクタ(表示装置B211)から、仮想カメラC2の視点映像がスクリーンSに投影されることで、図15に示すように、演者アバター1から仮想観客領域を見た視点映像がスクリーンSに表示されるようになっており、演者ユーザーが、仮想観客領域において仮想参加している視聴者アバターの様子(ライブに対する視聴者の反応)を逐次、把握しながらライブを進めることができるようになっている。 A screen S is provided on the wall facing the performer user in the studio, and a projector (display device B211) placed on the ceiling of the studio projects the viewpoint image of virtual camera C2 onto screen S, so that the viewpoint image seen from performer avatar 1 as looking at the virtual audience area is displayed on screen S, as shown in FIG. 15. This allows the performer user to proceed with the live performance while keeping track of the behavior of the viewer avatars virtually participating in the virtual audience area (the audience's reaction to the live performance).

また、スクリーンSの側方位置には、表示装置C212としての縦型の大型ディスプレイが配置されていて、該大型ディスプレイに視聴者のコメントや補助オペレータOが演者ユーザーに伝達したいメッセージ等が表示されるようになっている。尚、表示装置C212には、ライブにおいて演者が歌唱する楽曲の歌詞や、セリフ等の情報(演者支援情報)が表示されるようにしてもよい。 A large vertical display serving as display device C212 is placed to the side of screen S, and is configured to display comments from viewers and messages that the assistant operator O wishes to convey to the performer user. Note that display device C212 may also be configured to display information (performer support information) such as the lyrics and lines of the song sung by the performer during the live performance.

<仮想空間コンテンツ配信システムの動作>
図10は、本実施例1の仮想空間コンテンツ配信システムの動作、具体的には、仮想ライブの映像や音声が配信される流れを説明する説明図である。
<Operation of Virtual Space Content Distribution System>
FIG. 10 is an explanatory diagram for explaining the operation of the virtual space content delivery system of the first embodiment, specifically, the flow of delivery of video and audio of a virtual live performance.

まず、映像系について説明する。配信用サーバコンピュータ100は、前述したように、仮想空間生成プログラム120および演者ユーザーや視聴者ユーザーのアバターデータ等にもとづいて仮想ライブ会場の仮想空間を提供可能とされており、これら演者ユーザーや視聴者ユーザーの各アバターの動作等が、演者端末200から送信される演者アバター情報や、視聴者端末300から送信される視聴者アバター情報によって仮想空間の状態が記述された仮想空間データが更新されることで、演者ユーザーの動作が演者アバター1の動作に反映されるとともに、視聴者ユーザーの動作(操作)が視聴者アバターの動作に反映される。 First, the video system will be described. As mentioned above, the distribution server computer 100 is capable of providing a virtual space of a virtual live venue based on the virtual space generation program 120 and the avatar data of the performer users and the viewer users, and the actions of each avatar of these performer users and viewer users are reflected in the actions of the performer avatar 1, and the actions (operations) of the viewer users are reflected in the actions of the viewer avatar by updating the virtual space data describing the state of the virtual space with the performer avatar information transmitted from the performer terminal 200 and the viewer avatar information transmitted from the viewer terminal 300.

尚、図10には示していないが、演者端末200並びに視聴者端末300には、仮想ライブに仮想参加するために配信用サーバコンピュータ100と通信接続することに伴って、配信用サーバコンピュータ100から仮想ライブ会場の仮想空間データが事前に配信されて記憶されており、このようにして事前に記憶されている仮想空間データが、後述するように、配信用サーバコンピュータ100から逐次配信される仮想空間更新データによって順次更新されることで、仮想ライブ会場の最新の状態を、演者端末200並びに視聴者端末300にて特定できるようになっている。 Although not shown in FIG. 10, when the performer terminal 200 and the viewer terminal 300 communicate with the distribution server computer 100 to virtually participate in the virtual live performance, virtual space data of the virtual live performance venue is delivered in advance from the distribution server computer 100 and stored in the performer terminal 200 and the viewer terminal 300. As described below, the virtual space data thus prestored is updated sequentially by virtual space update data successively delivered from the distribution server computer 100, so that the latest state of the virtual live performance venue can be identified on the performer terminal 200 and the viewer terminal 300.

具体的には、前述したスタジオにおける演者ユーザーの動作や表情は、前述した演者アバター制御プログラムによるボディモーションスキャン並びにフェイスモーションスキャンの各機能によって所定時間間隔にてスキャンされて演者アバター情報が生成されて配信用サーバコンピュータ100に送信される。 Specifically, the movements and facial expressions of the performer user in the studio are scanned at predetermined time intervals by the body motion scan and face motion scan functions of the performer avatar control program described above, and performer avatar information is generated and transmitted to the distribution server computer 100.

一方、第3領域に仮想参加が許可された視聴者ユーザーは、演者と同様に、モーションセンサを使用しているため、ボディモーションスキャン並びにフェイスモーションスキャンの各機能によって所定時間間隔にてスキャンされて視聴者アバター情報が生成されて配信用サーバコンピュータ100に送信される。 On the other hand, viewer users who are permitted to virtually participate in the third area use motion sensors, just like the performers, and are scanned at predetermined time intervals using the body motion scan and face motion scan functions to generate viewer avatar information that is then sent to the distribution server computer 100.

また、第4領域に仮想参加が許可された視聴者ユーザーは、視聴者端末300のタッチパネルやキーボードやコントローラを使用して、移動操作、視点方向の変更操作、視点状況(ズーム)の変更操作、手を挙げる操作、手をたたく操作、跳ねる操作等の各種の操作を行うことで、視聴者アバターに対応する動作をさせることができる。そして、これら各操作のうち、視聴者アバターの動作に関係する操作にもとづいて視聴者アバター情報が生成されて配信用サーバコンピュータ100に送信される。 In addition, a viewer user who is permitted to virtually participate in the fourth area can use the touch panel, keyboard, or controller of the viewer terminal 300 to perform various operations such as movement operations, operations to change the viewpoint direction, operations to change the viewpoint state (zoom), operations to raise hands, operations to clap hands, operations to jump, etc., to cause the viewer avatar to perform the corresponding action. Then, of these operations, viewer avatar information is generated based on the operations related to the actions of the viewer avatar and is transmitted to the distribution server computer 100.

尚、第3領域に仮想参加している視聴者ユーザーも、移動や視点状況(ズーム)の変更操作、手を挙げる操作、手をたたく操作、跳ねる操作等の各種の操作を、コントローラ等を使用して実行することができ、この場合、各動作に対応したメニュー項目が表示され、該各動作に対応したメニュー項目をコントローラ等を使用して選択することができる。 In addition, viewer users virtually participating in the third area can also use a controller or the like to perform various operations such as movement, changing the viewpoint (zoom), raising their hands, clapping their hands, jumping, etc. In this case, menu items corresponding to each operation are displayed, and the menu items corresponding to each operation can be selected using a controller or the like.

このように、視聴者端末300においては、視聴者アバターに行わせる各動作に対応した操作を受付けるアバター動作操作処理が実行される。尚、アバター動作操作処理においては、上記した各動作に対応したメニュー項目の表示や消去等の処理も含まれている。 In this way, the viewer terminal 300 executes an avatar action operation process that accepts operations corresponding to each action to be performed by the viewer avatar. The avatar action operation process also includes processes such as displaying and erasing menu items corresponding to each of the above-mentioned actions.

このようにして演者端末200から送信される演者アバター情報や視聴者端末300から送信される視聴者アバター情報にもとづいて、配信用サーバコンピュータ100は、仮想空間データを更新する仮想空間更新処理を実行することで、仮想ライブ会場に仮想参加している各アバターに演者ユーザーの動作や視聴者ユーザーの動作(操作)を反映させる。 In this way, based on the performer avatar information transmitted from the performer terminal 200 and the viewer avatar information transmitted from the viewer terminal 300, the distribution server computer 100 executes a virtual space update process that updates the virtual space data, thereby reflecting the actions (operations) of the performer user and the viewer user in each avatar virtually participating in the virtual live venue.

そして、更新前の仮想空間データと更新後の仮想空間データとにもとづいて仮想空間更新データを生成する仮想空間更新データ生成処理を実行した後、該生成した仮想空間更新データを演者端末200と視聴者端末300とに配信する。 Then, a virtual space update data generation process is executed to generate virtual space update data based on the virtual space data before the update and the virtual space data after the update, and the generated virtual space update data is distributed to the performer terminal 200 and the viewer terminal 300.

仮想空間更新データが配信された演者端末200と視聴者端末300においては、図10に示すように、配信されてきた仮想空間更新データにもとづいて、事前記憶されている仮想空間データが更新されるとともに、該更新された仮想空間データを使用した演者視点映像生成処理や視聴者視点映像生成処理が実行されることで、更新された仮想空間データにもとづく演者視点映像や視聴者視点映像が生成されて、該生成された演者視点映像や視聴者視点映像が演者端末200と視聴者端末300において表示される(視聴者視点映像出力処理)。 As shown in FIG. 10, in the performer terminal 200 and the viewer terminal 300 to which the virtual space update data has been delivered, the pre-stored virtual space data is updated based on the delivered virtual space update data, and a performer perspective video generation process and a viewer perspective video generation process are executed using the updated virtual space data, thereby generating performer perspective video and viewer perspective video based on the updated virtual space data, and the generated performer perspective video and viewer perspective video are displayed on the performer terminal 200 and the viewer terminal 300 (viewer perspective video output process).

このように、本実施例1では、視聴者アバターにより仮想ライブ会場に仮想参加している各視聴者ユーザーの視点映像は、各視聴者ユーザーの視聴者端末300側で生成されて表示されることで、これら各視聴者ユーザーの視聴者アバター視点映像を配信用サーバコンピュータ100で生成することにより配信用サーバコンピュータ100の処理負荷が著しく大きくなって、多くの視聴者ユーザーが仮想ライブに参加できなくなってしまうことを回避できるとともに、処理負荷が増大することによって配信が困難となってしまうことを回避できるようになっている。 In this way, in this embodiment 1, the viewpoint video of each viewer user who is virtually participating in the virtual live venue through a viewer avatar is generated and displayed on the viewer terminal 300 of each viewer user, and by generating the viewer avatar viewpoint video of each viewer user on the distribution server computer 100, it is possible to avoid a situation in which the processing load on the distribution server computer 100 becomes significantly large, which would result in many viewer users being unable to participate in the virtual live, and it is also possible to avoid a situation in which distribution becomes difficult due to an increased processing load.

本実施例1では、仮想ステージG上の演者アバター1に近い第3領域にて仮想参加している視聴者アバター13の視聴者ユーザーの視聴者端末300の表示装置310には、図13(d)に示すように、演者アバター1に近い視聴者アバター13から見た視点映像である演者アバター1のほぼ正面が大きく表示される視点映像が生成されて表示される一方、仮想ステージG上の演者アバター1から遠い第4領域であって、例えば、視聴者アバター13の後方位置において仮想参加している視聴者アバター28の視聴者ユーザーの視聴者端末300の表示装置310には、図13(e)に示すように、演者アバター1から遠い視聴者アバター28から見た視点映像である、第3領域にて仮想参加している視聴者アバター13や視聴者アバター14越しに、演者アバター1のほぼ正面が相対的に小さく見える視点映像が表示される。 In this embodiment 1, a viewpoint image in which the almost front of the performer avatar 1 is displayed large, which is the viewpoint image seen from the viewer avatar 13 close to the performer avatar 1, as shown in FIG. 13(d), is generated and displayed on the display device 310 of the viewer terminal 300 of the viewer user of the viewer avatar 13 who is virtually participating in the virtual stage G in the third region close to the performer avatar 1, while a viewpoint image in which the almost front of the performer avatar 1 is displayed large, which is the viewpoint image seen from the viewer avatar 13 close to the performer avatar 1, as shown in FIG. 13(d), is displayed on the display device 310 of the viewer terminal 300 of the viewer user of the viewer avatar 28 who is virtually participating in the virtual stage G in the fourth region far from the performer avatar 1, for example, at a position behind the viewer avatar 13, as shown in FIG. 13(e).

また、上面視コ字状に設定されている第4領域の仮想ステージGの端側位置において仮想参加している視聴者アバター32の視聴者ユーザーの視聴者端末300の表示装置310には、図13(f)に示すように、演者アバター1の斜め前方位置の視聴者アバター32から見た視点映像である、第3領域にて仮想参加している視聴者アバター14越しに、演者アバター1が相対的に小さく見える視点映像が表示される。 In addition, the display device 310 of the viewer terminal 300 of the viewer user of the viewer avatar 32 who is virtually participating at the edge position of the virtual stage G in the fourth area, which is set to be U-shaped when viewed from above, displays a viewpoint image as seen from the viewer avatar 32 positioned diagonally forward of the performer avatar 1, as shown in Figure 13 (f), in which the performer avatar 1 appears relatively small through the viewer avatar 14 who is virtually participating in the third area.

尚、図13に示す表示例は、いずれも、視聴者端末300が据置型のコンピュータ(PC)であって表示装置310が、据置型のディスプレイである場合を例示しているが、例えば、視聴者端末300がスマートフォンPやタブレット等である場合には、仮想カメラC1の視点映像の場合には、図14(a)に示すように表示されるとともに、該視聴者端末300が視聴者アバター13の視聴者端末300である場合には、図14(b)に示すように表示される。 The display examples shown in FIG. 13 all illustrate the case where the viewer terminal 300 is a stationary computer (PC) and the display device 310 is a stationary display. However, for example, if the viewer terminal 300 is a smartphone P or a tablet, the viewpoint image of the virtual camera C1 is displayed as shown in FIG. 14(a), and if the viewer terminal 300 is the viewer terminal 300 of the viewer avatar 13, it is displayed as shown in FIG. 14(b).

次に、音声系について説明すると、配信用サーバコンピュータ100においてタイムスケジュールデータ(TSデータ)112にもとづいて楽曲データ113が音声制御プログラム124によって再生され、再生楽曲(データ)として演者端末200に送信される(楽曲再生処理)。 Next, regarding the audio system, in the distribution server computer 100, music data 113 is played by the audio control program 124 based on time schedule data (TS data) 112, and is transmitted to the performer terminal 200 as a played music piece (data) (music playback process).

演者端末200においては、配信用サーバコンピュータ100から送信された再生楽曲(データ)による楽曲音声が、演者ユーザーが装着している高機能イヤホン(イヤモニ)を通じて該演者ユーザーに対して出力されるとともに(再生楽曲出力処理)、該出力された再生楽曲に合わせて演者ユーザーが歌唱することで、集音マイク(音声入力装置222)から入力される演者音声がデータ化されて演者音声(データ)として配信用サーバコンピュータ100に送信される。 On the performer terminal 200, the music audio from the played music (data) sent from the distribution server computer 100 is output to the performer user through high-performance earphones (ear monitors) worn by the performer user (played music output process), and when the performer user sings along with the output played music, the performer voice input from the sound collection microphone (audio input device 222) is digitized and sent to the distribution server computer 100 as the performer voice (data).

配信用サーバコンピュータ100は、演者端末200から受信した演者音声(データ)による演者音声と前述した楽曲再生処理にて再生した再生楽曲とから配信音声(データ)を生成し(配信音声生成処理)、該生成した配信音声(データ)を視聴者端末300に配信する(生成音声配信処理)。 The distribution server computer 100 generates distribution audio (data) from the performer audio (data) received from the performer terminal 200 and the music played in the music playback process described above (distribution audio generation process), and distributes the generated distribution audio (data) to the viewer terminal 300 (generated audio distribution process).

視聴者端末300では、配信用サーバコンピュータ100から配信された配信音声(データ)により配信音声が、イヤホンやスピーカー等の音声出力装置322から出力されることで、視聴者は、あたかも仮想ライブ会場において演者アバター1が歌唱しているようにライブ音声を聞くことができる。 In the viewer terminal 300, the distribution audio (data) distributed from the distribution server computer 100 is output from an audio output device 322 such as an earphone or speaker, allowing the viewer to hear the live audio as if the performer avatar 1 were singing in the virtual live venue.

尚、演者端末200においては、上記したように、演者音声(データ)が配信用サーバコンピュータ100に送信されるとともに、図10に示すように、モニター音声生成処理とモニター音声出力処理とが実行されることにより、調整室に配置されているスピーカーから再生楽曲の楽曲音声と演者音声とが出力されることで、演者ユーザーの歌唱の状況等を補助オペレータO等が調整室において確認することができるようになっている。 In addition, as described above, in the performer terminal 200, the performer's voice (data) is sent to the distribution server computer 100, and as shown in FIG. 10, the monitor voice generation process and the monitor voice output process are executed, so that the music voice of the played music and the performer's voice are output from the speakers located in the control room, allowing the assistant operator O, etc. to check the singing status of the performer user in the control room.

<視聴者用視点映像制御処理>
次に、視聴者端末300において、視聴者用プログラムに含まれる視聴者用視点映像制御プログラムにもとづいて実行される視聴者用視点映像制御処理について、図20を用いて説明する。
<Viewer's viewpoint video control processing>
Next, a viewer's viewpoint video control process executed in the viewer terminal 300 based on a viewer's viewpoint video control program included in the viewer's program will be described with reference to FIG.

視聴者用視点映像制御処理においては、先ず、演者アバター1が図19に示すように、仮想飛翔するフライング演出期間中であるか否かを判定する(ステップS1)。フライング演出期間中であるか否かは、配信用サーバコンピュータ100から、フライング演出期間中であることを示す演出状態データによって特定することができる。尚、配信用サーバコンピュータ100は、タイムスケジュールデータにもとづいてフライング演出期間となるときに、視聴者端末300に対してフライング演出期間中であることを示す演出状態データを送信する。 In the viewer viewpoint video control process, first, it is determined whether or not the performer avatar 1 is in a flying performance period in which it is virtually flying, as shown in FIG. 19 (step S1). Whether or not the performance period is in a flying performance period can be identified from performance status data indicating that the performance period is in a flying performance period, sent from the distribution server computer 100. The distribution server computer 100 transmits performance status data indicating that the performance period is in a flying performance period to the viewer terminal 300 when the flying performance period is reached based on the time schedule data.

フライング演出期間中である場合(ステップS1でY)は、ステップS21に進む一方、フライング演出期間中でない場合(ステップS1でN)は、視点の移動操作(アバターの移動操作や動作操作による視点の変更を含む)やズーム操作を含む視点関係操作が無効とされているか否かを判定する(ステップS2)。 If it is during the flying performance period (Y in step S1), proceed to step S21. If it is not during the flying performance period (N in step S1), it is determined whether viewpoint-related operations including viewpoint movement operations (including avatar movement operations and viewpoint changes due to motion operations) and zoom operations are disabled (step S2).

視点関係操作が無効とされている場合(ステップS2でY)は、ステップS7に進む。視点関係操作が無効とされていない場合(ステップS2でN)は、アバターの移動操作や動作操作等の視点が変化する操作が有るか否かを判定し(ステップS3)、操作がある場合(ステップS3でY)は操作に応じて視聴者視点を変更し、操作がない場合(ステップS3でN)は、ステップS5に進んで、ズーム操作があるか否かを判定する(ステップS5)。 If the viewpoint-related operation is disabled (Y in step S2), proceed to step S7. If the viewpoint-related operation is not disabled (N in step S2), determine whether or not there is an operation that changes the viewpoint, such as an operation to move the avatar or an operation to move the motion (step S3), and if there is an operation (Y in step S3), change the viewer viewpoint according to the operation, and if there is no operation (N in step S3), proceed to step S5 and determine whether or not there is a zoom operation (step S5).

ズーム操作がある場合(ステップS5でY)は、表示装置310に表示されている映像領域を操作に応じた映像領域に変更し、ズーム操作がない場合(ステップS5でN)は、動作追随設定の有無を判定する(ステップS7)。 If a zoom operation is performed (Y in step S5), the image area displayed on the display device 310 is changed to an image area corresponding to the operation, and if a zoom operation is not performed (N in step S5), it is determined whether or not a motion tracking setting is set (step S7).

この動作追随設定は、視聴者ユーザーが、自身が操作に使用するデバイスの種類や、操作についての習熟度に応じて、視聴者端末300において、例えば、ライブ開始前やライブ中に、任意に設定することができる。具体的には、例えば、使用するタッチパネル、キーボード、ゲームコントローラ等の操作入力装置321の操作に慣れていない場合や、アバターの移動操作や動作操作による視点の変更に慣れていない場合、後述するように、自身の視聴者アバターの仮想参加位置が演者アバター1から遠く、ズームアップで拡大表示していることで、演者アバター1の少しの動作でも演者アバター1が適切に表示されなくなってしまう等、演者アバター1の移動や動作に対応して視点を上手く変更できない場合等に設定される。 This motion tracking setting can be set at the viewer's terminal 300 at will, for example, before the start of a live performance or during a live performance, depending on the type of device the viewer uses for operation and his/her level of proficiency in operation. Specifically, the motion tracking setting is set when, for example, the viewer is not familiar with operating the operation input device 321 such as a touch panel, keyboard, or game controller, or when the viewer is not familiar with changing the viewpoint by moving or moving the avatar, or when, as described below, the virtual participation position of the viewer's avatar is far from the performer avatar 1 and the viewer is zoomed in and displayed in an enlarged manner, so that even the slightest movement of the performer avatar 1 prevents the performer avatar 1 from being displayed properly, and the viewer is unable to change the viewpoint in response to the movement or movement of the performer avatar 1.

動作追随設定がない場合(ステップS7でN)は、ステップS11に進む一方、動作追随設定がある場合(ステップS7でY)は、更に、動作追随条件が成立したか否かを判定する(ステップS8)。 If there is no motion tracking setting (N in step S7), proceed to step S11, whereas if there is a motion tracking setting (Y in step S7), it is further determined whether the motion tracking condition is met (step S8).

動作追随条件とは、本実施例1においては、表示装置310において演者アバター1が良好に表示されなくなることがほぼ確実である条件としており、具体的には、演者アバター1の頭部(顔でもよい)が、表示装置310の表示領域の周辺における所定範囲内に入っている場合には、演者アバター1の移動や動作によって表示領域外に頭部(顔)が移動して良好に表示されなくなってしまう可能性が著しく高いことから、動作追随条件が成立したものと判断するようにしている。 In this embodiment 1, the motion tracking condition is a condition under which it is almost certain that the performer avatar 1 will no longer be displayed clearly on the display device 310. Specifically, if the head (or face) of the performer avatar 1 is within a specified range around the display area of the display device 310, it is highly likely that the movement or motion of the performer avatar 1 will cause the head (face) to move outside the display area, causing it to no longer be displayed clearly, and therefore the motion tracking condition is determined to be met.

このように、本実施例1では、演者アバター1の頭部(顔)が表示領域に表示されなくなる前に動作追随条件が成立したと判断することで、演者アバター1の頭部(顔)が表示領域に表示されなくなってしまうことを大幅に低減できるようにしているが、本発明はこれに限定されるものではなく、これら動作追随条件を、表示領域外に頭部(顔)が移動したことを条件としてもよいし、これら以外の条件を動作追随条件としてもよい。つまり、これら動作追随条件としては、演者アバター1が表示領域に良好に表示されなくなってしまうことを防ぐことができる条件であれば、任意の条件を使用することができる。 In this way, in this embodiment 1, by determining that the motion tracking condition is met before the head (face) of the performer avatar 1 disappears from the display area, it is possible to significantly reduce the occurrence of the head (face) of the performer avatar 1 disappearing from the display area, but the present invention is not limited to this, and these motion tracking conditions may be the head (face) moving outside the display area, or other conditions may be used as the motion tracking conditions. In other words, any condition can be used as the motion tracking condition as long as it can prevent the performer avatar 1 from disappearing from the display area properly.

動作追随条件が成立した場合(ステップS8でY)は、視点関係操作を無効化した後(ステップS12)、表示装置310の表示領域に表示される視点映像として、演者アバター1の頭部(顔)が表示領域の周辺における所定範囲に囲まれた非成立範囲内となる動作追随視点に視点が自動的に変更されて、該動作追随視点から見た視点映像が表示装置310の表示領域に表示される(ステップS13)。 If the action-following condition is met (Y in step S8), after disabling the viewpoint-related operation (step S12), the viewpoint image displayed in the display area of the display device 310 is automatically changed to a motion-following viewpoint in which the head (face) of the performer avatar 1 is within a non-metrology range surrounded by a predetermined range around the display area, and the viewpoint image seen from the motion-following viewpoint is displayed in the display area of the display device 310 (step S13).

一方、動作追随条件が成立していない場合(ステップS8でN)は、更に、視点関係操作が無効化されているか否かを判定し(ステップS9)、視点関係操作が無効化されている場合(ステップS9でY)は、無効化されている視点関係操作を有効化して(ステップS10)からステップS11に進み、視点関係操作が無効化されていない場合(ステップS9でN)はステップS10を経由することなくステップS11に進む。 On the other hand, if the motion tracking condition is not met (N in step S8), it is further determined whether or not the viewpoint-related operation is disabled (step S9). If the viewpoint-related operation is disabled (Y in step S9), the disabled viewpoint-related operation is enabled (step S10) and the process proceeds to step S11. If the viewpoint-related operation is not disabled (N in step S9), the process proceeds to step S11 without going through step S10.

ステップ11では、動作追随設定が設定されていないこと、若しくは、動作追随条件が成立していないことにより、視聴者アバターの視点映像が表示装置310の表示領域に継続表示される(ステップS11)。 In step 11, since the motion tracking setting is not set or the motion tracking condition is not met, the viewpoint image of the viewer avatar continues to be displayed in the display area of the display device 310 (step S11).

また、前述したように、ライブにおいて演者アバター1が仮想飛翔するフライング演出期間となった場合は、ステップS1でYと判定されてステップS21に進み、フライング演出期間の開始タイミングであるか否かを判定する(ステップS21)。 Also, as mentioned above, if the flying performance period in which the performer avatar 1 virtually flies during a live performance has begun, step S1 is judged as Y and the process proceeds to step S21, where it is determined whether or not it is time to start the flying performance period (step S21).

フライング演出期間の開始タイミングである場合(ステップS21でY)は、フライング演出期間の開始前において表示装置310の表示領域に表示されていた視聴者アバターの視点映像または動作追随視点映像に代えて、配信用サーバコンピュータ100から配信されるフライング視点映像を表示し(ステップS22)、その後、視点関係操作を無効化して(ステップS23)、ステップS1に戻る。 If it is time to start the flying performance period (Y in step S21), the flying viewpoint video delivered from the delivery server computer 100 is displayed (step S22) in place of the viewer avatar's viewpoint video or the action-tracking viewpoint video that was displayed in the display area of the display device 310 before the start of the flying performance period, and then viewpoint-related operations are disabled (step S23) and the process returns to step S1.

尚、本実施例1では、フライング演出期間においては、全ての視聴者ユーザーの視聴者端末300に同一のフライング視点映像を表示することから、個々の視聴者ユーザーで異なる視聴者アバター視点映像のように、各視聴者端末300側でフライング視点映像を生成するのではなく、配信用サーバコンピュータ100側で生成して視聴者端末300に配信することで、視点の空中移動を伴うことで、視点映像の描画負荷が大きいフライング視点映像を、処理能力が低い視聴者端末300であっても、良好に表示できるようにしているが、本発明はこれに限定されるものではなく、これらフライング視点映像を、視聴者アバター視点映像と同様に、個々の視聴者端末300側で生成するようにしてもよい。 In this embodiment 1, since the same flying viewpoint video is displayed on the viewer terminals 300 of all viewer users during the flying performance period, the flying viewpoint video is not generated on each viewer terminal 300 side like the viewer avatar viewpoint video that is different for each viewer user, but is generated on the distribution server computer 100 side and distributed to the viewer terminal 300. This allows the flying viewpoint video, which involves airborne movement of the viewpoint and therefore imposes a large rendering load on the viewpoint video, to be displayed well even on viewer terminals 300 with low processing capabilities, but the present invention is not limited to this, and these flying viewpoint videos may be generated on the individual viewer terminals 300 side, similar to the viewer avatar viewpoint video.

一方、フライング演出期間の開始タイミングでない場合(ステップS21でN)は、更に、フライング演出期間の終了タイミングであるか否かを判定する(ステップS24)。 On the other hand, if it is not the start timing of the flying performance period (N in step S21), it is further determined whether it is the end timing of the flying performance period (step S24).

フライング演出期間の終了タイミングであるか否かは、配信用サーバコンピュータ100から送信されるフライング視点映像のデータ中に含まれる終了を示すデータにもとづいて特定してもよいし、フライング視点映像とは異なる前述した演出状態データによって特定してもよい。 Whether or not it is the end timing of the flying performance period may be determined based on data indicating the end contained in the flying viewpoint video data transmitted from the distribution server computer 100, or may be determined based on the aforementioned performance status data that is different from the flying viewpoint video.

フライング演出期間の終了タイミングでない場合(ステップS24でN)、つまり、フライング演出期間中である場合には、ステップS26に進んで、フライング視点映像を更新した後、ステップ1に戻る一方、フライング演出期間の終了タイミングである場合(ステップS24でY)は、視点関係操作を有効化した後(ステップS25)、ステップS11に進んで、フライング演出期間中に表示装置310の表示領域に表示していたフライング視点映像に代えて、視聴者アバターの視点映像を表示装置310の表示領域に表示した後、ステップS1に戻る。 If it is not the end of the flying performance period (N in step S24), that is, if it is during the flying performance period, proceed to step S26, update the flying viewpoint video, and then return to step 1; on the other hand, if it is the end of the flying performance period (Y in step S24), enable viewpoint-related operations (step S25), proceed to step S11, display the viewer avatar's viewpoint video in the display area of display device 310 instead of the flying viewpoint video that was displayed in the display area of display device 310 during the flying performance period, and then return to step S1.

このように、本実施例1の視聴者端末300において図20に示す視聴者用視点映像制御処理が実行されることによって視聴者端末300に表示される各視点映像を、図16~図19を用いて説明する。 In this way, the viewer's viewpoint video control process shown in FIG. 20 is executed in the viewer's terminal 300 in this embodiment 1, and the various viewpoint videos displayed on the viewer's terminal 300 are explained using FIG. 16 to FIG. 19.

図16は、本実施例1の視聴者端末300においてズーム操作をした場合の表示装置310の表示内容を示す図であり、ズーム操作を何もしていないデフォルトの状態では、図16(a)に示すように、演者アバター1の上半身を中心とした映像領域の視点映像が表示されている。このデフォルト状態において、視聴者ユーザーがズームアップ操作、例えば、視聴者端末300がスマートフォンPである場合であれば、「+」の表示(図示略)に触れる操作を行い、視聴者端末300がコンピュータ(PC)である場合であれば、キーボードの「+」キーを操作した場合は、例えば、図16(b)に示すように、演者アバター1の頭部(顔)を中心とした映像領域の視点映像が表示される。 Figure 16 is a diagram showing the display contents of the display device 310 when a zoom operation is performed on the viewer terminal 300 of this Example 1. In the default state where no zoom operation is performed, a viewpoint image of the image area centered on the upper body of the performer avatar 1 is displayed as shown in Figure 16 (a). In this default state, when the viewer user performs a zoom-up operation, for example, by touching the "+" display (not shown) if the viewer terminal 300 is a smartphone P, or by operating the "+" key on the keyboard if the viewer terminal 300 is a computer (PC), a viewpoint image of the image area centered on the head (face) of the performer avatar 1 is displayed as shown in Figure 16 (b), for example.

一方、視聴者ユーザーがズームダウン操作、例えば、視聴者端末300がスマートフォンPである場合であれば、「-」の表示(図示略)に触れる操作を行い、視聴者端末300がコンピュータ(PC)である場合であれば、キーボードの「-」キーを操作した場合は、例えば、図16(c)に示すように、演者アバター1の全身が含まれる映像領域の視点映像が表示される。 On the other hand, if the viewer user performs a zoom-down operation, for example, by touching the "- " display (not shown) if the viewer terminal 300 is a smartphone P, or by operating the "- " key on the keyboard if the viewer terminal 300 is a computer (PC), then a viewpoint image of the image area including the entire body of the performer avatar 1 will be displayed, as shown in FIG. 16(c), for example.

尚、図16では、ズームの機能を解り易くするために、視聴者アバターの視点ではなく、仮想カメラC1の視点映像を使用して説明したが、図17に示すように、視聴者アバターの視点についても同様にズームアップ、ズームダウンを行うことができる。 Note that in Figure 16, in order to make the zoom function easier to understand, the explanation was given using the viewpoint image of virtual camera C1 rather than the viewpoint of the viewer avatar, but as shown in Figure 17, zooming up and down can also be performed on the viewpoint of the viewer avatar in the same way.

また、図20の視聴者用視点映像制御処理においては、詳述していないが、例えば、ライブが開始されるときに、演者アバター1が仮想ステージGに初めて登場する場合は、視聴者アバターの視点が演者アバター1に向いていないことから、登場する演者アバター1が視聴者端末300に表示されない期間が長くなってしまう可能性があるので、このように、演者アバター1が最初に登場する期間等を登場演出期間等とし、これらの演出期間において、視聴者端末300に表示される視点映像を、聴者アバターの視点映像ではなく、仮想カメラC1の視点映像等に自動的に切り替えて表示するとともに、これら仮想カメラC1の視点映像においてもズームアップ等を、個々の視聴者ユーザーが実行できるようにしてもよい。 Although not described in detail in the viewer viewpoint image control process of FIG. 20, for example, when performer avatar 1 appears on virtual stage G for the first time when a live performance starts, the viewpoint of the viewer avatar is not directed toward performer avatar 1, and therefore there is a possibility that the period during which performer avatar 1 does not appear on the viewer terminal 300 will be long. Therefore, in this way, the period during which performer avatar 1 first appears may be set as an appearance performance period, and during this performance period, the viewpoint image displayed on the viewer terminal 300 may be automatically switched to the viewpoint image of virtual camera C1, etc., instead of the viewpoint image of the viewer avatar, and each viewer user may be allowed to perform zooming in, etc. on the viewpoint images of virtual camera C1.

図17は、視聴者アバターの視点映像の例として、第4領域に仮想参加している視聴者アバター28の視点映像を示している。図17に示すように、視聴者アバター28の視点映像には、第3領域に仮想参加している視聴者アバター13と視聴者アバター14の頭部が含まれており、これら視聴者アバター13と視聴者アバター14の頭部越しに演者アバター1を見る映像となる。 Figure 17 shows the viewpoint image of viewer avatar 28, who is virtually participating in the fourth area, as an example of the viewpoint image of a viewer avatar. As shown in Figure 17, the viewpoint image of viewer avatar 28 includes the heads of viewer avatar 13 and viewer avatar 14, who are virtually participating in the third area, and the image shows performer avatar 1 seen through the heads of viewer avatar 13 and viewer avatar 14.

このため、視聴者アバター28の視聴者ユーザーは、例えば、ズームアップ操作を行って、図17(b)に示すように、演者アバター1の上半身が中心的に表示される映像領域に変更することで、視聴者アバター13と視聴者アバター14が表示されないようにして、ライブを楽しむことができる。 Therefore, the viewer user of viewer avatar 28 can, for example, perform a zoom-in operation to change the image area so that the upper body of performer avatar 1 is displayed at the center, as shown in FIG. 17(b), thereby preventing viewer avatar 13 and viewer avatar 14 from being displayed and allowing the viewer user to enjoy the live performance.

但し、図17(b)に示すようにズームアップした状態においては、例えば、ライブが進行して演者アバター1が移動したり大きく動作するようになると、これら演者アバター1の動作に合わせて視聴者アバター28の視点を視聴者ユーザーが上手く変更することができないと、図18(d)~(f)に示すように、演者アバター1が良好に表示されない状態となる場合があるため、視点の操作に注意を払うことによって、ライブに集中することが難しくなってしまい、ライブを良好に楽しむことができなくなる場合がある。 However, in the zoomed-in state shown in FIG. 17(b), for example, as the live performance progresses and the performer avatar 1 begins to move and make large movements, if the viewer user is unable to properly change the viewpoint of the viewer avatar 28 in accordance with the movements of the performer avatar 1, the performer avatar 1 may not be displayed properly, as shown in FIGS. 18(d)-(f). In that case, if the viewer user has to pay attention to changing the viewpoint, it may become difficult to concentrate on the live performance, and the viewer may not be able to fully enjoy the live performance.

しかし、本実施例1では、上記のように、視聴者ユーザーが動作追随設定を行った場合には、図18(a)~(c)に示すように、演者アバター1の頭部が表示領域の周辺所定領域内に入ることで動作追随条件が成立して視点が自動的に動作追随視点に変更され、該動作追随視点の視点映像が表示されるようになるため、視聴者ユーザーは、視点の操作に注意を払う必要がなくなるので、ライブに集中できることで良好にライブを楽しむことができるようになる。 However, in this embodiment 1, when the viewer user sets the motion-following setting as described above, as shown in Figures 18(a) to (c), the head of the performer avatar 1 enters within a specified peripheral area of the display area, the motion-following condition is met, the viewpoint is automatically changed to the motion-following viewpoint, and the viewpoint image of the motion-following viewpoint is displayed. This means that the viewer user does not need to pay attention to the viewpoint operation, and can concentrate on the live performance and enjoy it to the fullest.

そして、ライブが進行してフライング演出期間となると、図19に示すように、個々の視聴者アバターの視点映像から空中移動仮想カメラから見たフライング視点映像に、視聴者ユーザーが操作しなくても自動的に変更される。 As the live performance progresses and the flying performance period begins, as shown in Figure 19, the viewpoint images of the individual viewer avatars are automatically changed to flying viewpoint images seen from a virtual camera moving in the air, without any operation by the viewer user.

具体的には、演者アバター1が仮想飛翔をする前に、羽根のオブジェクトが演者アバター1の背中において大きくなる映像が表示される。そして、演者アバター1が仮想ライブ会場の第2領域に仮想配置されている星の仮想空中オブジェクト50を見あげるようにすることで視聴者アバターの視点も同様に移動する。このとき、演者アバター1の周囲には、光のエフェクト61が出現する。 Specifically, before the performer avatar 1 begins the virtual flight, an image is displayed in which a wing object grows on the back of the performer avatar 1. Then, as the performer avatar 1 looks up at a virtual aerial star object 50 that is virtually placed in the second area of the virtual live venue, the viewpoint of the viewer avatar also moves in a similar manner. At this time, light effects 61 appear around the performer avatar 1.

その後、演者アバター1が仮想飛翔に移ると、表示装置310に表示される視点映像は、図19(b)までの視聴者アバターの視点映像から、図19(c)に示すように、空中移動仮想カメラから見たフライング視点映像に自動的に切り替わる。 After that, when the performer avatar 1 starts virtual flight, the viewpoint image displayed on the display device 310 automatically switches from the viewpoint image of the viewer avatar up to FIG. 19(b) to a flying viewpoint image seen from a virtual camera moving in the air, as shown in FIG. 19(c).

そして、フライング演出期間において空中移動仮想カメラは、前述したように、予め設定された空中軌道にもとづいて第2領域内を空中移動し、これら空中移動する空中移動仮想カメラから見たフライング視点映像が、図19(d)に示すように表示装置310に表示される。 During the flying performance period, the airborne virtual camera moves through the second area based on a preset aerial trajectory as described above, and the flying viewpoint image seen from this airborne moving virtual camera is displayed on the display device 310 as shown in FIG. 19(d).

<実施例1の変形例>
上記した実施例1では、一般動作(第1動作)を、演者アバター1が仮想ステージGに移動せずに立っている動作とし、特別動作(第2動作)を、演者アバター1が仮想飛翔を行っている動作とし、特定動作(第3動作)を、演者アバター1が横方向に急移動する動作とした形態を例示しているが、本発明はこれに限定されるものではなく、配信するコネテンツに応じた動作であってよく、例えば、一般動作(第1動作)は、配信されるコンテンツにおいて、演者アバターが最も多くの期間に亘って実行している動作(通常動作)としてもよく、特別動作(第2動作)を、配信されるコンテンツにおいて、最も短い期間である特別期間において実行している動作や最も頻度が少ない動作とし、特定動作(第3動作)を、一般動作(第1動作)よりも実行される期間が短いが特別動作よりも実行されている期間が長い動作や一般動作(第1動作)よりも実行される頻度が少ないが特別動作よりも実行される頻度が多い操作としてもよい。尚、特別動作(第2動作)が、特定動作(第3動作)を含む場合があってもよい。
<Modification of the First Embodiment>
In the above-mentioned first embodiment, the general action (first action) is an action in which the performer avatar 1 stands without moving to the virtual stage G, the special action (second action) is an action in which the performer avatar 1 performs a virtual flight, and the specific action (third action) is an action in which the performer avatar 1 moves rapidly in the lateral direction. However, the present invention is not limited to this, and the specific action may be an action according to the content to be distributed. For example, the general action (first action) may be an action (normal action) that the performer avatar performs for the longest period in the distributed content, the special action (second action) may be an action that is performed in the shortest special period in the distributed content or the least frequently performed action, and the specific action (third action) may be an action that is performed for a shorter period than the general action (first action) but for a longer period than the special action, or an operation that is performed less frequently than the general action (first action) but more frequently than the special action. Note that the special action (second action) may include the specific action (third action).

また、上記した実施例1では、特別動作(第2動作)に対応した視点への切替機能と、特定動作(第3動作)に追随する追随機能と、の双方の機能を有している形態を例示したが、本発明はこれに限定されるものではなく、これらのいずれか一方の機能のみを有する仮想空間コンテンツ配信システムであってもよい。 In addition, in the above-mentioned Example 1, an embodiment is exemplified in which there is both a function of switching the viewpoint corresponding to a special action (second action) and a function of following a specific action (third action), but the present invention is not limited to this, and the virtual space content delivery system may have only one of these functions.

上記した実施例1では、視聴者ユーザーの視点を、演者アバターの動作に応じて変更、追随させる形態を例示したが、本発明はこれに限定されるものではなく、例えば、これら視点の変更、追随を、仮想ステージGにおける演出物であるスモークや花火(火柱)の仕掛け、特殊なライティング、仮想ステージGの変形等の特定の演出に応じて実行するようにしてもよい。 In the above-mentioned Example 1, an example was given of a form in which the viewpoint of the viewer user is changed and followed in accordance with the movements of the performer avatar, but the present invention is not limited to this. For example, the change and following of the viewpoint may be performed in accordance with specific effects such as smoke or fireworks (pillars of fire) devices, special lighting, and deformation of the virtual stage G, which are effects on the virtual stage G.

次に、実施例2の仮想空間コンテンツ配信システムについて、図21~図28を用いて以下に説明する。尚、実施例1と同一の構成については、同一の符号を付して説明を省略する。 Next, the virtual space content distribution system of the second embodiment will be described below with reference to Figs. 21 to 28. Note that the same components as those of the first embodiment will be denoted by the same reference numerals and the description will be omitted.

実施例2の仮想空間コンテンツ配信システムの構成は、図1に示す実施例1の構成と同一であるが、仮想ライブの進行内容が異なることで、仮想カメラC1~C4や空中移動仮想カメラからの視点映像(以下、仮想カメラ視点映像と総称する)が配信される期間や、これら仮想カメラ視点映像を生成する主体が、実施例1とは異なる点が本実施例2の特徴部分である。 The configuration of the virtual space content delivery system of Example 2 is the same as that of Example 1 shown in FIG. 1, but the progress of the virtual live performance is different, and the period during which the viewpoint images from the virtual cameras C1 to C4 and the airborne moving virtual camera (hereinafter collectively referred to as virtual camera viewpoint images) are delivered and the entity that generates these virtual camera viewpoint images are different from those of Example 1, which is a characteristic feature of Example 2.

図21は、実施例2の仮想空間コンテンツ配信システムにおいて配信される仮想ライブの進行内容を示す図である。実施例2の仮想ライブは、まず、仮想ライブの開始前の期間として、「ライブ仮想空間参加可能期間」と「開演前説」の期間とが設けられていて、視聴者ユーザーは、該ライブ仮想空間参加可能期間において仮想ライブの対象の仮想空間である仮想ライブ会場に仮想参加することができる。 Fig. 21 is a diagram showing the progress of a virtual live performance distributed in the virtual space content distribution system of Example 2. In the virtual live performance of Example 2, a "live virtual space participation period" and a "pre-performance speech" period are set as periods before the start of the virtual live performance, and during the live virtual space participation period, viewer users can virtually participate in the virtual live performance venue, which is the virtual space that is the target of the virtual live performance.

尚、「開演前説」の期間の終了間際に設定されている事前データDL完了チェックタイミングまでの期間は、事前データダウンロード(DL)期間とされていて、ライブ仮想空間参加可能期間中に仮想参加した視聴者ユーザーの視聴者端末300に対して、仮想ライブ会場の仮想空間データ(基本データ)、演者アバター1のアバターデータ、並びに仮想参加した他の視聴者ユーザーのアバターデータ等が、事前データとして配信用サーバコンピュータ100からダウンロード(DL)されるようになっている。 The period up to the pre-data download completion check timing, which is set just before the end of the "pre-show speech" period, is the pre-data download (DL) period, during which virtual space data (basic data) of the virtual live venue, avatar data of performer avatar 1, and avatar data of other viewer users who have participated virtually are downloaded (DL) as pre-data from the distribution server computer 100 to the viewer terminal 300 of the viewer user who has participated virtually during the period during which participation in the live virtual space is possible.

また、事前データダウンロード(DL)期間の終了タイミングである事前データDL完了チェックタイミングにおいては、事前データのダウンロード(DL)が、各視聴者端末300において完了しているか否かがチェックされる。 In addition, at the pre-data DL completion check timing, which is the end timing of the pre-data download (DL) period, it is checked whether the pre-data download (DL) has been completed at each viewer terminal 300.

尚、「開演前説」の期間においては、当該仮想ライブについての説明等がビデオ映像等によって紹介される。よって、これら「開演前説」の期間中においても事前データをダウンロード(DL)可能な期間とすることで、ライブ仮想空間参加可能期間において終了間際に仮想参加した視聴者アバターのアバターデータについても、各視聴者端末300が配信用サーバコンピュータ100からダウンロード(DL)することができるようになっている。 During the "pre-show introduction" period, explanations about the virtual live show are given through video footage, etc. Therefore, by making the "pre-show introduction" period a period during which advance data can be downloaded (DL), each viewer terminal 300 can also download (DL) from the distribution server computer 100 the avatar data of viewer avatars who virtually participate in the live virtual space just before the end of the participation period.

また、実施例2の仮想ライブは、図21に示すように、「開演演出」→「第1MC」→「第1演目」→「第2MC」→「第2演目」…のように進行していく。「開演演出」は、仮想ステージGに演者アバター1が登場する演出である。「第1MC」は、仮想ステージGに登場した演者アバター1が、トークによって視聴者に対して挨拶を行うとともに、最初に上演する第1演目についての紹介を行う。「第1演目」は、演者アバター1(演者)の歌唱とダンスとを含むとともに、途中に、仮想ライブ会場を仮想飛翔する演者アバター1を空中移動仮想カメラから仮想撮像した映像によるフライング演出を含む演目である。「第2MC」は、演者アバター1(演者)がトークによって、主に、第2演目についての紹介を行う。「第2演目」は、演者アバター1(演者)の歌唱とダンスとを含むとともに、途中に、演者アバター1が衣装を交換する状況を仮想カメラC1によって仮想撮像した映像による衣装チェンジ演出と、演者アバター1が複数人に分身する状況を仮想カメラC1によって仮想撮像した映像による分身演出とを含む演目である。 As shown in FIG. 21, the virtual live performance of Example 2 progresses as follows: "Opening performance" → "First MC" → "First performance" → "Second MC" → "Second performance" ... "Opening performance" is a performance in which performer avatar 1 appears on virtual stage G. In the "First MC", performer avatar 1 appears on virtual stage G, greets the audience through talk, and introduces the first performance to be performed first. The "First performance" is a performance that includes singing and dancing by performer avatar 1 (performer), and also includes a flying performance in the middle of the performance, in which the performer avatar 1 virtually flies through the virtual live venue and is virtually captured by a virtual camera moving in the air. In the "Second MC", performer avatar 1 (performer) mainly introduces the second performance through talk. The "second performance" includes singing and dancing by performer avatar 1 (performer), as well as a costume change performance using footage virtually captured by virtual camera C1 of the performer avatar 1 changing costumes, and an avatar splitting into multiple people using footage virtually captured by virtual camera C1.

これら各演出や演目等が実行される各期間における配信用サーバコンピュータ100の処理負荷としては、ライブ仮想空間参加可能期間が最も低い「低」である一方、特別演出である「フライング演出」、「衣装チェンジ演出」、「分身演出」が実行される期間が最も高い「高」である。「開演前説」、「開演演出」、「第1MC」、「フライング演出」までの「第1演目」の期間は、配信用サーバコンピュータ100の処理負荷は「中」であり、「フライング演出」後の「第1演目」の期間、「第2MC」、「衣装チェンジ演出」までの「第2演目」の期間も処理負荷は「中」であり、「衣装チェンジ演出」から「分身演出」までの「第2演目」の期間も「中」であり、「分身演出」後の「第2演目」の期間も「中」である。 The processing load on the distribution server computer 100 during each period in which these effects and performances are performed is the lowest at "low" during the period in which participation in the live virtual space is possible, while it is the highest at "high" during the period in which the special effects "flying effect", "costume change effect", and "double-ego effect" are performed. The processing load on the distribution server computer 100 during the period of the "first performance" from the "introduction", "opening effect", "first MC", and "flying effect" is "medium", and the processing load is also "medium" during the period of the "first performance" after the "flying effect", the period of the "second performance" until the "second MC" and "costume change effect", the period of the "second performance" from the "costume change effect" to the "double-ego effect" is also "medium", and the period of the "second performance" after the "double-ego effect" is also "medium".

次に、実施例2の仮想ライブにおける各期間について、視聴者端末300において視聴可能な視点映像について説明すると、仮想参加してから「開演前説」が開始されるまでのライブ仮想空間参加可能期間においては、視聴者アバター視点映像だけが表示可能とされている。 Next, regarding each period in the virtual live in Example 2, the viewpoint images that can be viewed on the viewer terminal 300 will be explained. During the period during which participation in the live virtual space is possible, from virtual participation until the start of the "pre-show speech," only the viewer avatar viewpoint images can be displayed.

そして、「開演前説」が開始されるタイミングで、仮想カメラ視点映像、具体的には、仮想カメラC1の視点映像だけが表示可能とされている。このように、仮想ライブの開始前であるにも係わらず「開演前説」において視点映像を、仮想カメラ視点映像のみとするのは、これら開演前説には、仮想ライブに関する注意点等の説明も含まれているため、視聴者端末300において視聴者アバター視点映像を表示していることによって、仮想ステージGにて行われている開演前説を視聴しない視聴者ユーザーが発生してしまうことを防ぐことを目的としている。 When the "pre-show speech" begins, only the virtual camera viewpoint image, specifically the viewpoint image of virtual camera C1, can be displayed. In this way, the viewpoint image during the "pre-show speech" is limited to the virtual camera viewpoint image even though it is before the start of the virtual live performance. This is because the pre-show speeches also include explanations of points to note about the virtual live performance, and the purpose is to prevent viewer users from not viewing the pre-show speech taking place on virtual stage G due to the viewer avatar viewpoint image being displayed on the viewer terminal 300.

尚、これら「開演前説」の仮想カメラ視点映像は、後述するように、配信用サーバコンピュータ100にて生成されて各視聴者端末300に配信されるので、事前データのダウンロードが未完了の視聴者端末300においても表示することができる。 As described below, these virtual camera viewpoint images of the "introduction" are generated by the distribution server computer 100 and distributed to each viewer terminal 300, so they can be displayed even on viewer terminals 300 that have not yet completed downloading the advance data.

上記した事前データDL完了チェックタイミングにおいて事前データのダウンロードが完了している視聴者端末300については、「第1MC」と「フライング演出」までの「第1演目」の期間、並びに「フライング演出」後の期間においては、仮想カメラ視点映像に加えて視聴者アバター視点映像を表示可能とされている。 For viewer terminals 300 for which the download of advance data has been completed at the above-mentioned advance data DL completion check timing, during the period of the "first performance" up to the "first MC" and the "flying performance", as well as the period after the "flying performance", it is possible to display viewer avatar viewpoint video in addition to virtual camera viewpoint video.

一方、上記した事前データDL完了チェックタイミングにおいて事前データのダウンロードが完了していない視聴者端末300については、視聴者アバター視点映像を正確に生成することができないので、配信用サーバコンピュータ100において生成された仮想カメラ視点映像が配信されることによって、仮想ライブの全ての期間において仮想カメラ視点映像のみが表示可能とされ、視聴者アバター視点映像を表示させることはできないようになっている。 On the other hand, for viewer terminals 300 that have not completed downloading the advance data at the above-mentioned advance data DL completion check timing, the viewer avatar viewpoint video cannot be generated accurately, so the virtual camera viewpoint video generated by the distribution server computer 100 is distributed, making it possible to display only the virtual camera viewpoint video during the entire virtual live performance, and it is not possible to display the viewer avatar viewpoint video.

また、配信用サーバコンピュータ100の処理負荷が「高」である「フライング演出」、「衣装チェンジ演出」、「分身演出」の各映像のうち、「衣装チェンジ演出」、「分身演出」の仮想カメラC1の仮想カメラ視点映像は、これら「衣装チェンジ演出」、「分身演出」以外の第2演目期間中の仮想カメラ視点映像と同様に、配信用サーバコンピュータ100ではなく各視聴者端末300において生成することで、これら「衣装チェンジ演出」、「分身演出」の仮想カメラC1の仮想カメラ視点映像の生成するための配信用サーバコンピュータ100の処理負荷を低減できるようにしている。 In addition, among the images of the "Flying Performance", "Costume Change Performance", and "Double Ego Performance", which have a "high" processing load on the distribution server computer 100, the virtual camera viewpoint images of virtual camera C1 for the "Costume Change Performance" and "Double Ego Performance", like the virtual camera viewpoint images during the second performance period other than these "Costume Change Performance" and "Double Ego Performance", are generated on each viewer terminal 300 rather than on the distribution server computer 100, thereby reducing the processing load on the distribution server computer 100 for generating the virtual camera viewpoint images of virtual camera C1 for these "Costume Change Performance" and "Double Ego Performance".

尚、「フライング演出」の期間についても、配信用サーバコンピュータ100における処理負荷が高い期間であることから「衣装チェンジ演出」、「分身演出」と同様に、視聴者端末300において生成することが考えられるが、この場合、仮想ライブ会場内を移動する空中移動仮想カメラの移動軌跡の詳細な軌道データ等を各視聴者端末300に事前に配信して映像を生成する必要があることから、実施例2では配信用サーバコンピュータ100側で「フライング演出」の映像を生成、配信しているが、本発明はこれに限定されるものではなく、「フライング演出」の映像についても、配信用サーバコンピュータ100の処理負荷の低減を目的として、各視聴者端末300において生成するようにしてもよい。 The "flying performance" period is also a period in which the processing load on the distribution server computer 100 is high, so it is considered that the "flying performance" is generated on the viewer terminal 300, similar to the "costume change performance" and "doppelganger performance". In this case, detailed trajectory data of the movement trajectory of the virtual camera moving in the air within the virtual live venue must be distributed in advance to each viewer terminal 300 to generate the video. Therefore, in Example 2, the "flying performance" video is generated and distributed on the distribution server computer 100 side, but the present invention is not limited to this, and the "flying performance" video may also be generated on each viewer terminal 300 in order to reduce the processing load on the distribution server computer 100.

ここで、実施例2の配信用サーバコンピュータ100において使用される参加者ユーザーテーブルについて、図23を用いて簡潔に説明する。 Here, we briefly explain the participant user table used in the distribution server computer 100 of Example 2 using Figure 23.

参加者ユーザーテーブルは、図7に示すイベントデータに登録されている個々の仮想ライブイベントにおいて、仮想ライブへの視聴者ユーザーの参加状況や事前データのダウンロード状況等を特定できるようにするために使用されるデータテーブルであって、図23に示すように、参加者ID(視聴者ユーザーID)に対応付けて、当該参加者(視聴者ユーザー)の参加状態を特定可能な参加識別データ(参加識別フラグ)と、当該参加者(視聴者ユーザー)の参加エリアと、事前データのダウンロード状態を特定可能な事前データDL識別データ(事前データDL識別フラグ)等のデータが記憶可能なテーブルである。 The participant user table is a data table used to identify the participation status of viewer users in a virtual live event and the download status of advance data for each virtual live event registered in the event data shown in FIG. 7, and as shown in FIG. 23, it is a table that can store data such as participation identification data (participation identification flag) that can identify the participation status of the participant (viewer user) in association with a participant ID (viewer user ID), the participation area of the participant (viewer user), and advance data DL identification data (advance data DL identification flag) that can identify the download status of advance data.

尚、参加者IDの項目には、イベントデータにおいて、当該仮想ライブに対応して記憶されている各参加者グループのファイルに記述されている参加予定者の視聴者ユーザーIDが全て登録されて使用される。 In addition, the participant ID field will contain all the viewer user IDs of the people who are expected to participate and are described in the file for each participant group stored in the event data in association with the virtual live.

参加識別データ(参加識別フラグ)は、参加者ID(視聴者ユーザーID)の登録時において、非参加状態に対応する「0」が登録されており、各参加者(視聴者ユーザー)の参加が認証によって許可されたときに、参加を示す「1」に更新される。よって、該参加識別データ(参加識別フラグ)によって、参加予定視聴者ユーザーのうち、参加している視聴者ユーザーと、何らかの理由で参加できなかった視聴者ユーザーとを特定することができる。 When a participant ID (viewer user ID) is registered, the participation identification data (participation identification flag) is registered as "0", which corresponds to a non-participating state, and is updated to "1", indicating participation, when the participation of each participant (viewer user) is permitted by authentication. Therefore, the participation identification data (participation identification flag) makes it possible to identify, among the viewer users who are scheduled to participate, those who are participating and those who were unable to participate for some reason.

参加エリアのデータは、各参加者(視聴者ユーザー)の参加エリアが、第3領域であるのか、第4領域であるのかを特定可能なデータとされており、各参加者(視聴者ユーザー)の参加が認証によって許可されたときに、登録されるデータである。 The participation area data is data that can identify whether the participation area of each participant (viewer user) is the third area or the fourth area, and is registered when the participation of each participant (viewer user) is permitted by authentication.

事前データDL識別データ(事前データDL識別フラグ)は、前述した事前データDL完了チェックタイミングにおいて事前データのダウンロード(DL)が完了しているか否かのチェックにもとづいて、完了している場合は、未完了を示す「0」から完了を示す「1」に更新される。よって、これら事前データDL識別データ(事前データDL識別フラグ)によって、仮想参加している各参加者(視聴者ユーザー)のうち、事前データのダウンロード(DL)が完了していない全ての参加者(視聴者ユーザー)を容易に特定することができる。 The pre-data DL identification data (pre-data DL identification flag) is updated based on a check as to whether the download (DL) of the pre-data is complete at the pre-data DL completion check timing described above, and if it is complete, it is updated from "0", indicating incomplete, to "1", indicating complete. Therefore, by using this pre-data DL identification data (pre-data DL identification flag), it is possible to easily identify all participants (viewer users) who have not completed the download (DL) of their pre-data among the participants (viewer users) who are virtually participating.

次に、実施例2において視聴者ユーザーが仮想ライブ会場に仮想参加することで事前データがダウンロードされる流れについて、図22を用いて説明する。 Next, the flow of downloading advance data by a viewer user virtually participating in a virtual live performance venue in Example 2 will be described with reference to FIG. 22.

まず、視聴者ユーザーは、視聴者端末300にて実行している視聴者用プログラム(視聴アプリ)において、自分が仮想参加を予定している仮想ライブへの参加操作、例えば、参加メニューの選択やキーボードにおいて参加操作が割り当てられている特定キーの操作を実行する。 First, the viewer user performs an operation to join the virtual live event that he or she plans to virtually participate in, such as selecting a participation menu or operating a specific key on the keyboard to which the participation operation is assigned, in the viewer program (viewing application) running on the viewer terminal 300.

この参加操作の実行によって、視聴者端末300から配信用サーバコンピュータ100に対して、視聴者ユーザーIDや当該視聴者ユーザーを認証するための認証用データを含む参加要求が送信される。 By executing this participation operation, a participation request including the viewer user ID and authentication data for authenticating the viewer user is sent from the viewer terminal 300 to the distribution server computer 100.

参加要求を受信した配信用サーバコンピュータ100においては、ライブ仮想空間参加可能期間であることを条件に、参加者認証処理を実行する。参加者認証処理では、受信した参加要求に含まれる視聴者ユーザーIDが、参加対象の仮想ライブに対応している参加者ユーザーデータベースに、参加者IDとして登録されているか否かによって、当該視聴者ユーザーが該当する仮想ライブの参加予定者であるのか否かを判定するとともに、図9に示す視聴者ユーザーデータにおいて、当該視聴者ユーザーIDに対応付けて記憶されている認証情報ファイルデータから特定される認証情報ファイルに記述された認証用データと、参加要求に含まれる認証用データとを照合することで視聴者ユーザーの認証を行う。 The distribution server computer 100 that receives the participation request executes a participant authentication process on the condition that it is a period during which participation in the live virtual space is possible. In the participant authentication process, it is determined whether the viewer user is a prospective participant of the corresponding virtual live depending on whether the viewer user ID included in the received participation request is registered as a participant ID in the participant user database corresponding to the virtual live to be participated in, and the viewer user is authenticated by comparing the authentication data described in the authentication information file identified from the authentication information file data stored in association with the viewer user ID in the viewer user data shown in FIG. 9 with the authentication data included in the participation request.

視聴者ユーザーが参加予定者であって、認証用データによる認証が完了した場合には、参加者ユーザーテーブルの参加識別データ(参加識別フラグ)を、「参加」に対応する「1」に更新する。 If the viewer user is a prospective participant and has completed authentication using the authentication data, the participant identification data (participation identification flag) in the participant user table is updated to "1", which corresponds to "participation".

そして、配信用サーバコンピュータ100は、参加要求の送信元の視聴者端末300に対して、参加対象の仮想ライブに対応する事前データをダウンロードさせるために事前データDL指示情報を送信(返信)する。視聴者端末300は、該事前データDL指示情報の受信によって、参加が許可されたことを確認することができる。 Then, the distribution server computer 100 transmits (responds to) advance data DL instruction information to the viewer terminal 300 that sent the participation request, in order to have the viewer terminal 300 download advance data corresponding to the virtual live event to be participated in. By receiving the advance data DL instruction information, the viewer terminal 300 can confirm that participation has been permitted.

事前データDL指示情報の受信に応じて視聴者端末300は、ダウンロードする事前データを特定し、特定した事前データのダウンロードを要求する事前データDL要求を配信用サーバコンピュータ100に送信する。 In response to receiving the advance data DL instruction information, the viewer terminal 300 identifies the advance data to be downloaded and transmits an advance data DL request to the distribution server computer 100, requesting the download of the identified advance data.

この事前データDL要求の受信に応じて配信用サーバコンピュータ100は、事前データ送信処理を実行する。 In response to receiving this advance data DL request, the distribution server computer 100 executes the advance data transmission process.

この事前データ送信処理においては、事前データDL要求の送信元の視聴者端末300に対して要求された事前データを送信する。尚、事前データには、前述したように、仮想ライブ会場の仮想空間データ(基本データ)、演者アバター1のアバターデータ、並びに、既に仮想参加している他の視聴者ユーザーのアバターデータ等が含まれている。 In this advance data transmission process, the requested advance data is transmitted to the viewer terminal 300 that sent the advance data DL request. As mentioned above, the advance data includes virtual space data (basic data) of the virtual live venue, avatar data of the performer avatar 1, and avatar data of other viewer users who are already participating virtually.

尚、事前データ送信処理においては、事前データDL要求の送信元以外の視聴者端末300であって、参加者データテーブルによって既に参加が確認されている視聴者ユーザーの視聴者端末300に対して、事前データDL要求の送信元の視聴者ユーザーのアバターデータを、事前データとして追加配信する。これによって、仮想ライブに仮想参加している各視聴者ユーザーの視聴者端末300には、仮想空間データ(基本データ)と演者アバターのアバターデータとともに、仮想ライブに仮想参加している全ての視聴者ユーザーのアバターデータが事前に配信されて記憶されることになる。 In addition, in the advance data transmission process, the avatar data of the viewer user who sent the advance data DL request is additionally distributed as advance data to the viewer terminals 300 other than the viewer terminal 300 that sent the advance data DL request, but of viewer users whose participation has already been confirmed by the participant data table. As a result, the avatar data of all viewer users who are virtually participating in the virtual live show is distributed in advance to and stored in the viewer terminals 300 of each viewer user who is virtually participating in the virtual live show, along with the virtual space data (basic data) and avatar data of the performer avatars.

そして、このようにして視聴者端末300に記憶された事前データは、前述した事前データDL完了チェックタイミング(図21参照)において全ての事前データのダウンロードが完了しているか否かが確認され、事前データのダウンロードが完了している場合に、参加者ユーザーテーブルの事前データDL識別データ(事前データDL識別フラグ)が、未完了を示す「0」から完了を示す「1」に更新される。 Then, at the pre-data DL completion check timing described above (see FIG. 21), it is checked whether or not all of the pre-data has been downloaded, and if the pre-data download has been completed, the pre-data DL identification data (pre-data DL identification flag) in the participant user table is updated from "0", indicating incomplete, to "1", indicating complete.

尚、事前データのダウンロードが完了していないことで、事前データDL識別データ(事前データDL識別フラグ)が、未完了を示す「0」のままである参加者(視聴者ユーザー)に対しては、前述したように、仮想カメラ視点映像のみが表示可能とされる。 As described above, for participants (viewer users) whose advance data download has not been completed and whose advance data DL identification data (advance data DL identification flag) remains at "0," indicating incomplete download, only the virtual camera viewpoint image can be displayed.

次に、視聴者端末300に表示される各種視点映像が生成される主体が、仮想ライブの各期間において変化する状況について、図24~図27を用いて説明する。 Next, we will use Figures 24 to 27 to explain how the subject generating the various viewpoint videos displayed on the viewer terminal 300 changes during each period of the virtual live broadcast.

まず、視聴者端末300において視聴者アバター視点映像だけが表示可能とされるライブ仮想空間参加可能期間中については、図24に示すように、配信用サーバコンピュータ100から送信される、演者ユーザーの動作に連動した動作を行う演者アバター1の動作を生成するための演者アバター用動作データを含む仮想空間更新データにもとづいて、事前データの受信によって既に視聴者端末300において記憶されている仮想空間データが逐次更新され、該更新された仮想空間データにもとづいて視聴者視点映像生成処理が視聴者端末300にて実行されて視聴者アバター視点映像が生成されて、映像出力処理によって出力(表示)される。尚、図24では、演者端末200を省略しているが、仮想空間更新データは、実施例1において図10に示されるように、演者端末200に対しても送信される。 First, during the live virtual space participation period when only the viewer avatar viewpoint video can be displayed on the viewer terminal 300, as shown in FIG. 24, the virtual space data already stored in the viewer terminal 300 is updated sequentially by receiving the advance data based on the virtual space update data transmitted from the distribution server computer 100, including the performer avatar action data for generating the actions of the performer avatar 1 that perform actions linked to the actions of the performer user, and the viewer viewpoint video generation process is executed in the viewer terminal 300 based on the updated virtual space data to generate the viewer avatar viewpoint video, which is output (displayed) by the video output process. Note that although the performer terminal 200 is omitted in FIG. 24, the virtual space update data is also transmitted to the performer terminal 200 as shown in FIG. 10 in Example 1.

また、視聴者端末300において仮想カメラ視点映像のみが表示可能とされる「開演前説」、「開演演出」、「フライング演出」の各期間については、図25に示すように、配信用サーバコンピュータ100において、仮想空間更新データ配信処理においては仮想空間更新データが演者端末200に対してだけ送信される。そして、仮想空間更新データ配信処理に次いで仮想カメラ視点映像が生成される仮想カメラ視点映像生成処理と、該仮想カメラ視点映像生成処理にて生成された仮想カメラ視点映像の映像データを、仮想ライブに参加している全ての視聴者端末300に配信する仮想カメラ視点映像データ配信処理が実行される。 Furthermore, during each of the periods of "Pre-show", "Opening performance", and "Flying performance" in which only virtual camera viewpoint images can be displayed on the viewer terminals 300, as shown in FIG. 25, the distribution server computer 100 transmits virtual space update data only to the performer terminals 200 in the virtual space update data distribution process. Then, following the virtual space update data distribution process, a virtual camera viewpoint image generation process is executed in which a virtual camera viewpoint image is generated, and a virtual camera viewpoint image data distribution process is executed in which the image data of the virtual camera viewpoint image generated in the virtual camera viewpoint image generation process is distributed to all viewer terminals 300 participating in the virtual live.

これら仮想カメラ視点映像データ配信処理にて配信用サーバコンピュータ100から配信された仮想カメラ視点映像データは、該仮想カメラ視点映像データを受信した視聴者端末300において映像出力処理が実行されることによって表示される。 The virtual camera viewpoint video data distributed from the distribution server computer 100 in these virtual camera viewpoint video data distribution processes is displayed by executing a video output process on the viewer terminal 300 that receives the virtual camera viewpoint video data.

つまり、図27に示すように、仮想カメラ視点映像のみが表示可能とされる「開演前説」、「開演演出」、「フライング演出」の各期間については、仮想カメラ視点映像は、配信用サーバコンピュータ100において生成される。 In other words, as shown in FIG. 27, during the periods of "pre-show," "opening performance," and "flying performance," in which only virtual camera viewpoint images can be displayed, the virtual camera viewpoint images are generated by the distribution server computer 100.

また、視聴者端末300において視聴者アバター視点映像と仮想カメラ視点映像のいずれかを選択して表示可能な期間であるMC期間中及びフライング演出期間中を除く演目期間中においては、図26に示すように、配信用サーバコンピュータ100において仮想空間更新データ配信処理が実行されることによって、仮想ライブに参加している各視聴者ユーザーの視聴者端末300に対して仮想空間更新データが配信されることによって、視聴者端末300において仮想空間更新処理が実行される。 In addition, during the performance period, excluding the MC period and the flying performance period, during which the viewer terminal 300 can select and display either the viewer avatar viewpoint image or the virtual camera viewpoint image, as shown in FIG. 26, the distribution server computer 100 executes a virtual space update data distribution process, and virtual space update data is distributed to the viewer terminal 300 of each viewer user participating in the virtual live performance, thereby executing the virtual space update process on the viewer terminal 300.

そして、視聴者端末300においては、表示対象の映像として視聴者アバター視点映像が選択されているか否かが判定され、視聴者アバター視点映像が選択されている場合には、図24に示す流れと同様に、視聴者視点映像生成処理が実行されることで視聴者アバター視点映像が生成されて、該生成された視聴者アバター視点映像が映像出力処理によって表示される。 Then, in the viewer terminal 300, it is determined whether or not the viewer avatar viewpoint video has been selected as the video to be displayed. If the viewer avatar viewpoint video has been selected, the viewer avatar viewpoint video is generated by executing the viewer viewpoint video generation process, similar to the flow shown in FIG. 24, and the generated viewer avatar viewpoint video is displayed by the video output process.

一方、表示対象の映像として視聴者アバター視点映像が選択されていない場合、すなわち、表示対象の映像として仮想カメラ視点映像が選択されている場合には、視聴者端末300において仮想カメラ視点映像生成処理が実行されることで、仮想カメラ視点映像が生成され、該生成された仮想カメラ視点映像が映像出力処理によって表示される。 On the other hand, when the viewer avatar viewpoint video is not selected as the video to be displayed, i.e., when the virtual camera viewpoint video is selected as the video to be displayed, the virtual camera viewpoint video generation process is executed in the viewer terminal 300 to generate the virtual camera viewpoint video, and the generated virtual camera viewpoint video is displayed by the video output process.

尚、この仮想カメラ視点映像において生成される仮想カメラ視点映像は、仮想カメラC1、C3、C4のいずれの視点映像とするかを、視聴者ユーザーが選択できるようにしてもよいし、配信用サーバコンピュータ100が全ての視聴者端末300に対して指示するようにしてもよい。 The viewer user may be able to select which of the virtual cameras C1, C3, or C4 the virtual camera viewpoint image generated in this virtual camera viewpoint image should be, or the distribution server computer 100 may instruct all viewer terminals 300.

つまり、図27に示すように、視聴者端末300において仮想カメラ視点映像と視聴者アバター視点映像のいずれかが表示可能とされるMC期間中及びフライング演出期間中を除く演目期間中については、仮想カメラ視点映像は、視聴者端末300において生成される。このように、仮想カメラ視点映像と視聴者アバター視点映像とのいずれかを選択して視聴者端末300に表示可能な期間については、視聴者ユーザーの選択によって仮想カメラ視点映像と視聴者アバター視点映像との相互の切り替えが実行されるため、仮想カメラ視点映像データを配信用サーバコンピュータ100からの配信によって表示する場合に比較して、これら映像の切り替えを映像が途切れてしまう等の不具合を生じることなく、且つ、これら映像の切り替えに伴う配信用サーバコンピュータ100の処理負荷の増大を防ぎつつ実行することができる。 In other words, as shown in FIG. 27, during the performance period excluding the MC period and the flying performance period when either the virtual camera viewpoint video or the viewer avatar viewpoint video can be displayed on the viewer terminal 300, the virtual camera viewpoint video is generated on the viewer terminal 300. In this way, during the period when either the virtual camera viewpoint video or the viewer avatar viewpoint video can be selected and displayed on the viewer terminal 300, switching between the virtual camera viewpoint video and the viewer avatar viewpoint video is performed at the viewer user's choice, so that switching between these videos can be performed without problems such as video interruption and while preventing an increase in the processing load on the distribution server computer 100 that accompanies switching between these videos, compared to when the virtual camera viewpoint video data is displayed by distribution from the distribution server computer 100.

一方、視聴者端末300において仮想カメラ視点映像のみが表示可能な期間である、「開演前説」、「開演演出」、「フライング演出」の各期間については、仮想カメラ視点映像は、配信用サーバコンピュータ100においてのみ生成されて、各視聴者端末300に配信される。このように、視聴者端末300において仮想カメラ視点映像のみが表示可能な期間においては、仮想カメラ視点映像が配信用サーバコンピュータ100においてのみ生成されるため、仮想カメラ視点映像を生成する処理が視聴者端末300において重複して実行されることによって、システム全体の処理負荷が無駄に増大してしまうことを防ぐことができる。 Meanwhile, during each of the periods of "pre-show", "opening performance", and "flying performance", when only the virtual camera viewpoint video can be displayed on the viewer terminal 300, the virtual camera viewpoint video is generated only on the distribution server computer 100 and distributed to each viewer terminal 300. In this way, during the period when only the virtual camera viewpoint video can be displayed on the viewer terminal 300, the virtual camera viewpoint video is generated only on the distribution server computer 100, so that it is possible to prevent unnecessary increases in the processing load of the entire system caused by the process of generating the virtual camera viewpoint video being executed redundantly on the viewer terminal 300.

ここで、視聴者端末300において視点映像が切り替わる際の状況について、仮想カメラ視点映像のみが表示可能な期間である、「フライング演出」の期間を例に、図28を用いて説明する。 Here, the situation when the viewpoint video is switched on the viewer terminal 300 will be explained with reference to FIG. 28, taking as an example the period of "flying effect", during which only the virtual camera viewpoint video can be displayed.

例えば、図28に示すように、「第1MC」の期間および「フライング演出」までの第1演目の期間中において視聴者アバター視点映像が表示されている視聴者端末300において、仮想カメラ視点映像(空中移動仮想カメラからの視点映像)のみが表示可能な「フライング演出」の期間が開始されたときから、配信用サーバコンピュータ100が仮想カメラ視点映像(空中移動仮想カメラからの視点映像)の配信を開始すると、これら配信が開始してから仮想カメラ視点映像が表示されるまでの期間において視聴者端末300において仮想カメラ視点映像(空中移動仮想カメラからの視点映像)が表示されない状態となってしまい、「フライング演出」の最初の映像を視聴者が視聴できなくなってしまう不具合が生じる畏れがある。 For example, as shown in FIG. 28, on a viewer terminal 300 on which viewer avatar viewpoint video is displayed during the "first MC" period and the first performance period up to the "flying performance", if the distribution server computer 100 starts distributing the virtual camera viewpoint video (viewpoint video from a virtual camera moving in the air) from the start of the "flying performance" period in which only the virtual camera viewpoint video (viewpoint video from a virtual camera moving in the air) can be displayed, the virtual camera viewpoint video (viewpoint video from a virtual camera moving in the air) will not be displayed on the viewer terminal 300 during the period from the start of these distributions until the virtual camera viewpoint video is displayed, which could result in a problem in which the viewer is unable to view the first video of the "flying performance".

このため、実施例2の配信用サーバコンピュータ100は、図28に示すように、視聴者アバター視点映像から仮想カメラ視点映像(空中移動仮想カメラからの視点映像)に強制的に視点映像が変更される「フライング演出」の開始時において、該「フライング演出」の開始タイミングよりも前の特定タイミングにおいて、BF事前通知を視聴者端末300に送信することで、フライング演出期間の開始前において仮想カメラ視点映像(空中移動仮想カメラからの視点映像)の事前配信を開始する配信開始(バッファリング開始)タイミングを視聴者端末300に通知する。 For this reason, as shown in FIG. 28, at the start of a "flying performance" in which the viewpoint image is forcibly changed from the viewer avatar viewpoint image to the virtual camera viewpoint image (viewpoint image from a virtual camera moving in the air), the distribution server computer 100 of Example 2 transmits a BF advance notification to the viewer terminal 300 at a specific timing prior to the start of the "flying performance", thereby notifying the viewer terminal 300 of the distribution start (buffering start) timing for starting advance distribution of the virtual camera viewpoint image (viewpoint image from a virtual camera moving in the air) before the start of the flying performance period.

視聴者端末300は、BF事前通知の受信に応じて、配信用サーバコンピュータ100から仮想カメラ視点映像(空中移動仮想カメラからの視点映像)の配信が開始されるタイミングを特定し、該タイミングになったときから受信した仮想カメラ視点映像(空中移動仮想カメラからの視点映像)のバッファリングを開始する。 In response to receiving the BF advance notification, the viewer terminal 300 identifies the timing at which distribution of the virtual camera viewpoint video (viewpoint video from a virtual camera moving in the air) will begin from the distribution server computer 100, and begins buffering the received virtual camera viewpoint video (viewpoint video from a virtual camera moving in the air) from that timing.

これら仮想カメラ視点映像(空中移動仮想カメラからの視点映像)の配信が開始されるタイミング、つまり、バッファリングを開始するタイミングは、視聴者端末300の映像記憶機能の違いを考慮して適宜に決定すればよいが、例えば、映像のフレーム数として数十フレームに該当する期間とすればよい。 The timing at which distribution of these virtual camera viewpoint images (viewpoint images from virtual cameras moving in the air) begins, i.e., the timing at which buffering begins, can be determined appropriately taking into account differences in the image storage capabilities of the viewer terminals 300, but can be set to a period equivalent to several tens of frames of image, for example.

このように、実施例2の配信用サーバコンピュータ100は、フライング演出期間の開始前から、フライング演出の仮想カメラ視点映像(空中移動仮想カメラからの視点映像)の生成、配信を開始し、視聴者端末300は、該配信された仮想カメラ視点映像をバッファリングしているので、フライング演出期間が開始されたときに、該フライング演出期間の開始前に表示していた視聴者アバター視点映像から仮想カメラ視点映像に瞬時に映像を変更することができるので、「フライング演出」の最初の映像を視聴者が視聴できなくなってしまう不具合が生じることを防ぐことができる。 In this way, the distribution server computer 100 of Example 2 starts generating and distributing virtual camera viewpoint video (viewpoint video from a virtual camera moving in the air) of the flying performance before the flying performance period starts, and the viewer terminal 300 buffers the distributed virtual camera viewpoint video, so that when the flying performance period starts, the video can be instantly changed from the viewer avatar viewpoint video that was displayed before the flying performance period started to the virtual camera viewpoint video, thereby preventing the occurrence of a problem in which the viewer is unable to view the initial video of the "flying performance".

また、「フライング演出」の期間が終了するときにおいては、「フライング演出」の開始前において視聴者アバター視点映像が選択されていたことから、該「フライング演出」の期間の終了に応じて、フライング演出の仮想カメラ視点映像(空中移動仮想カメラからの視点映像)から視聴者アバター視点映像に視点映像が切り替わるが、この場合においても、「フライング演出」の期間が終了したときから視聴者アバター視点映像を生成して表示すると、「フライング演出」の開始時と同様に、視聴者アバター視点映像が生成されて表示されるまでの期間において視聴者端末300において視聴者アバター視点映像が表示されない状態となってしまう不具合が生じる畏れがある。 Furthermore, when the period of the "flying performance" ends, because the viewer avatar viewpoint video was selected before the start of the "flying performance", the viewpoint video switches from the flying performance's virtual camera viewpoint video (viewpoint video from the virtual camera moving in the air) to the viewer avatar viewpoint video when the period of the "flying performance" ends. However, even in this case, if the viewer avatar viewpoint video is generated and displayed from the time when the period of the "flying performance" ends, there is a risk that a malfunction will occur in which the viewer avatar viewpoint video is not displayed on the viewer terminal 300 during the period until the viewer avatar viewpoint video is generated and displayed, just as at the start of the "flying performance".

このため、実施例2の配信用サーバコンピュータ100は、これら「フライング演出」の期間が終了するときにおいても、図28に示すように、終了TM(タイミング)事前通知を視聴者端末300に送信することで、仮想カメラ視点映像(空中移動仮想カメラからの視点映像)の配信が終了する「フライング演出」の期間終了タイミングを事前に視聴者端末300に通知する。 For this reason, even when the period of these "flying effects" ends, the distribution server computer 100 of Example 2 notifies the viewer terminal 300 in advance of the end timing of the "flying effects" period when distribution of the virtual camera viewpoint video (viewpoint video from a virtual camera moving in the air) will end, by sending an end TM (timing) advance notification to the viewer terminal 300 as shown in FIG. 28.

視聴者端末300は、終了TM(タイミング)事前通知の受信に応じて、配信用サーバコンピュータ100から仮想カメラ視点映像(空中移動仮想カメラからの視点映像)の配信が停止されるタイミングを事前に特定し、該タイミングよりも前の所定タイミングとなったときから視聴者視点映像生成処理を開始して、視聴者アバター視点映像を事前生成する。 In response to receiving the end TM (timing) advance notification, the viewer terminal 300 identifies in advance the timing at which the distribution of the virtual camera viewpoint video (viewpoint video from a virtual camera moving in the air) from the distribution server computer 100 will be stopped, and starts the viewer viewpoint video generation process at a specified timing prior to that timing, thereby pre-generating the viewer avatar viewpoint video.

尚、配信用サーバコンピュータ100は、終了TM(タイミング)事前通知の送信時から、仮想空間更新データの配信を実行することで、視聴者端末300は、受信した仮想空間更新データによって仮想空間データを更新する仮想空間処理を実行しているので、上記した所定タイミングにおいて、その時点の仮想ライブ会場の状況を反映した視聴者アバター視点映像を生成することができる。 The distribution server computer 100 starts distributing the virtual space update data from the time of sending the end TM (timing) advance notification, and the viewer terminal 300 executes virtual space processing to update the virtual space data using the received virtual space update data, so that at the specified timing mentioned above, a viewer avatar viewpoint image that reflects the situation of the virtual live venue at that time can be generated.

このように、実施例2の配信用サーバコンピュータ100は、フライング演出期間の終了前に終了TM(タイミング)事前通知を視聴者端末300に送信して、フライング演出期間の終了前に事前に視聴者アバター視点映像を視聴者端末300が生成できるようにしているので、視聴者端末300において視聴者アバター視点映像が表示されない状態となってしまう不具合が生じることを防ぐことができる。 In this way, the distribution server computer 100 of Example 2 transmits an end TM (timing) advance notification to the viewer terminal 300 before the end of the flying performance period, enabling the viewer terminal 300 to generate the viewer avatar viewpoint video in advance before the end of the flying performance period, thereby preventing the viewer terminal 300 from failing to display the viewer avatar viewpoint video.

尚、図28においては、「フライング演出」を例に説明したが、視聴者アバター視点映像から仮想カメラ視点映像に強制的に視点映像が変更される「開演前説」と「開演演出」の期間についても、同様の制御が行われる。 Note that in Figure 28, the "flying performance" has been explained as an example, but similar control is also performed during the "pre-show" and "opening performance" periods, when the viewpoint image is forcibly changed from the viewer avatar viewpoint image to the virtual camera viewpoint image.

以上、実施例2の仮想空間コンテンツ配信システムでは、視聴者ユーザーが複数であって、各視聴者ユーザー毎に視聴者端末300が割り当てられており、視聴者端末300が、視聴者アバターに対応した仮想ライブ会場(仮想空間)の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を配信用サーバコンピュータ100から送信されてくる仮想空間更新データ(仮想空間データ)にもとづいて生成しており、これら処理負荷が大きな視聴者アバター視点映像の生成が視聴者端末300で行われるので、より多くの視聴者ユーザーを仮想ライブに参加させることができる。 As described above, in the virtual space content distribution system of Example 2, there are multiple viewer users, and each viewer user is assigned a viewer terminal 300. When the viewer terminal 300 displays the viewer avatar viewpoint video, which is a viewpoint video of the virtual live venue (virtual space) corresponding to the viewer avatar, the viewer avatar viewpoint video is generated based on the virtual space update data (virtual space data) transmitted from the distribution server computer 100. Since the generation of these viewer avatar viewpoint videos, which have a large processing load, is performed by the viewer terminal 300, more viewer users can participate in the virtual live.

また、実施例2の仮想空間コンテンツは、演者ユーザーが演者アバター1として仮想ライブ会場に参加可能なコンテンツであるとともに、演者アバター1が仮想ライブ会場において、歌唱やダンス等の楽曲動作(パフォーマンス)を行うコンテンツであるので、仮想空間コンテンツの興趣を向上できる。 The virtual space content of Example 2 is content that allows a performer user to participate in a virtual live venue as performer avatar 1, and is content in which performer avatar 1 performs musical actions (performances) such as singing and dancing in the virtual live venue, thereby enhancing the interest of the virtual space content.

また、実施例2の仮想空間更新データ(仮想空間データ)には、演者アバター1の動作を生成するための演者アバター用動作データを含まれているため、視聴者端末300において生成される視聴者アバター視点映像においても演者アバター1の動作を正確に反映させることができる。 In addition, since the virtual space update data (virtual space data) of Example 2 includes performer avatar movement data for generating the movements of performer avatar 1, the movements of performer avatar 1 can be accurately reflected in the viewer avatar viewpoint image generated in the viewer terminal 300.

また、実施例2の各視聴者端末300において共通して表示される共通視点映像、例えば、「開演前説」、「開演演出」、「フライング演出」の映像については、配信用サーバコンピュータ100において生成されて各視聴者端末300に配信されるので、重複した処理が各視聴者端末300において実行されることによって、システム全体の処理負荷が無駄に増大してしまうことを防ぐことができる。 In addition, the common viewpoint video displayed in common on each viewer terminal 300 in Example 2, such as the "pre-show speech," "opening performance," and "early performance" videos, is generated in the distribution server computer 100 and distributed to each viewer terminal 300, so that it is possible to prevent unnecessary increases in the processing load of the entire system due to duplicate processing being executed on each viewer terminal 300.

また、実施例2の視聴者端末300において、視聴者アバター視点映像と仮想カメラ視点映像とのいずれかの視点映像を選択して表示可能な期間である、「MC期間」と「フライング演出」の期間以外の演目期間(特定期間)中においては、仮想カメラ視点映像が視聴者端末300において生成されて表示されるので、視点映像が切り替わるときに、映像が途切れる等の不具合が生じることを防ぐことができる。 In addition, in the viewer terminal 300 of Example 2, during the performance period (specific period) other than the "MC period" and "flying performance" periods, during which either the viewer avatar viewer's ...

また、実施例2の配信用サーバコンピュータ100における処理負荷が大きい特別期間となる、「衣装チェンジ演出」や「分身演出」の期間においては、仮想カメラ視点映像(共通視点映像)についても各視聴者端末300が生成して表示するため、配信用サーバコンピュータ100における処理負荷が一時的に極端に大きくなってしまうことを防ぐことができる。 In addition, during special periods such as "costume change performance" and "doppelganger performance" in which the processing load on the distribution server computer 100 in Example 2 is high, each viewer terminal 300 also generates and displays virtual camera viewpoint images (common viewpoint images), thereby preventing the processing load on the distribution server computer 100 from temporarily becoming extremely high.

また、実施例2の配信用サーバコンピュータ100は、仮想ライブ会場(仮想空間)の基本データ並びに仮想ライブ会場に仮想参加する演者アバター1および視聴者アバターの基本データを含む事前データを、仮想ライブが開始する前に各視聴者端末300に対して事前送信しているので、仮想ライブの開始時において視聴者アバター視点映像が良好に表示されない不具合の発生を防ぐことができる。 In addition, the distribution server computer 100 of Example 2 transmits advance data including basic data of the virtual live venue (virtual space) and basic data of the performer avatar 1 and viewer avatars who will virtually participate in the virtual live venue to each viewer terminal 300 before the virtual live starts, thereby preventing the occurrence of a problem in which the viewer avatar's viewpoint image is not displayed properly at the start of the virtual live.

また、実施例2の配信用サーバコンピュータ100は、事前データの受信完了が確認できない視聴者端末300に対しては、仮想カメラ視点映像(共通視点映像)を送信しており、このようにすることで、仮想ライブの開始後において基本データ等の送信によって配信用サーバコンピュータ100における処理負荷が過度に増大してしまうことを防ぎつつ、視聴者ユーザーが仮想ライブを視聴できなくなってしまうことも防ぐことができる。 In addition, the distribution server computer 100 of Example 2 transmits virtual camera viewpoint video (common viewpoint video) to viewer terminals 300 for which it cannot confirm that they have completed receiving the advance data. In this way, it is possible to prevent the processing load on the distribution server computer 100 from increasing excessively due to the transmission of basic data, etc. after the start of the virtual live broadcast, while also preventing viewer users from being unable to watch the virtual live broadcast.

<実施例2の変形例>
図29は、実施例2についての変形例2-1における視聴者視点映像生成処理の処理内容を示すフロー図である。
<Modification of the second embodiment>
FIG. 29 is a flowchart showing the process of generating a viewer's viewpoint video in the modification 2-1 of the second embodiment.

上記した実施例2では、演者アバター1の動作を含む視聴者アバター視点映像を、常に一律に生成する形態を示したが、本発明はこれに限定されるものではなく、これら視聴者アバター視点映像を、視聴者端末300における視聴者ユーザーの選択によって、映像生成における処理負荷の異なる複数の態様で生成するようにしてもよい。 In the above-mentioned Example 2, a form was shown in which the viewer avatar viewpoint images including the movements of the performer avatar 1 were always generated uniformly, but the present invention is not limited to this, and these viewer avatar viewpoint images may be generated in multiple forms with different processing loads in the image generation, depending on the selection of the viewer user at the viewer terminal 300.

つまり、視聴者ユーザーが使用する視聴者端末300としては、実施例1において例示しているように、処理能力の高い据え置き型のパーソナルコンピュータ(PC)である場合もあれば、パーソナルコンピュータ(PC)よりも処理能力が相対的に低いスマ-トフォン端末やタブレット端末等である場合もあるように、処理能力の異なる端末が使用されることが想定されるが、このように処理能力の異なる端末において、視聴者アバター視点映像を、常に一律に生成してしまうと、低処理能力の端末においては、視聴者アバター視点映像を適切に生成することができず、視聴者アバター視点映像と音声とにズレが生じたり、或いは、視聴者アバター視点映像が不連続の不自然な映像になってしまう畏れがあるため、例えば、演者動作を含む視聴者アバター視点映像を生成する場合に、映像の生成に係わる処理負荷が高い高精細な演者動作を含む視聴者アバター視点映像を生成するのか、映像の生成に係わる処理負荷が低い低精細な演者動作を含む視聴者アバター視点映像を生成するのかを、視聴者が、使用する端末の処理能力に応じて適宜、選択できるようにしてもよい。 In other words, as shown in Example 1, the viewer terminal 300 used by the viewer user may be a stationary personal computer (PC) with high processing power, or a smartphone terminal or tablet terminal with relatively lower processing power than a personal computer (PC). It is assumed that terminals with different processing powers will be used. If the viewer avatar viewpoint video is always generated uniformly on terminals with different processing powers, the viewer avatar viewpoint video cannot be generated properly on terminals with low processing power, and there is a risk that a mismatch will occur between the viewer avatar viewpoint video and the audio, or the viewer avatar viewpoint video will become a discontinuous and unnatural video. For example, when generating a viewer avatar viewpoint video including performer movements, the viewer may be allowed to select, as appropriate, according to the processing power of the terminal he or she uses, whether to generate a viewer avatar viewpoint video including high-definition performer movements, which requires a high processing load for generating the video, or to generate a viewer avatar viewpoint video including low-definition performer movements, which requires a low processing load for generating the video.

具体的には、視聴者端末300において実行される視聴者視点映像生成処理を、図29のフロー図に示す内容とすればよく、該視聴者視点映像生成処理においては、まず、視聴者端末300において視聴者ユーザーによって選択されている演者動作生成態様を特定する(ステップS101)。そして、特定した演者動作生成態様が、高処理負荷態様であるか否かを判定し(ステップS102)、高処理負荷態様が選択されている場合(ステップS102でY)は、高精細な演者動作を含む視聴者アバター視点映像を生成する(ステップS103)。一方、高処理負荷態様が選択されていない場合(ステップS102でN)は、低精細な演者動作を含む視聴者アバター視点映像を生成する(ステップS104)。 Specifically, the viewer viewpoint video generation process executed on the viewer terminal 300 may be as shown in the flow diagram of FIG. 29. In the viewer viewpoint video generation process, first, the performer movement generation mode selected by the viewer user on the viewer terminal 300 is identified (step S101). Then, it is determined whether the identified performer movement generation mode is a high processing load mode (step S102). If the high processing load mode is selected (Y in step S102), a viewer avatar viewpoint video including high-definition performer movements is generated (step S103). On the other hand, if the high processing load mode is not selected (N in step S102), a viewer avatar viewpoint video including low-definition performer movements is generated (step S104).

尚、図29においては、高処理負荷態様と低処理負荷態様の2態様とした形態を例示しているが、本発明はこれに限定されるものではなく、これら処理負荷態様を3態様以上としてもよい。 Note that, although FIG. 29 illustrates an example of two modes, a high processing load mode and a low processing load mode, the present invention is not limited to this, and three or more processing load modes may be used.

また、上記した実施例2(実施例1も同様)においては、視聴者ユーザーの視聴者アバターの移動を含む全ての動作を、仮想空間更新データの配信によって各視聴者アバターに反映させる形態を例示しているが、本発明はこれに限定されるものではなく、例えば、これら視聴者アバターの動作として、通常では実行不能な動作であって、特別な費用を支払った場合において可能となる動作、例えば、演者アバター1に対して自身の視聴者アバターをアピールすることが可能な特別動作を行う操作を視聴者端末300において可能とする場合にあっては、該特別動作は、演者ユーザーに向ける動作であって、他の視聴者ユーザーに向けるものではないので、これら特別動作を含む仮想空間更新データを、他の視聴者ユーザーの視聴者端末300に配信しないようにして、これら特別動作を実行可能とすることによって配信用サーバコンピュータ100の処理負荷が過大に増加してしまうことを防ぐことができるようにしてもよい。 In addition, in the above-mentioned Example 2 (similar to Example 1), an example is given in which all actions, including the movement of the viewer avatar of the viewer user, are reflected in each viewer avatar by distributing virtual space update data, but the present invention is not limited to this. For example, in a case where the actions of these viewer avatars are actions that are normally not executable but are possible when a special fee is paid, for example, an operation to perform a special action that allows the performer avatar 1 to appeal to the performer avatar's own viewer avatar, the special action is an action directed at the performer user and not at other viewer users, so that the virtual space update data including these special actions is not distributed to the viewer terminals 300 of other viewer users, and it is possible to prevent an excessive increase in the processing load of the distribution server computer 100 by making these special actions executable.

このように、特別動作を含む仮想空間更新データを、他の視聴者ユーザーの視聴者端末300に配信しない場合には、図30の変形例2-2に示すように、視聴者ユーザーAが特別動作に対応する操作を実行することで視聴者ユーザーAの視聴者アバターが特別動作を行った場合は、配信用サーバコンピュータ100から視聴者ユーザーAの視聴者端末300には、視聴者ユーザーAの視聴者アバターが特別動作を実行していることに対応する仮想空間更新データAが送信されるが、視聴者ユーザーAとは異なる視聴者ユーザーBの視聴者端末300には、視聴者ユーザーAの視聴者アバターが特別動作を実行していない仮想空間更新データBが配信される。 In this way, if virtual space update data including special actions is not distributed to the viewer terminals 300 of other viewer users, as shown in variant example 2-2 of FIG. 30, when viewer user A performs an operation corresponding to a special action, causing viewer user A's viewer avatar to perform a special action, virtual space update data A corresponding to viewer user A's viewer avatar performing a special action is transmitted from the distribution server computer 100 to viewer user A's viewer terminal 300, but virtual space update data B in which viewer user A's viewer avatar is not performing a special action is distributed to the viewer terminal 300 of viewer user B, who is different from viewer user A.

よって、視聴者ユーザーAの視聴者端末300と、視聴者ユーザーBの視聴者端末300とには、異なる仮想空間更新データが配信用サーバコンピュータ100から配信されることになるので、仮想空間更新データの自由度を高めることができるとともに、視聴者ユーザーAの視聴者端末300と、視聴者ユーザーBの視聴者端末300とにおいて異なる視聴者アバター視点映像を生成させることができるようになる。 As a result, different virtual space update data is delivered from the delivery server computer 100 to the viewer terminal 300 of viewer user A and the viewer terminal 300 of viewer user B, which increases the degree of freedom of the virtual space update data and makes it possible to generate different viewer avatar viewpoint images on the viewer terminal 300 of viewer user A and the viewer terminal 300 of viewer user B.

また、視聴者ユーザーAの視聴者端末300は、視聴者ユーザーBの視聴者端末300に配信される仮想空間更新データBとは異なる仮想空間更新データAにもとづいて、視聴者ユーザーBの視聴者アバターが可能な動作とは異なる特別動作を行う視聴者ユーザーAの視聴者アバターの映像を生成して表示することができるので、仮想空間コンテンツである仮想ライブに対する視聴者ユーザーAの興趣を向上できる。 In addition, viewer terminal 300 of viewer user A can generate and display an image of viewer avatar of viewer user A performing a special action different from the actions that viewer avatar of viewer user B is capable of performing, based on virtual space update data A that is different from virtual space update data B distributed to viewer terminal 300 of viewer user B, thereby increasing viewer user A's interest in the virtual live performance, which is virtual space content.

また、上記した実施例2(実施例1も同様)においては、第4領域に仮想参加している視聴者ユーザーの視聴者アバターについても、アバターの態様が個々の視聴者ユーザーで異なる通常のアバターとした形態を例示しているが、本発明はこれに限定されるものではなく、例えば、仮想ライブにおける各種の視点映像を生成する際の処理負荷を低減することを目的として、第4領域に仮想参加している視聴者ユーザーの視聴者アバターを、アバターの態様が簡素化された簡易アバターとするようにしてもよい。 In addition, in the above-mentioned Example 2 (which is also the same as Example 1), the viewer avatars of the viewer users virtually participating in the fourth area are illustrated as normal avatars in which the avatar appearance differs for each viewer user, but the present invention is not limited to this. For example, in order to reduce the processing load when generating various viewpoint images in a virtual live performance, the viewer avatars of the viewer users virtually participating in the fourth area may be simplified avatars in which the avatar appearance is simplified.

尚、図30においては、特別な費用を支払った場合において可能となる特別動作を実行する場合について例示しているが、例えば、上述したように、簡易アバターを使用するような場合にあっては、簡易アバターの移動以外の通常動作、例えば、手を振る動作、手を叩く動作、視聴者アバターの向きを変える動作等について、特別動作と同様に、他の視聴者ユーザーに配信される仮想空間更新データには、含まれないようにすることで、より一層、配信用サーバコンピュータ100の処理負荷を低減できるようにしてもよい。 Note that FIG. 30 illustrates an example of a special action that becomes possible when a special fee is paid, but for example, in the case of using a simplified avatar as described above, normal actions other than the movement of the simplified avatar, such as waving, clapping, and changing the direction of the viewer avatar, may be prevented from being included in the virtual space update data distributed to other viewer users, just like special actions, thereby further reducing the processing load on the distribution server computer 100.

次に、実施例3の仮想空間コンテンツ配信システムについて図31~図41を用いて以下に説明する。尚、実施例1や実施例2と同一の構成については、同一の符号を付して説明を省略する。 Next, the virtual space content distribution system of the third embodiment will be described below with reference to Figs. 31 to 41. Note that the same components as those of the first and second embodiments will be given the same reference numerals and will not be described.

実施例3の仮想空間コンテンツ配信システムの構成は、図1に示す実施例1、2の構成と同一であるが、仮想ライブの進行内容が実施例1、2とは異なるとともに、実施例1、2においては視聴者アバターの動作として実行可能とされていないコンテンツ対応動作である、充填された薬剤を混合させることで発光する棒状のケミカルライトK(以下ケミライトKと略記する)を左右に振るケミライト動作(図33参照)を実行可能であって、これらケミライト動作に関係する制御が実施例1、2とは異なる点が本実施例3の特徴部分である。 The configuration of the virtual space content distribution system of Example 3 is the same as that of Examples 1 and 2 shown in FIG. 1, but the progress of the virtual live performance differs from that of Examples 1 and 2, and the chemilight action (see FIG. 33) of swinging a rod-shaped chemical light K (hereinafter abbreviated as chemilight K) that emits light by mixing the loaded medicine can be performed, which is a content-compatible action that is not executable as a viewer avatar action in Examples 1 and 2. The control related to these chemilight actions differs from that of Examples 1 and 2, which is a characteristic feature of Example 3.

図31は、実施例3の仮想空間コンテンツ配信システムにおいて配信される仮想ライブの進行内容を示す図である。実施例3の仮想ライブは、まず、仮想ライブの開始前の期間として、「ライブ仮想空間参加可能期間」と「開演前説」の期間とが設けられていて、視聴者ユーザーは、該ライブ仮想空間参加可能期間において仮想ライブの対象の仮想空間に仮想参加することができる。 Figure 31 is a diagram showing the progress of a virtual live performance distributed in a virtual space content distribution system of Example 3. In the virtual live performance of Example 3, a "live virtual space participation period" and a "pre-show speech" period are set as periods before the start of the virtual live performance, and viewer users can virtually participate in the virtual space that is the subject of the virtual live performance during the live virtual space participation period.

尚、ライブ仮想空間参加可能期間と「開演前説」の期間の終了間際に設定されている事前データダウンロード終了タイミング(図示略)までの期間は、実施例2と同じく事前データダウンロード(DL)期間とされていて、ライブ仮想空間参加可能期間中に仮想参加した視聴者ユーザーの視聴者端末300に対して、仮想ライブ会場の仮想空間データ(基本データ)、演者アバター1のアバターデータ、並びに仮想参加した他の視聴者ユーザーのアバターデータ等が、事前データとして配信用サーバコンピュータ100からダウンロード(DL)されるようになっている。 The period from the live virtual space participation period to the end of the advance data download (not shown), which is set just before the end of the "pre-show speech" period, is the advance data download (DL) period, as in Example 2, and the virtual live venue virtual space data (basic data), avatar data of performer avatar 1, and avatar data of other viewer users who participated virtually during the live virtual space participation period are downloaded (DL) as advance data from the distribution server computer 100 to the viewer terminal 300 of the viewer user who participated virtually during the live virtual space participation period.

また、「開演前説」の期間においては、実施例2と同様に、開始予定の仮想ライブについての説明等がビデオ映像等によって紹介される。 In addition, during the "pre-show" period, explanations about the upcoming virtual live show will be provided through video footage, etc., just as in Example 2.

実施例3の仮想ライブは、図31に示すように、「開演演出」→「第1MC」→「第1演目」→「第2MC」→「第2演目」→「第3MC」→「第3演目」…のように進行していく。「開演演出」と「第1MC」、「第2(3)MC」は、実施例2の内容と同様である。「第1演目」、「第2演目」、「第3演目」…は、演者アバター1(演者)の歌唱とダンスとを含む。 As shown in FIG. 31, the virtual live performance in Example 3 progresses as follows: "Opening performance" → "First MC" → "First performance" → "Second MC" → "Second performance" → "Third MC" → "Third performance", etc. The "Opening performance", "First MC", and "Second (3rd) MC" are the same as those in Example 2. The "First performance", "Second performance", "Third performance", etc. include singing and dancing by performer avatar 1 (performer).

「第1MC」、「第2MC」、「第3MC」の各期間の終了直前には、ケミライト動作において遅延動作を行う参加者(視聴者ユーザー)を決定するための遅延動作者決定処理(図37参照)の実行タイミングが設定されていることで、「第1演目」、「第2演目」、「第3演目」…の各演目において異なる参加者(視聴者ユーザー)が遅延動作を行う参加者(視聴者ユーザー)として決定されるようになっている。 Just before the end of each period of the "First MC," "Second MC," and "Third MC," the execution timing of the delay action determination process (see FIG. 37) for determining the participant (viewer user) who will perform the delay action in the chem-light action is set, so that a different participant (viewer user) is determined as the participant (viewer user) who will perform the delay action in each of the "First Performance," "Second Performance," "Third Performance," etc.

実施例3の仮想ライブにおける各演出や演目等が実行される各期間において演者アバター1が実行可能な動作は、図31に示すように、手や足や頭等のアバターの一部を動かす通常動作以外に、演者アバター1が登場する開演演出においては、仮想ステージG上を移動する動作とトークに関する動作を実行可能とされている。尚、図31においては、演者アバター1や視聴者アバターが可能な動作である通常動作については記載スペースの都合上、記載を省略している。 As shown in FIG. 31, the actions that the performer avatar 1 can perform during each period in which each performance or show is performed in the virtual live show of Example 3 include normal actions of moving parts of the avatar such as the hands, feet, and head, as well as actions of moving around the virtual stage G and talking during the opening performance in which the performer avatar 1 appears. Note that in FIG. 31, normal actions that the performer avatar 1 and the viewer avatars are capable of are omitted due to space limitations.

また、「第1MC」、「第2MC」、「第3MC」…のMC期間中においては、「開演演出」と同様に、通常動作以外に、仮想ステージG上を移動する動作とトークに関する動作を実行可能とされており、「第1演出」、「第2演出」、「第3演出」…の演目期間中においては、通常動作以外に、歌唱の動作とダンスの動作が可能とされている。尚、ダンスの動作においては、仮想ステージG上を移動する動作が含まれる場合がある。 In addition, during the MC periods of "First MC", "Second MC", "Third MC", etc., in addition to normal actions, actions related to moving on the virtual stage G and talking can be performed, as in the "Opening performance", and during the performance periods of "First performance", "Second performance", "Third performance", etc., in addition to normal actions, singing and dancing can be performed. Note that dancing actions may include actions of moving on the virtual stage G.

実施例3の仮想ライブにおける各期間において仮想ライブ会場に仮想参加した参加者(視聴者ユーザー)の視聴者アバターが実行可能な動作は、手や足や頭等のアバターの一部を動かす通常動作以外に、ライブ開始前期間(ライブ仮想空間参加可能期間および開演前説期間)、開演演出期間、各MC期間中においては、図32における視聴者アバター12や視聴者アバター13が実行しているように、個々の参加者(視聴者ユーザー)がケミライトKを振るタイミングや早さが同調していない非同調のケミライト動作が可能とされているとともに、図32(A)における視聴者アバター11や視聴者アバター14が実行しているように、仮想ライブ会場内を移動する動作が可能とされている。尚、図32においては、第4領域に参加している視聴者アバターについては、便宜的に簡略表示しているが、視聴者アバター11~14と同様のアバターとされているとともに、視聴者アバター11~14と同様の動作が可能とされている。 In each period of the virtual live in Example 3, the actions that can be performed by the viewer avatar of a participant (viewer user) who virtually participates in the virtual live venue include normal actions of moving parts of the avatar such as hands, feet, and head, as well as asynchronous chemilight actions in which the timing and speed of waving the chemilight K of individual participants (viewer users) are not synchronized, as performed by viewer avatar 12 and viewer avatar 13 in FIG. 32, during the period before the live starts (live virtual space participation period and opening pre-show period), the opening performance period, and each MC period, and actions of moving within the virtual live venue, as performed by viewer avatar 11 and viewer avatar 14 in FIG. 32(A). Note that in FIG. 32, the viewer avatar participating in the fourth area is shown in a simplified manner for convenience, but is an avatar similar to viewer avatars 11 to 14 and is capable of performing the same actions as viewer avatars 11 to 14.

尚、非同調のケミライト動作は、後述するように、各視聴者端末300において視聴者ユーザーによってデフォルトとして個別に選択された速度1~速度5のいずれかの早さ(調子)にてケミライトKを左右に振る動作である。 As described below, the non-synchronized chemilight action is the action of shaking the chemilight K from side to side at any speed (cadence) of speed 1 to speed 5 that is individually selected as the default by the viewer user on each viewer terminal 300.

また、「第1演目」、「第2演目」、「第3演目」…の各演目期間において仮想参加している参加者(視聴者ユーザー)の視聴者アバターが実行可能な動作は、通常動作以外に、図32(B)に示すように、視聴者アバター11~14の動作のように、個々の参加者(視聴者ユーザー)の視聴者アバターがケミライトKを振るタイミングや早さが、配信用サーバコンピュータ100から送信される各種情報(図33参照)によって同調している同調のケミライト動作が可能とされている。つまり、実施例3においては、演者アバターが演目を上演している各演目期間においては、視聴者アバターの移動が禁止されることで、これら視聴者アバターが各演目期間において移動することによって、仮想ライブに悪影響が生じてしまうこと、例えば、他の視聴者アバター等の衝突等によって、他の視聴者アバターの視聴に支障が出たり、該移動によって演者の集中力が低下してしまう等の支障が出てしまうことを防ぐことができる。 In addition to normal actions, the viewer avatars of participants (viewer users) virtually participating in each performance period of "First Performance", "Second Performance", "Third Performance", etc. can perform synchronized chemilight actions, such as the actions of viewer avatars 11 to 14 as shown in FIG. 32(B), in which the timing and speed of the viewer avatars of each participant (viewer user) shaking the chemilight K are synchronized based on various information (see FIG. 33) transmitted from the distribution server computer 100. In other words, in Example 3, during each performance period in which the performer avatar is performing a performance, the movement of the viewer avatars during each performance period is prohibited, thereby preventing the movement of these viewer avatars during each performance period from having a negative impact on the virtual live performance, for example, preventing the viewing of other viewer avatars from being hindered due to collisions with other viewer avatars, or preventing the performers from being able to concentrate due to such movements.

尚、ケミライト動作は、仮想ライブに仮想参加した全ての参加者(視聴者ユーザー)の視聴者アバターが実行可能な動作ではなく、ケミライトKの仮想アイテムを事前に購入した参加者(視聴者ユーザー)の視聴者アバターだけが可能な動作であるので、仮想ライブに仮想参加している視聴者アバターであっても、ケミライトKを所持していない視聴者アバターはケミライト動作を行うことができないため、各演目期間においてケミライト動作を行っていない視聴者アバターが存在することになる。 The Chemilight action is not an action that can be performed by the viewer avatars of all participants (viewer users) who virtually participate in the virtual live, but is only an action that can be performed by the viewer avatars of participants (viewer users) who have purchased the Chemilight K virtual item in advance. Therefore, even if a viewer avatar is virtually participating in the virtual live, if the viewer avatar does not possess Chemilight K, the viewer avatar cannot perform the Chemilight action, and therefore there will be viewer avatars that do not perform the Chemilight action during each performance period.

これら視聴者アバターの動作である移動が、視聴者ユーザーが視聴者端末300として使用しているパーソナルコンピュータ(PC)において禁止される状況について、図40、図41を用いて説明すると、演者アバター1が上演を行っていないライブ開始前期間や各MC期間において視聴者ユーザーが動作メニューを表示させる操作を実行した場合には、視聴者端末300においてアバター動作操作処理が実行されることで、図40(B)に示すように、「移動」および「ケミライト」の動作メニューがアクティブ(有効)状態にて表示されることで、「移動」および「ケミライト」のいずれの動作も実行可能であることが報知され、視聴者ユーザーは、「移動」および「ケミライト」のいずれの動作も、選択入力によって視聴者アバターに実行させることができる。 Using Figures 40 and 41, we will explain the situation in which movement, which is an action of the viewer avatar, is prohibited on the personal computer (PC) that the viewer user is using as the viewer terminal 300.If the viewer user performs an operation to display the action menu during the period before the start of a live performance or during each MC period when the performer avatar 1 is not performing, the avatar action operation process is executed on the viewer terminal 300, and the action menus for "Move" and "Chemical Light" are displayed in an active (enabled) state, as shown in Figure 40 (B), thereby notifying the viewer that both the actions of "Move" and "Chemical Light" can be performed, and the viewer user can have the viewer avatar perform either the action of "Move" or "Chemical Light" by selecting and inputting.

尚、図40、41においては、説明を容易化とするために、「移動」および「ケミライト」の動作以外の通常動作等の項目については省略しているとともに、これら移動」および「ケミライト」の項目以外の項目が含まれていてもよいことはいうまでもない。 In addition, in Figures 40 and 41, in order to simplify the explanation, items such as normal operations other than the "Move" and "Chemilite" operations have been omitted, and it goes without saying that items other than these "Move" and "Chemilite" items may be included.

一方、演者アバター1が上演を行っている演目期間中において、視聴者ユーザーが動作メニューを表示させる操作を実行した場合には、上述したように、移動が禁止されていることにより、アバター動作操作処理によって、図41に示すように、「ケミライト」の動作メニューのみがアクティブ(有効)状態にて表示され、「移動」の動作メニューが非アクティブ(無効)状態にて表示されることで、視聴者ユーザーは、「ケミライト」の動作を選択入力によって視聴者アバターに実行させることができるが、「移動」の動作を実行させることはできない。 On the other hand, if a viewer user performs an operation to display the action menu during the performance period in which performer avatar 1 is performing, as described above, movement is prohibited, and as a result, the avatar action operation process displays only the "Chemilite" action menu in an active (enabled) state, as shown in FIG. 41, while the "Move" action menu is displayed in an inactive (disabled) state, allowing the viewer user to cause the viewer avatar to perform the "Chemilite" action by selecting and inputting, but not the "Move" action.

尚、これら動作メニューの表示制御による視聴者アバターの動作制限については、視聴者端末300側においてアバター動作操作処理が実行されることで、その時点が、演目期間中であるのか否かをBPM情報や振り始め情報にもとづいて判定することで行うようにしてもよいし、仮想ライブ中の各時点において、視聴者アバターの各動作について、実行の可能・不可能を特定可能な動作制限情報を配信用サーバコンピュータ100が逐次生成して各視聴者端末300に配信することで、該動作制限情報にもとづいて視聴者端末300が動作制限を実行するようにしてもよいし、これら動作制限情報を送信せずに、視聴者端末300において動作に応じた操作を一旦受付けておき、配信用サーバコンピュータ100において、該受付けた動作の有効・無効を判断するようにしてもよい。 These action restrictions on the viewer avatar by controlling the display of the action menu may be performed by executing an avatar action operation process on the viewer terminal 300 side, and judging whether the current time is during the performance period or not based on BPM information and start of swing information. Alternatively, the distribution server computer 100 may generate action restriction information for each action of the viewer avatar at each point during the virtual live performance, which can specify whether the action can be performed or not, and distribute this information to each viewer terminal 300, so that the viewer terminal 300 can perform action restrictions based on the action restriction information. Alternatively, instead of transmitting this action restriction information, the viewer terminal 300 may temporarily accept the action corresponding to the action, and the distribution server computer 100 may determine whether the accepted action is valid or invalid.

次に、上記のように、同調したケミライト動作を行うために、配信用サーバコンピュータ100から各視聴者端末300に送信される情報を図31と図33(A)に示す。具体的には、配信用サーバコンピュータ100からは、実施例1において説明した仮想空間更新データとともに、図33(A)に示すように、BPM(ビートパーミニッツ)情報、ケミライト動作情報、遅延動作情報が送信される。 Next, in order to perform synchronized chemi-lighting operations as described above, information transmitted from the distribution server computer 100 to each viewer terminal 300 is shown in Fig. 31 and Fig. 33 (A). Specifically, the distribution server computer 100 transmits BPM (beats per minute) information, chemi-lighting operation information, and delay operation information, as shown in Fig. 33 (A), along with the virtual space update data described in Example 1.

また、これらBPM情報、ケミライト動作情報、遅延動作情報に加えて、図31並びに図35に示すように、ケミライト動作を行っている各視聴者アバターが、各演目の開始時においてケミライトKを振り始めるタイミングを特定可能な振り始め情報が、各演目の開始から所定期間(視聴者アバターの動作を停止する期間)前のタイミングにおいて配信用サーバコンピュータ100から各視聴者端末300に送信されるようになっており、該振り始め情報によって特定されるタイミング(実施例3では演目の開始タイミングとほぼ同じタイミング)にもとづいてケミライト動作を行っている各視聴者アバターがケミライトKを振り始めることで、各視聴者アバターのケミライト動作が同調するようになる。 In addition to the BPM information, chemilight action information, and delayed action information, as shown in Figures 31 and 35, swing start information that can identify the timing at which each viewer avatar performing the chemilight action will start swinging the chemilight K at the start of each performance is transmitted from the distribution server computer 100 to each viewer terminal 300 at a timing a predetermined period (the period during which the viewer avatar's action is stopped) before the start of each performance, and each viewer avatar performing the chemilight action starts swinging the chemilight K based on the timing identified by the swing start information (in Example 3, the timing is approximately the same as the start timing of the performance), so that the chemilight actions of each viewer avatar are synchronized.

実施例3の振り始め情報は、該振り始め情報の受信タイミングから所定期間後のタイミングを指定する情報、つまり、所定期間の大きさを特定可能な情報とされており、該振り始め情報を受信した各視聴者端末300は、その受信タイミングからタイマカウントを開始してタイマアップしたタイミングによって所定期間後のタイミングであるケミライトKの振り始めのタイミング(演目の開始タイミング)を特定することができる。 The swing start information in Example 3 is information that specifies the timing a predetermined period after the timing of receiving the swing start information, that is, information that can identify the length of the predetermined period, and each viewer terminal 300 that receives the swing start information can start a timer count from the timing of receiving the information and identify the timing of starting to swing the Chemilight K (the start of the performance), which is the timing a predetermined period after the timing of receiving the information, based on the timing when the timer expires.

尚、実施例3においては、図31に示すように、演目の開始から所定期間前に振り始め情報が送信される以前の期間においては、視聴者Cアバターが実行している視聴者アバターの移動や、視聴者Aアバターや視聴者Bアバターが実行しているデフォルトの振り速度による非同調のケミライト動作が可能とされているが、振り始め情報の送信タイミングから該振り始め情報によって指定されたタイミングである同調したケミライト動作の開始タイミングである演目の開始タイミングまでの所定期間においては、視聴者アバターの動作が全て停止(禁止)されるようになっており、このようにすることで、各視聴者アバターが同調したケミライト動作を適切に開始できるようになるとともに、非同調のケミライト動作から、いきなり振り速度等が異なる同調したケミライト動作に移行することによる違和感が視聴者に生じてしまうことを回避できる。また、実施例3では、後述するBPM(ビートパーミニッツ)情報の配信が、楽曲に同調したケミライト動作が最初から適切に開始できるようにするために、演目の開始タイミングよりも所定期間前の振り始め情報の送信タイミングから事前に配信されるようになっているので、これらBPM情報が非同調のケミライト動作に誤って反映されてしまうことも防ぐことができる。 In Example 3, as shown in FIG. 31, during the period before the swing start information is transmitted a predetermined time before the start of the performance, the movement of the viewer avatar performed by the viewer C avatar and the asynchronous chemi-lighting action performed by the viewer A avatar and the viewer B avatar at the default swing speed are possible; however, during the predetermined period from the transmission of the swing start information to the start of the performance, which is the start timing of the synchronized chemi-lighting action specified by the swing start information, all actions of the viewer avatar are stopped (prohibited). This enables each viewer avatar to appropriately begin synchronized chemi-lighting action, and avoids the viewer feeling uncomfortable when suddenly transitioning from an asynchronous chemi-lighting action to a synchronized chemi-lighting action with a different swing speed, etc. In addition, in Example 3, the BPM (beats per minute) information described below is distributed in advance from the timing of sending the start of the dance information, which is a certain period before the start of the performance, so that chemi-light movements synchronized with the music can start properly from the beginning, and this BPM information can be prevented from being erroneously reflected in non-synchronized chemi-light movements.

BPM(ビートパーミニッツ)情報は、一分の間に含まれる楽曲のビート数を表したもので、テンポが速い楽曲の場合にはBPMの数値が多くなり、テンポが遅い楽曲の場合にはBPMの数値が少なくなる。BPM(ビートパーミニッツ)情報は、これらBPMの数値に対応してビートとビートとの間隔とビートのタイミングを特定可能なデータとして記述されており、ビートのタイミングをBPM基準タイミング(図33参照)として該BPM情報から特定するとともに、これらビートとビートとの間隔においてケミライトKを左右に振る1サイクルの動作が完了するように動作することにより、ケミライト動作の早さを各演目において上演されている楽曲の早さ(テンポ)に一致せることができるとともに、各視聴者アバターのケミライト動作の早さを同じ早さに合わせることができる。 BPM (beats per minute) information indicates the number of beats in a song that occurs within one minute; for songs with a fast tempo, the BPM value is high, and for songs with a slow tempo, the BPM value is low. The BPM (beats per minute) information is written as data that can identify the interval between beats and the timing of the beats corresponding to these BPM values, and by identifying the timing of the beats from the BPM information as the BPM reference timing (see Figure 33), and operating so that one cycle of swinging the Chemilight K back and forth is completed at the interval between these beats, the speed of the Chemilight movement can be matched to the speed (tempo) of the song being performed in each performance, and the speed of the Chemilight movement of each viewer avatar can be adjusted to the same speed.

実施例3では、BPM情報は、上記したように、演目の開始タイミングよりも所定期間前の振り始め情報が送信タイミングから事前に配信されるが、これら所定期間において配信されるBPM情報は、視聴者アバターの非同期のケミライト動作には反映されず、これら事前に送信されるBPM情報から特定されるビートやビート間の期間から、視聴者端末300は、演目の開始タイミングよりも前において、事前に、同調したケミライト動作の態様を特定することができるので、このように、同調したケミライト動作の態様を視聴者端末300が事前に特定するために使用されることで、これら同調したケミライト動作が、演目の開始タイミングから的確に実行されるようになる。 In Example 3, as described above, the BPM information is transmitted in advance from the transmission timing, with the start of the swing information being transmitted a predetermined period before the start of the performance, but the BPM information transmitted during this predetermined period is not reflected in the asynchronous chemi-light movements of the viewer avatar, and the viewer terminal 300 can identify the manner of synchronized chemi-light movements in advance, prior to the start of the performance, from the beats and the periods between beats identified from this BPM information transmitted in advance. In this way, by the viewer terminal 300 being used to identify the manner of synchronized chemi-light movements in advance, these synchronized chemi-light movements can be executed accurately from the start of the performance.

ケミライト動作情報は、仮想ライブに仮想参加している視聴者アバターのうち、ケミライト動作を行っている視聴者アバターを特定するための情報である。つまり、上記したように、ケミライトKを事前購入していない視聴者アバターはケミライト動作が可能とされていないとともに、ケミライトKを事前購入していてもケミライト動作をしていない視聴者アバターも存在するため、仮想ライブに仮想参加している全ての視聴者アバターについて、ケミライト動作をしているか否かが記述されたデータをケミライト動作情報として各視聴者端末300に送信することで、各視聴者端末300において視聴者アバター視点映像や仮想カメラ視点映像を生成する際に、該ケミライト動作情報にもとづいてケミライト動作の実行の有無が各視聴者アバターについて特定されて視聴者アバターの動作に反映されるようになっている。 The chemilight action information is information for identifying viewer avatars that are performing the chemilight action among the viewer avatars virtually participating in the virtual live. In other words, as described above, viewer avatars that have not purchased chemilight K in advance are not capable of performing the chemilight action, and there are also viewer avatars that have purchased chemilight K in advance but are not performing the chemilight action. Therefore, for all viewer avatars virtually participating in the virtual live, data describing whether or not they are performing the chemilight action is transmitted to each viewer terminal 300 as chemilight action information. In this way, when each viewer terminal 300 generates a viewer avatar viewpoint image or a virtual camera viewpoint image, the presence or absence of the chemilight action is identified for each viewer avatar based on the chemilight action information, and is reflected in the viewer avatar's action.

遅延動作情報は、ケミライト動作をしている視聴者アバターについて、図33(B)に示す遅延A、遅延Bの動作を行う視聴者アバターを特定可能とするための情報であって、ケミライト動作をしている全ての視聴者アバター(視聴者ユーザー)について、遅延なしのグループに属するか、遅延Aのグループに属するか、遅延Bのグループに属するかが記述されたデータとされている。 The delayed action information is information for identifying viewer avatars performing the chem-light action that perform the delayed A or delayed B action shown in FIG. 33 (B), and is data describing whether all viewer avatars (viewer users) performing the chem-light action belong to the no-delay group, the delayed A group, or the delayed B group.

つまり、遅延動作情報によって「遅延なし」のグループに属することが特定される視聴者アバター(視聴者ユーザー)については、例えば、図33(B)において視聴者アバター13が行うケミライト動作のように、BPM情報によって特定されるビートタイミングに対応したBPM基準タイミングから遅れ(ズレ)ることなく1サイクル(ケミライトKを左右に1回振る動作サイクル)のケミライト動作を開始する。 In other words, for a viewer avatar (viewer user) that is identified as belonging to the "no delay" group by the delay action information, for example, the chemilight action performed by viewer avatar 13 in FIG. 33(B) will begin one cycle of chemilight action (one action cycle of swinging the chemilight K left and right) without any delay (deviation) from the BPM reference timing that corresponds to the beat timing identified by the BPM information.

また、遅延動作情報によって「遅延A」のグループに属することが特定される視聴者アバター(視聴者ユーザー)については、例えば、図33(B)において視聴者アバター12が行うケミライト動作のように、BPM情報によって特定されるビートタイミングに対応したBPM基準タイミングから0.1秒だけ遅れたタイミングで1サイクル(左右に振る動作サイクル)のケミライト動作を開始する。 Furthermore, for viewer avatars (viewer users) identified by the delay action information as belonging to the "Delay A" group, the viewer avatars will begin one cycle of chemilight action (a swinging action cycle from side to side) at a timing delayed by 0.1 seconds from the BPM reference timing corresponding to the beat timing identified by the BPM information, such as the chemilight action performed by viewer avatar 12 in FIG. 33(B).

また、遅延動作情報によって「遅延B」のグループに属することが特定される視聴者アバター(視聴者ユーザー)については、例えば、図33(B)において視聴者アバター11が行うケミライト動作のように、BPM情報によって特定されるビートタイミングに対応したBPM基準タイミングから0.2秒だけ遅れたタイミングで1サイクル(左右に振る動作サイクル)のケミライト動作を開始する。 Furthermore, for viewer avatars (viewer users) identified by the delay action information as belonging to the "Delay B" group, the viewer avatar will begin one cycle of chemilight action (a swinging action cycle from side to side) at a timing delayed by 0.2 seconds from the BPM reference timing corresponding to the beat timing identified by the BPM information, such as the chemilight action performed by viewer avatar 11 in FIG. 33(B).

このような遅延動作情報を送信して、BPM基準タイミングから0.1秒、0.2秒だけ遅れ(ズレ)たケミライト動作を視聴者アバター12、視聴者アバター11に行わせるようにする理由としては、例えば、振り始め情報とBPM情報とにもとづいて、視聴者アバターが行う全てのケミライト動作が完全に一致(同期)してしまうと、ケミライト動作が現実離れした動作となってしまうことで、仮想ライブの現実性が大きく低下してしまう畏れがあるため、視聴者アバターが行うケミライト動作の現実性を高めるために、一部の視聴者アバターについては、敢えてケミライト動作のタイミングを、同調を外れない所定範囲の秒数である0.2秒の範囲でずらすようにしている。 The reason for transmitting such delayed action information to have viewer avatar 12 and viewer avatar 11 perform chemilight actions that are delayed (shifted) by 0.1 seconds and 0.2 seconds from the BPM reference timing is that, for example, if all the chemilight actions performed by the viewer avatars were to perfectly match (synchronize) based on the swing start information and BPM information, the chemilight actions would become unrealistic, which could significantly reduce the realism of the virtual live performance. Therefore, in order to increase the realism of the chemilight actions performed by the viewer avatars, the timing of the chemilight actions for some viewer avatars is deliberately shifted by a range of 0.2 seconds, which is a predetermined range of seconds that does not go out of sync.

尚、実施例3では、ズレを生成する形態として、ズレのタイミングを視聴者端末300においてBPM情報から特定し易いことからBPM基準タイミングから遅延させた形態を例示しているが、本発明はこれに限定されるものではなく、例えば、遅延Bのグループのタイミングを、遅延ではなく、BPM基準タイミングの0.1秒前のタイミングとして、BPM基準タイミングからの差をより小さくするようにしてもよい。 In the third embodiment, the timing of the shift is delayed from the BPM reference timing because it is easy to identify the timing of the shift from the BPM information on the viewer terminal 300. However, the present invention is not limited to this. For example, the timing of the group of delay B may be set to 0.1 seconds before the BPM reference timing instead of a delay, so as to reduce the difference from the BPM reference timing.

また、実施例3では、ズレの最大値を、同調を外れない所定範囲である0.2秒とした形態を例示しているが、本発明はこれに限定されるものではなく、これらズレの最大値は、視聴者が同調していないと感じることがない適宜な期間とすればよく、一定の秒数に限られない。つまり、早いテンポの楽曲であれば、ズレの最大値は少ない秒数となり、遅いテンポの楽曲であれば、ズレの最大値は大きな秒数となるように、可変の秒数であってもよく、このような場合には、例えば、楽曲のテンポ(BPM)の逆数に所定の割合(例えば10%)を乗じて得られる数値に対応した秒数としてもよい。 In addition, in Example 3, the maximum deviation is set to 0.2 seconds, which is a predetermined range that does not cause out-of-sync, but the present invention is not limited to this, and these maximum deviations can be any appropriate period that does not make the listener feel out of sync, and are not limited to a fixed number of seconds. In other words, the maximum deviation can be a variable number of seconds, so that if the music has a fast tempo, the maximum deviation will be a small number of seconds, and if the music has a slow tempo, the maximum deviation will be a large number of seconds. In such a case, for example, the number of seconds can be set to a number corresponding to a value obtained by multiplying the inverse of the tempo (BPM) of the music by a predetermined percentage (e.g., 10%).

また、実施例3では、ケミライト動作情報と遅延動作情報を個別の情報(データ)とした形態を例示しているが、本発明はこれに限定されるものではなく、これらを1つのデータとしてもよい。 In addition, in Example 3, an example is given in which the chemilight operation information and the delay operation information are treated as separate pieces of information (data), but the present invention is not limited to this, and these may be treated as a single piece of data.

また、実施例3では、ズレのタイミングを0.1秒後と0.2秒後の2つとすることで、よりケミライト動作の現実性を向上できるようにしているが、本発明はこれに限定されるものではなく、これらズレのタイミングを1つだけに簡素化してもよいし、逆に、3以上として更に現実性を向上できるようにしてしてもよい。 In addition, in Example 3, the timing of the shift is set to two, 0.1 seconds and 0.2 seconds, to further improve the realism of the chemilight operation, but the present invention is not limited to this, and the timing of the shift may be simplified to just one, or conversely, may be set to three or more to further improve the realism.

また、実施例3では、各演目においてズレのタイミング数を同一としているが、本発明はこれに限定されるものではなく、例えば、テンポが非常に速い楽曲の演目については、ズレのタイミング数を少なくまたは「無し」とし、テンポが遅い楽曲の演目については、ズレのタイミング数を多くする等のように、演目に応じてズレのタイミング数を変更するようにしてもよい。 In addition, in Example 3, the number of timing deviations is the same for each piece, but the present invention is not limited to this. For example, the number of timing deviations may be reduced or "none" for a piece of music with a very fast tempo, and the number of timing deviations may be increased for a piece of music with a slow tempo. In this way, the number of timing deviations may be changed depending on the piece.

次に、実施例3の配信用サーバコンピュータ100において使用される参加者ユーザーテーブルを図34(A)に示す。実施例3の参加者ユーザーテーブルは、実施例2の参加者ユーザーテーブルと同様に、参加者ID(視聴者ユーザーID)に対応付けて、当該参加者(視聴者ユーザー)の参加状態を特定可能な参加識別データ(参加識別フラグ)と、当該参加者(視聴者ユーザー)の参加エリアと、参加者(視聴者ユーザー)の視聴者アバターがその時点において存在している仮想ライブ会場における位置を特定可能な参加者座標と、仮想アイテムであるケミライトKの購入の有無を特定可能なケミライトアイテム購入のデータと、ケミライト動作中であるか否かを特定可能なケミライト動作ステータスのデータと、ケミライト動作のデフォルト速度の種類を特定可能なデフォルト速度のデータと、上述した「遅延なし」、「遅延A」、「遅延B」のいずれのグループに属しているのかを特定可能な遅延種別のデータ等が記憶可能なテーブルである。 Next, FIG. 34(A) shows a participant user table used in the distribution server computer 100 of the third embodiment. The participant user table of the third embodiment, like the participant user table of the second embodiment, is a table that can store, in association with a participant ID (viewer user ID), participation identification data (participation identification flag) that can identify the participation state of the participant (viewer user), the participation area of the participant (viewer user), participant coordinates that can identify the position in the virtual live venue where the viewer avatar of the participant (viewer user) is currently located, chemilight item purchase data that can identify whether or not the virtual item chemilight K has been purchased, chemilight operation status data that can identify whether or not chemilight operation is in progress, default speed data that can identify the type of default speed of the chemilight operation, and delay type data that can identify which of the above-mentioned "no delay", "delay A", and "delay B" groups the participant belongs to.

参加者IDの項目には、イベントデータにおいて、当該仮想ライブに対応して記憶されている各参加者グループのファイルに記述されている参加予定者の視聴者ユーザーIDが全て登録される。また、参加識別データ(参加識別フラグ)は、参加者ID(視聴者ユーザーID)の登録時において、非参加状態に対応する「0」が登録されており、各参加者(視聴者ユーザー)の参加が認証によって許可されたときに、参加を示す「1」に更新される。よって、図34(A)に示す例において、参加識別データ(参加識別フラグ)が「0」となっている「MID-00007」の視聴者ユーザーは、何らかの理由で仮想ライブに参加していないことを特定することができる。 The participant ID field registers all viewer user IDs of prospective participants described in the files of each participant group stored in the event data corresponding to the virtual live. In addition, the participation identification data (participation identification flag) is registered as "0", corresponding to a non-participating state, when the participant ID (viewer user ID) is registered, and is updated to "1", indicating participation, when the participation of each participant (viewer user) is permitted by authentication. Therefore, in the example shown in Figure 34 (A), it is possible to identify that viewer user "MID-00007", whose participation identification data (participation identification flag) is "0", is not participating in the virtual live for some reason.

参加エリアのデータは、各参加者(視聴者ユーザー)の参加エリアが、第3領域であるのか、第4領域であるのかを特定可能なデータとされており、各参加者(視聴者ユーザー)の参加が認証によって許可されたときに、登録されるデータである。参加者座標のデータは、仮想空間更新処理において逐次更新されるデータであって、個々の参加者(視聴者ユーザー)の視聴者アバターが仮想ライブ会場内において位置している場所の座標データである。よって、該座標データから、個々の視聴者アバターがその時点において存在している仮想ライブ会場内の位置を簡便に特定することができる。 The participation area data is data that can identify whether the participation area of each participant (viewer user) is the third area or the fourth area, and is registered when the participation of each participant (viewer user) is permitted by authentication. The participant coordinate data is data that is updated sequentially in the virtual space update process, and is coordinate data of the location where the viewer avatar of each participant (viewer user) is located within the virtual live venue. Therefore, from the coordinate data, the location within the virtual live venue where each viewer avatar is located at that time can be easily identified.

ケミライトアイテム購入のデータは、購入に応じて購入済みであることを示す「1」に、未購入を示す「0」からデータが更新される。よって、上述したように、ケミライトアイテム購入のデータが「1」の視聴者ユーザーの視聴者アバターだけが、ケミライト動作を行うことができ、これらケミライト動作の実行に対応した操作が実行されることに応じて、該操作の有効・無効が、ケミライトアイテム購入のデータにもとづいて配信用サーバコンピュータ100において判定される。 The chemilite item purchase data is updated from "0" indicating that the item has not been purchased to "1" indicating that the item has been purchased in response to the purchase. Therefore, as described above, only the viewer avatar of a viewer user whose chemilite item purchase data is "1" can perform chemilite actions, and as operations corresponding to the execution of these chemilite actions are performed, the validity or invalidity of the operation is determined in the distribution server computer 100 based on the chemilite item purchase data.

ケミライト動作ステータスのデータは、各参加者(視聴者ユーザー)の視聴者アバターがケミライト動作を実行しているか否かを特定可能なデータであって、ケミライト動作の実行に対応する操作が視聴者端末300において実行され、該操作が有効と判断されたときに、非実効を示す「0」から「1」に更新されるとともに、ケミライト動作の非実行(終了)に対応する操作が視聴者端末300において実行されたことに応じて、実行を示す「1」から非実効を示す「0」に更新される。 The chemilite action status data is data that can identify whether or not the viewer avatar of each participant (viewer user) is performing a chemilite action, and when an operation corresponding to the execution of a chemilite action is executed on the viewer terminal 300 and the operation is determined to be valid, the data is updated from "0", indicating ineffective, to "1", and when an operation corresponding to the non-execution (end) of the chemilite action is executed on the viewer terminal 300, the data is updated from "1", indicating execution, to "0", indicating ineffective.

デフォルト振り速度のデータは、非同調のケミライト動作を行う場合においてケミライトKを振る速度を特定可能なデータであって、例えば、第1演目の開始前等の期間においてケミライト動作の実行操作をした場合において、視聴者ユーザーが選択した速度に対応したデータである。具体的には、実施例3においては、これらデフォルト速度として、低速である速度1(P1)から高速である速度5(P5)までの5段階の速度を視聴者ユーザーが選択することができ、これら視聴者ユーザーによって視聴者端末300において選択されたデフォルト速度の情報が、配信用サーバコンピュータ100に通知されて登録される。 The default swing speed data is data that can specify the speed at which the chemilite K is swung when performing an asynchronous chemilite action, and corresponds to the speed selected by the viewer user when performing the chemilite action during a period such as before the start of the first performance. Specifically, in Example 3, the viewer user can select from five default speeds ranging from a low speed 1 (P1) to a high speed 5 (P5), and information on the default speeds selected by the viewer user on the viewer terminal 300 is notified to and registered in the distribution server computer 100.

よって、非同調のケミライト動作が可能な期間において視聴者アバターがケミライトKを振る場合の速度は、該視聴者アバターが対応する視聴者ユーザーの視聴者ユーザーIDに対応付けられているデフォルト速度のデータにもとづいた速度とされる。 Therefore, the speed at which the viewer avatar swings the chemilight K during a period when asynchronous chemilight operation is possible is based on the default speed data associated with the viewer user ID of the viewer user to which the viewer avatar corresponds.

遅延種別のデータは、各視聴者ユーザーの視聴者アバターが、上述した「遅延なし」、「遅延A」、「遅延B」のいずれのグループに属しているのかを特定可能なデータであって、「遅延なし」に属する場合には「N」が登録され、「遅延A」に属する場合には「A」が登録され、「遅延B」に属する場合には「B」が登録される。 The delay type data is data that identifies which group each viewer user's viewer avatar belongs to, the "no delay", "delay A", or "delay B" group described above. If it belongs to "no delay", "N" is registered, if it belongs to "delay A", "A" is registered, and if it belongs to "delay B", "B" is registered.

ここで、視聴者アバターが「遅延なし」、「遅延A」、「遅延B」のいずれのグループに決定される流れについて、図31、図37を用いて説明する。 Here, we will explain the process by which a viewer avatar is assigned to either the "No Delay", "Delay A", or "Delay B" group using Figures 31 and 37.

これら「遅延なし」、「遅延A」、「遅延B」のグループ割は、図37(A)に示す遅延動作者決定処理が配信用サーバコンピュータ100において実行されることにより行われる。 These groupings of "No Delay", "Delay A", and "Delay B" are performed by the delivery server computer 100 executing the delay performer determination process shown in FIG. 37(A).

尚、配信用サーバコンピュータ100において遅延動作者決定処理が実行されるタイミングは、1回だけではなく、図31に示すように、各演目が開始される直前の複数のタイミングにおいて実行される。よって、実施例3では、各演目ことに「遅延なし」、「遅延A」、「遅延B」に属する視聴者アバターが変化する。 The timing at which the delay performer determination process is executed in the distribution server computer 100 is not just once, but is executed at multiple times immediately before the start of each performance, as shown in FIG. 31. Therefore, in Example 3, the viewer avatars belonging to "No Delay", "Delay A", and "Delay B" change for each performance.

このように、各演目が開始される直前のタイミングで実行される遅延動作者決定処理においては、まず、図37(A)に示すように、ケミライト動作を実行している視聴者アバターを全て特定する(ステップS201)。具体的には、図34(A)に示す参加者ユーザーテーブルにおいて、その時点においてケミライト動作ステータスのデータとして「1」が登録されている参加者ID(視聴者ユーザーID)を全て特定すればよい。 In this way, in the delayed performer determination process that is executed immediately before the start of each performance, first, as shown in FIG. 37(A), all viewer avatars that are performing the chem-lighting action are identified (step S201). Specifically, it is sufficient to identify all participant IDs (viewer user IDs) that have "1" registered as the chem-lighting action status data at that time in the participant user table shown in FIG. 34(A).

そして、特定したケミライト動作を実行している視聴者アバターから、「遅延A」のケミライト動作を行う視聴者アバターと、「遅延B」のケミライト動作を行う視聴者アバターとを、図37(B)示す決定用テーブルの決定割合にて選出する(ステップS202)。 Then, from the viewer avatars performing the identified chemilighting actions, a viewer avatar performing a "delay A" chemilighting action and a viewer avatar performing a "delay B" chemilighting action are selected based on the determination ratio in the determination table shown in FIG. 37 (B) (step S202).

実施例3における決定割合は、図37(B)に示されるように、「遅延A」のケミライト動作を行う視聴者アバターを、ケミライト動作を行う視聴者アバター全体の20%、「遅延B」のケミライト動作を行う視聴者アバターを、ケミライト動作を行う視聴者アバター全体の10%とする形態を例示している。このように、ズレが大きくなる程、決定割合を少なくすることで、ズレの状態がより現実に違いズレとなることから好ましいが、これらの決定割合は、適宜に決定すればよい。但し、「遅延A」と「遅延B」とを合計した割合は、50%を超えないようにすることが好ましい。 As shown in FIG. 37(B), the determination ratios in Example 3 are exemplified as follows: viewer avatars performing the "Delay A" chemilight action make up 20% of all viewer avatars performing the chemilight action, and viewer avatars performing the "Delay B" chemilight action make up 10% of all viewer avatars performing the chemilight action. In this way, the larger the deviation, the lower the determination ratio, which is preferable because it makes the deviation more realistic; however, these determination ratios may be determined as appropriate. However, it is preferable that the combined ratio of "Delay A" and "Delay B" does not exceed 50%.

尚、実施例3では、これら決定割合を1つとした形態を例示しているが、本発明はこれに限定されるものではなく、例えば、決定割合が異なる決定用テーブルを複数設けておき、演目の楽曲に応じて、使用する決定用テーブルを変更することで、決定割合を変えるようにしてもよい。 Note that in Example 3, an example is shown in which the determination ratio is one, but the present invention is not limited to this. For example, multiple determination tables with different determination ratios may be provided, and the determination ratio may be changed by changing the determination table to be used depending on the music in the program.

これら選出の具体的な方法は限定されないが、例えば、ステップS201において特定したケミライト動作を実行している視聴者アバターの総数Mに、「遅延B」に対応する決定割合である10%を乗じた決定数1と、「遅延B」に対応する決定割合である20%を乗じた決定数2とを算出し、ステップS201において特定したケミライト動作を実行している視聴者アバターから、決定数1に達するまで抽選を実施して「遅延B」のケミライト動作を行う視聴者アバターを決定し、未決定の視聴者アバターから決定数2に達するまで抽選を実施して「遅延A」のケミライト動作を行う視聴者アバターを決定し、残りの視聴者アバターを「遅延なし」のケミライト動作を行う視聴者アバターとして決定すればよい。 The specific method of selection is not limited, but for example, a determination number 1 is calculated by multiplying the total number M of viewer avatars performing the chemilight action identified in step S201 by 10%, which is the determination ratio corresponding to "Delay B", and a determination number 2 is calculated by multiplying the total number M of viewer avatars performing the chemilight action identified in step S201 by 10%, which is the determination ratio corresponding to "Delay B", and a lottery is held to determine a viewer avatar that will perform the chemilight action of "Delay B" from among the viewer avatars performing the chemilight action identified in step S201 until the determination number 1 is reached, a lottery is held to determine a viewer avatar that will perform the chemilight action of "Delay A" from among the undetermined viewer avatars until the determination number 2 is reached, and the remaining viewer avatars are determined as viewer avatars that will perform the chemilight action of "no delay".

そして、参加者ユーザーテーブルの遅延動作種別のデータを、上記した決定結果にもとづいて更新する(ステップS203)。 Then, the delay action type data in the participant user table is updated based on the above-mentioned determination result (step S203).

そして、更新後の遅延動作種別のデータにもとづいて新たな遅延動作情報を生成して各視聴者端末300に配信する(ステップS204)。 Then, new delay operation information is generated based on the updated delay operation type data and distributed to each viewer terminal 300 (step S204).

次に、実施例3の配信用サーバコンピュータ100において使用される楽曲リストデータを図34(B)に示す。尚、楽曲リストデータは1つのファイルデータとして配信用サーバコンピュータ100に記憶されている。 Next, FIG. 34(B) shows the song list data used in the delivery server computer 100 of the third embodiment. Note that the song list data is stored in the delivery server computer 100 as one file data.

楽曲リストデータは、図34(B)に示すように、演目種別に対応付けて「楽曲名」、「楽曲ID」、「BPM」等の情報が記憶されており、演目種別の情報にもとづいて、各演目においてどの楽曲が使用されるのかを特定可能とされている。 As shown in FIG. 34(B), the song list data stores information such as "song name," "song ID," and "BPM" in association with the type of performance, and it is possible to identify which songs will be used in each performance based on the information on the type of performance.

つまり、図34(B)に示す例においては、第1演目においては、楽曲ID「GK-XXXX」の楽曲が上演され、第2演目においては、楽曲ID「GK-YYYY」の楽曲が上演され、第3演目においては、楽曲ID「GK-ZZZZ」の楽曲が上演されることが特定できる。 In other words, in the example shown in FIG. 34(B), it can be determined that the song with song ID "GK-XXXX" will be performed in the first performance, the song with song ID "GK-YYYY" will be performed in the second performance, and the song with song ID "GK-ZZZZ" will be performed in the third performance.

また、BPMのデータから、第1演目において上演される楽曲は、1分間に82ビートと、比較的テンポが遅い楽曲であり、第2目において上演される楽曲は、1分間に123ビートと比較的テンポが早い楽曲であり、第3目において上演される楽曲は、1分間に136ビートと、更に早いテンポの楽曲であることが解る。尚、図34(B)では、BPMのデータを整数の数値としているが、本発明はこれに限定されるものではなく、これらの値を小数点以下の値を含む数値としてもよい。 It can also be seen from the BPM data that the music performed in the first performance has a relatively slow tempo of 82 beats per minute, the music performed in the second performance has a relatively fast tempo of 123 beats per minute, and the music performed in the third performance has an even faster tempo of 136 beats per minute. Note that while the BPM data in Figure 34(B) is expressed as integer numerical values, the present invention is not limited to this, and these values may be numerical values including decimal points.

よって、図35に示すように、第1演目においては、楽曲ID「GK-XXXX」のBPMである1分間に82ビートに対応したBPM情報が第1演目対応BPM情報として各視聴者端末300に配信され、第2演目においては、楽曲ID「GK-YYYY」のBPMである1分間に123ビートに対応したBPM情報が第2演目対応BPM情報として各視聴者端末300に配信され、第3演目においては、楽曲ID「GK-ZZZZ」のBPMである1分間に136ビートに対応したBPM情報が第3演目対応BPM情報として各視聴者端末300に配信される。つまり、各演目においては、上演される楽曲に対応した異なるBPM情報が配信される。 Therefore, as shown in FIG. 35, in the first performance, BPM information corresponding to 82 beats per minute, which is the BPM of the song ID "GK-XXXX", is distributed to each viewer terminal 300 as BPM information corresponding to the first performance, in the second performance, BPM information corresponding to 123 beats per minute, which is the BPM of the song ID "GK-YYYY", is distributed to each viewer terminal 300 as BPM information corresponding to the second performance, and in the third performance, BPM information corresponding to 136 beats per minute, which is the BPM of the song ID "GK-ZZZZ", is distributed to each viewer terminal 300 as BPM information corresponding to the third performance. In other words, in each performance, different BPM information corresponding to the song being performed is distributed.

尚、これら第1演目対応BPM情報、第2演目対応BPM情報、第3演目対応BPM情報は、いずれも、図35に示すように、第1演目、第2演目、第3演目の開始タイミングの所定期間前の振り始め情報の送信タイミングから配信が開始されるが、該所定期間は、視聴者アバターの動作が停止される視聴者アバター動作停止期間Tとされることによって視聴者アバターの動作であるケミライト動作に反映されることはない。 As shown in FIG. 35, the BPM information for the first performance, the BPM information for the second performance, and the BPM information for the third performance all begin to be distributed from the timing of sending the swing start information a predetermined period before the start of the first performance, the second performance, and the third performance, but this predetermined period is treated as a viewer avatar motion stop period T during which the motion of the viewer avatar is stopped, and is therefore not reflected in the chemilight motion, which is the motion of the viewer avatar.

ここで、実施例3において視聴者ユーザーが仮想ライブ会場に仮想参加する際の流れについて、図36を用いて説明する。 Here, the flow when a viewer user virtually participates in a virtual live venue in Example 3 will be explained with reference to FIG. 36.

まず、視聴者ユーザーは、視聴者端末300にて実行している視聴者用プログラム(視聴アプリ)において、自分が仮想参加を予定している仮想ライブへの参加操作、例えば、参加メニューの選択やキーボードにおいて参加操作が割り当てられている特定キーの操作を実行する。 First, the viewer user performs an operation to join the virtual live show that he or she plans to virtually participate in, for example, by selecting a participation menu or operating a specific key on the keyboard to which the participation operation is assigned, in the viewer program (viewing application) running on the viewer terminal 300.

この参加操作の実行によって、視聴者端末300から配信用サーバコンピュータ100に対して、視聴者ユーザーIDや当該視聴者ユーザーを認証するための認証用データを含む参加要求が送信される。 By executing this participation operation, a participation request including the viewer user ID and authentication data for authenticating the viewer user is sent from the viewer terminal 300 to the distribution server computer 100.

参加要求を受信した配信用サーバコンピュータ100においては、ライブ仮想空間参加可能期間であることを条件に、参加者認証処理を実行する。参加者認証処理では、受信した参加要求に含まれる視聴者ユーザーIDが、参加対象の仮想ライブに対応している参加者ユーザーデータベースに、参加者IDとして登録されているか否かによって、当該視聴者ユーザーが該当する仮想ライブの参加予定者であるのか否かを判定するとともに、図9に示す視聴者ユーザーデータにおいて、当該視聴者ユーザーIDに対応付けて記憶されている認証情報ファイルデータから特定される認証情報ファイルに記述された認証用データと、参加要求に含まれる認証用データとを照合することで視聴者ユーザーの認証を行う。 The distribution server computer 100 that receives the participation request executes a participant authentication process on the condition that it is a period during which participation in the live virtual space is possible. In the participant authentication process, it is determined whether the viewer user is a prospective participant of the corresponding virtual live depending on whether the viewer user ID included in the received participation request is registered as a participant ID in the participant user database corresponding to the virtual live to be participated in, and the viewer user is authenticated by comparing the authentication data described in the authentication information file identified from the authentication information file data stored in association with the viewer user ID in the viewer user data shown in FIG. 9 with the authentication data included in the participation request.

視聴者ユーザーが参加予定者であって、認証用データによる認証が完了した場合には、参加者ユーザーテーブルの参加識別データ(参加識別フラグ)を、「参加」に対応する「1」に更新したのち、配信用サーバコンピュータ100は、参加要求の送信元の視聴者端末300に対して、参加完了情報を返信する。このようにして返信された参加完了情報の受信に応じて視聴者端末300においては、仮想参加が完了したことを示すメッセージが表示されることで、仮想参加が完了したことが報知される。これにより、視聴者ユーザーは、例えば、仮想参加が完了した仮想ライブにおいて購入可能な仮想アイテム(ケミライトKを含む)の購入等が可能となる。 If the viewer user is a prospective participant and authentication using the authentication data is complete, the participation identification data (participation identification flag) in the participant user table is updated to "1" corresponding to "participation", and the distribution server computer 100 then returns participation completion information to the viewer terminal 300 that sent the participation request. In response to receiving the participation completion information returned in this manner, the viewer terminal 300 displays a message indicating that virtual participation has been completed, thereby notifying the viewer that virtual participation has been completed. This allows the viewer user to, for example, purchase virtual items (including Chemilite K) that are available for purchase at the virtual live show in which virtual participation has been completed.

配信用サーバコンピュータ100は、参加完了通知処理に次いで、事前データ送信処理を実行することで、事前データを新たに仮想参加した視聴者ユーザーの視聴者端末300に送信する。このようにして送信された事前データを受信した視聴者端末300は、受信した事前データを記憶し、その後、該記憶した事前データにもとづいて視聴者視点映像を生成して表示(出力)を開始する。これにより、視聴者ユーザーは、仮想参加した自身の視聴者アバターから見た仮想ライブ会場の映像を見ることがきる。 Following the participation completion notification process, the distribution server computer 100 executes a pre-data transmission process to transmit the pre-data to the viewer terminal 300 of the viewer user who has newly participated virtually. The viewer terminal 300 that receives the pre-data transmitted in this manner stores the received pre-data, and then generates viewer perspective video based on the stored pre-data and begins displaying (outputting). This allows the viewer user to view video of the virtual live venue as seen from the viewer avatar of their own virtual participation.

次に、仮想参加後における配信用サーバコンピュータ100と視聴者端末300との間の情報の流れについて、図38を用いて説明する。 Next, the flow of information between the distribution server computer 100 and the viewer terminal 300 after virtual participation will be explained using Figure 38.

尚、図38において、配信用サーバコンピュータ100における仮想空間更新処理までの流れについては、実施例1と同様であるので、ここでの説明を省略する。但し、視聴者端末300におけるアバター動作操作処理における操作には、ケミライト動作に係わる操作が含まれる。 In FIG. 38, the flow up to the virtual space update process in the distribution server computer 100 is the same as in Example 1, so the explanation will be omitted here. However, the operations in the avatar action operation process in the viewer terminal 300 include operations related to chemilight actions.

配信用サーバコンピュータ100においては、仮想空間更新処理の後に参加者ユーザーテーブル更新処理が実行されることで、参加者ユーザーテーブル、具体的には、例えば、参加者座標のデータ、ケミライト動作ステータスのデータ、デフォルト振り速度のデータ等が更新される場合がある。 In the distribution server computer 100, the participant user table update process is executed after the virtual space update process, and the participant user table, specifically, for example, participant coordinate data, chemilight operation status data, default swing speed data, etc., may be updated.

そして、配信用サーバコンピュータ100においては、BPM情報の送信期間中であるか否かが判定される。尚、BPM情報は後述するように、各演目期間の開始前においても配信(送信)される(図35参照)。 Then, the distribution server computer 100 determines whether or not it is currently in the period for transmitting BPM information. Note that, as described below, BPM information is also distributed (transmitted) before the start of each program period (see FIG. 35).

BPM情報の送信期間中である場合には、ケミライト動作情報、BPM情報、遅延動作情報を、演者端末200並びに各視聴者端末300に対して配信(送信)する。このようにして配信されたケミライト動作情報、BPM情報、遅延動作情報は、演者端末200並びに各視聴者端末300において更新記憶される。 When it is the period for transmitting BPM information, the chemilight operation information, BPM information, and delayed operation information are distributed (transmitted) to the performer terminal 200 and each viewer terminal 300. The chemilight operation information, BPM information, and delayed operation information distributed in this manner are updated and stored in the performer terminal 200 and each viewer terminal 300.

尚、実施例3では、各演目期間中においても、視聴者端末300において新たにケミライト動作を視聴者アバターに実行させる操作が可能とされているが、これら各演目期間においては、図31に示すように、遅延操作者決定処理が実行されないため、該演目期間において新たにケミライト動作の実行操作を行った視聴者ユーザーに対しては、「遅延なし」が一義的に割り当てられ、これら新たにケミライト動作を行った視聴者ユーザーの情報が反映されたケミライト動作情報とともに、該視聴者ユーザーが「遅延なし」のグループに属していることを特定可能な遅延動作情報が、演者端末200および各視聴者端末300に対して送信される。但し、各演目期間中は、図31に示すように、配信用サーバコンピュータ100の処理負荷が相対的に高い状態であるので、上記したような処理を行うことに伴う処理負荷の増加によって配信用サーバコンピュータ100の処理負荷の更なる増大を防ぐために、視聴者端末300において新たにケミライト動作を視聴者アバターに実行させる操作を不能としてもよい。 In the third embodiment, even during each performance period, the viewer terminal 300 is capable of newly performing a chemilighting action on the viewer avatar. However, during each performance period, as shown in FIG. 31, the delay operator determination process is not executed, so that the viewer user who newly performs a chemilighting action during the performance period is uniquely assigned "no delay", and together with the chemilighting action information reflecting the information of the viewer user who newly performed the chemilighting action, delay action information that identifies the viewer user as belonging to the "no delay" group is transmitted to the performer terminal 200 and each viewer terminal 300. However, during each performance period, as shown in FIG. 31, the processing load of the distribution server computer 100 is relatively high, so in order to prevent a further increase in the processing load of the distribution server computer 100 due to the increase in the processing load associated with the above-mentioned process, the viewer terminal 300 may be disabled from newly performing a chemilighting action on the viewer avatar.

次いで、配信用サーバコンピュータ100においては、実施例1と同様に、仮想空間更新データ生成処理並びに仮想空間更新データ配信処理が実行されることで、仮想空間更新データが、演者端末200並びに各視聴者端末300に対して配信(送信)される。 Next, in the distribution server computer 100, the virtual space update data generation process and the virtual space update data distribution process are executed in the same manner as in Example 1, and the virtual space update data is distributed (transmitted) to the performer terminal 200 and each viewer terminal 300.

このようにして配信(送信)された仮想空間更新データの受信に応じて各視聴者端末300においては、仮想空間更新処理が実行されることで、受信した仮想空間更新データの更新内容が各視聴者端末300において記憶されている仮想空間データに反映された後、図39(A)に示す視聴者視点映像生成処理1が実行される。 In response to receiving the virtual space update data distributed (transmitted) in this manner, each viewer terminal 300 executes a virtual space update process, and the update contents of the received virtual space update data are reflected in the virtual space data stored in each viewer terminal 300, after which viewer perspective video generation process 1 shown in Figure 39 (A) is executed.

図39(A)は、実施例3の視聴者端末300において実行される視聴者視点映像生成処理1の処理内容を示すフロー図であり、この視聴者視点映像生成処理1においては、まず、更新後の仮想空間データにもとづいて通常の視聴者視点映像を生成する処理を行う(ステップS300)。 Figure 39 (A) is a flow diagram showing the process of viewer's viewpoint video generation process 1 executed in the viewer terminal 300 of Example 3. In this viewer's viewpoint video generation process 1, first, a process of generating a normal viewer's viewpoint video based on the updated virtual space data is performed (step S300).

次ぎに、配信用サーバコンピュータ100から受信して更新記憶したケミライト動作情報と遅延動作情報とにもとづいて、ケミライト動作を実行中の視聴者アバターとその遅延種別とを全て特定する(ステップS301)。 Next, based on the chemi-lighting action information and delay action information received and updated from the distribution server computer 100, all viewer avatars performing chemi-lighting actions and their delay types are identified (step S301).

そして、ステップS301において特定した遅延種別と、受信したBPM情報とにもとづいた動作態様を、ケミライト動作を実行中の各視聴者アバターのケミライト動作に反映する(ステップS302)。 Then, the operation mode based on the delay type identified in step S301 and the received BPM information is reflected in the chem-lighting operation of each viewer avatar currently performing the chem-lighting operation (step S302).

このようにステップS302における反映によって、BPM情報にもとづいた同調したケミライト動作を行っている視聴者アバターを含む視聴者アバター視点映像を生成する(ステップS303)。 In this way, by reflecting the changes made in step S302, a viewer avatar viewpoint image is generated that includes a viewer avatar performing synchronized chemilighting actions based on the BPM information (step S303).

これら視聴者視点映像生成処理1にて生成された、各視聴者アバターのケミライト動作が同調している視聴者アバター視点映像は、視聴者視点映像出力処理によって各視聴者端末300において出力(表示)される。 The viewer avatar perspective images, in which the chemilight actions of each viewer avatar are synchronized, generated by viewer perspective image generation process 1 are output (displayed) on each viewer terminal 300 by viewer perspective image output process.

尚、BPM情報の配信期間中であっても、視聴者アバターの動作の停止期間である場合には、そもそも、振り始めタイミング前の期間であって視聴者アバターの動作が停止されることによって視聴者アバターがBPM情報の反映対象であるケミライト動作を行っていないので、視聴者視点映像は、動作を停止している視聴者アバターを含む視聴者アバター視点映像が生成されて表示されることになる。 Note that even if BPM information is being distributed, if the viewer avatar is not moving during this period, the viewer avatar's movement is stopped before the swing start timing, and the viewer avatar is not performing the chemilight movement that is the subject of the BPM information, so the viewer's viewpoint image will be generated and displayed as a viewer's avatar viewpoint image that includes the viewer avatar that is not moving.

一方、BPM情報の送信期間中でない場合には、ケミライト動作情報、デフォルト振り速度情報を演者端末200並びに各視聴者端末300に対して配信(送信)する。このようにして配信されたケミライト動作情報、デフォルト振り速度情報は、演者端末200並びに各視聴者端末300において更新記憶される。 On the other hand, when it is not the period for transmitting BPM information, the chemilight action information and default swing speed information are distributed (transmitted) to the performer terminal 200 and each viewer terminal 300. The chemilight action information and default swing speed information distributed in this manner are updated and stored in the performer terminal 200 and each viewer terminal 300.

尚、デフォルト振り速度情報は、参加者ユーザーテーブルにおけるデフォルト振り速度のデータにもとづく情報であって、ケミライト動作を実行している各視聴者アバターについてデフォルト速度を特定可能なデータが含まれていることで、該デフォルト振り速度情報を受信した各視聴者端末300において、ケミライト動作を実行している全ての視聴者アバターについて、各々の視聴者アバターがケミライト動作においてケミライトKを振る速度(速度1~速度5)を特定できるようになっている。 The default swing speed information is based on the default swing speed data in the participant user table and includes data that can identify the default speed for each viewer avatar performing the chemi-lighting action. This allows each viewer terminal 300 that receives the default swing speed information to identify the speed (speed 1 to speed 5) at which each viewer avatar swings the chemi-light K in the chemi-lighting action for all viewer avatars performing the chemi-lighting action.

また、デフォルト振り速度は、例えば各MC期間において視聴者ユーザーによって変更される場合があるが、これらの変更は、デフォルト振り速度情報が逐次配信されることによって他の視聴者ユーザーの視聴者端末において更新される。 In addition, the default swing speed may be changed by a viewer user during each MC period, for example, and these changes are updated on the viewer terminals of other viewer users by sequentially distributing the default swing speed information.

次いで、配信用サーバコンピュータ100においては、実施例1と同様に、仮想空間更新データ生成処理並びに仮想空間更新データ配信処理が実行されることで、仮想空間更新データが、演者端末200並びに各視聴者端末300に対して配信(送信)される。 Next, in the distribution server computer 100, the virtual space update data generation process and the virtual space update data distribution process are executed in the same manner as in Example 1, and the virtual space update data is distributed (transmitted) to the performer terminal 200 and each viewer terminal 300.

このようにして配信(送信)された仮想空間更新データの受信に応じて各視聴者端末300においては、仮想空間更新処理が実行されることで、受信した仮想空間更新データの更新内容が各視聴者端末300において記憶されている仮想空間データに反映された後、図39(B)に示す視聴者視点映像生成処理2が実行される。 In response to receiving the virtual space update data distributed (transmitted) in this manner, each viewer terminal 300 executes a virtual space update process, and the update contents of the received virtual space update data are reflected in the virtual space data stored in each viewer terminal 300, after which viewer viewpoint video generation process 2 shown in FIG. 39 (B) is executed.

図39(B)は、実施例3の視聴者端末300において実行される視聴者視点映像生成処理2の処理内容を示すフロー図であり、この視聴者視点映像生成処理2においては、まず、更新後の仮想空間データにもとづいて通常の視聴者視点映像を生成する処理を行う(ステップS400)。 Figure 39 (B) is a flow diagram showing the process of viewer's viewpoint video generation process 2 executed in the viewer terminal 300 of Example 3. In this viewer's viewpoint video generation process 2, first, a process of generating a normal viewer's viewpoint video based on the updated virtual space data is performed (step S400).

次ぎに、配信用サーバコンピュータ100から受信して更新記憶したケミライト動作情報とデフォルト振り速度情報とにもとづいて、ケミライト動作を実行中の視聴者アバターとそのデフォルト振り速度を全て特定する(ステップS401)。 Next, based on the chemi-lighting action information and default swing speed information received and updated from the distribution server computer 100, all viewer avatars performing chemi-lighting actions and their default swing speeds are identified (step S401).

そして、ステップS401において特定したデフォルト振り速度にもとづいた動作態様を、ケミライト動作を実行中の各視聴者アバターのケミライト動作に反映する(ステップS402)。 Then, the motion mode based on the default swing speed identified in step S401 is reflected in the chemi-lighting motion of each viewer avatar currently performing the chemi-lighting motion (step S402).

このようにステップS402における反映によって、デフォルト振り速度情報により特定される各視聴者ユーザーによって固有に選択された振り速度によってケミライトKが振られる非同調のケミライト動作を行っている視聴者アバターを含む視聴者アバター視点映像を生成する(ステップS403)。 In this way, by reflecting the reflection in step S402, a viewer avatar viewpoint image is generated that includes a viewer avatar performing an asynchronous chemilighting action in which the chemilight K is swung at a swing speed uniquely selected by each viewer user as specified by the default swing speed information (step S403).

これら視聴者視点映像生成処理2にて生成された、各視聴者アバターのケミライト動作が同調していない視聴者アバター視点映像は、視聴者視点映像出力処理によって各視聴者端末300において出力(表示)される。 These viewer avatar perspective images, in which the chemilight actions of each viewer avatar are not synchronized, generated by viewer perspective image generation process 2 are output (displayed) on each viewer terminal 300 by viewer perspective image output process.

以上、実施例3の仮想空間コンテンツ配信システムでは、視聴者アバターは、コンテンツ関連動作であるケミライト動作を実行可能であり、複数の視聴者アバターがケミライト動作を実行するときに、各視聴者アバターのケミライト動作のタイミングを同調させるためのコンテンツ関連動作調整手段となる、配信用サーバコンピュータ100がケミライト動作情報、BPM情報、遅延動作情報を配信する処理や、視聴者端末300が、これらケミライト動作情報、BPM情報、遅延動作情報を受信して更新記憶して、該記憶した情報にもとづいて視聴者視点映像生成処理1を実行することにより、各視聴者アバターによるケミライト動作が同調するようになるので、仮想空間に参加している個々の視聴者ユーザーの興趣を高めることができる。 As described above, in the virtual space content distribution system of Example 3, the viewer avatar can perform a chemilight action, which is a content-related action, and when multiple viewer avatars perform chemilight actions, the distribution server computer 100, which serves as a content-related action adjustment means for synchronizing the timing of the chemilight actions of each viewer avatar, distributes chemilight action information, BPM information, and delay action information, and the viewer terminal 300 receives and updates and stores this chemilight action information, BPM information, and delay action information, and executes viewer viewpoint video generation process 1 based on the stored information, so that the chemilight actions of each viewer avatar are synchronized, thereby increasing the interest of each viewer user participating in the virtual space.

また、実施例3の仮想空間コンテンツ配信システムでは、ケミライト動作を実行する複数の視聴者アバターのうちの一部の視聴者アバターの動作タイミングを、同調させた同調タイミングから0.2秒の範囲内において異なっている非同調タイミングとなる「遅延A」や「遅延B」の動作態様に調整することが可能であるので、仮想ライブ空間でのケミライト動作の現実性が向上して、視聴者ユーザーの興趣をより一層高めることができる。 In addition, in the virtual space content distribution system of Example 3, it is possible to adjust the operation timing of some of the viewer avatars among multiple viewer avatars performing chemilight operations to "delay A" or "delay B" operation modes, which are non-synchronized timings that differ within a range of 0.2 seconds from the synchronized synchronization timing, thereby improving the realism of the chemilight operations in the virtual live space and further increasing the interest of the viewer user.

また、実施例3の仮想空間コンテンツ配信システムでは、実施例1と同様に、視聴者端末300において、同調したケミライト動作を行う視聴者アバターの映像を含む視聴者アバター視点映像を生成して表示することができるので、より多くの視聴者ユーザーを仮想ライブに参加させることができるとともに、このような視聴者ユーザーをより多く参加させた場合にあっても、仮想ライブ空間に参加している個々の視聴者ユーザーの興趣を高めることができる。 Furthermore, in the virtual space content distribution system of Example 3, as in Example 1, a viewer avatar viewpoint image including an image of a viewer avatar performing synchronized chemilight actions can be generated and displayed on the viewer terminal 300, so that more viewer users can participate in the virtual live event, and even when more such viewer users participate, the interest of each viewer user participating in the virtual live space can be increased.

また、実施例3の仮想空間コンテンツ配信システムでは、仮想空間コンテンツとして仮想ライブ空間に仮想参加可能な演者アバターにより上演される楽曲の歌唱やダンス等の上演コンテンツを含み、ケミライト動作を同調させるための情報であるBPM情報は、上演コンテンツである楽曲のテンポに対応した情報であるので、演者アバターにより上演される楽曲にケミライト動作を同調させることができるので、仮想空間コンテンツの興趣をより一層向上できる。 In addition, in the virtual space content distribution system of Example 3, the virtual space content includes performance content such as singing and dancing to music performed by performer avatars who can virtually participate in the virtual live space, and the BPM information, which is information for synchronizing the chemilight movements, is information corresponding to the tempo of the music, which is the performance content, so that the chemilight movements can be synchronized to the music performed by the performer avatars, thereby further increasing the interest of the virtual space content.

また、実施例3の仮想空間コンテンツ配信システムでは、配信用サーバコンピュータ100から、動作同調情報として楽曲のテンポに対応したBPM情報と、ケミライト動作の開始時期を特定可能な開始情報となる振り始め情報とを含むので、ケミライト動作を楽曲のテンポに対応させることができる。 In addition, in the virtual space content distribution system of Example 3, the distribution server computer 100 includes, as the action synchronization information, BPM information corresponding to the tempo of the music, and swing start information that serves as start information that can identify the start time of the chemi-light action, so that the chemi-light action can be made to correspond to the tempo of the music.

また、実施例3の仮想空間コンテンツ配信システムでは、図35に示すように、第1上演コンテンツである第1演目の楽曲が進行しているときには、第1演目の楽曲のテンポ(BPM)に対応した第1演目対応BPM情報が配信用サーバコンピュータ100から配信され、第2上演コンテンツである第2演目の楽曲が進行しているときには、第2演目の楽曲のテンポ(BPM)に対応した第2演目対応BPM情報が配信用サーバコンピュータ100から配信されるので、上演コンテンツである楽曲のテンポの違いに対応した異なる振り早さのケミライト動作を行うことができる。 In addition, in the virtual space content distribution system of Example 3, as shown in FIG. 35, when the music of the first performance, which is the first performance content, is progressing, first performance-specific BPM information corresponding to the tempo (BPM) of the music of the first performance is distributed from the distribution server computer 100, and when the music of the second performance, which is the second performance content, is progressing, second performance-specific BPM information corresponding to the tempo (BPM) of the music of the second performance is distributed from the distribution server computer 100, so that chemilight movements with different swing speeds corresponding to differences in the tempo of the music of the performance contents can be performed.

また、実施例3の仮想空間コンテンツ配信システムでは、BPM情報や振り始め情報が、各演目期間において楽曲が開始される所定期間前に配信用サーバコンピュータ100から事前に配信されるので、楽曲の開始時において、ケミライト動作が同調しない状態が発生してしまうことを防ぐことができる。 In addition, in the virtual space content distribution system of Example 3, BPM information and start of dance information are distributed in advance from the distribution server computer 100 a predetermined period before the start of a song during each performance period, so that it is possible to prevent the chemilight operation from becoming out of sync at the start of a song.

また、実施例3の仮想空間コンテンツ配信システムでは、視聴者端末300は、楽曲が開始される前に送信されるBPM情報については、視聴者アバターのケミライト動作に反映しないので、楽曲開始前のケミライト動作が不自然となってしまうことによる仮想空間コンテンツの興趣低下を防ぐことができる。 In addition, in the virtual space content distribution system of Example 3, the viewer terminal 300 does not reflect the BPM information transmitted before the start of the music in the chemi-lighting movements of the viewer avatar, so that it is possible to prevent a decrease in interest in the virtual space content due to unnatural chemi-lighting movements before the start of the music.

また、実施例3の仮想空間コンテンツ配信システムでは、ケミライト動作を行っている視聴者アバターのうち、20%の割合の視聴者アバターについては、ケミライト動作の開始タイミングを、BPM基準タイミングから0.1秒だけ遅れた第1非同調タイミングとする「遅延A」のグループに決定可能であるとともに、10%の割合の視聴者アバターについては、ケミライト動作の開始タイミングを、BPM基準タイミングから0.2秒だけ遅れた第2非同調タイミングとする「遅延B」のグループに決定可能であり、このように、遅延の態様が複数となることで、より一層、ケミライト動作の現実性を向上できる。 Furthermore, in the virtual space content delivery system of Example 3, of the viewer avatars performing the chemilighting action, 20% of the viewer avatars can be determined to be in the "Delay A" group, in which the start timing of the chemilighting action is the first non-synchronized timing delayed by 0.1 seconds from the BPM reference timing, and 10% of the viewer avatars can be determined to be in the "Delay B" group, in which the start timing of the chemilighting action is the second non-synchronized timing delayed by 0.2 seconds from the BPM reference timing. In this way, by providing multiple delay modes, the realism of the chemilighting action can be further improved.

また、実施例3の仮想空間コンテンツ配信システムでは、仮想空間コンテンツである仮想ライブの主コンテンツ(第1コンテンツ)である歌唱とダンスとを伴う楽曲が上演される上演コンテンツと、上演コンテンツとは異なる非上演コンテンツであるMC(トーク)のコンテンツとを含み、視聴者アバターは、上演コンテンツが配信されている各演目期間においては上演コンテンツにおいて上演される楽曲に対応したケミライト動作を実行可能である一方、MC(トーク)が配信されているMC期間においては、MC期間におけるトークに対応しない移動動作を実行可能であり、このようにすることで、視聴者アバターによる動作が、上演コンテンツの配信時においては楽曲に同調したケミライト動作に調整される一方、各MC期間におけるトークのコンテンツの配信時においてはトークに対応しない移動動作が可能とされるので、仮想ライブ空間に参加している個々の視聴者ユーザーの興趣を高めることができる。 In addition, the virtual space content distribution system of Example 3 includes performance content in which a song accompanied by singing and dancing is performed as the main content (first content) of the virtual live, which is the virtual space content, and MC (talk) content, which is non-performance content different from the performance content, and the viewer avatar can perform chemi-lighting actions corresponding to the song performed in the performance content during each performance period in which the performance content is distributed, while during the MC period in which the MC (talk) is distributed, the viewer avatar can perform movement actions that do not correspond to the talk during the MC period. In this way, the actions of the viewer avatar are adjusted to chemi-lighting actions in sync with the song when the performance content is distributed, while movement actions that do not correspond to the talk are possible when the talk content is distributed during each MC period, thereby increasing the interest of each viewer user participating in the virtual live space.

また、実施例3の仮想空間コンテンツ配信システムでは、主コンテンツ(第1コンテンツ)が、仮想ライブ空間に仮想参加可能な演者アバター1により上演される上演コンテンツであって、演者アバター1により上演される楽曲の歌唱やダンスが含まれているので、視聴者アバターのケミライト動作が上演コンテンツである楽曲やダンスに対応した動作に調整されるので、仮想空間コンテンツの興趣をより一層向上できる。 In addition, in the virtual space content distribution system of Example 3, the main content (first content) is performance content performed by performer avatar 1 who can virtually participate in the virtual live space, and includes singing and dancing to a song performed by performer avatar 1, so the chemilight movements of the viewer avatar are adjusted to movements corresponding to the song and dance that are the performance content, thereby further increasing the interest of the virtual space content.

また、実施例3の仮想空間コンテンツ配信システムでは、MC(トーク)が配信されている各MC期間において配信されるコンテンツは、演者アバター1によって楽曲が上演される上演コンテンツを含まれていないので、上演コンテンツに対応しない移動動作が上演コンテンツの配信中である演目期間中に実行されてしまうことを適切に防ぐことができる。 In addition, in the virtual space content distribution system of Example 3, the content distributed during each MC period when MC (talk) is distributed does not include performance content in which a musical piece is performed by performer avatar 1, so it is possible to appropriately prevent movement actions that do not correspond to the performance content from being performed during the performance period when the performance content is being distributed.

また、実施例3の仮想空間コンテンツ配信システムでは、上演コンテンツは、第1期間となる第1演目期間において配信される楽曲ID「GK-XXXX」の楽曲(第1期間コンテンツ)と、第1期間とは異なる第2期間となる第2演目期間において配信される楽曲ID「GK-YYYY」の楽曲(第2期間コンテンツ)と、を含み、視聴者アバターのケミライト動作を同調させるための動作情報となるBPM情報としては、第1期間においては第1演目対応BPM情報が送信され、第2期間においては、第1演目対応BPM情報とは異なるテンポを特定可能な第2演目対応BPM情報が送信されるので、異なる期間に配信される各上演コンテンツである楽曲のテンポの違いに対応したケミライト動作に調整することができる。 In addition, in the virtual space content distribution system of Example 3, the performance content includes a song with a song ID of "GK-XXXX" (first period content) that is distributed during a first performance period that is a first period, and a song with a song ID of "GK-YYYY" (second period content) that is distributed during a second performance period that is a second period different from the first period, and as BPM information that serves as the operation information for synchronizing the chemi-light operation of the viewer avatar, BPM information corresponding to the first performance is transmitted during the first period, and BPM information corresponding to the second performance that can specify a tempo different from the BPM information corresponding to the first performance is transmitted during the second period, so that the chemi-light operation can be adjusted to correspond to the difference in tempo of the songs that are the performance contents distributed during different periods.

また、実施例3の仮想空間コンテンツ配信システムは、仮想空間コンテンツとして、仮想ライブ空間に仮想参加する演者アバター1が楽曲を上演することで主コンテンツとなる上演コンテンツ(第1コンテンツと)と、演者アバター1が楽曲を上演せずにMC(トーク)を行うことで主コンテンツとならない非上演コンテンツ(第2コンテンツ)とを含み、上演コンテンツが配信されている各演目期間において視聴者アバターの動作のうち所定動作である移動を制限する一方、非上演コンテンツ(MC)が配信されている各MC期間においては移動を制限しない動作制限機能を備えているので、上演コンテンツが配信されている期間においては視聴者アバターの移動が制限されるので、これら移動によって上演コンテンツの興趣が低下してしまうことを防ぐことができる。一方、非上演コンテンツであるMC(トーク)が配信されている各MC期間においては、移動が制限されないので、視聴者アバターの動作が過度に制限されてしまうことも防ぐことができる。 The virtual space content distribution system of Example 3 includes, as virtual space content, performance content (first content) that becomes the main content when performer avatar 1, who virtually participates in the virtual live space, performs a musical piece, and non-performance content (second content) that does not become the main content when performer avatar 1 does MC (talk) without performing a musical piece, and is equipped with a motion restriction function that restricts movement, which is a predetermined motion among the movements of the viewer avatar, during each performance period when the performance content is distributed, but does not restrict movement during each MC period when the non-performance content (MC) is distributed. Therefore, since the movement of the viewer avatar is restricted during the period when the performance content is distributed, it is possible to prevent the interest of the performance content from being reduced by these movements. On the other hand, since movement is not restricted during each MC period when the non-performance content, MC (talk), is distributed, it is also possible to prevent the movement of the viewer avatar from being excessively restricted.

また、実施例3の仮想空間コンテンツ配信システムでは、上演コンテンツが配信されている各演目期間と、上演コンテンツが配信されていない各MC期間においても、図40、図41に示すように、視聴者アバターの特定動作となるケミライト動作に対応した操作である「ケミライト」の項目を選択する操作が可能とされており、該操作が実行されたときには、各演目期間においては同調したケミライト動作が制限(禁止)されることなく可能とされ、各MC期間においては非同調のケミライト動作が制限(禁止)されることなく可能とされており、このようにすることで、視聴者ユーザーは、上演コンテンツの配信期間である各演目期間と、非上演コンテンツの配信期間である各MC期間のいずれにおいても、特定操作となる「ケミライト」の項目を選択する操作によって視聴者アバターにケミライト動作を行わせることができる。 In addition, in the virtual space content distribution system of Example 3, as shown in Figures 40 and 41, during each performance period when performance content is being distributed and during each MC period when performance content is not being distributed, an operation of selecting the "Chemilite" item, which is an operation corresponding to the chemilite action that is a specific action of the viewer avatar, is possible, and when this operation is executed, synchronized chemilite actions are possible without restriction (prohibition) during each performance period, and non-synchronized chemilite actions are possible without restriction (prohibition) during each MC period. In this way, a viewer user can have the viewer avatar perform a chemilite action by selecting the "Chemilite" item, which is a specific operation, during both each performance period when performance content is being distributed and each MC period when non-performance content is being distributed.

また、実施例3の仮想空間コンテンツ配信システムでは、上演コンテンツが配信される各演目期間が開始される前の所定期間、つまり、振り始め情報が送信されてから各演目期間が開始されるまでの所定期間についても、演目期間とみなして該演目期間と同様に、移動を含む視聴者アバターの動作を全て制限(禁止)しており、このようにすることで、視聴者アバターの移動等の動作が、演目期間が開始される前の所定期間においても制限(禁止)されるので、これら移動等の動作が、演目期間が開始される時点まで行われることによって上演コンテンツの興趣が低下してしまうことをより的確に防ぐことができる。 In addition, in the virtual space content distribution system of Example 3, the predetermined period before the start of each performance period during which performance content is distributed, that is, the predetermined period from when the start of swing information is transmitted until the start of each performance period, is also considered to be a performance period, and all actions of the viewer avatar, including movement, are restricted (prohibited) in the same way as for the performance period. In this way, movements such as movement of the viewer avatar are restricted (prohibited) even during the predetermined period before the performance period begins, so that it is possible to more accurately prevent a decrease in interest in the performance content due to these movements and other actions being performed up until the start of the performance period.

尚、上記した実施例3では、演目期間が開始される前の所定期間においては、移動以外の視聴者アバターの動作を全て制限(禁止)した形態を例示しているが、これら制限(禁止)する動作を移動だけとしてもよい。 Note that in the above-mentioned Example 3, an example is given in which all actions of the viewer avatar other than movement are restricted (prohibited) during a specified period before the start of the performance period, but the only action that is restricted (prohibited) may be movement.

また、実施例3の仮想空間コンテンツ配信システムでは、上演コンテンツが配信される各演目期間においては、上演コンテンツである楽曲のテンポに対応したケミライト動作が可能とされているので、仮想ライブ空間に参加している視聴者ユーザーの興趣を高めることができる。 In addition, in the virtual space content distribution system of Example 3, during each performance period in which the performance content is distributed, chemical light operation corresponding to the tempo of the musical piece that is the performance content is possible, thereby increasing the interest of the viewer users participating in the virtual live space.

<実施例3の変形例>
上記実施例3では、実施例1,2と同じく、視聴者アバターは、仮想参加している第3領域内または第4領域内を自由に移動できる形態を例示したが、このようにすると、例えば、第4領域に参加している異なる視聴者アバター同志が仮想衝突したり同一仮想位置に重複することによって仮想空間データにエラー等が生じてしまう等の問題が生じる可能性がある。
<Modification of the third embodiment>
In the above Example 3, as in Examples 1 and 2, an example was given of a form in which a viewer avatar can move freely within the third or fourth area in which they are virtually participating. However, doing so may give rise to problems such as errors in the virtual space data due to, for example, different viewer avatars participating in the fourth area colliding virtually with each other or overlapping in the same virtual position.

このような問題を解消するために、例えば、図42、図43、図44に示す変形例3-1に示すようにしてもよい。具体的には、第3領域や第4領域を図42に示すように細かな領域に区切るとともに、これらの領域のうちのどの領域にて仮想ライブに仮想参加するのかを、図42に示すように、仮想ライブの事前参加受付け時(仮想参加予約時)や仮想ライブの仮想参加時等において視聴者ユーザーから受付けて、視聴者ユーザーが視聴者アバターで仮想参加する場合には、事前に選択した領域においてだけ参加が可能となるともに、該選択した領域内だけで移動できるように制限(禁止)することで、視聴者アバター同志が仮想衝突したり同一仮想位置に重複することによって仮想空間データにエラー等が生じてしまうことを防ぎつつ、視聴者アバターの移動が過度に制限されてしまうことも防ぐことができる。 To solve such problems, for example, a modification 3-1 shown in Figures 42, 43, and 44 may be used. Specifically, the third and fourth areas are divided into smaller areas as shown in Figure 42, and the viewer user is asked which of these areas they will virtually participate in the virtual live show in when pre-participation in the virtual live show (when reserving virtual participation) or when virtually participating in the virtual live show, as shown in Figure 42. When the viewer user virtually participates with a viewer avatar, they can only participate in the area selected in advance, and movement is restricted (prohibited) to only within the selected area. This prevents viewer avatars from colliding with each other virtually or overlapping in the same virtual position, which could cause errors in the virtual space data, while also preventing the movement of the viewer avatar from being overly restricted.

これら移動の制限(禁止)としては、具体的には、例えば、図43の「H5」の領域を仮想参加位置として選択した視聴者ユーザーの場合には、図44に示すように、「H5」の周囲の領域である「G4~G6」や「H4」、「H6」、「I4~I6」の各領域への移動する操作を行った場合に、視聴者端末300において該移動が移動禁止領域への移動と判定されることで、例えば、図44(B)に示すように、「移動可能範囲を超えているため指示位置へは移動できません。」の警告表示が、視聴者端末300において表示されることによって該移動が制限(禁止)される一方、「H5」の領域内における移動に関しては、該警告表示が表示されずに移動が許可されることで、視聴者ユーザーは、仮想参加した「H5」の領域内において視聴者アバターを移動できるようにすればよい。 Specific examples of the restriction (prohibition) of these movements include, for example, in the case of a viewer user who has selected the "H5" area in FIG. 43 as the virtual participation position, when the viewer user performs an operation to move to any of the areas surrounding "H5", such as "G4-G6", "H4", "H6", or "I4-I6", as shown in FIG. 44, the movement is determined by the viewer terminal 300 to be a movement to a prohibited movement area, and the movement is restricted (prohibited) by displaying a warning message on the viewer terminal 300, such as "You cannot move to the specified position because you are outside the movable range", as shown in FIG. 44(B). On the other hand, movement within the "H5" area is permitted without displaying the warning message, allowing the viewer user to move the viewer avatar within the "H5" area where he or she has virtually participated.

尚、これら移動を禁止する範囲については、上記した仮想参加した範囲に限定されるものではなく、例えば、仮想ライブに複数の人数のグループで仮想参加していて、仮想参加している位置が隣接しているような状況については、グループであることを示す情報にもとづいて、これらグループで参加している視聴者アバターが仮想参加している範囲については、移動可能範囲とするようにしてもよい。 The range in which movement is prohibited is not limited to the range of virtual participation described above. For example, in a situation where a group of multiple people is virtually participating in a virtual live show and the locations of the virtual participants are adjacent to each other, the range in which the viewer avatars participating in this group are virtually participating may be set as a movable range based on information indicating that they are a group.

また、上記した変形例3-1は、実施例3の変形例として記載しているが、実施例3だけではなく、実施例1、2にも適用可能である。 Moreover, although the above-mentioned modified example 3-1 is described as a modified example of the third embodiment, it is applicable not only to the third embodiment but also to the first and second embodiments.

また、上記した実施例3では、振り始め情報の送信タイミングから演目開始タイミングまでの所定期間を視聴者アバター動作停止期間Tとして視聴者アバターの動作を禁止した形態を例示しているが、本発明はこれに限定されるものではなく、例えば、図45に示す変形例3-2に示すように、これら振り始め情報の送信タイミングから演目開始タイミングまでの所定期間において、非同調のケミライト動作を実行している視聴者アバターについて、振り始め情報の送信タイミングの時点の動作状態を、同調したケミライト動作の開始時の動作状態に移行させる調整動作を実行させる調整動作期間としてもよい。 In addition, in the above-mentioned Example 3, a predetermined period from the timing of sending the start swing information to the timing of the start of the performance is set as a viewer avatar operation suspension period T in which the movement of the viewer avatar is prohibited, but the present invention is not limited to this. For example, as shown in variant example 3-2 in FIG. 45, during the predetermined period from the timing of sending the start swing information to the timing of the start of the performance, an adjustment operation period may be set in which an adjustment operation is performed for a viewer avatar performing a non-synchronized chemi-lighting action, to transition the action state at the time of sending the start swing information to the action state at the start of a synchronized chemi-lighting action.

尚、これら調整動作については、振り始め情報の送信タイミングの時点の視聴者アバターの姿勢と、ケミライト動作の開始時の姿勢とを比較して、その姿勢差を補う動作を、例えば公知のモーションモーフィングプログラム等を使用して生成することができる。
また、上記変形例3-2では、同調のケミライト動作が開始される演目開始タイミングを例に説明したが、これら調整動作期間を同調のケミライト動作が終了する演目終了タイミングにおいて実施するようにしてもよい。つまり、同調のケミライト動作が終了するときの視聴者アバターの姿勢と、非同調のケミライト動作を開始するときの視聴者アバターの姿勢との姿勢差を補う調整動作を、調整動作期間を設けて実行するようにしてもよい。
Furthermore, for these adjustment actions, the posture of the viewer avatar at the time the swing start information is sent can be compared with the posture at the start of the chemilight action, and actions that compensate for the posture difference can be generated using, for example, a known motion morphing program.
In addition, in the above modification 3-2, the timing at which the synchronized chemi-lighting action starts is used as an example for explanation, but these adjustment action periods may be performed at the timing at which the synchronized chemi-lighting action ends. In other words, an adjustment action that compensates for the difference in posture between the viewer avatar's posture when the synchronized chemi-lighting action ends and the viewer avatar's posture when the non-synchronized chemi-lighting action starts may be performed by setting an adjustment action period.

つまり、変形例3-2に示すように、同調したケミライト動作を開始または終了するときに、開始前の視聴者アバターの姿勢と同調したケミライト動作の開始時の姿勢との差、同調したケミライト動作の終了時の姿勢と終了後の視聴者アバターの姿勢との差、を調整するための調整動作を生成することで、視聴者アバターの動作が連続しない動作となって不自然となってしまうことを防ぐことができる。 In other words, as shown in variant example 3-2, when starting or ending a synchronized chemi-lighting action, an adjustment action is generated to adjust the difference between the viewer avatar's posture before the action begins and the posture at the start of the synchronized chemi-lighting action, and the difference between the posture at the end of the synchronized chemi-lighting action and the posture of the viewer avatar after the action ends, thereby preventing the viewer avatar's movements from becoming discontinuous and unnatural.

また、上記実施例3では、図31に示すように、各MC期間を演目期間に含めない形態としているが、本発明はこれに限定されるものではなく、図46の変形例3-3に示すように、これらMC(トーク)についても、演者ユーザーによっては演目に含めるようにしてもよく、この場合には、これらMCの期間においても、演目期間として移動等の動作を禁止するようにしてもよい。尚、このようにMC(トーク)を演者の演目に含める場合にあっては、これらMC(トーク)の期間も演目期間に含まれることから、楽曲の場合と同様にBPM情報としてMC(トーク)に対応したMC用BPM情報が送信されることで、ケミライト動作がMC(トーク)に対応したテンポの動作に調整されることになる。 In addition, in the above Example 3, as shown in FIG. 31, each MC period is not included in the program period, but the present invention is not limited to this. As shown in Variation 3-3 in FIG. 46, depending on the performer user, these MC (talk) periods may also be included in the program, in which case movements and other actions may be prohibited during these MC periods as part of the program period. Note that when MC (talk) is included in the performer's program in this way, these MC (talk) periods are also included in the program period, and thus MC BPM information corresponding to the MC (talk) is sent as BPM information, just as in the case of music, and the chemilight action is adjusted to an action with a tempo corresponding to the MC (talk).

つまり、仮想空間コンテンツに含まれる第1コンテンツに、演者アバター1による喋り(トーク)のコンテンツが含まれることになるので、視聴者アバターのケミライト動作を喋り(トーク)に対応した動作に調整することができる。 In other words, the first content included in the virtual space content includes content of the performer avatar 1 speaking (talking), so the chemilight action of the viewer avatar can be adjusted to an action corresponding to the speaking (talking).

尚、上記の変形例3-3のようにMC(トーク)を演者の演目に含める場合には、視聴者アバターの移動等の動作が常に禁止されてしまうことから、例えば、図46に示すように、ライブ開始前において視聴者が仮想参加してから仮想ライブが開始されるまでの待機期間や、MC期間のうちの特定のMC期間や、仮想ライブ中において演者が休息するための休息期間等において、過去の仮想ライブ等のアーカイブ動画コンテンツ等が、仮想ディスプレイ40、41、42に表示される期間を演目期間に含まれない期間として移動等の動作が可能とされるようにすればよく、この場合には、演者のMC(トーク)のコンテンツも、歌唱やダンスとともに上演コンテンツに含まれ、アーカイブ動画コンテンツ等、仮想ディスプレイ40、41、42に表示されるコンテンツ等が非上演コンテンツとなる。 When an MC (talk) is included in the performer's repertoire as in variant example 3-3 above, movement of the viewer avatar and other actions are always prohibited. Therefore, for example, as shown in FIG. 46, during the waiting period from when the viewer virtually joins before the start of the live performance until the virtual live performance begins, during a specific MC period within the MC period, or during a rest period for the performers to rest during the virtual live performance, the period during which archived video content of past virtual live performances and the like is displayed on virtual displays 40, 41, and 42 is set as a period not included in the repertoire period, and movement and other actions are permitted. In this case, the performer's MC (talk) content is included in the performance content along with singing and dancing, and archived video content and other content displayed on virtual displays 40, 41, and 42 are non-performance content.

また、上記実施例3では、各演目期間において視聴者アバターが制限(禁止)される動作として移動を例示しているが、本発明はこれに限定されるものではなく、これら移動だけはなく、図47の変形例3-4に示すように、ジャンプ(跳躍)や、他の視聴者アバターに作用する動作となる他の視聴者アバターとのハイタッチの動作を各演目期間において制限(禁止)するようにしてもよい。 In addition, in the above Example 3, movement is given as an example of an action that is restricted (prohibited) by the viewer avatar during each performance period, but the present invention is not limited to this, and in addition to these movements, as shown in Variation 3-4 of FIG. 47, jumping (jumping) and high-fiving with other viewer avatars, which are actions that affect other viewer avatars, may also be restricted (prohibited) during each performance period.

つまり、上演コンテンツが配信される期間である各演目期間において制限(禁止)される視聴者アバターの動作には、仮想ライブ空間内に仮想参加している他の視聴者アバターに対して作用を及ぼす動作やジャンプ(跳躍)が含まれ、このようにすることで、他の視聴者アバターに対して作用を及ぼす動作やジャンプ(跳躍)によって上演コンテンツの興趣が低下してしまうことを防ぐことができる。尚、作用を及ぼす対象は、視聴者アバター以外に演者アバターが含まれていてもよい。 In other words, the actions of viewer avatars that are restricted (prohibited) during each performance period, which is the period during which performance content is distributed, include actions and jumps that affect other viewer avatars virtually participating in the virtual live space, thereby preventing the performance content from losing interest due to actions and jumps that affect other viewer avatars. Note that the targets of the actions may include performer avatars in addition to viewer avatars.

尚、これら演目中において制限(禁止)される視聴者アバターの動作としては、図47に示す動作に限らず、各演目期間おいて視聴者アバターに違和感を与えると考えられる動作を含めるようにすればよい。 The actions of the viewer avatar that are restricted (prohibited) during these performances are not limited to those shown in FIG. 47, but may include any action that is considered to cause discomfort to the viewer avatar during each performance period.

同様に、上記実施例3では、各演目期間において視聴者アバターが実行可能なコンテンツ関連動作を、ケミライトKを左右に振るケミライト動作である1の動作のみとした形態を例示しているが、本発明はこれに限定されるものではなく、例えば、これらの動作が複数の動作、例えば、図47に示すように、ケミライトKを左右に振るケミライト動作に加えて、ケミライトKを前後に振るケミライト動作や、視聴者アバターが上方に挙げた両手を左右に揺らすウエーブ動作を含むようにして、これら3つの各コンテンツ関連動作を各コンテンツ関連動作が対応する演目において実行できるようにしてもよい。 Similarly, in the above Example 3, an example is given of a form in which the content-related action that the viewer avatar can perform during each performance period is only one action, which is the chemilight action of waving the chemilight K from side to side, but the present invention is not limited to this, and for example, these actions may include multiple actions, such as, as shown in FIG. 47, in addition to the chemilight action of waving the chemilight K from side to side, a chemilight action of waving the chemilight K back and forth and a wave action in which the viewer avatar swings both hands raised above from side to side, so that each of these three content-related actions can be performed in the performance to which each content-related action corresponds.

これら演目中に実行可能とされるコンテンツ関連動作は、図47に示す3つの動作に限らず、各演目期間おいて全視聴者アバターに違和感を与えることがない動作として事前に許容されている動作であれば、コンテンツ関連動作に加えることができる。 The content-related actions that can be performed during these performances are not limited to the three actions shown in FIG. 47. Any action that is pre-approved as an action that does not cause discomfort to all viewer avatars during each performance period can be added to the content-related actions.

尚、ケミライトKを前後に振るケミライト動作やウエーブ動作についても、ケミライトKを左右に振るケミライト動作と同様に、BPM情報と振り始め情報とにもとづいて、これらの動作を行う複数の視聴者アバター同士が、上演される楽曲に対応したテンポにて同調した動作を行うことができる。 As for the chemilight action of waving the chemilight K back and forth and the wave action, similar to the chemilight action of waving the chemilight K left and right, multiple viewer avatars performing these actions can synchronize their movements at a tempo that corresponds to the music being performed based on the BPM information and the start of the movement information.

つまり、ケミライト動作は、左右に振る動作と、前後に振る動作との動作態様が異なる複数のケミライト動作を含み、変形例3-4の仮想空間コンテンツ配信システムは、いずれのケミライト動作についても、複数の視聴者アバターのケミライト動作を同調させることが可能である。このように、ケミライト動作が複数の動作態様となるとともに、これら複数の動作態様のケミライト動作について同調させることが可能となるので、仮想ライブ空間に参加している個々の視聴者ユーザーの興趣を、より一層高めることができる。 In other words, the chemilight action includes multiple chemilight actions with different action patterns, such as shaking left and right and shaking back and forth, and the virtual space content distribution system of variant example 3-4 is capable of synchronizing the chemilight actions of multiple viewer avatars for any of the chemilight actions. In this way, the chemilight action has multiple action patterns, and it is possible to synchronize the chemilight actions of these multiple action patterns, which further increases the interest of each viewer user participating in the virtual live space.

また、これら複数のコンテンツ関連動作を実行可能とする場合にあっては、演目期間以外のライブ開始前の期間やMC期間中においては、例えば、図47に示すように、全ての種類のコンテンツ関連動作を実行できるようにしてよいとともに、1の演目において実行可能なコンテンツ関連動作についても、1種類ではなく、例えば、ウエーブ動作に対応する演目期間において、ケミライトKを左右に振るケミライト動作も可能とする等のように、複数のコンテンツ関連動作を実行可能としてもよい。 In addition, when these multiple content-related actions are executable, during periods before the start of a live performance or during MC periods other than the performance period, it is possible to make all types of content-related actions executable, as shown in FIG. 47, for example, and it is also possible to make multiple content-related actions executable in one performance, rather than just one type, such as making the chemilight action of shaking the chemilight K from side to side possible during the performance period corresponding to the wave action.

また、上記した実施例3では、遅延動作者決定処理を配信用サーバコンピュータ100において実行することで、同調したケミライト動作において遅延動作を行う視聴者アバターを配信用サーバコンピュータ100が決定する形態を例示しているが、本発明はこれに限定されるものではなく、例えば、図48の変形例3-5に示すように、これら遅延動作者決定処理を視聴者端末300において実行することで、遅延動作を行う視聴者アバターを視聴者端末300において決定するようにしてもよい。 In addition, in the above-mentioned Example 3, the delay performer determination process is executed in the distribution server computer 100, and the distribution server computer 100 determines the viewer avatar that will perform the delay action in the synchronized chemi-light action. However, the present invention is not limited to this. For example, as shown in Variation 3-5 of FIG. 48, the delay performer determination process may be executed in the viewer terminal 300, and the viewer avatar that will perform the delay action may be determined in the viewer terminal 300.

つまり、変形例3-5においては、視聴者端末300において、各視聴者アバターのケミライト動作のタイミングが同調した視聴者アバター視点映像を生成可能であって、配信用サーバコンピュータ100は、ケミライト動作を実行している視聴者アバターを特定可能な関連動作実行情報としてケミライト動作情報を各視聴者端末300に配信可能であり、視聴者端末300は、ケミライト動作情報から特定されるケミライト動作を実行している視聴者アバターの一部について、ケミライト動作を非同調タイミングである「遅延A」や「遅延B」に調整可能であり、このようにすることで、配信用サーバコンピュータ100が遅延動作情報を配信する必要がなくなるので、これら遅延動作情報を配信するための配信用サーバコンピュータ100における処理負荷を低減することができる。 In other words, in variant example 3-5, the viewer terminal 300 can generate viewer avatar viewpoint video in which the timing of the chemi-lighting action of each viewer avatar is synchronized, the distribution server computer 100 can distribute chemi-lighting action information to each viewer terminal 300 as related action execution information that can identify the viewer avatar performing the chemi-lighting action, and the viewer terminal 300 can adjust the chemi-lighting action to "delay A" or "delay B", which are non-synchronized timings, for some of the viewer avatars performing the chemi-lighting action identified from the chemi-lighting action information. In this way, the distribution server computer 100 does not need to distribute delayed action information, and the processing load on the distribution server computer 100 for distributing this delayed action information can be reduced.

尚、変形例3-5において視聴者端末300が実行する遅延動作者決定処理の実行タイミングと処理内容は、図37に示す配信用サーバコンピュータ100が実行するタイミングと処理内容と同様とすればよく、この場合、決定用テーブルを事前データとして配信用サーバコンピュータ100から受信して記憶しておけばよいとともに、処理の実行時においてケミライト動作を実行している視聴者アバターについては、配信用サーバコンピュータ100から配信されるケミライト動作情報から特定すればよいとともに、決定結果については、参加者ユーザーテーブルではなく、ケミライト動作情報に含まれる全参加者の視聴者ユーザーIDに対応付けて、決定結果を記憶、更新するための遅延動作者テーブルに反映するようにし、これら遅延動作者テーブルから特定される決定結果にもとづいて、視聴者視点映像生成処理1を実行すればよい。 In addition, in variant example 3-5, the execution timing and processing contents of the delayed performer determination process executed by the viewer terminal 300 may be the same as the execution timing and processing contents executed by the distribution server computer 100 shown in FIG. 37. In this case, the determination table may be received as advance data from the distribution server computer 100 and stored, and the viewer avatar performing the chemilight action at the time of execution of the process may be identified from the chemilight action information distributed from the distribution server computer 100. The determination results are reflected in a delayed performer table for storing and updating the determination results, not in a participant user table, in association with the viewer user IDs of all participants included in the chemilight action information, and the viewer viewpoint video generation process 1 may be executed based on the determination results identified from these delayed performer tables.

また、変形例3-5においては、遅延動作者決定処理が個々の視聴者端末300において個別に実行されるため、視聴者ユーザーAの視聴者端末300において、例えば「遅延A」の遅延動作者として決定される視聴者アバターが、視聴者ユーザーBの視聴者端末300においては、「遅延B」の遅延動作者として決定される場合となるように、個々の視聴者端末300において生成される同調したケミライト動作を含む視聴者ユーザー視点映像が、視聴者端末300毎に異なる映像となる。 In addition, in variant example 3-5, the delayed performer determination process is executed individually in each viewer terminal 300, so that a viewer avatar determined to be the delayed performer for "Delay A" in viewer user A's viewer terminal 300 may be determined to be the delayed performer for "Delay B" in viewer user B's viewer terminal 300, and the viewer user's viewpoint video including the synchronized chemilight action generated in each viewer terminal 300 will be a different video for each viewer terminal 300.

また、実施例3においては、振り始め情報によってケミライト動作を開始するタイミングを、上演コンテンツである楽曲の開始タイミング(演目期間の開始タイミング)とした形態を例示しているが、本発明はこれに限定されるものではなく、これら振り始め情報によってケミライト動作を開始するタイミングを、演目期間の開始タイミングや楽曲の開始タイミングとは異なるタイミング、例えば、演目期間の開始タイミングから一定期間が経過したタイミングや、楽曲の開始タイミングからイントロ等の部分が経過して歌唱が開始されるタイミング等のタイミングとしてもよい。 In addition, in Example 3, the timing for starting the chemilight operation based on the start of the swing information is set to the start timing of the song that is the performance content (the start timing of the performance period), but the present invention is not limited to this, and the timing for starting the chemilight operation based on the start of the swing information may be set to a timing different from the start timing of the performance period or the start timing of the song, for example, a certain period of time has passed since the start timing of the performance period, or the start timing of the song after the intro or other part has passed and singing begins.

以上、本発明を各実施例及び変形例にもとづいて説明したが、具体的な構成は上記した各実施例及び変形例に限定されるものではなく、本発明の要旨を逸脱しない範囲における変更や追加があっても本発明に含まれる。 The present invention has been described above based on each embodiment and modified example, but the specific configuration is not limited to the above-mentioned embodiments and modified examples, and the present invention also includes modifications and additions that do not deviate from the gist of the present invention.

例えば、変形例3-1で示したように、視聴者アバターの仮想参加位置を各視聴者ユーザーに事前に選択させるようにする場合にあっては、例えば、第4領域において仮想ステージGに向かって右側となるA1~C6の領域を選択した視聴者ユーザーについては、フライング演出期間における視点映像として、仮想飛翔する演者アバター1の右側前方位置からの視点映像が生成されて表示され、第4領域において仮想ステージGに向かって中央となるD4~H6の領域を選択した視聴者ユーザーについては、フライング演出期間における視点映像として、仮想飛翔する演者アバター1の中央前方位置からの視点映像が生成されて表示され、第4領域において仮想ステージGに向かって左側となるI1~K6の領域を選択した視聴者ユーザーについては、フライング演出期間における視点映像として、仮想飛翔する演者アバター1の左側前方位置からの視点映像が生成されて表示されるように、視聴者ユーザーが選択した位置に応じて、特別動作である仮想飛翔における視点映像が、各視聴者ユーザーが選択した位置(領域)に対応した視点映像となるようにしてもよい。 For example, as shown in variant example 3-1, in the case where each viewer user is made to select the virtual participation position of the viewer avatar in advance, for example, for a viewer user who selects areas A1 to C6 on the right side as facing the virtual stage G in the fourth area, a viewpoint image from the right front position of the virtually flying performer avatar 1 is generated and displayed as the viewpoint image during the flying performance period, for a viewer user who selects areas D4 to H6 on the center as facing the virtual stage G in the fourth area, a viewpoint image from the center front position of the virtually flying performer avatar 1 is generated and displayed as the viewpoint image during the flying performance period, and for a viewer user who selects areas I1 to K6 on the left side as facing the virtual stage G in the fourth area, a viewpoint image from the left front position of the virtually flying performer avatar 1 is generated and displayed as the viewpoint image during the flying performance period. In this way, the viewpoint image during the virtual flight, which is a special action, may be a viewpoint image corresponding to the position (area) selected by each viewer user depending on the position selected by the viewer user.

また、上記各実施例及び変形例では、視聴者アバター視点映像を視聴者端末300側で生成して表示する形態を例示したが、本発明はこれに限定されるものではなく、例えば、仮想参加者が少ないライブイベント等の場合には、視聴者アバターからの視点映像についても配信用サーバコンピュータ100側で生成して配信するようにしてもよい。また、視聴者ユーザーが、自分が所有する端末の処理能力や利用可能なデータ通信環境に応じて、視聴者アバター視点映像を視聴者端末300側で生成するか配信用サーバコンピュータ100側で生成するかを選択できるようにしてもよいし、配信用サーバコンピュータ100が、通信接続している視聴者端末300の処理能力を特定して、該特定した処理能力にもとづいて、視聴者端末300側で生成するか配信用サーバコンピュータ100側で生成するかを決定するようにしてもよい。 In addition, in the above embodiments and modified examples, the viewer avatar viewpoint video is generated and displayed on the viewer terminal 300 side, but the present invention is not limited to this. For example, in the case of a live event with few virtual participants, the viewer avatar viewpoint video may also be generated and distributed on the distribution server computer 100 side. In addition, the viewer user may be able to select whether the viewer avatar viewpoint video is generated on the viewer terminal 300 side or on the distribution server computer 100 side depending on the processing capacity of the terminal he or she owns and the available data communication environment, or the distribution server computer 100 may identify the processing capacity of the viewer terminal 300 with which it is connected for communication, and based on the identified processing capacity, determine whether to generate the viewer avatar viewpoint video on the viewer terminal 300 side or on the distribution server computer 100 side.

また、上記各実施例及び変形例では、配信用サーバコンピュータ100を、仮想ライブを主催するイベント運営機関が運営するスタジオに設置した形態を例示しているが、本発明はこれに限定されるものではなく、これら配信用サーバコンピュータ100としては、サーバコンピュータを貸し出す企業がデータセンタ等において所有するサーバコンピュータを使用したり、上述したように、クラウドサービスによるサーバコンピュータを使用してもよく、これらサーバコンピュータの設置形態は、配信用サーバコンピュータ100の機能を得られる形態であれば、任意の形態とすることができる。 In addition, in each of the above embodiments and variants, the distribution server computer 100 is illustrated as being installed in a studio operated by the event management organization that hosts the virtual live show, but the present invention is not limited to this. As the distribution server computer 100, a server computer owned by the company that rents out the server computer in a data center or the like may be used, or as described above, a server computer provided by a cloud service may be used. The installation form of these server computers may be any form that provides the functions of the distribution server computer 100.

また、上記各実施例及び変形例では、演者ユーザーが一人で歌唱やダンス等の上演動作を行う形態を例示しているが、本発明はこれに限定されるものではなく、これら演者ユーザーが、複数人からなるグループであってもよく、これら複数人からなるグループで仮想ライブを行う場合には、複数人で1台の演者端末200を共有してもよいし、グループの各メンバー毎に演者端末200を設ける形態としてもよい。尚、演者ユーザーが、複数人のメンバーからなるグループである場合に、例えば、視点追随対象者指定処理を配信用サーバコンピュータ100や視聴者端末300の少なくとも一方で実行することで、視点を追随する対象とするメンバーを、視聴者ユーザーが選択できるようにしてもよい。 In addition, in each of the above embodiments and variations, a performer user performs performance actions such as singing and dancing alone; however, the present invention is not limited to this, and the performer users may be a group of multiple people. When a virtual live performance is performed by a group of multiple people, the multiple people may share one performer terminal 200, or a performer terminal 200 may be provided for each member of the group. When the performer users are a group of multiple members, for example, a viewpoint tracking target designation process may be executed by at least one of the distribution server computer 100 and the viewer terminal 300, allowing the viewer user to select a member to follow the viewpoint.

また、上記各実施例及び変形例では、演者ユーザーが一人で歌唱やダンス等の上演動作を行う形態を例示しているが、本発明はこれに限定されるものではなく、歌唱を行う歌唱者とダンス動作を行うアクターとが個別の人物とされていてもよく、この場合、歌唱者の演者端末とアクターの演者端末を個別として、歌唱者はアクターが上演動作を行うスタジオ以外の場所で歌唱するようにしてもよい。 In addition, in each of the above embodiments and modified examples, a performer user sings, dances, and performs other performance actions alone; however, the present invention is not limited to this, and the singer who sings and the actor who dances may be separate persons. In this case, the singer's performer terminal and the actor's performer terminal may be separate, and the singer may sing in a location other than the studio where the actor performs the performance actions.

また、上記各実施例及び変形例では、配信用サーバコンピュータ100、管理者端末150、演者端末200、視聴者端末300を接続するコンピュータ通信ネットワークとして、インターネット網を例示しているが、本発明はこれに限定されるものではなく、これら通信ネットワークは、特定のエリア内だけでデータ通信可能なローカルエリアネットワークで構成されていてもよいし、その一部にローカルエリアネットワークやローカルデータ通信が含まれていてもよい。 In addition, in each of the above embodiments and variations, the Internet network is used as an example of a computer communication network connecting the distribution server computer 100, the administrator terminal 150, the performer terminal 200, and the viewer terminal 300, but the present invention is not limited to this, and these communication networks may be configured as local area networks that are capable of data communication only within a specific area, or may include a local area network or local data communication as part of the network.

また、上記各実施例及び変形例では、視聴者端末300としてスマートフォンPやコンピュータ(PC)とした形態を例示しているが、本発明はこれに限定されるものではなく、これらコンピュータは、持ち運び可能なノートパソコンであってもよいし、タブレット端末、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の、少なくとも2D映像と音声とを出力可能な各種情報処理装置であってもよい。 In addition, in the above embodiments and variants, the viewer terminal 300 is exemplified as a smartphone P or a computer (PC), but the present invention is not limited to this, and these computers may be portable notebook computers, tablet terminals, e-book readers, wearable computers, game consoles, and various other information processing devices capable of outputting at least 2D video and audio.

また、上記各実施例及び変形例では、演者ユーザーが、スタジオで歌唱を含む上演を行う形態を例示したが、本発明はこれに限定されるものではなく、例えば、演者ユーザーが自宅等に設置されている演者端末200を使用して、自宅等から仮想ライブに出演するようにしてもよい。 In addition, in each of the above embodiments and variants, a performer user performs in a studio, including singing, but the present invention is not limited to this. For example, a performer user may use a performer terminal 200 installed in a home or the like to perform in a virtual live performance from a home or the like.

また、上記各実施例及び変形例では、仮想空間コンテンツとして仮想ライブを例示したが、本発明はこれに限定されるものではなく、これら仮想空間コンテンツとしては、例えば、演者ユーザーが自分のファンと集うファンミーティングや、トークセッション等、視聴者ユーザーにとって有益なコンテンツであって、演者アバター1と視聴者アバターとが仮想参加する仮想空間に関するコンテンツであれば、どのようなコンテンツであってもよい。 In addition, in the above embodiments and variants, a virtual live performance has been given as an example of virtual space content, but the present invention is not limited to this, and the virtual space content may be any content that is beneficial to viewer users, such as a fan meeting where performer users gather with their fans, or a talk session, and is related to a virtual space in which performer avatar 1 and viewer avatars virtually participate.

また、上記各実施例及び変形例では、固定配置(設定)された仮想カメラとして4つの仮想カメラC1~C4や空中移動仮想カメラの視点切替を、管理者端末150における設定や操作によって事前に行える形態を例示しているが、本発明はこれに限定されるものではなく、例えば、これら視点切替を、管理者端末150においてイベント管理者Mが、操作入力装置161を構成する視点切替コントローラ等を使用して、リアルタイムに行うようにしてもよい。 In addition, in each of the above embodiments and modified examples, the viewpoint switching of the four virtual cameras C1 to C4 as fixedly positioned (set) virtual cameras and the airborne moving virtual camera is exemplified as a form in which the viewpoint switching can be performed in advance by setting and operating the administrator terminal 150, but the present invention is not limited to this. For example, the event manager M may perform these viewpoint switching in real time on the administrator terminal 150 using a viewpoint switching controller or the like constituting the operation input device 161.

また、上記各実施例及び変形例では、仮想カメラとして仮想空間内に固定配置(設定)された仮想カメラC1~C4を使用する形態を例示しているが、本発明はこれに限定されるものではなく、例えば、仮想カメラC1~C4に、加えるか若しくは代えて、移動可能な仮想移動カメラを仮想ライブ会場内に配置して、該仮想移動カメラの仮想空間内の位置や撮像方向等を、管理者端末150においてイベント管理者Mやカメラマン等が操作により制御して、仮想移動カメラの視点映像とするようにしてもよい。 In addition, in each of the above embodiments and modified examples, virtual cameras C1 to C4 fixedly placed (set) in the virtual space are used as virtual cameras, but the present invention is not limited to this. For example, in addition to or instead of the virtual cameras C1 to C4, a movable virtual moving camera may be placed in the virtual live venue, and the position and imaging direction of the virtual moving camera in the virtual space may be controlled by the event manager M or a cameraman through operation of the manager terminal 150 to produce the viewpoint image of the virtual moving camera.

また、上記各実施例及び変形例では、演者アバターの表情に反映させるために、演者ユーザーの顔の表情を検出可能とするために、スクリーンSに仮想カメラC2の視点映像を表示する形態を例示しているが、本発明はこれに限定されるものではなく、例えば、演者ユーザーの顔の表情を検出するセンサ機能を有する高機能ヘッドマウントディスプレイであれば、これら高機能ヘッドマウントディスプレイを装着して上演を行うようにしてもよく、このようにすることで、演者ユーザーの仮想ライブへの没入感を向上することができるようにしてもよい。また、演者アバターの表情に演者ユーザーの顔の表情を詳細に反映しなくてもよい場合は、通常のヘッドマウントディスプレイを演者ユーザーが装着して上演を行うようにしてもよい。 In addition, in each of the above embodiments and variants, an example is given of a form in which the viewpoint image of the virtual camera C2 is displayed on the screen S so that the facial expressions of the performer user can be detected and reflected in the facial expressions of the performer avatar, but the present invention is not limited to this. For example, if the performer user is a high-performance head-mounted display that has a sensor function for detecting the facial expressions of the performer user, the performer user may wear this high-performance head-mounted display while performing the performance, which may improve the performer user's sense of immersion in the virtual live performance. In addition, if the facial expressions of the performer user do not need to be reflected in detail in the facial expressions of the performer avatar, the performer user may wear a normal head-mounted display while performing the performance.

また、上記実施例3では、ケミライト動作のタイミングとして、BPM基準タイミングから0.1秒遅れた遅延Aや0.2秒遅れた遅延Bのタイミングを設ける形態を例示しているが、本発明はこれに限定されるものではなく、これら遅延Aや遅延Bのタイミングを設けることなく、ケミライト動作を行っている全ての視聴者アバターが、同一のBPM基準タイミングのみで同期してケミライト動作を行うようにしてもよい。つまり、本発明において同調とは、基準タイミングのみでの同期だけではなく、一部の視聴者アバターのケミライト動作のタイミングが、ほぼ同じタイミングとして認識できる所定範囲として0.2秒の範囲内において異なっている動作態様を含むものであり、よって、同調タイミングには、BPM基準タイミングである同期タイミングだけではなく、擬同期タイミングである遅延Aや遅延Bのタイミングが含まれる。 In addition, in the above Example 3, the timing of the chemilight operation is exemplified by setting delay A, which is 0.1 seconds behind the BPM reference timing, and delay B, which is 0.2 seconds behind the BPM reference timing, but the present invention is not limited to this, and all viewer avatars performing the chemilight operation may perform the chemilight operation in synchronization with only the same BPM reference timing, without setting delay A or delay B. In other words, in the present invention, synchronization does not only mean synchronization with only the reference timing, but also includes an operation mode in which the timing of the chemilight operation of some viewer avatars differs within a predetermined range of 0.2 seconds that can be recognized as approximately the same timing, and therefore the synchronization timing includes not only the synchronization timing, which is the BPM reference timing, but also the delay A and delay B, which are pseudo-synchronization timings.

また、上記実施例3では、図31や図35に示すように、振り始め情報が送信されてから各演目期間の開始タイミングよりまでの期間を視聴者アバター動作停止期間Tとした形態を例示していが、本発明はこれに限定されるものではなく、これら視聴者アバター動作停止期間Tを設けない形態として、各MC期間中は、全期間において視聴者アバターは、ケミライト動作が可能とされていてもよい。 In addition, in the above Example 3, as shown in Figures 31 and 35, an example is given in which the viewer avatar motion suspension period T is the period from when the start of swinging information is transmitted to the start timing of each performance period, but the present invention is not limited to this. As an example of a form in which these viewer avatar motion suspension periods T are not provided, the viewer avatar may be able to perform chemilight motion throughout the entire period of each MC period.

また、上記各実施例及び変形例では、仮想ライブの配信時においてリアルタイムに演者ユーザーが歌唱や歌唱動作(上演動作)を実行する形態とすることで、演者ユーザーが、仮想ライブに仮想参加している視聴者ユーザーの反応等を確認しながらライブを進行できるようにしているが、本発明はこれに限定されるものではなく、演者ユーザーの歌唱や歌唱動作(上演動作)は、リアルタイムではなく、予め、歌唱や歌唱動作(上演動作)を実行しておき、これら歌唱の音声や歌唱動作(上演動作)を演者アバター情報として配信用サーバコンピュータ100に記録しておき、該記録した歌唱の音声や歌唱動作(上演動作)をライブの進行に応じて再生することによって仮想ライブを開催するようにしてもよい。 In addition, in each of the above embodiments and variations, the performer user sings or performs singing actions (performance actions) in real time during the distribution of the virtual live performance, allowing the performer user to proceed with the live performance while checking the reactions of the viewer users who are virtually participating in the virtual live performance, but the present invention is not limited to this, and the performer user's singing or singing actions (performance actions) may not be performed in real time, but may be performed in advance, and the singing voice and singing actions (performance actions) may be recorded in the distribution server computer 100 as performer avatar information, and the recorded singing voice and singing actions (performance actions) may be played back as the live performance progresses, thereby holding a virtual live performance.

また、演者ユーザーの歌唱や歌唱動作(上演)に替えて、コンピュータグラフィック等で作成した仮想の演者による歌唱や歌唱動作(上演動作)を演者アバター情報として配信用サーバコンピュータに記録しておき、該記録した歌唱の音声や歌唱動作(上演動作)をライブの進行に応じて再生することによって仮想ライブを開催するようにしてもよい。 In addition, instead of the performer user's singing or singing actions (performance), the singing or singing actions (performance actions) of a virtual performer created using computer graphics or the like can be recorded as performer avatar information on a distribution server computer, and a virtual live performance can be held by playing back the recorded singing voice and singing actions (performance actions) as the live performance progresses.

このように、予め、歌唱や歌唱動作(上演動作)を実行して演者アバター情報を配信用サーバコンピュータ100に記録、再生して仮想ライブを配信する場合にあっては、該配信時における仮想空間コンテンツ配信システムの構成は、配信用サーバコンピュータ100、管理者端末150、視聴者端末300とで構成されることになり、仮想空間において演者アバター1を動作させる操作を行う演者ユーザーが利用可能な演者ユーザー端末である演者端末200を含まない構成となる。 In this way, when singing or singing actions (performance actions) are performed in advance to record and play back performer avatar information on the distribution server computer 100 to distribute a virtual live performance, the configuration of the virtual space content distribution system at the time of distribution will be made up of the distribution server computer 100, the administrator terminal 150, and the viewer terminal 300, and will not include the performer terminal 200, which is a performer user terminal that can be used by a performer user to operate the performer avatar 1 in the virtual space.

1 演者アバター
100 配信用サーバコンピュータ
150 管理者端末
200 演者端末
300 視聴者端末
1 Performer avatar 100 Distribution server computer 150 Administrator terminal 200 Performer terminal 300 Viewer terminal

Claims (11)

仮想空間における仮想空間コンテンツを配信するための仮想空間コンテンツ配信システムであって、
前記仮想空間コンテンツの映像を出力可能な端末であって、前記仮想空間コンテンツの対象となる仮想空間に参加可能な視聴者アバターを該仮想空間において動作させる操作を行う視聴者ユーザーが利用可能な視聴者ユーザー端末と、
前記視聴者ユーザー端末に通信ネットワークを介して接続され、少なくとも前記仮想空間に関する処理と前記仮想空間コンテンツの配信に関する処理とを実行可能なサーバコンピュータと、
を含み、
前記視聴者ユーザーが複数であって、各視聴者ユーザー毎に前記視聴者ユーザー端末が割り当てられており、
各々の前記視聴者ユーザー端末は、前記視聴者アバターに対応した前記仮想空間の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を前記サーバコンピュータから送信されてくる前記仮想空間の仮想空間データにもとづいて生成し、
前記仮想空間コンテンツは、演者ユーザーが演者アバターとして前記仮想空間に参加可能なコンテンツであり、
前記仮想空間データは、前記演者アバターの動作を生成するための演者アバター用動作データを含み、
前記視聴者ユーザー端末は、前記演者アバター用動作データにもとづいて前記演者アバターの動作を生成するときに、該生成に係わる処理負荷が異なる複数の生成態様にて当該動作を生成可能である
ことを特徴とする仮想空間コンテンツ配信システム。
A virtual space content distribution system for distributing virtual space content in a virtual space, comprising:
a viewer user terminal capable of outputting a video of the virtual space content and usable by a viewer user who performs an operation to operate a viewer avatar that can participate in a virtual space that is a target of the virtual space content in the virtual space ;
a server computer connected to the viewer user terminal via a communication network and capable of executing at least processes related to the virtual space and processes related to the distribution of the virtual space content;
Including,
The viewer users are multiple, and the viewer user terminal is assigned to each viewer user;
each of the viewer user terminals, when displaying a viewer avatar viewpoint image which is a viewpoint image of the virtual space corresponding to the viewer avatar, generates the viewer avatar viewpoint image based on virtual space data of the virtual space transmitted from the server computer ;
The virtual space content is content in which a performer user can participate in the virtual space as a performer avatar,
the virtual space data includes performer avatar motion data for generating motions of the performer avatar;
The viewer user terminal is capable of generating the movement of the performer avatar in a plurality of generation modes having different processing loads when generating the movement of the performer avatar based on the performer avatar movement data.
A virtual space content delivery system comprising:
前記仮想空間コンテンツは、前記演者アバターが前記仮想空間においてパフォーマンスを行うコンテンツである
ことを特徴とする請求項に記載の仮想空間コンテンツ配信システム
2. The virtual space content delivery system according to claim 1 , wherein the virtual space content is content in which the performer avatar performs a performance in the virtual space.
各々の前記視聴者アバターに対応した視点映像ではなく、各々の前記視聴者ユーザー端末において共通して表示される共通視点映像については、前記サーバコンピュータが生成して前記視聴者ユーザー端末に映像配信可能である
ことを特徴とする請求項1または2に記載の仮想空間コンテンツ配信システム。
The virtual space content distribution system described in claim 1 or 2, characterized in that a common viewpoint image that is displayed in common on each of the viewer user terminals, rather than a viewpoint image corresponding to each of the viewer avatars, can be generated by the server computer and distributed to the viewer user terminal.
前記視聴者ユーザー端末において、前記視聴者アバター視点映像と前記共通視点映像とのいずれかの視点映像を選択して表示可能な特定期間においては、前記共通視点映像を前記視聴者ユーザー端末が生成して表示する
ことを特徴とする請求項に記載の仮想空間コンテンツ配信システム。
The virtual space content distribution system described in claim 3, characterized in that during a specific period in which the viewer user terminal can select and display either the viewer avatar viewpoint video or the common viewpoint video, the viewer user terminal generates and displays the common viewpoint video.
前記サーバコンピュータにおける処理負荷が大きい特別期間においては、前記共通視点映像についても前記視聴者ユーザー端末が生成して表示する
ことを特徴とする請求項に記載の仮想空間コンテンツ配信システム。
4. The virtual space content delivery system according to claim 3 , wherein during a special period when the processing load on the server computer is large, the common viewpoint video is also generated and displayed by the viewer user terminal.
前記サーバコンピュータは、前記仮想空間の基本データ並びに該仮想空間に参加するアバターの基本データを含む事前データを、仮想空間コンテンツを開始する前に各々の前記視聴者ユーザー端末に対して事前送信する
ことを特徴とする請求項1または2に記載の仮想空間コンテンツ配信システム。
The virtual space content distribution system described in claim 1 or 2, characterized in that the server computer transmits advance data including basic data of the virtual space and basic data of avatars participating in the virtual space to each of the viewer user terminals before starting the virtual space content.
前記サーバコンピュータは、前記事前データの受信完了が確認できない前記視聴者ユーザー端末に対しては、前記仮想空間データを送信せずに各々の前記視聴者ユーザー端末において共通して表示される共通視点映像を送信する
ことを特徴とする請求項に記載の仮想空間コンテンツ配信システム。
The virtual space content distribution system described in claim 6, characterized in that, for viewer user terminals where it is not possible to confirm that the advance data has been completely received, the server computer does not transmit the virtual space data to the viewer user terminals, but transmits a common viewpoint video that is displayed in common on each of the viewer user terminals.
記視聴者ユーザー端末として第1視聴者ユーザー端末と第2視聴者ユーザー端末とを含み、
前記サーバコンピュータは、前記第2視聴者ユーザー端末には、前記第1視聴者ユーザー端末とは異なる前記仮想空間データを送信可能である
ことを特徴とする請求項1または請求項2に記載の仮想空間コンテンツ配信システム。
The viewer user terminals include a first viewer user terminal and a second viewer user terminal,
3. The virtual space content delivery system according to claim 1 , wherein said server computer is capable of transmitting to said second viewer user terminal said virtual space data different from that transmitted to said first viewer user terminal.
前記第2視聴者ユーザー端末は、前記第1視聴者ユーザー端末に送信される前記仮想空間データとは異なる仮想空間データにもとづいて、該第1視聴者ユーザー端末を利用する第1視聴者ユーザーの第1視聴者アバターの動作とは異なる動作を行う第2視聴者アバターの映像を生成可能である
ことを特徴とする請求項に記載の仮想空間コンテンツ配信システム。
The virtual space content distribution system described in claim 8, characterized in that the second viewer user terminal is capable of generating an image of a second viewer avatar that performs actions different from the actions of a first viewer avatar of a first viewer user using the first viewer user terminal based on virtual space data different from the virtual space data transmitted to the first viewer user terminal.
仮想空間における仮想空間コンテンツを、少なくともサーバコンピュータを用いてネットワークを介して配信するための仮想空間コンテンツ配信プログラムであって、
前記仮想空間コンテンツの対象となる仮想空間に参加可能なアバターは、視聴者ユーザーが利用可能な端末であって前記ネットワークを介して前記サーバコンピュータに接続された視聴者ユーザー端末における操作によって前記仮想空間において動作する視聴者アバターを含み、
前記視聴者ユーザーが複数であって、各視聴者ユーザー毎に前記視聴者ユーザー端末が割り当てられており、
各々の前記視聴者ユーザー端末において、前記視聴者アバターに対応した前記仮想空間の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を前記サーバコンピュータから送信されてくる前記仮想空間の仮想空間データにもとづいて生成するステップを含み、
前記仮想空間コンテンツは、演者ユーザーが演者アバターとして前記仮想空間に参加可能なコンテンツであり、
前記仮想空間データは、前記演者アバターの動作を生成するためのデータであって、前記視聴者ユーザー端末において前記演者アバターの動作を生成するときに該生成に係わる処理負荷が異なる複数の生成態様にて当該動作を生成可能な演者アバター用動作データを含
ことを特徴とする仮想空間コンテンツ配信プログラム。
A virtual space content distribution program for distributing virtual space content in a virtual space via a network using at least a server computer, comprising:
the avatars capable of participating in the virtual space that is the subject of the virtual space content include viewer avatars that operate in the virtual space by operating a viewer user terminal that is a terminal available to a viewer user and is connected to the server computer via the network;
The viewer users are multiple, and the viewer user terminal is assigned to each viewer user;
a step of generating, in each of the viewer user terminals, a viewer avatar viewpoint image, which is a viewpoint image of the virtual space corresponding to the viewer avatar, based on virtual space data of the virtual space transmitted from the server computer;
The virtual space content is content in which a performer user can participate in the virtual space as a performer avatar,
The virtual space data is data for generating movements of the performer avatar, and includes performer avatar movement data that can generate the movements of the performer avatar in a plurality of generation modes that have different processing loads when generating the movements of the performer avatar on the viewer user terminal.A virtual space content distribution program characterized in that the virtual space data includes performer avatar movement data that can generate the movements of the performer avatar in a plurality of generation modes that have different processing loads when generating the movements of the performer avatar on the viewer user terminal.
仮想空間における仮想空間コンテンツを、少なくともサーバコンピュータを用いてネットワークを介して配信するための仮想空間コンテンツ配信方法であって、
前記仮想空間コンテンツの対象となる仮想空間に参加可能なアバターは、視聴者ユーザーが利用可能な端末であって前記ネットワークを介して前記サーバコンピュータに接続された視聴者ユーザー端末における操作によって前記仮想空間において動作する視聴者アバターを含み、
前記視聴者ユーザーが複数であって、各視聴者ユーザー毎に前記視聴者ユーザー端末が割り当てられており、
各々の前記視聴者ユーザー端末において、前記視聴者アバターに対応した前記仮想空間の視点映像である視聴者アバター視点映像を表示するときには、該視聴者アバター視点映像を前記サーバコンピュータから送信されてくる前記仮想空間の仮想空間データにもとづいて生成する手順を含み、
前記仮想空間コンテンツは、演者ユーザーが演者アバターとして前記仮想空間に参加可能なコンテンツであり、
前記仮想空間データは、前記演者アバターの動作を生成するためのデータであって、前記視聴者ユーザー端末において前記演者アバターの動作を生成するときに該生成に係わる処理負荷が異なる複数の生成態様にて当該動作を生成可能な演者アバター用動作データを含
ことを特徴とする仮想空間コンテンツ配信方法。
A virtual space content distribution method for distributing virtual space content in a virtual space via a network using at least a server computer, comprising:
the avatars capable of participating in the virtual space that is the subject of the virtual space content include viewer avatars that operate in the virtual space by operating a viewer user terminal that is a terminal available to a viewer user and is connected to the server computer via the network;
The viewer users are multiple, and the viewer user terminal is assigned to each viewer user;
a step of generating, in each of the viewer user terminals, a viewer avatar viewpoint image, which is a viewpoint image of the virtual space corresponding to the viewer avatar, based on virtual space data of the virtual space transmitted from the server computer;
The virtual space content is content in which a performer user can participate in the virtual space as a performer avatar,
A virtual space content distribution method characterized in that the virtual space data is data for generating movements of the performer avatar, and includes performer avatar movement data that can generate the movements of the performer avatar in a plurality of generation modes that have different processing loads when generating the movements of the performer avatar on the viewer user terminal .
JP2023102732A 2023-06-22 2023-06-22 VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD Active JP7521072B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023102732A JP7521072B1 (en) 2023-06-22 2023-06-22 VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023102732A JP7521072B1 (en) 2023-06-22 2023-06-22 VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD

Publications (1)

Publication Number Publication Date
JP7521072B1 true JP7521072B1 (en) 2024-07-23

Family

ID=91954389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023102732A Active JP7521072B1 (en) 2023-06-22 2023-06-22 VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD

Country Status (1)

Country Link
JP (1) JP7521072B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7557594B1 (en) 2023-10-24 2024-09-27 カバー株式会社 VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020091504A (en) 2018-10-31 2020-06-11 株式会社ドワンゴ Avatar display system in virtual space, avatar display method in virtual space, and computer program
JP2020102236A (en) 2020-02-18 2020-07-02 株式会社ActEvolve Content distribution system, receiving device and program
WO2021246183A1 (en) 2020-06-03 2021-12-09 ソニーグループ株式会社 Information processing device, information processing method, and program
JP2022533734A (en) 2019-05-20 2022-07-25 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. Presenting immersive media content and interactive 360° video communication

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020091504A (en) 2018-10-31 2020-06-11 株式会社ドワンゴ Avatar display system in virtual space, avatar display method in virtual space, and computer program
JP2022533734A (en) 2019-05-20 2022-07-25 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. Presenting immersive media content and interactive 360° video communication
JP2020102236A (en) 2020-02-18 2020-07-02 株式会社ActEvolve Content distribution system, receiving device and program
WO2021246183A1 (en) 2020-06-03 2021-12-09 ソニーグループ株式会社 Information processing device, information processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7557594B1 (en) 2023-10-24 2024-09-27 カバー株式会社 VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD

Similar Documents

Publication Publication Date Title
JP6431233B1 (en) Video distribution system that distributes video including messages from viewing users
WO2020138107A1 (en) Video streaming system, video streaming method, and video streaming program for live streaming of video including animation of character object generated on basis of motion of streaming user
JP6420077B2 (en) Game system
JP6707111B2 (en) Three-dimensional content distribution system, three-dimensional content distribution method, computer program
US20220222881A1 (en) Video display device and display control method for same
US12137274B2 (en) Video distribution system distributing video that includes message from viewing user
WO2021246183A1 (en) Information processing device, information processing method, and program
JP7521072B1 (en) VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD
JP5632792B2 (en) Participation type content management apparatus, viewing terminal, participation type content management program, and viewing program
WO2022190917A1 (en) Information processing device, information processing terminal, information processing method, and program
JP6688378B1 (en) Content distribution system, distribution device, reception device, and program
JP2020144887A (en) Avatar display system in virtual space, avatar display method in virtual space, and computer program
JP6951394B2 (en) Video distribution system that distributes videos including messages from viewers
JP7521074B1 (en) VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD
JP7495558B1 (en) VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD
JP7521073B1 (en) VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD
US11206452B2 (en) Video display system, information processing apparatus, and video display method
WO2022190919A1 (en) Information processing device, information processing method, and program
JP7521038B1 (en) VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD
JP7521039B1 (en) VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD
JP7576678B1 (en) VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD
JP7557594B1 (en) VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD
JP7557595B1 (en) VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD
JP7542113B1 (en) VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD
JP7557577B1 (en) VIRTUAL SPACE CONTENT DELIVERY SYSTEM, VIRTUAL SPACE CONTENT DELIVERY PROGRAM, AND VIRTUAL SPACE CONTENT DELIVERY METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240411

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240710

R150 Certificate of patent or registration of utility model

Ref document number: 7521072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150