Nothing Special   »   [go: up one dir, main page]

JP2021086146A - Content control system, content control method, and content control program - Google Patents

Content control system, content control method, and content control program Download PDF

Info

Publication number
JP2021086146A
JP2021086146A JP2020117810A JP2020117810A JP2021086146A JP 2021086146 A JP2021086146 A JP 2021086146A JP 2020117810 A JP2020117810 A JP 2020117810A JP 2020117810 A JP2020117810 A JP 2020117810A JP 2021086146 A JP2021086146 A JP 2021086146A
Authority
JP
Japan
Prior art keywords
data
expression
content
virtual
content control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020117810A
Other languages
Japanese (ja)
Other versions
JP2021086146A5 (en
JP7465736B2 (en
Inventor
大樹 下村
Daiki Shimomura
大樹 下村
恵美子 吉原
Emiko YOSHIHARA
恵美子 吉原
智志 井口
Tomoshi Iguchi
智志 井口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019215455A external-priority patent/JP6733027B1/en
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2020117810A priority Critical patent/JP7465736B2/en
Publication of JP2021086146A publication Critical patent/JP2021086146A/en
Publication of JP2021086146A5 publication Critical patent/JP2021086146A5/ja
Application granted granted Critical
Publication of JP7465736B2 publication Critical patent/JP7465736B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To effectively transmit to a user what has happened in a virtual space.SOLUTION: A content control system according to one embodiment is provided with at least one processor. The at least one processor specifies a motion of a target virtual object in a virtual space showing a class scene, determines a language expression corresponding to the specified motion with reference to a storage unit that stores a language expression rule, and outputs expression data corresponding to the determined language expression.SELECTED DRAWING: Figure 3

Description

本開示の一側面はコンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラムに関する。 One aspect of the disclosure relates to content control systems, content control methods, and content control programs.

ユーザに仮想世界を体験させるコンピュータシステムは様々な分野で応用されている。例えば、特許文献1には、講師側の機器と生徒側の機器との間で講義を行う学習システムが記載されている。この学習システムは、3次元で描写される仮想空間を描画する仮想現実技術を用いた講師用ソフトウェアを含む講師側の機器と、仮想現実技術を用いた生徒用ソフトウェアを含む生徒側の機器と、講師側の機器と生徒側の機器との間で、仮想空間を描画するための講義の信号を送受信するネットワーク手段とを備える。 Computer systems that allow users to experience the virtual world are applied in various fields. For example, Patent Document 1 describes a learning system in which a lecture is given between a device on the instructor side and a device on the student side. This learning system includes instructor-side equipment that includes instructor software that uses virtual reality technology to draw a virtual space depicted in three dimensions, and student-side equipment that includes student software that uses virtual reality technology. It is provided with a network means for transmitting and receiving lecture signals for drawing a virtual space between the device on the instructor side and the device on the student side.

特開2009−145883号公報Japanese Unexamined Patent Publication No. 2009-145883

仮想空間内の出来事をユーザに効果的に伝えるための手法が望まれている。 A method for effectively communicating events in the virtual space to the user is desired.

本開示の一側面に係るコンテンツ制御システムは少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、授業の場面を示す仮想空間内での対象仮想オブジェクトの動きを特定し、言語表現ルールを記憶する記憶部を参照して、特定された動きに対応する言語表現を決定し、決定された言語表現に対応する表現データを出力する。 The content control system according to one aspect of the present disclosure includes at least one processor. At least one processor identifies the movement of the target virtual object in the virtual space indicating the scene of the lesson, refers to the storage unit that stores the linguistic expression rule, and determines the linguistic expression corresponding to the specified movement. , Outputs the expression data corresponding to the determined language expression.

このような側面においては、対象仮想オブジェクトの動作に対応する言語表現に基づく表現データが出力される。特許文献1には記載されていないこのような一連の処理によって、仮想空間内の出来事を端末のユーザに効果的に伝えることができる。 In such an aspect, expression data based on the linguistic expression corresponding to the operation of the target virtual object is output. By such a series of processes not described in Patent Document 1, an event in the virtual space can be effectively transmitted to the user of the terminal.

本開示の一側面によれば、仮想空間内の出来事をユーザに効果的に伝えることができる。 According to one aspect of the present disclosure, events in the virtual space can be effectively communicated to the user.

実施形態に係るコンテンツ配信システム(コンテンツ制御システム)の適用の一例を示す図である。It is a figure which shows an example of application of the content distribution system (content control system) which concerns on embodiment. 実施形態に係るコンテンツ配信システムに関連するハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware configuration which concerns on the content distribution system which concerns on embodiment. 実施形態に係るコンテンツ配信システムに関連する機能構成の一例を示す図である。It is a figure which shows an example of the functional structure which concerns on the content distribution system which concerns on embodiment. 実施形態に係るコンテンツ配信システムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation of the content distribution system which concerns on embodiment. 仮想表現オブジェクトの一例を示す図である。It is a figure which shows an example of a virtual representation object. 仮想表現オブジェクトの別の例を示す図である。It is a figure which shows another example of a virtual representation object. 仮想表現オブジェクトのさらに別の例を示す図である。It is a figure which shows still another example of a virtual representation object.

以下、添付図面を参照しながら本開示での実施形態を詳細に説明する。なお、図面の説明において同一または同等の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements are designated by the same reference numerals, and duplicate description will be omitted.

[システムの概要]
実施形態に係るコンテンツ制御システムは、ユーザに向けて配信されるコンテンツを制御するコンピュータシステムである。コンテンツとは、コンピュータまたはコンピュータシステムによって提供され、人が認識可能な情報のことをいう。コンテンツを示す電子データのことをコンテンツデータという。コンテンツの表現形式は限定されず、例えば、コンテンツは画像(例えば、写真、映像など)、文書、音声、音楽、またはこれらの中の任意の2以上の要素の組合せによって表現されてもよい。コンテンツの目的および利用場面は限定されず、例えば、コンテンツはエンターテインメント、ニュース、教育、医療、ゲーム、チャット、商取引、講演、セミナー、研修などの様々な目的で利用され得る。コンテンツの制御とは、ユーザにコンテンツを提供するために実行される処理のことをいう。コンテンツの制御は、コンテンツデータの生成、編集、記憶、および配信の少なくとも一つを含んでもよいし、これら以外の処理を含んでもよい。
[System overview]
The content control system according to the embodiment is a computer system that controls content distributed to users. Content is information provided by a computer or computer system that is human recognizable. Electronic data that indicates content is called content data. The representation format of the content is not limited, and for example, the content may be represented by an image (for example, a photograph, a video, etc.), a document, audio, music, or a combination of any two or more elements thereof. The purpose and usage of the content is not limited, for example, the content may be used for various purposes such as entertainment, news, education, medical care, games, chat, commerce, lectures, seminars, and training. Content control refers to the process performed to provide content to a user. Content control may include at least one of the generation, editing, storage, and distribution of content data, or may include processing other than these.

コンテンツ制御システムはコンテンツデータを視聴者端末に送信することで、コンテンツを視聴者に提供する。一例では、そのコンテンツは配信者から提供される。配信者とは視聴者に情報を伝えようとする人であり、すなわち、コンテンツの発信者である。視聴者とはその情報を得ようとする人であり、すなわち、コンテンツの利用者である。 The content control system provides the content to the viewer by transmitting the content data to the viewer terminal. In one example, the content is provided by the distributor. A distributor is a person who wants to convey information to a viewer, that is, a sender of content. A viewer is a person who wants to obtain the information, that is, a user of the content.

本実施形態ではコンテンツは少なくとも画像を用いて表現される。コンテンツを示す画像を「コンテンツ画像」という。コンテンツ画像とは、人が視覚を通して何らかの情報を認識することができる像のことをいう。コンテンツ画像は動画像(映像)でもよいし静止画でもよい。 In this embodiment, the content is expressed using at least an image. An image showing content is called a "content image". A content image is an image in which a person can visually recognize some information. The content image may be a moving image (video) or a still image.

コンテンツ画像は現実世界を映してもよいし、仮想空間を映してもよい。仮想空間とは、コンピュータ上に表示される画像によって表現される仮想の2次元または3次元の空間のことをいう。コンテンツ画像が仮想空間を含む場合には、コンテンツ画像は、仮想空間内に設定された仮想カメラから見える風景を示す画像であるといえる。仮想カメラは、コンテンツ画像を見るユーザの視線に対応するように仮想空間内に設定される。仮想空間は少なくとも一つの仮想オブジェクトによって表現される。仮想オブジェクトとは、現実世界には実際に存在せずコンピュータシステム上でのみ表現される物体のことをいう。 The content image may reflect the real world or a virtual space. The virtual space is a virtual two-dimensional or three-dimensional space represented by an image displayed on a computer. When the content image includes a virtual space, it can be said that the content image is an image showing a landscape seen from a virtual camera set in the virtual space. The virtual camera is set in the virtual space so as to correspond to the line of sight of the user who sees the content image. Virtual space is represented by at least one virtual object. A virtual object is an object that does not actually exist in the real world and is represented only on a computer system.

コンテンツ画像は、出演者である人を映してもよいし、出演者の代わりにアバターを映してもよい。配信者は、出演者としてコンテンツ画像上に現われてもよいし、出演者でなくてもよい。複数の視聴者のうちの少なくとも一部が出演者(参加者)としてコンテンツ画像に現われてもよい。配信者または参加者のアバターがコンテンツ画像上に現れてもよい。コンテンツ画像は現実世界と、仮想空間または仮想オブジェクトとの双方を含んでもよい。コンテンツ画像が仮想空間または仮想オブジェクトを含むことで、視聴者は拡張現実(Augumented Reality(AR))、仮想現実(Virtual Reality(VR))、または複合現実(Mixed Reality(MR))を体験することができる。 The content image may show a person who is a performer, or may show an avatar instead of the performer. The distributor may or may not appear on the content image as a performer. At least a part of the plurality of viewers may appear in the content image as a performer (participant). The distributor or participant's avatar may appear on the content image. Content images may include both the real world and virtual space or virtual objects. The inclusion of virtual space or virtual objects in the content image allows the viewer to experience augmented reality (AR), virtual reality (VR), or mixed reality (MR). Can be done.

アバターとは、コンピュータによって表現されるユーザの分身である。アバターは仮想オブジェクトの一種である。アバターは、撮影された人そのものではなく(すなわち、原画像で示されるユーザそのものではなく)、原画像とは独立した画像素材を用いて、2次元または3次元のコンピュータグラフィック(CG)によって表現される。アバターの表現方法は限定されない。例えば、アバターはアニメーション素材を用いて表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。アバターはコンテンツ配信システムのユーザ(例えば、配信者または視聴者)によって自由に選択されてもよい。 An avatar is a user's alter ego represented by a computer. Avatar is a type of virtual object. The avatar is represented by two-dimensional or three-dimensional computer graphics (CG) using image material independent of the original image, not the person who was photographed (ie, not the user itself shown in the original image). To. The expression method of the avatar is not limited. For example, the avatar may be represented using an animation material, or may be represented as close to the real thing based on a live-action image. The avatar may be freely selected by the user of the content distribution system (eg, distributor or viewer).

一例では、コンテンツ制御システムはコンテンツを視聴者に向けて配信してもよい。配信とは、通信ネットワークまたは放送ネットワークを経由して情報をユーザに向けて送信する処理のことをいう。本開示では、配信は放送を含み得る概念である。本開示では、コンテンツを配信する機能を備えるコンテンツ制御システムをコンテンツ配信システムともいう。 In one example, the content control system may deliver the content to the viewer. Distribution refers to the process of transmitting information to users via a communication network or broadcasting network. In the present disclosure, distribution is a concept that may include broadcasting. In the present disclosure, a content control system having a function of distributing content is also referred to as a content distribution system.

コンテンツを配信する手法は限定されない。例えば、コンテンツ配信システムはライブコンテンツを配信してもよい。この場合には、コンテンツ配信システムは配信者端末から提供されるリアルタイムの映像を処理することでコンテンツデータを生成し、そのコンテンツデータを視聴者端末に向けてリアルタイムに送信する。これはインターネット生放送の一態様であるといえる。あるいは、コンテンツ配信システムは、過去に撮影および生成された映像を配信してもよい。コンテンツ配信システムは、リアルタイム配信後の所与の期間においてコンテンツを視聴することが可能なタイムシフトのために用いられてもよい。あるいは、コンテンツ配信システムは、任意のタイミングでコンテンツを視聴することが可能なオンデマンド配信のために用いられてもよい。 The method of delivering the content is not limited. For example, the content distribution system may distribute live content. In this case, the content distribution system generates content data by processing the real-time video provided from the distributor terminal, and transmits the content data to the viewer terminal in real time. It can be said that this is one aspect of live Internet broadcasting. Alternatively, the content distribution system may distribute images shot and generated in the past. The content distribution system may be used for a time shift in which the content can be viewed in a given period after real-time distribution. Alternatively, the content distribution system may be used for on-demand distribution in which the content can be viewed at any time.

本開示において、データまたは情報を第1コンピュータから第2コンピュータ“に送信する”との表現は、該第2コンピュータに最終的にデータまたは情報を届けるための送信を意味する。この表現は、その送信において別のコンピュータまたは通信装置がデータまたは情報を中継する場合も含む意味であることに留意されたい。 In the present disclosure, the expression "transmitting" data or information from a first computer to a second computer means transmission for finally delivering the data or information to the second computer. It should be noted that this expression also includes the case where another computer or communication device relays data or information in the transmission.

上述したようにコンテンツの目的および利用場面は限定されない。本実施形態では、コンテンツの例として教育用コンテンツを示し、コンテンツ制御システムが教育用コンテンツデータを制御するものとする。教育用コンテンツとは、生徒に向けて授業を行うために用いられるコンテンツであり、例えば、教師が生徒に向けて授業を行うために用いられてもよい。教師とは学業、技芸などを教える人のことをいい、生徒とはその教えを受ける人のことをいう。教師は配信者になり得る。生徒は視聴者の一例である。教師は教員免許を持つ人であってもよいし、教員免許を持たない人でもよい。授業とは、教師が生徒に学業、技芸などを教えることをいう。教師および生徒のそれぞれについて年齢および所属は限定されず、したがって、教育用コンテンツの目的および利用場面も限定されない。例えば、教育用コンテンツは、保育園、幼稚園、小学校、中学校、高等学校、大学、大学院、専門学校、予備校、オンライン学校などの各種の学校で用いられてよいし、学校以外の場所または場面で用いられてもよい。これに関連して、教育用コンテンツは、幼児教育、義務教育、高等教育、生涯学習などの様々な目的で用いられ得る。 As described above, the purpose and usage scene of the content are not limited. In the present embodiment, educational content is shown as an example of the content, and the content control system controls the educational content data. The educational content is content used to give a lesson to a student, and may be used, for example, for a teacher to give a lesson to a student. A teacher is a person who teaches schoolwork, arts, etc., and a student is a person who receives the teaching. Teachers can be distributors. Students are an example of a viewer. The teacher may be a person with a teacher's license or a person without a teacher's license. Class means that a teacher teaches students academics, arts, and so on. The age and affiliation of each teacher and student is not limited, and therefore the purpose and use of educational content is not limited. For example, educational content may be used in various schools such as nursery schools, kindergartens, elementary schools, junior high schools, high schools, universities, graduate schools, vocational schools, preparatory schools, online schools, etc. You may. In this regard, educational content can be used for a variety of purposes such as early childhood education, compulsory education, higher education, and lifelong learning.

[システムの構成]
図1は、実施形態に係るコンテンツ配信システム(コンテンツ制御システム)1の適用の一例を示す図である。本実施形態では、コンテンツ配信システム1はサーバ10を備える。サーバ10は、コンテンツデータを生成および配信するコンピュータである。一例では、サーバ10は通信ネットワークNを介して少なくとも一つの生徒端末20と、教師端末30と、原映像データベース40と、辞書データベース50と接続する。図1は2台の生徒端末20と1台の教師端末30とを示すが、それぞれの端末の台数は何ら限定されない。通信ネットワークNの構成は限定されない。例えば、通信ネットワークNはインターネットを含んで構成されてもよいし、イントラネットを含んで構成されてもよい。
[System configuration]
FIG. 1 is a diagram showing an example of application of the content distribution system (content control system) 1 according to the embodiment. In the present embodiment, the content distribution system 1 includes a server 10. The server 10 is a computer that generates and distributes content data. In one example, the server 10 connects at least one student terminal 20, a teacher terminal 30, an original video database 40, and a dictionary database 50 via a communication network N. FIG. 1 shows two student terminals 20 and one teacher terminal 30, but the number of each terminal is not limited in any way. The configuration of the communication network N is not limited. For example, the communication network N may be configured to include the Internet or may be configured to include an intranet.

生徒端末20は生徒によって用いられるコンピュータであり、視聴者端末(視聴者により用いられるコンピュータ)の一例である。一例では、生徒端末20は、コンテンツ配信システム1にアクセスしてコンテンツデータを受信および表示する機能と、生徒のモーションデータをコンテンツ配信システム1に送信する機能とを有する。モーションデータとは、物体の動きを示す電子データのことをいう。生徒のモーションデータは、生徒の身体の特定の部位(例えば関節)の位置および角度によって該身体の動きを示す。モーションデータの取得方法は限定されない。モーションデータは、カメラにより撮影された映像を解析することで得られてもよい。あるいは、モーションデータはボディストラップ、データグローブ、VRコントローラ(ハンドコントローラ)などのような、モーションキャプチャのための装置によって得られてもよい。生徒端末20の種類および構成は限定されない。例えば、生徒端末20は高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラスなど)、ラップトップ型パーソナルコンピュータ、携帯電話機などの携帯端末でもよい。あるいは、生徒端末20はデスクトップ型パーソナルコンピュータなどの据置型端末でもよい。 The student terminal 20 is a computer used by a student, and is an example of a viewer terminal (a computer used by a viewer). In one example, the student terminal 20 has a function of accessing the content distribution system 1 to receive and display content data, and a function of transmitting student motion data to the content distribution system 1. Motion data refers to electronic data that indicates the movement of an object. Student motion data indicates the movement of a particular part of the student's body (eg, joints) by the position and angle of the body. The method of acquiring motion data is not limited. The motion data may be obtained by analyzing the image taken by the camera. Alternatively, the motion data may be obtained by a device for motion capture, such as a body strap, data glove, VR controller (hand controller), or the like. The type and configuration of the student terminal 20 is not limited. For example, the student terminal 20 may be a mobile terminal such as a high-performance mobile phone (smartphone), a tablet terminal, a wearable terminal (for example, a head-mounted display (HMD), a smart glass, etc.), a laptop personal computer, or a mobile phone. Alternatively, the student terminal 20 may be a stationary terminal such as a desktop personal computer.

教師端末30は教師によって用いられるコンピュータであり、配信者端末(配信者によって用いられるコンピュータ)の一例である。典型的には、教師端末30は生徒端末20にとって遠隔地に位置する。一例では、教師端末30は、映像を撮影する機能と、コンテンツ配信システム1にアクセスしてその映像を示す電子データ(映像データ)を送信する機能とを有する。教師端末30は映像またはコンテンツを受信および表示する機能を有してもよい。生徒端末20と同様に、教師端末30は教師のモーションデータをコンテンツ配信システム1に送信する機能を有してもよい。教師端末30の種類および構成は限定されない。例えば、教師端末30は映像を撮影、収録、および送信する機能を有する撮影システムであってもよい。あるいは、教師端末30は高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラスなど)、ラップトップ型パーソナルコンピュータ、携帯電話機などの携帯端末でもよい。あるいは、教師端末30はデスクトップ型パーソナルコンピュータなどの据置型端末でもよい。 The teacher terminal 30 is a computer used by a teacher, and is an example of a distributor terminal (a computer used by a distributor). Typically, the teacher terminal 30 is located in a remote location for the student terminal 20. In one example, the teacher terminal 30 has a function of capturing a video and a function of accessing the content distribution system 1 and transmitting electronic data (video data) indicating the video. The teacher terminal 30 may have a function of receiving and displaying a video or content. Similar to the student terminal 20, the teacher terminal 30 may have a function of transmitting the teacher's motion data to the content distribution system 1. The type and configuration of the teacher terminal 30 are not limited. For example, the teacher terminal 30 may be a photographing system having a function of photographing, recording, and transmitting an image. Alternatively, the teacher terminal 30 may be a mobile terminal such as a high-performance mobile phone (smartphone), a tablet terminal, a wearable terminal (for example, a head-mounted display (HMD), a smart glass, etc.), a laptop personal computer, or a mobile phone. Alternatively, the teacher terminal 30 may be a stationary terminal such as a desktop personal computer.

教室の管理者または生徒は生徒端末20を操作してコンテンツ配信システム1にログインし、これにより生徒は教育用コンテンツを視聴することができる。教師は教師端末30を操作してコンテンツ配信システム1にログインし、これにより自分の授業を配信または記録することが可能になる。本実施形態では、コンテンツ配信システム1のユーザが既にログインしていることを前提とする。 The classroom manager or student operates the student terminal 20 to log in to the content distribution system 1, whereby the student can view the educational content. The teacher operates the teacher terminal 30 to log in to the content distribution system 1, which enables distribution or recording of his / her lesson. In this embodiment, it is assumed that the user of the content distribution system 1 has already logged in.

原映像データベース40は原映像データを記憶する非一時的な記憶装置である。原映像データとは、教育用コンテンツデータを生成するために用いられる原映像を示す電子データであり、したがって、教育用コンテンツを生成するための素材であるといえる。原映像は実写映像でもよいし、仮想空間を含んでもよい。原映像の内容が限定されないことに対応して、原映像データのデータ構造も限定されない。例えば、実写映像が用いられる場合には、原映像データはカメラによって撮影された映像データを含む。仮想空間が用いられる場合には、原映像データは、仮想空間を規定する空間データと、仮想オブジェクトの仕様を規定するモデルデータとを含み、仮想空間における物語の進行を規定するためのシナリオデータをさらに含んでもよい。原映像データは予め、サーバ10、教師端末30、または別のコンピュータなどの任意のコンピュータによって原映像データベース40に格納される。原映像データベース40は過去に撮影または生成された原映像(すなわち、リアルタイムではない映像)を記憶するライブラリであるといえる。 The original video database 40 is a non-temporary storage device that stores the original video data. The original video data is electronic data indicating the original video used for generating the educational content data, and therefore can be said to be a material for generating the educational content. The original image may be a live-action image or may include a virtual space. Corresponding to the fact that the content of the original video is not limited, the data structure of the original video data is also not limited. For example, when a live-action video is used, the original video data includes video data taken by a camera. When a virtual space is used, the original video data includes spatial data that defines the virtual space and model data that defines the specifications of the virtual object, and includes scenario data for defining the progress of the story in the virtual space. Further may be included. The original video data is stored in the original video database 40 in advance by an arbitrary computer such as a server 10, a teacher terminal 30, or another computer. It can be said that the original video database 40 is a library that stores original video shot or generated in the past (that is, video that is not real-time).

辞書データベース50は辞書データを記憶する非一時的な記憶装置である。一例では、辞書データの各レコードは、個々のレコードを特定するための識別子であるレコードIDと、生徒(視聴者)を一意に特定する識別子である視聴者IDと、該生徒によって指定された画像(静止画または動画)とを含む。 The dictionary database 50 is a non-temporary storage device that stores dictionary data. In one example, each record in the dictionary data has a record ID, which is an identifier for identifying individual records, a viewer ID, which is an identifier for uniquely identifying a student (viewer), and an image specified by the student. Includes (still image or video).

原映像データベース40および辞書データベース50のそれぞれの設置場所は限定されない。例えば、原映像データベース40および辞書データベース50の少なくとも一方は、コンテンツ配信システム1とは別のコンピュータシステム内に設けられてもよいし、コンテンツ配信システム1の構成要素であってもよい。 The installation location of the original video database 40 and the dictionary database 50 is not limited. For example, at least one of the original video database 40 and the dictionary database 50 may be provided in a computer system different from the content distribution system 1, or may be a component of the content distribution system 1.

図2はコンテンツ配信システム1に関連するハードウェア構成の一例を示す図である。図2は、サーバ10として機能するサーバコンピュータ100と、生徒端末20または教師端末30として機能する端末コンピュータ200とを示す。 FIG. 2 is a diagram showing an example of a hardware configuration related to the content distribution system 1. FIG. 2 shows a server computer 100 that functions as a server 10 and a terminal computer 200 that functions as a student terminal 20 or a teacher terminal 30.

一例として、サーバコンピュータ100はハードウェア構成要素として、プロセッサ101、主記憶部102、補助記憶部103、および通信部104を備える。 As an example, the server computer 100 includes a processor 101, a main storage unit 102, an auxiliary storage unit 103, and a communication unit 104 as hardware components.

プロセッサ101は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置である。プロセッサの例としてCPU(Central Processing Unit)およびGPU(Graphics Processing Unit)が挙げられるが、プロセッサ101の種類はこれらに限定されない。例えば、プロセッサ101はセンサおよび専用回路の組合せでもよい。専用回路はFPGA(Field−Programmable Gate Array)のようなプログラム可能な回路でもよいし、他の種類の回路でもよい。 The processor 101 is an arithmetic unit that executes an operating system and an application program. Examples of the processor include a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit), but the type of the processor 101 is not limited thereto. For example, the processor 101 may be a combination of a sensor and a dedicated circuit. The dedicated circuit may be a programmable circuit such as FPGA (Field-Programmable Gate Array), or may be another type of circuit.

主記憶部102は、サーバ10を実現するためのプログラム、プロセッサ101から出力された演算結果などを記憶する装置である。主記憶部102は例えばROM(Read Only Memory)およびRAM(Random Access Memory)のうちの少なくとも一つにより構成される。 The main storage unit 102 is a device that stores a program for realizing the server 10, a calculation result output from the processor 101, and the like. The main storage unit 102 is composed of, for example, at least one of a ROM (Read Only Memory) and a RAM (Random Access Memory).

補助記憶部103は、一般に主記憶部102よりも大量のデータを記憶することが可能な装置である。補助記憶部103は例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部103は、サーバコンピュータ100をサーバ10として機能させるためのサーバプログラムP1と各種のデータとを記憶する。例えば、補助記憶部103はアバターなどの仮想オブジェクトと仮想空間とのうちの少なくとも一つに関するデータを記憶してもよい。本実施形態では、コンテンツ制御プログラムはサーバプログラムP1として実装される。 The auxiliary storage unit 103 is a device capable of storing a larger amount of data than the main storage unit 102 in general. The auxiliary storage unit 103 is composed of a non-volatile storage medium such as a hard disk or a flash memory. The auxiliary storage unit 103 stores the server program P1 for making the server computer 100 function as the server 10 and various data. For example, the auxiliary storage unit 103 may store data relating to at least one of a virtual object such as an avatar and a virtual space. In this embodiment, the content control program is implemented as the server program P1.

通信部104は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部104は例えばネットワークカードまたは無線通信モジュールにより構成される。 The communication unit 104 is a device that executes data communication with another computer via the communication network N. The communication unit 104 is composed of, for example, a network card or a wireless communication module.

サーバ10の各機能要素は、プロセッサ101または主記憶部102の上にサーバプログラムP1を読み込ませてプロセッサ101にそのプログラムを実行させることで実現される。サーバプログラムP1は、サーバ10の各機能要素を実現するためのコードを含む。プロセッサ101はサーバプログラムP1に従って通信部104を動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを実行する。このような処理によりサーバ10の各機能要素が実現される。 Each functional element of the server 10 is realized by reading the server program P1 on the processor 101 or the main storage unit 102 and causing the processor 101 to execute the program. The server program P1 includes a code for realizing each functional element of the server 10. The processor 101 operates the communication unit 104 according to the server program P1 to read and write data in the main storage unit 102 or the auxiliary storage unit 103. By such processing, each functional element of the server 10 is realized.

サーバ10は一つまたは複数のコンピュータにより構成され得る。複数のコンピュータが用いられる場合には、通信ネットワークを介してこれらのコンピュータが互いに接続されることで、論理的に一つのサーバ10が構成される。 The server 10 may be composed of one or more computers. When a plurality of computers are used, one server 10 is logically configured by connecting these computers to each other via a communication network.

一例として、端末コンピュータ200はハードウェア構成要素として、プロセッサ201、主記憶部202、補助記憶部203、および通信部204、入力インタフェース205、出力インタフェース206、および撮像部207を備える。 As an example, the terminal computer 200 includes a processor 201, a main storage unit 202, an auxiliary storage unit 203, a communication unit 204, an input interface 205, an output interface 206, and an imaging unit 207 as hardware components.

プロセッサ201は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置である。プロセッサ201は例えばCPUまたはGPUであり得るが、プロセッサ201の種類はこれらに限定されない。 Processor 201 is an arithmetic unit that executes operating systems and application programs. The processor 201 can be, for example, a CPU or GPU, but the type of processor 201 is not limited to these.

主記憶部202は、生徒端末20または教師端末30を実現させるためのプログラム、プロセッサ201から出力された演算結果などを記憶する装置である。主記憶部202は例えばROMおよびRAMのうちの少なくとも一つにより構成される。 The main storage unit 202 is a device that stores a program for realizing the student terminal 20 or the teacher terminal 30, a calculation result output from the processor 201, and the like. The main storage unit 202 is composed of, for example, at least one of ROM and RAM.

補助記憶部203は、一般に主記憶部202よりも大量のデータを記憶することが可能な装置である。補助記憶部203は例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部203は、端末コンピュータ200を生徒端末20または教師端末30として機能させるためのクライアントプログラムP2と各種のデータとを記憶する。例えば、補助記憶部203はアバターなどの仮想オブジェクトと仮想空間とのうちの少なくとも一つに関するデータを記憶してもよい。 The auxiliary storage unit 203 is a device capable of storing a larger amount of data than the main storage unit 202 in general. The auxiliary storage unit 203 is composed of a non-volatile storage medium such as a hard disk or a flash memory. The auxiliary storage unit 203 stores the client program P2 for making the terminal computer 200 function as the student terminal 20 or the teacher terminal 30 and various data. For example, the auxiliary storage unit 203 may store data relating to at least one of a virtual object such as an avatar and a virtual space.

通信部204は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部204は例えばネットワークカードまたは無線通信モジュールにより構成される。 The communication unit 204 is a device that executes data communication with another computer via the communication network N. The communication unit 204 is composed of, for example, a network card or a wireless communication module.

入力インタフェース205は、ユーザの操作または動作に基づいてデータを受け付ける装置である。例えば、入力インタフェース205は、キーボード、操作ボタン、ポインティングデバイス、マイクロフォン、センサ、およびカメラのうちの少なくとも一つによって構成される。キーボードおよび操作ボタンはタッチパネル上に表示されてもよい。入力インタフェース205の種類が限定されないことに対応して、入力されるデータは限定されない。例えば、入力インタフェース205はキーボード、操作ボタン、またはポインティングデバイスによって入力または選択されたデータを受け付けてもよい。あるいは、入力インタフェース205は、マイクロフォンにより入力された音声データを受け付けてもよい。あるいは、入力インタフェース205はカメラによって撮影された画像データ(例えば、映像データまたは静止画データ)を受け付けてもよい。 The input interface 205 is a device that receives data based on a user's operation or operation. For example, the input interface 205 is composed of at least one of a keyboard, operation buttons, a pointing device, a microphone, a sensor, and a camera. The keyboard and operation buttons may be displayed on the touch panel. Corresponding to the fact that the type of the input interface 205 is not limited, the data to be input is not limited. For example, the input interface 205 may accept data input or selected by a keyboard, operating buttons, or pointing device. Alternatively, the input interface 205 may accept voice data input by the microphone. Alternatively, the input interface 205 may accept image data (eg, video data or still image data) captured by the camera.

出力インタフェース206は、端末コンピュータ200で処理されたデータを出力する装置である。例えば、出力インタフェース206はモニタ、タッチパネル、HMDおよびスピーカのうちの少なくとも一つによって構成される。モニタ、タッチパネル、HMDなどの表示装置は、処理されたデータを画面上に表示する。スピーカは、処理された音声データで示される音声を出力する。 The output interface 206 is a device that outputs data processed by the terminal computer 200. For example, the output interface 206 is composed of at least one of a monitor, a touch panel, an HMD and a speaker. Display devices such as monitors, touch panels, and HMDs display the processed data on the screen. The speaker outputs the voice indicated by the processed voice data.

撮像部207は、現実世界を写した画像を撮影する装置であり、具体的にはカメラである。撮像部207は動画像(映像)を撮影してもよいし静止画(写真)を撮影してもよい。動画像を撮影する場合には、撮像部207は映像信号を所与のフレームレートに基づいて処理することで、時系列に並ぶ一連のフレーム画像を動画像として取得する。撮像部207は入力インタフェース205としても機能し得る。 The imaging unit 207 is a device that captures an image of the real world, and is specifically a camera. The imaging unit 207 may capture a moving image (video) or a still image (photograph). When shooting a moving image, the imaging unit 207 processes the video signal based on a given frame rate to acquire a series of frame images arranged in time series as a moving image. The imaging unit 207 can also function as an input interface 205.

生徒端末20または教師端末30の各機能要素は、対応するクライアントプログラムP2をプロセッサ201または主記憶部202に読み込ませてプロセッサ201にそのプログラムを実行させることで実現される。クライアントプログラムP2は、生徒端末20または教師端末30の各機能要素を実現するためのコードを含む。プロセッサ201はクライアントプログラムP2に従って通信部204、入力インタフェース205、出力インタフェース206、または撮像部207を動作させ、主記憶部202または補助記憶部203におけるデータの読み出しおよび書き込みを行う。この処理により生徒端末20または教師端末30の各機能要素が実現される。 Each functional element of the student terminal 20 or the teacher terminal 30 is realized by loading the corresponding client program P2 into the processor 201 or the main storage unit 202 and causing the processor 201 to execute the program. The client program P2 includes a code for realizing each functional element of the student terminal 20 or the teacher terminal 30. The processor 201 operates the communication unit 204, the input interface 205, the output interface 206, or the imaging unit 207 according to the client program P2, and reads and writes data in the main storage unit 202 or the auxiliary storage unit 203. By this process, each functional element of the student terminal 20 or the teacher terminal 30 is realized.

サーバプログラムP1およびクライアントプログラムP2の少なくとも一つは、CD−ROM、DVD−ROM、半導体メモリなどの有形の記録媒体に非一時的に記録された上で提供されてもよい。あるいは、これらのプログラムの少なくとも一つは、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。これらのプログラムは別々に提供されてもよいし、一緒に提供されてもよい。 At least one of the server program P1 and the client program P2 may be provided after being non-temporarily recorded on a tangible recording medium such as a CD-ROM, a DVD-ROM, or a semiconductor memory. Alternatively, at least one of these programs may be provided via a communication network as a data signal superimposed on a carrier wave. These programs may be provided separately or together.

図3はコンテンツ配信システム1に関連する機能構成の一例を示す図である。サーバ10は機能要素としてコンテンツ管理部11、モーション特定部12、言語表現決定部13、オブジェクト設定部14、オブジェクト送信部15、および辞書管理部16を備える。 FIG. 3 is a diagram showing an example of a functional configuration related to the content distribution system 1. The server 10 includes a content management unit 11, a motion identification unit 12, a language expression determination unit 13, an object setting unit 14, an object transmission unit 15, and a dictionary management unit 16 as functional elements.

コンテンツ管理部11は教育用コンテンツの生成および出力を管理する機能要素であり、モーション特定部12、言語表現決定部13、オブジェクト設定部14、オブジェクト送信部15を含んで構成される。モーション特定部12は、授業の場面を示す仮想空間内での仮想オブジェクトの動きを特定する機能要素である。本実施形態では、この仮想空間は少なくとも生徒端末20上で表示されるものとする。言語表現決定部13はその特定された動きに対応する言語表現を決定する機能要素である。言語表現とは、自然言語によって意味を客観的に表すことをいう。一例では、動きに対応する言語表現を決定することは、その動きまたはその動きに起因して起きた事象を言語で表現することである。オブジェクト設定部14はその言語表現に対応する仮想表現オブジェクトを設定する機能要素である。仮想表現オブジェクトは、言語表現を可視化するために用いられる仮想オブジェクトであり、教育用コンテンツデータの少なくとも一部を構成する。仮想表現オブジェクトは、言語表現に対応する表現データの一例である。オブジェクト送信部15はその仮想オブジェクトを生徒端末20に送信する機能要素である。この送信は、言語表現に対応する表現データを、仮想空間を表示する端末に出力する処理の一例である。辞書管理部16は生徒端末20からの要求に応答して辞書データを管理する機能要素である。 The content management unit 11 is a functional element that manages the generation and output of educational content, and includes a motion identification unit 12, a language expression determination unit 13, an object setting unit 14, and an object transmission unit 15. The motion specifying unit 12 is a functional element that specifies the movement of a virtual object in the virtual space indicating the scene of the lesson. In this embodiment, it is assumed that this virtual space is displayed at least on the student terminal 20. The language expression determination unit 13 is a functional element that determines the language expression corresponding to the specified movement. Linguistic expression means to objectively express meaning in natural language. In one example, determining the linguistic expression that corresponds to a movement is the linguistic representation of that movement or the events that result from that movement. The object setting unit 14 is a functional element that sets a virtual expression object corresponding to the language expression. A virtual representation object is a virtual object used to visualize a linguistic representation and constitutes at least a part of educational content data. The virtual expression object is an example of expression data corresponding to a linguistic expression. The object transmission unit 15 is a functional element that transmits the virtual object to the student terminal 20. This transmission is an example of a process of outputting expression data corresponding to a linguistic expression to a terminal displaying a virtual space. The dictionary management unit 16 is a functional element that manages dictionary data in response to a request from the student terminal 20.

生徒端末20は機能要素としてモーション送信部21、表示制御部22、および辞書制御部23を備える。モーション送信部21は生徒のモーションデータをサーバ10に送信する機能要素である。表示制御部22は教育用コンテンツデータを受信および処理して教育用コンテンツを表示装置上に表示する機能要素である。辞書制御部23は辞書データの保存または検索に関する処理を実行する機能要素である。 The student terminal 20 includes a motion transmission unit 21, a display control unit 22, and a dictionary control unit 23 as functional elements. The motion transmission unit 21 is a functional element that transmits student motion data to the server 10. The display control unit 22 is a functional element that receives and processes educational content data and displays the educational content on the display device. The dictionary control unit 23 is a functional element that executes processing related to saving or searching dictionary data.

[システムの動作]
コンテンツ配信システム1の動作(より具体的にはサーバ10の動作)を説明するとともに、本実施形態に係るコンテンツ制御方法(またはコンテンツ配信方法)について説明する。図4は、コンテンツ配信システム1の動作の一例を処理フローS1として示すフローチャートである。処理フローS1は、コンテンツ管理部11が、生徒端末20から要求された原映像データを原映像データベース40から読み出して、その原映像データを教育用コンテンツデータとしてその生徒端末20に既に提供し始めていることを前提とする。
[System operation]
The operation of the content distribution system 1 (more specifically, the operation of the server 10) will be described, and the content control method (or content distribution method) according to the present embodiment will be described. FIG. 4 is a flowchart showing an example of the operation of the content distribution system 1 as a processing flow S1. In the processing flow S1, the content management unit 11 has already started to read the original video data requested from the student terminal 20 from the original video database 40 and provide the original video data as educational content data to the student terminal 20. It is assumed that.

ステップS11では、コンテンツ管理部11が生徒端末20から生徒のモーションデータを受信する。生徒端末20では、モーション送信部21が、原映像を見ている生徒のリアルタイムの動きを示すモーションデータをサーバ10に向けて送信し、コンテンツ管理部11はそのモーションデータを受信する。モーションデータのデータ構造は限定されない。例えば、モーションデータは、特定の時間幅における生徒の動きを示してもよいし、特定の瞬間における生徒の姿勢を示してもよい。モーションデータは生徒の身体の任意の部分(例えば、手のみ、全身など)の動きまたは姿勢を表現してよい。 In step S11, the content management unit 11 receives the student motion data from the student terminal 20. In the student terminal 20, the motion transmission unit 21 transmits motion data indicating the real-time movement of the student viewing the original video to the server 10, and the content management unit 11 receives the motion data. The data structure of motion data is not limited. For example, the motion data may indicate the movement of the student in a specific time width, or may indicate the posture of the student at a specific moment. The motion data may represent the movement or posture of any part of the student's body (eg, hands only, whole body, etc.).

ステップS12では、モーション特定部12がそのモーションデータに基づいて仮想オブジェクトの動きを特定する。本開示では、モーション特定部12によって動きが特定される仮想オブジェクトを「対象仮想オブジェクト」ともいう。典型的には、対象仮想オブジェクトは、モーションデータによって動く仮想オブジェクトである。例えば、モーションデータが生徒の手の動きを示す場合には、対象仮想オブジェクトは仮想の手でもよい。モーションデータが生徒の全身の動きを示す場合には、対象仮想オブジェクトはその生徒のアバターでもよい。一例では、モーション特定部12はモーションデータに含まれる複数のジョイントの3次元座標の変化の履歴と、隣り合うジョイントの組合せ(すなわちボーン)とに基づいて対象仮想オブジェクトの動きを特定する。対象仮想オブジェクトの動きは生徒のリアルタイムの動きを示す。 In step S12, the motion specifying unit 12 specifies the movement of the virtual object based on the motion data. In the present disclosure, a virtual object whose motion is specified by the motion specifying unit 12 is also referred to as a “target virtual object”. Typically, the target virtual object is a virtual object that is moved by motion data. For example, if the motion data indicates the movement of the student's hand, the target virtual object may be a virtual hand. If the motion data shows the movement of the student's whole body, the target virtual object may be the student's avatar. In one example, the motion specifying unit 12 specifies the movement of the target virtual object based on the history of changes in the three-dimensional coordinates of a plurality of joints included in the motion data and the combination of adjacent joints (that is, bones). The movement of the target virtual object shows the real-time movement of the student.

ステップS13では、言語表現決定部13が言語表現ルールに基づいて、特定された動きに対応する言語表現を決定する。言語表現ルールは、少なくとも一つの仮想オブジェクトの動きから言語表現を導出するためのルールである。一例では、言語表現ルールは補助記憶部103に予め記憶される。言語表現ルールの実装方法は限定されず、例えば、対応表などのようなデータで表現されてもよいし、学習済みモデルなどのアルゴリズムでもよい。 In step S13, the linguistic expression determination unit 13 determines the linguistic expression corresponding to the specified movement based on the linguistic expression rule. A linguistic expression rule is a rule for deriving a linguistic expression from the movement of at least one virtual object. In one example, the language expression rule is pre-stored in the auxiliary storage unit 103. The implementation method of the language expression rule is not limited, and may be expressed by data such as a correspondence table or an algorithm such as a trained model.

「特定された動きに対応する言語表現」は、対象仮想オブジェクトの動きを示してもよいし、対象仮想オブジェクトの動きに基づいて変化する少なくとも一つの関連仮想オブジェクトに関連してもよい。関連仮想オブジェクトは任意の物体を示してよく、例えば、人(アバター)、任意の人工物(例えば、動産、不動産)、任意の自然物(例えば、動物、植物)、または任意の地形(例えば、山、川、地面)を示してもよい。関連仮想オブジェクトの変化は限定されず、例えば、位置または姿勢の変化(すなわち、動き)でもよいし、状態の変化(例えば、色の変化)でもよい。「特定された動きに対応する言語表現」は、対象オブジェクトの動きと関連仮想オブジェクトの変化との組合せを示してもよい。 The "linguistic representation corresponding to the specified movement" may indicate the movement of the target virtual object, or may relate to at least one related virtual object that changes based on the movement of the target virtual object. The associated virtual object may represent any object, eg, a person (avatar), any man-made object (eg, movable property, real estate), any natural object (eg, animal, plant), or any terrain (eg, mountain). , River, ground). The change of the related virtual object is not limited and may be, for example, a change in position or posture (ie, movement) or a change in state (eg, change in color). The "linguistic expression corresponding to the specified movement" may indicate a combination of the movement of the target object and the change of the related virtual object.

ステップS13において言語表現を決定できない場合、すなわち、特定された動きに対応する言語表現を導出できない場合には、処理フローS1はこの時点で終了し、この場合には、コンテンツ管理部11は仮想表現オブジェクトを追加することなく原映像データを生徒端末20に送信する。ステップS13において言語表現を決定した場合には、処理はステップS14に移る。 If the language expression cannot be determined in step S13, that is, if the language expression corresponding to the specified movement cannot be derived, the processing flow S1 ends at this point, and in this case, the content management unit 11 virtualizes the virtual expression. The original video data is transmitted to the student terminal 20 without adding an object. If the language expression is determined in step S13, the process proceeds to step S14.

ステップS14では、オブジェクト設定部14が、決定された言語表現に対応する仮想表現オブジェクトを設定する。言語表現を可視化できる限り、仮想表現オブジェクトの形式は限定されない。例えば、オブジェクト設定部14は言語表現をそのまま文字で示す仮想表現オブジェクトを設定してもよく、この場合には、装飾、アニメーション効果などの任意の視覚効果がその文字に適用されてよい。あるいは、オブジェクト設定部14は言語表現を、文字を用いることなく画像(静止画または動画)で示す仮想表現オブジェクトを設定してもよい。これは、特定された仮想オブジェクトの動きに似た場面を示す代表的な画像を設定する処理であるといえる。 In step S14, the object setting unit 14 sets a virtual expression object corresponding to the determined language expression. As long as the linguistic representation can be visualized, the format of the virtual representation object is not limited. For example, the object setting unit 14 may set a virtual expression object that expresses the language expression as it is in characters, and in this case, arbitrary visual effects such as decoration and animation effects may be applied to the characters. Alternatively, the object setting unit 14 may set a virtual expression object that indicates the language expression as an image (still image or moving image) without using characters. It can be said that this is a process of setting a typical image showing a scene similar to the movement of the specified virtual object.

仮想表現オブジェクトの表示時間は任意の方針で設定されてよい。例えば、オブジェクト設定部14は所与の制限時間を設定してもよい。あるいは、オブジェクト設定部14は、対象仮想オブジェクトの動きおよび関連仮想オブジェクトの変化の少なくとも一方が終了するまで仮想表現オブジェクトが表示されるように該仮想表現オブジェクトを制御してもよい。 The display time of the virtual representation object may be set by any policy. For example, the object setting unit 14 may set a given time limit. Alternatively, the object setting unit 14 may control the virtual representation object so that the virtual representation object is displayed until at least one of the movement of the target virtual object and the change of the related virtual object is completed.

ステップS15では、オブジェクト設定部14が、設定された仮想表現オブジェクトを含む教育用コンテンツデータを生成する。一例では、原映像データは仮想空間を示し、この場合には、オブジェクト設定部14は仮想表現オブジェクトをその仮想空間内に配置する。「(仮想表現オブジェクトなどの)オブジェクトを配置する」とは、オブジェクトを決められた位置に置くことをいい、オブジェクトの位置の変更を含む概念である。 In step S15, the object setting unit 14 generates educational content data including the set virtual expression object. In one example, the original video data indicates a virtual space, and in this case, the object setting unit 14 arranges the virtual expression object in the virtual space. "Place an object (such as a virtual representation object)" means to place an object in a fixed position, and is a concept that includes changing the position of the object.

教育用コンテンツデータの生成方法およびデータ構造は限定されない。例えば、コンテンツ管理部11は、仮想空間と、仮想表現オブジェクトを含む個々のオブジェクトの位置、寸法、および動作(姿勢)とを示す仮想空間データを含む教育用コンテンツデータを生成してもよい。あるいは、コンテンツ管理部11は、設定された仮想空間に基づくレンダリングを実行することで教育用コンテンツデータを生成してもよい。この場合には、教育用コンテンツデータは、仮想表現オブジェクトを含むコンテンツ画像そのものを示す。 There are no restrictions on the method and data structure of educational content data. For example, the content management unit 11 may generate educational content data including virtual space data indicating the positions, dimensions, and movements (postures) of the virtual space and individual objects including the virtual representation object. Alternatively, the content management unit 11 may generate educational content data by executing rendering based on the set virtual space. In this case, the educational content data indicates the content image itself including the virtual representation object.

ステップS16では、オブジェクト送信部15が、仮想表現オブジェクトを含む教育用コンテンツデータを生徒端末20に送信する。生徒端末20では、表示制御部22がその教育用コンテンツデータを受信および処理して、教育用コンテンツを表示装置上に表示する。この結果、生徒端末20上に表示されている仮想空間内に仮想表現オブジェクトが現われる。サーバ10でレンダリングが実行されていない場合には、表示制御部22は教育用コンテンツデータに基づくレンダリングを実行することでコンテンツ画像を表示する。教育用コンテンツデータがコンテンツ画像そのものを示す場合には、表示制御部22はそのコンテンツ画像をそのまま表示する。生徒端末20は、コンテンツ画像の表示に合わせて音声をスピーカから出力する。 In step S16, the object transmission unit 15 transmits educational content data including the virtual expression object to the student terminal 20. In the student terminal 20, the display control unit 22 receives and processes the educational content data, and displays the educational content on the display device. As a result, the virtual representation object appears in the virtual space displayed on the student terminal 20. When rendering is not executed on the server 10, the display control unit 22 displays the content image by executing rendering based on the educational content data. When the educational content data indicates the content image itself, the display control unit 22 displays the content image as it is. The student terminal 20 outputs sound from the speaker in accordance with the display of the content image.

オブジェクト送信部15は、教育用コンテンツデータを生徒端末20に送信することに加えてまたは代えて、その教育用コンテンツデータを所与のデータベースに格納してもよい。例えば、オブジェクト送信部15はその教育用コンテンツデータを原映像データとして原映像データベース40に格納してもよい。 The object transmission unit 15 may store the educational content data in a given database in addition to or instead of transmitting the educational content data to the student terminal 20. For example, the object transmission unit 15 may store the educational content data as the original video data in the original video database 40.

或る一つの生徒端末20への1回の配信において処理フローS1は複数回実行され得る。この場合には、教育用コンテンツが表示されている間に、生徒のリアルタイムの動きに応答して、様々な仮想表現オブジェクトがその動きのタイミングで表示される。処理フローS1は一部のモーションデータに限って実行されてもよい。例えば、コンテンツ配信システム1は、教育用コンテンツでの特定の場面(例えば、演習問題を行う場面)に対応する時間幅の間に受信されるモーションデータに限って処理フローS1を実行してもよい。 The processing flow S1 can be executed a plurality of times in one delivery to a certain student terminal 20. In this case, while the educational content is displayed, various virtual representation objects are displayed at the timing of the movement in response to the student's real-time movement. The processing flow S1 may be executed only for a part of the motion data. For example, the content distribution system 1 may execute the processing flow S1 only for the motion data received during the time width corresponding to a specific scene (for example, a scene where an exercise is performed) in the educational content. ..

図5〜図7を参照しながら、仮想表現オブジェクトの表示の例を説明する。図5〜図7はいずれも、仮想表現オブジェクトの一例を示す図である。 An example of displaying a virtual representation object will be described with reference to FIGS. 5 to 7. 5 to 7 are diagrams showing an example of a virtual representation object.

図5の例では、台301、ボール302、および仮想手311という3個の仮想オブジェクトを含む仮想空間での状況の変化を示す。この例では、コンテンツ配信システム1は台301に対するボール302の位置を示す英語の前置詞を仮想表現オブジェクトによって表示する。 In the example of FIG. 5, the change of the situation in the virtual space including the three virtual objects of the platform 301, the ball 302, and the virtual hand 311 is shown. In this example, the content distribution system 1 displays an English preposition indicating the position of the ball 302 with respect to the platform 301 by a virtual expression object.

仮想手311は生徒の手の実際の動きに基づいて動く対象仮想オブジェクトである。台301およびボール302は関連仮想オブジェクトとして処理され得る。生徒が仮想手311を操作してボール302を台301の上に載せると、その操作に応答して仮想表現オブジェクト321が表示される。この仮想表現オブジェクト321は、ボール302が台301の“上に”置かれたことに対応して決定された言語表現である前置詞「on」の文字そのものを示す表現データである。その後、生徒が仮想手311を操作してボール302を台301の傍に置くと、その操作に応答して仮想表現オブジェクト322が表示される。この仮想表現オブジェクト322は、ボール302が台301の“傍に”位置することに対応して決定された言語表現である前置詞「by」の文字そのものを示す表現データである。仮想表現オブジェクト321,322はいずれも、関連仮想オブジェクトに関連するものといえる。 The virtual hand 311 is a target virtual object that moves based on the actual movement of the student's hand. The pedestal 301 and the ball 302 can be treated as related virtual objects. When the student operates the virtual hand 311 to place the ball 302 on the table 301, the virtual representation object 321 is displayed in response to the operation. The virtual expression object 321 is expression data indicating the character itself of the preposition "on", which is a linguistic expression determined in response to the ball 302 being placed "on" the table 301. After that, when the student operates the virtual hand 311 to place the ball 302 near the table 301, the virtual representation object 322 is displayed in response to the operation. The virtual expression object 322 is expression data indicating the character itself of the preposition "by", which is a linguistic expression determined corresponding to the position of the ball 302 "near" the platform 301. It can be said that the virtual representation objects 321 and 322 are all related to the related virtual object.

一例では、図5の例のように、生徒の動作に基づく対象仮想オブジェクトの動きに対応する言語表現を表示することで、学習者は、一般には理解が容易ではない外国語の語彙の微妙な違いを理解することができる。例えば、方向に関係なく台301にボール302が接触した場合には、英単語「ON」を示す仮想表現オブジェクトが表示されてもよい。仮想手311がボール302を持ち上げて該ボール302を台301の真上に位置させた場合には、英単語「over」が表示されてもよい。仮想手311がボール302を台301のほぼ上方に位置させた場合には、英単語「above」が表示されてもよい。このような言語表現の表示は、書籍、現実の教室内での授業、教師が生徒に一方的に教えるテレビの教育番組などのような従来の教育(例えば外国語教育)では得られない特有の効果を奏する。 In one example, as in the example of FIG. 5, by displaying a linguistic expression corresponding to the movement of the target virtual object based on the movement of the student, the learner is generally not easy to understand the subtleties of the foreign language vocabulary. Can understand the difference. For example, when the ball 302 comes into contact with the table 301 regardless of the direction, a virtual expression object indicating the English word “ON” may be displayed. When the virtual hand 311 lifts the ball 302 and positions the ball 302 directly above the base 301, the English word "over" may be displayed. When the virtual hand 311 positions the ball 302 substantially above the platform 301, the English word "above" may be displayed. This display of linguistic expressions is unique and not available in traditional education (eg, foreign language education), such as books, real classroom lessons, and television educational programs where teachers teach students unilaterally. It works.

図6の例では、複数の生徒に対応する複数のアバターを含む仮想空間400を示す。この例では、コンテンツ配信システム1はアバターの動きを示す英単語を仮想表現オブジェクトによって表示する。 In the example of FIG. 6, a virtual space 400 including a plurality of avatars corresponding to a plurality of students is shown. In this example, the content distribution system 1 displays English words indicating the movement of the avatar by a virtual expression object.

仮想空間400は、或る一人の生徒のアバター401と、ボール402とを含む。アバター401はその生徒の実際の動きに基づいて動く対象仮想オブジェクトである。ボール402は関連仮想オブジェクトとして処理され得る。その生徒がアバター401を操作してボール402を投げると、その操作に応答して仮想表現オブジェクト411が表示される。この仮想表現オブジェクト411は、アバター401がボール402を投げたことに対応して決定された言語表現である動詞「throw」の文字そのものを示す表現データである。仮想表現オブジェクト411は対象仮想オブジェクトの動きを示すものといえる。 The virtual space 400 includes a student's avatar 401 and a ball 402. Avatar 401 is a target virtual object that moves based on the student's actual movements. The ball 402 can be treated as an associated virtual object. When the student operates the avatar 401 and throws the ball 402, the virtual representation object 411 is displayed in response to the operation. The virtual expression object 411 is expression data indicating the character itself of the verb "throw", which is a linguistic expression determined in response to the avatar 401 throwing the ball 402. It can be said that the virtual representation object 411 indicates the movement of the target virtual object.

仮想空間400は、別の一人の生徒のアバター421をさらに含む。アバター421はその生徒の実際の動きに基づいて動く対象仮想オブジェクトである。その生徒がジャンプするとアバター421もジャンプし、その動きに対応して決定された言語表現である動詞「jump」の文字そのものが仮想表現オブジェクト431として表示される。仮想表現オブジェクト431も対象仮想オブジェクトの動きを示すものといえる。この仮想空間400のように、コンテンツ配信システム1は、視聴者以外の人のアバターの動きに起因する言語表現に対応する仮想表現オブジェクトを該視聴者の端末上に表示してもよい。 The virtual space 400 further includes another student's avatar 421. Avatar 421 is a target virtual object that moves based on the student's actual movement. When the student jumps, the avatar 421 also jumps, and the character itself of the verb "jump", which is a linguistic expression determined in response to the movement, is displayed as the virtual expression object 431. It can be said that the virtual representation object 431 also indicates the movement of the target virtual object. Like the virtual space 400, the content distribution system 1 may display a virtual expression object corresponding to a linguistic expression caused by the movement of an avatar of a person other than the viewer on the terminal of the viewer.

図7の例では、或る一人の生徒に対応するアバターを含む仮想空間500を示す。この例では、コンテンツ配信システム1はアバターの行動を示す英文を仮想表現オブジェクトによって表示する。 In the example of FIG. 7, a virtual space 500 including an avatar corresponding to a certain student is shown. In this example, the content distribution system 1 displays an English sentence indicating the behavior of the avatar by a virtual expression object.

仮想空間500は、壁501と、生徒のアバター502と、そのアバター502が持つブラシ503とを含む。アバター502はその生徒の実際の動きに基づいて動く対象仮想オブジェクトである。壁501およびブラシ503は関連仮想オブジェクトとして処理され得る。その生徒がアバター502を操作してブラシ503で壁501を赤く塗ると、その操作に応答して仮想表現オブジェクト511が表示される。この仮想表現オブジェクト511は、壁501を赤く塗るという行動に対応して決定された言語表現である英文「You are painting a wall in red.」の文字そのものを示す表現データである。仮想表現オブジェクト511は、対象仮想オブジェクトの動きを示すものともいえるし、対象仮想オブジェクトの動きと関連仮想オブジェクトの変化との組合せを示すものともいえる。 The virtual space 500 includes a wall 501, a student avatar 502, and a brush 503 possessed by the avatar 502. The avatar 502 is a target virtual object that moves based on the student's actual movement. Walls 501 and brushes 503 can be treated as related virtual objects. When the student operates the avatar 502 and paints the wall 501 red with the brush 503, the virtual representation object 511 is displayed in response to the operation. The virtual expression object 511 is expression data indicating the characters themselves of the English sentence "You are painting a wall in red.", Which is a linguistic expression determined in response to the action of painting the wall 501 in red. The virtual representation object 511 can be said to indicate the movement of the target virtual object, and can also be said to indicate the combination of the movement of the target virtual object and the change of the related virtual object.

別の例として、シナリオに基づく問題文として、「You are painting a wall in red.」という英文が先に表示され、「あなたがこの動作をしてください。」という課題が教育用コンテンツ中の教師から生徒へ示されたとする。そして、生徒は、その教育用コンテンツの仮想空間内でブラシ503を持ち、複数種類の色のペンキから赤いペンキを選んでブラシ503を赤いペンキにつけ、壁501に塗る動作をしなければならないとする。生徒がその動作を正しく行った場合には、コンテンツ配信システム1はその動作に基づいて、「正解です。」という言語表現を示す仮想表現オブジェクトを表示してもよい。生徒がその動作を正しく行わない場合(例えば、別の色のペンキに近づいた場合)には、コンテンツ配信システム1はその動作に基づいて、「本当にその色ですか?」という言語表現を示す仮想表現オブジェクトをヒントとして表示してもよい。 As another example, as a scenario-based question sentence, the English sentence "You are painting a wall in red." Is displayed first, and the task "You should do this action." Is displayed by the teacher in the educational content. Was shown to the students. Then, the student must hold the brush 503 in the virtual space of the educational content, select the red paint from a plurality of colors of paint, apply the brush 503 to the red paint, and apply the brush 503 to the wall 501. .. If the student performs the action correctly, the content distribution system 1 may display a virtual expression object indicating the linguistic expression "correct answer" based on the action. If the student does not do the action correctly (for example, when approaching a paint of another color), the content distribution system 1 is based on the action and shows a virtual expression "Is it really that color?" The representation object may be displayed as a hint.

一例では、図5〜図7に示すような場面を含む教育用コンテンツは語学の授業のコンテンツである。コンテンツ配信システム1を語学の授業に適用することで、言語に関する説明のために補助資料を用意しなくても、仮想表現オブジェクトを用いて語彙の使い分け、文法などの様々な事項を生徒に伝えることができる。生徒はその仮想表現オブジェクトを見ることで、言語に関する様々な事項を直感的に理解することができる。 In one example, the educational content including the scenes shown in FIGS. 5 to 7 is the content of the language class. By applying the content distribution system 1 to language lessons, it is possible to convey various matters such as vocabulary usage and grammar to students using virtual expression objects without preparing supplementary materials for explanations about the language. Can be done. By looking at the virtual representation object, students can intuitively understand various matters related to language.

上述したようにコンテンツの目的および利用場面は限定されず、したがって、仮想表現オブジェクトが具体的に示す事項も何ら限定されない。仮想表現オブジェクトは英語以外の任意の言語による表記を示してもよい。あるいは、仮想表現オブジェクトは語学以外の学習を目的とする事項を示してもよく、例えば、仮想的な技能講習における所与の操作の注意点を示してもよい。仮想表現オブジェクトは学習以外の目的で用いられてもよく、例えば、情報伝達またはコミュニケーションを支援するために用いられてもよい。 As described above, the purpose and usage of the content are not limited, and therefore, the matters specifically indicated by the virtual representation object are not limited. The virtual representation object may show notation in any language other than English. Alternatively, the virtual representation object may indicate a matter for the purpose of learning other than language, and may indicate, for example, a note of a given operation in a virtual skill class. The virtual representation object may be used for purposes other than learning, for example, to support information transmission or communication.

処理フローS1によって生徒端末20に提供された教育用コンテンツを視聴する生徒は、仮想表現オブジェクトが映った場面の画像を辞書データとして登録することができ、さらに、その辞書データを後で参照することができる。本実施形態では、生徒端末20の辞書制御部23とサーバ10の辞書管理部16とが協働して辞書データの登録および参照(検索)を実行する。 A student who views the educational content provided to the student terminal 20 by the processing flow S1 can register an image of the scene in which the virtual expression object is reflected as dictionary data, and further refers to the dictionary data later. Can be done. In the present embodiment, the dictionary control unit 23 of the student terminal 20 and the dictionary management unit 16 of the server 10 cooperate to register and refer to (search) dictionary data.

生徒は生徒端末20を操作して、仮想表現オブジェクトを含む場面の画像(静止画または所与の時間幅の映像)を指定する。辞書制御部23はその操作に応答して、指定された画像を記録し、この画像と視聴者IDとを含む登録要求をサーバ10に送信する。サーバ10では辞書管理部16がその登録要求を受信する。辞書管理部16は、新規のレコードIDを生成し、登録要求に含まれる視聴者IDおよび画像をそのレコードIDに関連付けることで辞書データのレコードを生成する。そして、辞書管理部16はそのレコードを辞書データベース50に格納する。 The student operates the student terminal 20 to specify an image (still image or video of a given time width) of the scene including the virtual representation object. In response to the operation, the dictionary control unit 23 records the designated image and transmits a registration request including the image and the viewer ID to the server 10. In the server 10, the dictionary management unit 16 receives the registration request. The dictionary management unit 16 generates a new record ID, and generates a record of dictionary data by associating the viewer ID and the image included in the registration request with the record ID. Then, the dictionary management unit 16 stores the record in the dictionary database 50.

その後の任意のタイミングで、生徒は生徒端末20を操作して辞書データのリストまたは辞書データの特定の1以上のレコードを指定する。辞書制御部23はその操作に応答して、少なくとも視聴者IDを含む検索要求をサーバ10に送信する。サーバ10では辞書管理部16がその検索要求に対応する少なくとも一つのレコードを辞書データベース50から読み出し、そのレコードを検索結果として生徒端末20に送信する。生徒端末20では辞書制御部23がその検索結果を表示装置上に表示し、これにより生徒は、仮想表現オブジェクトが映った場面(例えば、図5〜図7に示すような場面)を再び参照ことができる。 At any subsequent timing, the student operates the student terminal 20 to specify a list of dictionary data or a specific record of one or more of the dictionary data. In response to the operation, the dictionary control unit 23 transmits a search request including at least the viewer ID to the server 10. In the server 10, the dictionary management unit 16 reads at least one record corresponding to the search request from the dictionary database 50, and transmits the record as a search result to the student terminal 20. In the student terminal 20, the dictionary control unit 23 displays the search result on the display device, whereby the student can re-reference the scene in which the virtual expression object is displayed (for example, the scene shown in FIGS. 5 to 7). Can be done.

上述したように、コンテンツ配信システム1は様々な態様の授業に適用し得る。一例では、コンテンツ配信システム1はリアルタイム遠隔授業のために用いられ得る。リアルタイム遠隔授業とは、教師がリアルタイムで行っている授業が教師端末30およびサーバ10を介して1以上の生徒端末20にリアルタイムで配信される態様である。この場合には、1以上の生徒が共通のコンテンツ(すなわち共通の仮想空間)を同時に視聴しているので、すべての生徒が特定の仮想オブジェクトを同時に動かすことは困難である。したがって、この場合には、教師または選ばれた生徒が仮想オブジェクトを動かしたり仮想空間中で動作をしたりすることが考えられる。 As described above, the content distribution system 1 can be applied to various types of lessons. In one example, the content distribution system 1 can be used for real-time distance learning. The real-time distance lesson is a mode in which a lesson conducted by a teacher in real time is delivered in real time to one or more student terminals 20 via a teacher terminal 30 and a server 10. In this case, since one or more students are viewing common content (that is, a common virtual space) at the same time, it is difficult for all students to move a specific virtual object at the same time. Therefore, in this case, it is conceivable that the teacher or selected student moves the virtual object or operates in the virtual space.

別の例では、コンテンツ配信システム1はタイムシフト遠隔授業のために用いられ得る。タイムシフト遠隔授業とは、予め撮影または生成された教育用コンテンツ(すなわち、所与のデータベースに予め記憶された教育用コンテンツ)が個々の生徒端末20からの要求に応じて該生徒端末20に配信される態様である。この場合には、リアルタイムの第1生徒の動作が仮想オブジェクトの情報として教育用コンテンツデータに追加または上書きされることで保存されて、所与のデータベースに格納される。加えて、その動作に基づく言語表現に対応する仮想表現オブジェクトもその教育用コンテンツデータに追加または上書きされることで保存される。その後、その教育用コンテンツを第2生徒が視聴する場合には、その第2生徒は第1生徒の動作とそれに対応する言語表現(仮想表現オブジェクト)とを視認することができる。第2生徒の動作と、この動作に基づく言語表現に対応する仮想表現オブジェクトとについても、教育用コンテンツデータに追加または上書きされ得る。このようなタイムシフト遠隔授業により、空間的にも時間的にも離間した別々の生徒があたかも一緒に同時に同じ授業を受けているかのような疑似的な印象をそれぞれの生徒に与えることができる。 In another example, the content distribution system 1 can be used for time-shifted distance learning. In time-shift distance learning, pre-photographed or generated educational content (that is, educational content pre-stored in a given database) is delivered to the student terminal 20 in response to a request from each student terminal 20. It is an aspect to be done. In this case, the real-time first student action is stored as virtual object information by adding or overwriting it to the educational content data and stored in a given database. In addition, a virtual representation object corresponding to the linguistic representation based on the behavior is also saved by being added or overwritten to the educational content data. After that, when the second student views the educational content, the second student can visually recognize the movement of the first student and the corresponding linguistic expression (virtual expression object). The action of the second student and the virtual expression object corresponding to the linguistic expression based on this action can also be added or overwritten in the educational content data. By such time-shift distance learning, it is possible to give each student a pseudo impression as if different students who are separated in space and time are taking the same lesson together at the same time.

[効果]
以上説明したように、本開示の一側面に係るコンテンツ制御システムは少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、授業の場面を示す仮想空間内での対象仮想オブジェクトの動きを特定し、言語表現ルールを記憶する記憶部を参照して、特定された動きに対応する言語表現を決定し、決定された言語表現に対応する表現データを出力する。
[effect]
As described above, the content control system according to one aspect of the present disclosure includes at least one processor. At least one processor identifies the movement of the target virtual object in the virtual space indicating the scene of the lesson, refers to the storage unit that stores the linguistic expression rule, and determines the linguistic expression corresponding to the specified movement. , Outputs the expression data corresponding to the determined language expression.

本開示の一側面に係るコンテンツ制御方法は、少なくとも一つのプロセッサを備えるコンテンツ制御システムによって実行される。コンテンツ制御方法は、授業の場面を示す仮想空間内での対象仮想オブジェクトの動きを特定するステップと、言語表現ルールを記憶する記憶部を参照して、特定された動きに対応する言語表現を決定するステップと、決定された言語表現に対応する表現データを出力するステップとを含む。 The content control method according to one aspect of the present disclosure is executed by a content control system including at least one processor. The content control method determines the language expression corresponding to the specified movement by referring to the step of specifying the movement of the target virtual object in the virtual space showing the scene of the lesson and the storage unit that stores the language expression rule. The step of outputting the expression data corresponding to the determined linguistic expression is included.

本開示の一側面に係るコンテンツ制御プログラムは、授業の場面を示す仮想空間内での対象仮想オブジェクトの動きを特定するステップと、言語表現ルールを記憶する記憶部を参照して、特定された動きに対応する言語表現を決定するステップと、決定された言語表現に対応する表現データを出力するステップとをコンピュータに実行させる。 The content control program according to one aspect of the present disclosure refers to the step of specifying the movement of the target virtual object in the virtual space indicating the scene of the lesson and the storage unit for storing the language expression rule, and the specified movement. The computer is made to execute the step of determining the linguistic expression corresponding to the above and the step of outputting the expression data corresponding to the determined linguistic expression.

このような側面においては、対象仮想オブジェクトの動作に対応する言語表現に基づく表現データが出力される。この表現データによって、仮想空間内の出来事を端末のユーザに効果的に伝えることができる。 In such an aspect, expression data based on the linguistic expression corresponding to the operation of the target virtual object is output. With this representation data, events in the virtual space can be effectively communicated to the user of the terminal.

他の側面に係るコンテンツ制御システムでは、少なくとも一つのプロセッサが、授業を見ている生徒のリアルタイムの動きを示すモーションデータを端末から受信し、モーションデータに基づいて対象仮想オブジェクトの動きを特定してもよい。この処理によって、生徒のリアルタイムの動きに対応する出来事をその生徒にリアルタイムに且つ効果的に伝えることができる。 In the content control system according to the other aspect, at least one processor receives motion data indicating the real-time movement of the student watching the class from the terminal, and identifies the movement of the target virtual object based on the motion data. May be good. By this process, the event corresponding to the student's real-time movement can be effectively communicated to the student in real time.

他の側面に係るコンテンツ制御システムでは、少なくとも一つのプロセッサが、過去に撮影または生成された原映像を示す原映像データをデータベースから取得し、取得された原映像データと表現データとを用いて教育用コンテンツデータを生成し、生成された教育用コンテンツデータを出力してもよい。リアルタイムの映像ではなく既存の映像が表現データを用いて教育用コンテンツデータに変換されるので、過去の膨大な映像をより効果的に利用または再利用することができる。 In the content control system according to the other aspect, at least one processor acquires the original video data indicating the original video shot or generated in the past from the database, and educates using the acquired original video data and the expression data. Content data for education may be generated and the generated educational content data may be output. Since existing video is converted into educational content data using expression data instead of real-time video, a huge amount of past video can be used or reused more effectively.

他の側面に係るコンテンツ制御システムでは、少なくとも一つのプロセッサが、対象仮想オブジェクトの動きを示す言語表現を決定してもよい。この場合には、対象仮想オブジェクトの動きをユーザに効果的に伝えることができる。 In the content control system according to the other aspect, at least one processor may determine a linguistic representation indicating the movement of the target virtual object. In this case, the movement of the target virtual object can be effectively transmitted to the user.

他の側面に係るコンテンツ制御システムでは、少少なくとも一つのプロセッサが、対象仮想オブジェクトの動きに基づいて変化する関連仮想オブジェクトに関連する言語表現を決定してもよい。この場合には、関連仮想オブジェクトの変化をユーザに効果的に伝えることができる。 In the content control system according to the other aspect, at least one processor may determine the linguistic representation associated with the related virtual object that changes based on the movement of the target virtual object. In this case, changes in related virtual objects can be effectively communicated to the user.

他の側面に係るコンテンツ制御システムでは、少なくとも一つのプロセッサが、対象仮想オブジェクトの動きと関連仮想オブジェクトの変化との組合せを示す言語表現を決定してもよい。この場合には、対象仮想オブジェクトおよび関連仮想オブジェクトの組合せに基づく出来事をユーザに効果的に伝えることができる。 In the content control system according to the other aspect, at least one processor may determine a linguistic representation indicating a combination of the movement of the target virtual object and the change of the related virtual object. In this case, it is possible to effectively convey to the user an event based on the combination of the target virtual object and the related virtual object.

他の側面に係るコンテンツ制御システムでは、表現データが、端末上に表示される仮想表現オブジェクトを示してもよい。この場合には、仮想空間内の出来事を端末のユーザに視覚的に伝えることができる。 In the content control system according to the other aspect, the representation data may indicate a virtual representation object displayed on the terminal. In this case, the events in the virtual space can be visually transmitted to the user of the terminal.

他の側面に係るコンテンツ制御システムでは、仮想表現オブジェクトが文字を含んでもよい。仮想空間内の出来事を文字によって表現することで、その出来事を分かりやすくユーザに伝えることができる。 In the content control system according to the other aspect, the virtual representation object may contain characters. By expressing the events in the virtual space with characters, the events can be conveyed to the user in an easy-to-understand manner.

他の側面に係るコンテンツ制御システムでは、少なくとも一つのプロセッサが、端末上に表示された仮想表現オブジェクトを映す場面を含む画像と授業を見ている生徒の視聴者IDとを含む登録要求を取得し、視聴者IDおよび画像を含む辞書データを辞書データベースに格納し、端末からの検索要求に応答して、該検索要求に対応する辞書データを辞書データベースから読み出して該辞書データを端末に出力してもよい。この場合には、仮想表現オブジェクトを映す場面の保存および検索が可能になるので、ユーザは、一度見た仮想表現オブジェクトを後で再び見返すことができる。 In the content control system according to the other aspect, at least one processor acquires a registration request including an image including a scene showing a virtual representation object displayed on the terminal and a viewer ID of a student watching the class. , The dictionary data including the viewer ID and the image is stored in the dictionary database, and in response to the search request from the terminal, the dictionary data corresponding to the search request is read from the dictionary database and the dictionary data is output to the terminal. May be good. In this case, the scene in which the virtual representation object is projected can be saved and searched, so that the user can look back at the virtual representation object once viewed.

[変形例]
以上、本開示の実施形態に基づいて詳細に説明した。しかし、本開示は上記実施形態に限定されるものではない。本開示は、その要旨を逸脱しない範囲で様々な変形が可能である。
[Modification example]
The above description has been made in detail based on the embodiments of the present disclosure. However, the present disclosure is not limited to the above embodiment. The present disclosure can be modified in various ways without departing from its gist.

上記実施形態では、モーション特定部12が、生徒端末(視聴者端末)20から提供されたモーションデータ、すなわち、生徒(視聴者)のリアルタイムの動きを示すモーションデータに基づいて対象仮想オブジェクトの動きを特定する。しかし、対象仮想オブジェクトの動きを特定する手法はこれに限定されず、これに関連して、視聴者端末はモーション送信部21に相当する機能を備えなくてもよい。例えば、モーション特定部12は教師端末30から提供されるモーションデータ、すなわち、教師(配信者)のリアルタイムの動きを示すモーションデータに基づいて対象仮想オブジェクトの動きを特定してもよい。あるいは、モーション特定部12は原映像に映る対象仮想オブジェクトの動きを特定してもよい。例えば、モーション特定部12は、原映像を解析することで、あるいは、原映像データに含まれるシナリオを参照することで、予め記録されている任意の対象仮想オブジェクトの動きを特定してもよい。原映像から選択される対象仮想オブジェクトは任意の有体物を示してよく、例えば、人(アバター)、任意の人工物(例えば、動産、不動産)、任意の自然物(例えば、動物、植物)、および任意の地形(例えば、山、川、地面)のうちの少なくとも一つでもよい。 In the above embodiment, the motion specifying unit 12 performs the movement of the target virtual object based on the motion data provided from the student terminal (viewer terminal) 20, that is, the motion data indicating the real-time movement of the student (viewer). Identify. However, the method for specifying the movement of the target virtual object is not limited to this, and in connection with this, the viewer terminal does not have to have a function corresponding to the motion transmission unit 21. For example, the motion specifying unit 12 may specify the movement of the target virtual object based on the motion data provided by the teacher terminal 30, that is, the motion data indicating the real-time movement of the teacher (distributor). Alternatively, the motion specifying unit 12 may specify the movement of the target virtual object displayed in the original image. For example, the motion specifying unit 12 may specify the movement of an arbitrary target virtual object recorded in advance by analyzing the original video or by referring to the scenario included in the original video data. The target virtual object selected from the original video may represent any tangible object, eg, a person (avatar), any man-made object (eg, animal, real estate), any natural object (eg, animal, plant), and any. It may be at least one of the terrains (eg, mountains, rivers, ground).

上記実施形態では、表現データが、視認可能な仮想表現オブジェクトを示すが、表現データの構造はこれに限定されない。したがって、仮想表現オブジェクトは必須ではない。例えば、表現データは、言語表現を音声によって表現する音声データによって実現されてもよく、この場合には、生徒などの視聴者はその言語表現を聴き取ることができる。 In the above embodiment, the representation data indicates a visible virtual representation object, but the structure of the representation data is not limited to this. Therefore, virtual representation objects are not required. For example, the expression data may be realized by audio data that expresses a linguistic expression by voice, and in this case, a viewer such as a student can hear the linguistic expression.

上記実施形態ではサーバ10が辞書管理部16を備えるが、この機能要素は必須ではない。したがって、コンテンツ制御システムは辞書データの保存および参照に関する機能を有しなくてもよい。これに対応して、視聴者端末は辞書制御部23に相当する機能を備えなくてもよい。 In the above embodiment, the server 10 includes the dictionary management unit 16, but this functional element is not essential. Therefore, the content control system does not have to have a function related to storage and reference of dictionary data. Correspondingly, the viewer terminal does not have to have a function corresponding to the dictionary control unit 23.

上記実施形態ではコンテンツ配信システム1がサーバ10を用いて構成されたが、コンテンツ制御システムは、サーバ10を用いないユーザ端末間の直接配信に適用されてもよい。この場合には、サーバ10の各機能要素はいずれかのユーザ端末に実装されてもよく、例えば、配信者端末および視聴者端末のいずれか一方に実装されてもよい。あるいは、サーバ10の個々の機能要素は複数のユーザ端末に分かれて実装されてもよく、例えば配信者端末および視聴者端末に分かれて実装されてもよい。これに関連して、コンテンツ制御プログラムはクライアントプログラムとして実現されてもよい。コンテンツ制御システムはサーバを用いて構成されてもよいし、サーバを用いることなく構成されてもよい。生徒端末などの視聴者端末がサーバ10の機能を有することで、サーバの負荷を低減しつつ、共通の教育用コンテンツを多数の生徒に提供することができる。加えて、生徒などの配信者に関する情報(例えば、動作を示す情報)が視聴者端末の外部に送信されないので、視聴者情報の秘密をより確実に守ることが可能になる。 In the above embodiment, the content distribution system 1 is configured by using the server 10, but the content control system may be applied to direct distribution between user terminals that do not use the server 10. In this case, each functional element of the server 10 may be implemented on any user terminal, or may be implemented on either a distributor terminal or a viewer terminal, for example. Alternatively, the individual functional elements of the server 10 may be implemented separately in a plurality of user terminals, and may be implemented separately in, for example, a distributor terminal and a viewer terminal. In this regard, the content control program may be implemented as a client program. The content control system may be configured with or without a server. Since the viewer terminal such as the student terminal has the function of the server 10, it is possible to provide common educational contents to a large number of students while reducing the load on the server. In addition, since information about a distributor such as a student (for example, information indicating an operation) is not transmitted to the outside of the viewer terminal, it is possible to more reliably protect the confidentiality of the viewer information.

上述したように、コンテンツ制御システムは、教育用コンテンツ以外の任意の種類のコンテンツを制御してもよい。例えば、コンテンツ制御システムはユーザ間の任意の情報伝達またはコミュニケーションを支援するための任意のコンテンツを制御してもよい。 As described above, the content control system may control any type of content other than educational content. For example, the content control system may control arbitrary content to support arbitrary information transmission or communication between users.

本開示において、「少なくとも一つのプロセッサが、第1の処理を実行し、第2の処理を実行し、…第nの処理を実行する。」との表現、またはこれに対応する表現は、第1の処理から第nの処理までのn個の処理の実行主体(すなわちプロセッサ)が途中で変わる場合を含む概念である。すなわち、この表現は、n個の処理のすべてが同じプロセッサで実行される場合と、n個の処理においてプロセッサが任意の方針で変わる場合との双方を含む概念である。 In the present disclosure, the expression "at least one processor executes the first process, executes the second process, ... executes the nth process", or the expression corresponding thereto is the first. This is a concept including a case where the execution subject (that is, the processor) of n processes from the first process to the nth process changes in the middle. That is, this expression is a concept that includes both a case where all n processes are executed by the same processor and a case where the processor changes according to an arbitrary policy in the n processes.

少なくとも一つのプロセッサにより実行される方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップ(処理)の一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正又は削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。 The processing procedure of the method executed by at least one processor is not limited to the example in the above embodiment. For example, some of the steps (processes) described above may be omitted, or each step may be executed in a different order. Further, any two or more steps among the above-mentioned steps may be combined, or a part of the steps may be modified or deleted. Alternatively, other steps may be performed in addition to each of the above steps.

1…コンテンツ配信システム、10…サーバ、11…コンテンツ管理部、12…モーション特定部、13…言語表現決定部、14…オブジェクト設定部、15…オブジェクト送信部、16…辞書管理部、20…生徒端末、21…モーション送信部、22…表示制御部、23…辞書制御部、30…教師端末、40…原映像データベース、50…辞書データベース、321,322,411,431,511…仮想表現オブジェクト、400,500…仮想空間、P1…サーバプログラム、P2…クライアントプログラム。 1 ... Content distribution system, 10 ... Server, 11 ... Content management unit, 12 ... Motion identification unit, 13 ... Language expression determination unit, 14 ... Object setting unit, 15 ... Object transmission unit, 16 ... Dictionary management department, 20 ... Student Terminal, 21 ... Motion transmission unit, 22 ... Display control unit, 23 ... Dictionary control unit, 30 ... Teacher terminal, 40 ... Original video database, 50 ... Dictionary database, 321, 322, 411, 431, 511 ... Virtual representation object, 400,500 ... virtual space, P1 ... server program, P2 ... client program.

Claims (11)

少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサが、
授業の場面を示す仮想空間内での対象仮想オブジェクトの動きを特定し、
言語表現ルールを記憶する記憶部を参照して、前記特定された動きに対応する前記言語表現を決定し、
前記決定された言語表現に対応する表現データを出力する、
コンテンツ制御システム。
With at least one processor
The at least one processor
Identify the movement of the target virtual object in the virtual space that shows the scene of the lesson,
With reference to the storage unit that stores the linguistic expression rule, the linguistic expression corresponding to the specified movement is determined.
Outputs the expression data corresponding to the determined linguistic expression.
Content control system.
前記少なくとも一つのプロセッサが、
前記授業を見ている生徒のリアルタイムの動きを示すモーションデータを端末から受信し、
前記モーションデータに基づいて前記対象仮想オブジェクトの動きを特定する、
請求項1に記載のコンテンツ制御システム。
The at least one processor
Motion data showing the real-time movement of the student watching the lesson is received from the terminal, and
Identify the movement of the target virtual object based on the motion data.
The content control system according to claim 1.
前記少なくとも一つのプロセッサが、
過去に撮影または生成された原映像を示す原映像データをデータベースから取得し、
前記取得された原映像データと前記表現データとを用いて教育用コンテンツデータを生成し、
前記生成された教育用コンテンツデータを出力する、
請求項1または2に記載のコンテンツ制御システム。
The at least one processor
Obtain the original video data showing the original video shot or generated in the past from the database,
Educational content data is generated using the acquired original video data and the expression data.
Output the generated educational content data,
The content control system according to claim 1 or 2.
前記少なくとも一つのプロセッサが、前記対象仮想オブジェクトの動きを示す前記言語表現を決定する、
請求項1〜3のいずれか一項に記載のコンテンツ制御システム。
The at least one processor determines the linguistic representation of the behavior of the target virtual object.
The content control system according to any one of claims 1 to 3.
前記少なくとも一つのプロセッサが、前記対象仮想オブジェクトの動きに基づいて変化する関連仮想オブジェクトに関連する前記言語表現を決定する、
請求項1〜4のいずれか一項に記載のコンテンツ制御システム。
The at least one processor determines the linguistic representation associated with a related virtual object that changes based on the movement of the target virtual object.
The content control system according to any one of claims 1 to 4.
前記少なくとも一つのプロセッサが、前記対象仮想オブジェクトの動きと前記関連仮想オブジェクトの変化との組合せを示す前記言語表現を決定する、
請求項5に記載のコンテンツ制御システム。
The at least one processor determines the linguistic representation that indicates the combination of the movement of the target virtual object and the change of the associated virtual object.
The content control system according to claim 5.
前記表現データが、端末上に表示される仮想表現オブジェクトを示す、
請求項1〜6のいずれか一項に記載のコンテンツ制御システム。
The representation data indicates a virtual representation object displayed on the terminal.
The content control system according to any one of claims 1 to 6.
前記仮想表現オブジェクトが文字を含む、
請求項7に記載のコンテンツ制御システム。
The virtual representation object contains characters,
The content control system according to claim 7.
前記少なくとも一つのプロセッサが、
前記端末上に表示された前記仮想表現オブジェクトを映す場面を含む画像と前記授業を見ている生徒の視聴者IDとを含む登録要求を取得し、
前記視聴者IDおよび前記画像を含む辞書データを辞書データベースに格納し、
前記端末からの検索要求に応答して、該検索要求に対応する前記辞書データを前記辞書データベースから読み出して該辞書データを前記端末に出力する、
請求項7または8に記載のコンテンツ制御システム。
The at least one processor
Acquire a registration request including an image including a scene showing the virtual expression object displayed on the terminal and a viewer ID of a student who is watching the lesson.
The viewer ID and the dictionary data including the image are stored in the dictionary database, and the dictionary data is stored.
In response to a search request from the terminal, the dictionary data corresponding to the search request is read from the dictionary database and the dictionary data is output to the terminal.
The content control system according to claim 7 or 8.
少なくとも一つのプロセッサを備えるコンテンツ制御システムによって実行されるコンテンツ制御方法であって、
授業の場面を示す仮想空間内での対象仮想オブジェクトの動きを特定するステップと、
言語表現ルールを記憶する記憶部を参照して、前記特定された動きに対応する前記言語表現を決定するステップと、
前記決定された言語表現に対応する表現データを出力するステップと
を含むコンテンツ制御方法。
A content control method performed by a content control system with at least one processor.
Steps to identify the movement of the target virtual object in the virtual space that shows the scene of the lesson,
With reference to a storage unit that stores linguistic expression rules, a step of determining the linguistic expression corresponding to the specified movement, and
A content control method including a step of outputting expression data corresponding to the determined language expression.
授業の場面を示す仮想空間内での対象仮想オブジェクトの動きを特定するステップと、
言語表現ルールを記憶する記憶部を参照して、前記特定された動きに対応する前記言語表現を決定するステップと、
前記決定された言語表現に対応する表現データを出力するステップと
をコンピュータに実行させるコンテンツ制御プログラム。
Steps to identify the movement of the target virtual object in the virtual space that shows the scene of the lesson,
With reference to a storage unit that stores linguistic expression rules, a step of determining the linguistic expression corresponding to the specified movement, and
A content control program that causes a computer to execute a step of outputting expression data corresponding to the determined language expression.
JP2020117810A 2019-11-28 2020-07-08 Content control system, content control method, and content control program Active JP7465736B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020117810A JP7465736B2 (en) 2019-11-28 2020-07-08 Content control system, content control method, and content control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019215455A JP6733027B1 (en) 2019-11-28 2019-11-28 Content control system, content control method, and content control program
JP2020117810A JP7465736B2 (en) 2019-11-28 2020-07-08 Content control system, content control method, and content control program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019215455A Division JP6733027B1 (en) 2019-11-28 2019-11-28 Content control system, content control method, and content control program

Publications (3)

Publication Number Publication Date
JP2021086146A true JP2021086146A (en) 2021-06-03
JP2021086146A5 JP2021086146A5 (en) 2022-11-30
JP7465736B2 JP7465736B2 (en) 2024-04-11

Family

ID=90606762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020117810A Active JP7465736B2 (en) 2019-11-28 2020-07-08 Content control system, content control method, and content control program

Country Status (1)

Country Link
JP (1) JP7465736B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102606746B1 (en) * 2022-12-26 2023-11-29 주식회사 인터랙트 Training system, method and apparatus using XR contents

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7548644B1 (en) 2024-02-07 2024-09-10 株式会社Hinichijo Correspondence education system, correspondence education providing method, and correspondence education providing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002224441A (en) * 2001-02-01 2002-08-13 Konami Computer Entertainment Osaka:Kk Game progress control program, game server and game progress control method
JP2007212635A (en) * 2006-02-08 2007-08-23 Copcom Co Ltd Sound effect producing device, video game device equipped with the same, and program and recording medium for attaining the same
JP2012050804A (en) * 2010-08-06 2012-03-15 Nintendo Co Ltd Game system, game apparatus, game program, and game process method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002224441A (en) * 2001-02-01 2002-08-13 Konami Computer Entertainment Osaka:Kk Game progress control program, game server and game progress control method
JP2007212635A (en) * 2006-02-08 2007-08-23 Copcom Co Ltd Sound effect producing device, video game device equipped with the same, and program and recording medium for attaining the same
JP2012050804A (en) * 2010-08-06 2012-03-15 Nintendo Co Ltd Game system, game apparatus, game program, and game process method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102606746B1 (en) * 2022-12-26 2023-11-29 주식회사 인터랙트 Training system, method and apparatus using XR contents
EP4394721A1 (en) * 2022-12-26 2024-07-03 INTERACT Co., Ltd Training system, method and apparatus using extended reality contents

Also Published As

Publication number Publication date
JP7465736B2 (en) 2024-04-11

Similar Documents

Publication Publication Date Title
Iftene et al. Enhancing the attractiveness of learning through augmented reality
JP6683864B1 (en) Content control system, content control method, and content control program
Omlor et al. Comparison of immersive and non-immersive virtual reality videos as substitute for in-hospital teaching during coronavirus lockdown: a survey with graduate medical students in Germany
JP7368298B2 (en) Content distribution server, content creation device, educational terminal, content distribution program, and educational program
KR102283301B1 (en) Apparatus and Method for Providing real time comunication platform based on XR
WO2022255262A1 (en) Content provision system, content provision method, and content provision program
JP7465736B2 (en) Content control system, content control method, and content control program
Holley et al. Augmented reality for education
US20220360827A1 (en) Content distribution system, content distribution method, and content distribution program
JP7465737B2 (en) Teaching system, viewing terminal, information processing method and program
WO2021106463A1 (en) Content control system, content control method, and content control program
JP6892478B2 (en) Content control systems, content control methods, and content control programs
An et al. Trends and effects of learning through AR-based education in S-Korea
Geana et al. Beyond the dawn of virtualized learning environments: A comparative study of video and augmented reality information delivery on student engagement and knowledge retention
JP6766228B1 (en) Distance education system
JP2021009351A (en) Content control system, content control method, and content control program
Smuseva et al. Research and software development using AR technology
Tawhai Immersive 360 video for forensic education
Nakano et al. Development of a second‐screen system for sharing virtual reality information
Jurík Current trends in e-learning
JP2021009348A (en) Content control system, content control method, and content control program
Tackett Using a 3D immersive environment to study signal flow in music technology
Kombath et al. Application of AR in Education
Ahmad Engaging and facilitating language skills using augmented reality as a medium of learning and teaching
Levstein CSI4FS®–A Markerless Augmented Reality Application for Forensic Science Crime Scene Investigation Training

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240401

R150 Certificate of patent or registration of utility model

Ref document number: 7465736

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150