JP2021086146A - Content control system, content control method, and content control program - Google Patents
Content control system, content control method, and content control program Download PDFInfo
- Publication number
- JP2021086146A JP2021086146A JP2020117810A JP2020117810A JP2021086146A JP 2021086146 A JP2021086146 A JP 2021086146A JP 2020117810 A JP2020117810 A JP 2020117810A JP 2020117810 A JP2020117810 A JP 2020117810A JP 2021086146 A JP2021086146 A JP 2021086146A
- Authority
- JP
- Japan
- Prior art keywords
- data
- expression
- content
- virtual
- content control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 37
- 230000033001 locomotion Effects 0.000 claims abstract description 125
- 230000014509 gene expression Effects 0.000 claims abstract description 116
- 230000004044 response Effects 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 10
- 238000004891 communication Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 20
- 238000007726 management method Methods 0.000 description 18
- 230000005540 biological transmission Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 14
- 230000009471 action Effects 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 6
- 239000003973 paint Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 230000036544 posture Effects 0.000 description 4
- 238000010422 painting Methods 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本開示の一側面はコンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラムに関する。 One aspect of the disclosure relates to content control systems, content control methods, and content control programs.
ユーザに仮想世界を体験させるコンピュータシステムは様々な分野で応用されている。例えば、特許文献1には、講師側の機器と生徒側の機器との間で講義を行う学習システムが記載されている。この学習システムは、3次元で描写される仮想空間を描画する仮想現実技術を用いた講師用ソフトウェアを含む講師側の機器と、仮想現実技術を用いた生徒用ソフトウェアを含む生徒側の機器と、講師側の機器と生徒側の機器との間で、仮想空間を描画するための講義の信号を送受信するネットワーク手段とを備える。 Computer systems that allow users to experience the virtual world are applied in various fields. For example, Patent Document 1 describes a learning system in which a lecture is given between a device on the instructor side and a device on the student side. This learning system includes instructor-side equipment that includes instructor software that uses virtual reality technology to draw a virtual space depicted in three dimensions, and student-side equipment that includes student software that uses virtual reality technology. It is provided with a network means for transmitting and receiving lecture signals for drawing a virtual space between the device on the instructor side and the device on the student side.
仮想空間内の出来事をユーザに効果的に伝えるための手法が望まれている。 A method for effectively communicating events in the virtual space to the user is desired.
本開示の一側面に係るコンテンツ制御システムは少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、授業の場面を示す仮想空間内での対象仮想オブジェクトの動きを特定し、言語表現ルールを記憶する記憶部を参照して、特定された動きに対応する言語表現を決定し、決定された言語表現に対応する表現データを出力する。 The content control system according to one aspect of the present disclosure includes at least one processor. At least one processor identifies the movement of the target virtual object in the virtual space indicating the scene of the lesson, refers to the storage unit that stores the linguistic expression rule, and determines the linguistic expression corresponding to the specified movement. , Outputs the expression data corresponding to the determined language expression.
このような側面においては、対象仮想オブジェクトの動作に対応する言語表現に基づく表現データが出力される。特許文献1には記載されていないこのような一連の処理によって、仮想空間内の出来事を端末のユーザに効果的に伝えることができる。 In such an aspect, expression data based on the linguistic expression corresponding to the operation of the target virtual object is output. By such a series of processes not described in Patent Document 1, an event in the virtual space can be effectively transmitted to the user of the terminal.
本開示の一側面によれば、仮想空間内の出来事をユーザに効果的に伝えることができる。 According to one aspect of the present disclosure, events in the virtual space can be effectively communicated to the user.
以下、添付図面を参照しながら本開示での実施形態を詳細に説明する。なお、図面の説明において同一または同等の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements are designated by the same reference numerals, and duplicate description will be omitted.
[システムの概要]
実施形態に係るコンテンツ制御システムは、ユーザに向けて配信されるコンテンツを制御するコンピュータシステムである。コンテンツとは、コンピュータまたはコンピュータシステムによって提供され、人が認識可能な情報のことをいう。コンテンツを示す電子データのことをコンテンツデータという。コンテンツの表現形式は限定されず、例えば、コンテンツは画像(例えば、写真、映像など)、文書、音声、音楽、またはこれらの中の任意の2以上の要素の組合せによって表現されてもよい。コンテンツの目的および利用場面は限定されず、例えば、コンテンツはエンターテインメント、ニュース、教育、医療、ゲーム、チャット、商取引、講演、セミナー、研修などの様々な目的で利用され得る。コンテンツの制御とは、ユーザにコンテンツを提供するために実行される処理のことをいう。コンテンツの制御は、コンテンツデータの生成、編集、記憶、および配信の少なくとも一つを含んでもよいし、これら以外の処理を含んでもよい。
[System overview]
The content control system according to the embodiment is a computer system that controls content distributed to users. Content is information provided by a computer or computer system that is human recognizable. Electronic data that indicates content is called content data. The representation format of the content is not limited, and for example, the content may be represented by an image (for example, a photograph, a video, etc.), a document, audio, music, or a combination of any two or more elements thereof. The purpose and usage of the content is not limited, for example, the content may be used for various purposes such as entertainment, news, education, medical care, games, chat, commerce, lectures, seminars, and training. Content control refers to the process performed to provide content to a user. Content control may include at least one of the generation, editing, storage, and distribution of content data, or may include processing other than these.
コンテンツ制御システムはコンテンツデータを視聴者端末に送信することで、コンテンツを視聴者に提供する。一例では、そのコンテンツは配信者から提供される。配信者とは視聴者に情報を伝えようとする人であり、すなわち、コンテンツの発信者である。視聴者とはその情報を得ようとする人であり、すなわち、コンテンツの利用者である。 The content control system provides the content to the viewer by transmitting the content data to the viewer terminal. In one example, the content is provided by the distributor. A distributor is a person who wants to convey information to a viewer, that is, a sender of content. A viewer is a person who wants to obtain the information, that is, a user of the content.
本実施形態ではコンテンツは少なくとも画像を用いて表現される。コンテンツを示す画像を「コンテンツ画像」という。コンテンツ画像とは、人が視覚を通して何らかの情報を認識することができる像のことをいう。コンテンツ画像は動画像(映像)でもよいし静止画でもよい。 In this embodiment, the content is expressed using at least an image. An image showing content is called a "content image". A content image is an image in which a person can visually recognize some information. The content image may be a moving image (video) or a still image.
コンテンツ画像は現実世界を映してもよいし、仮想空間を映してもよい。仮想空間とは、コンピュータ上に表示される画像によって表現される仮想の2次元または3次元の空間のことをいう。コンテンツ画像が仮想空間を含む場合には、コンテンツ画像は、仮想空間内に設定された仮想カメラから見える風景を示す画像であるといえる。仮想カメラは、コンテンツ画像を見るユーザの視線に対応するように仮想空間内に設定される。仮想空間は少なくとも一つの仮想オブジェクトによって表現される。仮想オブジェクトとは、現実世界には実際に存在せずコンピュータシステム上でのみ表現される物体のことをいう。 The content image may reflect the real world or a virtual space. The virtual space is a virtual two-dimensional or three-dimensional space represented by an image displayed on a computer. When the content image includes a virtual space, it can be said that the content image is an image showing a landscape seen from a virtual camera set in the virtual space. The virtual camera is set in the virtual space so as to correspond to the line of sight of the user who sees the content image. Virtual space is represented by at least one virtual object. A virtual object is an object that does not actually exist in the real world and is represented only on a computer system.
コンテンツ画像は、出演者である人を映してもよいし、出演者の代わりにアバターを映してもよい。配信者は、出演者としてコンテンツ画像上に現われてもよいし、出演者でなくてもよい。複数の視聴者のうちの少なくとも一部が出演者(参加者)としてコンテンツ画像に現われてもよい。配信者または参加者のアバターがコンテンツ画像上に現れてもよい。コンテンツ画像は現実世界と、仮想空間または仮想オブジェクトとの双方を含んでもよい。コンテンツ画像が仮想空間または仮想オブジェクトを含むことで、視聴者は拡張現実(Augumented Reality(AR))、仮想現実(Virtual Reality(VR))、または複合現実(Mixed Reality(MR))を体験することができる。 The content image may show a person who is a performer, or may show an avatar instead of the performer. The distributor may or may not appear on the content image as a performer. At least a part of the plurality of viewers may appear in the content image as a performer (participant). The distributor or participant's avatar may appear on the content image. Content images may include both the real world and virtual space or virtual objects. The inclusion of virtual space or virtual objects in the content image allows the viewer to experience augmented reality (AR), virtual reality (VR), or mixed reality (MR). Can be done.
アバターとは、コンピュータによって表現されるユーザの分身である。アバターは仮想オブジェクトの一種である。アバターは、撮影された人そのものではなく(すなわち、原画像で示されるユーザそのものではなく)、原画像とは独立した画像素材を用いて、2次元または3次元のコンピュータグラフィック(CG)によって表現される。アバターの表現方法は限定されない。例えば、アバターはアニメーション素材を用いて表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。アバターはコンテンツ配信システムのユーザ(例えば、配信者または視聴者)によって自由に選択されてもよい。 An avatar is a user's alter ego represented by a computer. Avatar is a type of virtual object. The avatar is represented by two-dimensional or three-dimensional computer graphics (CG) using image material independent of the original image, not the person who was photographed (ie, not the user itself shown in the original image). To. The expression method of the avatar is not limited. For example, the avatar may be represented using an animation material, or may be represented as close to the real thing based on a live-action image. The avatar may be freely selected by the user of the content distribution system (eg, distributor or viewer).
一例では、コンテンツ制御システムはコンテンツを視聴者に向けて配信してもよい。配信とは、通信ネットワークまたは放送ネットワークを経由して情報をユーザに向けて送信する処理のことをいう。本開示では、配信は放送を含み得る概念である。本開示では、コンテンツを配信する機能を備えるコンテンツ制御システムをコンテンツ配信システムともいう。 In one example, the content control system may deliver the content to the viewer. Distribution refers to the process of transmitting information to users via a communication network or broadcasting network. In the present disclosure, distribution is a concept that may include broadcasting. In the present disclosure, a content control system having a function of distributing content is also referred to as a content distribution system.
コンテンツを配信する手法は限定されない。例えば、コンテンツ配信システムはライブコンテンツを配信してもよい。この場合には、コンテンツ配信システムは配信者端末から提供されるリアルタイムの映像を処理することでコンテンツデータを生成し、そのコンテンツデータを視聴者端末に向けてリアルタイムに送信する。これはインターネット生放送の一態様であるといえる。あるいは、コンテンツ配信システムは、過去に撮影および生成された映像を配信してもよい。コンテンツ配信システムは、リアルタイム配信後の所与の期間においてコンテンツを視聴することが可能なタイムシフトのために用いられてもよい。あるいは、コンテンツ配信システムは、任意のタイミングでコンテンツを視聴することが可能なオンデマンド配信のために用いられてもよい。 The method of delivering the content is not limited. For example, the content distribution system may distribute live content. In this case, the content distribution system generates content data by processing the real-time video provided from the distributor terminal, and transmits the content data to the viewer terminal in real time. It can be said that this is one aspect of live Internet broadcasting. Alternatively, the content distribution system may distribute images shot and generated in the past. The content distribution system may be used for a time shift in which the content can be viewed in a given period after real-time distribution. Alternatively, the content distribution system may be used for on-demand distribution in which the content can be viewed at any time.
本開示において、データまたは情報を第1コンピュータから第2コンピュータ“に送信する”との表現は、該第2コンピュータに最終的にデータまたは情報を届けるための送信を意味する。この表現は、その送信において別のコンピュータまたは通信装置がデータまたは情報を中継する場合も含む意味であることに留意されたい。 In the present disclosure, the expression "transmitting" data or information from a first computer to a second computer means transmission for finally delivering the data or information to the second computer. It should be noted that this expression also includes the case where another computer or communication device relays data or information in the transmission.
上述したようにコンテンツの目的および利用場面は限定されない。本実施形態では、コンテンツの例として教育用コンテンツを示し、コンテンツ制御システムが教育用コンテンツデータを制御するものとする。教育用コンテンツとは、生徒に向けて授業を行うために用いられるコンテンツであり、例えば、教師が生徒に向けて授業を行うために用いられてもよい。教師とは学業、技芸などを教える人のことをいい、生徒とはその教えを受ける人のことをいう。教師は配信者になり得る。生徒は視聴者の一例である。教師は教員免許を持つ人であってもよいし、教員免許を持たない人でもよい。授業とは、教師が生徒に学業、技芸などを教えることをいう。教師および生徒のそれぞれについて年齢および所属は限定されず、したがって、教育用コンテンツの目的および利用場面も限定されない。例えば、教育用コンテンツは、保育園、幼稚園、小学校、中学校、高等学校、大学、大学院、専門学校、予備校、オンライン学校などの各種の学校で用いられてよいし、学校以外の場所または場面で用いられてもよい。これに関連して、教育用コンテンツは、幼児教育、義務教育、高等教育、生涯学習などの様々な目的で用いられ得る。 As described above, the purpose and usage scene of the content are not limited. In the present embodiment, educational content is shown as an example of the content, and the content control system controls the educational content data. The educational content is content used to give a lesson to a student, and may be used, for example, for a teacher to give a lesson to a student. A teacher is a person who teaches schoolwork, arts, etc., and a student is a person who receives the teaching. Teachers can be distributors. Students are an example of a viewer. The teacher may be a person with a teacher's license or a person without a teacher's license. Class means that a teacher teaches students academics, arts, and so on. The age and affiliation of each teacher and student is not limited, and therefore the purpose and use of educational content is not limited. For example, educational content may be used in various schools such as nursery schools, kindergartens, elementary schools, junior high schools, high schools, universities, graduate schools, vocational schools, preparatory schools, online schools, etc. You may. In this regard, educational content can be used for a variety of purposes such as early childhood education, compulsory education, higher education, and lifelong learning.
[システムの構成]
図1は、実施形態に係るコンテンツ配信システム(コンテンツ制御システム)1の適用の一例を示す図である。本実施形態では、コンテンツ配信システム1はサーバ10を備える。サーバ10は、コンテンツデータを生成および配信するコンピュータである。一例では、サーバ10は通信ネットワークNを介して少なくとも一つの生徒端末20と、教師端末30と、原映像データベース40と、辞書データベース50と接続する。図1は2台の生徒端末20と1台の教師端末30とを示すが、それぞれの端末の台数は何ら限定されない。通信ネットワークNの構成は限定されない。例えば、通信ネットワークNはインターネットを含んで構成されてもよいし、イントラネットを含んで構成されてもよい。
[System configuration]
FIG. 1 is a diagram showing an example of application of the content distribution system (content control system) 1 according to the embodiment. In the present embodiment, the content distribution system 1 includes a
生徒端末20は生徒によって用いられるコンピュータであり、視聴者端末(視聴者により用いられるコンピュータ)の一例である。一例では、生徒端末20は、コンテンツ配信システム1にアクセスしてコンテンツデータを受信および表示する機能と、生徒のモーションデータをコンテンツ配信システム1に送信する機能とを有する。モーションデータとは、物体の動きを示す電子データのことをいう。生徒のモーションデータは、生徒の身体の特定の部位(例えば関節)の位置および角度によって該身体の動きを示す。モーションデータの取得方法は限定されない。モーションデータは、カメラにより撮影された映像を解析することで得られてもよい。あるいは、モーションデータはボディストラップ、データグローブ、VRコントローラ(ハンドコントローラ)などのような、モーションキャプチャのための装置によって得られてもよい。生徒端末20の種類および構成は限定されない。例えば、生徒端末20は高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラスなど)、ラップトップ型パーソナルコンピュータ、携帯電話機などの携帯端末でもよい。あるいは、生徒端末20はデスクトップ型パーソナルコンピュータなどの据置型端末でもよい。
The
教師端末30は教師によって用いられるコンピュータであり、配信者端末(配信者によって用いられるコンピュータ)の一例である。典型的には、教師端末30は生徒端末20にとって遠隔地に位置する。一例では、教師端末30は、映像を撮影する機能と、コンテンツ配信システム1にアクセスしてその映像を示す電子データ(映像データ)を送信する機能とを有する。教師端末30は映像またはコンテンツを受信および表示する機能を有してもよい。生徒端末20と同様に、教師端末30は教師のモーションデータをコンテンツ配信システム1に送信する機能を有してもよい。教師端末30の種類および構成は限定されない。例えば、教師端末30は映像を撮影、収録、および送信する機能を有する撮影システムであってもよい。あるいは、教師端末30は高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラスなど)、ラップトップ型パーソナルコンピュータ、携帯電話機などの携帯端末でもよい。あるいは、教師端末30はデスクトップ型パーソナルコンピュータなどの据置型端末でもよい。
The
教室の管理者または生徒は生徒端末20を操作してコンテンツ配信システム1にログインし、これにより生徒は教育用コンテンツを視聴することができる。教師は教師端末30を操作してコンテンツ配信システム1にログインし、これにより自分の授業を配信または記録することが可能になる。本実施形態では、コンテンツ配信システム1のユーザが既にログインしていることを前提とする。
The classroom manager or student operates the
原映像データベース40は原映像データを記憶する非一時的な記憶装置である。原映像データとは、教育用コンテンツデータを生成するために用いられる原映像を示す電子データであり、したがって、教育用コンテンツを生成するための素材であるといえる。原映像は実写映像でもよいし、仮想空間を含んでもよい。原映像の内容が限定されないことに対応して、原映像データのデータ構造も限定されない。例えば、実写映像が用いられる場合には、原映像データはカメラによって撮影された映像データを含む。仮想空間が用いられる場合には、原映像データは、仮想空間を規定する空間データと、仮想オブジェクトの仕様を規定するモデルデータとを含み、仮想空間における物語の進行を規定するためのシナリオデータをさらに含んでもよい。原映像データは予め、サーバ10、教師端末30、または別のコンピュータなどの任意のコンピュータによって原映像データベース40に格納される。原映像データベース40は過去に撮影または生成された原映像(すなわち、リアルタイムではない映像)を記憶するライブラリであるといえる。
The
辞書データベース50は辞書データを記憶する非一時的な記憶装置である。一例では、辞書データの各レコードは、個々のレコードを特定するための識別子であるレコードIDと、生徒(視聴者)を一意に特定する識別子である視聴者IDと、該生徒によって指定された画像(静止画または動画)とを含む。
The
原映像データベース40および辞書データベース50のそれぞれの設置場所は限定されない。例えば、原映像データベース40および辞書データベース50の少なくとも一方は、コンテンツ配信システム1とは別のコンピュータシステム内に設けられてもよいし、コンテンツ配信システム1の構成要素であってもよい。
The installation location of the
図2はコンテンツ配信システム1に関連するハードウェア構成の一例を示す図である。図2は、サーバ10として機能するサーバコンピュータ100と、生徒端末20または教師端末30として機能する端末コンピュータ200とを示す。
FIG. 2 is a diagram showing an example of a hardware configuration related to the content distribution system 1. FIG. 2 shows a
一例として、サーバコンピュータ100はハードウェア構成要素として、プロセッサ101、主記憶部102、補助記憶部103、および通信部104を備える。
As an example, the
プロセッサ101は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置である。プロセッサの例としてCPU(Central Processing Unit)およびGPU(Graphics Processing Unit)が挙げられるが、プロセッサ101の種類はこれらに限定されない。例えば、プロセッサ101はセンサおよび専用回路の組合せでもよい。専用回路はFPGA(Field−Programmable Gate Array)のようなプログラム可能な回路でもよいし、他の種類の回路でもよい。
The
主記憶部102は、サーバ10を実現するためのプログラム、プロセッサ101から出力された演算結果などを記憶する装置である。主記憶部102は例えばROM(Read Only Memory)およびRAM(Random Access Memory)のうちの少なくとも一つにより構成される。
The
補助記憶部103は、一般に主記憶部102よりも大量のデータを記憶することが可能な装置である。補助記憶部103は例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部103は、サーバコンピュータ100をサーバ10として機能させるためのサーバプログラムP1と各種のデータとを記憶する。例えば、補助記憶部103はアバターなどの仮想オブジェクトと仮想空間とのうちの少なくとも一つに関するデータを記憶してもよい。本実施形態では、コンテンツ制御プログラムはサーバプログラムP1として実装される。
The
通信部104は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部104は例えばネットワークカードまたは無線通信モジュールにより構成される。
The
サーバ10の各機能要素は、プロセッサ101または主記憶部102の上にサーバプログラムP1を読み込ませてプロセッサ101にそのプログラムを実行させることで実現される。サーバプログラムP1は、サーバ10の各機能要素を実現するためのコードを含む。プロセッサ101はサーバプログラムP1に従って通信部104を動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを実行する。このような処理によりサーバ10の各機能要素が実現される。
Each functional element of the
サーバ10は一つまたは複数のコンピュータにより構成され得る。複数のコンピュータが用いられる場合には、通信ネットワークを介してこれらのコンピュータが互いに接続されることで、論理的に一つのサーバ10が構成される。
The
一例として、端末コンピュータ200はハードウェア構成要素として、プロセッサ201、主記憶部202、補助記憶部203、および通信部204、入力インタフェース205、出力インタフェース206、および撮像部207を備える。
As an example, the terminal computer 200 includes a
プロセッサ201は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置である。プロセッサ201は例えばCPUまたはGPUであり得るが、プロセッサ201の種類はこれらに限定されない。
主記憶部202は、生徒端末20または教師端末30を実現させるためのプログラム、プロセッサ201から出力された演算結果などを記憶する装置である。主記憶部202は例えばROMおよびRAMのうちの少なくとも一つにより構成される。
The
補助記憶部203は、一般に主記憶部202よりも大量のデータを記憶することが可能な装置である。補助記憶部203は例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部203は、端末コンピュータ200を生徒端末20または教師端末30として機能させるためのクライアントプログラムP2と各種のデータとを記憶する。例えば、補助記憶部203はアバターなどの仮想オブジェクトと仮想空間とのうちの少なくとも一つに関するデータを記憶してもよい。
The
通信部204は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部204は例えばネットワークカードまたは無線通信モジュールにより構成される。
The
入力インタフェース205は、ユーザの操作または動作に基づいてデータを受け付ける装置である。例えば、入力インタフェース205は、キーボード、操作ボタン、ポインティングデバイス、マイクロフォン、センサ、およびカメラのうちの少なくとも一つによって構成される。キーボードおよび操作ボタンはタッチパネル上に表示されてもよい。入力インタフェース205の種類が限定されないことに対応して、入力されるデータは限定されない。例えば、入力インタフェース205はキーボード、操作ボタン、またはポインティングデバイスによって入力または選択されたデータを受け付けてもよい。あるいは、入力インタフェース205は、マイクロフォンにより入力された音声データを受け付けてもよい。あるいは、入力インタフェース205はカメラによって撮影された画像データ(例えば、映像データまたは静止画データ)を受け付けてもよい。
The
出力インタフェース206は、端末コンピュータ200で処理されたデータを出力する装置である。例えば、出力インタフェース206はモニタ、タッチパネル、HMDおよびスピーカのうちの少なくとも一つによって構成される。モニタ、タッチパネル、HMDなどの表示装置は、処理されたデータを画面上に表示する。スピーカは、処理された音声データで示される音声を出力する。
The
撮像部207は、現実世界を写した画像を撮影する装置であり、具体的にはカメラである。撮像部207は動画像(映像)を撮影してもよいし静止画(写真)を撮影してもよい。動画像を撮影する場合には、撮像部207は映像信号を所与のフレームレートに基づいて処理することで、時系列に並ぶ一連のフレーム画像を動画像として取得する。撮像部207は入力インタフェース205としても機能し得る。
The
生徒端末20または教師端末30の各機能要素は、対応するクライアントプログラムP2をプロセッサ201または主記憶部202に読み込ませてプロセッサ201にそのプログラムを実行させることで実現される。クライアントプログラムP2は、生徒端末20または教師端末30の各機能要素を実現するためのコードを含む。プロセッサ201はクライアントプログラムP2に従って通信部204、入力インタフェース205、出力インタフェース206、または撮像部207を動作させ、主記憶部202または補助記憶部203におけるデータの読み出しおよび書き込みを行う。この処理により生徒端末20または教師端末30の各機能要素が実現される。
Each functional element of the
サーバプログラムP1およびクライアントプログラムP2の少なくとも一つは、CD−ROM、DVD−ROM、半導体メモリなどの有形の記録媒体に非一時的に記録された上で提供されてもよい。あるいは、これらのプログラムの少なくとも一つは、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。これらのプログラムは別々に提供されてもよいし、一緒に提供されてもよい。 At least one of the server program P1 and the client program P2 may be provided after being non-temporarily recorded on a tangible recording medium such as a CD-ROM, a DVD-ROM, or a semiconductor memory. Alternatively, at least one of these programs may be provided via a communication network as a data signal superimposed on a carrier wave. These programs may be provided separately or together.
図3はコンテンツ配信システム1に関連する機能構成の一例を示す図である。サーバ10は機能要素としてコンテンツ管理部11、モーション特定部12、言語表現決定部13、オブジェクト設定部14、オブジェクト送信部15、および辞書管理部16を備える。
FIG. 3 is a diagram showing an example of a functional configuration related to the content distribution system 1. The
コンテンツ管理部11は教育用コンテンツの生成および出力を管理する機能要素であり、モーション特定部12、言語表現決定部13、オブジェクト設定部14、オブジェクト送信部15を含んで構成される。モーション特定部12は、授業の場面を示す仮想空間内での仮想オブジェクトの動きを特定する機能要素である。本実施形態では、この仮想空間は少なくとも生徒端末20上で表示されるものとする。言語表現決定部13はその特定された動きに対応する言語表現を決定する機能要素である。言語表現とは、自然言語によって意味を客観的に表すことをいう。一例では、動きに対応する言語表現を決定することは、その動きまたはその動きに起因して起きた事象を言語で表現することである。オブジェクト設定部14はその言語表現に対応する仮想表現オブジェクトを設定する機能要素である。仮想表現オブジェクトは、言語表現を可視化するために用いられる仮想オブジェクトであり、教育用コンテンツデータの少なくとも一部を構成する。仮想表現オブジェクトは、言語表現に対応する表現データの一例である。オブジェクト送信部15はその仮想オブジェクトを生徒端末20に送信する機能要素である。この送信は、言語表現に対応する表現データを、仮想空間を表示する端末に出力する処理の一例である。辞書管理部16は生徒端末20からの要求に応答して辞書データを管理する機能要素である。
The
生徒端末20は機能要素としてモーション送信部21、表示制御部22、および辞書制御部23を備える。モーション送信部21は生徒のモーションデータをサーバ10に送信する機能要素である。表示制御部22は教育用コンテンツデータを受信および処理して教育用コンテンツを表示装置上に表示する機能要素である。辞書制御部23は辞書データの保存または検索に関する処理を実行する機能要素である。
The
[システムの動作]
コンテンツ配信システム1の動作(より具体的にはサーバ10の動作)を説明するとともに、本実施形態に係るコンテンツ制御方法(またはコンテンツ配信方法)について説明する。図4は、コンテンツ配信システム1の動作の一例を処理フローS1として示すフローチャートである。処理フローS1は、コンテンツ管理部11が、生徒端末20から要求された原映像データを原映像データベース40から読み出して、その原映像データを教育用コンテンツデータとしてその生徒端末20に既に提供し始めていることを前提とする。
[System operation]
The operation of the content distribution system 1 (more specifically, the operation of the server 10) will be described, and the content control method (or content distribution method) according to the present embodiment will be described. FIG. 4 is a flowchart showing an example of the operation of the content distribution system 1 as a processing flow S1. In the processing flow S1, the
ステップS11では、コンテンツ管理部11が生徒端末20から生徒のモーションデータを受信する。生徒端末20では、モーション送信部21が、原映像を見ている生徒のリアルタイムの動きを示すモーションデータをサーバ10に向けて送信し、コンテンツ管理部11はそのモーションデータを受信する。モーションデータのデータ構造は限定されない。例えば、モーションデータは、特定の時間幅における生徒の動きを示してもよいし、特定の瞬間における生徒の姿勢を示してもよい。モーションデータは生徒の身体の任意の部分(例えば、手のみ、全身など)の動きまたは姿勢を表現してよい。
In step S11, the
ステップS12では、モーション特定部12がそのモーションデータに基づいて仮想オブジェクトの動きを特定する。本開示では、モーション特定部12によって動きが特定される仮想オブジェクトを「対象仮想オブジェクト」ともいう。典型的には、対象仮想オブジェクトは、モーションデータによって動く仮想オブジェクトである。例えば、モーションデータが生徒の手の動きを示す場合には、対象仮想オブジェクトは仮想の手でもよい。モーションデータが生徒の全身の動きを示す場合には、対象仮想オブジェクトはその生徒のアバターでもよい。一例では、モーション特定部12はモーションデータに含まれる複数のジョイントの3次元座標の変化の履歴と、隣り合うジョイントの組合せ(すなわちボーン)とに基づいて対象仮想オブジェクトの動きを特定する。対象仮想オブジェクトの動きは生徒のリアルタイムの動きを示す。
In step S12, the
ステップS13では、言語表現決定部13が言語表現ルールに基づいて、特定された動きに対応する言語表現を決定する。言語表現ルールは、少なくとも一つの仮想オブジェクトの動きから言語表現を導出するためのルールである。一例では、言語表現ルールは補助記憶部103に予め記憶される。言語表現ルールの実装方法は限定されず、例えば、対応表などのようなデータで表現されてもよいし、学習済みモデルなどのアルゴリズムでもよい。
In step S13, the linguistic
「特定された動きに対応する言語表現」は、対象仮想オブジェクトの動きを示してもよいし、対象仮想オブジェクトの動きに基づいて変化する少なくとも一つの関連仮想オブジェクトに関連してもよい。関連仮想オブジェクトは任意の物体を示してよく、例えば、人(アバター)、任意の人工物(例えば、動産、不動産)、任意の自然物(例えば、動物、植物)、または任意の地形(例えば、山、川、地面)を示してもよい。関連仮想オブジェクトの変化は限定されず、例えば、位置または姿勢の変化(すなわち、動き)でもよいし、状態の変化(例えば、色の変化)でもよい。「特定された動きに対応する言語表現」は、対象オブジェクトの動きと関連仮想オブジェクトの変化との組合せを示してもよい。 The "linguistic representation corresponding to the specified movement" may indicate the movement of the target virtual object, or may relate to at least one related virtual object that changes based on the movement of the target virtual object. The associated virtual object may represent any object, eg, a person (avatar), any man-made object (eg, movable property, real estate), any natural object (eg, animal, plant), or any terrain (eg, mountain). , River, ground). The change of the related virtual object is not limited and may be, for example, a change in position or posture (ie, movement) or a change in state (eg, change in color). The "linguistic expression corresponding to the specified movement" may indicate a combination of the movement of the target object and the change of the related virtual object.
ステップS13において言語表現を決定できない場合、すなわち、特定された動きに対応する言語表現を導出できない場合には、処理フローS1はこの時点で終了し、この場合には、コンテンツ管理部11は仮想表現オブジェクトを追加することなく原映像データを生徒端末20に送信する。ステップS13において言語表現を決定した場合には、処理はステップS14に移る。
If the language expression cannot be determined in step S13, that is, if the language expression corresponding to the specified movement cannot be derived, the processing flow S1 ends at this point, and in this case, the
ステップS14では、オブジェクト設定部14が、決定された言語表現に対応する仮想表現オブジェクトを設定する。言語表現を可視化できる限り、仮想表現オブジェクトの形式は限定されない。例えば、オブジェクト設定部14は言語表現をそのまま文字で示す仮想表現オブジェクトを設定してもよく、この場合には、装飾、アニメーション効果などの任意の視覚効果がその文字に適用されてよい。あるいは、オブジェクト設定部14は言語表現を、文字を用いることなく画像(静止画または動画)で示す仮想表現オブジェクトを設定してもよい。これは、特定された仮想オブジェクトの動きに似た場面を示す代表的な画像を設定する処理であるといえる。
In step S14, the
仮想表現オブジェクトの表示時間は任意の方針で設定されてよい。例えば、オブジェクト設定部14は所与の制限時間を設定してもよい。あるいは、オブジェクト設定部14は、対象仮想オブジェクトの動きおよび関連仮想オブジェクトの変化の少なくとも一方が終了するまで仮想表現オブジェクトが表示されるように該仮想表現オブジェクトを制御してもよい。
The display time of the virtual representation object may be set by any policy. For example, the
ステップS15では、オブジェクト設定部14が、設定された仮想表現オブジェクトを含む教育用コンテンツデータを生成する。一例では、原映像データは仮想空間を示し、この場合には、オブジェクト設定部14は仮想表現オブジェクトをその仮想空間内に配置する。「(仮想表現オブジェクトなどの)オブジェクトを配置する」とは、オブジェクトを決められた位置に置くことをいい、オブジェクトの位置の変更を含む概念である。
In step S15, the
教育用コンテンツデータの生成方法およびデータ構造は限定されない。例えば、コンテンツ管理部11は、仮想空間と、仮想表現オブジェクトを含む個々のオブジェクトの位置、寸法、および動作(姿勢)とを示す仮想空間データを含む教育用コンテンツデータを生成してもよい。あるいは、コンテンツ管理部11は、設定された仮想空間に基づくレンダリングを実行することで教育用コンテンツデータを生成してもよい。この場合には、教育用コンテンツデータは、仮想表現オブジェクトを含むコンテンツ画像そのものを示す。
There are no restrictions on the method and data structure of educational content data. For example, the
ステップS16では、オブジェクト送信部15が、仮想表現オブジェクトを含む教育用コンテンツデータを生徒端末20に送信する。生徒端末20では、表示制御部22がその教育用コンテンツデータを受信および処理して、教育用コンテンツを表示装置上に表示する。この結果、生徒端末20上に表示されている仮想空間内に仮想表現オブジェクトが現われる。サーバ10でレンダリングが実行されていない場合には、表示制御部22は教育用コンテンツデータに基づくレンダリングを実行することでコンテンツ画像を表示する。教育用コンテンツデータがコンテンツ画像そのものを示す場合には、表示制御部22はそのコンテンツ画像をそのまま表示する。生徒端末20は、コンテンツ画像の表示に合わせて音声をスピーカから出力する。
In step S16, the
オブジェクト送信部15は、教育用コンテンツデータを生徒端末20に送信することに加えてまたは代えて、その教育用コンテンツデータを所与のデータベースに格納してもよい。例えば、オブジェクト送信部15はその教育用コンテンツデータを原映像データとして原映像データベース40に格納してもよい。
The
或る一つの生徒端末20への1回の配信において処理フローS1は複数回実行され得る。この場合には、教育用コンテンツが表示されている間に、生徒のリアルタイムの動きに応答して、様々な仮想表現オブジェクトがその動きのタイミングで表示される。処理フローS1は一部のモーションデータに限って実行されてもよい。例えば、コンテンツ配信システム1は、教育用コンテンツでの特定の場面(例えば、演習問題を行う場面)に対応する時間幅の間に受信されるモーションデータに限って処理フローS1を実行してもよい。
The processing flow S1 can be executed a plurality of times in one delivery to a
図5〜図7を参照しながら、仮想表現オブジェクトの表示の例を説明する。図5〜図7はいずれも、仮想表現オブジェクトの一例を示す図である。 An example of displaying a virtual representation object will be described with reference to FIGS. 5 to 7. 5 to 7 are diagrams showing an example of a virtual representation object.
図5の例では、台301、ボール302、および仮想手311という3個の仮想オブジェクトを含む仮想空間での状況の変化を示す。この例では、コンテンツ配信システム1は台301に対するボール302の位置を示す英語の前置詞を仮想表現オブジェクトによって表示する。
In the example of FIG. 5, the change of the situation in the virtual space including the three virtual objects of the
仮想手311は生徒の手の実際の動きに基づいて動く対象仮想オブジェクトである。台301およびボール302は関連仮想オブジェクトとして処理され得る。生徒が仮想手311を操作してボール302を台301の上に載せると、その操作に応答して仮想表現オブジェクト321が表示される。この仮想表現オブジェクト321は、ボール302が台301の“上に”置かれたことに対応して決定された言語表現である前置詞「on」の文字そのものを示す表現データである。その後、生徒が仮想手311を操作してボール302を台301の傍に置くと、その操作に応答して仮想表現オブジェクト322が表示される。この仮想表現オブジェクト322は、ボール302が台301の“傍に”位置することに対応して決定された言語表現である前置詞「by」の文字そのものを示す表現データである。仮想表現オブジェクト321,322はいずれも、関連仮想オブジェクトに関連するものといえる。
The
一例では、図5の例のように、生徒の動作に基づく対象仮想オブジェクトの動きに対応する言語表現を表示することで、学習者は、一般には理解が容易ではない外国語の語彙の微妙な違いを理解することができる。例えば、方向に関係なく台301にボール302が接触した場合には、英単語「ON」を示す仮想表現オブジェクトが表示されてもよい。仮想手311がボール302を持ち上げて該ボール302を台301の真上に位置させた場合には、英単語「over」が表示されてもよい。仮想手311がボール302を台301のほぼ上方に位置させた場合には、英単語「above」が表示されてもよい。このような言語表現の表示は、書籍、現実の教室内での授業、教師が生徒に一方的に教えるテレビの教育番組などのような従来の教育(例えば外国語教育)では得られない特有の効果を奏する。
In one example, as in the example of FIG. 5, by displaying a linguistic expression corresponding to the movement of the target virtual object based on the movement of the student, the learner is generally not easy to understand the subtleties of the foreign language vocabulary. Can understand the difference. For example, when the
図6の例では、複数の生徒に対応する複数のアバターを含む仮想空間400を示す。この例では、コンテンツ配信システム1はアバターの動きを示す英単語を仮想表現オブジェクトによって表示する。
In the example of FIG. 6, a
仮想空間400は、或る一人の生徒のアバター401と、ボール402とを含む。アバター401はその生徒の実際の動きに基づいて動く対象仮想オブジェクトである。ボール402は関連仮想オブジェクトとして処理され得る。その生徒がアバター401を操作してボール402を投げると、その操作に応答して仮想表現オブジェクト411が表示される。この仮想表現オブジェクト411は、アバター401がボール402を投げたことに対応して決定された言語表現である動詞「throw」の文字そのものを示す表現データである。仮想表現オブジェクト411は対象仮想オブジェクトの動きを示すものといえる。
The
仮想空間400は、別の一人の生徒のアバター421をさらに含む。アバター421はその生徒の実際の動きに基づいて動く対象仮想オブジェクトである。その生徒がジャンプするとアバター421もジャンプし、その動きに対応して決定された言語表現である動詞「jump」の文字そのものが仮想表現オブジェクト431として表示される。仮想表現オブジェクト431も対象仮想オブジェクトの動きを示すものといえる。この仮想空間400のように、コンテンツ配信システム1は、視聴者以外の人のアバターの動きに起因する言語表現に対応する仮想表現オブジェクトを該視聴者の端末上に表示してもよい。
The
図7の例では、或る一人の生徒に対応するアバターを含む仮想空間500を示す。この例では、コンテンツ配信システム1はアバターの行動を示す英文を仮想表現オブジェクトによって表示する。
In the example of FIG. 7, a
仮想空間500は、壁501と、生徒のアバター502と、そのアバター502が持つブラシ503とを含む。アバター502はその生徒の実際の動きに基づいて動く対象仮想オブジェクトである。壁501およびブラシ503は関連仮想オブジェクトとして処理され得る。その生徒がアバター502を操作してブラシ503で壁501を赤く塗ると、その操作に応答して仮想表現オブジェクト511が表示される。この仮想表現オブジェクト511は、壁501を赤く塗るという行動に対応して決定された言語表現である英文「You are painting a wall in red.」の文字そのものを示す表現データである。仮想表現オブジェクト511は、対象仮想オブジェクトの動きを示すものともいえるし、対象仮想オブジェクトの動きと関連仮想オブジェクトの変化との組合せを示すものともいえる。
The
別の例として、シナリオに基づく問題文として、「You are painting a wall in red.」という英文が先に表示され、「あなたがこの動作をしてください。」という課題が教育用コンテンツ中の教師から生徒へ示されたとする。そして、生徒は、その教育用コンテンツの仮想空間内でブラシ503を持ち、複数種類の色のペンキから赤いペンキを選んでブラシ503を赤いペンキにつけ、壁501に塗る動作をしなければならないとする。生徒がその動作を正しく行った場合には、コンテンツ配信システム1はその動作に基づいて、「正解です。」という言語表現を示す仮想表現オブジェクトを表示してもよい。生徒がその動作を正しく行わない場合(例えば、別の色のペンキに近づいた場合)には、コンテンツ配信システム1はその動作に基づいて、「本当にその色ですか?」という言語表現を示す仮想表現オブジェクトをヒントとして表示してもよい。
As another example, as a scenario-based question sentence, the English sentence "You are painting a wall in red." Is displayed first, and the task "You should do this action." Is displayed by the teacher in the educational content. Was shown to the students. Then, the student must hold the
一例では、図5〜図7に示すような場面を含む教育用コンテンツは語学の授業のコンテンツである。コンテンツ配信システム1を語学の授業に適用することで、言語に関する説明のために補助資料を用意しなくても、仮想表現オブジェクトを用いて語彙の使い分け、文法などの様々な事項を生徒に伝えることができる。生徒はその仮想表現オブジェクトを見ることで、言語に関する様々な事項を直感的に理解することができる。 In one example, the educational content including the scenes shown in FIGS. 5 to 7 is the content of the language class. By applying the content distribution system 1 to language lessons, it is possible to convey various matters such as vocabulary usage and grammar to students using virtual expression objects without preparing supplementary materials for explanations about the language. Can be done. By looking at the virtual representation object, students can intuitively understand various matters related to language.
上述したようにコンテンツの目的および利用場面は限定されず、したがって、仮想表現オブジェクトが具体的に示す事項も何ら限定されない。仮想表現オブジェクトは英語以外の任意の言語による表記を示してもよい。あるいは、仮想表現オブジェクトは語学以外の学習を目的とする事項を示してもよく、例えば、仮想的な技能講習における所与の操作の注意点を示してもよい。仮想表現オブジェクトは学習以外の目的で用いられてもよく、例えば、情報伝達またはコミュニケーションを支援するために用いられてもよい。 As described above, the purpose and usage of the content are not limited, and therefore, the matters specifically indicated by the virtual representation object are not limited. The virtual representation object may show notation in any language other than English. Alternatively, the virtual representation object may indicate a matter for the purpose of learning other than language, and may indicate, for example, a note of a given operation in a virtual skill class. The virtual representation object may be used for purposes other than learning, for example, to support information transmission or communication.
処理フローS1によって生徒端末20に提供された教育用コンテンツを視聴する生徒は、仮想表現オブジェクトが映った場面の画像を辞書データとして登録することができ、さらに、その辞書データを後で参照することができる。本実施形態では、生徒端末20の辞書制御部23とサーバ10の辞書管理部16とが協働して辞書データの登録および参照(検索)を実行する。
A student who views the educational content provided to the
生徒は生徒端末20を操作して、仮想表現オブジェクトを含む場面の画像(静止画または所与の時間幅の映像)を指定する。辞書制御部23はその操作に応答して、指定された画像を記録し、この画像と視聴者IDとを含む登録要求をサーバ10に送信する。サーバ10では辞書管理部16がその登録要求を受信する。辞書管理部16は、新規のレコードIDを生成し、登録要求に含まれる視聴者IDおよび画像をそのレコードIDに関連付けることで辞書データのレコードを生成する。そして、辞書管理部16はそのレコードを辞書データベース50に格納する。
The student operates the
その後の任意のタイミングで、生徒は生徒端末20を操作して辞書データのリストまたは辞書データの特定の1以上のレコードを指定する。辞書制御部23はその操作に応答して、少なくとも視聴者IDを含む検索要求をサーバ10に送信する。サーバ10では辞書管理部16がその検索要求に対応する少なくとも一つのレコードを辞書データベース50から読み出し、そのレコードを検索結果として生徒端末20に送信する。生徒端末20では辞書制御部23がその検索結果を表示装置上に表示し、これにより生徒は、仮想表現オブジェクトが映った場面(例えば、図5〜図7に示すような場面)を再び参照ことができる。
At any subsequent timing, the student operates the
上述したように、コンテンツ配信システム1は様々な態様の授業に適用し得る。一例では、コンテンツ配信システム1はリアルタイム遠隔授業のために用いられ得る。リアルタイム遠隔授業とは、教師がリアルタイムで行っている授業が教師端末30およびサーバ10を介して1以上の生徒端末20にリアルタイムで配信される態様である。この場合には、1以上の生徒が共通のコンテンツ(すなわち共通の仮想空間)を同時に視聴しているので、すべての生徒が特定の仮想オブジェクトを同時に動かすことは困難である。したがって、この場合には、教師または選ばれた生徒が仮想オブジェクトを動かしたり仮想空間中で動作をしたりすることが考えられる。
As described above, the content distribution system 1 can be applied to various types of lessons. In one example, the content distribution system 1 can be used for real-time distance learning. The real-time distance lesson is a mode in which a lesson conducted by a teacher in real time is delivered in real time to one or
別の例では、コンテンツ配信システム1はタイムシフト遠隔授業のために用いられ得る。タイムシフト遠隔授業とは、予め撮影または生成された教育用コンテンツ(すなわち、所与のデータベースに予め記憶された教育用コンテンツ)が個々の生徒端末20からの要求に応じて該生徒端末20に配信される態様である。この場合には、リアルタイムの第1生徒の動作が仮想オブジェクトの情報として教育用コンテンツデータに追加または上書きされることで保存されて、所与のデータベースに格納される。加えて、その動作に基づく言語表現に対応する仮想表現オブジェクトもその教育用コンテンツデータに追加または上書きされることで保存される。その後、その教育用コンテンツを第2生徒が視聴する場合には、その第2生徒は第1生徒の動作とそれに対応する言語表現(仮想表現オブジェクト)とを視認することができる。第2生徒の動作と、この動作に基づく言語表現に対応する仮想表現オブジェクトとについても、教育用コンテンツデータに追加または上書きされ得る。このようなタイムシフト遠隔授業により、空間的にも時間的にも離間した別々の生徒があたかも一緒に同時に同じ授業を受けているかのような疑似的な印象をそれぞれの生徒に与えることができる。
In another example, the content distribution system 1 can be used for time-shifted distance learning. In time-shift distance learning, pre-photographed or generated educational content (that is, educational content pre-stored in a given database) is delivered to the
[効果]
以上説明したように、本開示の一側面に係るコンテンツ制御システムは少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、授業の場面を示す仮想空間内での対象仮想オブジェクトの動きを特定し、言語表現ルールを記憶する記憶部を参照して、特定された動きに対応する言語表現を決定し、決定された言語表現に対応する表現データを出力する。
[effect]
As described above, the content control system according to one aspect of the present disclosure includes at least one processor. At least one processor identifies the movement of the target virtual object in the virtual space indicating the scene of the lesson, refers to the storage unit that stores the linguistic expression rule, and determines the linguistic expression corresponding to the specified movement. , Outputs the expression data corresponding to the determined language expression.
本開示の一側面に係るコンテンツ制御方法は、少なくとも一つのプロセッサを備えるコンテンツ制御システムによって実行される。コンテンツ制御方法は、授業の場面を示す仮想空間内での対象仮想オブジェクトの動きを特定するステップと、言語表現ルールを記憶する記憶部を参照して、特定された動きに対応する言語表現を決定するステップと、決定された言語表現に対応する表現データを出力するステップとを含む。 The content control method according to one aspect of the present disclosure is executed by a content control system including at least one processor. The content control method determines the language expression corresponding to the specified movement by referring to the step of specifying the movement of the target virtual object in the virtual space showing the scene of the lesson and the storage unit that stores the language expression rule. The step of outputting the expression data corresponding to the determined linguistic expression is included.
本開示の一側面に係るコンテンツ制御プログラムは、授業の場面を示す仮想空間内での対象仮想オブジェクトの動きを特定するステップと、言語表現ルールを記憶する記憶部を参照して、特定された動きに対応する言語表現を決定するステップと、決定された言語表現に対応する表現データを出力するステップとをコンピュータに実行させる。 The content control program according to one aspect of the present disclosure refers to the step of specifying the movement of the target virtual object in the virtual space indicating the scene of the lesson and the storage unit for storing the language expression rule, and the specified movement. The computer is made to execute the step of determining the linguistic expression corresponding to the above and the step of outputting the expression data corresponding to the determined linguistic expression.
このような側面においては、対象仮想オブジェクトの動作に対応する言語表現に基づく表現データが出力される。この表現データによって、仮想空間内の出来事を端末のユーザに効果的に伝えることができる。 In such an aspect, expression data based on the linguistic expression corresponding to the operation of the target virtual object is output. With this representation data, events in the virtual space can be effectively communicated to the user of the terminal.
他の側面に係るコンテンツ制御システムでは、少なくとも一つのプロセッサが、授業を見ている生徒のリアルタイムの動きを示すモーションデータを端末から受信し、モーションデータに基づいて対象仮想オブジェクトの動きを特定してもよい。この処理によって、生徒のリアルタイムの動きに対応する出来事をその生徒にリアルタイムに且つ効果的に伝えることができる。 In the content control system according to the other aspect, at least one processor receives motion data indicating the real-time movement of the student watching the class from the terminal, and identifies the movement of the target virtual object based on the motion data. May be good. By this process, the event corresponding to the student's real-time movement can be effectively communicated to the student in real time.
他の側面に係るコンテンツ制御システムでは、少なくとも一つのプロセッサが、過去に撮影または生成された原映像を示す原映像データをデータベースから取得し、取得された原映像データと表現データとを用いて教育用コンテンツデータを生成し、生成された教育用コンテンツデータを出力してもよい。リアルタイムの映像ではなく既存の映像が表現データを用いて教育用コンテンツデータに変換されるので、過去の膨大な映像をより効果的に利用または再利用することができる。 In the content control system according to the other aspect, at least one processor acquires the original video data indicating the original video shot or generated in the past from the database, and educates using the acquired original video data and the expression data. Content data for education may be generated and the generated educational content data may be output. Since existing video is converted into educational content data using expression data instead of real-time video, a huge amount of past video can be used or reused more effectively.
他の側面に係るコンテンツ制御システムでは、少なくとも一つのプロセッサが、対象仮想オブジェクトの動きを示す言語表現を決定してもよい。この場合には、対象仮想オブジェクトの動きをユーザに効果的に伝えることができる。 In the content control system according to the other aspect, at least one processor may determine a linguistic representation indicating the movement of the target virtual object. In this case, the movement of the target virtual object can be effectively transmitted to the user.
他の側面に係るコンテンツ制御システムでは、少少なくとも一つのプロセッサが、対象仮想オブジェクトの動きに基づいて変化する関連仮想オブジェクトに関連する言語表現を決定してもよい。この場合には、関連仮想オブジェクトの変化をユーザに効果的に伝えることができる。 In the content control system according to the other aspect, at least one processor may determine the linguistic representation associated with the related virtual object that changes based on the movement of the target virtual object. In this case, changes in related virtual objects can be effectively communicated to the user.
他の側面に係るコンテンツ制御システムでは、少なくとも一つのプロセッサが、対象仮想オブジェクトの動きと関連仮想オブジェクトの変化との組合せを示す言語表現を決定してもよい。この場合には、対象仮想オブジェクトおよび関連仮想オブジェクトの組合せに基づく出来事をユーザに効果的に伝えることができる。 In the content control system according to the other aspect, at least one processor may determine a linguistic representation indicating a combination of the movement of the target virtual object and the change of the related virtual object. In this case, it is possible to effectively convey to the user an event based on the combination of the target virtual object and the related virtual object.
他の側面に係るコンテンツ制御システムでは、表現データが、端末上に表示される仮想表現オブジェクトを示してもよい。この場合には、仮想空間内の出来事を端末のユーザに視覚的に伝えることができる。 In the content control system according to the other aspect, the representation data may indicate a virtual representation object displayed on the terminal. In this case, the events in the virtual space can be visually transmitted to the user of the terminal.
他の側面に係るコンテンツ制御システムでは、仮想表現オブジェクトが文字を含んでもよい。仮想空間内の出来事を文字によって表現することで、その出来事を分かりやすくユーザに伝えることができる。 In the content control system according to the other aspect, the virtual representation object may contain characters. By expressing the events in the virtual space with characters, the events can be conveyed to the user in an easy-to-understand manner.
他の側面に係るコンテンツ制御システムでは、少なくとも一つのプロセッサが、端末上に表示された仮想表現オブジェクトを映す場面を含む画像と授業を見ている生徒の視聴者IDとを含む登録要求を取得し、視聴者IDおよび画像を含む辞書データを辞書データベースに格納し、端末からの検索要求に応答して、該検索要求に対応する辞書データを辞書データベースから読み出して該辞書データを端末に出力してもよい。この場合には、仮想表現オブジェクトを映す場面の保存および検索が可能になるので、ユーザは、一度見た仮想表現オブジェクトを後で再び見返すことができる。 In the content control system according to the other aspect, at least one processor acquires a registration request including an image including a scene showing a virtual representation object displayed on the terminal and a viewer ID of a student watching the class. , The dictionary data including the viewer ID and the image is stored in the dictionary database, and in response to the search request from the terminal, the dictionary data corresponding to the search request is read from the dictionary database and the dictionary data is output to the terminal. May be good. In this case, the scene in which the virtual representation object is projected can be saved and searched, so that the user can look back at the virtual representation object once viewed.
[変形例]
以上、本開示の実施形態に基づいて詳細に説明した。しかし、本開示は上記実施形態に限定されるものではない。本開示は、その要旨を逸脱しない範囲で様々な変形が可能である。
[Modification example]
The above description has been made in detail based on the embodiments of the present disclosure. However, the present disclosure is not limited to the above embodiment. The present disclosure can be modified in various ways without departing from its gist.
上記実施形態では、モーション特定部12が、生徒端末(視聴者端末)20から提供されたモーションデータ、すなわち、生徒(視聴者)のリアルタイムの動きを示すモーションデータに基づいて対象仮想オブジェクトの動きを特定する。しかし、対象仮想オブジェクトの動きを特定する手法はこれに限定されず、これに関連して、視聴者端末はモーション送信部21に相当する機能を備えなくてもよい。例えば、モーション特定部12は教師端末30から提供されるモーションデータ、すなわち、教師(配信者)のリアルタイムの動きを示すモーションデータに基づいて対象仮想オブジェクトの動きを特定してもよい。あるいは、モーション特定部12は原映像に映る対象仮想オブジェクトの動きを特定してもよい。例えば、モーション特定部12は、原映像を解析することで、あるいは、原映像データに含まれるシナリオを参照することで、予め記録されている任意の対象仮想オブジェクトの動きを特定してもよい。原映像から選択される対象仮想オブジェクトは任意の有体物を示してよく、例えば、人(アバター)、任意の人工物(例えば、動産、不動産)、任意の自然物(例えば、動物、植物)、および任意の地形(例えば、山、川、地面)のうちの少なくとも一つでもよい。
In the above embodiment, the
上記実施形態では、表現データが、視認可能な仮想表現オブジェクトを示すが、表現データの構造はこれに限定されない。したがって、仮想表現オブジェクトは必須ではない。例えば、表現データは、言語表現を音声によって表現する音声データによって実現されてもよく、この場合には、生徒などの視聴者はその言語表現を聴き取ることができる。 In the above embodiment, the representation data indicates a visible virtual representation object, but the structure of the representation data is not limited to this. Therefore, virtual representation objects are not required. For example, the expression data may be realized by audio data that expresses a linguistic expression by voice, and in this case, a viewer such as a student can hear the linguistic expression.
上記実施形態ではサーバ10が辞書管理部16を備えるが、この機能要素は必須ではない。したがって、コンテンツ制御システムは辞書データの保存および参照に関する機能を有しなくてもよい。これに対応して、視聴者端末は辞書制御部23に相当する機能を備えなくてもよい。
In the above embodiment, the
上記実施形態ではコンテンツ配信システム1がサーバ10を用いて構成されたが、コンテンツ制御システムは、サーバ10を用いないユーザ端末間の直接配信に適用されてもよい。この場合には、サーバ10の各機能要素はいずれかのユーザ端末に実装されてもよく、例えば、配信者端末および視聴者端末のいずれか一方に実装されてもよい。あるいは、サーバ10の個々の機能要素は複数のユーザ端末に分かれて実装されてもよく、例えば配信者端末および視聴者端末に分かれて実装されてもよい。これに関連して、コンテンツ制御プログラムはクライアントプログラムとして実現されてもよい。コンテンツ制御システムはサーバを用いて構成されてもよいし、サーバを用いることなく構成されてもよい。生徒端末などの視聴者端末がサーバ10の機能を有することで、サーバの負荷を低減しつつ、共通の教育用コンテンツを多数の生徒に提供することができる。加えて、生徒などの配信者に関する情報(例えば、動作を示す情報)が視聴者端末の外部に送信されないので、視聴者情報の秘密をより確実に守ることが可能になる。
In the above embodiment, the content distribution system 1 is configured by using the
上述したように、コンテンツ制御システムは、教育用コンテンツ以外の任意の種類のコンテンツを制御してもよい。例えば、コンテンツ制御システムはユーザ間の任意の情報伝達またはコミュニケーションを支援するための任意のコンテンツを制御してもよい。 As described above, the content control system may control any type of content other than educational content. For example, the content control system may control arbitrary content to support arbitrary information transmission or communication between users.
本開示において、「少なくとも一つのプロセッサが、第1の処理を実行し、第2の処理を実行し、…第nの処理を実行する。」との表現、またはこれに対応する表現は、第1の処理から第nの処理までのn個の処理の実行主体(すなわちプロセッサ)が途中で変わる場合を含む概念である。すなわち、この表現は、n個の処理のすべてが同じプロセッサで実行される場合と、n個の処理においてプロセッサが任意の方針で変わる場合との双方を含む概念である。 In the present disclosure, the expression "at least one processor executes the first process, executes the second process, ... executes the nth process", or the expression corresponding thereto is the first. This is a concept including a case where the execution subject (that is, the processor) of n processes from the first process to the nth process changes in the middle. That is, this expression is a concept that includes both a case where all n processes are executed by the same processor and a case where the processor changes according to an arbitrary policy in the n processes.
少なくとも一つのプロセッサにより実行される方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップ(処理)の一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正又は削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。 The processing procedure of the method executed by at least one processor is not limited to the example in the above embodiment. For example, some of the steps (processes) described above may be omitted, or each step may be executed in a different order. Further, any two or more steps among the above-mentioned steps may be combined, or a part of the steps may be modified or deleted. Alternatively, other steps may be performed in addition to each of the above steps.
1…コンテンツ配信システム、10…サーバ、11…コンテンツ管理部、12…モーション特定部、13…言語表現決定部、14…オブジェクト設定部、15…オブジェクト送信部、16…辞書管理部、20…生徒端末、21…モーション送信部、22…表示制御部、23…辞書制御部、30…教師端末、40…原映像データベース、50…辞書データベース、321,322,411,431,511…仮想表現オブジェクト、400,500…仮想空間、P1…サーバプログラム、P2…クライアントプログラム。 1 ... Content distribution system, 10 ... Server, 11 ... Content management unit, 12 ... Motion identification unit, 13 ... Language expression determination unit, 14 ... Object setting unit, 15 ... Object transmission unit, 16 ... Dictionary management department, 20 ... Student Terminal, 21 ... Motion transmission unit, 22 ... Display control unit, 23 ... Dictionary control unit, 30 ... Teacher terminal, 40 ... Original video database, 50 ... Dictionary database, 321, 322, 411, 431, 511 ... Virtual representation object, 400,500 ... virtual space, P1 ... server program, P2 ... client program.
Claims (11)
前記少なくとも一つのプロセッサが、
授業の場面を示す仮想空間内での対象仮想オブジェクトの動きを特定し、
言語表現ルールを記憶する記憶部を参照して、前記特定された動きに対応する前記言語表現を決定し、
前記決定された言語表現に対応する表現データを出力する、
コンテンツ制御システム。 With at least one processor
The at least one processor
Identify the movement of the target virtual object in the virtual space that shows the scene of the lesson,
With reference to the storage unit that stores the linguistic expression rule, the linguistic expression corresponding to the specified movement is determined.
Outputs the expression data corresponding to the determined linguistic expression.
Content control system.
前記授業を見ている生徒のリアルタイムの動きを示すモーションデータを端末から受信し、
前記モーションデータに基づいて前記対象仮想オブジェクトの動きを特定する、
請求項1に記載のコンテンツ制御システム。 The at least one processor
Motion data showing the real-time movement of the student watching the lesson is received from the terminal, and
Identify the movement of the target virtual object based on the motion data.
The content control system according to claim 1.
過去に撮影または生成された原映像を示す原映像データをデータベースから取得し、
前記取得された原映像データと前記表現データとを用いて教育用コンテンツデータを生成し、
前記生成された教育用コンテンツデータを出力する、
請求項1または2に記載のコンテンツ制御システム。 The at least one processor
Obtain the original video data showing the original video shot or generated in the past from the database,
Educational content data is generated using the acquired original video data and the expression data.
Output the generated educational content data,
The content control system according to claim 1 or 2.
請求項1〜3のいずれか一項に記載のコンテンツ制御システム。 The at least one processor determines the linguistic representation of the behavior of the target virtual object.
The content control system according to any one of claims 1 to 3.
請求項1〜4のいずれか一項に記載のコンテンツ制御システム。 The at least one processor determines the linguistic representation associated with a related virtual object that changes based on the movement of the target virtual object.
The content control system according to any one of claims 1 to 4.
請求項5に記載のコンテンツ制御システム。 The at least one processor determines the linguistic representation that indicates the combination of the movement of the target virtual object and the change of the associated virtual object.
The content control system according to claim 5.
請求項1〜6のいずれか一項に記載のコンテンツ制御システム。 The representation data indicates a virtual representation object displayed on the terminal.
The content control system according to any one of claims 1 to 6.
請求項7に記載のコンテンツ制御システム。 The virtual representation object contains characters,
The content control system according to claim 7.
前記端末上に表示された前記仮想表現オブジェクトを映す場面を含む画像と前記授業を見ている生徒の視聴者IDとを含む登録要求を取得し、
前記視聴者IDおよび前記画像を含む辞書データを辞書データベースに格納し、
前記端末からの検索要求に応答して、該検索要求に対応する前記辞書データを前記辞書データベースから読み出して該辞書データを前記端末に出力する、
請求項7または8に記載のコンテンツ制御システム。 The at least one processor
Acquire a registration request including an image including a scene showing the virtual expression object displayed on the terminal and a viewer ID of a student who is watching the lesson.
The viewer ID and the dictionary data including the image are stored in the dictionary database, and the dictionary data is stored.
In response to a search request from the terminal, the dictionary data corresponding to the search request is read from the dictionary database and the dictionary data is output to the terminal.
The content control system according to claim 7 or 8.
授業の場面を示す仮想空間内での対象仮想オブジェクトの動きを特定するステップと、
言語表現ルールを記憶する記憶部を参照して、前記特定された動きに対応する前記言語表現を決定するステップと、
前記決定された言語表現に対応する表現データを出力するステップと
を含むコンテンツ制御方法。 A content control method performed by a content control system with at least one processor.
Steps to identify the movement of the target virtual object in the virtual space that shows the scene of the lesson,
With reference to a storage unit that stores linguistic expression rules, a step of determining the linguistic expression corresponding to the specified movement, and
A content control method including a step of outputting expression data corresponding to the determined language expression.
言語表現ルールを記憶する記憶部を参照して、前記特定された動きに対応する前記言語表現を決定するステップと、
前記決定された言語表現に対応する表現データを出力するステップと
をコンピュータに実行させるコンテンツ制御プログラム。 Steps to identify the movement of the target virtual object in the virtual space that shows the scene of the lesson,
With reference to a storage unit that stores linguistic expression rules, a step of determining the linguistic expression corresponding to the specified movement, and
A content control program that causes a computer to execute a step of outputting expression data corresponding to the determined language expression.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020117810A JP7465736B2 (en) | 2019-11-28 | 2020-07-08 | Content control system, content control method, and content control program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019215455A JP6733027B1 (en) | 2019-11-28 | 2019-11-28 | Content control system, content control method, and content control program |
JP2020117810A JP7465736B2 (en) | 2019-11-28 | 2020-07-08 | Content control system, content control method, and content control program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019215455A Division JP6733027B1 (en) | 2019-11-28 | 2019-11-28 | Content control system, content control method, and content control program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021086146A true JP2021086146A (en) | 2021-06-03 |
JP2021086146A5 JP2021086146A5 (en) | 2022-11-30 |
JP7465736B2 JP7465736B2 (en) | 2024-04-11 |
Family
ID=90606762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020117810A Active JP7465736B2 (en) | 2019-11-28 | 2020-07-08 | Content control system, content control method, and content control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7465736B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102606746B1 (en) * | 2022-12-26 | 2023-11-29 | 주식회사 인터랙트 | Training system, method and apparatus using XR contents |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7548644B1 (en) | 2024-02-07 | 2024-09-10 | 株式会社Hinichijo | Correspondence education system, correspondence education providing method, and correspondence education providing program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002224441A (en) * | 2001-02-01 | 2002-08-13 | Konami Computer Entertainment Osaka:Kk | Game progress control program, game server and game progress control method |
JP2007212635A (en) * | 2006-02-08 | 2007-08-23 | Copcom Co Ltd | Sound effect producing device, video game device equipped with the same, and program and recording medium for attaining the same |
JP2012050804A (en) * | 2010-08-06 | 2012-03-15 | Nintendo Co Ltd | Game system, game apparatus, game program, and game process method |
-
2020
- 2020-07-08 JP JP2020117810A patent/JP7465736B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002224441A (en) * | 2001-02-01 | 2002-08-13 | Konami Computer Entertainment Osaka:Kk | Game progress control program, game server and game progress control method |
JP2007212635A (en) * | 2006-02-08 | 2007-08-23 | Copcom Co Ltd | Sound effect producing device, video game device equipped with the same, and program and recording medium for attaining the same |
JP2012050804A (en) * | 2010-08-06 | 2012-03-15 | Nintendo Co Ltd | Game system, game apparatus, game program, and game process method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102606746B1 (en) * | 2022-12-26 | 2023-11-29 | 주식회사 인터랙트 | Training system, method and apparatus using XR contents |
EP4394721A1 (en) * | 2022-12-26 | 2024-07-03 | INTERACT Co., Ltd | Training system, method and apparatus using extended reality contents |
Also Published As
Publication number | Publication date |
---|---|
JP7465736B2 (en) | 2024-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Iftene et al. | Enhancing the attractiveness of learning through augmented reality | |
JP6683864B1 (en) | Content control system, content control method, and content control program | |
Omlor et al. | Comparison of immersive and non-immersive virtual reality videos as substitute for in-hospital teaching during coronavirus lockdown: a survey with graduate medical students in Germany | |
JP7368298B2 (en) | Content distribution server, content creation device, educational terminal, content distribution program, and educational program | |
KR102283301B1 (en) | Apparatus and Method for Providing real time comunication platform based on XR | |
WO2022255262A1 (en) | Content provision system, content provision method, and content provision program | |
JP7465736B2 (en) | Content control system, content control method, and content control program | |
Holley et al. | Augmented reality for education | |
US20220360827A1 (en) | Content distribution system, content distribution method, and content distribution program | |
JP7465737B2 (en) | Teaching system, viewing terminal, information processing method and program | |
WO2021106463A1 (en) | Content control system, content control method, and content control program | |
JP6892478B2 (en) | Content control systems, content control methods, and content control programs | |
An et al. | Trends and effects of learning through AR-based education in S-Korea | |
Geana et al. | Beyond the dawn of virtualized learning environments: A comparative study of video and augmented reality information delivery on student engagement and knowledge retention | |
JP6766228B1 (en) | Distance education system | |
JP2021009351A (en) | Content control system, content control method, and content control program | |
Smuseva et al. | Research and software development using AR technology | |
Tawhai | Immersive 360 video for forensic education | |
Nakano et al. | Development of a second‐screen system for sharing virtual reality information | |
Jurík | Current trends in e-learning | |
JP2021009348A (en) | Content control system, content control method, and content control program | |
Tackett | Using a 3D immersive environment to study signal flow in music technology | |
Kombath et al. | Application of AR in Education | |
Ahmad | Engaging and facilitating language skills using augmented reality as a medium of learning and teaching | |
Levstein | CSI4FS®–A Markerless Augmented Reality Application for Forensic Science Crime Scene Investigation Training |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221121 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230815 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7465736 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |