JP2019215502A - Server, sound data evaluation method, program, and communication system - Google Patents
Server, sound data evaluation method, program, and communication system Download PDFInfo
- Publication number
- JP2019215502A JP2019215502A JP2018113949A JP2018113949A JP2019215502A JP 2019215502 A JP2019215502 A JP 2019215502A JP 2018113949 A JP2018113949 A JP 2018113949A JP 2018113949 A JP2018113949 A JP 2018113949A JP 2019215502 A JP2019215502 A JP 2019215502A
- Authority
- JP
- Japan
- Prior art keywords
- sound data
- communication
- terminal
- screen
- communication terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、サーバ、音データ評価方法、プログラム、及び、通信システムに関する。 The present invention relates to a server, a sound data evaluation method, a program, and a communication system.
英会話などの外国語教室やアナウンス教室など、生徒が実際に声を出して教師からフィードバックを受けて正しい発音や発声を習得したいというニーズは少なくない。習得の際は、教師と生徒が教室など同じ場所に集まり、生徒の出す音に対して教師が実例を交えながら指導するという形態が取られる。 There are many needs for students who want to learn correct pronunciation and utterance by actually speaking out and receiving feedback from teachers, such as foreign language classes such as English conversation and announcement classes. At the time of learning, the teacher and the students gather in the same place such as a classroom, and the teacher gives guidance to the sounds emitted by the students with examples.
近年では、インターネットを利用して、遠隔地の教師と生徒が発音や発声を学習する形態も実用化されている。例えば、外国語教室においては、テレビ会議等に使用される通信システムを使って1対1で指導を受けられる音の教育システムが既に知られている。 In recent years, a form in which teachers and students at remote locations learn pronunciation and utterance using the Internet has been put to practical use. For example, in a foreign language classroom, a sound education system in which a one-to-one instruction is provided using a communication system used for a video conference or the like is already known.
また、1人の教師に対し複数人の生徒が同時に指導を受けることを想定した音の教育システムも知られている(例えば、特許文献1参照。)。特許文献1には、設定した問題を生徒が端末を介して回答でき、それを教師が確認して複数の生徒を指導するシステムが開示されている。
There is also known a sound education system that assumes that a plurality of students receive guidance simultaneously for one teacher (for example, see Patent Document 1).
しかしながら、従来の技術では、1人の教師が複数人の生徒を並行して指導することは困難であるという問題がある。教師と生徒が1対1であれば、教師が生徒の発声を確認して細やかな指導が可能である。しかし、複数人の生徒がいる場合、生徒に1人ずつ発声させて教師がアドバイスするのには時間がかかってしまう。一方、複数の生徒が同時に発声すれば時間を短縮できるが、評価対象が音であるため、教師が複数人の生徒の発声を同時に評価することは難しく細やかな指導が困難になる。 However, the conventional technique has a problem that it is difficult for one teacher to instruct a plurality of students in parallel. If the teacher and the student are one-to-one, the teacher can check the utterance of the student and provide detailed guidance. However, when there are a plurality of students, it takes time for the teacher to give advice to the students one by one. On the other hand, if a plurality of students utter simultaneously, the time can be reduced, but since the evaluation target is sound, it is difficult for the teacher to simultaneously evaluate the utterances of the plurality of students, and it is difficult to provide detailed guidance.
本発明は、上記課題に鑑み、1人の教師が複数の生徒を並行して発声の指導をすることができるサーバを提供することを目的とする。 The present invention has been made in view of the above problems, and has as its object to provide a server that allows one teacher to instruct a plurality of students in parallel.
上記課題に鑑み、本発明は、複数の通信端末とネットワークを介して通信可能なサーバであって、第1のユーザが操作する第1の通信端末の指示により第1の音データを複数の第2の通信端末にそれぞれ送信して、前記複数の第2の通信端末の第2のユーザがそれぞれ発した複数の第2の音データをそれぞれ受信する通信手段と、前記第1の音データと、前記複数の第2の通信端末それぞれから取得した前記第2の音データとに基づき、複数の前記第2の音データそれぞれに対する評価を生成する生成手段と、を有し、前記通信手段は、前記生成手段によって得られた評価を前記第1の通信端末に送信することを特徴とする。 In view of the above-mentioned problem, the present invention is a server capable of communicating with a plurality of communication terminals via a network, wherein the first sound data is transmitted to a plurality of first terminals by an instruction of the first communication terminal operated by a first user. Communication means for transmitting to each of the plurality of second communication terminals and receiving a plurality of second sound data respectively emitted by a second user of the plurality of second communication terminals; and Generating means for generating an evaluation for each of the plurality of second sound data based on the second sound data obtained from each of the plurality of second communication terminals, wherein the communication means The evaluation obtained by the generating means is transmitted to the first communication terminal.
1人の教師が複数の生徒を並行して発声の指導をすることができるサーバを提供することができる。 A server can be provided in which one teacher can instruct a plurality of students to speak in parallel.
以下、本発明を実施するための形態の一例として、通信システムと通信システムが行う音データ評価方法について図面を参照しながら説明する。 Hereinafter, a communication system and a sound data evaluation method performed by the communication system will be described with reference to the drawings as an example of an embodiment for implementing the present invention.
<処理の概略>
図1は、本実施形態の通信システム1が生徒の音声を評価する処理の概略を説明する図の一例である。図1では、通信ネットワークを介して管理システム50に教師が使用する端末10と生徒が使用する端末70A〜70C(いずれも後述する通信端末に相当)が通信できるように接続されている。
(1)まず、教師がお手本の音声を発声する(あるいは予め登録されているお手本の音声を使用してよい)。お手本の音声は管理システム50を介して端末70A〜70Cに送信され、生徒が聴くことができる。
(2)次に、生徒は教師の音声をお手本に、ほぼ同時に(少なくとも一部の時間帯で重複して)音声を発声する。生徒の音声は管理システム50に送信される。
(3)管理システム50は、お手本の音声と生徒の音声をそれぞれ比較して、どの程度、生徒の音声がお手本に近いかを評価する。
(4)管理システム50は全生徒の評価結果を教師の端末10に送信する。端末10は全生徒の評価結果を表示するので教師は各生徒の評価結果を確認して各生徒の発声を向上させる細やかな指導が可能となる。
<Outline of processing>
FIG. 1 is an example of a diagram illustrating an outline of a process in which a
(1) First, the teacher utters an example voice (or a pre-registered example voice may be used). The model voice is transmitted to the
(2) Next, the student uses the teacher's voice as a model and utters a voice almost at the same time (at least in some time zones). The student's voice is transmitted to the
(3) The
(4) The
このように本実施形態の通信システム1は、遠隔地の教師が複数の生徒の発声を指導する形態においても、管理システム50が教師の音声と各生徒の音声を比較するので、1人の教師が多数の生徒の発声を並行して指導することが可能になる。
As described above, in the
<用語について>
会議とは本来、会合して評議したり、集まって話し合ったりすることを言うが、本実施形態ではインターネットを介して話し合うため同じ場所に集まる必要はない。また、音の評価や指導を行う会合も会議の一形態である。
<Terminology>
A meeting originally refers to meeting and discussing or gathering and discussing, but in the present embodiment, it is not necessary to gather at the same place because the meeting is discussed via the Internet. Meetings for sound evaluation and guidance are also forms of meetings.
音データとは、空気の振動が電気信号に変換されたものであればよい。本実施形態では人が発声する音声データを例にして説明する。また、所定の言語として英語の発声を指導する通信システム1を説明するが、英語以外の所定の言語(中国語、フランス語、スペイン語、ロシア語、ドイツ語、アラビア語等)にも適用できる。また、音データとしては音声に限られず、音楽教室などで楽器が発する音でもよい。
The sound data may be any data as long as air vibration is converted into an electric signal. In the present embodiment, a description will be given using voice data uttered by a person as an example. Also, the
また、音は空気が振動する状態を言い、音データは情報又はデータであるが、本実施形態では両者を厳密には区別しない。 The sound refers to a state in which the air vibrates, and the sound data is information or data. In the present embodiment, the two are not strictly distinguished.
並行して指導するとは、1つのテレビ会議に複数の生徒が参加し、音を発声する時間帯が重複することがあっても、1対1の授業と同等の指導が可能であることをいう。並行して指導することを「同時に指導する」と称してもよい。 Instructing in parallel means that even if multiple students participate in one videoconference and the time of sound production overlaps, teaching equivalent to one-on-one lessons is possible. . Teaching in parallel may be referred to as "teaching at the same time."
<システム構成例>
図2は、本実施形態に係る通信システム1の概略図である。図2に示されているように、通信システム1は、テレビ会議端末が一例である複数の通信端末10a,10b,10c、スマートフォンが一例である複数の通信端末70x,70y、各通信端末を管理する通信管理システム50、及び中継装置30によって構築されている。以下、「通信端末」を「端末」と表し、「通信管理システム」を「管理システム」と表す。
<System configuration example>
FIG. 2 is a schematic diagram of the
図2では、3つの端末10a,10b,10c、及び2つの端末70x,70yについて示しているが、数はこれに限らない。また、複数の端末70x,70yのうち、任意の端末を「端末70」と表し、複数の端末10a,10b,10cのうち、任意の端末を「端末10」と表す。端末10,70は、通信機能を有する汎用コンピュータ、電子ホワイトボード、カーナビゲーション端末、電子看板(デジタルサイネージ)等であってもよい。
FIG. 2 illustrates three terminals 10a, 10b, and 10c and two terminals 70x and 70y, but the number is not limited thereto. Further, an arbitrary terminal among the plurality of terminals 70x and 70y is represented as “terminal 70”, and an arbitrary terminal among the plurality of terminals 10a, 10b, and 10c is represented as “terminal 10”. The
管理システム50は、サーバ機能を備えた情報処理装置であり、いわゆるサーバである(特許請求の範囲のサーバに相当)。端末10,70は、対応するクライアント機能を備えたコンピュータである。端末10,70、中継装置30、及び管理システム50は、インターネット、携帯電話網、LAN(Local Area Network)、WiFi(Wireless Fidelity)、或いはBluetooth(登録商標)等の通信ネットワーク2によって通信可能である。通信ネットワーク2には、携帯電話網の末端にある基地局2aも含まれる。なお、図2では、1つの基地局2aを示しているが、数はこれに限らない。
The
中継装置30は、端末10,70間で、音データ(音声データも含まれる)、映像(画像)データ、及び、テキストデータ等のコンテンツデータを中継する。
The relay device 30 relays content data such as audio data (including audio data), video (image) data, and text data between the
端末10は、拠点の一例として、教師が存在する居室(自宅、教室など)に配置されており、端末70は、拠点の一例として、各生徒の自宅などに配置されている。教師の拠点はどこでもよく、生徒の拠点もどこでもよい。また、教師が端末70を使用してもよいし、生徒が端末10を使用してもよい。本実施形態では説明の便宜上、教師が端末10を使用し、生徒が端末70を使用するとして説明する。 The terminal 10 is arranged in a living room (home, classroom, or the like) where a teacher is located as an example of a base, and the terminal 70 is arranged in each student's home or the like as an example of a base. Teachers can be located anywhere, and students can be located anywhere. In addition, the teacher may use the terminal 70, or the student may use the terminal 10. In the present embodiment, for convenience of explanation, a description will be given assuming that a teacher uses the terminal 10 and a student uses the terminal 70.
管理システム50、中継装置30、及び端末10,70は、同一の国、地域に配置されていても、異なる国、地域に配置されていてもよい。端末10のユーザは、例えば教師であり、端末70のユーザは、例えば生徒である。
The
通信システム1には、管理システム50を介して一方の端末から他方の端末に一方向でコンテンツデータを伝送するデータ提供システムや、管理システムを介して複数の端末間で情報や感情等を相互に伝達するコミュニケーションシステムが含まれる。このコミュニケーションシステムは、管理システムを介して複数の末間で情報や感情等を相互に伝達するためのシステムであり、テレビ会議システムやテレビ電話システム等が例として挙げられる。
The
<ハードウェア構成例>
<<端末のハードウェア構成例>>
図3(a)は、一実施形態に係る端末10のハードウェア構成図である。端末10は、端末10全体の動作を制御するCPU101(Central Processing Unit)、IPL(Initial Program Loader)等のCPU101の駆動に用いられるプログラムを記憶したROM102(Read Only Memory)、CPU101のワークエリアとして使用されるRAM103(Random Access Memory)、端末10用のプログラム、画像データ、及び音データ等の各種データを記憶するフラッシュメモリ104を有する。また、CPU101の制御にしたがってフラッシュメモリ104に対する各種データの読み出し又は書き込みを制御するSSD105(Solid State Drive)、フラッシュメモリやICカード(Integrated Circuit Card)等の記録メディア106に対するデータの読み出し又は書き込み(記憶)を制御するメディアI/F107(Interface)を有する。また、端末10の宛先を選択する場合などに操作される操作ボタン108、端末10の電源のON/OFFを切り換えるための電源スイッチ109、通信ネットワーク2を利用してデータ伝送をするためのネットワークI/F111を備えている。
<Example of hardware configuration>
<< Example of hardware configuration of terminal >>
FIG. 3A is a hardware configuration diagram of the terminal 10 according to the embodiment. The terminal 10 is used as a CPU 101 (Central Processing Unit) for controlling the entire operation of the terminal 10, a ROM 102 (Read Only Memory) storing a program used for driving the
また、端末10は、CPU101の制御にしたがって被写体を撮像して画像データを得る内蔵型のカメラ112、このカメラ112の駆動を制御する撮像素子I/F113、音を入力する内蔵型のマイク114、音を出力する内蔵型のスピーカ115、CPU101の制御にしたがってマイク114及びスピーカ115との間で音信号の入出力を処理する音入出力I/F116を有する。また、CPU101の制御にしたがって外付けのディスプレイ120に画像データを伝送するディスプレイI/F117、各種の外部機器を接続するための外部機器接続I/F118、端末10の各種機能の異常を知らせるアラームランプ119、及び上記各構成要素を図3(a)に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン110を備えている。
Further, the terminal 10 includes a built-in
ディスプレイ120は、被写体の画像等を表示する表示装置である。ディスプレイ120の一例として液晶や有機EL(Organic Electroluminescence)が挙げられる。また、ディスプレイ120は、ケーブル120cによってディスプレイI/F117に接続される。このケーブル120cは、アナログRGB(VGA)信号用のケーブルであってもよいし、コンポーネントビデオ用のケーブルであってもよいし、HDMI(登録商標)(High−Definition Multimedia Interface)やDVI(Digital Video Interactive)信号用のケーブルであってもよい。
The
カメラ112は、レンズや、光を電荷に変換して被写体の画像(映像)を電子化する固体撮像素子を含み、固体撮像素子として、CMOS(Complementary Metal Oxide Semiconductor)や、CCD(Charge Coupled Device)等が用いられる。
The
外部機器接続I/F118には、筐体1100の接続口1132に差し込まれたUSB(Universal Serial Bus)ケーブル等によって、外付けカメラ、外付けマイク、及び外付けスピーカ等の外部機器がそれぞれ電気的に接続可能である。外付けカメラが接続された場合には、CPU101の制御にしたがって、外付けカメラが駆動する。同じく、外付けマイクが接続された場合や、外付けスピーカが接続された場合には、CPU101の制御にしたがって、外付けマイクや外付けスピーカが駆動する。
External devices such as an external camera, an external microphone, and an external speaker are electrically connected to the external device connection I /
なお、記録メディア106は、端末10に対して着脱自在となっている。また、CPU101の制御にしたがってデータの読み出し又は書き込みを行う不揮発性メモリであれば、フラッシュメモリ104に限らず、EEPROM(Electrically Erasable and Programmable ROM)等を用いてもよい。
Note that the
図3(b)は、端末70のハードウェア構成図である。図3(b)に示されているように、端末70は、端末70全体の動作を制御するCPU701、プログラムを記憶したROM(Read Only Memory)702、CPU701のワークエリアとして使用されるRAM703、CPU701の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)704を有する。また、フラッシュメモリ等の記録メディア706に対するデータの読み出し又は書き込み(記憶)を制御するメディアI/F707、及びCPU701の制御にしたがって被写体を撮像し画像データを得るCMOS(Complementary Metal Oxide Semiconductor)センサ712を備えている。
FIG. 3B is a hardware configuration diagram of the terminal 70. As shown in FIG. 3B, the terminal 70 includes a
なお、EEPROM704には、CPU701が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOSセンサ712は、光を電荷に変換して被写体の画像を電子化する電荷結合素子である。被写体を撮像することができれば、CMOSセンサは、CCD(Charge Coupled Device)センサに置き換えることもできる。
Note that the
更に、端末70は、音を音信号に変換するマイク714、音信号を音に変換するスピーカ715、アンテナ711a、このアンテナ711aを利用して無線通信信号により、最寄りの基地局2aと通信を行う通信部711、被写体の画像や各種アイコン等を表示する液晶や有機ELなどのディスプレイ720、このディスプレイ720上に載せられ、感圧式又は静電式のパネルによって構成され、指やタッチペン等によるタッチによってディスプレイ720上におけるタッチ位置を検出するタッチパネル721、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン710を備えている。
Further, the terminal 70 communicates with the nearest base station 2a by a wireless communication signal using the
<<管理システムのハードウェア構成例>>
図4は、一実施形態に係る管理システム50のハードウェア構成図である。管理システム50は、管理システム50全体の動作を制御するCPU201、IPL等のCPU201の駆動に用いられるプログラムを記憶したROM202、CPU201のワークエリアとして使用されるRAM203、管理システム50用のプログラム等の各種データを記憶するHD204を有する。また、CPU201の制御にしたがってHD204に対する各種データの読み出し又は書き込みを制御するHDD205(Hard Disk Drive)、フラッシュメモリ等の記録メディア206に対するデータの読み出し又は書き込み(記憶)を制御するメディアI/F207、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ208を有する。また、通信ネットワーク2を利用してデータ通信するためのネットワークI/F209、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード211、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス212、着脱可能な記録媒体の一例としてのCD−ROM213(Compact Disc Read Only Memory)に対する各種データの読み出し又は書き込みを制御するCD−ROMドライブ214を有する。更に、上記各構成要素を図4に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン210を備えている。
<< Hardware configuration example of management system >>
FIG. 4 is a hardware configuration diagram of the
中継装置30は、管理システム50と同様のハードウェア構成を有しているため、その説明を省略する。
Since the relay device 30 has the same hardware configuration as the
<ソフトウェア構成例>
図5(a)は、一実施形態に係る端末10のソフトウェア構成図である。端末10には、クライアントアプリとして「通信アプリA1」がインストールされている。アプリとはアプリケーションソフトを意味する。図5(a)に示されているように、OS1020、及び通信アプリA1は、端末10のRAM103の作業領域1010上で動作する。これらのうち、OS1020は、基本的な機能を提供し、端末10全体を管理する基本ソフトウェアである。通信アプリA1は、教師が使用する端末10で動作し、他の端末70と通信するためのアプリである。
<Example of software configuration>
FIG. 5A is a software configuration diagram of the terminal 10 according to the embodiment. “Communication application A1” is installed in the terminal 10 as a client application. An application means application software. As shown in FIG. 5A, the
図5(b)は、一実施形態に係る端末70のソフトウェア構成図である。端末70には、クライアントアプリとして「通信アプリA7」がインストールされている。図5(b)に示されているように、OS7020、及び通信アプリA7は、RAM703の作業領域7010上で動作する。これらのうち、OS7020は、基本的な機能を提供し、端末70全体を管理する基本ソフトウェアである。通信アプリA7は、生徒が使用する端末10で動作し、端末10と通信するためのアプリである。
FIG. 5B is a software configuration diagram of the terminal 70 according to the embodiment. “Communication application A7” is installed in the terminal 70 as a client application. As shown in FIG. 5B, the
なお、通信アプリA1,A7の通信プロトコルとしては、(1)SIP(Session Initiation Protocol)、(2)H.323、(3)SIPを拡張したプロトコル、(4)インスタントメッセンジャーのプロトコル、(5)SIPのMESSAGEメソッドを利用したプロトコル、(6)インターネットリレーチャットのプロトコル(IRC(Internet Relay Chat))、(7)インスタントメッセンジャーのプロトコルを拡張したプロトコル等が挙げられる。このうち、(4)インスタントメッセンジャーのプロトコルは、例えば、(4−1)XMPP(Extensible Messaging and Presence Protocol)、又は(4−2)ICQ(登録商標)、AIM(登録商標)、若しくはSkype(登録商標)などで利用されるプロトコルである。また、(7)インスタントメッセンジャーのプロトコルを拡張したプロトコルは、例えば、Jingleである。 The communication protocols of the communication applications A1 and A7 include (1) SIP (Session Initiation Protocol), (2) H.323, (3) a protocol extended from SIP, (4) an instant messenger protocol, (5) Protocols using the MESSAGE method of SIP, (6) Internet Relay Chat protocol (IRC), (7) a protocol extended from the instant messenger protocol, and the like. Among them, (4) the instant messenger protocol is, for example, (4-1) XMPP (Extensible Messaging and Presence Protocol), or (4-2) ICQ (registered trademark), AIM (registered trademark), or Skype (registered trademark). Trademark). Also, (7) a protocol that is an extension of the instant messenger protocol is, for example, Jingle.
<通信システムの機能について>
次に、図6を用いて本実施形態の通信システム1の機能構成について説明する。図6は、通信システム1の一部を構成する端末10,70、及び管理システム50の機能ブロック図である。なお、図6では、端末10,70、及び管理システム50が、通信ネットワーク2を介してデータ通信することができるように接続されている。
<About communication system functions>
Next, a functional configuration of the
<端末の機能構成>
端末10,70は、送受信部11,71、操作入力受付部12,72、起動部13,73、出力制御部14,74、及び記憶・読出部19,79を有している。これら各部は、図3に示されている各構成要素のいずれかが、フラッシュメモリ104又はEEPROM704からRAM103,703上に展開された通信アプリA1,A7(プログラム)に従ったCPU101,701からの命令によって動作することで実現される機能である。
<Functional configuration of terminal>
The
また、端末10は、図3に示されているROM102,702、RAM103,703、フラッシュメモリ104又はEEPROM704によって構築される記憶部1000,7000を有している。
In addition, the terminal 10 includes storage units 1000 and 7000 configured by the
端末10における各機能構成について詳細に説明する。送受信部11,71は、CPU101,701からの命令、及びネットワークI/F111又は通信部711によって実現され、通信ネットワーク2を介して、通信相手の端末、各装置又はシステム等と各種データ(又は情報)の送受信を行う。
Each functional configuration in the terminal 10 will be described in detail. The transmission / reception units 11 and 71 are realized by commands from the
操作入力受付部12,72は、CPU101,701からの命令、並びに操作ボタン108又はタッチパネル721、並びに電源スイッチ109によって実現され、ユーザによる各種入力又は各種選択を受け付ける。
The operation
起動部13,73は、CPU101,701からの命令によって実現され、通信アプリA1,A7の動作を起動する。
The
出力制御部14,74は、CPU101,701からの命令、並びに、ディスプレイI/F117及び音入出力I/F116によって実現され、画像データ、及び音データの出力を制御する。
The
記憶・読出部19,79は、CPU101,701からの命令によって実現され、記憶部1000,7000に各種データを記憶したり、記憶部1000,7000に記憶された各種データを読み出したりする処理を行う。
The storage /
<<管理システムの機能構成>>
管理システム50は、送受信部51、認証部52、管理部53、録音管理部54、解析・結果管理部55、セッション制御部58、及び記憶・読出部59を有している。これら各部は、図4に示されている各構成要素のいずれかが、HD204からRAM203上に展開された管理システム50用のプログラムに従ったCPU201からの命令によって動作することで実現される機能である。また、管理システム50は、HD204により構築される記憶部5000を有している。更に、記憶部5000には、以下に示すような各テーブルによって各DBが構築される。
<< Functional configuration of management system >>
The
(認証管理テーブル)
図7(a)は、認証管理テーブルを示す概念図である。記憶部5000には、図7(a)に示されているような認証管理テーブルによって認証管理DB5001が構築されている。この認証管理テーブルでは、管理システム50によって管理される全ての端末10,70の各通信IDに対して、認証用のパスワードが関連付けられて管理される。
(Authentication management table)
FIG. 7A is a conceptual diagram illustrating an authentication management table. In the storage unit 5000, an
(端末管理テーブル)
図7(b)は、端末管理テーブルを示す概念図である。記憶部5000には、図7(b)に示されているような端末管理テーブルによって端末管理DB5002が構築されている。この端末管理テーブルでは、各端末10,70の通信ID毎に、各端末10,70のIPアドレス及びTYPEが関連付けられて管理される。各端末10,70の通信IDは各端末10,70のログインにより把握される。TYPEについては後述されるが、TYPEはログイン時などに登録されてもよいし、予め登録されていてもよい。
(Terminal management table)
FIG. 7B is a conceptual diagram illustrating a terminal management table. In the storage unit 5000, a
(グループ管理テーブル)
図7(c)は、グループ管理テーブルを示す概念図である。記憶部5000には、図7(c)に示されているようなグループ管理テーブルによってグループ管理DB5005が構築されている。このグループ管理テーブルでは、グループIDに対応付けて、各端末10,70の通信IDが関連付けられて管理される。グループとは、1人の教師、及び、この教師が指導する複数の生徒の集まりである。グループIDはグループを識別する識別情報である。1つのグループは同じ会議(コミュニケーションの一例)に参加して、グループの端末10,70の間でコンテンツデータが相互に送受信される。
(Group management table)
FIG. 7C is a conceptual diagram showing a group management table. In the storage unit 5000, a group management DB 5005 is constructed by a group management table as shown in FIG. In this group management table, the communication IDs of the
グループ管理テーブルの作成方法としては、会議が始まる前に例えば教師が管理システム50にアクセスして登録しておく方法がある。あるいは、予めグループ管理テーブルを作る必要がない方法として、同じ会議に参加する生徒に管理システム50が電子メールなどで同じ招待コードを配布しておき、生徒がログイン時に招待コードを入力し、管理システム50が同じ招待コードの生徒を同じグループに分類してもよい(事後的にグループ管理テーブルを作成する)。あるいは、予め生徒を言語能力でレベル分けしておき(レベルは認証管理テーブルに登録されているものとうる)、管理システム50が同じレベルの生徒をログイン順に同じグループに分類してもよい。例えば1つのグループの生徒数を3人とした場合、同じレベルの3人がログインするごとにグループIDが割り当てられる。この場合、各グループに教師が割り当てられ、会議が開始する。
As a method of creating the group management table, for example, there is a method in which a teacher accesses the
(録音管理テーブル)
図8(a)は、録音管理テーブルを示す概念図である。記憶部5000には、図8(a)に示されているような録音管理テーブルによって録音管理DB5003が構築されている。録音管理テーブルは録音された音声データに関する情報が登録されるテーブルである。
(Recording management table)
FIG. 8A is a conceptual diagram showing a recording management table. In the storage unit 5000, a
録音管理テーブルには、録音ID、TYPE、通信ID、及び、録音ファイルの各項目が関連付けられている。録音IDは教師又は生徒の音声データの録音ファイルを一意に特定又は識別する識別情報であり、録音のたびに管理システム50が採番する。図8(a)では通信ID、会議ID、問題番号(後述される)、及び、リトライ番号(後述される)を連結したものが録音IDである。
Each item of the recording ID, the TYPE, the communication ID, and the recording file is associated with the recording management table. The recording ID is identification information for uniquely specifying or identifying a recording file of voice data of a teacher or a student, and is assigned by the
TYPEはその録音ファイルが、生徒(STUDENT)が発声した音声、教師(TEACHER)が発声した音声、又は、事前に録音された(PRESETされた)音声のいずれであるかを示す録音ファイルの属性である。例えば通信アプリA1,A7がTYPEを管理システム50に送信することにより判断される。通信IDは上記と同様であるが、事前に録音された音声の場合は通信IDがNULL(値がないという意味)となる。録音ファイル名は実際に録音された音声データのファイル名である。ファイル名は管理システム50が自動的に付与するが、図8(a)では録音IDをファイル名としている。なお、録音管理テーブルの1行をレコードという。
TYPE is an attribute of a recording file indicating whether the recording file is a voice uttered by a student (STUDENT), a voice uttered by a teacher (TEACHER), or a voice recorded in advance (preset). is there. For example, the determination is made by the communication applications A1 and A7 transmitting TYPE to the
(結果管理テーブル)
図8(b)は、結果管理テーブルを示す概念図である。記憶部5000には、図8(b)に示されているような結果管理テーブルによって結果管理DB5004が構築されている。結果管理テーブルは、お手本の音声と比較して生徒の音声がどのように評価されたかをまとめたテーブルである。
(Result management table)
FIG. 8B is a conceptual diagram illustrating a result management table. In the storage unit 5000, a result management DB 5004 is constructed by a result management table as shown in FIG. The result management table is a table summarizing how the student's voice was evaluated compared to the model voice.
結果管理テーブルには、手本録音ID、回答録音ID、会議ID、問題番号、リトライ番号、手本認識結果、回答認識結果、及び、採点結果の各項目が関連付けられている。手本録音IDと回答録音IDは録音管理DB5003に登録されているIDが転用される。手本録音IDのTYPEはPRESET又はTEACHERのいずれかであり、回答録音IDのTYPEはSTUDENTである。会議IDはその会議が終了するまでを一単位として一意にどの会議であるかを決定する識別情報である。会議IDは会議開始時に管理システム50が採番する。問題番号は、1つの会議で教師が出題した問題を識別する識別情報である。問題番号は出題のたびに管理システム50が採番する。リトライ番号は、同じ問題が再度、出題された場合の問題に対する枝番である。手本認識結果は、お手本の音声データの認識結果である。図8(b)では一例として発音記号に変換されたものが認識結果となっている。回答認識結果は、生徒の音声データの認識結果である。図8(b)では一例として発音記号に変換されたものが認識結果となっている。採点結果は、手本認識結果と回答認識結果の比較結果を単語ごと「○」「×」で示す。なお、結果管理テーブルの1行をレコードという。
In the result management table, items of sample recording ID, answer recording ID, conference ID, question number, retry number, sample recognition result, answer recognition result, and scoring result are associated. As the sample recording ID and the answer recording ID, the ID registered in the
<<管理システムの各機能構成>>
次に、管理システム50の各機能構成について詳細に説明する。送受信部51は、CPU201からの命令、及びネットワークI/F209によって実現され、通信ネットワーク2を介して各端末、装置又はシステムと各種データ(又は情報)の送受信を行う。
<< Functional Configuration of Management System >>
Next, each functional configuration of the
認証部52は、CPU201からの命令によって実現され、送受信部51で受信された通信ID及びパスワードを検索キーとして認証管理テーブルを検索し、この認証管理テーブルに同一の通信ID及びパスワードが管理されているかを判断することによって端末の認証を行う。
The
管理部53は、CPU201からの命令によって実現され、端末管理テーブルにログイン中の端末10、70を登録することで各端末10,70を管理する。
The
録音管理部54は、CPU201からの命令によって実現され、教師の操作を契機にして録音を開始し、教師又は生徒の操作を契機にして録音を終了する。開始から終了の間の音声データを録音し、録音管理DB5003に各項目を登録する。
The
解析・結果管理部55は、CPU201からの命令によって実現され、録音された教師と生徒の音声データを比較・解析し、その結果を結果管理DB5004に記録する。
The analysis /
セッション制御部58は、CPU201からの命令によって、端末10,70間でコンテンツデータを送信するためのセッションを制御する。この制御としては、セッションを確立するための制御、確立されたセッションに端末10,70参加させる制御、セッションから退出する制御等が含まれる。
The
記憶・読出部59は、CPU201からの命令及びHDD205によって実現され、又はCPU201からの命令によって実現され、記憶部5000に各種データを記憶したり、記憶部5000に記憶された各種データを抽出したりする処理を行う。
The storage /
<通信システムの処理・動作>
続いて、通信システム1における処理及び動作について説明する。
<Processing and operation of communication system>
Subsequently, processing and operation in the
<<ログイン時の処理>>
まず、図9を用いて、端末10,70が管理システム50へログインする処理を説明する。図9は、端末10,70が管理システム50へログインする処理を示すシーケンス図の一例である。
<< Login processing >>
First, a process in which the
端末70のユーザが電源スイッチをONにすると、操作入力受付部72が電源ONを受け付けて、端末70を起動させる(ステップS1)。端末70が起動すると、起動部73は、端末70にインストールされている通信アプリA7を起動させる(ステップS2)。以下、端末70における処理は、通信アプリA7の命令により実行される。
When the user of the terminal 70 turns on the power switch, the operation
端末70の送受信部71は、通信ネットワーク2を介して管理システム50に、ログイン要求を送信する(ステップS3)。このログイン要求には、ログイン要求元である自端末を識別するための通信ID、及びパスワードが含まれている。
The transmission / reception unit 71 of the terminal 70 transmits a login request to the
管理システム50の送受信部51はログイン要求を受信する。端末70から管理システム50へログイン要求が送信されることで、受信側である管理システム50は、送信側である端末70のIPアドレスを取得することができる。
The transmission /
次に、管理システム50の認証部52は、ログイン要求に含まれている通信ID及びパスワードを検索キーとして、記憶部5000の認証管理テーブルを検索し、この認証管理テーブルに同一の通信ID及びパスワードが管理されているかを判断することによって認証を行う(ステップS4)。
Next, the
認証部52によって、正当な利用権限を有する端末70からのログイン要求であると認証された場合には、管理部53は、端末管理テーブルに、ログイン要求元の端末70の通信ID、及びIPアドレスを関連付けて記憶する(ステップS5)。これにより端末管理テーブルには、ログイン中の端末70へアクセスするための情報が管理される。また、管理部53は通信アプリA7であることを示す情報を受信して、端末管理テーブルにTYPEを登録する。
When the
管理システム50の送受信部51は、認証部52によって得られた認証結果が示された認証結果情報を、通信ネットワーク2を介して、ログイン要求元の端末70へ送信する(ステップS6)。これにより、端末70の送受信部71は、認証結果情報を受信する。以下、生徒が操作するログイン要求元の端末70(複数ある)の認証に成功し、端末70が管理システム50にログインした場合について説明する。
The transmission /
一方、教師側の端末10の教師が電源スイッチ109をONにすると、操作入力受付部12が電源ONを受け付けて、端末10を起動させる(ステップS11)。端末10が起動すると、起動部13は、端末10にインストールされている通信アプリA1を起動させる(ステップS12)。以下、端末10における処理は、通信アプリA1の命令により実行される。
On the other hand, when the teacher of the terminal 10 on the teacher side turns on the
端末10は、管理システム50へログイン要求を送信して、管理システム50へログインする(ステップS13−2,S14,S15,S16)。この処理は、端末70と管理システム50との間のステップS3,S4,S5,S6の処理と同様であるので、説明を省略する。
The terminal 10 transmits a login request to the
管理システム50が端末10、70を操作するユーザが、教師であるか生徒であるかを判断する方法としては、ステップS5で説明したように、通信アプリA1、A7を識別する方法がある。この方法では、例えばログイン時に端末10、70が通信アプリA1、A7の区別する情報を管理システム50に送信すればよい。あるいは、予め通信IDを区別して配布する方法もある。例えば、教師に配布される通信IDは「T001」のようにTで始まり、生徒に配布される通信IDは「S001」のようにSで始まる。これらの方法で、管理システム50は容易に教師か生徒かを判断できる。あるいは、上記の招待コードが利用されている場合、生徒には特定の招待コードが配布されるようにして生徒か教師かを判断できる。
As a method for the
端末10,70がログインすると、セッション制御部58は例えば負荷の少ない中継装置30を決定して、この中継装置30に端末10,70が送受信するコンテンツデータの中継を開始させる。中継装置30には端末10,70の通信ID(端末10,70を特定できる情報であればよい)とグループIDが対応付けて送信される。これにより、端末10,70が通信ID(端末10,70を特定できる情報であればよい)と共に送信したコンテンツデータは同じグループ内の端末10,70に転送される。
When the
<<音声データの評価>>
次に、図10を用いて、管理システム50が生徒の音声データを評価する処理について説明する。ここでは、英会話のオンライン教室が開講された状態をイメージされたい。以下の、英会話のオンライン教室では、教師が生徒と会話しながら、適宜、出題するという形態が想定されている。
<< Evaluation of audio data >>
Next, a process in which the
図10は、管理システム50が生徒の音声データを評価する手順を示すシーケンス図の一例である。図10の処理は、端末10,70がログインして中継装置30が決定された状態から説明される。また、図11〜図16に示す、教師用の端末10と生徒用の端末10が表示する画面例を適宜、参照して説明する。なお、図10では中継装置30が図示されていないが、図10では管理システム50が中継装置30と一体と見なしている。実際に音声を評価するのは管理システム50でも中継装置30でもよい。
FIG. 10 is an example of a sequence diagram illustrating a procedure in which the
M1:管理システム50の録音管理部54は会議が始まると会議IDを採番する。これにより音声データの管理が可能になる。
M1: The
M2−1,M2−2:管理システム50のセッション制御部58は会議の準備が整ったため会議開始要求を端末10,70に送信する。これにより、テレビ会議が開始される。つまり、コンテンツデータの送受信が開始される。
M2-1, M2-2: The
T1,S1:端末10の通信アプリA1、端末70の通信アプリA7は会議開始の処理を行う。具体的には通信アプリA1、通信アプリA7が画面を表示したり、中継装置30と通信を開始したり、管理システム50から必要な情報を取得したりする。
T1, S1: The communication application A1 of the terminal 10 and the communication application A7 of the terminal 70 perform conference start processing. Specifically, the communication applications A1 and A7 display a screen, start communication with the relay device 30, and acquire necessary information from the
S2:生徒側の端末70の出力制御部74は生徒画面S1(第3の画面の一例)を表示する。生徒画面S1を図14に示す。生徒画面S1が表示されている間、生徒は原則的に教師の発声を聞き取るが任意に発言することも可能である。
S2: The
M3,M4:一方、管理システム50の送受信部51は教師側の端末10に事前に録音されている録音ファイルのリストを送信する。すなわち、録音管理DB5003からTYPEがPRESETの録音ファイルの録音ID及び録音ファイル名を送信する。教師側の端末10であることは端末管理DBに登録されている。なお、リストは構造化文書で構成されており、構造化文書の例としては、HTMLやXML(Extensible Markup Language)等がある。
M3, M4: On the other hand, the transmitting / receiving
T2:端末10の送受信部11は事前に録音されている録音ファイルのリストを受信する。これにより、端末10の出力制御部14は教師画面T1(第2の画面の一例)を表示する。教師画面T1を図11に示す。教師画面T1は、教師が任意に発言し、必要に応じて出題用の音声データを選択又は入力する画面である。
T2: The transmitting / receiving unit 11 of the terminal 10 receives a list of recording files recorded in advance. Thereby, the
T3:図10では教師が教師画面T1で事前に録音されている音声(録音ファイル名)を選択したものとする。教師が音声を入力する場合の処理については図17にて説明する。端末10の操作入力受付部12は操作を受け付け、出力制御部14は教師画面T2aを表示する。教師画面T2aを図12(a)に示す。教師画面T2aは、教師が音声データを選択した状態の画面である。
T3: In FIG. 10, it is assumed that the teacher has selected a pre-recorded voice (recorded file name) on the teacher screen T1. The process when the teacher inputs a voice will be described with reference to FIG. The operation
T4:端末10の送受信部11は、教師が選択した録音ファイル名の録音IDを管理システム50に送信する。この録音IDが録音ファイルの送信要求となる。
T4: The transmitting / receiving unit 11 of the terminal 10 transmits the recording ID of the recording file name selected by the teacher to the
M5:管理システム50の送受信部51は録音IDを受信する。録音管理部54は録音管理DB5003から録音IDに該当する音声データを取得する。
M5: The transmission /
M6:管理システム50の送受信部51は取得した音声データを生徒の端末70に送信する。図10では生徒の端末70は1台であるが、複数の端末70があるものとする。
M6: The transmission /
S3:生徒の端末70の送受信部71は音声データを受信し、音声データを受信したことを契機に、出力制御部74が生徒画面S2(第4の画面の一例)を表示する。生徒画面S2は音声データの受信開始、受信完了、又は、受信開始から終了まで、のいずれかのタイミングで表示されてよいが、生徒画面S1は教師の発声の出力中に表示される画面なので、受信完了(受信と共にリアルタイムに出力されるため出力完了ともいう)を契機に生徒画面S1から生徒画面S2に遷移するとよい。なお、生徒画面S1から生徒画面S2に遷移させる信号を管理システム50が端末70に明示的に送信してもよい。生徒画面S2を図15に示す。生徒画面S2は、管理システム50から送信された音声データがスピーカから出力され、これを手本にして生徒が音声を発声する画面である。このように、教師が出題することで、自動的に生徒の端末70の画面が遷移するため、生徒は生徒画面S2を表示するために通信アプリA7を操作する必要がない。換言すると、教師が生徒の端末70の画面を制御する主導権を持っている。
S3: The transmission / reception unit 71 of the
S4:生徒画面S2を表示した端末70の送受信部71は通信IDとTYPEを管理システム50に送信する。音声を録音するためである。TYPEに関しては端末管理DB5002に登録されているため送信されなくてもよい。
S4: The transmitting / receiving unit 71 of the terminal 70 displaying the student screen S2 transmits the communication ID and the TYPE to the
M7:管理システム50の送受信部51は通信IDとTYPEを受信することで、録音管理部54が録音を開始する。
M7: The transmission /
S5:生徒画面S2に遷移した端末70では音声データの送信が開始されているので、生徒が発声した音声データを送受信部71は随時(リアルタイムに)管理システム50に送信する。管理システム50の録音管理部54は引き続き、録音する。
S5: Since the terminal 70 that has transitioned to the student screen S2 has started transmitting voice data, the transmitting / receiving unit 71 transmits the voice data uttered by the student to the
S6:発声が終わると生徒は生徒画面S2でエンドボタン306を押下する。
S6: When the utterance ends, the student presses the
S7:操作入力受付部72は生徒の操作を受け付け、送受信部71が通信IDを再度、送信する。発声が終了した管理システム50に知らせるためである。
S7: The operation
M8:管理システム50の送受信部51は通信IDを受信し、録音管理部54が音声データの録音を終了する。録音管理部54は録音ファイルの識別子となる録音IDを採番する。上記のように、通信ID、会議ID、問題番号、及び、リトライ番号が録音IDとなる。なお、別のパターンとして、録音は端末70側で実行し、録音終了後に録音ファイルを管理システム50に送付してもよい。
M8: The transmission /
M9:録音管理部54は録音ID、TYPE、通信ID、及び録音ファイルを録音管理DB5003に登録する。
M9: The
M10:そして、解析・結果管理部55が、出力した(出力とは再生することをいう)音声データと端末70から送信された音声データを比較して評価する。詳細は後述する。
M10: Then, the analysis /
M11:解析・結果管理部55は、手本とした録音ファイルの録音IDを手本録音IDとして、生徒の録音ファイルの録音IDを回答録音IDとして、結果管理DB5004に登録する。同様に、会議ID、この会議の何問目の問題であるか(問題番号)、同一問題の何回目のリトライであるかというリトライ番号、手本認識結果、回答認識結果を結果管理DB5004に登録する。リトライについては教師画面T3(第1の画面の一例)で詳細に説明する。
M11: The analysis /
M12−1、M12−2:管理システム50の送受信部51は、評価結果を教師側の端末10と生徒側の端末70にそれぞれ送信する。また、教師の音声データの録音ID(又は音声データそのもの)を生徒の端末70のそれぞれに送信すると共に、生徒が発声した音声データの録音ID(又は音声データそのもの)をその音声データを発声した端末70に個別に送信する。教師の音声データの録音ID(又は音声データそのもの)と、各生徒が発声した全ての音声データの録音ID(又は音声データそのもの)を端末10に送信する。
M12-1, M12-2: The transmitting / receiving
T5:端末10の送受信部11は評価結果を受信し、出力制御部14が教師画面T3を表示する。教師画面T3を図13に示す。教師画面T3は、教師が各生徒の評価結果を確認する画面である。
T5: The transmitting / receiving unit 11 of the terminal 10 receives the evaluation result, and the
S8:端末70の送受信部71は評価結果を受信し、評価結果を受信したことを契機に、出力制御部74が生徒画面S2から生徒画面S3(第5の画面の一例)に遷移する。なお、生徒画面S2から生徒画面S3に遷移させる信号を管理システム50が端末70に明示的に送信してもよい。生徒画面S3を図16に示す。生徒画面S3は、生徒が自分の評価結果を確認する画面である。生徒画面S3への遷移時も、生徒は生徒画面S3を表示するために通信アプリA7を操作する必要がない。
S8: The transmitting / receiving unit 71 of the terminal 70 receives the evaluation result, and upon receiving the evaluation result, the
<画面例>
図11〜図16を用いて教師の端末10と生徒の端末70が表示する画面例を説明する。図11は、教師画面T1の一例を示す。教師画面T1は、会議を開始した当初、端末70が表示する画面である。教師画面T1は、教師画像表示欄301,生徒画像表示欄302、事前録音データリスト欄303、アップロードボタン304、スタートボタン305、及び、エンドボタン306を有する。
<Screen example>
An example of a screen displayed by the
教師画面T1の画面情報は、HTMLを少なくとも含み、更に、CSS(Cascade Style Sheet)及びJavaScript(登録商標)等を含むWebAPP(Web Application)で作成されよい。後述する教師画面T2、T3、生徒画面S1〜S3についても同様である。 The screen information of the teacher screen T1 includes at least HTML, and may be created by WebAPP (Web Application) including CSS (Cascade Style Sheet) and JavaScript (registered trademark). The same applies to teacher screens T2 and T3 and student screens S1 to S3 described later.
教師画像表示欄301は、教師が使用する端末10が撮像した画像データが表示される欄である。生徒画像表示欄302は、生徒が使用する端末70が撮像した画像データが表示される欄である。図11では4つの生徒画像表示欄302があるが、生徒画像表示欄302の数は生徒の数によって増減する。
The teacher
事前録音データリスト欄303は、管理システム50が端末10に送信した録音ファイル名のリストが表示される欄である。図11では5つの録音ファイル名が表示されているが、数は一例である。表示しきれない場合はスクロールボタンなどが表示される。それぞれの録音ファイル名はユーザの押下(選択)を受け付けることができる。アップロードボタン304は教師が選択した録音ファイル名の録音IDを端末10が管理システム50に送信するためのボタンである。スタートボタン305とエンドボタン306は事前に録音された録音ファイルでなく、教師がリアルタイムに発声した音声データを入力し、端末10が管理システム50に送信する際に使用される。すなわち、教師がスタートボタン305を押下してからエンドボタン306を押下するまでに教師が発声した音声が管理システム50に送信される。詳細は図17にて説明する。
The pre-recorded
図12(a)は、教師画面T2aの一例を示す。教師画面T2aは、教師画面T1から遷移する。なお、教師画面T2aに関しては教師画面T1との相違を説明する。教師画面の構成は教師画面T1と同様であるが、教師画面T2aでは事前録音データリスト欄303の録音ファイル名が1つ選択された状態である。このように、教師が選択した録音ファイル名は強調され、アップロードボタン304による管理システム50への録音IDの送信が可能になる。
FIG. 12A shows an example of the teacher screen T2a. The teacher screen T2a transits from the teacher screen T1. The difference between the teacher screen T2a and the teacher screen T1 will be described. The configuration of the teacher screen is the same as that of the teacher screen T1, but in the teacher screen T2a, one recording file name in the pre-recorded
教師画面T2aでは教師は録音ファイルを選択すれば、お手本の音声データを生徒に聴かせることができるので、いつも同じ音声データを聴かせることができる。なお、録音ファイルは教師本人(同一人物)が録音しておく必要はなく、使い回してよい。 In the teacher screen T2a, if the teacher selects a recording file, the teacher can make the sample audio data available to the student, so that the same audio data can always be heard. The recording file need not be recorded by the teacher (same person), and may be reused.
図12(b)は、教師画面T2bの一例を示す。教師画面T2bは、教師画面T1から遷移する。なお、教師画面T2bに関しては教師画面T1との相違を説明する。教師画面の構成は教師画面T1と同様であるが、教師画面T2bではスタートボタン305が押下された状態である。したがって、教師が音声を発声中であり、この音声データがリアルタイムに管理システム50に送信されている。
FIG. 12B shows an example of the teacher screen T2b. The teacher screen T2b transits from the teacher screen T1. The difference between the teacher screen T1 and the teacher screen T1 will be described. The configuration of the teacher screen is the same as that of the teacher screen T1, except that the
教師画面T2bでは教師はリアルタイムにお手本の音声データを生徒に聴かせることができるので、任意のセンテンス(英語の文又は文章)を生徒に練習させることができる。また、教師画面T1,T2a、T2bの構成から明らかなように、教師は事前に録音された音声データとリアルタイムの音声データを適宜、組み合わせながら授業できる。 In the teacher screen T2b, the teacher can make the students listen to the sample audio data in real time, so that the students can practice arbitrary sentences (English sentences or sentences). Also, as is clear from the configuration of the teacher screens T1, T2a, and T2b, the teacher can teach while appropriately combining pre-recorded audio data and real-time audio data.
図13は、教師画面T3の一例を示す。教師画面T3は、正解音声再生ボタン311、リトライボタン312、終了ボタン313、生徒画像表示欄314、発音記号欄316a、316b、詳細評価欄317、点数欄318、及び、回答音声再生ボタン315を有する。正解音声再生ボタン311は、お手本の録音ファイルを端末10、70で出力させるためのボタンである。お手本の録音ファイルの録音IDが管理システム50に送信される。この場合、単に音声データが流れるだけでリトライ番号は増えない。リトライボタン312は、同じお手本の録音ファイルの録音IDを再度、管理システム50に送信して生徒たちに発声させるためのボタンである。
FIG. 13 shows an example of the teacher screen T3. The teacher screen T3 has a correct answer voice play button 311, a retry button 312, an end button 313, a student
再度、同一の問題を出題する場合、教師が端末10のリトライボタン312を押下することで、録音管理部54と解析・結果管理部55は図10のステップT4以降を再実行し、同一のフローを繰り返す。まず、お手本の録音ファイルの録音IDとリトライである旨が管理システム50に送信される。録音管理部54はリトライである旨を端末70に送信することで、生徒画面S3から生徒画面S1に遷移させる(これが、生徒画面S3から生徒画面S1に遷移させる信号となる)。次に、録音管理部54は録音IDの録音ファイルを端末70に送信することで、端末70は録音ファイルの例えば受信完了時に生徒画面S1から生徒画面S2に遷移する。生徒画面S1から生徒画面S2に遷移させる信号を管理システム50が端末70に明示的に送信してもよい。録音管理部54は、再度、端末70からの音声データを録音して録音IDを採番し、録音管理DB5003に登録する。次に、解析・結果管理部55は音声を比較する。解析・結果管理部55は結果管理DB5004の手本録音IDをステップT4の録音IDで検索し、ヒットしたレコードの中から最も大きいリトライ番号を有するレコードを特定し、このレコードのリトライ番号を1つ大きくする。そして、手本録音ID(T4で送信されている録音ID)、回答録音ID(新たに採番した端末70の音声データの録音ID)、会議ID、問題番号(録音IDでヒットしたレコードの問題番号と同じ)、1つ大きくしたリトライ番号、手本解析結果、回答認識結果、及び、採点結果を結果管理DB5004に登録する。送受信部51は評価結果を端末10,70に送信する。以上により、端末10には、再度、図13の教師画面T3が表示される。また、端末70には、再度、図16の生徒画面S3が表示される。
When the same question is asked again, the teacher presses the retry button 312 of the terminal 10, and the
終了ボタン313は現在のお手本の録音ファイルの出題を終了するためのボタンである。終了ボタン313が押下されると、教師の端末10は教師画面T1に戻り、生徒の端末10は生徒画面S1に戻る。したがって、通常のビデオ会議の状態となる。この場合も生徒は生徒画面S1に戻るための操作が不要である。
The end button 313 is a button for ending the question of the current model recording file. When the end button 313 is pressed, the
生徒画像表示欄314は図11と同様である。発音記号欄316aは教師の音声データから変換された発音記号を示し、発音記号欄316bは生徒の音声データから変換された発音記号を示す。詳細評価欄317は管理システム50がお手本の音声データと生徒の音声データを比較して評価した結果である。図13では、音声データの各単語が発音記号に変換され、発音記号ごとに「○」「×」が添付されている。「○」はお手本の音声データと生徒の音声データの発音記号が一致したことを示し、「×」はお手本の音声データと生徒の音声データの発音記号が一致しないことを示す。また、点数欄318には一致の程度に応じて点数が付与されている。解析・結果管理部55は1回の出題を1センテンスとして、1センテンスに含まれる単語のうち発音記号が一致した割合を点数とする。文字レベルで採点してもよいし、採点方法はこれらに限られない。
The student
回答音声再生ボタン315は、生徒の音声データを出力するためのボタンである。回答音声再生ボタン315の押下により録音ファイルの録音IDが管理システム50に送信される。生徒の音声データは管理システム50が教師の端末10にのみ送信してもよいし、この音声データを発声した端末70と端末10にのみ送信してもよいし、全ての端末10,70に送信してもよい。なお、録音管理DB5003では録音IDには通信IDが対応付けられているので、管理システム50はこの通信IDの端末70にのみ送信できる。
The answer
図13に示すように、教師画面T3には各生徒の評価結果が一覧で表示されるので、各生徒が一度に発声しても各生徒の音声データを個別に評価できる。また、教師は各生徒の音声データを任意に出力できるので、自分自身が生徒の音声データを評価することもできる。 As shown in FIG. 13, since the evaluation result of each student is displayed in a list on the teacher screen T3, even if each student utters at once, the voice data of each student can be individually evaluated. In addition, since the teacher can arbitrarily output the voice data of each student, the teacher can evaluate the voice data of the student.
図14は、生徒画面S1の一例を示す。生徒画面S1は、会議を開始した当初、端末10が表示する画面である。生徒画面S1は、教師画像表示欄321,及び、生徒画像表示欄322、を有する。教師画像表示欄321と生徒画像表示欄322については教師画面T1と同様でよい。生徒画面S1には「Listen in class」というメッセージ323が表示されている。これは授業内容を聞くという意味であり、生徒画面S1は教師の音声の出力中に表示される。生徒画面S1では教師が生徒と会話したり、教師が生徒に指示を出したりする。生徒が教師に質問することも可能である。
FIG. 14 shows an example of the student screen S1. The student screen S1 is a screen displayed by the terminal 10 at the beginning of the start of the conference. The student screen S1 has a teacher
図15は、生徒画面S2の一例を示す。生徒画面S2は、各生徒が手本の音声データをまねて音声を発声する画面である。生徒画面S2は、教師画像表示欄321,生徒画像表示欄322、及び、エンドボタン325を有する。教師画像表示欄321と生徒画像表示欄322については教師画面T1と同様でよい。生徒画面S2には「Repeat!!」というメッセージ324が表示されている。これは手本の音声データをまねて発声しないという意味である。生徒画面S2が表示されると、端末70ではお手本の音声データがスピーカから出力され、通信IDとTYPEが送信されたタイミングで管理システム50が音声データの録音を開始する。エンドボタン325は発声が終わった生徒が録音の終了を管理システム50に通知するためのボタンである。
FIG. 15 shows an example of the student screen S2. The student screen S2 is a screen in which each student utters a voice by imitating model voice data. The student screen S2 has a teacher
図16は、生徒画面S3の一例を示す。生徒画面S3は、生徒の評価結果が表示される画面である。生徒画面S3は、正解音声再生ボタン331、教師画像表示欄332、発音記号欄333a、333b、詳細評価欄334、点数欄336、及び、回答音声再生ボタン335を有する。これらの機能は教師画面3と同様でよい。
FIG. 16 shows an example of the student screen S3. The student screen S3 is a screen on which student evaluation results are displayed. The student screen S3 has a correct answer
生徒画面S3ではリトライして発声した音声データごとに評価結果が表示されるので、生徒は各音声データでどこが悪かったのか、改善されたのか、どこが間違いやすいのかなどを把握できる。また、お手本の音声データを任意に出力できる。また、自分の音声データを出力して確認できる。 In the student screen S3, the evaluation result is displayed for each voice data retried and uttered, so that the student can grasp what is wrong with each voice data, whether the voice data has been improved, what is likely to be wrong, and the like. In addition, sample audio data can be arbitrarily output. In addition, the user can output his own voice data and check it.
<録音済みの音声データでなく教師が発声する場合の処理手順>
図10では録音済みの音声データをお手本として生徒が発声する処理の流れを説明したが、図17を用いて教師が発声した音声データをお手本として生徒が発声する処理の手順を説明する。図17は、管理システム50が生徒の音声データを評価する手順を示すシーケンス図の一例である。なお、図17の説明では図10との相違を主に説明する。
<Processing procedure when the teacher utters voice instead of recorded voice data>
In FIG. 10, the flow of the process in which the student utters using the recorded voice data as an example has been described. However, the procedure of the process in which the student utters using the voice data uttered by the teacher as an example will be described with reference to FIG. FIG. 17 is an example of a sequence diagram showing a procedure in which the
まず、ステップT1〜T2、ステップM1〜M4、ステップS1〜S3は図10と同様でよい。 First, steps T1 to T2, steps M1 to M4, and steps S1 to S3 may be the same as those in FIG.
T3:教師はリアルタイムに発声した音声データをお手本とするため教師画面T1でスタートボタン305を押下する。
T3: The teacher presses the
T4:端末10のTYPEと通信IDを通知するため、端末10の送受信部11は通信IDとTYPEを管理システム50に送信する。
T4: The transmitting / receiving unit 11 of the terminal 10 transmits the communication ID and the TYPE to the
M4:管理システム50の送受信部51はTYPEと通信IDを受信し、これにより録音管理部54は教師の音声データの録音を開始する。
M4: The transmission /
T5:教師が発声を終えると教師画面T2b(図12(b))でエンドボタン306を押下する。操作入力受付部12は押下を受け付ける。
T5: When the teacher finishes speaking, he presses the
T6:教師の端末10の送受信部11は録音を終了させるため通信IDを管理システム50に送信する。
T6: The transmission / reception unit 11 of the teacher's terminal 10 transmits the communication ID to the
M5:管理システム50の送受信部51は通信IDを受信し、これにより録音管理部54は録音を終了し、録音IDを採番する。
M5: The transmission /
M6:管理システム50の録音管理部54は録音ID、TYPE、通信ID、及び、録音ファイルを録音管理DB5003に登録する。
M6: The
M7:管理システム50の送受信部51は、録音管理DB5003に登録した音声データを端末70に送信する。これにより、端末70は生徒画面S2を表示するので、以降の処理は図10と同様になる。
M7: The transmission /
このように、本実施形態の通信システム1は、お手本の音声データを教師が発声しても、多数の生徒の音声データと比較した評価及び細やかな指導が可能になる。
In this manner, the
<音声データの比較・評価>
本実施形態では教師の音声データと生徒の音声データを発音記号で比較し、単語毎に発音がどの程度一致するか否かを比較した。また、1つのセンテンスのうち発音記号が一致する単語の数の割合を点数とした。このように音声データを発音記号に変換する技術としては音声認識技術を利用できる。
<Comparison and evaluation of audio data>
In the present embodiment, the voice data of the teacher and the voice data of the student are compared using phonetic symbols, and the degree of pronunciation matching for each word is compared. The score was defined as the ratio of the number of words having the same phonetic symbol in one sentence. As a technique for converting speech data into phonetic symbols, a speech recognition technique can be used.
図18は、音声認識を模式的に説明する図の一例である。図18は機械学習により音声を発音記号に変換するニューラルネットワーク401を示す。特に、ニューラルネットワーク401の階層が深いものをディープラーニングという。また、音声データのような時系列データを分類するにはRNN(Reccurent Neural Network)が適していることが知られている。
FIG. 18 is an example of a diagram schematically illustrating speech recognition. FIG. 18 shows a
一例として20ミリ秒ごとにスライスした音声データをMFCC(Mel−frequency cepstral coefficients)に変換し、入力層402の各ノードに入力する。出力層403の各ノードには各発音記号が対応する。
As an example, audio data sliced every 20 milliseconds is converted into MFCC (Mel-frequency cepstral coefficients) and input to each node of the
学習フェーズにおいて入力層402にはMFCCに変換された音声データが入力され、出力層403には、音声データに含まれる音声の発音記号に対応するノードに「1」が割り当てられる(その他のノードは「0」)。そして、入力層402のノード、ニューラルネットワーク401の各階層のノード、及び、出力層403のノードの間の重みが誤差逆伝播法で学習される。
In the learning phase, voice data converted to MFCC is input to the
認識フェーズでは、入力された音声データが含む発音記号に近い出力層403のノードほど大きい値(1に近い値)を出力する。解析・結果管理部55は閾値以上の値を出力したノードに対応する発音記号を取り出す。この発音記号が複数の場合は、発音記号のつながりやすさを確率で示す辞書データを参照し、前後の発音記号との組み合わせごとにつながりやすさの確率を算出し、確率が最も高くなる組み合わせになるように発音記号を特定する。
In the recognition phase, a larger value (a value closer to 1) is output to a node of the
なお、種々の音声認識方法があり、図18の説明は一例に過ぎない。例えば隠れマルコフモデルを使用して音声認識してもよい。また、本実施形態ではこの他の手法を採用しても何ら支障がない。 Note that there are various voice recognition methods, and the description in FIG. 18 is merely an example. For example, speech recognition may be performed using a hidden Markov model. In the present embodiment, there is no problem even if other methods are adopted.
また、本実施形態では音声データを発音記号に変換したが、音声データを単語(アルファベット)に変換してもよい。音声データの単語(アルファベット)への変換には公知の方法を採用できる。一般的な英語の辞書には単語の発音記号が掲載されているので、単語が決まれば発音記号も一意に決まる。したがって、音声データを発音記号に変換できる。ただし、発音が悪い音声も正しい単語に認識するような優秀な識別器が生成されている場合、生徒の発音が悪くても正しい発音記号であると判断されるおそれがある。 In the present embodiment, the audio data is converted to phonetic symbols, but the audio data may be converted to words (alphabet). A known method can be used to convert the audio data into words (alphabets). In a general English dictionary, phonetic symbols for words are listed, so once a word is determined, phonetic symbols are uniquely determined. Therefore, voice data can be converted into phonetic symbols. However, when an excellent classifier that recognizes a voice with poor pronunciation as a correct word is generated, there is a possibility that a student may be judged to be a correct pronunciation symbol even if the student has poor pronunciation.
楽器などの音データの評価では、例えば教師と生徒の音データをそれぞれフーリエ変換して、周波数ごとの強度の差異を比較して数値化するなどの方法がある。 For evaluation of sound data of musical instruments and the like, for example, there is a method of performing Fourier transform on sound data of a teacher and a student, comparing the difference in intensity for each frequency, and digitizing the difference.
<まとめ>
以上説明したように、本実施形態の通信システム1は、遠隔地の教師が複数の生徒の発声を指導する形態においても、管理システム50が教師の音声と各生徒の音声を比較するので、1人の教師が多数の生徒の発声を並行して指導することが可能になる。1対1の授業と同等以上に細やかな指導が可能である。
<Summary>
As described above, in the
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above by using the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the gist of the present invention. And substitutions can be added.
<<システム構成の別の例>>
図2では管理システムが1台であったが管理システム50は通信システム1内に複数存在してもよい。図19は、本実施形態に係る通信システム1の概略図である。図19では、複数の管理システム50がネットワークに接続されている。このように通信システム1に含まれる管理システム50は複数台でもよく、どの管理システム50に機能を備えさせてもよい。
<< Another example of system configuration >>
Although one management system is shown in FIG. 2, a plurality of
また、本実施形態で説明する端末10と管理システム50とが接続されたシステム構成は一例であり、用途や目的に応じて様々なシステム構成例があることは言うまでもない。
Further, the system configuration in which the terminal 10 and the
また、図20に示すように、管理システム50と中継装置30は1つのサーバ装置60として存在してもよい。図20のサーバ装置60は、管理システム50の機能と中継装置30の機能を併せ持っている。また、このサーバ装置60が複数存在してもよい。
As shown in FIG. 20, the
<<メールアドレスによるユーザの識別>>
本実施形態では通信IDで端末10、70が識別されていたが、端末10を識別する識別情報として、ユーザIDが用いられてもよい。また、このユーザIDとしてメールアドレスが用いられてよい。この場合、端末10、70のユーザはメールアドレスで管理システム50にログインする。
<< User identification by email address >>
In the present embodiment, the
図21は、端末10,70が管理システム50へログインする処理を示すシーケンス図の一例である。なお、図21の説明では図9との相違を主に説明する。図21に示すように、ステップS3、S13−2では通信IDでなく、メールアドレスが送信されている。管理システム50はメールアドレスとパスワードでユーザを認証する。
FIG. 21 is an example of a sequence diagram illustrating a process in which the
同様に、図10で説明した生徒の音声データを評価する手順では、ステップS4、S7で通信IDでなくメールアドレスが送信される。図17についても同様に、通信IDの代わりにメールアドレスが使用される。 Similarly, in the procedure for evaluating student voice data described with reference to FIG. 10, a mail address is transmitted instead of a communication ID in steps S4 and S7. Similarly, in FIG. 17, a mail address is used instead of the communication ID.
<<アプリでなく汎用的なブラウザアプリによるテレビ会議>>
上記の実施形態では、端末10、70で通信アプリA1、A7が動作すると説明したが、同様の処理をWebアプリによっても実現できる。Webアプリは、Webブラウザ上で動作する例えばJavaScript(登録商標)によるプログラムとWebサーバ側のプログラムが協調することによって動作し、ユーザはそれをブラウザ上で使用する。
<< Video conference using general browser application instead of application >>
In the embodiment described above, the communication applications A1 and A7 operate on the
図22は、端末10,70におけるWebアプリの構成例を示す図である。端末10は管理システム50から、教師用のプログラム1030(HTML5+JAVASCRIPT+CSS等)をダウンロードしブラウザアプリ1040上で実行する。端末70は管理システム50から、生徒用のプログラム7030(HTML5+JAVASCRIPT+CSS等)をダウンロードしブラウザアプリ7040上で実行する。この場合は例えば通信IDで教師か生徒かが判断される。
FIG. 22 is a diagram illustrating a configuration example of a Web application in the
なお、図22においても、通信IDでなく端末10を識別する識別情報としてユーザIDが用いられてよい。このユーザIDとしてメールアドレスが用いられてよい。 In FIG. 22, a user ID may be used as identification information for identifying the terminal 10 instead of the communication ID. A mail address may be used as the user ID.
端末10,70はHTTP又はHTTPS等のプロトコルを用いて管理システム50とデータを送受信することによって、管理システム50が提供しているサービスを利用できる。このような利用形態では、予め端末10,70に通信アプリA1、A7をダウンロードしておく必要がない。
The
<その他>
例えば、本実施形態では、テレビ会議端末(通信端末)を用いた会議室への参加を例に説明したが、通信端末の機能を有する各種の装置でも適用できる。例えば、通信端末の機能を有している電子黒板にも好適に適用できる。
<Others>
For example, in the present embodiment, an example has been described in which the user participates in a conference room using a video conference terminal (communication terminal). However, the present invention can be applied to various devices having the function of a communication terminal. For example, the present invention can be suitably applied to an electronic blackboard having a function of a communication terminal.
また、電子黒板には大型のタッチパネルを備えたものだけでなく、プロジェクタが映像を投影し、電子ペンの位置を音波等とカメラにより検出するものがある。 Some electronic blackboards have a large touch panel, and others have a projector that projects an image and detects the position of the electronic pen with a sound wave or the like and a camera.
また、図6などの構成例は、管理システム50、端末10、70、及び中継装置30による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。管理システム50、端末10、70、及び中継装置30の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
6 is divided according to main functions in order to facilitate understanding of the processing by the
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU(Graphics Processing Unit)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiment described above can be realized by one or a plurality of processing circuits. Here, the “processing circuit” in the present specification refers to a processor programmed to execute each function by software, such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), FPGAs (field programmable gate arrays), SOCs (System on a chip), GPUs (Graphics Processing Units), and devices such as conventional circuit modules.
また、本実施形態では、教師と生徒が会話しながら授業が進められているが、生徒が録音ファイルを自分でダウンロードして出力し、それをお手本にして発声した音声データを管理システム50に送信してもよい。管理システム50は生徒の音声データを評価しておき、教師が任意のタイミングでダウンロードする。こうすることで、互いの時間を節約できたり、生徒が宿題を実行したりすることができる。
In the present embodiment, the teacher and the student have a conversation while the lesson is proceeding. However, the student downloads and outputs the recorded file by himself, and transmits the voice data based on the downloaded file to the
また、音声データだけでなく画像データを評価に採用してもよい。例えば、機械学習で口の動きを発音記号に変換することで同様に評価できる。 Further, not only audio data but also image data may be used for evaluation. For example, it can be similarly evaluated by converting mouth movements into phonetic symbols by machine learning.
なお、送受信部51は通信手段又は第2の通信手段の一例であり、解析・結果管理部55は生成手段の一例であり、お手本の音声データは第1の音データの一例であり、生徒が発声した音声データは第2の音データの一例であり、教師は第1のユーザの一例であり、生徒は第2のユーザの一例であり、端末10は第1の通信端末の一例であり、端末70は第2の通信端末の一例であり、送受信部11は第1の通信手段の一例であり、出力制御部14は表示制御手段の一例である。
The transmission /
1 通信システム
10、70 端末
30 中継装置
50 管理システム
1
Claims (12)
第1のユーザが操作する第1の通信端末の指示により第1の音データを複数の第2の通信端末にそれぞれ送信して、前記複数の第2の通信端末の第2のユーザがそれぞれ発した複数の第2の音データをそれぞれ受信する通信手段と、
前記第1の音データと、前記複数の第2の通信端末それぞれから取得した前記第2の音データとに基づき、複数の前記第2の音データそれぞれに対する評価を生成する生成手段と、を有し、
前記通信手段は、前記生成手段によって得られた評価を前記第1の通信端末に送信することを特徴とするサーバ。 A server capable of communicating with a plurality of communication terminals via a network,
The first sound data is transmitted to the plurality of second communication terminals according to the instruction of the first communication terminal operated by the first user, and the second users of the plurality of second communication terminals emit the respective sound data. Communication means for receiving the plurality of second sound data respectively;
Generating means for generating an evaluation for each of the plurality of second sound data based on the first sound data and the second sound data obtained from each of the plurality of second communication terminals; And
The server, wherein the communication unit transmits the evaluation obtained by the generation unit to the first communication terminal.
複数の前記第2の音データの出力を個別に受け付けるボタンを有する第1の画面の画面情報を送信することを特徴とする請求項1に記載のサーバ。 The communication means may include, in the first communication terminal, identification information of the plurality of second sound data respectively issued by the second user of the plurality of second communication terminals or the second sound data, respectively. When,
2. The server according to claim 1, wherein screen information of a first screen having a button for individually receiving a plurality of the second sound data is transmitted. 3.
前記第1の画面は前記第1の音データの出力を受け付けるボタンを更に有することを特徴とする請求項2に記載のサーバ。 The communication means transmits identification information of the first sound data or the first sound data to the first communication terminal,
The server according to claim 2, wherein the first screen further includes a button for receiving an output of the first sound data.
前記リトライボタンが押下された旨を前記通信手段が受信した場合、
前記通信手段は、前記生成手段が前記評価の生成に使用した前記第1の音データを前記複数の第2の通信端末にそれぞれ送信し、前記複数の第2の通信端末の第2のユーザがそれぞれ発した複数の第2の音データを受信し、
前記生成手段は、前記第1の音データと、前記複数の第2の通信端末それぞれから取得した前記第2の音データとをそれぞれ比較して前記第2の音データそれぞれに対する評価を、再度、生成し、
前記通信手段は、前記生成手段によって得られた評価を前記第1の通信端末に送信することを特徴とする請求項3に記載のサーバ。 The first screen has a retry button for outputting the first sound data again from the plurality of second communication terminals,
When the communication unit receives a notification that the retry button has been pressed,
The communication unit transmits the first sound data used by the generation unit to generate the evaluation to each of the plurality of second communication terminals, and a second user of the plurality of second communication terminals transmits Receiving a plurality of second sound data respectively emitted,
The generation unit compares the first sound data with the second sound data obtained from each of the plurality of second communication terminals, and evaluates each of the second sound data again. Generate
The server according to claim 3, wherein the communication unit transmits the evaluation obtained by the generation unit to the first communication terminal.
前記生成手段は、前記第1の音データと、前記複数の第2の通信端末の第2のユーザがそれぞれ発した複数の第2の音データをそれぞれ発音記号に変換し、
前記第1の音データから変換された発音記号と、前記第2の音データから変換された発音記号とを比較することで複数の前記第2の音データそれぞれを評価することを特徴とする請求項1〜4のいずれか1項に記載のサーバ。 The first sound data is sound data of a predetermined language,
The generating means converts the first sound data and the plurality of second sound data respectively emitted by the second users of the plurality of second communication terminals into phonetic symbols,
The phonetic symbol converted from the first sound data and the phonetic symbol converted from the second sound data are compared to evaluate each of the plurality of second sound data. Item 5. The server according to any one of Items 1 to 4.
前記第2の画面に表示される前記リストから選択された前記第1の音データの識別情報を受信した場合、
前記識別情報で特定される前記第1の音データを前記複数の第2の通信端末にそれぞれ送信することを特徴とする請求項1〜5のいずれか1項に記載のサーバ。 The communication means transmits, to the first communication terminal, screen information of a second screen including a list of the first sound data recorded in advance,
When receiving the identification information of the first sound data selected from the list displayed on the second screen,
The server according to any one of claims 1 to 5, wherein the first sound data specified by the identification information is transmitted to each of the plurality of second communication terminals.
前記通信手段は、前記第1のユーザが前記第1の通信端末に入力し前記第1の通信端末から受信した前記第1の音データを前記複数の第2の通信端末にそれぞれ送信することを特徴とする請求項6に記載のサーバ。 When a button for receiving the input is pressed on the second screen including a button for receiving an input of the first sound data displayed on the first communication terminal,
The communication unit transmits the first sound data input by the first user to the first communication terminal and received from the first communication terminal to the plurality of second communication terminals, respectively. The server according to claim 6, characterized in that:
前記第1のユーザの前記第1の通信端末から受信した前記第1の音データの識別情報で識別される前記第1の音データ又は前記第1の通信端末から受信した前記第1の音データと、
前記第1の音データの出力中は前記第1のユーザの音声が出力されていることを示す第3の画面の画面情報と、
前記第1の音データの出力が完了した場合に表示される前記第2の音データの入力を受け付ける第4の画面の画面情報と、を送信することを特徴とする請求項7に記載のサーバ。 The communication means is provided to the second communication terminal,
The first sound data identified by the identification information of the first sound data received from the first communication terminal of the first user or the first sound data received from the first communication terminal When,
Screen information of a third screen indicating that the voice of the first user is being output during the output of the first sound data;
8. The server according to claim 7, further comprising: transmitting screen information of a fourth screen that is displayed when the output of the first sound data is completed and that receives an input of the second sound data. 9. .
更に、前記第1の音データの識別情報又は前記第1の音データ、及び、前記第2の音データの識別情報又は前記第2の音データを、前記第2の音データを送信した前記第2の通信端末に個別に送信し、
前記評価、前記第1の音データの識別情報又は前記第1の音データ、及び、前記第2の音データの識別情報又は前記第2の音データを前記第2の通信端末が受信したことを契機に表示される、前記評価、前記第1の音データの出力を受け付けるボタン、及び、前記第2の音データの出力を受け付けるボタンを含む第5の画面であって前記第4の画面から遷移する前記第5の画面の画面情報を前記第2の通信端末に送信することを特徴とする請求項8に記載のサーバ。 The communication unit transmits the second sound data so that the second communication terminal that transmitted the second sound data displays an evaluation of the plurality of second sound data obtained by the generation unit. Individually transmitted to said second communication terminal,
Further, the identification information of the first sound data or the first sound data, and the identification information of the second sound data or the second sound data, the second sound data transmitted the second sound data 2 individually transmitted to the communication terminal,
The evaluation that the second communication terminal receives the identification information of the first sound data or the first sound data, and the identification information of the second sound data or the second sound data. A fifth screen including a button for receiving the evaluation, the output of the first sound data, and a button for receiving the output of the second sound data, which is displayed at an opportunity, and transitioning from the fourth screen 9. The server according to claim 8, wherein screen information of the fifth screen to be transmitted is transmitted to the second communication terminal.
通信手段が、第1のユーザが操作する第1の通信端末の指示により第1の音データを複数の第2の通信端末にそれぞれ送信して、前記複数の第2の通信端末の第2のユーザがそれぞれ発した複数の第2の音データをそれぞれ受信するステップと、
生成手段が、前記第1の音データと、前記複数の第2の通信端末それぞれから取得した前記第2の音データに基づき、複数の前記第2の音データそれぞれに対する評価を生成するステップと、
前記通信手段が、前記生成手段によって得られた評価を前記第1の通信端末に送信するステップと、
を有することを特徴とする音データ評価方法。 A sound data evaluation method performed by a server capable of communicating with a plurality of communication terminals via a network,
The communication means transmits the first sound data to each of the plurality of second communication terminals according to an instruction of the first communication terminal operated by the first user, and transmits the first sound data to the second communication terminal of the plurality of second communication terminals. Receiving a plurality of second sound data respectively emitted by the user;
Generating means for generating an evaluation for each of the plurality of second sound data based on the first sound data and the second sound data obtained from each of the plurality of second communication terminals;
The communication unit transmitting the evaluation obtained by the generation unit to the first communication terminal;
A sound data evaluation method comprising:
第1のユーザが操作する第1の通信端末の指示により第1の音データを複数の第2の通信端末にそれぞれ送信して、前記複数の第2の通信端末の第2のユーザがそれぞれ発した複数の第2の音データをそれぞれ受信する通信手段と、
前記第1の音データと、前記複数の第2の通信端末それぞれから取得した前記第2の音データに基づき、複数の前記第2の音データそれぞれに対する評価を生成する生成手段、として機能させ、
前記通信手段は、前記生成手段によって得られた評価を前記第1の通信端末に送信する、ことを特徴とするプログラム。 A server that can communicate with multiple communication terminals via a network,
The first sound data is transmitted to the plurality of second communication terminals according to the instruction of the first communication terminal operated by the first user, and the second users of the plurality of second communication terminals emit the respective sound data. Communication means for receiving the plurality of second sound data respectively;
The first sound data, based on the second sound data obtained from each of the plurality of second communication terminals, based on the second sound data, generating means for generating an evaluation for each of the plurality of second sound data,
The program, wherein the communication unit transmits the evaluation obtained by the generation unit to the first communication terminal.
前記第1の通信端末は、
第1の音データを複数の第2の通信端末にそれぞれ送信させる送信要求を前記サーバに送信する第1の通信手段、を有し、
前記サーバは、
前記送信要求に応じて前記第1の音データを前記複数の第2の通信端末にそれぞれ送信して、前記複数の第2の通信端末の第2のユーザがそれぞれ発した複数の第2の音データをそれぞれ受信する第2の通信手段と、
前記第1の音データと、前記複数の第2の通信端末それぞれから取得した前記第2の音データに基づき、複数の前記第2の音データそれぞれに対する評価を生成する生成手段と、を有し、
前記第2の通信手段は、前記生成手段によって得られた評価を前記第1の通信端末に送信し、
前記第1の通信端末は、前記第1の通信手段が前記サーバから受信した複数の前記評価を表示装置に表示する表示制御手段を有する、ことを特徴とする通信システム。 A communication system having a first communication terminal and a server capable of communicating via a network,
The first communication terminal includes:
First communication means for transmitting a transmission request for transmitting the first sound data to each of the plurality of second communication terminals to the server,
The server comprises:
The first sound data is transmitted to the plurality of second communication terminals in response to the transmission request, and a plurality of second sounds respectively emitted by a second user of the plurality of second communication terminals are transmitted. Second communication means for receiving data respectively;
Generating means for generating an evaluation for each of the plurality of second sound data based on the first sound data and the second sound data obtained from each of the plurality of second communication terminals; ,
The second communication unit transmits the evaluation obtained by the generation unit to the first communication terminal,
The communication system according to claim 1, wherein the first communication terminal includes display control means for displaying, on a display device, the plurality of evaluations received by the first communication means from the server.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018113949A JP7119615B2 (en) | 2018-06-14 | 2018-06-14 | Server, sound data evaluation method, program, communication system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018113949A JP7119615B2 (en) | 2018-06-14 | 2018-06-14 | Server, sound data evaluation method, program, communication system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019215502A true JP2019215502A (en) | 2019-12-19 |
JP7119615B2 JP7119615B2 (en) | 2022-08-17 |
Family
ID=68918669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018113949A Active JP7119615B2 (en) | 2018-06-14 | 2018-06-14 | Server, sound data evaluation method, program, communication system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7119615B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021110923A (en) * | 2020-01-07 | 2021-08-02 | エスプレッソ株式会社 | Education assistive device, education system and program |
JP2021110782A (en) * | 2020-01-07 | 2021-08-02 | エスプレッソ株式会社 | Education support device |
CN114333456A (en) * | 2021-12-29 | 2022-04-12 | 南京立石科技有限公司 | Intelligent fine arts teaching system |
JP7539692B2 (en) | 2020-09-17 | 2024-08-26 | 株式会社やる気スイッチグループホールディングス | Training support device, training support system, training support method, and computer program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004259017A (en) * | 2003-02-26 | 2004-09-16 | Matsushita Electric Ind Co Ltd | Educational material creation terminal and educational material execution terminal for learning system |
JP2010096960A (en) * | 2008-10-16 | 2010-04-30 | Advanced Telecommunication Research Institute International | Server for learning support system |
JP6172417B1 (en) * | 2016-08-17 | 2017-08-02 | 健一 海沼 | Language learning system and language learning program |
JP2017194754A (en) * | 2016-04-18 | 2017-10-26 | シャープ株式会社 | Scoring support device, scoring support method, scoring support program, and recording medium |
-
2018
- 2018-06-14 JP JP2018113949A patent/JP7119615B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004259017A (en) * | 2003-02-26 | 2004-09-16 | Matsushita Electric Ind Co Ltd | Educational material creation terminal and educational material execution terminal for learning system |
JP2010096960A (en) * | 2008-10-16 | 2010-04-30 | Advanced Telecommunication Research Institute International | Server for learning support system |
JP2017194754A (en) * | 2016-04-18 | 2017-10-26 | シャープ株式会社 | Scoring support device, scoring support method, scoring support program, and recording medium |
JP6172417B1 (en) * | 2016-08-17 | 2017-08-02 | 健一 海沼 | Language learning system and language learning program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021110923A (en) * | 2020-01-07 | 2021-08-02 | エスプレッソ株式会社 | Education assistive device, education system and program |
JP2021110782A (en) * | 2020-01-07 | 2021-08-02 | エスプレッソ株式会社 | Education support device |
JP7539692B2 (en) | 2020-09-17 | 2024-08-26 | 株式会社やる気スイッチグループホールディングス | Training support device, training support system, training support method, and computer program |
CN114333456A (en) * | 2021-12-29 | 2022-04-12 | 南京立石科技有限公司 | Intelligent fine arts teaching system |
Also Published As
Publication number | Publication date |
---|---|
JP7119615B2 (en) | 2022-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7119615B2 (en) | Server, sound data evaluation method, program, communication system | |
WO2022089192A1 (en) | Interaction processing method and apparatus, electronic device, and storage medium | |
CN107992195A (en) | A kind of processing method of the content of courses, device, server and storage medium | |
JPWO2004029905A1 (en) | Distance learning system, attendance confirmation method and attendance confirmation program | |
WO2019033663A1 (en) | Video teaching interaction method and apparatus, device, and storage medium | |
JP6925469B2 (en) | Smart microphone control server and system | |
CN111556279A (en) | Monitoring method and communication method of instant session | |
US20210125602A1 (en) | Communication system, communication method, and non-transitory recording medium | |
CN114048299A (en) | Dialogue method, apparatus, device, computer-readable storage medium, and program product | |
JP2003228279A (en) | Language learning apparatus using voice recognition, language learning method and storage medium for the same | |
Martelaro et al. | Using remote controlled speech agents to explore music experience in context | |
JP2007030050A (en) | Robot control device, robot control system, robot device and robot control method | |
JP2018066968A (en) | Word learning support device, word learning support program, and word learning support method | |
US12020683B2 (en) | Real-time name mispronunciation detection | |
US8775163B1 (en) | Selectable silent mode for real-time audio communication system | |
JP7130290B2 (en) | information extractor | |
JP7452299B2 (en) | Conversation support system, conversation support method and program | |
TWI771858B (en) | Smart language learning method and system thereof combining image recognition and speech recognition | |
KR20030065259A (en) | Apparatus and method of learnning languages by sound recognition and sotring media of it | |
JP2016201678A (en) | Recognition device and image content presentation system | |
JP3930402B2 (en) | ONLINE EDUCATION SYSTEM, INFORMATION PROCESSING DEVICE, INFORMATION PROVIDING METHOD, AND PROGRAM | |
JP6824547B1 (en) | Active learning system and active learning program | |
WO2021134592A1 (en) | Speech processing method, apparatus and device, and storage medium | |
JP6637917B2 (en) | Education support system and education support method | |
JP2019179081A (en) | Conference support device, conference support control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220718 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7119615 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |