JP7119615B2 - Server, sound data evaluation method, program, communication system - Google Patents
Server, sound data evaluation method, program, communication system Download PDFInfo
- Publication number
- JP7119615B2 JP7119615B2 JP2018113949A JP2018113949A JP7119615B2 JP 7119615 B2 JP7119615 B2 JP 7119615B2 JP 2018113949 A JP2018113949 A JP 2018113949A JP 2018113949 A JP2018113949 A JP 2018113949A JP 7119615 B2 JP7119615 B2 JP 7119615B2
- Authority
- JP
- Japan
- Prior art keywords
- sound data
- communication
- screen
- terminal
- teacher
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Telephonic Communication Services (AREA)
Description
本発明は、サーバ、音データ評価方法、プログラム、及び、通信システムに関する。 The present invention relates to a server, sound data evaluation method, program, and communication system.
英会話などの外国語教室やアナウンス教室など、生徒が実際に声を出して教師からフィードバックを受けて正しい発音や発声を習得したいというニーズは少なくない。習得の際は、教師と生徒が教室など同じ場所に集まり、生徒の出す音に対して教師が実例を交えながら指導するという形態が取られる。 In foreign language classes such as English conversation classes and announcement classes, there are many needs for students to actually speak out and receive feedback from teachers to learn correct pronunciation and vocalization. When learning, the teacher and students gather in the same place such as a classroom, and the teacher gives guidance to the sounds that the students make while giving examples.
近年では、インターネットを利用して、遠隔地の教師と生徒が発音や発声を学習する形態も実用化されている。例えば、外国語教室においては、テレビ会議等に使用される通信システムを使って1対1で指導を受けられる音の教育システムが既に知られている。 In recent years, a form in which teachers and students in remote locations learn pronunciation and vocalization using the Internet has also been put to practical use. For example, in foreign language classrooms, there is already known a sound education system in which one-to-one instruction is provided using a communication system used for video conferences and the like.
また、1人の教師に対し複数人の生徒が同時に指導を受けることを想定した音の教育システムも知られている(例えば、特許文献1参照。)。特許文献1には、設定した問題を生徒が端末を介して回答でき、それを教師が確認して複数の生徒を指導するシステムが開示されている。
Also known is a sound education system that assumes that a plurality of students receive instruction from one teacher at the same time (see, for example, Patent Document 1).
しかしながら、従来の技術では、1人の教師が複数人の生徒を並行して指導することは困難であるという問題がある。教師と生徒が1対1であれば、教師が生徒の発声を確認して細やかな指導が可能である。しかし、複数人の生徒がいる場合、生徒に1人ずつ発声させて教師がアドバイスするのには時間がかかってしまう。一方、複数の生徒が同時に発声すれば時間を短縮できるが、評価対象が音であるため、教師が複数人の生徒の発声を同時に評価することは難しく細やかな指導が困難になる。 However, the conventional technology has the problem that it is difficult for one teacher to teach a plurality of students in parallel. If the teacher and the student are on a one-to-one basis, the teacher can check the student's voice and give detailed guidance. However, when there are a plurality of students, it takes a long time for the teacher to make the students speak one by one and give advice. On the other hand, if a plurality of students vocalize at the same time, the time can be shortened, but since the object of evaluation is sound, it is difficult for the teacher to simultaneously evaluate the vocalizations of a plurality of students, making detailed guidance difficult.
本発明は、上記課題に鑑み、1人の教師が複数の生徒を並行して発声の指導をすることができるサーバを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a server that allows one teacher to teach a plurality of students how to vocalize at the same time.
上記課題に鑑み、本発明は、複数の通信端末とネットワークを介して通信可能なサーバであって、第1のユーザが操作する第1の通信端末の指示により第1の音データを複数の第2の通信端末にそれぞれ送信して、前記複数の第2の通信端末の第2のユーザがそれぞれ発した複数の第2の音データをそれぞれ受信する通信手段と、前記第1の音データと、前記複数の第2の通信端末それぞれから取得した前記第2の音データとに基づき、複数の前記第2の音データそれぞれに対する評価を生成する生成手段と、を有し、前記通信手段は、前記第1の通信端末に、前記生成手段によって得られた評価、前記複数の第2の通信端末の前記第2のユーザがそれぞれ発した複数の前記第2の音データの識別情報又は前記第2の音データそれぞれ、及び、複数の前記第2の音データの出力を個別に受け付けるボタンを有する第1の画面の画面情報、を送信することを特徴とする。 In view of the above problems, the present invention provides a server capable of communicating with a plurality of communication terminals via a network, wherein the first communication terminal operated by a first user instructs a first communication terminal to transmit first sound data to a plurality of first sound data. communication means for receiving a plurality of second sound data respectively transmitted to two communication terminals and respectively emitted by second users of the plurality of second communication terminals; the first sound data; generating means for generating an evaluation for each of the plurality of second sound data based on the second sound data obtained from each of the plurality of second communication terminals ; to the first communication terminal, the evaluation obtained by the generating means , the identification information of the plurality of second sound data respectively emitted by the second users of the plurality of second communication terminals, or the second sound data It is characterized by transmitting each sound data and screen information of a first screen having a button for individually accepting the output of the plurality of second sound data .
1人の教師が複数の生徒を並行して発声の指導をすることができるサーバを提供することができる。 It is possible to provide a server that allows a single teacher to teach a plurality of students in parallel.
以下、本発明を実施するための形態の一例として、通信システムと通信システムが行う音データ評価方法について図面を参照しながら説明する。 Hereinafter, as an example of the embodiment of the present invention, a communication system and a sound data evaluation method performed by the communication system will be described with reference to the drawings.
<処理の概略>
図1は、本実施形態の通信システム1が生徒の音声を評価する処理の概略を説明する図の一例である。図1では、通信ネットワークを介して管理システム50に教師が使用する端末10と生徒が使用する端末70A~70C(いずれも後述する通信端末に相当)が通信できるように接続されている。
(1)まず、教師がお手本の音声を発声する(あるいは予め登録されているお手本の音声を使用してよい)。お手本の音声は管理システム50を介して端末70A~70Cに送信され、生徒が聴くことができる。
(2)次に、生徒は教師の音声をお手本に、ほぼ同時に(少なくとも一部の時間帯で重複して)音声を発声する。生徒の音声は管理システム50に送信される。
(3)管理システム50は、お手本の音声と生徒の音声をそれぞれ比較して、どの程度、生徒の音声がお手本に近いかを評価する。
(4)管理システム50は全生徒の評価結果を教師の端末10に送信する。端末10は全生徒の評価結果を表示するので教師は各生徒の評価結果を確認して各生徒の発声を向上させる細やかな指導が可能となる。
<Overview of processing>
FIG. 1 is an example of a diagram illustrating an outline of processing for evaluating a student's voice by a
(1) First, the teacher utters a model voice (or a pre-registered model voice may be used). The model voice is transmitted to the
(2) Next, using the teacher's speech as a model, the student utters speech almost simultaneously (overlapping at least part of the time period). The student's voice is sent to the
(3) The
(4) The
このように本実施形態の通信システム1は、遠隔地の教師が複数の生徒の発声を指導する形態においても、管理システム50が教師の音声と各生徒の音声を比較するので、1人の教師が多数の生徒の発声を並行して指導することが可能になる。
As described above, the
<用語について>
会議とは本来、会合して評議したり、集まって話し合ったりすることを言うが、本実施形態ではインターネットを介して話し合うため同じ場所に集まる必要はない。また、音の評価や指導を行う会合も会議の一形態である。
<Terms>
A meeting originally means meeting and deliberating, or gathering and discussing. Meetings for sound evaluation and instruction are also forms of conferences.
音データとは、空気の振動が電気信号に変換されたものであればよい。本実施形態では人が発声する音声データを例にして説明する。また、所定の言語として英語の発声を指導する通信システム1を説明するが、英語以外の所定の言語(中国語、フランス語、スペイン語、ロシア語、ドイツ語、アラビア語等)にも適用できる。また、音データとしては音声に限られず、音楽教室などで楽器が発する音でもよい。
The sound data may be data obtained by converting air vibrations into electric signals. In this embodiment, voice data uttered by a person will be described as an example. In addition, although the
また、音は空気が振動する状態を言い、音データは情報又はデータであるが、本実施形態では両者を厳密には区別しない。 Also, sound refers to a state in which the air vibrates, and sound data is information or data, but the two are not strictly distinguished in this embodiment.
並行して指導するとは、1つのテレビ会議に複数の生徒が参加し、音を発声する時間帯が重複することがあっても、1対1の授業と同等の指導が可能であることをいう。並行して指導することを「同時に指導する」と称してもよい。 “Teaching in parallel” means that even if multiple students participate in one video conference and the time period for uttering sounds overlaps, it is possible to provide instruction equivalent to one-on-one lessons. . Teaching in parallel may be referred to as "teaching at the same time."
<システム構成例>
図2は、本実施形態に係る通信システム1の概略図である。図2に示されているように、通信システム1は、テレビ会議端末が一例である複数の通信端末10a,10b,10c、スマートフォンが一例である複数の通信端末70x,70y、各通信端末を管理する通信管理システム50、及び中継装置30によって構築されている。以下、「通信端末」を「端末」と表し、「通信管理システム」を「管理システム」と表す。
<System configuration example>
FIG. 2 is a schematic diagram of the
図2では、3つの端末10a,10b,10c、及び2つの端末70x,70yについて示しているが、数はこれに限らない。また、複数の端末70x,70yのうち、任意の端末を「端末70」と表し、複数の端末10a,10b,10cのうち、任意の端末を「端末10」と表す。端末10,70は、通信機能を有する汎用コンピュータ、電子ホワイトボード、カーナビゲーション端末、電子看板(デジタルサイネージ)等であってもよい。
Although FIG. 2 shows three terminals 10a, 10b, 10c and two terminals 70x, 70y, the number of terminals is not limited to this. An arbitrary terminal among the plurality of terminals 70x and 70y is denoted as "
管理システム50は、サーバ機能を備えた情報処理装置であり、いわゆるサーバである(特許請求の範囲のサーバに相当)。端末10,70は、対応するクライアント機能を備えたコンピュータである。端末10,70、中継装置30、及び管理システム50は、インターネット、携帯電話網、LAN(Local Area Network)、WiFi(Wireless Fidelity)、或いはBluetooth(登録商標)等の通信ネットワーク2によって通信可能である。通信ネットワーク2には、携帯電話網の末端にある基地局2aも含まれる。なお、図2では、1つの基地局2aを示しているが、数はこれに限らない。
The
中継装置30は、端末10,70間で、音データ(音声データも含まれる)、映像(画像)データ、及び、テキストデータ等のコンテンツデータを中継する。
The relay device 30 relays content data such as sound data (including audio data), video (image) data, and text data between the
端末10は、拠点の一例として、教師が存在する居室(自宅、教室など)に配置されており、端末70は、拠点の一例として、各生徒の自宅などに配置されている。教師の拠点はどこでもよく、生徒の拠点もどこでもよい。また、教師が端末70を使用してもよいし、生徒が端末10を使用してもよい。本実施形態では説明の便宜上、教師が端末10を使用し、生徒が端末70を使用するとして説明する。
The
管理システム50、中継装置30、及び端末10,70は、同一の国、地域に配置されていても、異なる国、地域に配置されていてもよい。端末10のユーザは、例えば教師であり、端末70のユーザは、例えば生徒である。
The
通信システム1には、管理システム50を介して一方の端末から他方の端末に一方向でコンテンツデータを伝送するデータ提供システムや、管理システムを介して複数の端末間で情報や感情等を相互に伝達するコミュニケーションシステムが含まれる。このコミュニケーションシステムは、管理システムを介して複数の末間で情報や感情等を相互に伝達するためのシステムであり、テレビ会議システムやテレビ電話システム等が例として挙げられる。
The
<ハードウェア構成例>
<<端末のハードウェア構成例>>
図3(a)は、一実施形態に係る端末10のハードウェア構成図である。端末10は、端末10全体の動作を制御するCPU101(Central Processing Unit)、IPL(Initial Program Loader)等のCPU101の駆動に用いられるプログラムを記憶したROM102(Read Only Memory)、CPU101のワークエリアとして使用されるRAM103(Random Access Memory)、端末10用のプログラム、画像データ、及び音データ等の各種データを記憶するフラッシュメモリ104を有する。また、CPU101の制御にしたがってフラッシュメモリ104に対する各種データの読み出し又は書き込みを制御するSSD105(Solid State Drive)、フラッシュメモリやICカード(Integrated Circuit Card)等の記録メディア106に対するデータの読み出し又は書き込み(記憶)を制御するメディアI/F107(Interface)を有する。また、端末10の宛先を選択する場合などに操作される操作ボタン108、端末10の電源のON/OFFを切り換えるための電源スイッチ109、通信ネットワーク2を利用してデータ伝送をするためのネットワークI/F111を備えている。
<Hardware configuration example>
<<Example of terminal hardware configuration>>
FIG. 3A is a hardware configuration diagram of the terminal 10 according to one embodiment. The terminal 10 includes a CPU 101 (Central Processing Unit) that controls the overall operation of the terminal 10, a ROM 102 (Read Only Memory) that stores programs used to drive the
また、端末10は、CPU101の制御にしたがって被写体を撮像して画像データを得る内蔵型のカメラ112、このカメラ112の駆動を制御する撮像素子I/F113、音を入力する内蔵型のマイク114、音を出力する内蔵型のスピーカ115、CPU101の制御にしたがってマイク114及びスピーカ115との間で音信号の入出力を処理する音入出力I/F116を有する。また、CPU101の制御にしたがって外付けのディスプレイ120に画像データを伝送するディスプレイI/F117、各種の外部機器を接続するための外部機器接続I/F118、端末10の各種機能の異常を知らせるアラームランプ119、及び上記各構成要素を図3(a)に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン110を備えている。
The terminal 10 also includes a built-in
ディスプレイ120は、被写体の画像等を表示する表示装置である。ディスプレイ120の一例として液晶や有機EL(Organic Electroluminescence)が挙げられる。また、ディスプレイ120は、ケーブル120cによってディスプレイI/F117に接続される。このケーブル120cは、アナログRGB(VGA)信号用のケーブルであってもよいし、コンポーネントビデオ用のケーブルであってもよいし、HDMI(登録商標)(High-Definition Multimedia Interface)やDVI(Digital Video Interactive)信号用のケーブルであってもよい。
The display 120 is a display device that displays an image of a subject and the like. Examples of the display 120 include liquid crystal and organic EL (organic electroluminescence). Also, the display 120 is connected to the display I/
カメラ112は、レンズや、光を電荷に変換して被写体の画像(映像)を電子化する固体撮像素子を含み、固体撮像素子として、CMOS(Complementary Metal Oxide Semiconductor)や、CCD(Charge Coupled Device)等が用いられる。
The
外部機器接続I/F118には、筐体1100の接続口1132に差し込まれたUSB(Universal Serial Bus)ケーブル等によって、外付けカメラ、外付けマイク、及び外付けスピーカ等の外部機器がそれぞれ電気的に接続可能である。外付けカメラが接続された場合には、CPU101の制御にしたがって、外付けカメラが駆動する。同じく、外付けマイクが接続された場合や、外付けスピーカが接続された場合には、CPU101の制御にしたがって、外付けマイクや外付けスピーカが駆動する。
External devices such as an external camera, an external microphone, and an external speaker are electrically connected to the external device connection I/
なお、記録メディア106は、端末10に対して着脱自在となっている。また、CPU101の制御にしたがってデータの読み出し又は書き込みを行う不揮発性メモリであれば、フラッシュメモリ104に限らず、EEPROM(Electrically Erasable and Programmable ROM)等を用いてもよい。
Note that the
図3(b)は、端末70のハードウェア構成図である。図3(b)に示されているように、端末70は、端末70全体の動作を制御するCPU701、プログラムを記憶したROM(Read Only Memory)702、CPU701のワークエリアとして使用されるRAM703、CPU701の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)704を有する。また、フラッシュメモリ等の記録メディア706に対するデータの読み出し又は書き込み(記憶)を制御するメディアI/F707、及びCPU701の制御にしたがって被写体を撮像し画像データを得るCMOS(Complementary Metal Oxide Semiconductor)センサ712を備えている。
FIG. 3B is a hardware configuration diagram of the terminal 70. As shown in FIG. As shown in FIG. 3B, the terminal 70 includes a
なお、EEPROM704には、CPU701が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOSセンサ712は、光を電荷に変換して被写体の画像を電子化する電荷結合素子である。被写体を撮像することができれば、CMOSセンサは、CCD(Charge Coupled Device)センサに置き換えることもできる。
The
更に、端末70は、音を音信号に変換するマイク714、音信号を音に変換するスピーカ715、アンテナ711a、このアンテナ711aを利用して無線通信信号により、最寄りの基地局2aと通信を行う通信部711、被写体の画像や各種アイコン等を表示する液晶や有機ELなどのディスプレイ720、このディスプレイ720上に載せられ、感圧式又は静電式のパネルによって構成され、指やタッチペン等によるタッチによってディスプレイ720上におけるタッチ位置を検出するタッチパネル721、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン710を備えている。
Further, the terminal 70 has a
<<管理システムのハードウェア構成例>>
図4は、一実施形態に係る管理システム50のハードウェア構成図である。管理システム50は、管理システム50全体の動作を制御するCPU201、IPL等のCPU201の駆動に用いられるプログラムを記憶したROM202、CPU201のワークエリアとして使用されるRAM203、管理システム50用のプログラム等の各種データを記憶するHD204を有する。また、CPU201の制御にしたがってHD204に対する各種データの読み出し又は書き込みを制御するHDD205(Hard Disk Drive)、フラッシュメモリ等の記録メディア206に対するデータの読み出し又は書き込み(記憶)を制御するメディアI/F207、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ208を有する。また、通信ネットワーク2を利用してデータ通信するためのネットワークI/F209、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード211、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス212、着脱可能な記録媒体の一例としてのCD-ROM213(Compact Disc Read Only Memory)に対する各種データの読み出し又は書き込みを制御するCD-ROMドライブ214を有する。更に、上記各構成要素を図4に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン210を備えている。
<<Example of hardware configuration of management system>>
FIG. 4 is a hardware configuration diagram of the
中継装置30は、管理システム50と同様のハードウェア構成を有しているため、その説明を省略する。
Since the relay device 30 has the same hardware configuration as the
<ソフトウェア構成例>
図5(a)は、一実施形態に係る端末10のソフトウェア構成図である。端末10には、クライアントアプリとして「通信アプリA1」がインストールされている。アプリとはアプリケーションソフトを意味する。図5(a)に示されているように、OS1020、及び通信アプリA1は、端末10のRAM103の作業領域1010上で動作する。これらのうち、OS1020は、基本的な機能を提供し、端末10全体を管理する基本ソフトウェアである。通信アプリA1は、教師が使用する端末10で動作し、他の端末70と通信するためのアプリである。
<Software configuration example>
FIG. 5A is a software configuration diagram of the terminal 10 according to one embodiment. A “communication application A1” is installed in the terminal 10 as a client application. Application means application software. As shown in FIG. 5A, the
図5(b)は、一実施形態に係る端末70のソフトウェア構成図である。端末70には、クライアントアプリとして「通信アプリA7」がインストールされている。図5(b)に示されているように、OS7020、及び通信アプリA7は、RAM703の作業領域7010上で動作する。これらのうち、OS7020は、基本的な機能を提供し、端末70全体を管理する基本ソフトウェアである。通信アプリA7は、生徒が使用する端末10で動作し、端末10と通信するためのアプリである。
FIG. 5B is a software configuration diagram of the terminal 70 according to one embodiment. A “communication application A7” is installed in the terminal 70 as a client application. As shown in FIG. 5B, the
なお、通信アプリA1,A7の通信プロトコルとしては、(1)SIP(Session Initiation Protocol)、(2)H.323、(3)SIPを拡張したプロトコル、(4)インスタントメッセンジャーのプロトコル、(5)SIPのMESSAGEメソッドを利用したプロトコル、(6)インターネットリレーチャットのプロトコル(IRC(Internet Relay Chat))、(7)インスタントメッセンジャーのプロトコルを拡張したプロトコル等が挙げられる。このうち、(4)インスタントメッセンジャーのプロトコルは、例えば、(4-1)XMPP(Extensible Messaging and Presence Protocol)、又は(4-2)ICQ(登録商標)、AIM(登録商標)、若しくはSkype(登録商標)などで利用されるプロトコルである。また、(7)インスタントメッセンジャーのプロトコルを拡張したプロトコルは、例えば、Jingleである。 The communication protocols of the communication applications A1 and A7 are (1) SIP (Session Initiation Protocol), (2) H.323, (3) an extended protocol of SIP, (4) instant messenger protocol, and (5) (6) Internet relay chat protocol (IRC (Internet Relay Chat)); Of these, (4) instant messenger protocol is, for example, (4-1) XMPP (Extensible Messaging and Presence Protocol), or (4-2) ICQ (registered trademark), AIM (registered trademark), or Skype (registered trademark) trademark), etc. (7) A protocol obtained by extending the instant messenger protocol is, for example, Jingle.
<通信システムの機能について>
次に、図6を用いて本実施形態の通信システム1の機能構成について説明する。図6は、通信システム1の一部を構成する端末10,70、及び管理システム50の機能ブロック図である。なお、図6では、端末10,70、及び管理システム50が、通信ネットワーク2を介してデータ通信することができるように接続されている。
<Functions of communication system>
Next, the functional configuration of the
<端末の機能構成>
端末10,70は、送受信部11,71、操作入力受付部12,72、起動部13,73、出力制御部14,74、及び記憶・読出部19,79を有している。これら各部は、図3に示されている各構成要素のいずれかが、フラッシュメモリ104又はEEPROM704からRAM103,703上に展開された通信アプリA1,A7(プログラム)に従ったCPU101,701からの命令によって動作することで実現される機能である。
<Functional configuration of terminal>
The
また、端末10は、図3に示されているROM102,702、RAM103,703、フラッシュメモリ104又はEEPROM704によって構築される記憶部1000,7000を有している。
The terminal 10 also has storage units 1000 and 7000 constructed by the
端末10における各機能構成について詳細に説明する。送受信部11,71は、CPU101,701からの命令、及びネットワークI/F111又は通信部711によって実現され、通信ネットワーク2を介して、通信相手の端末、各装置又はシステム等と各種データ(又は情報)の送受信を行う。
Each functional configuration in the terminal 10 will be described in detail. The transmission/
操作入力受付部12,72は、CPU101,701からの命令、並びに操作ボタン108又はタッチパネル721、並びに電源スイッチ109によって実現され、ユーザによる各種入力又は各種選択を受け付ける。
The operation
起動部13,73は、CPU101,701からの命令によって実現され、通信アプリA1,A7の動作を起動する。
The
出力制御部14,74は、CPU101,701からの命令、並びに、ディスプレイI/F117及び音入出力I/F116によって実現され、画像データ、及び音データの出力を制御する。
記憶・読出部19,79は、CPU101,701からの命令によって実現され、記憶部1000,7000に各種データを記憶したり、記憶部1000,7000に記憶された各種データを読み出したりする処理を行う。
The storage/
<<管理システムの機能構成>>
管理システム50は、送受信部51、認証部52、管理部53、録音管理部54、解析・結果管理部55、セッション制御部58、及び記憶・読出部59を有している。これら各部は、図4に示されている各構成要素のいずれかが、HD204からRAM203上に展開された管理システム50用のプログラムに従ったCPU201からの命令によって動作することで実現される機能である。また、管理システム50は、HD204により構築される記憶部5000を有している。更に、記憶部5000には、以下に示すような各テーブルによって各DBが構築される。
<< Functional configuration of the management system >>
The
(認証管理テーブル)
図7(a)は、認証管理テーブルを示す概念図である。記憶部5000には、図7(a)に示されているような認証管理テーブルによって認証管理DB5001が構築されている。この認証管理テーブルでは、管理システム50によって管理される全ての端末10,70の各通信IDに対して、認証用のパスワードが関連付けられて管理される。
(Authentication management table)
FIG. 7A is a conceptual diagram showing an authentication management table. In the storage unit 5000, an authentication management DB 5001 is constructed by an authentication management table as shown in FIG. 7(a). In this authentication management table, each communication ID of all the
(端末管理テーブル)
図7(b)は、端末管理テーブルを示す概念図である。記憶部5000には、図7(b)に示されているような端末管理テーブルによって端末管理DB5002が構築されている。この端末管理テーブルでは、各端末10,70の通信ID毎に、各端末10,70のIPアドレス及びTYPEが関連付けられて管理される。各端末10,70の通信IDは各端末10,70のログインにより把握される。TYPEについては後述されるが、TYPEはログイン時などに登録されてもよいし、予め登録されていてもよい。
(terminal management table)
FIG. 7B is a conceptual diagram showing a terminal management table. In the storage unit 5000, a
(グループ管理テーブル)
図7(c)は、グループ管理テーブルを示す概念図である。記憶部5000には、図7(c)に示されているようなグループ管理テーブルによってグループ管理DB5005が構築されている。このグループ管理テーブルでは、グループIDに対応付けて、各端末10,70の通信IDが関連付けられて管理される。グループとは、1人の教師、及び、この教師が指導する複数の生徒の集まりである。グループIDはグループを識別する識別情報である。1つのグループは同じ会議(コミュニケーションの一例)に参加して、グループの端末10,70の間でコンテンツデータが相互に送受信される。
(group management table)
FIG. 7(c) is a conceptual diagram showing a group management table. In the storage unit 5000, a group management DB 5005 is built with a group management table as shown in FIG. 7(c). In this group management table, the communication IDs of the
グループ管理テーブルの作成方法としては、会議が始まる前に例えば教師が管理システム50にアクセスして登録しておく方法がある。あるいは、予めグループ管理テーブルを作る必要がない方法として、同じ会議に参加する生徒に管理システム50が電子メールなどで同じ招待コードを配布しておき、生徒がログイン時に招待コードを入力し、管理システム50が同じ招待コードの生徒を同じグループに分類してもよい(事後的にグループ管理テーブルを作成する)。あるいは、予め生徒を言語能力でレベル分けしておき(レベルは認証管理テーブルに登録されているものとうる)、管理システム50が同じレベルの生徒をログイン順に同じグループに分類してもよい。例えば1つのグループの生徒数を3人とした場合、同じレベルの3人がログインするごとにグループIDが割り当てられる。この場合、各グループに教師が割り当てられ、会議が開始する。
As a method of creating the group management table, for example, a teacher accesses the
(録音管理テーブル)
図8(a)は、録音管理テーブルを示す概念図である。記憶部5000には、図8(a)に示されているような録音管理テーブルによって録音管理DB5003が構築されている。録音管理テーブルは録音された音声データに関する情報が登録されるテーブルである。
(recording management table)
FIG. 8(a) is a conceptual diagram showing a recording management table. In the storage unit 5000, a recording management DB 5003 is constructed by a recording management table as shown in FIG. 8(a). The recording management table is a table in which information about recorded voice data is registered.
録音管理テーブルには、録音ID、TYPE、通信ID、及び、録音ファイルの各項目が関連付けられている。録音IDは教師又は生徒の音声データの録音ファイルを一意に特定又は識別する識別情報であり、録音のたびに管理システム50が採番する。図8(a)では通信ID、会議ID、問題番号(後述される)、及び、リトライ番号(後述される)を連結したものが録音IDである。
The recording management table is associated with recording ID, TYPE, communication ID, and recording file items. A recording ID is identification information that uniquely identifies or identifies a recorded file of teacher's or student's voice data, and is numbered by the
TYPEはその録音ファイルが、生徒(STUDENT)が発声した音声、教師(TEACHER)が発声した音声、又は、事前に録音された(PRESETされた)音声のいずれであるかを示す録音ファイルの属性である。例えば通信アプリA1,A7がTYPEを管理システム50に送信することにより判断される。通信IDは上記と同様であるが、事前に録音された音声の場合は通信IDがNULL(値がないという意味)となる。録音ファイル名は実際に録音された音声データのファイル名である。ファイル名は管理システム50が自動的に付与するが、図8(a)では録音IDをファイル名としている。なお、録音管理テーブルの1行をレコードという。
TYPE is an attribute of a recording file that indicates whether the recording file is a voice uttered by a student (STUDENT), a voice uttered by a teacher (TEACHER), or a pre-recorded (PRESET) voice. be. For example, communication applications A1 and A7 transmit TYPE to the
(結果管理テーブル)
図8(b)は、結果管理テーブルを示す概念図である。記憶部5000には、図8(b)に示されているような結果管理テーブルによって結果管理DB5004が構築されている。結果管理テーブルは、お手本の音声と比較して生徒の音声がどのように評価されたかをまとめたテーブルである。
(result management table)
FIG. 8B is a conceptual diagram showing the result management table. In the storage unit 5000, a
結果管理テーブルには、手本録音ID、回答録音ID、会議ID、問題番号、リトライ番号、手本認識結果、回答認識結果、及び、採点結果の各項目が関連付けられている。手本録音IDと回答録音IDは録音管理DB5003に登録されているIDが転用される。手本録音IDのTYPEはPRESET又はTEACHERのいずれかであり、回答録音IDのTYPEはSTUDENTである。会議IDはその会議が終了するまでを一単位として一意にどの会議であるかを決定する識別情報である。会議IDは会議開始時に管理システム50が採番する。問題番号は、1つの会議で教師が出題した問題を識別する識別情報である。問題番号は出題のたびに管理システム50が採番する。リトライ番号は、同じ問題が再度、出題された場合の問題に対する枝番である。手本認識結果は、お手本の音声データの認識結果である。図8(b)では一例として発音記号に変換されたものが認識結果となっている。回答認識結果は、生徒の音声データの認識結果である。図8(b)では一例として発音記号に変換されたものが認識結果となっている。採点結果は、手本認識結果と回答認識結果の比較結果を単語ごと「○」「×」で示す。なお、結果管理テーブルの1行をレコードという。
The results management table is associated with each item of model recording ID, answer recording ID, meeting ID, problem number, retry number, model recognition result, answer recognition result, and scoring result. The IDs registered in the recording management DB 5003 are diverted to the sample recording ID and answer recording ID. The TYPE of the sample recording ID is either PRESET or TEACHER, and the TYPE of the answer recording ID is STUDENT. The conference ID is identification information that uniquely determines which conference is held until the end of the conference. The conference ID is numbered by the
<<管理システムの各機能構成>>
次に、管理システム50の各機能構成について詳細に説明する。送受信部51は、CPU201からの命令、及びネットワークI/F209によって実現され、通信ネットワーク2を介して各端末、装置又はシステムと各種データ(又は情報)の送受信を行う。
<<Each functional configuration of the management system>>
Next, each functional configuration of the
認証部52は、CPU201からの命令によって実現され、送受信部51で受信された通信ID及びパスワードを検索キーとして認証管理テーブルを検索し、この認証管理テーブルに同一の通信ID及びパスワードが管理されているかを判断することによって端末の認証を行う。
The
管理部53は、CPU201からの命令によって実現され、端末管理テーブルにログイン中の端末10、70を登録することで各端末10,70を管理する。
The
録音管理部54は、CPU201からの命令によって実現され、教師の操作を契機にして録音を開始し、教師又は生徒の操作を契機にして録音を終了する。開始から終了の間の音声データを録音し、録音管理DB5003に各項目を登録する。
The
解析・結果管理部55は、CPU201からの命令によって実現され、録音された教師と生徒の音声データを比較・解析し、その結果を結果管理DB5004に記録する。
The analysis/
セッション制御部58は、CPU201からの命令によって、端末10,70間でコンテンツデータを送信するためのセッションを制御する。この制御としては、セッションを確立するための制御、確立されたセッションに端末10,70参加させる制御、セッションから退出する制御等が含まれる。
記憶・読出部59は、CPU201からの命令及びHDD205によって実現され、又はCPU201からの命令によって実現され、記憶部5000に各種データを記憶したり、記憶部5000に記憶された各種データを抽出したりする処理を行う。
The storage/
<通信システムの処理・動作>
続いて、通信システム1における処理及び動作について説明する。
<Processing and operation of communication system>
Next, processing and operations in the
<<ログイン時の処理>>
まず、図9を用いて、端末10,70が管理システム50へログインする処理を説明する。図9は、端末10,70が管理システム50へログインする処理を示すシーケンス図の一例である。
<<Login process>>
First, the process for the
端末70のユーザが電源スイッチをONにすると、操作入力受付部72が電源ONを受け付けて、端末70を起動させる(ステップS1)。端末70が起動すると、起動部73は、端末70にインストールされている通信アプリA7を起動させる(ステップS2)。以下、端末70における処理は、通信アプリA7の命令により実行される。
When the user of the terminal 70 turns on the power switch, the operation
端末70の送受信部71は、通信ネットワーク2を介して管理システム50に、ログイン要求を送信する(ステップS3)。このログイン要求には、ログイン要求元である自端末を識別するための通信ID、及びパスワードが含まれている。
The transmitter/
管理システム50の送受信部51はログイン要求を受信する。端末70から管理システム50へログイン要求が送信されることで、受信側である管理システム50は、送信側である端末70のIPアドレスを取得することができる。
The transmission/
次に、管理システム50の認証部52は、ログイン要求に含まれている通信ID及びパスワードを検索キーとして、記憶部5000の認証管理テーブルを検索し、この認証管理テーブルに同一の通信ID及びパスワードが管理されているかを判断することによって認証を行う(ステップS4)。
Next, the
認証部52によって、正当な利用権限を有する端末70からのログイン要求であると認証された場合には、管理部53は、端末管理テーブルに、ログイン要求元の端末70の通信ID、及びIPアドレスを関連付けて記憶する(ステップS5)。これにより端末管理テーブルには、ログイン中の端末70へアクセスするための情報が管理される。また、管理部53は通信アプリA7であることを示す情報を受信して、端末管理テーブルにTYPEを登録する。
When the
管理システム50の送受信部51は、認証部52によって得られた認証結果が示された認証結果情報を、通信ネットワーク2を介して、ログイン要求元の端末70へ送信する(ステップS6)。これにより、端末70の送受信部71は、認証結果情報を受信する。以下、生徒が操作するログイン要求元の端末70(複数ある)の認証に成功し、端末70が管理システム50にログインした場合について説明する。
The transmitting/receiving
一方、教師側の端末10の教師が電源スイッチ109をONにすると、操作入力受付部12が電源ONを受け付けて、端末10を起動させる(ステップS11)。端末10が起動すると、起動部13は、端末10にインストールされている通信アプリA1を起動させる(ステップS12)。以下、端末10における処理は、通信アプリA1の命令により実行される。
On the other hand, when the teacher of the terminal 10 on the teacher side turns on the
端末10は、管理システム50へログイン要求を送信して、管理システム50へログインする(ステップS13-2,S14,S15,S16)。この処理は、端末70と管理システム50との間のステップS3,S4,S5,S6の処理と同様であるので、説明を省略する。
The terminal 10 transmits a login request to the
管理システム50が端末10、70を操作するユーザが、教師であるか生徒であるかを判断する方法としては、ステップS5で説明したように、通信アプリA1、A7を識別する方法がある。この方法では、例えばログイン時に端末10、70が通信アプリA1、A7の区別する情報を管理システム50に送信すればよい。あるいは、予め通信IDを区別して配布する方法もある。例えば、教師に配布される通信IDは「T001」のようにTで始まり、生徒に配布される通信IDは「S001」のようにSで始まる。これらの方法で、管理システム50は容易に教師か生徒かを判断できる。あるいは、上記の招待コードが利用されている場合、生徒には特定の招待コードが配布されるようにして生徒か教師かを判断できる。
As a method for the
端末10,70がログインすると、セッション制御部58は例えば負荷の少ない中継装置30を決定して、この中継装置30に端末10,70が送受信するコンテンツデータの中継を開始させる。中継装置30には端末10,70の通信ID(端末10,70を特定できる情報であればよい)とグループIDが対応付けて送信される。これにより、端末10,70が通信ID(端末10,70を特定できる情報であればよい)と共に送信したコンテンツデータは同じグループ内の端末10,70に転送される。
When the
<<音声データの評価>>
次に、図10を用いて、管理システム50が生徒の音声データを評価する処理について説明する。ここでは、英会話のオンライン教室が開講された状態をイメージされたい。以下の、英会話のオンライン教室では、教師が生徒と会話しながら、適宜、出題するという形態が想定されている。
<<Evaluation of voice data>>
Next, with reference to FIG. 10, the process of evaluating the student's voice data by the
図10は、管理システム50が生徒の音声データを評価する手順を示すシーケンス図の一例である。図10の処理は、端末10,70がログインして中継装置30が決定された状態から説明される。また、図11~図16に示す、教師用の端末10と生徒用の端末10が表示する画面例を適宜、参照して説明する。なお、図10では中継装置30が図示されていないが、図10では管理システム50が中継装置30と一体と見なしている。実際に音声を評価するのは管理システム50でも中継装置30でもよい。
FIG. 10 is an example of a sequence diagram showing a procedure for the
M1:管理システム50の録音管理部54は会議が始まると会議IDを採番する。これにより音声データの管理が可能になる。
M1: The
M2-1,M2-2:管理システム50のセッション制御部58は会議の準備が整ったため会議開始要求を端末10,70に送信する。これにより、テレビ会議が開始される。つまり、コンテンツデータの送受信が開始される。
M2-1, M2-2: The
T1,S1:端末10の通信アプリA1、端末70の通信アプリA7は会議開始の処理を行う。具体的には通信アプリA1、通信アプリA7が画面を表示したり、中継装置30と通信を開始したり、管理システム50から必要な情報を取得したりする。
T1, S1: The communication application A1 of the terminal 10 and the communication application A7 of the terminal 70 perform conference start processing. Specifically, the communication application A1 and the communication application A7 display screens, start communication with the relay device 30, and acquire necessary information from the
S2:生徒側の端末70の出力制御部74は生徒画面S1(第3の画面の一例)を表示する。生徒画面S1を図14に示す。生徒画面S1が表示されている間、生徒は原則的に教師の発声を聞き取るが任意に発言することも可能である。
S2: The
M3,M4:一方、管理システム50の送受信部51は教師側の端末10に事前に録音されている録音ファイルのリストを送信する。すなわち、録音管理DB5003からTYPEがPRESETの録音ファイルの録音ID及び録音ファイル名を送信する。教師側の端末10であることは端末管理DBに登録されている。なお、リストは構造化文書で構成されており、構造化文書の例としては、HTMLやXML(Extensible Markup Language)等がある。
M3, M4: On the other hand, the transmitting/receiving
T2:端末10の送受信部11は事前に録音されている録音ファイルのリストを受信する。これにより、端末10の出力制御部14は教師画面T1(第2の画面の一例)を表示する。教師画面T1を図11に示す。教師画面T1は、教師が任意に発言し、必要に応じて出題用の音声データを選択又は入力する画面である。
T2: The transmitting/receiving
T3:図10では教師が教師画面T1で事前に録音されている音声(録音ファイル名)を選択したものとする。教師が音声を入力する場合の処理については図17にて説明する。端末10の操作入力受付部12は操作を受け付け、出力制御部14は教師画面T2aを表示する。教師画面T2aを図12(a)に示す。教師画面T2aは、教師が音声データを選択した状態の画面である。
T3: In FIG. 10, it is assumed that the teacher has selected a pre-recorded voice (recorded file name) on the teacher screen T1. Processing when the teacher inputs voice will be described with reference to FIG. The operation
T4:端末10の送受信部11は、教師が選択した録音ファイル名の録音IDを管理システム50に送信する。この録音IDが録音ファイルの送信要求となる。
T4: The transmitting/receiving
M5:管理システム50の送受信部51は録音IDを受信する。録音管理部54は録音管理DB5003から録音IDに該当する音声データを取得する。
M5: The transmission/
M6:管理システム50の送受信部51は取得した音声データを生徒の端末70に送信する。図10では生徒の端末70は1台であるが、複数の端末70があるものとする。
M6: The transmission/
S3:生徒の端末70の送受信部71は音声データを受信し、音声データを受信したことを契機に、出力制御部74が生徒画面S2(第4の画面の一例)を表示する。生徒画面S2は音声データの受信開始、受信完了、又は、受信開始から終了まで、のいずれかのタイミングで表示されてよいが、生徒画面S1は教師の発声の出力中に表示される画面なので、受信完了(受信と共にリアルタイムに出力されるため出力完了ともいう)を契機に生徒画面S1から生徒画面S2に遷移するとよい。なお、生徒画面S1から生徒画面S2に遷移させる信号を管理システム50が端末70に明示的に送信してもよい。生徒画面S2を図15に示す。生徒画面S2は、管理システム50から送信された音声データがスピーカから出力され、これを手本にして生徒が音声を発声する画面である。このように、教師が出題することで、自動的に生徒の端末70の画面が遷移するため、生徒は生徒画面S2を表示するために通信アプリA7を操作する必要がない。換言すると、教師が生徒の端末70の画面を制御する主導権を持っている。
S3: The transmitting/receiving
S4:生徒画面S2を表示した端末70の送受信部71は通信IDとTYPEを管理システム50に送信する。音声を録音するためである。TYPEに関しては端末管理DB5002に登録されているため送信されなくてもよい。
S4: The transmission/
M7:管理システム50の送受信部51は通信IDとTYPEを受信することで、録音管理部54が録音を開始する。
M7: When the transmission/
S5:生徒画面S2に遷移した端末70では音声データの送信が開始されているので、生徒が発声した音声データを送受信部71は随時(リアルタイムに)管理システム50に送信する。管理システム50の録音管理部54は引き続き、録音する。
S5: Since the terminal 70 that has transitioned to the student screen S2 has started transmitting voice data, the transmitting/receiving
S6:発声が終わると生徒は生徒画面S2でエンドボタン306を押下する。
S6: After finishing speaking, the student presses the
S7:操作入力受付部72は生徒の操作を受け付け、送受信部71が通信IDを再度、送信する。発声が終了した管理システム50に知らせるためである。
S7: The operation
M8:管理システム50の送受信部51は通信IDを受信し、録音管理部54が音声データの録音を終了する。録音管理部54は録音ファイルの識別子となる録音IDを採番する。上記のように、通信ID、会議ID、問題番号、及び、リトライ番号が録音IDとなる。なお、別のパターンとして、録音は端末70側で実行し、録音終了後に録音ファイルを管理システム50に送付してもよい。
M8: The transmission/
M9:録音管理部54は録音ID、TYPE、通信ID、及び録音ファイルを録音管理DB5003に登録する。
M9: The
M10:そして、解析・結果管理部55が、出力した(出力とは再生することをいう)音声データと端末70から送信された音声データを比較して評価する。詳細は後述する。
M10: Then, the analysis/
M11:解析・結果管理部55は、手本とした録音ファイルの録音IDを手本録音IDとして、生徒の録音ファイルの録音IDを回答録音IDとして、結果管理DB5004に登録する。同様に、会議ID、この会議の何問目の問題であるか(問題番号)、同一問題の何回目のリトライであるかというリトライ番号、手本認識結果、回答認識結果を結果管理DB5004に登録する。リトライについては教師画面T3(第1の画面の一例)で詳細に説明する。
M11: The analysis/
M12-1、M12-2:管理システム50の送受信部51は、評価結果を教師側の端末10と生徒側の端末70にそれぞれ送信する。また、教師の音声データの録音ID(又は音声データそのもの)を生徒の端末70のそれぞれに送信すると共に、生徒が発声した音声データの録音ID(又は音声データそのもの)をその音声データを発声した端末70に個別に送信する。教師の音声データの録音ID(又は音声データそのもの)と、各生徒が発声した全ての音声データの録音ID(又は音声データそのもの)を端末10に送信する。
M12-1, M12-2: The transmission/
T5:端末10の送受信部11は評価結果を受信し、出力制御部14が教師画面T3を表示する。教師画面T3を図13に示す。教師画面T3は、教師が各生徒の評価結果を確認する画面である。
T5: The transmission/
S8:端末70の送受信部71は評価結果を受信し、評価結果を受信したことを契機に、出力制御部74が生徒画面S2から生徒画面S3(第5の画面の一例)に遷移する。なお、生徒画面S2から生徒画面S3に遷移させる信号を管理システム50が端末70に明示的に送信してもよい。生徒画面S3を図16に示す。生徒画面S3は、生徒が自分の評価結果を確認する画面である。生徒画面S3への遷移時も、生徒は生徒画面S3を表示するために通信アプリA7を操作する必要がない。
S8: The transmitting/receiving
<画面例>
図11~図16を用いて教師の端末10と生徒の端末70が表示する画面例を説明する。図11は、教師画面T1の一例を示す。教師画面T1は、会議を開始した当初、端末70が表示する画面である。教師画面T1は、教師画像表示欄301,生徒画像表示欄302、事前録音データリスト欄303、アップロードボタン304、スタートボタン305、及び、エンドボタン306を有する。
<Screen example>
Examples of screens displayed by the teacher's
教師画面T1の画面情報は、HTMLを少なくとも含み、更に、CSS(Cascade Style Sheet)及びJavaScript(登録商標)等を含むWebAPP(Web Application)で作成されよい。後述する教師画面T2、T3、生徒画面S1~S3についても同様である。 The screen information of the teacher screen T1 includes at least HTML and may be created by WebAPP (Web Application) including CSS (Cascade Style Sheet), JavaScript (registered trademark), and the like. The same applies to teacher screens T2 and T3 and student screens S1 to S3, which will be described later.
教師画像表示欄301は、教師が使用する端末10が撮像した画像データが表示される欄である。生徒画像表示欄302は、生徒が使用する端末70が撮像した画像データが表示される欄である。図11では4つの生徒画像表示欄302があるが、生徒画像表示欄302の数は生徒の数によって増減する。
The teacher
事前録音データリスト欄303は、管理システム50が端末10に送信した録音ファイル名のリストが表示される欄である。図11では5つの録音ファイル名が表示されているが、数は一例である。表示しきれない場合はスクロールボタンなどが表示される。それぞれの録音ファイル名はユーザの押下(選択)を受け付けることができる。アップロードボタン304は教師が選択した録音ファイル名の録音IDを端末10が管理システム50に送信するためのボタンである。スタートボタン305とエンドボタン306は事前に録音された録音ファイルでなく、教師がリアルタイムに発声した音声データを入力し、端末10が管理システム50に送信する際に使用される。すなわち、教師がスタートボタン305を押下してからエンドボタン306を押下するまでに教師が発声した音声が管理システム50に送信される。詳細は図17にて説明する。
The prerecorded
図12(a)は、教師画面T2aの一例を示す。教師画面T2aは、教師画面T1から遷移する。なお、教師画面T2aに関しては教師画面T1との相違を説明する。教師画面の構成は教師画面T1と同様であるが、教師画面T2aでは事前録音データリスト欄303の録音ファイル名が1つ選択された状態である。このように、教師が選択した録音ファイル名は強調され、アップロードボタン304による管理システム50への録音IDの送信が可能になる。
FIG. 12(a) shows an example of the teacher screen T2a. The teacher screen T2a transitions from the teacher screen T1. Regarding the teacher screen T2a, differences from the teacher screen T1 will be explained. The configuration of the teacher screen is the same as that of the teacher screen T1, but one recording file name in the pre-recorded
教師画面T2aでは教師は録音ファイルを選択すれば、お手本の音声データを生徒に聴かせることができるので、いつも同じ音声データを聴かせることができる。なお、録音ファイルは教師本人(同一人物)が録音しておく必要はなく、使い回してよい。 On the teacher screen T2a, if the teacher selects a recorded file, the teacher can have the students listen to the sample voice data, so the same voice data can always be heard. Note that the recording file does not have to be recorded by the teacher (same person), and can be reused.
図12(b)は、教師画面T2bの一例を示す。教師画面T2bは、教師画面T1から遷移する。なお、教師画面T2bに関しては教師画面T1との相違を説明する。教師画面の構成は教師画面T1と同様であるが、教師画面T2bではスタートボタン305が押下された状態である。したがって、教師が音声を発声中であり、この音声データがリアルタイムに管理システム50に送信されている。
FIG. 12(b) shows an example of the teacher screen T2b. The teacher screen T2b transitions from the teacher screen T1. Regarding the teacher screen T2b, differences from the teacher screen T1 will be explained. The configuration of the teacher screen is the same as that of the teacher screen T1, but the
教師画面T2bでは教師はリアルタイムにお手本の音声データを生徒に聴かせることができるので、任意のセンテンス(英語の文又は文章)を生徒に練習させることができる。また、教師画面T1,T2a、T2bの構成から明らかなように、教師は事前に録音された音声データとリアルタイムの音声データを適宜、組み合わせながら授業できる。 On the teacher screen T2b, the teacher can make the students listen to the model voice data in real time, so that the students can practice arbitrary sentences (English sentences or sentences). Further, as is apparent from the configurations of the teacher screens T1, T2a, and T2b, the teacher can give lessons while appropriately combining pre-recorded voice data and real-time voice data.
図13は、教師画面T3の一例を示す。教師画面T3は、正解音声再生ボタン311、リトライボタン312、終了ボタン313、生徒画像表示欄314、発音記号欄316a、316b、詳細評価欄317、点数欄318、及び、回答音声再生ボタン315を有する。正解音声再生ボタン311は、お手本の録音ファイルを端末10、70で出力させるためのボタンである。お手本の録音ファイルの録音IDが管理システム50に送信される。この場合、単に音声データが流れるだけでリトライ番号は増えない。リトライボタン312は、同じお手本の録音ファイルの録音IDを再度、管理システム50に送信して生徒たちに発声させるためのボタンである。
FIG. 13 shows an example of the teacher screen T3. The teacher screen T3 has a correct answer voice playback button 311, a retry button 312, an end button 313, a student
再度、同一の問題を出題する場合、教師が端末10のリトライボタン312を押下することで、録音管理部54と解析・結果管理部55は図10のステップT4以降を再実行し、同一のフローを繰り返す。まず、お手本の録音ファイルの録音IDとリトライである旨が管理システム50に送信される。録音管理部54はリトライである旨を端末70に送信することで、生徒画面S3から生徒画面S1に遷移させる(これが、生徒画面S3から生徒画面S1に遷移させる信号となる)。次に、録音管理部54は録音IDの録音ファイルを端末70に送信することで、端末70は録音ファイルの例えば受信完了時に生徒画面S1から生徒画面S2に遷移する。生徒画面S1から生徒画面S2に遷移させる信号を管理システム50が端末70に明示的に送信してもよい。録音管理部54は、再度、端末70からの音声データを録音して録音IDを採番し、録音管理DB5003に登録する。次に、解析・結果管理部55は音声を比較する。解析・結果管理部55は結果管理DB5004の手本録音IDをステップT4の録音IDで検索し、ヒットしたレコードの中から最も大きいリトライ番号を有するレコードを特定し、このレコードのリトライ番号を1つ大きくする。そして、手本録音ID(T4で送信されている録音ID)、回答録音ID(新たに採番した端末70の音声データの録音ID)、会議ID、問題番号(録音IDでヒットしたレコードの問題番号と同じ)、1つ大きくしたリトライ番号、手本解析結果、回答認識結果、及び、採点結果を結果管理DB5004に登録する。送受信部51は評価結果を端末10,70に送信する。以上により、端末10には、再度、図13の教師画面T3が表示される。また、端末70には、再度、図16の生徒画面S3が表示される。
When the same question is asked again, the teacher presses the retry button 312 of the terminal 10, and the
終了ボタン313は現在のお手本の録音ファイルの出題を終了するためのボタンである。終了ボタン313が押下されると、教師の端末10は教師画面T1に戻り、生徒の端末10は生徒画面S1に戻る。したがって、通常のビデオ会議の状態となる。この場合も生徒は生徒画面S1に戻るための操作が不要である。 An end button 313 is a button for ending the presentation of the current model recorded file. When the end button 313 is pressed, the teacher's terminal 10 returns to the teacher's screen T1, and the student's terminal 10 returns to the student's screen S1. Therefore, it becomes a state of a normal video conference. In this case also, the student does not need to perform an operation to return to the student screen S1.
生徒画像表示欄314は図11と同様である。発音記号欄316aは教師の音声データから変換された発音記号を示し、発音記号欄316bは生徒の音声データから変換された発音記号を示す。詳細評価欄317は管理システム50がお手本の音声データと生徒の音声データを比較して評価した結果である。図13では、音声データの各単語が発音記号に変換され、発音記号ごとに「○」「×」が添付されている。「○」はお手本の音声データと生徒の音声データの発音記号が一致したことを示し、「×」はお手本の音声データと生徒の音声データの発音記号が一致しないことを示す。また、点数欄318には一致の程度に応じて点数が付与されている。解析・結果管理部55は1回の出題を1センテンスとして、1センテンスに含まれる単語のうち発音記号が一致した割合を点数とする。文字レベルで採点してもよいし、採点方法はこれらに限られない。
The student
回答音声再生ボタン315は、生徒の音声データを出力するためのボタンである。回答音声再生ボタン315の押下により録音ファイルの録音IDが管理システム50に送信される。生徒の音声データは管理システム50が教師の端末10にのみ送信してもよいし、この音声データを発声した端末70と端末10にのみ送信してもよいし、全ての端末10,70に送信してもよい。なお、録音管理DB5003では録音IDには通信IDが対応付けられているので、管理システム50はこの通信IDの端末70にのみ送信できる。
The answer
図13に示すように、教師画面T3には各生徒の評価結果が一覧で表示されるので、各生徒が一度に発声しても各生徒の音声データを個別に評価できる。また、教師は各生徒の音声データを任意に出力できるので、自分自身が生徒の音声データを評価することもできる。 As shown in FIG. 13, the evaluation results of each student are displayed in a list on the teacher screen T3, so even if each student speaks at once, the speech data of each student can be evaluated individually. Also, since the teacher can arbitrarily output the voice data of each student, the teacher can evaluate the voice data of the students himself.
図14は、生徒画面S1の一例を示す。生徒画面S1は、会議を開始した当初、端末10が表示する画面である。生徒画面S1は、教師画像表示欄321,及び、生徒画像表示欄322、を有する。教師画像表示欄321と生徒画像表示欄322については教師画面T1と同様でよい。生徒画面S1には「Listen in class」というメッセージ323が表示されている。これは授業内容を聞くという意味であり、生徒画面S1は教師の音声の出力中に表示される。生徒画面S1では教師が生徒と会話したり、教師が生徒に指示を出したりする。生徒が教師に質問することも可能である。
FIG. 14 shows an example of the student screen S1. The student screen S1 is a screen displayed by the terminal 10 at the beginning of the meeting. The student screen S1 has a teacher
図15は、生徒画面S2の一例を示す。生徒画面S2は、各生徒が手本の音声データをまねて音声を発声する画面である。生徒画面S2は、教師画像表示欄321,生徒画像表示欄322、及び、エンドボタン325を有する。教師画像表示欄321と生徒画像表示欄322については教師画面T1と同様でよい。生徒画面S2には「Repeat!!」というメッセージ324が表示されている。これは手本の音声データをまねて発声しないという意味である。生徒画面S2が表示されると、端末70ではお手本の音声データがスピーカから出力され、通信IDとTYPEが送信されたタイミングで管理システム50が音声データの録音を開始する。エンドボタン325は発声が終わった生徒が録音の終了を管理システム50に通知するためのボタンである。
FIG. 15 shows an example of the student screen S2. The student screen S2 is a screen for each student to imitate voice data of a model and utter a voice. The
図16は、生徒画面S3の一例を示す。生徒画面S3は、生徒の評価結果が表示される画面である。生徒画面S3は、正解音声再生ボタン331、教師画像表示欄332、発音記号欄333a、333b、詳細評価欄334、点数欄336、及び、回答音声再生ボタン335を有する。これらの機能は教師画面3と同様でよい。
FIG. 16 shows an example of the student screen S3. The student screen S3 is a screen on which the student's evaluation result is displayed. The student screen S3 has a correct answer
生徒画面S3ではリトライして発声した音声データごとに評価結果が表示されるので、生徒は各音声データでどこが悪かったのか、改善されたのか、どこが間違いやすいのかなどを把握できる。また、お手本の音声データを任意に出力できる。また、自分の音声データを出力して確認できる。 On the student screen S3, evaluation results are displayed for each voice data uttered after retries, so that the student can grasp what is wrong with each voice data, what has been improved, and what is likely to be mistaken. In addition, model voice data can be arbitrarily output. You can also output and check your own voice data.
<録音済みの音声データでなく教師が発声する場合の処理手順>
図10では録音済みの音声データをお手本として生徒が発声する処理の流れを説明したが、図17を用いて教師が発声した音声データをお手本として生徒が発声する処理の手順を説明する。図17は、管理システム50が生徒の音声データを評価する手順を示すシーケンス図の一例である。なお、図17の説明では図10との相違を主に説明する。
<Processing procedure when the teacher speaks instead of recorded voice data>
In FIG. 10, the flow of processing in which a student vocalizes using recorded voice data as a model has been described, but with reference to FIG. FIG. 17 is an example of a sequence diagram showing a procedure for the
まず、ステップT1~T2、ステップM1~M4、ステップS1~S3は図10と同様でよい。 First, steps T1-T2, steps M1-M4, and steps S1-S3 may be the same as in FIG.
T3:教師はリアルタイムに発声した音声データをお手本とするため教師画面T1でスタートボタン305を押下する。
T3: The teacher presses the
T4:端末10のTYPEと通信IDを通知するため、端末10の送受信部11は通信IDとTYPEを管理システム50に送信する。
T4: In order to notify the TYPE and communication ID of the terminal 10, the transmitting/receiving
M4:管理システム50の送受信部51はTYPEと通信IDを受信し、これにより録音管理部54は教師の音声データの録音を開始する。
M4: The transmission/
T5:教師が発声を終えると教師画面T2b(図12(b))でエンドボタン306を押下する。操作入力受付部12は押下を受け付ける。
T5: When the teacher finishes speaking, he presses the
T6:教師の端末10の送受信部11は録音を終了させるため通信IDを管理システム50に送信する。
T6: The transmitting/receiving
M5:管理システム50の送受信部51は通信IDを受信し、これにより録音管理部54は録音を終了し、録音IDを採番する。
M5: The transmission/
M6:管理システム50の録音管理部54は録音ID、TYPE、通信ID、及び、録音ファイルを録音管理DB5003に登録する。
M6: The
M7:管理システム50の送受信部51は、録音管理DB5003に登録した音声データを端末70に送信する。これにより、端末70は生徒画面S2を表示するので、以降の処理は図10と同様になる。
M7: The transmission/
このように、本実施形態の通信システム1は、お手本の音声データを教師が発声しても、多数の生徒の音声データと比較した評価及び細やかな指導が可能になる。
As described above, the
<音声データの比較・評価>
本実施形態では教師の音声データと生徒の音声データを発音記号で比較し、単語毎に発音がどの程度一致するか否かを比較した。また、1つのセンテンスのうち発音記号が一致する単語の数の割合を点数とした。このように音声データを発音記号に変換する技術としては音声認識技術を利用できる。
<Comparison and evaluation of voice data>
In this embodiment, the teacher's voice data and the student's voice data are compared using phonetic symbols to determine how much the pronunciations match each word. Also, the ratio of the number of words with the same phonetic symbols in one sentence was used as the score. A speech recognition technology can be used as a technology for converting voice data into phonetic symbols in this way.
図18は、音声認識を模式的に説明する図の一例である。図18は機械学習により音声を発音記号に変換するニューラルネットワーク401を示す。特に、ニューラルネットワーク401の階層が深いものをディープラーニングという。また、音声データのような時系列データを分類するにはRNN(Reccurent Neural Network)が適していることが知られている。
FIG. 18 is an example of a diagram schematically explaining speech recognition. FIG. 18 shows a
一例として20ミリ秒ごとにスライスした音声データをMFCC(Mel-frequency cepstral coefficients)に変換し、入力層402の各ノードに入力する。出力層403の各ノードには各発音記号が対応する。
As an example, voice data sliced every 20 milliseconds is converted into MFCC (Mel-frequency cepstral coefficients) and input to each node of the
学習フェーズにおいて入力層402にはMFCCに変換された音声データが入力され、出力層403には、音声データに含まれる音声の発音記号に対応するノードに「1」が割り当てられる(その他のノードは「0」)。そして、入力層402のノード、ニューラルネットワーク401の各階層のノード、及び、出力層403のノードの間の重みが誤差逆伝播法で学習される。
In the learning phase, speech data converted into MFCC is input to the
認識フェーズでは、入力された音声データが含む発音記号に近い出力層403のノードほど大きい値(1に近い値)を出力する。解析・結果管理部55は閾値以上の値を出力したノードに対応する発音記号を取り出す。この発音記号が複数の場合は、発音記号のつながりやすさを確率で示す辞書データを参照し、前後の発音記号との組み合わせごとにつながりやすさの確率を算出し、確率が最も高くなる組み合わせになるように発音記号を特定する。
In the recognition phase, the node of the
なお、種々の音声認識方法があり、図18の説明は一例に過ぎない。例えば隠れマルコフモデルを使用して音声認識してもよい。また、本実施形態ではこの他の手法を採用しても何ら支障がない。 There are various speech recognition methods, and the description of FIG. 18 is only an example. For example, Hidden Markov Models may be used for speech recognition. Also, in this embodiment, there is no problem even if other methods are adopted.
また、本実施形態では音声データを発音記号に変換したが、音声データを単語(アルファベット)に変換してもよい。音声データの単語(アルファベット)への変換には公知の方法を採用できる。一般的な英語の辞書には単語の発音記号が掲載されているので、単語が決まれば発音記号も一意に決まる。したがって、音声データを発音記号に変換できる。ただし、発音が悪い音声も正しい単語に認識するような優秀な識別器が生成されている場合、生徒の発音が悪くても正しい発音記号であると判断されるおそれがある。 Further, although the voice data is converted into phonetic symbols in this embodiment, the voice data may be converted into words (alphabet). A known method can be adopted for converting voice data into words (alphabet). Since the phonetic symbols of words are listed in general English dictionaries, the phonetic symbols are uniquely determined when a word is determined. Therefore, voice data can be converted into phonetic symbols. However, if an excellent discriminator is generated that recognizes a badly pronounced voice as a correct word, there is a risk that even if the student's pronunciation is bad, it will be judged to be a correct phonetic symbol.
楽器などの音データの評価では、例えば教師と生徒の音データをそれぞれフーリエ変換して、周波数ごとの強度の差異を比較して数値化するなどの方法がある。 In the evaluation of sound data of musical instruments, for example, there is a method of Fourier transforming the sound data of a teacher and a student respectively, comparing and quantifying the difference in intensity for each frequency.
<まとめ>
以上説明したように、本実施形態の通信システム1は、遠隔地の教師が複数の生徒の発声を指導する形態においても、管理システム50が教師の音声と各生徒の音声を比較するので、1人の教師が多数の生徒の発声を並行して指導することが可能になる。1対1の授業と同等以上に細やかな指導が可能である。
<Summary>
As described above, in the
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above using examples, the present invention is by no means limited to such examples, and various modifications can be made without departing from the scope of the present invention. and substitutions can be added.
<<システム構成の別の例>>
図2では管理システムが1台であったが管理システム50は通信システム1内に複数存在してもよい。図19は、本実施形態に係る通信システム1の概略図である。図19では、複数の管理システム50がネットワークに接続されている。このように通信システム1に含まれる管理システム50は複数台でもよく、どの管理システム50に機能を備えさせてもよい。
<<Another example of system configuration>>
Although there is one management system in FIG. 2 , a plurality of
また、本実施形態で説明する端末10と管理システム50とが接続されたシステム構成は一例であり、用途や目的に応じて様々なシステム構成例があることは言うまでもない。
Further, the system configuration in which the terminal 10 and the
また、図20に示すように、管理システム50と中継装置30は1つのサーバ装置60として存在してもよい。図20のサーバ装置60は、管理システム50の機能と中継装置30の機能を併せ持っている。また、このサーバ装置60が複数存在してもよい。
Moreover, as shown in FIG. 20, the
<<メールアドレスによるユーザの識別>>
本実施形態では通信IDで端末10、70が識別されていたが、端末10を識別する識別情報として、ユーザIDが用いられてもよい。また、このユーザIDとしてメールアドレスが用いられてよい。この場合、端末10、70のユーザはメールアドレスで管理システム50にログインする。
<<User identification by email address>>
Although the
図21は、端末10,70が管理システム50へログインする処理を示すシーケンス図の一例である。なお、図21の説明では図9との相違を主に説明する。図21に示すように、ステップS3、S13-2では通信IDでなく、メールアドレスが送信されている。管理システム50はメールアドレスとパスワードでユーザを認証する。
FIG. 21 is an example of a sequence diagram showing processing for the
同様に、図10で説明した生徒の音声データを評価する手順では、ステップS4、S7で通信IDでなくメールアドレスが送信される。図17についても同様に、通信IDの代わりにメールアドレスが使用される。 Similarly, in the procedure for evaluating the student's voice data explained with reference to FIG. 10, in steps S4 and S7, not the communication ID but the e-mail address is sent. Similarly, in FIG. 17, mail addresses are used instead of communication IDs.
<<アプリでなく汎用的なブラウザアプリによるテレビ会議>>
上記の実施形態では、端末10、70で通信アプリA1、A7が動作すると説明したが、同様の処理をWebアプリによっても実現できる。Webアプリは、Webブラウザ上で動作する例えばJavaScript(登録商標)によるプログラムとWebサーバ側のプログラムが協調することによって動作し、ユーザはそれをブラウザ上で使用する。
<<Video conferencing using a general-purpose browser application instead of an application>>
In the above embodiment, the communication applications A1 and A7 operate on the
図22は、端末10,70におけるWebアプリの構成例を示す図である。端末10は管理システム50から、教師用のプログラム1030(HTML5+JAVASCRIPT+CSS等)をダウンロードしブラウザアプリ1040上で実行する。端末70は管理システム50から、生徒用のプログラム7030(HTML5+JAVASCRIPT+CSS等)をダウンロードしブラウザアプリ7040上で実行する。この場合は例えば通信IDで教師か生徒かが判断される。
FIG. 22 is a diagram showing a configuration example of a web application in
なお、図22においても、通信IDでなく端末10を識別する識別情報としてユーザIDが用いられてよい。このユーザIDとしてメールアドレスが用いられてよい。 Also in FIG. 22, the user ID may be used as identification information for identifying the terminal 10 instead of the communication ID. A mail address may be used as this user ID.
端末10,70はHTTP又はHTTPS等のプロトコルを用いて管理システム50とデータを送受信することによって、管理システム50が提供しているサービスを利用できる。このような利用形態では、予め端末10,70に通信アプリA1、A7をダウンロードしておく必要がない。
The
<その他>
例えば、本実施形態では、テレビ会議端末(通信端末)を用いた会議室への参加を例に説明したが、通信端末の機能を有する各種の装置でも適用できる。例えば、通信端末の機能を有している電子黒板にも好適に適用できる。
<Others>
For example, in the present embodiment, participation in a conference room using a teleconference terminal (communication terminal) has been described as an example, but various devices having communication terminal functions can also be applied. For example, it can be suitably applied to an electronic blackboard having a function of a communication terminal.
また、電子黒板には大型のタッチパネルを備えたものだけでなく、プロジェクタが映像を投影し、電子ペンの位置を音波等とカメラにより検出するものがある。 In addition to electronic blackboards having a large touch panel, there are also electronic blackboards in which a projector projects an image and the position of an electronic pen is detected by sound waves or the like and a camera.
また、図6などの構成例は、管理システム50、端末10、70、及び中継装置30による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。管理システム50、端末10、70、及び中継装置30の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
Further, the configuration examples of FIG. 6 and the like are divided according to main functions in order to facilitate understanding of the processing by the
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU(Graphics Processing Unit)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiments described above may be implemented by one or more processing circuits. Here, the "processing circuit" in this specification means a processor programmed by software to perform each function, such as a processor implemented by an electronic circuit, or a processor designed to perform each function described above. devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array), SOC (System on a chip), GPU (Graphics Processing Unit) and conventional circuit modules.
また、本実施形態では、教師と生徒が会話しながら授業が進められているが、生徒が録音ファイルを自分でダウンロードして出力し、それをお手本にして発声した音声データを管理システム50に送信してもよい。管理システム50は生徒の音声データを評価しておき、教師が任意のタイミングでダウンロードする。こうすることで、互いの時間を節約できたり、生徒が宿題を実行したりすることができる。
In the present embodiment, the teacher and the student conduct the class while conversing with each other, but the student downloads and outputs the recorded file by himself, and transmits the voice data uttered based on this as a model to the
また、音声データだけでなく画像データを評価に採用してもよい。例えば、機械学習で口の動きを発音記号に変換することで同様に評価できる。 Also, not only audio data but also image data may be used for evaluation. For example, machine learning can be used to convert mouth movements into phonetic symbols for similar evaluation.
なお、送受信部51は通信手段又は第2の通信手段の一例であり、解析・結果管理部55は生成手段の一例であり、お手本の音声データは第1の音データの一例であり、生徒が発声した音声データは第2の音データの一例であり、教師は第1のユーザの一例であり、生徒は第2のユーザの一例であり、端末10は第1の通信端末の一例であり、端末70は第2の通信端末の一例であり、送受信部11は第1の通信手段の一例であり、出力制御部14は表示制御手段の一例である。
In addition, the transmission/
1 通信システム
10、70 端末
30 中継装置
50 管理システム
1
Claims (11)
第1のユーザが操作する第1の通信端末の指示により第1の音データを複数の第2の通信端末にそれぞれ送信して、前記複数の第2の通信端末の第2のユーザがそれぞれ発した複数の第2の音データをそれぞれ受信する通信手段と、
前記第1の音データと、前記複数の第2の通信端末それぞれから取得した前記第2の音データとに基づき、複数の前記第2の音データそれぞれに対する評価を生成する生成手段と、を有し、
前記通信手段は、前記第1の通信端末に、前記生成手段によって得られた評価、前記複数の第2の通信端末の前記第2のユーザがそれぞれ発した複数の前記第2の音データの識別情報又は前記第2の音データそれぞれ、及び、複数の前記第2の音データの出力を個別に受け付けるボタンを有する第1の画面の画面情報、を送信することを特徴とするサーバ。 A server capable of communicating with a plurality of communication terminals via a network,
transmitting first sound data to each of a plurality of second communication terminals according to an instruction from a first communication terminal operated by a first user; a communication means for receiving each of the plurality of second sound data obtained by
generating means for generating an evaluation for each of the plurality of second sound data based on the first sound data and the second sound data acquired from each of the plurality of second communication terminals; death,
The communication means transmits to the first communication terminal the evaluation obtained by the generation means , identification of the plurality of second sound data respectively emitted by the second users of the plurality of second communication terminals. A server that transmits information or each of the second sound data, and screen information of a first screen having buttons for individually accepting outputs of a plurality of the second sound data .
前記第1の画面は前記第1の音データの出力を受け付けるボタンを更に有することを特徴とする請求項1に記載のサーバ。 The communication means transmits identification information of the first sound data or the first sound data to the first communication terminal,
2. The server according to claim 1 , wherein said first screen further has a button for accepting output of said first sound data.
前記リトライボタンが押下された旨を前記通信手段が受信した場合、
前記通信手段は、前記生成手段が前記評価の生成に使用した前記第1の音データを前記複数の第2の通信端末にそれぞれ送信し、前記複数の第2の通信端末の第2のユーザがそれぞれ発した複数の第2の音データを受信し、
前記生成手段は、前記第1の音データと、前記複数の第2の通信端末それぞれから取得した前記第2の音データとをそれぞれ比較して前記第2の音データそれぞれに対する評価を、再度、生成し、
前記通信手段は、前記生成手段によって得られた評価を前記第1の通信端末に送信することを特徴とする請求項2に記載のサーバ。 the first screen has a retry button for the plurality of second communication terminals to output the first sound data again;
When the communication means receives that the retry button has been pressed,
The communication means transmits the first sound data used by the generation means to generate the evaluation to the plurality of second communication terminals, and the second users of the plurality of second communication terminals receiving a plurality of second sound data emitted respectively;
The generating means compares the first sound data with the second sound data acquired from each of the plurality of second communication terminals, and evaluates each of the second sound data again, generate and
3. The server according to claim 2 , wherein said communication means transmits the evaluation obtained by said generating means to said first communication terminal.
前記生成手段は、前記第1の音データと、前記複数の第2の通信端末の第2のユーザがそれぞれ発した複数の第2の音データをそれぞれ発音記号に変換し、
前記第1の音データから変換された発音記号と、前記第2の音データから変換された発音記号とを比較することで複数の前記第2の音データそれぞれを評価することを特徴とする請求項1~3のいずれか1項に記載のサーバ。 the first sound data is voice data in a predetermined language;
The generating means converts the first sound data and a plurality of second sound data respectively uttered by the second users of the plurality of second communication terminals into phonetic symbols,
Each of the plurality of second sound data is evaluated by comparing phonetic symbols converted from the first sound data with phonetic symbols converted from the second sound data. 4. The server according to any one of items 1 to 3 .
前記第2の画面に表示される前記リストから選択された前記第1の音データの識別情報を受信した場合、
前記識別情報で特定される前記第1の音データを前記複数の第2の通信端末にそれぞれ送信することを特徴とする請求項1~4のいずれか1項に記載のサーバ。 The communication means transmits screen information of a second screen including a list of the first sound data recorded in advance to the first communication terminal,
When receiving the identification information of the first sound data selected from the list displayed on the second screen,
5. The server according to any one of claims 1 to 4 , wherein said first sound data specified by said identification information is transmitted to each of said plurality of second communication terminals.
前記通信手段は、前記第1のユーザが前記第1の通信端末に入力し前記第1の通信端末から受信した前記第1の音データを前記複数の第2の通信端末にそれぞれ送信することを特徴とする請求項5に記載のサーバ。 When the button for accepting the input is pressed on the second screen including the button for accepting the input of the first sound data displayed on the first communication terminal,
The communication means transmits the first sound data input by the first user to the first communication terminal and received from the first communication terminal to each of the plurality of second communication terminals. 6. A server according to claim 5 .
前記第1のユーザの前記第1の通信端末から受信した前記第1の音データの識別情報で識別される前記第1の音データ又は前記第1の通信端末から受信した前記第1の音データと、
前記第1の音データの出力中は前記第1のユーザの音声が出力されていることを示す第3の画面の画面情報と、
前記第1の音データの出力が完了した場合に表示される前記第2の音データの入力を受け付ける第4の画面の画面情報と、を送信することを特徴とする請求項6に記載のサーバ。 The communication means, to the second communication terminal,
Said first sound data identified by identification information of said first sound data received from said first communication terminal of said first user or said first sound data received from said first communication terminal When,
screen information of a third screen indicating that the first user's voice is being output while the first sound data is being output;
7. The server according to claim 6 , further transmitting screen information of a fourth screen for accepting input of said second sound data displayed when output of said first sound data is completed. .
更に、前記第1の音データの識別情報又は前記第1の音データ、及び、前記第2の音データの識別情報又は前記第2の音データを、前記第2の音データを送信した前記第2の通信端末に個別に送信し、
前記評価、前記第1の音データの識別情報又は前記第1の音データ、及び、前記第2の音データの識別情報又は前記第2の音データを前記第2の通信端末が受信したことを契機に表示される、前記評価、前記第1の音データの出力を受け付けるボタン、及び、前記第2の音データの出力を受け付けるボタンを含む第5の画面であって前記第4の画面から遷移する前記第5の画面の画面情報を前記第2の通信端末に送信することを特徴とする請求項7に記載のサーバ。 The communication means transmits the second sound data so that the second communication terminal that transmitted the second sound data displays an evaluation of the plurality of second sound data obtained by the generation means. individually transmitted to the second communication terminal,
Furthermore, the identification information of the first sound data or the first sound data, the identification information of the second sound data or the second sound data, and the second sound data that transmitted the second sound data Send to 2 communication terminals individually,
that the second communication terminal has received the evaluation, the identification information of the first sound data or the first sound data, and the identification information of the second sound data or the second sound data A fifth screen including the evaluation, a button for receiving the output of the first sound data, and a button for receiving the output of the second sound data, which is displayed as a trigger, and transitions from the fourth screen 8. The server according to claim 7 , wherein screen information of said fifth screen to be displayed is transmitted to said second communication terminal.
通信手段が、第1のユーザが操作する第1の通信端末の指示により第1の音データを複数の第2の通信端末にそれぞれ送信して、前記複数の第2の通信端末の第2のユーザがそれぞれ発した複数の第2の音データをそれぞれ受信するステップと、
生成手段が、前記第1の音データと、前記複数の第2の通信端末それぞれから取得した前記第2の音データに基づき、複数の前記第2の音データそれぞれに対する評価を生成するステップと、
前記通信手段が、前記第1の通信端末に、前記生成手段によって得られた評価、前記複数の第2の通信端末の前記第2のユーザがそれぞれ発した複数の前記第2の音データの識別情報又は前記第2の音データそれぞれ、及び、複数の前記第2の音データの出力を個別に受け付けるボタンを有する第1の画面の画面情報、を送信するステップと、
を有することを特徴とする音データ評価方法。 A sound data evaluation method performed by a server capable of communicating with a plurality of communication terminals via a network,
communication means for transmitting first sound data to a plurality of second communication terminals according to an instruction from a first communication terminal operated by a first user; a step of respectively receiving a plurality of second sound data respectively emitted by a user;
generating means for generating an evaluation for each of the plurality of second sound data based on the first sound data and the second sound data obtained from each of the plurality of second communication terminals;
The communication means transmits to the first communication terminal the evaluation obtained by the generation means , identification of the plurality of second sound data respectively emitted by the second users of the plurality of second communication terminals. a step of transmitting information or each of the second sound data and screen information of a first screen having buttons for individually accepting outputs of a plurality of the second sound data;
A sound data evaluation method comprising:
第1のユーザが操作する第1の通信端末の指示により第1の音データを複数の第2の通信端末にそれぞれ送信して、前記複数の第2の通信端末の第2のユーザがそれぞれ発した複数の第2の音データをそれぞれ受信する通信手段と、
前記第1の音データと、前記複数の第2の通信端末それぞれから取得した前記第2の音データに基づき、複数の前記第2の音データそれぞれに対する評価を生成する生成手段、として機能させ、
前記通信手段は、前記第1の通信端末に、前記生成手段によって得られた評価、前記複数の第2の通信端末の前記第2のユーザがそれぞれ発した複数の前記第2の音データの識別情報又は前記第2の音データそれぞれ、及び、複数の前記第2の音データの出力を個別に受け付けるボタンを有する第1の画面の画面情報、を送信することを特徴とするプログラム。 A server that can communicate with multiple communication terminals via a network,
transmitting first sound data to each of a plurality of second communication terminals according to an instruction from a first communication terminal operated by a first user; a communication means for receiving each of the plurality of second sound data obtained by
Functioning as generating means for generating an evaluation for each of the plurality of second sound data based on the first sound data and the second sound data acquired from each of the plurality of second communication terminals,
The communication means transmits to the first communication terminal the evaluation obtained by the generation means , identification of the plurality of second sound data respectively emitted by the second users of the plurality of second communication terminals. A program for transmitting information or each of the second sound data, and screen information of a first screen having buttons for individually accepting outputs of a plurality of the second sound data .
前記第1の通信端末は、
第1の音データを複数の第2の通信端末にそれぞれ送信させる送信要求を前記サーバに送信する第1の通信手段、を有し、
前記サーバは、
前記送信要求に応じて前記第1の音データを前記複数の第2の通信端末にそれぞれ送信して、前記複数の第2の通信端末の第2のユーザがそれぞれ発した複数の第2の音データをそれぞれ受信する第2の通信手段と、
前記第1の音データと、前記複数の第2の通信端末それぞれから取得した前記第2の音データに基づき、複数の前記第2の音データそれぞれに対する評価を生成する生成手段と、を有し、
前記第2の通信手段は、前記第1の通信端末に、前記生成手段によって得られた評価、前記複数の第2の通信端末の前記第2のユーザがそれぞれ発した複数の前記第2の音データの識別情報又は前記第2の音データそれぞれ、及び、複数の前記第2の音データの出力を個別に受け付けるボタンを有する第1の画面の画面情報、を送信し、
前記第1の通信端末は、前記第1の通信手段が前記サーバから受信した複数の前記評価を表示装置に表示する表示制御手段を有する、ことを特徴とする通信システム。 A communication system having a first communication terminal and a server capable of communicating via a network,
The first communication terminal is
a first communication means for transmitting to the server a transmission request for transmitting the first sound data to each of the plurality of second communication terminals;
The server is
a plurality of second sounds emitted by second users of the plurality of second communication terminals by transmitting the first sound data to the plurality of second communication terminals in response to the transmission request; a second communication means for respectively receiving data;
generating means for generating an evaluation for each of the plurality of second sound data based on the first sound data and the second sound data acquired from each of the plurality of second communication terminals; ,
The second communication means transmits to the first communication terminal the evaluation obtained by the generating means, the plurality of second sounds respectively emitted by the second users of the plurality of second communication terminals. transmitting identification information of data or each of the second sound data, and screen information of a first screen having buttons for individually accepting outputs of a plurality of the second sound data;
A communication system, wherein the first communication terminal has display control means for displaying a plurality of the evaluations received from the server by the first communication means on a display device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018113949A JP7119615B2 (en) | 2018-06-14 | 2018-06-14 | Server, sound data evaluation method, program, communication system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018113949A JP7119615B2 (en) | 2018-06-14 | 2018-06-14 | Server, sound data evaluation method, program, communication system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019215502A JP2019215502A (en) | 2019-12-19 |
JP7119615B2 true JP7119615B2 (en) | 2022-08-17 |
Family
ID=68918669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018113949A Active JP7119615B2 (en) | 2018-06-14 | 2018-06-14 | Server, sound data evaluation method, program, communication system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7119615B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6851663B1 (en) * | 2020-01-07 | 2021-03-31 | エスプレッソ株式会社 | Educational aids, educational systems, and programs |
JP6749678B1 (en) * | 2020-01-07 | 2020-09-02 | エスプレッソ株式会社 | Educational aids |
JP7539692B2 (en) | 2020-09-17 | 2024-08-26 | 株式会社やる気スイッチグループホールディングス | Training support device, training support system, training support method, and computer program |
CN114333456A (en) * | 2021-12-29 | 2022-04-12 | 南京立石科技有限公司 | Intelligent fine arts teaching system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004259017A (en) | 2003-02-26 | 2004-09-16 | Matsushita Electric Ind Co Ltd | Educational material creation terminal and educational material execution terminal for learning system |
JP2010096960A (en) | 2008-10-16 | 2010-04-30 | Advanced Telecommunication Research Institute International | Server for learning support system |
JP6172417B1 (en) | 2016-08-17 | 2017-08-02 | 健一 海沼 | Language learning system and language learning program |
JP2017194754A (en) | 2016-04-18 | 2017-10-26 | シャープ株式会社 | Scoring support device, scoring support method, scoring support program, and recording medium |
-
2018
- 2018-06-14 JP JP2018113949A patent/JP7119615B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004259017A (en) | 2003-02-26 | 2004-09-16 | Matsushita Electric Ind Co Ltd | Educational material creation terminal and educational material execution terminal for learning system |
JP2010096960A (en) | 2008-10-16 | 2010-04-30 | Advanced Telecommunication Research Institute International | Server for learning support system |
JP2017194754A (en) | 2016-04-18 | 2017-10-26 | シャープ株式会社 | Scoring support device, scoring support method, scoring support program, and recording medium |
JP6172417B1 (en) | 2016-08-17 | 2017-08-02 | 健一 海沼 | Language learning system and language learning program |
Also Published As
Publication number | Publication date |
---|---|
JP2019215502A (en) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7119615B2 (en) | Server, sound data evaluation method, program, communication system | |
JP3930022B2 (en) | Distance learning system, attendance confirmation method and attendance confirmation program | |
US20190340944A1 (en) | Multimedia Interactive Teaching System and Method | |
WO2019033663A1 (en) | Video teaching interaction method and apparatus, device, and storage medium | |
WO2022089192A1 (en) | Interaction processing method and apparatus, electronic device, and storage medium | |
JP2020149054A (en) | Server and system for controlling smart microphone | |
CN1937002A (en) | Intelligent man-machine conversation system and implementation method thereof | |
KR102101817B1 (en) | Language study supporting apparatus using video publicated on the internet | |
CN114048299A (en) | Dialogue method, apparatus, device, computer-readable storage medium, and program product | |
KR102534275B1 (en) | Teminal for learning language, system and method for learning language using the same | |
JP2003228279A (en) | Language learning apparatus using voice recognition, language learning method and storage medium for the same | |
JP6166831B1 (en) | Word learning support device, word learning support program, and word learning support method | |
KR100898104B1 (en) | Learning system and method by interactive conversation | |
JP2007030050A (en) | Robot control device, robot control system, robot device and robot control method | |
JP7130290B2 (en) | information extractor | |
JP7096626B2 (en) | Information extraction device | |
TWI771858B (en) | Smart language learning method and system thereof combining image recognition and speech recognition | |
US8775163B1 (en) | Selectable silent mode for real-time audio communication system | |
JP2006030513A (en) | Education support device and education information managing server | |
KR20030065259A (en) | Apparatus and method of learnning languages by sound recognition and sotring media of it | |
JP3930402B2 (en) | ONLINE EDUCATION SYSTEM, INFORMATION PROCESSING DEVICE, INFORMATION PROVIDING METHOD, AND PROGRAM | |
KR101122188B1 (en) | System and method for learning foreign language | |
JP2005024815A (en) | System, device, method, and program for language learning, and recording medium for recording the program | |
JP6637917B2 (en) | Education support system and education support method | |
WO2021134592A1 (en) | Speech processing method, apparatus and device, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220718 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7119615 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |