JP2004101637A - Online educational system, information processor, information providing method and program - Google Patents
Online educational system, information processor, information providing method and program Download PDFInfo
- Publication number
- JP2004101637A JP2004101637A JP2002260132A JP2002260132A JP2004101637A JP 2004101637 A JP2004101637 A JP 2004101637A JP 2002260132 A JP2002260132 A JP 2002260132A JP 2002260132 A JP2002260132 A JP 2002260132A JP 2004101637 A JP2004101637 A JP 2004101637A
- Authority
- JP
- Japan
- Prior art keywords
- video
- model
- voice
- database
- advice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 10
- 238000003384 imaging method Methods 0.000 claims description 10
- 230000010365 information processing Effects 0.000 claims description 8
- 239000000463 material Substances 0.000 abstract description 45
- 230000000875 corresponding effect Effects 0.000 description 21
- 238000004891 communication Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
この発明は、コンピュータ等を用いて受講者の学習を支援する教育システムに係り、特にオンラインで受講者に対する語学教育を実施可能なオンライン教育システムに関する。
【0002】
【従来の技術】
語学を習得するためには、相手の話を聞き分け、正しく発音する能力を身につけた上で、各単語及び文章の意味理解力を向上させることが重要となる。従来、語学の学習は、書籍などを用いて文字から文法を理解するといった手法により行われていた。近年では、特定の言語を母国語とするネイティブの指導者が、受講生との対話により、受講生の習熟度にあわせて指導を行う語学学校などがビジネスとして営まれている。さらに、こうした語学学校の中には、例えば特許文献1に開示されているような通信システムを用いて、遠隔地間での語学教育を可能としたサービスを提供するものもある。
【0003】
【特許文献1】
特開平11−220707号公報
【0004】
【発明が解決しようとする課題】
語学をいち早く修得するためには、専門の指導者の下で、単語単位や一般の話し言葉を通して、基礎的な学習を行って自然な形で身につけることが望ましい。ところが、指導者が受講者と対面して教育するためには、時間や場所を互いに調整したり予約しなければならない。
この点について、特許文献1に開示された技術によれば、遠隔地間での教育が可能となるので、対面教育における場所的な制約を軽減させることができる。
【0005】
しかしながら、特許文献1に開示された技術によっても、指導者と受講生が同じ時間に端末の前に在留しなければならない。このため、時間の調整や予約が必要となる。また、受講者に対応できる人数だけ指導者を揃えておかなければならないという問題があった。
【0006】
この発明は、上記実状に鑑みてなされたものであり、受講者に対して効率よく語学教育を施すことができるオンライン教育システムを、提供することを目的とする。
【0007】
【課題を解決するための手段】
この発明の第1の観点に係るオンライン教育システムは、ネットワークを介して互いに接続された端末装置とサーバ装置とを備えるオンライン教育システムであって、模範的な発声を示す音声データを格納するモデル音声データベースと、模範的な発話動作を撮影した映像データを格納するモデル映像データベースと、複数種類の指導情報を格納する指導情報データベースと、前記端末装置が生成した受講者の発声を示す音声データを、前記モデル音声データベースに格納されている音声データと比較し、その差分を示す解析結果を生成する音声解析手段と、受講者の発話動作を撮影することにより前記端末装置が生成した映像データを、前記モデル映像データベースに格納されている映像データと比較し、その差分を示す解析結果を生成する映像解析手段と、前記指導情報データベースから前記音声解析手段及び前記映像解析手段の解析結果に対応する指導情報を読み出してアドバイスを作成するアドバイス作成手段と、前記アドバイス作成手段により作成されたアドバイスを前記端末装置にて出力させるアドバイス提供手段とを備えることを特徴とする。
【0008】
この発明によれば、受講者の発声を示す音声データと、モデル音声データベースに格納されている模範的な発声を示す音声データとの比較結果、及び、受講者の発話動作を撮影した映像データと、モデル映像データベースに格納されている模範的な発話動作を撮影した映像データとの比較結果に対応するアドバイスが作成される。作成されたアドバイスは端末装置にて出力され、受講者に対して効率よく語学教育を施すことができる。
【0009】
この発明の第2の観点に係る情報処理装置は、受講者の発声を取り込む音声入力手段と、受講者の発話動作を撮影する撮像手段と、音声出力手段と、表示手段と、模範的な発声を示す音声データを格納するモデル音声データベースと、模範的な発話動作を撮影した映像データを格納するモデル映像データベースと、複数種類の指導情報を格納する指導情報データベースと、前記モデル音声データベースに格納されている音声データを読み出して、前記音声出力手段から模範的な発声を出力させるモデル提供手段と、前記音声入力手段により取り込まれた受講者の発声を認識して、受講者の発声に対応する文章を前記表示手段に表示させる音声認識手段と、前記撮像手段の撮影により作成された映像データを、前記モデル映像データベースに格納されている映像データと比較し、その差分を示す解析結果を生成する映像解析手段と、前記指導情報データベースから前記映像解析手段の解析結果に対応する指導情報を読み出してアドバイスを作成するアドバイス作成手段と、前記アドバイス作成手段により作成されたアドバイスを、前記音声出力手段と前記表示手段の少なくともいずれか一方により出力させるアドバイス提供手段とを備えることを特徴とする。
【0010】
この発明によれば、受講者の発話動作を撮影した映像データと、モデル映像データベースに格納されている模範的な発話動作を撮影した映像データとの比較結果に対応するアドバイスが作成される。作成されたアドバイスは、音声出力手段と表示手段の少なくともいずれか一方から出力される。また、モデル音声データベースに格納された音声データを読み出すことにより、音声出力手段から模範的な発声が出力される。さらに、受講者の発声を認識して、受講者の発声に対応する文章が表示手段に表示される。
これにより、受講者に対して効率よく語学教育を施すことができる。
【0011】
前記モデル提供手段は、前記モデル映像データベースに格納されている映像データを読み出し、前記表示手段に模範的な発話動作の画像を表示させる手段を備え、前記表示手段は、前記撮像手段が撮影した受講者による発話動作の画像を表示してもよい。
【0012】
この発明の第3の観点に係る情報処理装置は、ネットワークを介して端末装置に接続された情報処理装置であって、模範的な音声を示す音声データを格納するモデル音声データベースと、模範的な発声動作を撮影した映像データを格納するモデル映像データベースと、複数種類の指導情報を格納する指導情報データベースと、前記モデル音声データベースに格納されている音声データを読み出して前記端末装置へ送ることにより、前記端末装置にて模範的な発声を出力させるモデル提供手段と、前記端末装置から送られた音声データから受講者の発声を認識して、受講者の発声に対応する文章を前記端末装置に表示させる音声認識手段と、前記端末装置から送られた映像データを、前記モデル映像データベースに格納されている映像データと比較し、その差分を示す解析結果を生成する映像解析手段と、前記指導情報データベースから前記映像解析手段の解析結果に対応する指導情報を読み出してアドバイスを作成するアドバイス作成手段と、前記アドバイス作成手段により作成されたアドバイスを前記端末装置へ送ることにより、前記端末装置にて受講者を指導するためのアドバイスを出力させるアドバイス提供手段とを備えることを特徴とする。
【0013】
この発明の第4の観点に係る情報提供方法は、モデル音声データベースと、モデル映像データベースと、指導情報データベースとを備えるコンピュータシステムが、模範的な発声を示す音声データを前記モデル音声データベースに格納し、模範的な発話動作を撮影した映像データを前記モデル映像データベースに格納し、複数種類の指導情報を前記指導情報データベースに格納し、前記モデル音声データベースに格納されている音声データを読み出して、模範的な発声を出力し、受講者の発声を認識して、受講者の発声に対応する文章を表示し、受講者の発話動作を撮影することにより作成された映像データを、前記モデル映像データベースに格納されている映像データと比較して、その差分を解析結果とし、解析結果に対応する指導情報を前記指導情報データベースから読み出してアドバイスを作成し、作成されたアドバイスを映像及び/又は音声にて出力することを特徴とする。
【0014】
この発明の第5の観点に係るプログラムは、コンピュータを、受講者の発声を取り込む音声入力手段と、受講者の発話動作を撮影する撮像手段と、音声出力手段と、表示手段と、模範的な発声を示す音声データを格納するモデル音声データベースと、模範的な発話動作を撮影した映像データを格納するモデル映像データベースと、複数種類の指導情報を格納する指導情報データベースと、前記モデル音声データベースに格納されている音声データを読み出して、前記音声出力手段から模範的な発声を出力させるモデル提供手段と、前記音声入力手段により取り込まれた受講者の発声を認識して、受講者の発声に対応する文章を前記表示手段に表示させる音声認識手段と、前記撮像手段の撮影により作成された映像データを、前記モデル映像データベースに格納されている映像データと比較し、その差分を示す解析結果を生成する映像解析手段と、前記指導情報データベースから前記映像解析手段の解析結果に対応する指導情報を読み出してアドバイスを作成するアドバイス作成手段と、前記アドバイス作成手段により作成されたアドバイスを、前記音声出力手段と前記表示手段の少なくともいずれか一方により出力させるアドバイス提供手段として機能させる。
【0015】
【発明の実施の形態】
以下に、図面を参照して、この発明の実施の形態に係るオンライン教育システムについて詳細に説明する。
図1は、この発明の実施の形態に係るオンライン教育システムの構成を示す図である。
図1に示すように、この発明の実施の形態に係るオンライン教育システムは、ユーザ端末10と、ネットワーク20と、サービスプロバイダ30とを備えて構成されている。ユーザ端末10とサービスプロバイダ30とは、例えば公衆回線やインターネット等からなるネットワーク20を介して互いに接続されている。以下では、説明を簡単にするために、ユーザ端末10が1台のみであるものとするが、これに限定されず、複数存在してもよい。
【0016】
ユーザ端末10は、例えばノート型あるいはデスクトップ型のパーソナルコンピュータや、PDA(Personal Digital Assistants)などに代表される情報処理端末装置である。
図2は、ユーザ端末10の構成を示す図である。
図2に示すように、ユーザ端末10は、ユーザインタフェース11と、制御部12と、記憶部13と、通信インタフェース14とを備えて構成される。
【0017】
ユーザインタフェース11は、例えば、マイクロフォン11a、CCDカメラ11b、ディスプレイ装置11c、キーボード11d、マウス11e、スピーカ11f等を備えて構成され、ユーザ操作に対応した指令や音声、映像などを入力したり、画像や音声を出力したりするためのものである。
【0018】
制御部12は、例えばCPU(Central Processing Unit)などのマイクロプロセッサを用いて構成され、ユーザ端末10全体の動作を制御するためのものである。
【0019】
記憶部13は、例えば半導体メモリやハードディスク装置等により構成され、制御部12により実行される動作プログラムや各種の設定データなどを記憶するためのものである。
【0020】
通信インタフェース14は、例えば、ネットワークカード、ケーブルコネクタ、無線ユニット等を用いて構成され、制御部12の制御に従いネットワーク20を介してサービスプロバイダ30との間で通信を行うためのものである。
【0021】
サービスプロバイダ30は、図3に示すように、サーバ40と、データベース(以下、「DB」という)50とを備える。
サーバ40は、例えば、アプリケーションサーバとしての機能とデータベースサーバとしての機能とを備える。なお、サーバ40は、物理的に1台のコンピュータシステムで構成される必要はなく、複数台のコンピュータを用いて構成されてもよい。
【0022】
サーバ40は、ネットワーク20を介したユーザ端末10からのアクセスを受け付け、オンライン教育の受講者となるユーザ端末10の利用者に対して、映像や音声を組み合わせたオンライン教育の教材となる情報を提供可能とする。また、サーバ40は、ユーザ端末10から送られた指令や音声信号、映像信号を受信して、オンライン教育をより効率的に実施するための様々な処理を実行する。サーバ40は、図3に示すように、制御部41と、記憶部42と、通信インタフェース43とを備えている。
【0023】
制御部41は、サーバ40全体の動作を制御するためのものである。ここで、制御部41は、記憶部42に記憶されている動作プログラムを読み出して実行することにより構成されるカリキュラム設定部60と、教材提供部61と、音声解析部62と、映像解析部63と、アドバイス作成部64と、アドバイス提供部65と、音声認識部66とを備えている。
【0024】
カリキュラム設定部60は、ユーザ端末10の利用者による自己申告や、定期的に実施されるテストの結果、あるいはアドバイス提供部65がユーザ端末10により受講者に提供したアドバイスの種類などに基づいて、受講者の語学能力を判定し、各受講者に応じた学習内容を設定する。
【0025】
教材提供部61は、カリキュラム設定部60により設定されたカリキュラムや、音声解析部62及び映像解析部63の解析結果に基づいて、DB50が備える教材DB70から読み出す教材データを特定する。教材提供部61により教材DB70から読み出された教材データは、通信インタフェース43によりネットワーク20を介してユーザ端末10へ送られる。
【0026】
音声解析部62は、ユーザ端末10から送られた音声データから音声信号の特徴量を抽出し、受講者が発した音声を解析するためのものである。例えば、音声解析部62は、ユーザ端末10から送られた音声データのデジタル信号解析により、音声信号の周波数、振幅、ピッチなどの音響物理情報を抽出する。これにより、受講者が発した音声のイントネーション、ストレス、アクセント、スピード等の発音についての音声特徴が抽出される。
また、音声解析部62は、ユーザ端末10から送られた音声データより抽出した音声特徴を、DB50が備えるモデル音声DB71に格納されている音声データより抽出した音声特徴と比較し、その差分を示す音声用の差分データを作成する。
【0027】
映像解析部63は、ユーザ端末10から送られた映像データから動画像あるいは静止画像の特徴量を抽出し、受講者の発話動作を解析するためのものである。例えば、映像解析部63は、色出現確率分布(色ヒストグラム)や色共起頻度分布(色コリログラム)を用いて、受講者の発話動作における唇の形や色に基づく動き特徴量を抽出する。ここで、色出現確率分布は、1フレームを構成する映像信号からなる画像中のピクセルにおいて各種の色が出現する確率の分布である。また、色共起頻度分布は、画像中の一定距離離れたピクセル間における色の組み合わせの出現確率の分布である。
あるいは、映像解析部63は、前フレームと後フレームにそれぞれブロック領域を設定し、相関の高いブロック領域の中心点を前後フレームにおける対応点として動きベクトルを推定するブロックマッチング法を用いて、受講者の発話動作における唇や舌の動きを解析してもよい。
また、映像解析部63は、ユーザ端末10から送られた映像データより抽出した特徴量を、DB50が備えるモデル映像DB72に格納されている映像データより抽出した特徴量と比較し、その差分を示す映像用の差分データを作成する。
【0028】
アドバイス作成部64は、音声解析部62が作成した音声用の差分データと、映像解析部63が作成した映像用の差分データとに基づいて、DB50が備える指導情報DB73を検索することにより、受講者を指導するためのアドバイスを作成するためのものである。
【0029】
アドバイス提供部65は、アドバイス作成部64により作成されたアドバイスを、通信インタフェース43によりネットワーク20を介してユーザ端末10へ送ることにより、ユーザ端末10にてアドバイスを受講者に提供可能とするためのものである。
【0030】
音声認識部66は、例えば所定の単語辞書を備えて構成され、ユーザ端末10から送られた音声データの特徴量に基づいて単語辞書を参照し、受講者の発声に近い単語を抽出して組み合わせることにより、受講者の発声に対応する文章を示す発話文章データを作成する。
【0031】
記憶部42は、半導体メモリやハードディスク装置、光ディスク再生装置などを含んだ外部記憶装置等から構成され、制御部41により実行される動作プログラムや各種の設定データを記憶するとともに、制御部41のワークエリアを提供する。
【0032】
通信インタフェース43は、制御部41の制御に従いネットワーク20を介してユーザ端末10との間で通信し、各種の情報を送受信するためのものである。
【0033】
また、サーバ40は、DBサーバとして、DB50をアクセスする。
DB50は、教材DB70と、モデル音声DB71と、モデル映像DB72と、指導情報DB73とを備えている。
【0034】
教材DB70は、語学学習の素材としてユーザ端末10に提供される教材データを、語学の習得レベルと対応付けて複数種類格納する。図4は、教材DB70に格納されるデータの一構成例を示す図である。
ここで、教材データには、学習対象となる言語のセンテンスである学習文例を示すテキストデータや、各学習文例を発話する際における舌や唇の模範的な動きを示す動画像データなどが含まれている。また、各教材データは、モデル音声DB71に格納されている模範的な発声を示す音声データと、モデル映像DB72に格納されている模範的な発話動作を示す映像データとに、対応付けられている。
【0035】
モデル音声DB71は、模範的な発声を示す音声資料となる音声データを格納する。
ここで、モデル音声DB71に格納される音声データは、予め語学学習の対象となる言語を母国語とするネイティブの指導者による各学習文例の発話を録音することで作成される。
【0036】
モデル映像DB72は、模範的な発声動作を示す映像資料となる映像データを格納する。
ここで、モデル映像DB72に格納される映像データは、予めネイティブの指導者による各学習文例の発話動作を撮影することで作成される。
【0037】
図5は、指導情報DB73に格納されるデータの一構成例を示す図である。
図5に示すように、指導情報DB73は、教材として提供される学習文例ごとに、複数種類の差分モデルデータを、複数種類の指導文を示す指導文データや、指導用に表示する映像資料を特定するための映像資料参照データなどと、対応付けて格納する。
【0038】
ここで、差分モデルデータは、受講者が各学習文例を発話する際に誤りやすい発話動作と、ネイティブの指導者が各学習文例を発話する場合の模範的な発話動作との差異を示すデータである。例えば、各学習文例中にある[r]の発音を[l]と発音した時の音声信号について、模範的な発声を示す音声信号との差分を取ることにより、音声用の差分モデルデータの一つが構成される。また、各学習文例中にある[r]の発音を[l]と発音する発話動作を撮影することにより作成された映像信号について、ネイティブの模範的な発話動作を撮影することにより作成された映像信号との差分を取ることにより、映像用の差分モデルデータの一つが構成される。つまり、差分モデルデータには、音声用の差分モデルデータと、映像用の差分モデルデータとが含まれている。
【0039】
また、映像資料参照データは、モデル映像DB72に格納されている映像データの参照先(例えば、アドレスや映像ID)を示すデータである。すなわち、映像資料参照データは、受講者の発話動作に含まれる誤りを修正するために適切と考えられる模範的な発話動作を示す映像データを、アドバイス作成部64により参照できるようにしている。
【0040】
以下に、この発明の実施の形態に係るオンライン教育システムの動作を説明する。
このオンライン教育システムにおいて、オンライン教育の受講者となるユーザ端末10の利用者は、ユーザ端末10のユーザインタフェース11が備えるキーボード11dからコマンドを入力したり、マウス11eの操作によりアイコンをクリックしたりするなどして、語学学習を開始する旨の指令を入力する。
語学学習を開始する旨の指令が入力されると、制御部12は、オンライン教育用の動作プログラムを記憶部13から読み出して実行する。制御部12は、記憶部13から読み出した動作プログラムに従って、例えば図6に示すような画面を、ユーザインタフェース11が備えるディスプレイ装置11cに表示させる。
【0041】
図6に示す画面には、受講者の顔を撮影した静止画像が複数表示される表示領域Daと、唇の動きを示す静止画像が複数表示される表示領域Dbと、受講者の発声を音声認識した結果がテキスト表示される表示領域Dcとが含まれている。また、図6に示す画面には、マイクロフォン11aから入力された音声の波形を表示する表示領域Ddや、教材となる学習文例やアドバイスとなるメッセージが表示される表示領域Deなどが設けられている。
【0042】
表示領域Daに表示される静止画像は、制御部12がCCDカメラ11bにより撮像された動画像から所定のタイミングでコマ映像を抽出することにより、作成される。表示領域Dbに表示される静止画像は、受講者の発話動作における唇の動きを示すもの、あるいは、模範的な発話動作における唇の動きを示すものである。
【0043】
また、制御部12は、オンライン教育用の動作プログラムを実行すると、通信インタフェース14によりネットワーク20を介してサービスプロバイダ30へアクセスし、語学学習の開始を要求する。
【0044】
サービスプロバイダ30において、ユーザ端末10から学習開始の要求を受けたとする。この場合、サーバ40において、例えば制御部41が記憶部42からオンライン教育用のアプリケーションプログラムを読み出して実行することにより、図7のフローチャートに示す処理を開始する。
【0045】
図7のフローチャートに示す処理を開始すると、制御部41は、カリキュラム設定部60により各受講者に応じた学習内容を設定する(ステップS1)。この際、カリキュラム設定部60は、受講者の自己申告や、定期的に実施されるテストの結果、あるいはユーザ端末10にて既に提供されたアドバイスの種類などに基づいて、受講者の語学能力を判定し、各受講者に応じた学習内容を設定する。カリキュラム設定部60により設定された学習内容は、教材提供部61に通知される。
【0046】
教材提供部61は、カリキュラム設定部60から通知された学習内容に対応する教材データを読み出すために、教材DB70を検索する(ステップS2)。教材提供部61により読み出された教材データは、通信インタフェース43によりネットワーク20を介してユーザ端末10へ送られる(ステップS3)。この際、教材提供部61は、ユーザ端末10へ送られる教材データに対応した模範的な発声を示す音声データを、モデル音声DB71から読み出し、教材データとともにユーザ端末10へ送るようにしてもよい。さらに、教材提供部61は、ユーザ端末10へ送られる教材データに対応した模範的な発話動作を示す映像データを、モデル映像DB72から読み出し、教材データとともにユーザ端末10へ送るようにしてもよい。
【0047】
ユーザ端末10では、制御部12がユーザインタフェース11を制御することにより、サービスプロバイダ30から送られた教材データに対応して、教材となる情報が受講者に提供される。例えば、教材データ中のテキストデータに対応する学習文例が、図6に示す画面の表示領域Deに表示される。また、教材データ中の動画像データに対応して、模範的な発話動作における舌や唇の動きが、図6に示す画面の表示領域Dbにて、所定のコマごとに静止画像として表示される。
【0048】
さらに、制御部12は、教材データとともに模範的な発声を示す音声データを受け取った場合に、その音声データで示される音声の波形を、表示領域Ddに表示させてもよい。これに加えて、制御部12は、スピーカ11fから模範的な発声を出力させてもよい。
また、制御部12は、教材データとともに模範的な発話動作を示す映像データを受け取った場合に、その映像データで示される映像を表示領域Daや表示領域Dbなどに表示させてもよい。この際、模範的な発声と模範的な発話動作を示す映像とを連携して出力させることにより、発話動作の手本をユーザ端末10にて受講者に対して提示することができる。
【0049】
ユーザ端末10において、受講者であるユーザ端末10の利用者が発話動作を行うと、ユーザインタフェース11が備えるマイクロフォン11aにより音声が取り込まれ、CCDカメラ11bでの撮影により映像が取り込まれる。制御部12は、ディスプレイ装置11cを制御することにより、マイクロフォン11aから入力された音声の波形を、表示領域Ddに表示させる。また、制御部12は、ディスプレイ装置11cを制御することにより、表示領域Daに受講者の顔を撮影した静止画像を複数表示させるとともに、表示領域Dbに受講者の発話動作における唇の動きを示す静止画像を複数表示させる。
【0050】
ユーザ端末10の制御部12は、マイクロフォン11aから入力された音声を符号化して音声データを作成し、CCDカメラ11bでの撮影により取り込まれた映像をデジタル化して映像データを作成する。こうして作成された音声データと映像データは、通信インタフェース14によりネットワーク20を介してサービスプロバイダ30へ送られる。
【0051】
ユーザ端末10から音声データと映像データを受けたサーバ40は、制御部41の音声解析部62により受講者が発した音声の解析を行い、映像解析部63によりCCDカメラ11bで撮影された映像の解析を行う(ステップS4)。
より具体的には、音声解析部62は、ユーザ端末10から送られた音声データより抽出した音声特徴を、モデル音声DB71から読み出した模範的な発声に対応する音声データより抽出した音声特徴と比較し、その差分を示す音声用の差分データを作成する。また、映像解析部63は、ユーザ端末10から送られた映像データから唇の形、色及びその動きなどを示す特徴量を抽出する。映像解析部63は、抽出した特徴量を、各コマごとにモデル映像DB72から読み出した模範的な発話動作に対応する映像データより抽出した特徴量と比較し、その差分を示す映像用の差分データを作成する。音声解析部62によって作成された音声用の差分データと、映像解析部63によって作成された映像用の差分データは、アドバイス作成部64へ送られる。
【0052】
また、音声認識部66は、ユーザ端末10から送られた音声データを用いて、受講者の発声を認識する(ステップS5)。
より具体的には、音声認識部66は、ユーザ端末10から送られた音声データの特徴量を抽出し、受講者の発声に近い単語を組み合わせることにより、受講者の発話動作に対応する文章を示す発話文章データを作成する。音声認識部66により作成された発話文章データは、通信インタフェース43によりネットワーク20を介してユーザ端末10へ送られる。
発話文章データを受けたユーザ端末10は、制御部12がユーザインタフェース11のディスプレイ装置11cを制御することにより、発話文章データに示される文章を、図6に示す画面の表示領域Dcにテキスト表示させる。
【0053】
アドバイス作成部64は、音声解析部62と映像解析部63から受け取った差分データに基づいて、受講者を指導するためのアドバイスを作成する(ステップS6)。
より具体的には、アドバイス作成部64は、音声解析部62から受け取った音声用の差分データと、映像解析部63から受け取った映像用の差分データとを、それぞれ指導情報DB73に格納された差分モデルデータと比較する。この際、アドバイス作成部64は、上記ステップS2にてユーザ端末10へ送られた教材データの学習文例に分類されている複数種類の差分モデルデータを順次指導情報DB73から読み出す。読み出された差分モデルデータに含まれる音声用の差分モデルデータは、音声解析部62により作成された音声用の差分データと比較される。読み出された差分モデルデータに含まれる映像用の差分モデルデータは、映像解析部63により作成された映像用の差分データと比較される。
【0054】
この比較の結果、アドバイス作成部64は、音声解析部62と映像解析部63から受け取った差分データに最も近似する(差異の少ない)差分モデルデータを特定する。アドバイス作成部64は、特定した差分モデルデータと対応づけて記憶されている指導文データ及び映像資料参照データを読み取る。アドバイス作成部64は、映像資料参照データに示される参照先、すなわちモデル映像DB72から映像データを読み出し、指導文データと組み合わせてアドバイスを構成する。
また、アドバイス作成部64は、音声用及び映像用の差分データが所定の適正範囲内である場合には、例えば「パーフェクト!!」などといったメッセージを、アドバイスとして作成する。
【0055】
アドバイス作成部64によって作成されたアドバイスは、アドバイス提供部65に送られる。
アドバイス提供部65は、アドバイス作成部64により作成されたアドバイスを、通信インタフェース43によりネットワーク20を介してユーザ端末10へ送る(ステップS7)。
【0056】
指導文データと模範的な発話動作を示す映像データとからなるアドバイスを受け取ったユーザ端末10において、制御部12がユーザインタフェース11を制御することにより、受講者を指導するためのアドバイスを出力させる。
例えば、制御部12は、ディスプレイ装置11cを制御することにより、指導文データで示される指導文を図6に示す画面の表示領域Deに表示させる。さらに、制御部12は、ディスプレイ装置11cを制御することにより、アドバイスに含まれる映像データで示される模範的な発話動作の映像を、表示領域Daや表示領域Dbなどに表示させてもよい。
また、制御部12は、スピーカ11fを制御することにより、指導文データで示される指導文を、音声として出力させてもよい。
【0057】
この後、処理は上記ステップS1へリターンする。
すなわち、カリキュラム設定部60は、上記ステップS7にてアドバイス提供部65がユーザ端末10へ送ったアドバイスの種類に基づいて、受講者の語学能力を判定し、受講者の語学能力にあわせた学習内容を設定する。
【0058】
また、ユーザ端末10にて、受講者がキーボード11dやマウス11eを操作することにより、語学学習を終了する旨の指令が入力されると、学習終了の要求がユーザ端末10からサービスプロバイダ30へ送られて、図6のフローチャートに示す処理が終了される。
こうして、受講者が希望する時間にユーザ端末10を操作してサービスプロバイダ30へアクセスすることで、指導者がいなくても対話性のある語学教育を受けることができる。
【0059】
以上説明したように、この発明によれば、受講者の語学能力に応じた学習内容が設定され、模範的な発声や、模範的な発話動作をユーザ端末10にて出力させることができる。さらに、受講者の発話動作と模範的な発話動作との差異に応じて、受講者を指導するための適切なアドバイスを、ユーザ端末10にて出力させることができる。
これにより、効率よく受講者に語学教育を施すことができる。
【0060】
この発明は、上記実施の形態に限定されず、様々な変形及び応用が可能である。
上記実施の形態では、ネットワーク20を介してユーザ端末10とサービスプロバイダ30とが互いに接続されたオンライン教育システムについて説明した。しかしながら、この発明はこれに限定されるものではなく、例えば1台(スタンドアローン)のコンピュータシステムが、上述したユーザ端末10とサーバ40及びDB50の機能を備えるようにしてもよい。すなわち、1台のコンピュータシステムに設けられたCPUが、所定の記憶装置に記憶されている動作プログラムを実行することにより、上述したユーザ端末10の制御部12及びサーバ40の制御部41と同様に動作するようにしてもよい。
【0061】
また、上記実施の形態では、音声解析部62が作成した音声用の差分データと、映像解析部63が作成した映像用の差分データの両方を用いて、アドバイス作成部64がアドバイスを作成するものとして説明した。しかしながら、この発明はこれに限定されず、音声用の差分データと映像用の差分データのいずれか一方のみを用いて、アドバイスを作成するようにしてもよい。すなわち、アドバイス作成部64は、音声解析部62から受け取った音声用の差分データと指導情報DB73に格納された差分モデルデータとの比較結果、あるいは、映像解析部63から受け取った映像用の差分データと指導情報DBに格納された差分モデルデータとの比較結果のいずれか一方のみに従って、指導文データ及び映像資料参照データを読み取るようにしてもよい。
【0062】
コンピュータ又はコンピュータ群を、上述のオンライン教育システムとして機能させ、あるいは、上述の処理を実行させるために必要な動作プログラムの全部又は一部を、記録媒体(ICメモリ、光ディスク、磁気ディスク、光磁気ディスク)等に記録して、配布・流通させてもよい。また、インターネット上のFTP(File Transfer Protocol)サーバに上述の動作プログラムを格納しておき、例えば搬送波などに重畳して、コンピュータシステムにダウンロードしてインストール等するようにしてもよい。
【0063】
【発明の効果】
このように、この発明によれば、効率よく受講者に語学教育を施すことができる。
【図面の簡単な説明】
【図1】この発明の実施の形態に係るオンライン教育システムの構成を示す図である。
【図2】ユーザ端末の構成を示す図である。
【図3】サービスプロバイダの構成を示す図である。
【図4】教材DBに格納されるデータの一構成例を示す図である。
【図5】指導情報DBに格納されるデータの一構成例を示す図である。
【図6】ディスプレイ装置に表示される画面の一例を示す図である。
【図7】サーバが実行する処理を説明するためのフローチャートである。
【符号の説明】
10 ユーザ端末
20 ネットワーク
30 サービスプロバイダ
40 サーバ
50 データベース(DB)
60 カリキュラム設定部
61 教材提供部
62 音声解析部
63 映像解析部
64 アドバイス作成部
65 アドバイス提供部
66 音声認識部
70 教材DB
71 モデル音声DB
72 モデル映像DB
73 指導情報DB[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an education system that supports students' learning using a computer or the like, and more particularly, to an online education system capable of implementing language education for students online.
[0002]
[Prior art]
In order to learn a language, it is important to improve the ability to understand the meaning of each word and sentence after acquiring the ability to recognize the other party's story and pronounce correctly. Conventionally, language learning has been performed by a method of understanding grammar from letters using a book or the like. In recent years, language schools and the like, in which a native instructor whose native language is a specific language, provides guidance according to the proficiency of the student through dialogue with the student, have been run as a business. Furthermore, some of these language schools provide services that enable language education between remote locations using a communication system such as that disclosed in
[0003]
[Patent Document 1]
JP-A-11-220707
[0004]
[Problems to be solved by the invention]
In order to learn a language quickly, it is desirable to learn basic skills through a word-by-word or general spoken language under a professional instructor and acquire it in a natural way. However, in order for the instructor to educate face-to-face with the trainee, the time and place must be coordinated and reserved.
In this regard, according to the technology disclosed in
[0005]
However, even with the technique disclosed in
[0006]
The present invention has been made in view of the above circumstances, and has as its object to provide an online education system capable of efficiently providing language education to students.
[0007]
[Means for Solving the Problems]
An online education system according to a first aspect of the present invention is an online education system including a terminal device and a server device connected to each other via a network, and includes a model voice that stores voice data indicating an exemplary voice. A database, a model video database that stores video data obtained by capturing an exemplary utterance operation, a guidance information database that stores a plurality of types of guidance information, and audio data indicating the utterance of the student generated by the terminal device, Compared with the audio data stored in the model audio database, audio analysis means for generating an analysis result indicating the difference, the video data generated by the terminal device by capturing the utterance operation of the student, Compares with the video data stored in the model video database and generates an analysis result indicating the difference. Video analysis means, advice creation means for reading guidance information corresponding to the analysis results of the audio analysis means and the video analysis means from the guidance information database to create advice, and providing the advice created by the advice creation means And an advice providing unit for outputting the information on a terminal device.
[0008]
According to the present invention, a comparison result between audio data indicating a student's utterance and audio data indicating an exemplary utterance stored in the model audio database, and video data of a utterance operation of the student are taken. Then, an advice corresponding to a comparison result with video data of a typical utterance operation stored in the model video database and captured is created. The created advice is output by the terminal device, and the language education can be efficiently provided to the student.
[0009]
An information processing apparatus according to a second aspect of the present invention includes: a voice input unit that captures a utterance of a student; an imaging unit that captures a utterance operation of the student; a voice output unit; a display unit; A model voice database that stores voice data indicating model data, a model video database that stores video data obtained by capturing exemplary speech operations, a guidance information database that stores a plurality of types of guidance information, and stored in the model voice database. Model providing means for reading out the voice data being read and outputting an exemplary voice from the voice output means, and recognizing the voice of the student taken in by the voice input means, and a sentence corresponding to the voice of the student. Voice recognition means for displaying the image data on the display means, and video data created by the photographing of the image capturing means in the model video database. Video analysis means for comparing with the video data being processed and generating an analysis result indicating the difference, and advice creating means for reading guidance information corresponding to the analysis result of the video analysis means from the guidance information database and creating advice And advice providing means for outputting the advice created by the advice creating means by at least one of the audio output means and the display means.
[0010]
According to the present invention, the advice corresponding to the comparison result between the video data of the utterance operation of the student and the video data of the exemplary utterance operation stored in the model video database is created. The created advice is output from at least one of the audio output unit and the display unit. Also, by reading out the voice data stored in the model voice database, a typical voice is output from the voice output means. Further, the utterance of the student is recognized, and a sentence corresponding to the utterance of the student is displayed on the display means.
Thereby, the language education can be efficiently provided to the students.
[0011]
The model providing unit includes a unit that reads out video data stored in the model video database and causes the display unit to display an image of an exemplary utterance operation. An image of the utterance operation by the person may be displayed.
[0012]
An information processing apparatus according to a third aspect of the present invention is an information processing apparatus connected to a terminal device via a network, and includes: a model voice database storing voice data indicating a typical voice; A model video database that stores video data obtained by capturing the utterance operation, a guidance information database that stores a plurality of types of guidance information, and by reading the audio data stored in the model voice database and sending it to the terminal device, Model providing means for outputting an exemplary utterance in the terminal device, and recognizes the utterance of the student from the voice data sent from the terminal device, and displays a sentence corresponding to the utterance of the student on the terminal device. Voice recognition means for causing the video data transmitted from the terminal device to be the video data stored in the model video database. A video analysis means for generating an analysis result indicating the difference, an advice creation means for reading guidance information corresponding to the analysis result of the video analysis means from the guidance information database and creating an advice, and the advice creation means And an advice providing unit that outputs advice for instructing a student at the terminal device by sending the advice created by the above to the terminal device.
[0013]
According to a fourth aspect of the present invention, there is provided an information providing method, wherein a computer system including a model voice database, a model video database, and a guidance information database stores voice data indicating an exemplary utterance in the model voice database. Storing video data of an exemplary utterance operation in the model video database, storing a plurality of types of guidance information in the guidance information database, reading audio data stored in the model voice database, Output a typical utterance, recognize the utterance of the student, display a sentence corresponding to the utterance of the student, video data created by shooting the utterance operation of the student, the model video database Compared with the stored video data, the difference is used as the analysis result, and guidance information corresponding to the analysis result is provided. Create advice read from the serial guidance information database, and outputs the advice was created by the video and / or audio.
[0014]
A program according to a fifth aspect of the present invention is a computer-readable storage medium storing a computer, comprising: a voice input unit that captures a utterance of a student; an imaging unit that captures a utterance operation of the student; a voice output unit; A model voice database that stores voice data indicating utterances, a model video database that stores video data obtained by capturing exemplary voice actions, a guidance information database that stores a plurality of types of guidance information, and stored in the model voice database. Model providing means for reading out the voice data that has been input and outputting an exemplary voice from the voice output means, and recognizing the voice of the student taken in by the voice input means, and responding to the voice of the student. Voice recognition means for displaying a sentence on the display means, and video data created by photographing by the imaging means, A video analysis unit that compares the video data stored in the database and generates an analysis result indicating the difference, and reads guidance information corresponding to the analysis result of the video analysis unit from the guidance information database to create an advice An advice creating unit and an advice providing unit that outputs the advice created by the advice creating unit by at least one of the audio output unit and the display unit.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an online education system according to an embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing a configuration of an online education system according to an embodiment of the present invention.
As shown in FIG. 1, the online education system according to the embodiment of the present invention includes a
[0016]
The
FIG. 2 is a diagram illustrating a configuration of the
As shown in FIG. 2, the
[0017]
The
[0018]
The
[0019]
The
[0020]
The
[0021]
As shown in FIG. 3, the
The server 40 has, for example, a function as an application server and a function as a database server. Note that the server 40 does not need to be physically configured by one computer system, and may be configured by using a plurality of computers.
[0022]
The server 40 accepts access from the
[0023]
The
[0024]
The
[0025]
The teaching
[0026]
The
Further, the
[0027]
The video analyzing unit 63 extracts a feature amount of a moving image or a still image from the video data transmitted from the
Alternatively, the video analysis unit 63 sets a block area in each of the previous frame and the subsequent frame, and uses the block matching method of estimating a motion vector using the center point of the highly correlated block area as a corresponding point in the previous and next frames. The movements of the lips and tongue in the utterance movement of may be analyzed.
In addition, the video analysis unit 63 compares the feature amount extracted from the video data sent from the
[0028]
The
[0029]
The advice providing unit 65 transmits the advice created by the
[0030]
The voice recognition unit 66 includes, for example, a predetermined word dictionary, refers to the word dictionary based on the feature amount of the voice data sent from the
[0031]
The storage unit 42 is configured from an external storage device including a semiconductor memory, a hard disk device, an optical disk playback device, and the like. The storage unit 42 stores an operation program executed by the
[0032]
The
[0033]
The server 40 accesses the DB 50 as a DB server.
The DB 50 includes a
[0034]
The
Here, the teaching material data includes text data indicating a learning sentence example, which is a sentence of the language to be learned, and moving image data indicating exemplary movements of the tongue and lips when uttering each learning sentence example. ing. Each teaching material data is associated with audio data indicating an exemplary utterance stored in the
[0035]
The
Here, the voice data stored in the
[0036]
The
Here, the video data stored in the
[0037]
FIG. 5 is a diagram illustrating a configuration example of data stored in the guidance information DB 73.
As shown in FIG. 5, the guidance information DB 73 stores, for each learning sentence example provided as a teaching material, a plurality of types of difference model data, guidance text data indicating a plurality of types of guidance sentences, and video materials displayed for guidance. It is stored in association with video reference data or the like for identification.
[0038]
Here, the difference model data is data indicating a difference between a speech operation that is likely to be erroneous when a student utters each learning sentence example and an exemplary speech operation when a native instructor utters each learning sentence example. is there. For example, by taking a difference between a voice signal when a pronunciation of [r] in each learning sentence is pronounced as [l] and a voice signal indicating a typical utterance, one of the difference model data for voice is obtained. One is configured. In addition, with respect to a video signal generated by capturing an utterance operation in which the pronunciation of [r] in each learning sentence example is pronounced as [l], a video created by capturing a native exemplary utterance operation By taking the difference from the signal, one of the difference model data for video is formed. That is, the difference model data includes difference model data for audio and difference model data for video.
[0039]
The video material reference data is data indicating a reference destination (for example, an address or a video ID) of video data stored in the
[0040]
Hereinafter, the operation of the online education system according to the embodiment of the present invention will be described.
In this online education system, a user of the
When a command to start language learning is input, the
[0041]
The screen shown in FIG. 6 includes a display area Da in which a plurality of still images of the student's face are displayed, a display area Db in which a plurality of still images indicating the movement of the lips are displayed, and voices of the student. And a display area Dc in which the recognized result is displayed in text. The screen shown in FIG. 6 is provided with a display area Dd for displaying a waveform of a voice input from the microphone 11a, a display area De for displaying a learning sentence example as a teaching material and a message as an advice, and the like. .
[0042]
The still image displayed in the display area Da is created by the
[0043]
Further, when executing the operation program for online education, the
[0044]
It is assumed that the
[0045]
When the process shown in the flowchart of FIG. 7 is started, the
[0046]
The learning
[0047]
In the
[0048]
Further, when receiving the voice data indicating the exemplary utterance together with the teaching material data, the
Further, when the
[0049]
In the
[0050]
The
[0051]
The server 40, which has received the audio data and the video data from the
More specifically, the
[0052]
Further, the voice recognition unit 66 recognizes the utterance of the student using the voice data transmitted from the user terminal 10 (step S5).
More specifically, the voice recognition unit 66 extracts a feature amount of the voice data sent from the
The
[0053]
The
More specifically, the
[0054]
As a result of this comparison, the
If the difference data for audio and video is within a predetermined appropriate range, the
[0055]
The advice created by the
The advice providing unit 65 sends the advice created by the
[0056]
The
For example, the
Further, the
[0057]
Thereafter, the process returns to step S1.
That is, the
[0058]
When the student operates the
Thus, by operating the
[0059]
As described above, according to the present invention, the learning content according to the student's language ability is set, and the
Thereby, the language education can be efficiently provided to the students.
[0060]
The present invention is not limited to the above embodiment, and various modifications and applications are possible.
In the above embodiment, the online education system in which the
[0061]
Further, in the above embodiment, the
[0062]
A computer or a group of computers functions as the above-mentioned online education system, or all or a part of an operation program necessary for executing the above-mentioned processing is stored in a recording medium (IC memory, optical disk, magnetic disk, magneto-optical disk ) May be recorded and distributed / distributed. Further, the above-described operation program may be stored in an FTP (File Transfer Protocol) server on the Internet, and may be superimposed on, for example, a carrier wave, downloaded to a computer system, and installed.
[0063]
【The invention's effect】
As described above, according to the present invention, language education can be efficiently provided to a student.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an online education system according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a configuration of a user terminal.
FIG. 3 is a diagram showing a configuration of a service provider.
FIG. 4 is a diagram illustrating a configuration example of data stored in a teaching material DB;
FIG. 5 is a diagram illustrating a configuration example of data stored in a guidance information DB.
FIG. 6 is a diagram illustrating an example of a screen displayed on a display device.
FIG. 7 is a flowchart illustrating a process executed by a server.
[Explanation of symbols]
10 User terminal
20 Network
30 Service Provider
40 servers
50 Database (DB)
60 Curriculum setting section
61 Teaching Material Provision Department
62 Voice Analysis Unit
63 Video analysis unit
64 Advice Creation Department
65 Advice Provision Department
66 Voice Recognition Unit
70 Teaching Material DB
71 Model Voice DB
72 Model Video DB
73 Guidance Information DB
Claims (6)
模範的な発声を示す音声データを格納するモデル音声データベースと、
模範的な発話動作を撮影した映像データを格納するモデル映像データベースと、
複数種類の指導情報を格納する指導情報データベースと、
前記端末装置が生成した受講者の発声を示す音声データを、前記モデル音声データベースに格納されている音声データと比較し、その差分を示す解析結果を生成する音声解析手段と、
受講者の発話動作を撮影することにより前記端末装置が生成した映像データを、前記モデル映像データベースに格納されている映像データと比較し、その差分を示す解析結果を生成する映像解析手段と、
前記指導情報データベースから前記音声解析手段及び前記映像解析手段の解析結果に対応する指導情報を読み出してアドバイスを作成するアドバイス作成手段と、
前記アドバイス作成手段により作成されたアドバイスを前記端末装置にて出力させるアドバイス提供手段とを備える
ことを特徴とするオンライン教育システム。An online education system including a terminal device and a server device connected to each other via a network,
A model voice database storing voice data indicating exemplary utterances,
A model video database that stores video data of exemplary speech actions,
A guidance information database storing a plurality of types of guidance information,
Speech analysis means for comparing the speech data indicating the utterance of the student generated by the terminal device with the speech data stored in the model speech database, and generating an analysis result indicating the difference,
Video analysis means for comparing the video data generated by the terminal device by capturing the utterance operation of the student with the video data stored in the model video database, and generating an analysis result indicating the difference,
Advice creation means for creating guidance by reading guidance information corresponding to the analysis result of the audio analysis means and the video analysis means from the guidance information database,
An online education system comprising: an advice providing unit that outputs the advice created by the advice creating unit to the terminal device.
受講者の発話動作を撮影する撮像手段と、
音声出力手段と、
表示手段と、
模範的な発声を示す音声データを格納するモデル音声データベースと、
模範的な発話動作を撮影した映像データを格納するモデル映像データベースと、
複数種類の指導情報を格納する指導情報データベースと、
前記モデル音声データベースに格納されている音声データを読み出して、前記音声出力手段から模範的な発声を出力させるモデル提供手段と、
前記音声入力手段により取り込まれた受講者の発声を認識して、受講者の発声に対応する文章を前記表示手段に表示させる音声認識手段と、
前記撮像手段の撮影により作成された映像データを、前記モデル映像データベースに格納されている映像データと比較し、その差分を示す解析結果を生成する映像解析手段と、
前記指導情報データベースから前記映像解析手段の解析結果に対応する指導情報を読み出してアドバイスを作成するアドバイス作成手段と、
前記アドバイス作成手段により作成されたアドバイスを、前記音声出力手段と前記表示手段の少なくともいずれか一方により出力させるアドバイス提供手段とを備える
ことを特徴とする情報処理装置。Voice input means for capturing the utterance of the student,
Imaging means for photographing the utterance action of the student;
Audio output means;
Display means;
A model voice database storing voice data indicating exemplary utterances,
A model video database that stores video data of exemplary speech actions,
A guidance information database storing a plurality of types of guidance information,
A model providing unit that reads out audio data stored in the model audio database and outputs an exemplary utterance from the audio output unit;
Voice recognition means for recognizing the utterance of the student taken in by the voice input means and displaying a sentence corresponding to the utterance of the student on the display means;
Video analysis means for comparing the video data created by the imaging of the imaging means with the video data stored in the model video database and generating an analysis result indicating the difference,
Advice creation means for creating guidance by reading guidance information corresponding to the analysis result of the video analysis means from the guidance information database;
An information processing apparatus comprising: an advice providing unit configured to output an advice created by the advice creating unit by at least one of the voice output unit and the display unit.
前記表示手段は、前記撮像手段が撮影した受講者による発話動作の画像を表示する
ことを特徴とする請求項2に記載の情報処理装置。The model providing means includes means for reading out video data stored in the model video database and displaying an image of an exemplary utterance operation on the display means,
The information processing apparatus according to claim 2, wherein the display unit displays an image of the utterance operation of the student photographed by the imaging unit.
模範的な音声を示す音声データを格納するモデル音声データベースと、
模範的な発声動作を撮影した映像データを格納するモデル映像データベースと、
複数種類の指導情報を格納する指導情報データベースと、
前記モデル音声データベースに格納されている音声データを読み出して前記端末装置へ送ることにより、前記端末装置にて模範的な発声を出力させるモデル提供手段と、
前記端末装置から送られた音声データから受講者の発声を認識して、受講者の発声に対応する文章を前記端末装置に表示させる音声認識手段と、
前記端末装置から送られた映像データを、前記モデル映像データベースに格納されている映像データと比較し、その差分を示す解析結果を生成する映像解析手段と、
前記指導情報データベースから前記映像解析手段の解析結果に対応する指導情報を読み出してアドバイスを作成するアドバイス作成手段と、
前記アドバイス作成手段により作成されたアドバイスを前記端末装置へ送ることにより、前記端末装置にて受講者を指導するためのアドバイスを出力させるアドバイス提供手段とを備える
ことを特徴とする情報処理装置。An information processing device connected to a terminal device via a network,
A model voice database storing voice data indicating exemplary voices,
A model video database that stores video data of exemplary voice actions,
A guidance information database storing a plurality of types of guidance information,
A model providing unit that reads out the audio data stored in the model audio database and sends it to the terminal device, so that the terminal device outputs an exemplary utterance,
Voice recognition means for recognizing the utterance of the student from the voice data sent from the terminal device, and displaying a sentence corresponding to the utterance of the student on the terminal device,
Video analysis means for comparing the video data sent from the terminal device with video data stored in the model video database and generating an analysis result indicating the difference,
Advice creation means for creating guidance by reading guidance information corresponding to the analysis result of the video analysis means from the guidance information database;
An information processing apparatus, comprising: an advice providing unit configured to output advice for instructing a student on the terminal device by sending the advice created by the advice creating unit to the terminal device.
模範的な発声を示す音声データを前記モデル音声データベースに格納し、
模範的な発話動作を撮影した映像データを前記モデル映像データベースに格納し、
複数種類の指導情報を前記指導情報データベースに格納し、
前記モデル音声データベースに格納されている音声データを読み出して、模範的な発声を出力し、
受講者の発声を認識して、受講者の発声に対応する文章を表示し、
受講者の発話動作を撮影することにより作成された映像データを、前記モデル映像データベースに格納されている映像データと比較して、その差分を解析結果とし、
解析結果に対応する指導情報を前記指導情報データベースから読み出してアドバイスを作成し、
作成されたアドバイスを映像及び/又は音声にて出力する
ことを特徴とする情報提供方法。A computer system comprising a model audio database, a model video database, and a guidance information database,
Speech data indicating an exemplary utterance is stored in the model speech database,
Storing video data of an exemplary utterance operation in the model video database,
Store a plurality of types of guidance information in the guidance information database,
Read the voice data stored in the model voice database, output an exemplary utterance,
Recognize the student's utterance, display the text corresponding to the student's utterance,
The video data created by capturing the student's utterance operation is compared with the video data stored in the model video database, and the difference is used as an analysis result.
The guidance information corresponding to the analysis result is read from the guidance information database to create an advice,
An information providing method characterized by outputting the created advice in video and / or audio.
受講者の発声を取り込む音声入力手段と、
受講者の発話動作を撮影する撮像手段と、
音声出力手段と、
表示手段と、
模範的な発声を示す音声データを格納するモデル音声データベースと、
模範的な発話動作を撮影した映像データを格納するモデル映像データベースと、
複数種類の指導情報を格納する指導情報データベースと、
前記モデル音声データベースに格納されている音声データを読み出して、前記音声出力手段から模範的な発声を出力させるモデル提供手段と、
前記音声入力手段により取り込まれた受講者の発声を認識して、受講者の発声に対応する文章を前記表示手段に表示させる音声認識手段と、
前記撮像手段の撮影により作成された映像データを、前記モデル映像データベースに格納されている映像データと比較し、その差分を示す解析結果を生成する映像解析手段と、
前記指導情報データベースから前記映像解析手段の解析結果に対応する指導情報を読み出してアドバイスを作成するアドバイス作成手段と、
前記アドバイス作成手段により作成されたアドバイスを、前記音声出力手段と前記表示手段の少なくともいずれか一方により出力させるアドバイス提供手段
として機能させるためのプログラム。Computer
Voice input means for capturing the utterance of the student,
Imaging means for photographing the utterance action of the student;
Audio output means;
Display means;
A model voice database storing voice data indicating exemplary utterances,
A model video database that stores video data of exemplary speech actions,
A guidance information database storing a plurality of types of guidance information,
A model providing unit that reads out audio data stored in the model audio database and outputs an exemplary utterance from the audio output unit;
Voice recognition means for recognizing the utterance of the student taken in by the voice input means and displaying a sentence corresponding to the utterance of the student on the display means;
Video analysis means for comparing the video data created by the imaging of the imaging means with the video data stored in the model video database and generating an analysis result indicating the difference,
Advice creation means for creating guidance by reading guidance information corresponding to the analysis result of the video analysis means from the guidance information database;
A program for functioning as advice providing means for outputting the advice created by the advice creating means by at least one of the audio output means and the display means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002260132A JP3930402B2 (en) | 2002-09-05 | 2002-09-05 | ONLINE EDUCATION SYSTEM, INFORMATION PROCESSING DEVICE, INFORMATION PROVIDING METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002260132A JP3930402B2 (en) | 2002-09-05 | 2002-09-05 | ONLINE EDUCATION SYSTEM, INFORMATION PROCESSING DEVICE, INFORMATION PROVIDING METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004101637A true JP2004101637A (en) | 2004-04-02 |
JP3930402B2 JP3930402B2 (en) | 2007-06-13 |
Family
ID=32260935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002260132A Expired - Fee Related JP3930402B2 (en) | 2002-09-05 | 2002-09-05 | ONLINE EDUCATION SYSTEM, INFORMATION PROCESSING DEVICE, INFORMATION PROVIDING METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3930402B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006079624A (en) * | 2004-09-09 | 2006-03-23 | At & T Corp | System and method for reporting information from automated dialog system |
JP2008257381A (en) * | 2007-04-03 | 2008-10-23 | Sony Corp | Information analyzing system, information analyzing device, information analyzing method, information analyzing program, and recording medium |
WO2016114261A3 (en) * | 2015-01-13 | 2016-09-09 | 株式会社ジェネックスソリューションズ | Autonomous learning system using video/audio clips |
JP2019157357A (en) * | 2018-03-07 | 2019-09-19 | アイシン精機株式会社 | Door opening/closing device for vehicle |
CN110890095A (en) * | 2019-12-26 | 2020-03-17 | 北京大米未来科技有限公司 | Voice detection method, recommendation method, device, storage medium and electronic equipment |
CN113012503A (en) * | 2021-03-15 | 2021-06-22 | 黄留锁 | Teaching system based on multi-parameter acquisition |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2022158099A1 (en) * | 2021-01-21 | 2022-07-28 |
-
2002
- 2002-09-05 JP JP2002260132A patent/JP3930402B2/en not_active Expired - Fee Related
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006079624A (en) * | 2004-09-09 | 2006-03-23 | At & T Corp | System and method for reporting information from automated dialog system |
US8086462B1 (en) | 2004-09-09 | 2011-12-27 | At&T Intellectual Property Ii, L.P. | Automatic detection, summarization and reporting of business intelligence highlights from automated dialog systems |
US8589172B2 (en) | 2004-09-09 | 2013-11-19 | At&T Intellectual Property Ii, L.P. | Automatic detection, summarization and reporting of business intelligence highlights from automated dialog systems |
JP2008257381A (en) * | 2007-04-03 | 2008-10-23 | Sony Corp | Information analyzing system, information analyzing device, information analyzing method, information analyzing program, and recording medium |
WO2016114261A3 (en) * | 2015-01-13 | 2016-09-09 | 株式会社ジェネックスソリューションズ | Autonomous learning system using video/audio clips |
JPWO2016114261A1 (en) * | 2015-01-13 | 2017-04-27 | 株式会社ジェネックスソリューションズ | Autonomous learning system using video and audio clips |
CN107210001A (en) * | 2015-01-13 | 2017-09-26 | 株式会社金尼克斯解决方案 | Use the autonomous learning systems of video segment |
CN107210001B (en) * | 2015-01-13 | 2020-03-24 | 科力普莱恩株式会社 | Autonomous learning system using video clips |
JP2019157357A (en) * | 2018-03-07 | 2019-09-19 | アイシン精機株式会社 | Door opening/closing device for vehicle |
CN110890095A (en) * | 2019-12-26 | 2020-03-17 | 北京大米未来科技有限公司 | Voice detection method, recommendation method, device, storage medium and electronic equipment |
CN113012503A (en) * | 2021-03-15 | 2021-06-22 | 黄留锁 | Teaching system based on multi-parameter acquisition |
Also Published As
Publication number | Publication date |
---|---|
JP3930402B2 (en) | 2007-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6377925B1 (en) | Electronic translator for assisting communications | |
Bain et al. | Speech recognition in university classrooms: Liberated learning project | |
US9478143B1 (en) | Providing assistance to read electronic books | |
JP6705956B1 (en) | Education support system, method and program | |
US11145222B2 (en) | Language learning system, language learning support server, and computer program product | |
JP2001159865A (en) | Method and device for leading interactive language learning | |
JP3930402B2 (en) | ONLINE EDUCATION SYSTEM, INFORMATION PROCESSING DEVICE, INFORMATION PROVIDING METHOD, AND PROGRAM | |
CN113223555A (en) | Video generation method and device, storage medium and electronic equipment | |
KR20140087956A (en) | Apparatus and method for learning phonics by using native speaker's pronunciation data and word and sentence and image data | |
JP2006030513A (en) | Education support device and education information managing server | |
Tiwari et al. | Audio to Sign Language Converter | |
KR20220009180A (en) | Teminal for learning language, system and method for learning language using the same | |
JP6172770B2 (en) | Abstract writing support system, information distribution apparatus, abstract writing support method, and program | |
CN111415662A (en) | Method, apparatus, device and medium for generating video | |
JPH0756494A (en) | Pronunciation training device | |
CN115905475A (en) | Answer scoring method, model training method, device, storage medium and equipment | |
KR102260280B1 (en) | Method for studying both foreign language and sign language simultaneously | |
KR20160086152A (en) | English trainning method and system based on sound classification in internet | |
US20240347045A1 (en) | Information processing device, information processing method, and program | |
KR102019613B1 (en) | Method for learning and practicing pronunciation based on tongue movement | |
Mehta et al. | Evolution in Automated Translator for Real Time Voice to Sign Language Transformation for the Deaf and Dumb People | |
Alzubaidi et al. | Discussion-facilitator: towards enabling students with hearing disabilities to participate in classroom discussions | |
Wang et al. | Research on Innovative Teaching Path of English Literature in Colleges and Universities Based on Multimodal Discourse Analysis | |
TWI227449B (en) | Match-making system and method for on-line language learning | |
KR20140087953A (en) | Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050401 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070308 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110316 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120316 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130316 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140316 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |