図1は、対話システムの構成例を示す。対話システム101は、例えば、対話装置102、タッチパネル103、及び生体情報計測器104を含む。対話装置102は、例えば、プロセッサ(CPU)121、補助記憶装置105、メモリ106、入出力インタフェース122、及び通信インタフェース123を含む計算機によって構成される。
Fig. 1 shows a configuration example of a dialogue system. The dialogue system 101 includes, for example, a dialogue device 102, a touch panel 103, and a biological information measuring instrument 104. The interactive device 102 is configured by a computer including a processor (CPU) 121, an auxiliary storage device 105, a memory 106, an input / output interface 122, and a communication interface 123, for example.
プロセッサ121は、メモリ106に格納されたプログラムを実行する。メモリ106は、不揮発性の記憶素子であるROM及び揮発性の記憶素子であるRAMを含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子であり、プロセッサ121が実行するプログラム及びプログラムの実行時に使用されるデータを一時的に格納する。
The processor 121 executes a program stored in the memory 106. The memory 106 includes a ROM that is a nonvolatile storage element and a RAM that is a volatile storage element. The ROM stores an immutable program (for example, BIOS). The RAM is a high-speed and volatile storage element such as a DRAM (Dynamic Random Access Memory), and temporarily stores a program executed by the processor 121 and data used when the program is executed.
補助記憶装置105は、例えば、磁気記憶装置(HDD)、フラッシュメモリ(SSD)等の大容量かつ不揮発性の記憶装置であり、プロセッサ121が実行するプログラム及びプログラムの実行時に使用されるデータを格納する。
The auxiliary storage device 105 is a large-capacity non-volatile storage device such as a magnetic storage device (HDD) or a flash memory (SSD), and stores a program executed by the processor 121 and data used when the program is executed. To do.
入出力インタフェース122は、タッチパネル103などが接続され、オペレータ等からの入力を受け、プログラムの実行結果をオペレータ等が視認可能な形式で出力するインタフェースである。タッチパネル103は、ユーザからの文字入力及び音声入力を受け付け、文字情報及び音声情報を出力する。入出力インタフェース122には、キーボード、マウス、及びマイク等の入力装置、並びにディスプレイ装置、プリンタ、及びスピーカ等の出力装置が接続されてもよい。
The input / output interface 122 is an interface to which the touch panel 103 or the like is connected, receives an input from an operator or the like, and outputs the execution result of the program in a format that can be visually recognized by the operator or the like. The touch panel 103 receives character input and voice input from the user, and outputs character information and voice information. The input / output interface 122 may be connected to input devices such as a keyboard, a mouse, and a microphone, and output devices such as a display device, a printer, and a speaker.
通信インタフェース123は、所定のプロトコルに従って、他の装置との通信を制御するネットワークインタフェース装置である。また、通信インタフェース123は、例えば、USB等のシリアルインタフェースを含む。通信インタフェース123には、例えば、ユーザの生体情報を計測する生体情報計測器104が接続される。近赤外分光法により脳機能の一例である脳血液量変化を計測する機器、は生体情報計測器104の一例である。また、生体情報計測器104は、例えば、磁場計測等の別の計測法により脳機能情報を取得してもよい。
The communication interface 123 is a network interface device that controls communication with other devices according to a predetermined protocol. The communication interface 123 includes a serial interface such as USB. For example, the communication interface 123 is connected to the biological information measuring instrument 104 that measures the biological information of the user. A device that measures a change in cerebral blood volume, which is an example of a brain function by near infrared spectroscopy, is an example of the biological information measuring device 104. Moreover, the biological information measuring device 104 may acquire brain function information by another measurement method such as magnetic field measurement.
プロセッサ121が実行するプログラムは、リムーバブルメディア(CD-ROM、フラッシュメモリなど)又はネットワークを介して対話装置102に提供され、非一時的記憶媒体である不揮発性の補助記憶装置105に格納されてもよい。このため、対話装置102は、リムーバブルメディアからデータを読み込むインタフェースを有するとよい。
The program executed by the processor 121 is provided to the interactive device 102 via a removable medium (CD-ROM, flash memory, etc.) or a network, and is stored in the nonvolatile auxiliary storage device 105 that is a non-temporary storage medium. Good. For this reason, the dialogue apparatus 102 may have an interface for reading data from a removable medium.
対話装置102は、物理的に一つの計算機上で、又は、論理的又は物理的に構成された複数の計算機上で構成される計算機システムであり、同一の計算機上で別個のスレッドで動作してもよく、複数の物理的計算機資源上に構築された仮想計算機上で動作してもよい。
The interactive device 102 is a computer system configured on a single computer or a plurality of computers configured logically or physically, and operates in a separate thread on the same computer. Alternatively, it may operate on a virtual machine constructed on a plurality of physical computer resources.
補助記憶装置105は、例えば、テキストデータ107、音声データ108、及び理解度判別用辞書データ109を格納する。テキストデータ107は、複数のテキストを含む。例えば、ニュース記事、ユーザが興味のある本、小学校、中学校、高校の各科目の教科書又は参考書等は、テキストデータ107に含まれる各テキストの一例である。また、マーケティングにおける広告内容や管理者等が宣伝したい内容もテキストデータ107に含まれる各テキストの一例である。テキストデータ107に含まれる各テキストの詳細については後述する。
The auxiliary storage device 105 stores, for example, text data 107, audio data 108, and understanding level determination dictionary data 109. The text data 107 includes a plurality of texts. For example, a news article, a book that the user is interested in, a textbook or a reference book for each subject of elementary school, junior high school, and high school are examples of each text included in the text data 107. Further, the contents of advertisements in marketing and the contents that the administrator wants to advertise are examples of each text included in the text data 107. Details of each text included in the text data 107 will be described later.
音声データ108は、テキストデータ107に含まれる複数のテキストそれぞれに対応づけられた音声を含む。音声データに含まれる音声それぞれは、対応するテキストと同等の内容を含む。音声データに含まれる音声それぞれは、例えば、速度及び訛りを調整可能な合成音声である。また、対話装置102は、テキストデータ107と音声データ108を、必要に応じて新規追加、削除、及び編集する機能を備えていてもよい。理解度判別用辞書データ109は、後述する理解度判別用辞書生成処理で生成された理解度判別用辞書を予め格納する。理解度判別用辞書の詳細については後述する。
The voice data 108 includes a voice associated with each of a plurality of texts included in the text data 107. Each voice included in the voice data includes content equivalent to the corresponding text. Each of the sounds included in the sound data is, for example, a synthesized sound that can adjust speed and beat. Further, the dialogue apparatus 102 may have a function of newly adding, deleting, and editing the text data 107 and the voice data 108 as necessary. The understanding level discrimination dictionary data 109 stores in advance the understanding level discrimination dictionary generated by the understanding level discrimination dictionary generation process described later. Details of the comprehension determination dictionary will be described later.
メモリ106は、それぞれプログラムである、情報提示部110、難易度分析部111、生体情報取得部112、理解度判別部113、照合部114、理解タイプ判別部115、及び情報制御部116を含む。
The memory 106 includes an information presentation unit 110, a difficulty level analysis unit 111, a biological information acquisition unit 112, an understanding level determination unit 113, a matching unit 114, an understanding type determination unit 115, and an information control unit 116, which are programs.
プログラムはプロセッサ121によって実行されることで、定められた処理を記憶装置及び通信ポート(通信デバイス)を用いながら行う。従って、本実施形態においてプログラムを主語とする説明は、プロセッサ121を主語とした説明でもよい。若しくは、プログラムが実行する処理は、そのプログラムが動作する計算機及び計算機システムが行う処理である。
The program is executed by the processor 121 to perform a predetermined process using a storage device and a communication port (communication device). Therefore, the description with the program as the subject in the present embodiment may be an explanation with the processor 121 as the subject. Alternatively, the process executed by the program is a process performed by a computer and a computer system on which the program operates.
プロセッサ121は、プログラムに従って動作することによって、所定の機能を実現する機能部(手段)として動作する。例えば、プロセッサ121は、情報提示部110に従って動作することで情報提示部(情報提示手段)として機能し、難易度分析部111に従って動作することで難易度分析部(難易度分析手段)として機能する。他のプログラムについても同様である。さらに、プロセッサ121は、各プログラムが実行する複数の処理のそれぞれを実現する機能部(手段)としても動作する。計算機及び計算機システムは、これらの機能部(手段)を含む装置及びシステムである。
The processor 121 operates as a functional unit (means) that realizes a predetermined function by operating according to a program. For example, the processor 121 functions as an information presentation unit (information presentation unit) by operating according to the information presentation unit 110, and functions as a difficulty level analysis unit (difficulty level analysis unit) by operating according to the difficulty level analysis unit 111. . The same applies to other programs. Further, the processor 121 also operates as a functional unit (means) that realizes each of a plurality of processes executed by each program. A computer and a computer system are an apparatus and a system including these functional units (means).
情報提示部110は、例えば、ユーザからの指示に従って選択したテキストデータ107及び/又は音声データ108のコンテンツを、提示情報としてタッチパネル103に出力する。当該コンテンツは複数の要素からなる。例えば、コンテンツが文章データである場合、文章データに含まれる単語それぞれはコンテンツの要素の一例である。生体情報取得部112は、情報提示部110が出力した提示情報に対するユーザの理解活動時において、生体情報計測器104が計測したユーザの生体情報の時系列を取得する。
The information presentation unit 110 outputs the content of the text data 107 and / or the audio data 108 selected according to the instruction from the user, for example, to the touch panel 103 as presentation information. The content consists of a plurality of elements. For example, when the content is text data, each word included in the text data is an example of a content element. The biometric information acquisition unit 112 acquires a time series of the user's biometric information measured by the biometric information measuring device 104 when the user understands the presentation information output by the information presentation unit 110.
ユーザの理解活動とは、当該ユーザが提示情報を五感のいずれかで理解する活動を示す。例えば、当該ユーザがテキスト形式の提示情報を読むこと、及び当該ユーザが音声形式の提示情報を聞くことは当該ユーザの理解活動の一例である。なお、本実施例における生体情報の時系列は、2時点以上における生体情報を示す。また、生体情報の時系列それぞれは、1以上のチャネルの信号からなる。脳活動信号は生体情報の一例である。
User understanding activity refers to an activity in which the user understands the presentation information with one of the five senses. For example, reading the presentation information in the text format by the user and listening to the presentation information in the voice format are examples of the user's understanding activities. In addition, the time series of biological information in the present embodiment indicates biological information at two or more time points. In addition, each time series of biological information includes signals of one or more channels. The brain activity signal is an example of biological information.
難易度分析部111は、テキストデータに含まれるテキストのコンテンツ、及び音声データに含まれる音声のコンテンツの、提示時刻における難易度を分析する。理解度判別部113は、理解度判別用辞書データ109に含まれる理解度判別用辞書を参照し、生体情報取得部112が取得した提示情報に対するユーザの理解活動時の生体情報の時系列から、提示情報に対するユーザの各時刻における理解度を算出する。
The difficulty analysis unit 111 analyzes the difficulty of the text content included in the text data and the audio content included in the audio data at the presentation time. The understanding level determination unit 113 refers to the understanding level determination dictionary included in the understanding level determination dictionary data 109, and from the time series of the biological information at the time of the user's understanding activity on the presentation information acquired by the biological information acquisition unit 112, The user's degree of understanding of the presentation information at each time is calculated.
照合部114は、理解度判別部113が算出したユーザの理解度と、難易度分析部111が分析した提示情報の難易度を照合し、時刻同期する。理解タイプ判別部115は、照合部114の時刻同期結果に基づいて、ユーザの理解タイプを判別する。ユーザの理解タイプとは、ユーザがコンテンツを理解していない場合における、当該ユーザが当該コンテンツを理解できない原因を示す。情報制御部116は、理解タイプ判別部115が判別したユーザの理解タイプに基づいて、次にユーザに提示する情報の制御を行う。
The collation unit 114 collates the user's understanding level calculated by the understanding level determination unit 113 with the difficulty level of the presentation information analyzed by the difficulty level analysis unit 111, and synchronizes the time. The understanding type determination unit 115 determines the understanding type of the user based on the time synchronization result of the matching unit 114. The user understanding type indicates a reason why the user cannot understand the content when the user does not understand the content. The information control unit 116 controls information to be next presented to the user based on the user's understanding type determined by the understanding type determination unit 115.
図2は、テキストデータ107に含まれるテキストの一例である。テキスト200は、日本人のユーザを対象とした英語学習におけるニュース記事のテキストの例である。テキスト200は、例えば、コンテンツ種別201、背景202、コンテンツ203、及び単語解釈204を含む。コンテンツ種別201は、テキスト200のコンテンツの種別を示すキーワードを含む。図2の例において、テキスト200のコンテンツは、脳科学のニュースについて英語で記載されたものである。
FIG. 2 is an example of text included in the text data 107. A text 200 is an example of a text of a news article in English learning for a Japanese user. The text 200 includes, for example, a content type 201, a background 202, content 203, and a word interpretation 204. The content type 201 includes a keyword indicating the type of content of the text 200. In the example of FIG. 2, the content of the text 200 is written in English about brain science news.
背景202は、テキスト200のコンテンツの背景知識を含む。背景202は、複数種類の言語の背景知識を含んでもよい。図2の例では、背景202は、英語版及び日本語版の背景知識を含む。また、背景202は、コンテンツの背景知識に関する写真等の画像データを含んでもよい。
The background 202 includes background knowledge of the content of the text 200. The background 202 may include background knowledge of multiple types of languages. In the example of FIG. 2, the background 202 includes background knowledge of the English version and the Japanese version. Further, the background 202 may include image data such as a photograph related to the background knowledge of the content.
コンテンツ203は、複数のバージョンのコンテンツを含む。図2の例では、コンテンツ203は、コンテンツ内に使用される単語レベルや構文レベルに応じた複数のバージョンのコンテンツを含む。また特に図示していないが、コンテンツ203は、コンテンツに含まれる単語を、タッチパネル103を介して出力する時刻(例えば、出力開始時刻を基準とする時刻)を示す情報を保持する。
The content 203 includes a plurality of versions of content. In the example of FIG. 2, the content 203 includes a plurality of versions of content corresponding to the word level and syntax level used in the content. Although not particularly illustrated, the content 203 holds information indicating a time (for example, a time based on the output start time) at which a word included in the content is output via the touch panel 103.
例えば、図2における「Version1:簡単レベル」は語彙数1000以下の単語、「Version2:中級レベル」は語彙数1000以上5000以下の単語、「Version3:上級レベル」は語彙数5000以上の単語、のように各バージョンのコンテンツに対してレベルが予め付与されている。単語解釈204は、例えば、対応するバージョンのコンテンツに含まれる例えば難易度の高い単語の意味を含む。
For example, “Version 1: Easy Level” in FIG. 2 is a word having 1000 or less vocabulary, “Version 2: Intermediate Level” is a word having 1000 to 5000 vocabulary, and “Version 3: Advanced Level” is a word having 5000 or more vocabulary. As described above, a level is assigned in advance to each version of content. The word interpretation 204 includes, for example, the meaning of a word having a high difficulty level included in the corresponding version of the content.
なお、難易度分析部111が、コンテンツ203に含まれる各バージョンのコンテンツにレベルを付与してもよい。難易度分析部111は、例えば、コーパスを参照してレベルを付与する。コーパスとは、例えば、小学校から大学までの英語の教科書の文章や、英文のニュース記事等が含まれるテキスト形式の文章データベースである。コーパスは、例えば補助記憶装置105に格納されていてもよいし、対話装置102に接続された他の計算機に格納されていてもよい。
The difficulty level analysis unit 111 may assign a level to each version of content included in the content 203. The difficulty level analysis unit 111 assigns a level with reference to a corpus, for example. The corpus is, for example, a text database in a text format that includes texts in English textbooks from elementary schools to universities, English news articles, and the like. The corpus may be stored in the auxiliary storage device 105, for example, or may be stored in another computer connected to the interactive device 102.
難易度分析部111は、例えば、コーパスから所定数以上の文章を取得し、取得した文章に含まれる単語を出現頻度が高い順にソートし、ソートされた単語の集合を所定の単語数ごとに複数の階層に分割する。以下、出現頻度が低い階層を高レベルに対応する階層とする。
The difficulty level analysis unit 111 acquires, for example, a predetermined number or more of sentences from the corpus, sorts words included in the acquired sentences in descending order of appearance frequency, and sets a plurality of sorted word sets for each predetermined number of words. Divide into hierarchies. Hereinafter, a hierarchy having a low appearance frequency is defined as a hierarchy corresponding to a high level.
難易度分析部111は、コンテンツに含まれる所定割合以上の単語が、N番目の階層に含まれ、かつN-1番目の階層に含まれない場合、当該コンテンツをN番目の階層に対応するレベルを付与する。例えば、N番目の階層の下限が1000語、上限が2000語である場合、N番目の階層に対応するレベルは、語彙数1000語以上2000語以下のレベルを示す。
The difficulty level analysis unit 111 determines that the content corresponding to the Nth hierarchy is included in the Nth hierarchy when words of a predetermined ratio or more included in the content are included in the Nth hierarchy and not included in the (N−1) th hierarchy. Is granted. For example, when the lower limit of the Nth hierarchy is 1000 words and the upper limit is 2000 words, the level corresponding to the Nth hierarchy indicates a level of 1000 to 2000 words.
図3は、情報提示部110が行う情報提示処理の一例を示す。情報提示部110は、タッチパネル103を介したユーザからの入力に従って、テキストデータ107に格納されたテキスト形式のコンテンツ及び/又は音声データ108に格納された当該コンテンツに対応する音声形式のコンテンツを選択する(S301)。
FIG. 3 shows an example of information presentation processing performed by the information presentation unit 110. The information presentation unit 110 selects the text format content stored in the text data 107 and / or the audio format content corresponding to the content stored in the audio data 108 in accordance with an input from the user via the touch panel 103. (S301).
具体的には、情報提示部110は、コンテンツ種別及びバージョンの入力を受け付ける。情報提示部110は、入力されたコンテンツ種別201を有するテキストをテキストデータ107から選択し、入力されたバージョンのコンテンツを当該テキストのコンテンツ203から選択する。
Specifically, the information presentation unit 110 accepts input of content type and version. The information presentation unit 110 selects the text having the input content type 201 from the text data 107 and selects the input version of the content from the text content 203.
なお、入力されたコンテンツ種別201を有する複数のテキストが存在する場合、情報提示部110は、当該複数のテキストからランダムに1つのテキストを選択してもよいし、当該複数のテキストをユーザに提示し、ユーザからの入力に従ってテキストを選択してもよい。情報提示部110は、選択したコンテンツに対応する音声形式のコンテンツを音声データ108から取得する。
When there are a plurality of texts having the input content type 201, the information presentation unit 110 may select one text from the plurality of texts at random, or present the plurality of texts to the user. The text may be selected in accordance with an input from the user. The information presentation unit 110 acquires content in an audio format corresponding to the selected content from the audio data 108.
情報提示部110は、タッチパネル103を介したユーザからの入力に従って、ステップS301で選択したコンテンツの提示形式を選択する(S302)。具体的には、例えば、情報提示部110は、当該コンテンツを、テキスト形式又は音声形式のいずれか一方、若しくはテキスト形式及び音声形式の双方で提示するか、を示す情報の入力を受け付け、入力された情報に従って、提示形式を選択する。
The information presentation unit 110 selects the presentation format of the content selected in step S301 in accordance with an input from the user via the touch panel 103 (S302). Specifically, for example, the information presenting unit 110 receives and inputs information indicating whether the content is presented in either text format or audio format, or both text format and audio format. Select the presentation format according to the information.
以下、本実施例においては、情報提示部110がテキスト形式と音声形式の双方を選択する例を説明するが、テキスト形式又は音声形式のいずれか一方を選択した場合における処理も、後述する処理と同様である。続いて、情報提示部110は、ステップS301で選択したコンテンツを、ステップS302で選択した提示形式により、選択したコンテンツに対応するコンテンツ203に含まれる時刻情報に従って、タッチパネル103に出力することにより、ユーザに提示する(S303)。
Hereinafter, in the present embodiment, an example in which the information presentation unit 110 selects both the text format and the audio format will be described. However, the processing when either the text format or the audio format is selected is also described below. It is the same. Subsequently, the information presentation unit 110 outputs the content selected in step S301 to the touch panel 103 according to the time information included in the content 203 corresponding to the selected content in the presentation format selected in step S302. (S303).
なお、ステップS301、ステップS302において、情報提示部110がコンテンツ及び提示形式を、テキストデータ107に含まれるコンテンツ及び/又は音声データ108に含まれるコンテンツから、例えばランダムに、選択してもよい。
In steps S301 and S302, the information presentation unit 110 may select the content and the presentation format from the content included in the text data 107 and / or the content included in the audio data 108, for example, at random.
図4は、ユーザがコンテンツ選択するためのユーザインタフェースであるコンテンツ選択画面の一例を示す。コンテンツ選択画面400は、例えば、コンテンツ種別選択セクション401、バージョン選択セクション402、及び提示形式選択セクション403を含む。
FIG. 4 shows an example of a content selection screen which is a user interface for the user to select content. The content selection screen 400 includes, for example, a content type selection section 401, a version selection section 402, and a presentation format selection section 403.
コンテンツ種別選択セクション401は、コンテンツ種別の入力を受け付ける。図4の例では、ユーザは、コンテンツ種別選択セクション401中の、科目別、外国語、形式、及び話題選択からコンテンツ種別を選択することができる。また、コンテンツ種別選択セクション401は、キーワードの入力を受け付けることによりコンテンツ種別の入力を受け付けてもよい。
The content type selection section 401 receives an input of content type. In the example of FIG. 4, the user can select a content type from subject-specific, foreign language, format, and topic selection in the content type selection section 401. Further, the content type selection section 401 may accept an input of content type by accepting an input of a keyword.
バージョン選択セクション402はバージョンの入力を受け付ける。図4の例では、ユーザは初級、中級、及び上級からバージョンを選択することができる。提示形式選択セクション403は、提示形式の選択の入力を受け付ける。
The version selection section 402 accepts version input. In the example of FIG. 4, the user can select a version from beginner, intermediate, and advanced. The presentation format selection section 403 receives an input for selecting a presentation format.
図4は、外国語、英語、ニュース記事、脳科学をコンテンツ種別201に含むテキストの中級バージョンのコンテンツが選択され、テキストと音声による提示形式が選択された例を示している。なお、情報提示部110は、ユーザによるコンテンツ選択履歴に基づいて、ユーザが興味を持つと思われる内容のコンテンツ種別をコンテンツ種別選択セクション401内の「おすすめ」に表示してもよい。
FIG. 4 shows an example in which a middle-level text content including foreign language, English, news article, and brain science in the content type 201 is selected, and a text and audio presentation format is selected. Note that the information presentation unit 110 may display the content type of the content that the user may be interested in “recommended” in the content type selection section 401 based on the content selection history by the user.
図5は、難易度分析部111が行う提示情報の難易度分析処理の一例を示す。難易度分析部111は情報提示部110が提示するテキストデータ及び音声データの難易度をスコアリングする。
FIG. 5 shows an example of the difficulty level analysis process of the presentation information performed by the difficulty level analysis unit 111. The difficulty level analysis unit 111 scores the difficulty level of text data and voice data presented by the information presentation unit 110.
まず、難易度分析部111は、情報提示部110から、情報提示部110が提示したコンテンツ、及び当該コンテンツに含まれる各単語の出力時刻を取得する(S501)。ここでは、難易度分析部111は、テキスト形式のコンテンツ入力と音声形式のコンテンツの両方が入力されたものとする。難易度分析部111は、入力されたテキスト形式のコンテンツと音声形式のコンテンツの難易度を決定する(S502)。
First, the difficulty level analysis unit 111 acquires the content presented by the information presentation unit 110 and the output time of each word included in the content from the information presentation unit 110 (S501). Here, it is assumed that the difficulty level analysis unit 111 receives both text content input and audio content input. The difficulty level analysis unit 111 determines the difficulty level of the input text format content and audio format content (S502).
難易度分析部111は、テキスト形式のコンテンツの難易度を、例えば、コンテンツ内に使用されている単語や構文等の基準で決定する。また、難易度分析部111は、音声形式のコンテンツの難易度を、例えば、再生されるコンテンツの速度や訛り等の基準で決定する。難易度決定方法の具体例については、後述する。難易度分析部は、ステップS502で生成した難易度分析結果を出力し、例えばメモリ106に保存する(S503)。
The difficulty level analysis unit 111 determines the difficulty level of text content based on, for example, criteria such as words and syntax used in the content. Further, the difficulty level analysis unit 111 determines the difficulty level of the content in the audio format based on, for example, a reference such as a speed and a hit of the content to be reproduced. A specific example of the difficulty level determination method will be described later. The difficulty level analysis unit outputs the difficulty level analysis result generated in step S502 and stores it in the memory 106, for example (S503).
図6は、難易度分析部111が生成した難易度分析結果の一例である。図6は、英語教育に用いられる英語のコンテンツの難易度分析結果の例である。難易度分析結果600は、例えば、時刻601、単語602、単語難易度603、構文難易度604、速度難易度605、及び訛り難易度606を含む。時刻601は、対応する単語602が、例えば、テキストとしてタッチパネル103に表示される、かつ音声としてタッチパネル103から出力される時刻を示す。
FIG. 6 is an example of the difficulty analysis result generated by the difficulty analysis unit 111. FIG. 6 is an example of the difficulty level analysis result of English content used for English education. The difficulty analysis result 600 includes, for example, a time 601, a word 602, a word difficulty 603, a syntax difficulty 604, a speed difficulty 605, and a hit difficulty 606. The time 601 indicates the time when the corresponding word 602 is displayed on the touch panel 103 as text and output from the touch panel 103 as sound, for example.
単語602は、コンテンツに含まれる単語を示す。単語602に含まれる単語は、難易度分析部111によって、例えば、形態素解析等の手段を用いて、コンテンツに含まれる文章から抽出される。また、テキストデータ107及び音声データ108に含まれるコンテンツが予め単語単位で分割されていてもよい。
The word 602 indicates a word included in the content. The words included in the word 602 are extracted from the sentences included in the content by the difficulty level analysis unit 111 using, for example, morphological analysis. Further, the content included in the text data 107 and the audio data 108 may be divided in units of words in advance.
単語難易度603は、対応する単語602それぞれの難易度を示す。以下、難易度分析部111が各単語の単語難易度603を算出する処理の一例を説明する。難易度分析部111は、例えば、コーパス内の各単語の出現率(当該単語のコーパス内の出現回数/コーパス内の重複を含む単語総数)を算出する。難易度分析部、例えば、算出した出現率を値域が0.0~1.0である所定の減少関数に代入した値を、当該単語の単語難易度603に決定する。これにより、コーパスにおける出現率が低い単語は、単語難易度の高い、即ち難しい単語とみなされ、出現率が高い単語は、単語難易度の低い、即ち簡単な単語とみなされる。
The word difficulty level 603 indicates the difficulty level of each corresponding word 602. Hereinafter, an example of processing in which the difficulty level analysis unit 111 calculates the word difficulty level 603 of each word will be described. The difficulty level analysis unit 111 calculates, for example, the appearance rate of each word in the corpus (number of appearances of the word in the corpus / total number of words including duplication in the corpus). A difficulty level analysis unit, for example, determines a value obtained by substituting the calculated appearance rate into a predetermined decreasing function having a range of 0.0 to 1.0 as the word difficulty level 603 of the word. Thereby, a word having a low appearance rate in the corpus is regarded as a word having a high word difficulty, that is, a difficult word, and a word having a high appearance rate is regarded as having a low word difficulty, that is, a simple word.
構文難易度604は、対応する単語602それぞれの構文の難易度を示す。以下、難易度分析部111が、各単語の構文の難易度を算出する処理の一例を説明する。難易度分析部111は、構文解析等の手段を用いて各単語が属する構文を検索する。名詞句、動詞句、助動詞付動詞句、連用修飾句、連体修飾句、固有表現等は構文の一例である。1つの単語は1以上の構文に属することもあるし、どの構文にも属さないこともある。
The syntax difficulty level 604 indicates the difficulty level of each corresponding word 602. Hereinafter, an example of processing in which the difficulty level analysis unit 111 calculates the difficulty level of the syntax of each word will be described. The difficulty level analysis unit 111 searches for a syntax to which each word belongs using means such as syntax analysis. A noun phrase, a verb phrase, a verb phrase with an auxiliary verb, a continuous modification phrase, a combination modification phrase, a proper expression, etc. are examples of syntax. A word may belong to more than one syntax or may not belong to any syntax.
難易度分析部111は、各単語が属する構文それぞれのコーパス内の出現率(当該構文のコーパス内の出現回数/コーパス内の重複を含む構文総数)を算出する。難易度分析部111は、各単語に対して、例えば、当該単語が属する構文の出現率から最低の出現率を選択する。選択した出現率を値域が0.0~1.0の所定の減少関数に代入した値を、当該単語の構文難易度604に決定する。また、難易度分析部111は、どの構文にも属さない単語の構文難易度604を、例えば0.0に決定する。これにより、コーパスにおける出現率が低い構文に属する単語は構文難易度の高い単語とみなされ、出現率が高い単語は構文難易度の低い単語とみなされる。
The difficulty analysis unit 111 calculates the appearance rate in the corpus of each syntax to which each word belongs (number of appearances in the corpus of the syntax / total number of syntaxes including duplication in the corpus). For each word, the difficulty level analysis unit 111 selects, for example, the lowest appearance rate from the appearance rate of the syntax to which the word belongs. A value obtained by assigning the selected appearance rate to a predetermined decreasing function having a range of 0.0 to 1.0 is determined as the syntax difficulty 604 of the word. Further, the difficulty level analysis unit 111 determines the syntax difficulty level 604 of a word that does not belong to any syntax, for example, 0.0. Thereby, a word belonging to a syntax having a low appearance rate in the corpus is regarded as a word having a high syntax difficulty level, and a word having a high appearance rate is regarded as a word having a low syntax difficulty level.
なお、難易度分析部111は、当該単語が属する構文の出現率から最低の出現率を選択する代わりに、例えば、ランダムに出現率を選択してもよいし、当該単語が属する構文の出現率の平均値等を算出してもよい。
The difficulty level analysis unit 111 may, for example, select an appearance rate at random instead of selecting the lowest appearance rate from the appearance rate of the syntax to which the word belongs, or the appearance rate of the syntax to which the word belongs. An average value or the like may be calculated.
速度難易度605は、対応する単語602が音声形式のコンテンツとして読み上げられる際の速度による難易度を示す。速度難易度605は、例えば、標準語音声の速度との乖離によって与えられる。以下、難易度分析部111が各単語の速度難易度605を算出する処理の一例を示す。
The speed difficulty 605 indicates the difficulty according to the speed when the corresponding word 602 is read out as audio content. The speed difficulty level 605 is given by, for example, a deviation from the speed of the standard word speech. Hereinafter, an example of processing in which the difficulty level analysis unit 111 calculates the speed difficulty level 605 of each word will be described.
難易度分析部111は、各単語と同じ単語を、例えば、音声コーパスから取得する。音声コーパスとは、例えば、小学校から大学までの英語の教科書を標準語で読み上げた音声や、英文のニュース記事等を標準語で読み上げた音声が含まれる音声形式の文章データベースである。音声コーパスは、例えば補助記憶装置105に格納されていてもよいし、対話装置102に接続された他の計算機に格納されていてもよい。
The difficulty level analysis unit 111 acquires the same word as each word from, for example, a speech corpus. The speech corpus is a text database in a speech format that includes, for example, a voice that is read out in English as a standard language from an elementary school to a university, or a voice that is read out in English as a news article in English. The voice corpus may be stored, for example, in the auxiliary storage device 105 or may be stored in another computer connected to the interactive device 102.
難易度分析部111は、例えば、各単語に対して、音声コーパス内から取得した当該単語と同じ単語の平均速度を算出し、平均速度からの乖離を、当該単語の速度に決定する。例えば、平均速度より遅い速度は負の値、平均速度より早い速度は正の値で与えられるものとする。難易度分析部111は、決定した速度を、例えば、値域が0.0~1.0の所定の増加関数に代入した値を、速度難易度605に決定する。これにより、速度が高い単語は速度難易度の高い単語とみなされ、速度が低い単語は速度難易度の低い単語とみなされる。
The difficulty level analysis unit 111 calculates, for example, the average speed of the same word as the word acquired from the speech corpus for each word, and determines the deviation from the average speed as the speed of the word. For example, a speed slower than the average speed is given as a negative value, and a speed faster than the average speed is given as a positive value. The difficulty level analysis unit 111 determines the value obtained by substituting the determined speed into a predetermined increase function having a value range of 0.0 to 1.0, for example, as the speed difficulty level 605. Thereby, a word with high speed is regarded as a word with high speed difficulty, and a word with low speed is regarded as a word with low speed difficulty.
訛り難易度606は、対応する単語602が音声形式のコンテンツとして読み上げられる際の訛りによる難易度を示す。以下、難易度分析部111が各単語の訛り難易度606を算出する処理の一例を示す。難易度分析部111は、例えば、各単語のアクセントを示すパラメータを生成する。難易度分析部111は、例えば、各単語に対して、音声コーパス内から取得した当該単語と同じ単語のアクセントの平均パラメータを算出し、平均パラメータからの乖離の絶対値を、当該単語の訛りに決定する。難易度分析部111は、決定した訛りを、例えば、値域が0.0~1.0の所定の増加関数に代入した値を、訛り難易度606に決定する。これにより、標準語のアクセントと乖離が大きい単語は訛り難易度の高い単語とみなされ、当該乖離が小さい単語は訛り難易度の低い単語とみなされる。
The difficulty level 606 indicates the difficulty level due to the speech when the corresponding word 602 is read out as audio content. Hereinafter, an example of processing in which the difficulty level analysis unit 111 calculates the difficulty level 606 of each word will be described. The difficulty level analysis unit 111 generates a parameter indicating the accent of each word, for example. For example, for each word, the difficulty level analysis unit 111 calculates the average parameter of the accent of the same word acquired from within the speech corpus, and uses the absolute value of the deviation from the average parameter as the beat of the word. decide. The difficulty analysis unit 111 determines a value obtained by substituting the determined beat for a predetermined increase function having a range of 0.0 to 1.0, for example, as the beat difficulty 606. Thereby, a word having a large deviation from the accent of the standard word is regarded as a word having a high difficulty level, and a word having a small difference is regarded as a word having a low difficulty level.
難易度分析部111は、以上の処理により、各単語の各種類の難易度を決定する。なお、本実施例における各種類の難易度は、値が大きいほど当該種類の難易度が示す指標が難しいことを示し、値が小さいほど当該種類の難易度が示す指標が易しいことを示す。
The difficulty level analysis unit 111 determines the difficulty level of each type of each word through the above processing. In addition, the difficulty level of each kind in a present Example shows that the parameter | index which the said difficulty level of a kind shows is so difficult that a value is large, and it shows that the parameter | index which the difficulty level of the said kind shows is so easy that a value is small.
図7は、生体情報取得部112が取得する生体情報の一例であるヘモグロビン濃度データ、の一例である。図7のヘモグロビン濃度データの例は、理解活動を行うユーザの酸化ヘモグロビン濃度及び還元ヘモグロビン濃度の時系列を示す。例えば、生体情報計測器104の一例である近赤外光計測装置は、近赤外分光法利用して、ユーザの脳表層の複数の測定部位における血液中の酸化ヘモグロビン濃度及び/又は還元ヘモグロビン濃度の時系列的を測定する。
FIG. 7 is an example of hemoglobin concentration data that is an example of biological information acquired by the biological information acquisition unit 112. The example of the hemoglobin concentration data in FIG. 7 shows a time series of the oxygenated hemoglobin concentration and the reduced hemoglobin concentration of the user who performs the understanding activity. For example, the near-infrared light measurement device, which is an example of the biological information measuring instrument 104, uses near-infrared spectroscopy, and oxyhemoglobin concentration and / or reduced hemoglobin concentration in blood at a plurality of measurement sites on the surface of the user's brain. Measure the time series of.
生体情報計測器104は、例えば、全脳におけるヘモグロビン濃度を計測してもよいし、言語を理解する言語野や認知活動を行う前頭葉のみおけるヘモグロビン濃度を計測してもよい。生体情報計測器104は、例えば、近赤外光を生体に照射する。照射した光が生体内に入射し、生体内を散乱及び吸収され、生体情報計測器104は伝播して出てきた光を検出する。
The biological information measuring device 104 may measure, for example, the hemoglobin concentration in the whole brain, or may measure the hemoglobin concentration in only the frontal lobe where the language field that understands the language and the cognitive activity. The biological information measuring device 104 irradiates the living body with near infrared light, for example. The irradiated light enters the living body, is scattered and absorbed in the living body, and the living body information measuring device 104 detects the light that has propagated out.
なお、生体情報計測器104は、例えば、特許文献1に記載されているユーザが理解活動を行う時の内部状態から脳内血流変化を得る方法、を用いて計測を行う。生体情報取得部112は、生体情報計測器104が計測したヘモグロビン濃度であって、ユーザが理解活動を行うときのヘモグロビン濃度、を取得する。
Note that the biological information measuring instrument 104 performs measurement using, for example, a method described in Patent Document 1 for obtaining a blood flow change in the brain from an internal state when the user performs an understanding activity. The biological information acquisition unit 112 acquires the hemoglobin concentration measured by the biological information measuring device 104 and the hemoglobin concentration when the user performs an understanding activity.
図8は、理解度判別用辞書データ109に格納される理解度判別用辞書の生成に用いられる脳計測データを計測する、計測システムの構成例を示す。計測システム801は、計測管理装置802、タッチパネル803、生体情報計測器804を含む。計測管理装置802は、例えば、プロセッサ(CPU)821、補助記憶装置805、メモリ806、入出力インタフェース822、及び通信インタフェース823を含む計算機によって構成される。
FIG. 8 shows a configuration example of a measurement system that measures brain measurement data used to generate an understanding level discrimination dictionary stored in the understanding level discrimination dictionary data 109. The measurement system 801 includes a measurement management device 802, a touch panel 803, and a biological information measuring instrument 804. The measurement management device 802 includes, for example, a computer including a processor (CPU) 821, an auxiliary storage device 805, a memory 806, an input / output interface 822, and a communication interface 823.
タッチパネル803、生体情報計測器804、プロセッサ(CPU)821、補助記憶装置805、メモリ806、入出力インタフェース822、及び通信インタフェース823それぞれの説明は、タッチパネル103、生体情報計測器104、プロセッサ(CPU)121、補助記憶装置105、メモリ106、入出力インタフェース122、及び通信インタフェース123それぞれの説明と同様であるため省略する。
The touch panel 803, the biological information measuring instrument 804, the processor (CPU) 821, the auxiliary storage device 805, the memory 806, the input / output interface 822, and the communication interface 823 are each described in the touch panel 103, the biological information measuring instrument 104, and the processor (CPU). 121, the auxiliary storage device 105, the memory 106, the input / output interface 122, and the communication interface 123 are the same as those described above, and will not be described.
メモリ806は、それぞれプログラムである情報提示部811及び生体情報取得部812を含む。補助記憶装置805は、例えば、テキストデータ807、音声データ808、及び生体データ810を格納する。テキストデータ807及び音声データ808それぞれの説明は、テキストデータ107及び音声データ108の説明と同様であるため省略する。テキストデータ807及び音声データ808に含まれるコンテンツは、テキストデータ107及び音声データ108に含まれるコンテンツと同じであってもよいし、異なっていてもよい。生体データ810は、生体情報取得部812が取得した生体情報を格納する。
The memory 806 includes an information presentation unit 811 and a biological information acquisition unit 812, each of which is a program. The auxiliary storage device 805 stores, for example, text data 807, voice data 808, and biometric data 810. The description of the text data 807 and the sound data 808 is the same as the description of the text data 107 and the sound data 108, and will not be repeated. The content included in the text data 807 and the audio data 808 may be the same as or different from the content included in the text data 107 and the audio data 108. The biological data 810 stores the biological information acquired by the biological information acquisition unit 812.
情報提示部811は、例えば、ユーザからの指示に従って、テキストデータ807及び/又は音声データ808からコンテンツを選択し、タッチパネル803を介して選択したコンテンツをユーザに提示する。
The information presentation unit 811 selects content from the text data 807 and / or audio data 808 in accordance with an instruction from the user, for example, and presents the selected content to the user via the touch panel 803.
具体的には、例えば、情報提示部811は、ユーザからの指示に従って、ユーザがよく理解しているコンテンツと理解し難いコンテンツとを選択する。これにより、生体情報取得部812が提示された情報をユーザが理解している状態における生体情報と、理解していない状態における生体情報の双方を取得できる。例えば、ユーザが日本人である場合、小学生レベルの日本語の単語で書かれた文章は当該ユーザが理解しているコンテンツの一例であり、当該ユーザが勉強したことのない外国語で書かれ場文章は当該ユーザが理解し難いコンテンツの一例である。
Specifically, for example, the information presentation unit 811 selects content that is well understood by the user and content that is difficult to understand in accordance with an instruction from the user. Thereby, both the biological information in a state in which the user understands the information presented by the biological information acquisition unit 812 and the biological information in a state in which the user does not understand can be acquired. For example, if the user is Japanese, the text written in Japanese words at the elementary school level is an example of the content understood by the user, and written in a foreign language that the user has never studied. A sentence is an example of content that is difficult for the user to understand.
生体情報取得部812は、情報提示部811が提示した提示情報に対する理解活動を行うユーザの生体情報を生体情報計測器804から取得し、取得した生体情報を時系列データとして、例えば、ユーザがよく理解しているコンテンツに対する生体情報と、ユーザが理解し難いコンテンツに対する生体情報と、に分けて生体データ810に格納してもよい。また、生体情報取得部812は、取得した生体情報それぞれに、ユーザの識別子を付加して、生体データ810に格納してもよい。
The biometric information acquisition unit 812 acquires biometric information of a user who performs an understanding activity on the presentation information presented by the information presentation unit 811 from the biometric information measuring device 804, and uses the acquired biometric information as time-series data. Biometric information for content that is understood and biometric information for content that is difficult for the user to understand may be stored separately in biometric data 810. The biometric information acquisition unit 812 may add a user identifier to each acquired biometric information and store the biometric information in the biometric data 810.
図9は、理解度判別用辞書データ109に格納される理解度判別用辞書を生成する理解度判別用辞書生成装置の構成例を示す。理解度判別用辞書生成装置902は、例えば、プロセッサ(CPU)921、補助記憶装置905、メモリ906、入出力インタフェース922、及び通信インタフェース923を含む計算機によって構成される。
FIG. 9 shows an example of the configuration of an understanding level discrimination dictionary generating apparatus that generates an understanding level discrimination dictionary stored in the understanding level discrimination dictionary data 109. The comprehension level determination dictionary generation device 902 is configured by a computer including a processor (CPU) 921, an auxiliary storage device 905, a memory 906, an input / output interface 922, and a communication interface 923, for example.
プロセッサ(CPU)921、補助記憶装置905、メモリ906、入出力インタフェース922、及び通信インタフェース923それぞれの説明は、プロセッサ(CPU)121、補助記憶装置105、メモリ106、入出力インタフェース122、及び通信インタフェース123それぞれの説明と同様であるため省略する。
The processor (CPU) 921, auxiliary storage device 905, memory 906, input / output interface 922, and communication interface 923 are each described with respect to the processor (CPU) 121, auxiliary storage device 105, memory 106, input / output interface 122, and communication interface. The description of each of 123 is omitted because it is the same as that described above.
メモリ906は、プログラムである理解度判別用辞書生成部911を含む。理解度判別用辞書生成部911は、生体データ910に格納された情報を用いて、理解度判別用辞書を生成し、生成した理解度判別用辞書を理解度判別用辞書データ909に格納する。
The memory 906 includes an understanding level discrimination dictionary generation unit 911 which is a program. The understanding level discrimination dictionary generation unit 911 uses the information stored in the biometric data 910 to generate an understanding level discrimination dictionary, and stores the generated understanding level discrimination dictionary in the understanding level discrimination dictionary data 909.
補助記憶装置905は、理解度判別用辞書データ909及び生体データ910を格納する。理解度判別用辞書データ909は、理解度判別用辞書生成部911が作成した理解度判別用辞書を生成する。生体データ910は、生体データ810に格納された生体情報と同等の生体情報を予め格納する。なお、本実施例では、対話システム101と、計測システム801と、理解度判別用辞書生成装置902と、は別のシステムとして説明しているが、1つのシステムであってもよい。
The auxiliary storage device 905 stores the understanding level discrimination dictionary data 909 and the biometric data 910. The understanding level determination dictionary data 909 generates the understanding level determination dictionary created by the understanding level determination dictionary generation unit 911. The biometric data 910 stores biometric information equivalent to the biometric information stored in the biometric data 810 in advance. In the present embodiment, the dialogue system 101, the measurement system 801, and the understanding level determination dictionary generation device 902 are described as separate systems, but may be a single system.
図10は、理解度判別用辞書生成処理の一例を示す。理解度判別用辞書生成部911は、生体データ910から、ユーザがよく理解しているコンテンツに対する生体情報の複数の時系列と、ユーザが理解し難いコンテンツに対する生体情報の複数の時系列と、を取得する(S1001)。以下の処理では、理解度判別用辞書生成部911は、取得したデータから生成された訓練データから理解度判別用辞書を生成する。
FIG. 10 shows an example of a dictionary generation process for understanding degree discrimination. From the biometric data 910, the understanding level discriminating dictionary generation unit 911 includes a plurality of time series of biometric information for content that is well understood by the user and a plurality of time series of biometric information for content that is difficult for the user to understand. Obtain (S1001). In the following processing, the understanding level determination dictionary generation unit 911 generates an understanding level determination dictionary from the training data generated from the acquired data.
理解度判別用辞書生成部911は、ステップS1001で取得した生体情報の時系列それぞれに含まれる各チャネルの信号に対して前処理を施す(S1002)。例えば、生体情報計測器804の一例である近赤外光計測装置は、光を用いた非侵襲な頭部血行動態計測手法を用いた計測を行っているため、生体情報として得られる信号には脳活動に関連した信号と心拍数変動などによる全身性の血行動態に関連した情報とが含まれる。
The understanding level determination dictionary generation unit 911 performs preprocessing on the signals of the respective channels included in the time series of the biological information acquired in step S1001 (S1002). For example, a near-infrared light measurement device, which is an example of the biological information measuring instrument 804, performs measurement using a non-invasive cerebral hemodynamic measurement method using light. Signals related to brain activity and information related to systemic hemodynamics such as heart rate variability are included.
従って、理解度判別用辞書生成部911は、取得した生体情報に対して、コンテンツに対する理解度に関連しない情報である雑音を除去するための前処理を行うことにより、理解度判別用辞書の精度を高めることができる。理解度判別用辞書生成部911は、周波数バンドパスフィルタ、多項式ベースライン補正、主成分分析、又は独立成分分析等のアルゴリズムを用いて、ステップS1002における前処理を実行する。
Therefore, the understanding level determination dictionary generation unit 911 performs preprocessing for removing noise, which is information not related to the level of understanding of content, on the acquired biometric information, thereby improving the accuracy of the understanding level determination dictionary. Can be increased. The understanding level discrimination dictionary generation unit 911 performs preprocessing in step S1002 using an algorithm such as a frequency bandpass filter, polynomial baseline correction, principal component analysis, or independent component analysis.
続いて、理解度判別用辞書生成部911は、前処理を施した生体情報の時系列それぞれから理解度識別に必要な本質的な特徴のみを抽出する(S1003)。具体的には、理解度判別用辞書生成部911は、ステップS1002における前処理を施した各時系列に対して、当該時系列に含まれるチャネルの信号から、1以上のサンプル時刻における特徴ベクトルを計算する。各サンプル時刻は、例えば、予め定められた一定間隔の時刻である。
Subsequently, the understanding level discrimination dictionary generation unit 911 extracts only essential features necessary for understanding level understanding from each time series of the preprocessed biological information (S1003). Specifically, for each time series that has undergone the preprocessing in step S1002, the understanding level determination dictionary generation unit 911 obtains a feature vector at one or more sample times from the signal of the channel included in the time series. calculate. Each sample time is, for example, a predetermined time interval.
特徴ベクトルの計算方法は種々の方法が考えられる。以下、理解度判別用辞書生成部1011が生体情報のある時系列からサンプル時刻tにおける特徴ベクトルを計算する例を説明する。なお、理解活動開始時の時刻を0とする。
種 々 There are various methods for calculating the feature vector. Hereinafter, an example in which the understanding level determination dictionary generation unit 1011 calculates a feature vector at a sample time t from a time series having biological information will be described. The time at the start of understanding activities is set to zero.
まず、理解度判別用辞書生成部911は、サンプル時刻tを含む時間窓を設定する。ここでは、理解度判別用辞書生成部911は、所定の正数δに対して、t-δからt+δまでの時間を時間窓に設定する。理解度判別用辞書生成部911は、ステップS1002の前処理が施された当該時系列に含まれる各チャネルの信号から、時刻t-δから時刻t+δまでの信号を切り出す。
First, the understanding level discrimination dictionary generation unit 911 sets a time window including the sample time t. Here, the understanding level discrimination dictionary generation unit 911 sets a time window from t−δ to t + δ for a predetermined positive number δ. The comprehension determination dictionary generation unit 911 cuts out a signal from time t−δ to time t + δ from the signal of each channel included in the time series subjected to the preprocessing in step S1002.
理解度判別用辞書生成部911は、切り出した各チャネルの信号から、所定の基本統計量(例えば、ピーク振幅値、平均値、分散、勾配、歪度、尖度など)を計算する。理解度判別用辞書生成部911は、計算した各基本統計量を基にして、最も感度の高いチャネルの信号を選択する。感度の高いチャネルとは、当該時間窓における信号の特徴を強く反映するチャネルを示す。分散のf値、ピーク振幅値、及び勾配は感度の一例である。理解度判別用辞書生成部911は、例えば、選択したチャネルの1種類以上の基本統計量を要素とする特徴ベクトルを生成する。
The understanding level discrimination dictionary generation unit 911 calculates a predetermined basic statistic (for example, peak amplitude value, average value, variance, gradient, skewness, kurtosis, etc.) from the extracted signal of each channel. The comprehension determination dictionary generation unit 911 selects a channel signal with the highest sensitivity based on the calculated basic statistics. A highly sensitive channel refers to a channel that strongly reflects the characteristics of the signal in the time window. The f value of dispersion, the peak amplitude value, and the slope are examples of sensitivity. For example, the understanding level determination dictionary generation unit 911 generates a feature vector having one or more types of basic statistics as elements.
続いて、理解度判別用辞書生成部911は、生成した特徴ベクトルを用いて分類アルゴリズムのパラメータを最適化することにより識別関数を生成する(S1004)。識別関数は、ユーザの理解活動時の生体情報の時系列から生成されたある時刻における特徴ベクトルが入力され、当該ユーザの当該時刻の理解活動における理解度を出力する関数である。本実施例では、理解度は0以上1.0以下の数値で与えられるものとする、即ち識別関数の値域は0以上1.0以下であるものとする。理解度の値が高いほど、ユーザは当該時刻における理解活動の対象であるコンテンツをよく理解していることを示す。
Subsequently, the understanding level discrimination dictionary generation unit 911 generates a discrimination function by optimizing the parameters of the classification algorithm using the generated feature vector (S1004). The identification function is a function that receives a feature vector at a certain time generated from a time series of biological information at the time of the user's understanding activity and outputs the degree of understanding of the user at the understanding activity at the time. In this embodiment, it is assumed that the degree of understanding is given by a numerical value of 0 or more and 1.0 or less, that is, the value range of the discrimination function is 0 or more and 1.0 or less. The higher the value of the understanding level, the more the user understands the content that is the object of the understanding activity at the time.
ステップS1004における分類アルゴリズムのパラメータの最適化は、例えば、ユーザがよく理解しているコンテンツに対する生体情報の時系列に対応する特徴ベクトルを入力した場合における理解度がなるべく高くなるように、ユーザが理解し難いコンテンツに対する生体情報の時系列に対応する特徴ベクトルを入力した場合における理解度がなるべく低くなるように、分類アルゴリズムのパラメータを決定することを示す。
The optimization of the parameters of the classification algorithm in step S1004 is performed by the user so that the degree of understanding becomes as high as possible when, for example, a feature vector corresponding to a time series of biological information with respect to content that the user understands well is input. This indicates that the parameters of the classification algorithm are determined so that the understanding level is as low as possible when a feature vector corresponding to a time series of biological information for difficult content is input.
マージン最大化原理に基づくサポートベクターマシンや線形判別分析、スパースロジスティック回帰、ロジスティック回帰、非線形の分類アルゴリズム隠れマルコフモデル、及びニューラルネットワーク等は分類アルゴリズムの一例である。
The support vector machine based on the margin maximization principle, linear discriminant analysis, sparse logistic regression, logistic regression, nonlinear classification algorithm hidden Markov model, neural network, etc. are examples of classification algorithms.
続いて、理解度判別用辞書生成部911は、生成した識別関数を理解度判別辞書に含め、理解度判別辞書を理解度判別用辞書データ909に格納する(S1005)。また、理解度判別用辞書生成部911は、生成した特徴ベクトルと生成した識別関数とを照合することにより、各特徴ベクトルが所属するクラス(理解している/理解していない)を計算し、各特徴ベクトルと所属するクラスとの対応を理解度判別用辞書に含めてもよい。なお、特徴ベクトルに対応する理解度が所定値以上の場合に当該特徴ベクトルは「理解している」クラスに所属し、特徴ベクトルに対応する理解度が当該所定値未満の場合に当該特徴ベクトルは「理解していない」クラスに所属しているものとする。
Subsequently, the understanding level discrimination dictionary generation unit 911 includes the generated discriminant function in the understanding level discrimination dictionary, and stores the understanding level discrimination dictionary in the understanding level discrimination dictionary data 909 (S1005). Further, the understanding level discrimination dictionary generation unit 911 calculates a class (understood / not understood) to which each feature vector belongs by collating the generated feature vector with the generated identification function, The correspondence between each feature vector and the class to which it belongs may be included in the understanding level determination dictionary. Note that if the degree of understanding corresponding to the feature vector is greater than or equal to a predetermined value, the feature vector belongs to the “understanding” class, and if the degree of understanding corresponding to the feature vector is less than the predetermined value, the feature vector is Assume that you belong to a class that you do not understand.
なお、前述した理解度判別用辞書は、任意のユーザに適用可能な汎用的な理解度判別用辞書であるが、脳計測結果等の生体情報はユーザごとに特徴的なパターンがある。そのため、例えば、理解度判別用辞書生成部911は、生体データ910に格納された生体情報の時系列にユーザの識別子が付与されている場合には、ユーザごとに理解度判別用辞書を作成してもよい。後述する理解度判別処理において、理解度判別部113がユーザごとの理解度判別辞書を用いて理解度を算出することにより、より精度の高い理解度を得ることができる。
It should be noted that the above-described understanding level determination dictionary is a general-purpose understanding level determination dictionary that can be applied to any user, but biological information such as brain measurement results has a characteristic pattern for each user. Therefore, for example, when the user identifier is given to the time series of the biological information stored in the biological data 910, the understanding level determination dictionary generation unit 911 creates an understanding level determination dictionary for each user. May be. In the understanding level determination process to be described later, the understanding level determination unit 113 calculates an understanding level using the understanding level determination dictionary for each user, so that a higher level of understanding can be obtained.
図11は、対話システム101における理解度判別処理の一例を示す。理解度判別部113は、生体情報取得部112から、提示情報に対する理解活動を行った際のユーザの生体情報の時系列を取得する(S1101)。理解度判別部113は、取得した生体情報の時系列に含まれる各チャネルの信号に対して、例えば、ステップS1002同様の方法で、前処理を施す(S1102)。
FIG. 11 shows an example of understanding level determination processing in the dialogue system 101. The understanding level determination unit 113 acquires, from the biological information acquisition unit 112, a time series of the user's biological information when performing an understanding activity on the presented information (S1101). The understanding level determination unit 113 performs preprocessing on the signal of each channel included in the acquired time series of biological information, for example, in the same manner as in step S1002 (S1102).
理解度判別部113は、前処理を施した生体情報の時系列から理解度識別に必要な本質的な特徴のみを抽出する(S1103)。具体的には、理解度判別部113は、例えば、ステップS1003と同様の方法で、前処理を施した生体情報の時系列の各時刻の特徴ベクトルを生成する。
The understanding level determination unit 113 extracts only essential features necessary for understanding level identification from the time series of the preprocessed biological information (S1103). Specifically, the understanding level determination unit 113 generates a feature vector at each time point in time series of biological information that has been preprocessed, for example, in the same manner as in step S1003.
理解度判別部113は、理解度判別用辞書データ109に格納された理解度判別用辞書に含まれる識別関数に、各時刻の特徴ベクトルを代入し、ユーザの各時刻における理解度を算出する(S1104)。なお、理解度判別用辞書がユーザごとの識別関数が格納されている場合、理解度判別部113は、ステップS1104において当該ユーザに対応する識別関数を用いることが好ましい。続いて、理解度判別部113は、例えば、算出した各時刻の理解度を出力し、メモリ106に保存する(S1105)。
The understanding level determination unit 113 assigns the feature vector at each time to the identification function included in the understanding level determination dictionary stored in the understanding level determination dictionary data 109, and calculates the understanding level of the user at each time ( S1104). Note that, when the understanding level determination dictionary stores an identification function for each user, it is preferable that the understanding level determination unit 113 uses an identification function corresponding to the user in step S1104. Subsequently, the understanding level determination unit 113 outputs, for example, the calculated understanding level at each time and stores it in the memory 106 (S1105).
図12は、理解度判別結果の一例である。図12の理解度判別結果は、理解度判別部113が算出した各時刻における理解度を示す。
FIG. 12 is an example of the understanding level determination result. The understanding level determination result in FIG. 12 indicates the understanding level at each time calculated by the understanding level determination unit 113.
図13は、照合部114による、コンテンツの難易度とユーザの理解度判別結果との照合処理の一例を示す。照合部114は、難易度分析部111が分析した音声データの難易度と、理解度判別部113が分析した理解度を時間軸で照合し、時刻同期する(S1301)。続いて、照合部114は、難易度分析部111が分析したテキストの難易度と、理解度判別部113が分析した理解度を時間軸で照合し、時刻同期する(S1302)。
FIG. 13 shows an example of a collation process between the difficulty level of the content and the user's understanding level determination result by the collation unit 114. The collation unit 114 collates the difficulty level of the voice data analyzed by the difficulty level analysis unit 111 with the understanding level analyzed by the understanding level determination unit 113 on a time axis, and synchronizes the time (S1301). Subsequently, the collation unit 114 collates the difficulty level of the text analyzed by the difficulty level analysis unit 111 with the understanding level analyzed by the understanding level determination unit 113 on a time axis, and synchronizes the time (S1302).
ステップS1301及びステップS1302において、照合部114は、例えば、ある時間内の刻みで、難易度と理解度とを時刻同期する。続いて、照合部114は、時刻同期した音声データの難易度、テキストデータの難易度、及び理解度を出力し、例えばメモリ106に保存する(S1303)。
In step S1301 and step S1302, the collation unit 114 synchronizes the difficulty level and the understanding level with time, for example, in increments within a certain period of time. Subsequently, the collation unit 114 outputs the difficulty level of the time-synchronized voice data, the difficulty level of the text data, and the understanding level, and stores them in, for example, the memory 106 (S1303).
図14は、照合部114による照合結果の一例である。照合結果は、各時刻における理解度と、各時刻においてユーザが提示されたテキストデータの単語難易度及び構文難易度と、各時刻においてユーザが提示された音声データの速度及び訛りと、の対応を示す。
FIG. 14 is an example of a collation result by the collation unit 114. The collation result shows the correspondence between the degree of understanding at each time, the word difficulty and the syntax difficulty of the text data presented by the user at each time, and the speed and utterance of the speech data presented by the user at each time. Show.
図15は、テキストの難易度、音声の難易度、及び理解度の時刻同期結果の一例を示す。照合部114は、例えば、各時刻において、例えば1000ms等の所定周期の各区間においての理解度判別結果、テキストの難易度、及び音声の難易度を照合する。
FIG. 15 shows an example of the time synchronization result of the text difficulty level, the voice difficulty level, and the understanding level. For example, the collation unit 114 collates the understanding level determination result, the text difficulty level, and the voice difficulty level in each section of a predetermined cycle such as 1000 ms at each time, for example.
図16は、理解タイプ判別部115による理解タイプ判別処理の一例を示す。理解タイプ判別部115は、照合部114が生成した時刻同期結果を取得する(S1601)。例えば、理解度が第1閾値以下である時間が理解活動時間の第1割合を超える場合、理解タイプ判別部115は、理解度が第1閾値以下である時刻それぞれにおけるテキストの難易度情報と音声の難易度情報とを参照して、ユーザの理解活動時の理解タイプを決定する(S1602)。なお、理解度が第1閾値以下である時間が理解活動時間の第1割合以下である場合、理解タイプ判別部115は、ユーザがコンテンツを理解していると判定する。
FIG. 16 shows an example of an understanding type determination process by the understanding type determination unit 115. The understanding type determination unit 115 acquires the time synchronization result generated by the collation unit 114 (S1601). For example, when the time when the comprehension level is equal to or less than the first threshold exceeds the first percentage of the comprehension activity time, the comprehension type determination unit 115 determines the text difficulty level information and the voice at each time when the comprehension level is equal to or less than the first threshold value. With reference to the difficulty level information, the understanding type at the time of the user's understanding activity is determined (S1602). When the time during which the degree of understanding is equal to or less than the first threshold is equal to or less than the first ratio of the understanding activity time, the understanding type determination unit 115 determines that the user understands the content.
以下、ステップS1602の理解タイプ決定処理の具体例を説明する。例えば、理解活動時間の8割以下の時間において理解度が50%以下である場合、理解タイプ判別部115は、理解度が50%以下である時刻群の時刻それぞれにおけるテキストの難易度情報と音声の難易度情報とを参照する。
Hereinafter, a specific example of the understanding type determination process in step S1602 will be described. For example, when the comprehension level is 50% or less at 80% or less of the comprehension activity time, the comprehension type discriminating unit 115 causes the text difficulty level information and the voice at each time of the time group whose comprehension level is 50% or less. And the difficulty level information.
例えば、単語難易度が第2閾値以上である当該時刻群の時刻が存在する場合、理解タイプ判別部115は、ユーザが単語を理解していないことが理解タイプに含まれると判定する。例えば、構文難易度が第3閾値以上である当該時刻群の時刻が存在する場合、理解タイプ判別部115は、ユーザが構文を理解していないためことが理解タイプに含まれると判定する。
For example, when there is a time in the time group in which the word difficulty is equal to or higher than the second threshold, the understanding type determination unit 115 determines that the understanding type includes that the user does not understand the word. For example, when there is a time in the time group whose syntax difficulty level is equal to or greater than the third threshold, the understanding type determination unit 115 determines that the understanding type is included because the user does not understand the syntax.
例えば、速度難易度が第4閾値以上である当該時刻群の時刻が存在する場合、理解タイプ判別部115は、音声の速度が速いことが理解タイプに含まれると判定する。例えば、訛り難易度が第5閾値以上である当該時刻群の時刻が存在する場合、理解タイプ判別部115は、音声に訛りがあることが理解タイプに含まれると判定する。
For example, when there is a time in the time group in which the speed difficulty is equal to or higher than the fourth threshold, the understanding type determination unit 115 determines that the understanding type includes that the speed of the voice is high. For example, when there is a time in the time group in which the difficulty level of speaking is greater than or equal to the fifth threshold, the understanding type determination unit 115 determines that the understanding type includes that the sound is speaking.
また、例えば、理解活動時間の第2割合以上の時間において(第2割合は第1割合以下である)理解度が所定の閾値以下である場合、理解タイプ判別部115は、ユーザがコンテンツのトピックを理解していないことが理解タイプに含まれると判定する。
For example, when the understanding level is equal to or less than a predetermined threshold at a time equal to or higher than the second rate of the understanding activity time (the second rate is equal to or lower than the first rate), the understanding type determination unit 115 causes the topic of the content to be the user. Is determined to be included in the understanding type.
なお、理解タイプ判別部115は、複数の理解タイプが存在する場合、理解タイプ即ちユーザがコンテンツを理解できていない原因を絞り込んでもよい。例えば、理解タイプそれぞれに優先度が予め定められており、理解タイプ判別部115は、当該優先度に従って当該複数の理解タイプを所定個数の理解タイプを選択に絞り込む。
Note that, when there are a plurality of understanding types, the understanding type determination unit 115 may narrow down the understanding type, that is, the cause that the user cannot understand the content. For example, the priority is determined in advance for each understanding type, and the understanding type determination unit 115 narrows the plurality of understanding types to a predetermined number of understanding types according to the priority.
また、例えば、理解タイプ判別部115が、当該複数の理解タイプそれぞれの優先度を決定してもよい。ユーザがトピックを理解していないことが理解タイプに含まれる場合、理解タイプ判別部115は、例えば、理解度の平均値に第1重みを掛けた値を、ユーザがトピックを理解していないことに対応する優先度に決定する。
Further, for example, the understanding type determination unit 115 may determine the priority of each of the plurality of understanding types. When the understanding type includes that the user does not understand the topic, the understanding type determination unit 115 indicates that the user does not understand the topic, for example, a value obtained by multiplying the average value of the understanding level by the first weight. The priority corresponding to is determined.
ユーザが単語を理解していないことが理解タイプに含まれる場合、理解タイプ判別部115は、例えば、理解度が第1閾値以下である単語の第2閾値以上である単語難易度の平均値に第2重みを掛けた値を、ユーザが単語を理解していないことに対応する優先度に決定する。ユーザが構文を理解していないことが理解タイプに含まれる場合、理解タイプ判別部115は、例えば、理解度が第1閾値以下である単語の第3閾値以上である構文難易度の平均値に第3重みを掛けた値を、ユーザが構文を理解していないことに対応する優先度に決定する。
When the understanding type includes that the user does not understand the word, the understanding type determination unit 115 sets, for example, the average value of the word difficulty level that is equal to or higher than the second threshold value of the word whose understanding level is equal to or lower than the first threshold value. The value multiplied by the second weight is determined as the priority corresponding to the fact that the user does not understand the word. When the understanding type includes that the user does not understand the syntax, the understanding type determination unit 115 sets, for example, an average value of the syntax difficulty level that is equal to or higher than the third threshold value of a word whose understanding level is equal to or lower than the first threshold value. The value multiplied by the third weight is determined as the priority corresponding to the fact that the user does not understand the syntax.
音声の速度が速いことが理解タイプに含まれる場合、理解タイプ判別部115は、例えば、理解度が第1閾値以下である単語の第4閾値以上である速度難易度の平均値に第4重みを掛けた値を、音声の速度が速いことに対応する優先度に決定する。音声に訛りがあることが理解タイプに含まれる場合、理解タイプ判別部115は、例えば、理解度が第1閾値以下である単語の第5閾値以上である訛り難易度の平均値に第5重みを掛けた値を、音声に訛りがあることに対応する優先度に決定する。
When the understanding type includes that the speed of speech is high, the understanding type determination unit 115 uses, for example, the fourth weight to the average value of the speed difficulty level that is equal to or higher than the fourth threshold value of the word whose understanding level is equal to or lower than the first threshold value. The value obtained by multiplying is determined as the priority corresponding to the high speed of the voice. When the understanding type includes that the voice is spoken, for example, the understanding type determination unit 115 sets the fifth weight to the average value of the difficulty of speaking that is equal to or higher than the fifth threshold of words whose understanding is equal to or lower than the first threshold. A value obtained by multiplying by is determined as a priority corresponding to the voice being uttered.
図17は、理解タイプ結果の一例を示す。図17の例では、現在のユーザの理解タイプは単語が理解できていないことであり、ユーザは単語を理解できていないことにより提示した情報全体が理解できない状態である可能性が高い。つまり、情報制御部116は、提示する情報を、理解タイプに基づいて制御することにより、ユーザの理解度を向上させることができる。
FIG. 17 shows an example of the understanding type result. In the example of FIG. 17, the current user's understanding type is that the word cannot be understood, and it is highly possible that the user cannot understand the entire presented information because the word cannot be understood. That is, the information control unit 116 can improve the degree of understanding of the user by controlling the information to be presented based on the understanding type.
図18は、情報制御部116による提示情報制御処理の一例を示す。情報制御部116は、理解タイプ判別部115が決定した理解タイプ結果を取得する(S1801)。即ち、理解タイプ判別部115は、ユーザがコンテンツを理解しているか否かを示す情報、及びユーザがコンテンツ理解していない場合にはさらに理解タイプを取得する。
FIG. 18 shows an example of presentation information control processing by the information control unit 116. The information control unit 116 acquires the understanding type result determined by the understanding type determination unit 115 (S1801). That is, the understanding type determination unit 115 acquires information indicating whether or not the user understands the content, and further understands the understanding type when the user does not understand the content.
情報制御部116は、取得した理解タイプ結果に従って、ユーザがコンテンツを理解しているか否かを判定する(S1802)。情報制御部116は、ユーザがコンテンツを理解していないと判定した場合(S1802:NO)、理解タイプ結果が示す理解タイプに従って、提示する情報を制御し、(S1803)、次の情報を提示する(S1804)。ステップS1803を経由した場合におけるステップS1804における次の情報の具体例は後述する。情報制御部116は、ユーザがコンテンツを理解したと判定した場合(S1802:YES)、次の情報、例えば別のコンテンツ等、を提示する(S1804)。
The information control unit 116 determines whether the user understands the content according to the acquired understanding type result (S1802). When it is determined that the user does not understand the content (S1802: NO), the information control unit 116 controls the information to be presented according to the understanding type indicated by the understanding type result (S1803), and presents the next information. (S1804). A specific example of the next information in step S1804 in the case of going through step S1803 will be described later. When it is determined that the user understands the content (S1802: YES), the information control unit 116 presents the next information, for example, another content (S1804).
図19は、ステップS1603における制御内容の一例を示す。情報制御部116は、理解タイプに応じた予め定められた制御内容に従って、制御処理を行う。図19の例では、理解タイプが単語である場合の制御が「語彙数1000以下の簡単な単語で言い換える」、理解タイプが構文である場合の制御が「簡単な構文で言い換える」、理解タイプがトピックである場合の制御が「背景知識の紹介」、理解タイプが速度である場合の制御が「ゆっくり言い換える」、理解タイプが訛りである場合の制御が「標準語で言い換える」、である例を示す。
FIG. 19 shows an example of control contents in step S1603. The information control unit 116 performs a control process in accordance with a predetermined control content corresponding to the understanding type. In the example of FIG. 19, when the understanding type is a word, the control is “rephrase with a simple word having a vocabulary number of 1000 or less”, and when the understanding type is a syntax, the control is “rephrase with a simple syntax”. An example in which the control when the topic is "Introduction of background knowledge", the control when the understanding type is speed is "Slowly rephrase", and the control when the understanding type is Speak is "Rephrase with standard words" Show.
図20は、情報制御部116がタッチパネル103に出力する、警告メッセージの一例である。情報制御部116は、例えばステップS1802において、ユーザがコンテンツを理解していないと判定した場合に、図20の警告メッセージをタッチパネル103に出力する。
FIG. 20 is an example of a warning message output from the information control unit 116 to the touch panel 103. For example, if the information control unit 116 determines in step S1802 that the user does not understand the content, the information control unit 116 outputs the warning message in FIG.
ユーザが「そのまま」に対応するチェックボックスを選択した場合、例えば、情報制御部116は、ステップS1802においてユーザがコンテンツを理解している場合の、ステップS1804と同様の情報を提示する。
When the user selects the check box corresponding to “as is”, for example, the information control unit 116 presents the same information as in step S1804 when the user understands the content in step S1802.
ユーザが「情報制御」に対応するチェックボックスを選択した場合、情報制御部116は、ステップS1803において、理解タイプに従って次に提示する情報の制御を行う。以下、ユーザが「情報制御」に対応するチェックボックスを選択した場合における、ユーザへの提示画面及び情報制御部116によるステップS1803及びステップS1804の具体例を説明する。
When the user selects the check box corresponding to “information control”, in step S1803, the information control unit 116 controls information to be presented next according to the understanding type. Hereinafter, a specific example of the step S1803 and the step S1804 performed by the user display screen and the information control unit 116 when the user selects the check box corresponding to “information control” will be described.
図21Aは、ユーザが単語を理解していないことが理解タイプである場合における、情報制御部116がステップS1803においてタッチパネルに出力するユーザインタフェースの一例である。当該ユーザインタフェースは、例えば、ユーザが単語を理解していない旨及び対応策を示すメッセージ、並びに単語難易度が第2閾値以上である単語を太枠で囲んだテキスト形式のコンテンツを表示する。なお、理解度が第1閾値以下かつ単語難易度が第2閾値以上である単語が太枠で囲まれていてもよい。
FIG. 21A is an example of a user interface that the information control unit 116 outputs to the touch panel in step S1803 when the user does not understand the word is an understanding type. The user interface displays, for example, a message indicating that the user does not understand the word and a countermeasure, and text-format content in which a word having a word difficulty level equal to or greater than the second threshold is surrounded by a thick frame. Note that words whose degree of understanding is not more than the first threshold and whose word difficulty is not less than the second threshold may be surrounded by a thick frame.
ユーザが「単語の意味」に対応するチェックボックスを選択した場合、例えば、情報制御部116は、太枠で囲まれた単語の意味を単語解釈204から取得し、タッチパネル103に出力する。これによりユーザは理解度が低い単語の意味を理解することができる。
When the user selects a check box corresponding to “meaning of word”, for example, the information control unit 116 acquires the meaning of the word surrounded by a thick frame from the word interpretation 204 and outputs it to the touch panel 103. Thereby, the user can understand the meaning of the word with a low understanding level.
また、ユーザが「簡単バージョンで言い換える」に対応するチェックボックスを選択した場合、例えば、情報制御部116は、当該コンテンツのより簡単なバージョンのコンテンツをコンテンツ203から選択し、タッチパネル103に出力する。
Also, when the user selects the check box corresponding to “Rephrase with simple version”, for example, the information control unit 116 selects a simpler version of the content from the content 203 and outputs it to the touch panel 103.
図21Bは、ユーザが構文を理解していないことが理解タイプである場合における、情報制御部116がステップS1803においてタッチパネルに出力するユーザインタフェースの一例である。当該ユーザインタフェースは、例えば、ユーザが構文を理解していない旨及び対応策を示すメッセージ、並びに構文難易度が第3閾値以上である単語を太枠で囲んだテキスト形式のコンテンツを表示する。なお、理解度が第1閾値以下かつ構文難易度が第3閾値以上である単語が太枠で囲まれていてもよい。
FIG. 21B is an example of a user interface that the information control unit 116 outputs to the touch panel in step S1803 when the user does not understand the syntax is an understanding type. The user interface displays, for example, a message indicating that the user does not understand the syntax and a countermeasure, and text-format content in which words having a syntax difficulty level equal to or greater than the third threshold value are surrounded by a thick frame. Note that words whose degree of understanding is not more than the first threshold and whose syntax difficulty is not less than the third threshold may be surrounded by a thick frame.
ユーザが「そのまま」に対応するチェックボックスを選択した場合、情報制御部116は、次の情報提示において、理解タイプに構文が含まれていない場合と同様の処理を行う。ユーザが「簡単バージョン」に対応するチェックボックスを選択した場合、情報制御部116は、当該コンテンツのより簡単なバージョンのコンテンツをコンテンツ203から選択し、タッチパネル103に出力する。
When the user selects the check box corresponding to “as is”, the information control unit 116 performs the same processing as when the understanding type does not include syntax in the next information presentation. When the user selects a check box corresponding to “easy version”, the information control unit 116 selects a simpler version of the content from the content 203 and outputs it to the touch panel 103.
図22Aは、ユーザがトピックを理解していないことが理解タイプである場合における、情報制御部116がステップS1803においてタッチパネルに出力するユーザインタフェースの一例である。当該ユーザインタフェースは、例えば、ユーザがトピックを理解していない旨及び対応策を示すメッセージ、並びにテキスト形式のコンテンツを表示する。
FIG. 22A is an example of a user interface that the information control unit 116 outputs to the touch panel in step S1803 when the user does not understand the topic is an understanding type. The user interface displays, for example, a message indicating that the user does not understand the topic and a countermeasure, and text content.
ユーザが「日本語」に対応するチェックボックスを選択した場合、情報制御部116は、当該コンテンツの日本語版の背景知識を背景202から選択し、タッチパネル103に出力する。ユーザが「英語」に対応するチェックボックスを選択した場合、情報制御部116は、当該コンテンツの英語版の背景知識を背景202から選択し、タッチパネル103に出力する。ユーザが「写真」に対応するチェックボックスを選択した場合、情報制御部116は、当該コンテンツの背景202から写真を選択し、タッチパネル103に出力する。
When the user selects the check box corresponding to “Japanese”, the information control unit 116 selects the background knowledge of the Japanese version of the content from the background 202 and outputs it to the touch panel 103. When the user selects the check box corresponding to “English”, the information control unit 116 selects the background knowledge of the English version of the content from the background 202 and outputs it to the touch panel 103. When the user selects a check box corresponding to “photo”, the information control unit 116 selects a photo from the background 202 of the content and outputs it to the touch panel 103.
図22Bは、音声の速度が速いことが理解タイプである場合における、情報制御部116がステップS1803においてタッチパネルに出力するユーザインタフェースの一例である。当該ユーザインタフェースは、例えば、音声の速度が速いためユーザが音声を理解していない旨及び対応策を示すメッセージ、並びにテキスト形式のコンテンツを表示する。
FIG. 22B is an example of a user interface that the information control unit 116 outputs to the touch panel in step S1803 in the case where the understanding type is that the voice speed is high. The user interface displays, for example, a message indicating that the user does not understand the voice due to the high speed of the voice and a countermeasure and a text format content.
ユーザが「そのまま」に対応するチェックボックスを選択した場合、情報制御部116は、次の情報提示において、理解タイプに速度が含まれていない場合と同様の処理を行う。ユーザが「ゆっくり」に対応するチェックボックスを選択した場合、情報制御部116は、例えば、提示したコンテンツ内の全ての単語又は速度難易度が第4閾値以上である単語、の速度を所定値下げた又は所定値まで下げた音声データを作成し、出力する。
When the user selects the check box corresponding to “as is”, the information control unit 116 performs the same processing as when the understanding type does not include speed in the next information presentation. When the user selects the check box corresponding to “slow”, the information control unit 116 decreases the speed of, for example, all the words in the presented content or the words whose speed difficulty is the fourth threshold value or more by a predetermined value. Alternatively, the voice data lowered to a predetermined value is created and output.
図22Cは、音声に訛りがあることが理解タイプである場合における、情報制御部116がステップS1803においてタッチパネルに出力するユーザインタフェースの一例である。当該ユーザインタフェースは、例えば、音声に訛りがあるためユーザが音声を理解していない旨及び対応策を示すメッセージ、並びにテキスト形式のコンテンツを表示する。
FIG. 22C is an example of a user interface that is output from the information control unit 116 to the touch panel in step S1803 in the case where the understanding type is that there is a voice. The user interface displays, for example, a message indicating that the user does not understand the voice due to speech and a countermeasure indicating the countermeasure, and text content.
ユーザが「そのまま」に対応するチェックボックスを選択した場合、情報制御部116は、次の情報提示において、理解タイプに速度が含まれていない場合と同様の処理を行う。ユーザが「標準語」に対応するチェックボックスを選択した場合、情報制御部116は、例えば、提示したコンテンツ内の全ての単語又は訛り難易度が第5閾値以上である単語、の標準語のアクセントからの乖離を所定値下げた又は所定値まで下げた音声データを作成し、出力する。
When the user selects the check box corresponding to “as is”, the information control unit 116 performs the same processing as when the understanding type does not include speed in the next information presentation. When the user selects the check box corresponding to “standard word”, the information control unit 116, for example, accents the standard word of all the words in the presented content or the word whose difficulty of speaking is the fifth threshold value or more. Create and output audio data with a deviation from a predetermined value lowered or reduced to a predetermined value.
ここまで、ステップS1803において、情報制御部116が、図20~図22Cのような画面を出力し、ユーザが画面内の情報を選択し、選択した情報に従って、次の提示情報を決定する例を説明した。
Up to this point, in step S1803, the information control unit 116 outputs the screens as shown in FIGS. 20 to 22C, the user selects the information in the screen, and determines the next presentation information according to the selected information. explained.
情報制御部116は、ステップS1803において、図20~図22Cのような画面を出力せず、図20~図22Cにおけるチェックボックスに対応する情報のいずれかを次の提示情報に自動的に決定してもよい。また、例えば、情報制御部116は、ユーザが構文を理解していないことが理解タイプである場合において、提示したコンテンツ内の単語に占める単語難易度が第2閾値以上である単語の割合が所定値以上の場合に、単語難易度が第2閾値以上である単語の意味を出力する、又は当該コンテンツのより簡単なバージョンのコンテンツを出力してもよい。
In step S1803, the information control unit 116 does not output the screens shown in FIGS. 20 to 22C, and automatically determines any of the information corresponding to the check boxes in FIGS. 20 to 22C as the next presentation information. May be. In addition, for example, when the information control unit 116 is of the understanding type that the user does not understand the syntax, the ratio of the words whose word difficulty in the presented content is greater than or equal to the second threshold is predetermined. If the value is greater than or equal to the value, the meaning of a word having a word difficulty level equal to or greater than the second threshold may be output, or a simpler version of the content may be output.
以上、本実施例の対話システム101は、提示情報に対するユーザの理解活動時の生体情報と、提示情報の難易度と、を照合することに、ユーザの提示情報に対する客観的な理解度及び理解タイプを精度よく特定することができる。また、本実施例の対話システム101は、理解度と理解タイプに基づいて、次に提示する情報を決定することにより、当該提示情報と同様の内容を有し、かつユーザの理解度に沿った情報を提示することができる。具体的には、例えば、対話システム101は、ユーザの理解度が低いかつ難易度が高い要素を、難易度が低い要素に置換した情報を提示することにより、ユーザの理解度を高めることができる。
As described above, the interactive system 101 according to the present embodiment compares the biological information at the time of the user's understanding activity on the presentation information with the difficulty level of the presentation information. Can be accurately identified. In addition, the dialogue system 101 according to the present embodiment determines the information to be presented next based on the degree of understanding and the understanding type, thereby having the same contents as the presentation information and in accordance with the degree of understanding of the user. Information can be presented. Specifically, for example, the dialogue system 101 can increase the user's understanding level by presenting information in which elements having a low degree of understanding and a high degree of difficulty are replaced with elements having a low level of difficulty. .
前述した通り対話システム101は、提示情報に対するユーザの理解度を判別することが可能であるため、前述のような教育に関するコンテンツだけでなく、広告、マーケティング、及び医療等の分野のコンテンツに適用することもできる。テキストデータ107及び音声データ108にこれらの分野のコンテンツが予め格納されていればよい。
As described above, the dialogue system 101 can determine the degree of understanding of the user with respect to the presentation information. Therefore, the dialogue system 101 is applied not only to the content related to education as described above but also to content in fields such as advertising, marketing, and medical care. You can also. The contents of these fields may be stored in the text data 107 and the audio data 108 in advance.
また、メモリ106は音声による言語認識を行う音声認識部を含んでもよく、例えば、情報提示部110及び情報制御部116が前述のユーザ入力を受け付ける代わりに、音声認識部がユーザから受け付けた音声言語による入力を受け付け、情報提示部110及び情報制御部116に送信する。これにより対話システム101は、自然言語による人間との対話が可能となる。
In addition, the memory 106 may include a voice recognition unit that performs speech language recognition. For example, instead of the information presentation unit 110 and the information control unit 116 receiving the above-described user input, the voice recognition unit receives a voice language received from the user. Is received and transmitted to the information presentation unit 110 and the information control unit 116. As a result, the dialogue system 101 can communicate with humans in natural language.
本実施例では情報提示部110はステップS302の提示形式選択において、テキストと音声の一方又は双方を選択する例を説明しあったが、音楽、画像、動画等の他の提示形式のデータが補助記憶装置105に格納されている場合は、当該他の提示形式を選択してもよい。
In the present embodiment, the information presentation unit 110 has described an example in which one or both of text and voice are selected in the presentation format selection in step S302. However, data in other presentation formats such as music, images, and videos is supplemented. When stored in the storage device 105, the other presentation format may be selected.
また、本実施例の難易度分析部111は、難易度を分析しているが、ユーザから難易度の直接入力を受け付けてもよい。例えば、対話システム101を用いて、広告の動画の理解度について市場調査をする場合において、調査者は例えば動画の所定時刻における難易度を高く設定することにより、対話システム101は当該所定時刻における調査被験者の理解タイプを出力することができる。
Further, the difficulty level analysis unit 111 of the present embodiment analyzes the difficulty level, but may accept a direct input of the difficulty level from the user. For example, in the case of conducting a market survey on the degree of understanding of the moving image of an advertisement using the interactive system 101, the researcher sets the difficulty level at a predetermined time of the moving image, for example, so that the interactive system 101 performs an investigation at the predetermined time. The subject's understanding type can be output.