Nothing Special   »   [go: up one dir, main page]

JP6089861B2 - Vocabulary determination task analysis device, vocabulary determination task analysis system, vocabulary determination task analysis method, and program - Google Patents

Vocabulary determination task analysis device, vocabulary determination task analysis system, vocabulary determination task analysis method, and program Download PDF

Info

Publication number
JP6089861B2
JP6089861B2 JP2013066222A JP2013066222A JP6089861B2 JP 6089861 B2 JP6089861 B2 JP 6089861B2 JP 2013066222 A JP2013066222 A JP 2013066222A JP 2013066222 A JP2013066222 A JP 2013066222A JP 6089861 B2 JP6089861 B2 JP 6089861B2
Authority
JP
Japan
Prior art keywords
stimulus information
analysis
answer
target stimulus
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013066222A
Other languages
Japanese (ja)
Other versions
JP2014188168A (en
Inventor
小川 隆
隆 小川
智子 小堀
智子 小堀
靖寿 松葉
靖寿 松葉
隼 沖
隼 沖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2013066222A priority Critical patent/JP6089861B2/en
Publication of JP2014188168A publication Critical patent/JP2014188168A/en
Application granted granted Critical
Publication of JP6089861B2 publication Critical patent/JP6089861B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、語彙判断課題を用いて回答者の感性等を調査、分析する語彙判断課題分析装置等に関する。   The present invention relates to a vocabulary determination task analysis apparatus and the like for investigating and analyzing the sensibility of respondents using vocabulary determination tasks.

従来より、マーケティング調査において消費者の意志や感性を取得しようとする際はアンケートやインタビューを行うことが多い。そして、意志や感性といった主観的な判断を分析する場合には、語彙判断課題を用いることがある。語彙判断課題とは、先行して表示する情報(以下、プライム刺激と呼ぶ。例えば、キャラクタ等の意匠)と、次に表示される情報(以下、ターゲット刺激と呼ぶ。例えば、「かわいい」といった単語や「なぬらら」といった非単語を含む文字列)との認知(心理)的距離を反応時間を用いて計測する心理計測手法である。ターゲット刺激では、表示される文字列が言葉として意味があれば「○」、意味がなければ「×」を選択する。例えば、プライム刺激として表示されたキャラクタに対して「かわいい」という潜在的印象を抱えている人は、「かわいい」というターゲット刺激に対する反応時間が短くなることが知られている。   Conventionally, questionnaires and interviews are often performed when trying to acquire the will and sensitivity of consumers in marketing surveys. When analyzing subjective judgments such as will and sensitivity, vocabulary judgment tasks may be used. The vocabulary determination task includes information to be displayed in advance (hereinafter referred to as “prime stimulus”, for example, a design such as a character), and information to be displayed next (hereinafter referred to as “target stimulus”, for example, a word such as “cute”). This is a psychometric measurement method that measures a cognitive (psychological) distance from a character string including a non-word such as “Nanura” using a reaction time. In the target stimulus, “◯” is selected if the displayed character string is meaningful as a word, and “X” is selected if it is not meaningful. For example, it is known that a person who has a potential impression of “cute” with respect to a character displayed as a prime stimulus has a short response time to the target stimulus of “cute”.

上述のアンケートやインタビューでは、「言葉」によって意見を集めるが、これは消費者が正直に答えてくれることが前提となっている。消費者が正直に答えた場合であっても、回答者が質問者の意図を汲んできれいな答えを出してしまったり、社会的に体裁の良い答えに偏ってしまったりすることもある。よって、設問に対する結果からだけでは回答者の心理を正しく読み取ることは難しい。   In the questionnaires and interviews mentioned above, opinions are gathered by “words”, which is based on the premise that consumers will answer honestly. Even if the consumer responds honestly, the respondent may give a clean answer based on the intent of the questioner, or it may be biased toward a socially appealing answer. Therefore, it is difficult to correctly read the respondent's psychology only from the result of the question.

ところで、心理学の分野では、回答者が質問に回答するまでの時間(以下、反応時間という)を計測して、言葉で表象されない様々な心理状態や認知プロセスを推定する実験が行われている。また、特許文献1には、アンケート形式の心理検査を実施して得られる回答者の数値回答または数値化した結果を、数値の大きさに応じた色に変換(カラー化)して色合い又は色の濃淡によって表現し且つ類似傾向のデータをグループ分けすることにより、心理検査の結果を可視化(ビジュアル化)する心理検査結果のデータ処理方法が記載されている。   By the way, in the field of psychology, experiments to estimate various psychological states and cognitive processes that are not represented by words by measuring the time until respondents answer a question (hereinafter referred to as reaction time) are being conducted. . Further, Patent Document 1 discloses that a numerical value of a respondent obtained by conducting a psychological examination in a questionnaire format or a numerical result is converted (colored) into a color according to the size of the numerical value, and a hue or color The data processing method of the psychological test result that visualizes (visualizes) the result of the psychological test by grouping the data of the similar tendency expressed by the density of the color is described.

特開2008−148798号公報JP 2008-148798 A

しかしながら、上述の反応時間を用いた心理状態等の推定は、実験的に行われるものであった。また、上述の特許文献1は、マークシートに記入された心理検査の回答をマークシートリーダ等を用いて読み取り、個人結果ならびに集団の結果をカラー化して示すものである。特許文献1の手法では、回答者の回答時の反応時間と心理状態との関連について調査されず、したがって、アンケートの結果と反応時間から推測される心理状態とを結びつけて表現することについて特に提案されていない。また、上述の語彙判断課題の結果は、従来は集計結果をそのまま数値リストの形式で示すのが一般的である。これを見やすく表示する手法は特に提案されていなかった。   However, the estimation of the psychological state and the like using the above reaction time has been performed experimentally. In addition, the above-mentioned Patent Document 1 reads a psychological test answer written on a mark sheet using a mark sheet reader or the like, and shows individual results and group results in color. The method of Patent Document 1 does not investigate the relationship between the response time and the psychological state at the time of the respondent's response, and therefore proposes to express the result of the questionnaire and the psychological state inferred from the reaction time. It has not been. Conventionally, the result of the vocabulary determination task described above is generally shown in the form of a numerical list as it is as a total result. There has been no particular proposal of a method for displaying this clearly.

本発明は、このような課題に鑑みてなされたもので、その目的とするところは、語彙判断課題の調査を反応時間の計測とともに行い、分析結果をチャート化して出力し、回答の分析結果を回答者の心理状態と併せて見やすく表示することが可能な語彙判断課題分析装置等を提供することである。   The present invention has been made in view of such problems, and its purpose is to investigate a vocabulary determination task together with measurement of reaction time, output the analysis result in a chart, and output the analysis result of the answer. It is to provide a vocabulary determination task analysis device and the like that can be displayed in an easy-to-view manner along with the psychological state of the respondent.

前述した課題を解決するため第1の発明は、プライム刺激情報を提示した後に単語文字列または非単語文字列をターゲット刺激情報として提示し、前記ターゲット刺激情報が意味をなす語であるか否かを判断する語彙判断課題を設問として順次表示する表示手段と、前記設問に対する回答を入力する入力手段と、前記ターゲット刺激情報を表示した時点から回答を入力する時点までの反応時間を計測する反応時間計測手段と、各ターゲット刺激情報に対する回答及び反応時間を対応付けて記憶する記憶手段と、前記記憶手段に記憶されている複数の回答者から得られた回答及び反応時間を分析する分析手段と、前記分析手段による分析結果として、前記プライム刺激情報及び前記ターゲット刺激情報を含み、前記ターゲット刺激情報に対する回答の反応時間を図案を用いて示した分析チャートを作成する分析チャート作成手段と、前記分析チャートを出力する出力手段と、を備えることを特徴とする語彙判断課題分析装置である。   In order to solve the above-described problem, the first invention presents a word character string or a non-word character string as target stimulus information after presenting prime stimulus information, and whether or not the target stimulus information is a meaningful word. Display means for sequentially displaying vocabulary determination tasks as questions, input means for inputting answers to the questions, and reaction time for measuring the reaction time from the time when the target stimulus information is displayed until the time when the answers are input Measuring means, storage means for storing responses and reaction times in association with each target stimulus information, and analysis means for analyzing answers and reaction times obtained from a plurality of respondents stored in the storage means; As an analysis result by the analysis means, the prime stimulus information and the target stimulus information are included, and the target stimulus information is And analysis chart creating means for creating an analysis chart shown using design answers reaction time, and output means for outputting the analysis chart, a lexical decision task analyzer, characterized in that it comprises a.

第1の発明の語彙判断課題分析装置によれば、語彙判断課題の設問を表示画面に表示し、回答の反応時間を計測し、回答及び反応時間を分析し、分析結果として、設問のプライム刺激情報及びターゲット刺激情報を含み、ターゲット刺激情報に対する回答の反応時間を図案を用いて示した分析チャートを作成して出力する。
第1の発明の語彙判断課題分析装置を使用することにより、語彙判断課題の調査を反応時間の計測とともに行い、分析結果をチャート化して出力することが可能となる。そのため、回答の分析結果を回答者の心理状態と併せて見やすく表示することが可能となる。
According to the vocabulary determination task analysis apparatus of the first invention, the question of the vocabulary determination task is displayed on the display screen, the response time of the answer is measured, the response time and the response time are analyzed, and the prime stimulation of the question is obtained as the analysis result. An analysis chart including information and target stimulus information and showing the response time of the response to the target stimulus information using a design is created and output.
By using the vocabulary determination task analysis apparatus according to the first aspect of the invention, it is possible to investigate a vocabulary determination task together with measurement of the reaction time, and output the analysis result in a chart. Therefore, it becomes possible to display the analysis result of the answer together with the psychological state of the respondent in an easy-to-read manner.

また、前記設問に対する回答中に回答者の生理指標データを計測する生理指標計測手段と、前記生理指標計測手段により計測された生理指標データに基づいて生理指標または感情に関する所定の分析指標を算出する生理指標分析手段と、を更に備え、前記分析チャート作成手段は、前記分析チャート内に更に前記生理指標または感情に関する分析指標を図案を用いて示すことが望ましい。   In addition, a physiological index measurement unit that measures the physiological index data of the respondent during the answer to the question, and a predetermined analysis index related to the physiological index or emotion is calculated based on the physiological index data measured by the physiological index measurement unit It is preferable that the apparatus further includes a physiological index analysis unit, and the analysis chart creation unit further shows the analysis index related to the physiological index or emotion in the analysis chart using a design.

これにより、語彙判断課題に対する回答中に回答者の生理指標を計測し、計測データに基づいて生理指標や感情に関する分析指標を求め、求めた分析指標を分析チャート内に図案を用いて示すことが可能となる。したがって、判断に伴う回答者の感情面やストレス等の状態を推測できるようになる。   As a result, it is possible to measure the physiological index of the respondent during the response to the vocabulary judgment task, obtain the analytical index related to the physiological index and emotion based on the measured data, and show the calculated analytical index in the analysis chart using the design It becomes possible. Accordingly, it becomes possible to infer the emotional state and stress of the respondent accompanying the determination.

また、前記設問に対する回答中に回答者の顔を撮像する撮像手段と、前記撮像手段により撮像された顔画像データに基づいて感情に関する所定の分析指標を算出する感情分析手段と、を更に備え、前記分析チャート作成手段は、前記分析チャート内に更に前記感情に関する分析指標を図案を用いて示すことが望ましい。   The image processing apparatus further includes an imaging unit that captures the face of the respondent during the answer to the question, and an emotion analysis unit that calculates a predetermined analysis index relating to emotion based on the face image data captured by the imaging unit. It is desirable that the analysis chart creating means further shows an analysis index related to the emotion using a design in the analysis chart.

これにより、語彙判断課題に対する回答中に回答者の顔画像を撮影し、顔画像データに基づいて感情に関する分析指標を求め、求めた分析指標を分析チャート内に図案を用いて示すことが可能となる。したがって、判断に伴う回答者の感情面やストレス等の状態を推測できるようになる。   This makes it possible to take a face image of the respondent while answering the vocabulary determination task, obtain an analysis index related to emotion based on the face image data, and show the calculated analysis index in the analysis chart using a design Become. Accordingly, it becomes possible to infer the emotional state and stress of the respondent accompanying the determination.

また、前記分析チャート作成手段は、前記プライム刺激情報を示すオブジェクトを中心に配置し、前記ターゲット刺激情報を示すオブジェクトを前記プライム刺激情報を示すオブジェクトの周囲に配置し、前記プライム刺激情報を示すオブジェクトと前記ターゲット刺激情報を示す各オブジェクトとを結ぶオブジェクトを前記反応時間に応じたサイズで配置することが望ましい。   Further, the analysis chart creating means arranges an object indicating the prime stimulus information in the center, arranges an object indicating the target stimulus information around an object indicating the prime stimulus information, and indicates the prime stimulus information. It is desirable to arrange an object that connects each object indicating the target stimulus information with a size corresponding to the reaction time.

また、前記分析チャート作成手段は、前記プライム刺激情報を示すオブジェクトを中心に配置し、前記ターゲット刺激情報を示すオブジェクトを前記プライム刺激情報を示すオブジェクトの周囲に配置し、前記ターゲット刺激情報を示す各オブジェクトのサイズを前記反応時間に応じたサイズとするようにしてもよい。   Further, the analysis chart creating means arranges an object indicating the prime stimulus information in the center, arranges an object indicating the target stimulus information around an object indicating the prime stimulus information, and indicates each of the target stimulus information. You may make it make the size of an object the size according to the said reaction time.

また、前記分析チャート作成手段は、前記プライム刺激情報を示すオブジェクトを中心に配置し、前記ターゲット刺激情報を示すオブジェクトを前記プライム刺激情報を示すオブジェクトの周囲に配置し、前記ターゲット刺激情報を示す各オブジェクトの色を前記反応時間に応じた色で描画するようにしてもよい。   Further, the analysis chart creating means arranges an object indicating the prime stimulus information in the center, arranges an object indicating the target stimulus information around an object indicating the prime stimulus information, and indicates each of the target stimulus information. You may make it draw the color of an object with the color according to the said reaction time.

これにより、語彙判断課題のプライム刺激情報及びターゲット刺激情報を配置した分析チャート内に、反応時間を反応時間の長さに応じたオブジェクトを配置して表現したり、ターゲット刺激情報を示すオブジェクトの表示形態(サイズや色等)を反応時間に応じて描画することが可能となるため、分析結果をわかりやすく表現できる。   As a result, in the analysis chart in which the prime stimulus information and the target stimulus information of the vocabulary determination task are arranged, the reaction time is expressed by arranging an object corresponding to the length of the reaction time, or the object indicating the target stimulus information is displayed. Since the form (size, color, etc.) can be drawn according to the reaction time, the analysis result can be expressed in an easy-to-understand manner.

また、前記分析チャート作成手段は、前記プライム刺激情報を示すオブジェクトを中心に配置し、前記ターゲット刺激情報を示す複数のオブジェクトを前記プライム刺激情報を示すオブジェクトの周囲に配置し、前記プライム刺激情報を示すオブジェクトと前記ターゲット刺激情報を示す各オブジェクトとを結ぶオブジェクトを前記反応時間に応じたサイズで配置し、前記ターゲット刺激情報を示す各オブジェクトの表示形態を前記生理指標または感情に関する分析指標に応じた表示形態とするようにしてもよい。   Further, the analysis chart creating means arranges the object indicating the prime stimulus information in the center, and arranges a plurality of objects indicating the target stimulus information around the object indicating the prime stimulus information, and the prime stimulus information is displayed. An object connecting the object to be displayed and each object indicating the target stimulus information is arranged in a size corresponding to the reaction time, and the display form of each object indicating the target stimulus information is set according to the physiological index or the analysis index related to emotion You may make it be a display form.

これにより、語彙判断課題のプライム刺激情報及びターゲット刺激情報を配置した分析チャート内に、反応時間や生理指標または感情に関する分析指標を図案を用いて表示することが可能となるため、分析結果をわかりやすく表現できる。   As a result, it is possible to display reaction time, physiological indices, or emotional analysis indices using a design in an analysis chart in which prime stimulus information and target stimulus information of a vocabulary determination task are arranged, so that the analysis results can be understood. Can be expressed easily.

また、各回答者から得られた回答の正否率に基づいて回答者毎に実験の信頼性を評価する実験評価手段を更に備えることが望ましい。   Moreover, it is desirable to further include an experiment evaluation means for evaluating the reliability of the experiment for each respondent based on the correctness rate of answers obtained from each respondent.

これにより、実験の信頼性を評価することができる。ユーザは適切に実験できているか否かを把握することが可能となる。   Thereby, the reliability of the experiment can be evaluated. The user can grasp whether or not the experiment can be appropriately performed.

第2の発明は、サーバとクライアント端末とがネットワークを介して通信接続された語彙判断課題分析システムであって、前記サーバは、前記クライアント端末からの要求に応じて、プライム刺激情報を提示した後に単語文字列または非単語文字列をターゲット刺激情報として提示し、前記ターゲット刺激情報が意味をなす語であるか否かを判断する語彙判断課題の設問ページを送信し、前記クライアント端末から設問に対する回答と、前記設問ページを表示した時点から前記回答を入力する時点までの反応時間とを受信する通信手段と、前記通信手段により受信した各ターゲット刺激情報に対する回答及び反応時間を対応付けて記憶する記憶手段と、前記記憶手段に記憶されている複数の回答者から得られた回答及び反応時間を分析する分析手段と、前記分析手段による分析結果として、前記プライム刺激情報及び前記ターゲット刺激情報を含み、前記ターゲット刺激情報に対する回答の反応時間を図案を用いて示した分析チャートを作成する分析チャート作成手段と、前記分析チャートを出力する出力手段と、を備え、前記クライアント端末は、前記サーバに対して、前記設問ページの取得を要求するとともに、前記サーバから送信された設問ページを受信して表示する設問ページ表示手段と、前記設問ページに対して回答を入力する入力手段と、前記ターゲット刺激情報を含む設問ページを表示した時点から前記回答が入力される時点までの反応時間を計測する反応時間計測手段と、前記回答及び前記回答の反応時間を前記サーバに送信する結果送信手段と、を備えることを特徴とする語彙判断課題分析システムである。   A second invention is a vocabulary determination task analysis system in which a server and a client terminal are communicatively connected via a network, and the server presents prime stimulus information in response to a request from the client terminal. A word character string or a non-word character string is presented as target stimulus information, a lexical judgment task question page for judging whether the target stimulus information is a meaningful word is transmitted, and an answer to the question from the client terminal And a communication means for receiving the response time from the time when the question page is displayed to the time when the answer is input, and a memory for storing the response and the response time for each target stimulus information received by the communication means in association with each other Means for analyzing responses and reaction times obtained from a plurality of respondents stored in the storage means. And an analysis chart creating means for creating an analysis chart including the prime stimulus information and the target stimulus information as an analysis result by the analysis unit, and creating an analysis chart showing a response time of the response to the target stimulus information using a design; An output means for outputting the analysis chart, wherein the client terminal requests the server to obtain the question page, and receives and displays the question page transmitted from the server Display means; input means for inputting an answer to the question page; and reaction time measuring means for measuring a reaction time from a time when the question page including the target stimulus information is displayed to a time when the answer is input. And a result transmitting means for transmitting the response and the response time of the response to the server. A lexical decision task analysis system and symptoms.

第2の発明の語彙判断課題分析システムによれば、第1の発明の語彙判断課題分析装置における入力データを、ネットワークを介して広範に収集することが可能となる。これにより、第1の発明における効果に加え、語彙判断課題により得られる分析結果の信頼性を高めることができるようになる。   According to the vocabulary determination task analysis system of the second invention, input data in the vocabulary determination task analysis device of the first invention can be collected extensively via a network. Thereby, in addition to the effect in the first invention, the reliability of the analysis result obtained by the vocabulary determination task can be improved.

第3の発明は、コンピュータを用いて行う語彙判断課題分析方法であって、プライム刺激情報を提示した後に単語文字列または非単語文字列をターゲット刺激情報として提示し、前記ターゲット刺激情報が意味をなす語であるか否かを判断する語彙判断課題を設問として順次表示するステップと、前記設問に対する回答を入力するステップと、前記ターゲット刺激情報を表示した時点から前記回答を入力する時点までの反応時間を計測するステップと、各ターゲット刺激情報に対する回答及び反応時間を対応付けて記憶部に記憶するステップと、前記記憶部に記憶されている複数の回答者から得られた回答及び反応時間を分析するステップと、分析結果として、前記プライム刺激情報及び前記ターゲット刺激情報を含み、前記ターゲット刺激情報に対する回答の反応時間を図案を用いて示した分析チャートを作成するステップと、前記分析チャートを出力するステップと、を含むことを特徴とする語彙判断課題分析方法である。   A third invention is a vocabulary determination task analysis method performed using a computer, wherein after presenting prime stimulus information, a word character string or a non-word character string is presented as target stimulus information, and the target stimulus information has a meaning. A step of sequentially displaying as a question a vocabulary determination task for determining whether or not it is a word to be formed, a step of inputting an answer to the question, and a reaction from the time of displaying the target stimulus information to the time of inputting the answer A step of measuring time, a step of associating responses and reaction times with respect to each target stimulus information and storing them in a storage unit, and analyzing responses and reaction times obtained from a plurality of respondents stored in the storage unit Including the prime stimulus information and the target stimulus information as an analysis result, and the target stimulus And creating an analysis chart shown by the design of reaction time responses to broadcast a lexical decision task analysis method characterized by comprising the steps of: outputting the analysis chart.

第3の発明によれば、語彙判断課題の設問を表示画面に表示し、回答の反応時間を計測し、回答及び反応時間を分析し、分析結果として、設問のプライム刺激情報及びターゲット刺激情報を含み、ターゲット刺激情報に対する回答の反応時間を図案を用いて示した分析チャートを作成して出力する。
これにより、語彙判断課題の調査を反応時間の計測とともに行い、分析結果をチャート化して出力することが可能となる。そのため、回答の分析結果を回答者の心理状態と併せて見やすく表示することが可能となる。
According to the third invention, the question of the vocabulary determination task is displayed on the display screen, the response time of the answer is measured, the answer and the reaction time are analyzed, and the prime stimulus information and the target stimulus information of the question are obtained as an analysis result. An analysis chart is created and output using the design of the response time of the response to the target stimulus information.
Thereby, it is possible to investigate the vocabulary determination task together with the measurement of the reaction time, and to output the analysis result as a chart. Therefore, it becomes possible to display the analysis result of the answer together with the psychological state of the respondent in an easy-to-read manner.

第4の発明は、コンピュータを、プライム刺激情報を提示した後に単語文字列または非単語文字列をターゲット刺激情報として提示し、前記ターゲット刺激情報が意味をなす語であるか否かを判断する語彙判断課題を設問として順次表示する表示手段、前記設問に対する回答を入力する入力手段、前記ターゲット刺激情報を表示した時点から回答を入力する時点までの反応時間を計測する反応時間計測手段、各ターゲット刺激情報に対する回答及び反応時間を対応付けて記憶する記憶手段、前記記憶手段に記憶されている複数の回答者から得られた回答及び反応時間を分析する分析手段、前記分析手段による分析結果として、前記プライム刺激情報及び前記ターゲット刺激情報を含み、前記ターゲット刺激情報に対する回答の反応時間を図案を用いて示した分析チャートを作成する分析チャート作成手段、前記分析チャートを出力する出力手段、として機能させるためのプログラムである。   According to a fourth aspect of the present invention, a vocabulary for presenting a word character string or a non-word character string as target stimulus information after presenting prime stimulus information and determining whether or not the target stimulus information is a meaningful word. Display means for sequentially displaying a determination task as a question, input means for inputting an answer to the question, reaction time measuring means for measuring a reaction time from the time when the target stimulus information is displayed to the time when the answer is inputted, and each target stimulus A storage means for storing an answer to information and a reaction time in association with each other, an analysis means for analyzing answers and reaction times obtained from a plurality of respondents stored in the storage means, and an analysis result by the analysis means, A response time for the response to the target stimulus information including the prime stimulus information and the target stimulus information is designed. Analysis chart creating means for creating an analysis chart shown using a program for functioning as an output means, for outputting the analysis chart.

第4の発明により、コンピュータを第1の発明の語彙判断課題分析装置として機能させることが可能となる。   According to the fourth invention, it is possible to cause a computer to function as the vocabulary determination task analysis device of the first invention.

本発明によれば、語彙判断課題の調査を反応時間の計測とともに行い、分析結果をチャート化して出力し、回答の分析結果を回答者の心理状態と併せて見やすく表示することが可能な語彙判断課題分析装置等を提供できる。   According to the present invention, a vocabulary determination that can be performed to investigate a vocabulary determination task together with measurement of reaction time, output the analysis result in a chart, and display the analysis result of the answer together with the psychological state of the respondent in an easy-to-read manner A problem analysis device or the like can be provided.

本発明の第1の実施の形態に係る語彙判断課題分析装置1の内部構成図The internal block diagram of the vocabulary judgment task analysis device 1 which concerns on the 1st Embodiment of this invention 語彙判断課題分析装置1が実行する回答処理の流れを説明するフローチャートThe flowchart explaining the flow of the answer process performed by the vocabulary determination task analysis apparatus 1 設問表示画面(プライム刺激情報表示画面21、ターゲット刺激情報表示画面22,23)の例Example of question display screen (prime stimulus information display screen 21, target stimulus information display screens 22, 23) 語彙判断課題分析装置1に対して回答者により入力される入力データ4の例Example of input data 4 input by respondent to vocabulary determination task analyzer 1 語彙判断課題分析装置1が実行する回答集計処理の流れを説明するフローチャートThe flowchart explaining the flow of the response totalization process which the vocabulary judgment task analysis device 1 performs 回答集計処理の結果、得られる回答集計データ51の一例An example of the response total data 51 obtained as a result of the response total processing 実験評価処理において算出される実験評価データ52の一例Example of experiment evaluation data 52 calculated in the experiment evaluation process 分析処理の流れを説明するフローチャートFlow chart explaining the flow of analysis processing 分析処理の結果である分析結果データ6の一例An example of analysis result data 6 which is a result of the analysis process 分析チャート作成処理の流れを説明するフローチャートFlow chart explaining the flow of analysis chart creation processing 反応時間の長さを矢印オブジェクトのサイズ(長さ)で表現した分析チャート70の例Example of analysis chart 70 in which the length of reaction time is expressed by the size (length) of an arrow object 反応時間の長さをターゲット刺激情報を示すオブジェクトのサイズで表現した分析チャート71の例Example of analysis chart 71 in which the length of reaction time is expressed by the size of an object indicating target stimulus information 反応時間の長さをターゲット刺激情報を示すオブジェクトの色で表現した分析チャート72の例Example of analysis chart 72 in which the length of reaction time is expressed by the color of an object indicating target stimulus information 第2の実施の形態の語彙判断課題分析装置10の全体構成図Overall configuration diagram of the vocabulary determination task analysis apparatus 10 according to the second embodiment 第2の実施の形態において語彙判断課題分析装置10(回答者端末10a)が実行する回答処理の流れを説明するフローチャートThe flowchart explaining the flow of the reply process which the vocabulary determination task analyzer 10 (respondent terminal 10a) performs in 2nd Embodiment. 回答者端末10aに対して回答者により入力される入力データ4aの例Example of input data 4a input by the respondent to the respondent terminal 10a 第2の実施の形態において語彙判断課題分析装置10(回答者端末10a)が実行する分析処理の流れを説明するフローチャートThe flowchart explaining the flow of the analysis process which the vocabulary determination task analyzer 10 (respondent terminal 10a) performs in 2nd Embodiment. 第2の実施の形態の分析処理の分析結果である分析結果データ6aの一例An example of analysis result data 6a which is an analysis result of the analysis processing of the second embodiment 第2の実施の形態において語彙判断課題分析装置10(回答者端末10a)が実行する分析チャート作成処理の流れを説明するフローチャートThe flowchart explaining the flow of the analysis chart preparation process which the vocabulary determination task analysis apparatus 10 (respondent terminal 10a) performs in 2nd Embodiment. 反応時間の長さを矢印の長さで表現し、生理指標または感情に関する分析指標をターゲット刺激情報を示すオブジェクトのサイズで表現した分析チャート80の例Example of analysis chart 80 in which the length of the reaction time is expressed by the length of the arrow and the physiological index or the analysis index related to emotion is expressed by the size of the object indicating the target stimulus information 第3の実施の形態の語彙判断課題分析装置20の全体構成図Overall configuration diagram of the vocabulary determination task analysis apparatus 20 according to the third embodiment 第3の実施の形態において語彙判断課題分析装置20(回答者端末10a)が実行する回答処理の流れを説明するフローチャートThe flowchart explaining the flow of the reply process which the vocabulary determination task analyzer 20 (respondent terminal 10a) performs in 3rd Embodiment. 第3の実施の形態において語彙判断課題分析装置20(回答者端末10a)が実行する分析処理の流れを説明するフローチャートThe flowchart explaining the flow of the analysis process which the vocabulary determination task analyzer 20 (respondent terminal 10a) performs in 3rd Embodiment. 本発明の第4の実施の形態に係る語彙判断課題分析システム100の全体構成図Overall configuration diagram of a vocabulary determination task analysis system 100 according to a fourth embodiment of the present invention 語彙判断課題分析システム100においてサーバ102及クライアント端末101が実行する処理の手順を示すシーケンス図The sequence diagram which shows the procedure of the process which the server 102 and the client terminal 101 perform in the vocabulary determination task analysis system 100

以下、図面に基づいて本発明の好適な実施形態について詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

[第1の実施の形態]
まず、図1〜図13を参照して本発明の第1の実施の形態に係る語彙判断課題分析装置1について説明する。
[First Embodiment]
First, a vocabulary determination task analysis apparatus 1 according to a first embodiment of the present invention will be described with reference to FIGS.

図1は、第1の実施の形態に係る語彙判断課題分析装置1の内部構成を示すブロック図である。図1に示すように、語彙判断課題分析装置1は、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17、計時部18等がバス19を介して接続されて構成される。   FIG. 1 is a block diagram showing an internal configuration of a vocabulary determination task analysis apparatus 1 according to the first embodiment. As shown in FIG. 1, the vocabulary determination task analysis apparatus 1 includes a control unit 11, a storage unit 12, a media input / output unit 13, a communication control unit 14, an input unit 15, a display unit 16, a peripheral device I / F unit 17, A timer 18 and the like are connected via a bus 19.

制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成される。
CPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス19を介して接続された各部を駆動制御する。ROMは、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、ロードしたプログラムやデータを一時的に保持するとともに、制御部11が各種処理を行うために使用するワークエリアを備える。
The control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
The CPU calls and executes a program stored in the storage unit 12, ROM, recording medium, or the like to a work memory area on the RAM, and drives and controls each unit connected via the bus 19. The ROM permanently holds a computer boot program, a program such as BIOS, data, and the like. The RAM temporarily holds the loaded program and data, and includes a work area used by the control unit 11 to perform various processes.

また、制御部11(CPU)は、記憶部12に格納されている処理プログラムを呼び出して実行する。本実施の形態において制御部11が実行する回答処理(図2参照)、分析処理(図8参照)については後述する。   The control unit 11 (CPU) calls and executes a processing program stored in the storage unit 12. The answer process (see FIG. 2) and the analysis process (see FIG. 8) executed by the control unit 11 in the present embodiment will be described later.

記憶部12は、HDD(ハードディスクドライブ)であり、制御部11が実行するプログラムや、プログラム実行に必要なデータ、OS(オペレーティング・システム)等が格納されている。これらのプログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。また、記憶部12には、語彙判断課題の設問データ(プライム刺激情報及びターゲット刺激情報を表示するためのページデータや設問に使用する画像データ)や、後述する分析チャートの作成に使用するオブジェクト(図案等)のデータが予め記憶される。また、設問に対する回答データや反応時間データが記憶される。   The storage unit 12 is an HDD (hard disk drive), and stores a program executed by the control unit 11, data necessary for program execution, an OS (operating system), and the like. These program codes are read by the control unit 11 as necessary, transferred to the RAM, and read and executed by the CPU. In addition, the storage unit 12 has lexical determination task question data (page data for displaying prime stimulus information and target stimulus information and image data used for the question), and an object used to create an analysis chart (to be described later) ( (Design etc.) is stored in advance. Also, answer data and reaction time data for the question are stored.

メディア入出力部13は、例えば、HD(ハードディスク)ドライブ、フロッピー(登録商標)ディスクドライブ、メモリカードドライブ、PDドライブ、CDドライブ、DVDドライブ、MOドライブ等のメディア入出力装置であり、データの入出力を行う。   The media input / output unit 13 is a media input / output device such as an HD (hard disk) drive, floppy (registered trademark) disk drive, memory card drive, PD drive, CD drive, DVD drive, or MO drive. Output.

通信制御部14は、通信制御装置、通信ポート等を有し、ネットワークとの通信を媒介する通信インターフェイスであり、通信制御を行う。
入力部15は、例えば、マウス等のポインティング・デバイス、キーボード、テンキー等の入力装置であり、入力されたデータを制御部11へ出力する。
表示部16は、例えば液晶パネル、CRTモニタ等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路(ビデオアダプタ等)で構成され、制御部11の制御により入力された表示情報をディスプレイ装置上に表示させる。なお、表示部16と入力部15とが一体的に形成されたタッチパネル式の表示・入力部としてもよい。
The communication control unit 14 includes a communication control device, a communication port, and the like, and is a communication interface that mediates communication with the network, and performs communication control.
The input unit 15 is an input device such as a pointing device such as a mouse, a keyboard, and a numeric keypad, and outputs input data to the control unit 11.
The display unit 16 includes a display device such as a liquid crystal panel or a CRT monitor, and a logic circuit (video adapter or the like) for executing display processing in cooperation with the display device, and is input under the control of the control unit 11. Display information is displayed on a display device. The display unit 16 and the input unit 15 may be a touch panel type display / input unit formed integrally.

周辺機器I/F(インターフェイス)部17は、語彙判断課題分析装置1に周辺機器を接続するためのポートであり、周辺機器I/F部17を介して語彙判断課題分析装置1は周辺機器とのデータの送受信を行う。周辺機器I/F部17は、USBやIEEE1394やRS−232C等で構成される。
計時部18は、例えばコンピュータに実装されるリアルタイムクロック等を利用して、ストップウォッチ機能を実現するものである。計時部18は、後述するアンケート回答処理において、回答への反応時間を計測し、計測した反応時間データを制御部11に出力する。
バス19は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
The peripheral device I / F (interface) unit 17 is a port for connecting a peripheral device to the vocabulary determination task analysis device 1, and the vocabulary determination task analysis device 1 is connected to the peripheral device via the peripheral device I / F unit 17. Send and receive data. The peripheral device I / F unit 17 is configured by USB, IEEE 1394, RS-232C, or the like.
The timer 18 implements a stopwatch function using, for example, a real-time clock mounted on a computer. The timer 18 measures the response time to an answer in a questionnaire response process described later, and outputs the measured reaction time data to the controller 11.
The bus 19 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.

語彙判断課題分析装置1は、パーソナルコンピュータ等を利用して構成することが好適であるが、上述の内部構成を有する各種電子機器を利用してもよい。例えば、PDA(Perspnal Digital Assistants)、携帯電話、スマートフォン、ゲーム機、テレビ等を利用することも可能である。   The vocabulary determination task analysis apparatus 1 is preferably configured using a personal computer or the like, but various electronic devices having the above-described internal configuration may be used. For example, it is possible to use a PDA (Personal Digital Assistants), a mobile phone, a smartphone, a game machine, a television, or the like.

次に、図2〜図13を参照して、語彙判断課題分析装置1の動作を説明する。
まず、語彙判断課題分析装置1が実行する回答処理について説明する。図2は、回答処理全体の流れを説明するフローチャートであり、図3は設問の表示画面(設問ページ)の具体例を示す図であり、図4は、語彙判断課題分析装置1に対して回答者により入力される入力データ4の一例である。
Next, the operation of the vocabulary determination task analysis apparatus 1 will be described with reference to FIGS.
First, the answer process executed by the vocabulary determination task analysis apparatus 1 will be described. FIG. 2 is a flowchart for explaining the overall flow of answer processing, FIG. 3 is a diagram showing a specific example of a question display screen (question page), and FIG. It is an example of the input data 4 input by the person.

語彙判断課題分析装置1の制御部11は、図2に示す回答処理プログラムを記憶部12から読み込み、以下の手順に従って処理を実行する。   The control unit 11 of the vocabulary determination task analysis apparatus 1 reads the answer processing program shown in FIG. 2 from the storage unit 12 and executes processing according to the following procedure.

語彙判断課題とは、先行して表示するプライム刺激情報と、次に表示されるターゲット刺激情報との認知(心理)的距離を反応時間を用いて計測する心理計測手法である。ターゲット刺激では、「かわいい」といった意味のある単語や「なぬらら」といった意味をなさない非単語が表示される。意味のある単語が表示されて場合に、回答者が「○」を入力すれば正解、「×」を入力すれば不正解である。非単語の場合は、回答者が「×」を入力すれば正解、「○」を入力すれば不正解である。プライム刺激情報は、調査対象とするものである。以下の実施の形態では、キャラクタの画像を調査対象とする例について説明する。   The vocabulary determination task is a psychometric measurement method that measures the cognitive (psychological) distance between the prime stimulus information displayed in advance and the target stimulus information displayed next using the reaction time. In the target stimulus, a meaningful word such as “cute” or a non-word that does not make sense such as “Nanura” is displayed. When a meaningful word is displayed, the answer is correct if the respondent inputs “◯”, and incorrect if “×” is input. In the case of a non-word, the answer is correct if the respondent inputs “×”, and incorrect if “○” is input. Prime stimulus information is to be investigated. In the following embodiment, an example will be described in which an image of a character is used as an investigation target.

図2に示す回答処理において、まず制御部11は、記憶部12に記憶されているプライム刺激情報を取得し、表示部16に表示する(ステップS101)。所定の時間が経過すると、制御部11は、記憶部12に記憶されているターゲット刺激情報を取得し、表示部16に表示する。ターゲット刺激情報の表示と同時に、制御部11は反応時間の計測を開始する(ステップS102)。   In the answer process shown in FIG. 2, the control unit 11 first acquires prime stimulus information stored in the storage unit 12 and displays it on the display unit 16 (step S101). When the predetermined time has elapsed, the control unit 11 acquires the target stimulus information stored in the storage unit 12 and displays it on the display unit 16. Simultaneously with the display of the target stimulus information, the control unit 11 starts measuring the reaction time (step S102).

反応時間とは、表示部16にターゲット刺激情報を表示した時点から入力部15に対して回答が入力される時点までの時間である。   The reaction time is the time from when the target stimulus information is displayed on the display unit 16 to when the answer is input to the input unit 15.

例えば、図3(a)に示すようにプライム刺激情報30を提示するプライム刺激情報表示画面21が表示部16に表示される。図3の例では、あるキャラクタの画像をプライム刺激情報30とする。所定時間経過すると、次に、図3(b)に示すようにターゲット刺激情報表示画面22が表示される。ターゲット刺激情報表示画面22には単語文字列31a(例えば、「かわいい」)が表示される。ターゲット刺激情報表示画面22には、「×」及び「○」を入力する各回答入力ボタン32,33が設けられている。回答入力ボタン32,33に対する選択操作は、例えば、マウスによるクリックやタッチパネル式の表示画面であればタッチ操作のように簡単な操作とすることが望ましい。これは、直感による選択動作を妨げないようにするためである。ターゲット刺激情報表示画面22が表示されると同時に、計時部18は反応時間の計測を開始する。   For example, as shown in FIG. 3A, a prime stimulus information display screen 21 that presents prime stimulus information 30 is displayed on the display unit 16. In the example of FIG. 3, an image of a certain character is assumed to be prime stimulus information 30. When the predetermined time has elapsed, next, the target stimulus information display screen 22 is displayed as shown in FIG. On the target stimulus information display screen 22, a word character string 31a (for example, “cute”) is displayed. The target stimulus information display screen 22 is provided with answer input buttons 32 and 33 for inputting “×” and “◯”. The selection operation for the answer input buttons 32 and 33 is preferably a simple operation such as a click operation with a mouse click or a touch panel type display screen. This is to prevent the selection operation based on intuition from being hindered. At the same time as the target stimulus information display screen 22 is displayed, the timer 18 starts measuring the reaction time.

ターゲット刺激情報表示画面22において回答入力ボタン32,33のうちいずれかが選択されると、制御部11は選択された方の回答を回答データ42として取得する。また、制御部11は計時部18による反応時間の計測を終了し、取得した計時データを反応時間データ43として収集する(ステップS103;図4参照)。反応時間データ43は、ターゲット刺激情報表示画面22の対応する文字列41に対する回答データ42と対応付けられて、入力データ4として記憶部12に記憶される(ステップS104)。   When one of the answer input buttons 32 and 33 is selected on the target stimulus information display screen 22, the control unit 11 acquires the selected answer as the answer data 42. Moreover, the control part 11 complete | finishes measurement of the reaction time by the time measuring part 18, and collects the acquired time measurement data as the reaction time data 43 (step S103; refer FIG. 4). The reaction time data 43 is associated with the response data 42 for the corresponding character string 41 on the target stimulus information display screen 22 and stored in the storage unit 12 as the input data 4 (step S104).

次に制御部11は、次の設問ページがあるか否かを判定する。次の設問ページがある場合(ステップS105;Yes)は、ステップS101へ戻る。   Next, the control unit 11 determines whether there is a next question page. If there is a next question page (step S105; Yes), the process returns to step S101.

制御部11は、再度、図3(a)に示すプライム刺激情報表示画面21を表示部16に表示する。所定時間が経過すると、次に制御部11は、図3(c)に示すようなターゲット刺激情報表示画面23を表示する。図3(c)のターゲット刺激情報表示画面23には図3(b)とは別のターゲット刺激情報が表示される。例えば、非単語文字列31b(例えば、「なぬらら」)が表示される。   The control unit 11 displays the prime stimulus information display screen 21 shown in FIG. 3A on the display unit 16 again. When the predetermined time has elapsed, the control unit 11 displays a target stimulus information display screen 23 as shown in FIG. On the target stimulus information display screen 23 in FIG. 3C, target stimulus information different from that in FIG. 3B is displayed. For example, a non-word character string 31b (for example, “Nanura”) is displayed.

ターゲット刺激情報31bの表示と同時に、制御部11は反応時間の計測を開始する。計時部18は反応時間の計時を開始する。   Simultaneously with the display of the target stimulus information 31b, the control unit 11 starts measuring the reaction time. The timer unit 18 starts measuring the reaction time.

次の設問ページ23に対して、回答入力ボタン32,33のうちいずれかが選択されると、制御部11は選択された方の回答を回答データ42として取得する。また、制御部11は計時部18による反応時間の計測を終了し、取得した計時データを反応時間データ43として収集し、回答及び反応時間を記憶部12に記憶する。   When any one of the answer input buttons 32 and 33 is selected for the next question page 23, the control unit 11 acquires the selected answer as the answer data 42. The control unit 11 ends the measurement of the reaction time by the time measuring unit 18, collects the acquired time measurement data as the reaction time data 43, and stores the answer and the reaction time in the storage unit 12.

以上のように、制御部11は設問ページの表示、反応時間の計時、及び回答の入力を繰り返し行い、次の設問ページがなくなると(ステップS105;No)、次に制御部11は回答集計処理を行う(ステップS106)。   As described above, the control unit 11 repeatedly displays the question page, measures the reaction time, and inputs the answer. When there is no next question page (step S105; No), the control unit 11 then performs the answer counting process. Is performed (step S106).

ステップS106の回答集計処理は、ステップS101〜ステップS105の処理により取得した入力データ4について回答の正否を判定し、集計する処理である。図4は、入力データ4の一例である。入力データ4には、各設問ページ(ターゲット刺激情報表示画面)の識別番号(図4の「設問No.」)に対して、ターゲット刺激情報である文字列データ41と回答者により入力された回答データ42と計測された反応時間データ43とが対応付けて保持される。回答データ42は、「○」または「×」のいずれかである。   The answer totaling process in step S106 is a process for determining whether or not the answer is correct for the input data 4 acquired by the processes in steps S101 to S105 and totaling the data. FIG. 4 is an example of the input data 4. The input data 4 includes character string data 41 that is target stimulus information and an answer input by the respondent to the identification number (“question No.” in FIG. 4) of each question page (target stimulus information display screen). Data 42 and measured reaction time data 43 are held in association with each other. The answer data 42 is either “◯” or “×”.

具体的には、「No.1」の設問ページには、図3(b)に示すように「かわいい」という単語文字列31aが表示される。これに対する回答データとして「○」を得ている。また、その回答の反応時間「756」ミリ秒と計測されている。また、「No.2」の設問ページには、「はほん」という文字列41が表示される。これに対する回答データとして「×」を得ている。また、その回答の反応時間は「1311」ミリ秒と計測されている。
同様に、各設問ページに表示される文字列データ41について、それぞれ回答データ42と反応時間データ43とが収集され、対応付けて記憶されている。
Specifically, a word character string 31a of “cute” is displayed on the question page “No. 1” as shown in FIG. “○” is obtained as answer data for this. The response time of the answer is measured as “756” milliseconds. In addition, on the question page “No. 2”, a character string 41 “hahon” is displayed. “×” is obtained as answer data for this. The response time of the answer is measured as “1311” milliseconds.
Similarly, for character string data 41 displayed on each question page, response data 42 and reaction time data 43 are collected and stored in association with each other.

図5はステップS106の回答集計処理を説明するフローチャートである。
制御部11は、まず、集計対象とする文字列の回答データを取得する(ステップS201)。例えば、「かわいい」という文字列を対象として、その回答データ42を入力データ4から取得する。
FIG. 5 is a flowchart for explaining the answer counting process in step S106.
First, the control unit 11 obtains response data of character strings to be tabulated (step S201). For example, the answer data 42 is acquired from the input data 4 for the character string “cute”.

次に、制御部11は対象文字列が意味のある単語であるか、意味をなさない非単語であるかを判定する(ステップS202)。単語である場合は(ステップS202;単語のとき)、ステップS203の処理へ移行し、非単語である場合は(ステップS202;非単語のとき)、ステップS204の処理へ移行する。   Next, the control unit 11 determines whether the target character string is a meaningful word or a non-word that does not make sense (step S202). If it is a word (step S202; for a word), the process proceeds to step S203. If it is a non-word (step S202; for a non-word), the process proceeds to step S204.

対象文字列が単語文字列の場合、回答データ42として「○」が選択されていれば、制御部11は、「HIT」ポイントに「1」を加算する。「×」が選択されていれば、「MISS」ポイントに「1」を加算する(ステップS203)。   When the target character string is a word character string, if “◯” is selected as the answer data 42, the control unit 11 adds “1” to the “HIT” point. If “x” is selected, “1” is added to the “MISS” point (step S203).

対象文字列が非単語文字列の場合、回答データ42として「○」が選択されていれば、制御部11は「FA」ポイントに「1」を加算する。「×」が選択されていれば、「CR」ポイントに「1」を加算する(ステップS204)。   When the target character string is a non-word character string, if “◯” is selected as the answer data 42, the control unit 11 adds “1” to the “FA” point. If “x” is selected, “1” is added to the “CR” point (step S204).

制御部11は、全ての文字列についてステップS202〜ステップS204の処理を行ったか否かを判定する(ステップS205)。全ての文字列について処理が終了していなければ(ステップS205;No)、ステップS201へ戻り、別の文字列を対象文字列として「HIT」、「MISS」、「FA」、「CR」のいずれかのポイントを加算する。全ての文字列について処理が終了すると(ステップS205;Yes)、回答集計処理を終了する。   The control unit 11 determines whether or not the processing in steps S202 to S204 has been performed for all character strings (step S205). If the processing has not been completed for all character strings (step S205; No), the process returns to step S201, and any one of “HIT”, “MISS”, “FA”, and “CR” is selected as another character string. Add these points. When the process is completed for all character strings (step S205; Yes), the answer counting process is terminated.

回答集計処理の結果である回答集計データ51を図6に示す。図6はある一人の回答者についての回答集計データ51である。回答集計データ51には「HIT」、「MISS」、「FA」、及び「CR」の各ポイントが格納される。   FIG. 6 shows the response total data 51 that is the result of the response total processing. FIG. 6 shows the response total data 51 for a single respondent. The answer total data 51 stores “HIT”, “MISS”, “FA”, and “CR” points.

回答集計処理が終了すると、次に制御部11は、回答集計データ51に基づいて実験評価を行う(図2のステップS107)。実験評価では、制御部11は、回答集計データ51に基づいて正解率、CR率、MISS率、FA率を算出し、これらの実験評価データ52の値に基づいて実験の信頼性(実験が正しく行われているか)を判定する。正解率とは、単語文字列31aを正しく「○」と選択できた割合を示す数値である。CR率とは、非単語文字列31bを正しく「×」と選択できた割合を示す数値である。MISS率とは、単語文字列31aを「×」と選択してしまった割合を示す数値である。FA率とは、非単語文字列31bを「○」と選択してしまった割合を示す数値である。正解率、CR率、MISS率、FA率は、以下の式で算出される。   When the answer counting process is completed, the control unit 11 performs an experiment evaluation based on the answer counting data 51 (step S107 in FIG. 2). In the experimental evaluation, the control unit 11 calculates the correct answer rate, the CR rate, the MISS rate, and the FA rate based on the answer total data 51, and the reliability of the experiment (the experiment is correct) based on the values of the experimental evaluation data 52. It is determined). The correct answer rate is a numerical value indicating the rate at which the word character string 31a can be correctly selected as “◯”. The CR rate is a numerical value indicating the rate at which the non-word character string 31b can be correctly selected as “x”. The MISS rate is a numerical value indicating the ratio of selecting the word character string 31a as “x”. The FA rate is a numerical value indicating the rate at which the non-word character string 31b has been selected as “◯”. The correct answer rate, CR rate, MISS rate, and FA rate are calculated by the following equations.

正解率 = HIT ÷ 単語数
CR率 = CR ÷ 非単語数
MISS率 = MISS ÷ 単語数
FA率 = FA ÷ 非単語数
Correct answer rate = HIT ÷ number of words CR rate = CR ÷ number of non-words MISS rate = MISS ÷ number of words FA rate = FA ÷ number of non-words

図6に示す回答集計データ51に基づいて算出された実験評価データ52を図7に示す。実験評価データ52は例えば、HIT率、CR率、MISS率、FA率を含むものとすればよい。図7の例では、HIT率が「1.0」、CR率が「0.5」、MISS率が「0.0」、FA率が「0.5」と算出される。   FIG. 7 shows the experimental evaluation data 52 calculated based on the response total data 51 shown in FIG. The experimental evaluation data 52 may include, for example, the HIT rate, CR rate, MISS rate, and FA rate. In the example of FIG. 7, the HIT rate is “1.0”, the CR rate is “0.5”, the MISS rate is “0.0”, and the FA rate is “0.5”.

実験評価では、制御部11は、正解率またはCR率が著しく低い場合は適切に実験(設問の提示及び回答入力)ができていない可能性があるものと評価する。実験評価の結果、適切に実験が行われていないと評価した場合は、当該回答を後述する分析処理の対象から除外するようにしてもよい。   In the experimental evaluation, when the correct answer rate or the CR rate is extremely low, the control unit 11 evaluates that there is a possibility that the experiment (presentation of questions and input of answers) may not be properly performed. As a result of the experiment evaluation, when it is evaluated that the experiment is not properly performed, the answer may be excluded from the analysis processing target described later.

制御部11は、ステップS106の結果である回答集計データ51と、ステップS107の結果である実験評価データ52を記憶部12に記憶して(ステップS108)、回答処理を終了する。   The control unit 11 stores the answer total data 51 that is the result of step S106 and the experimental evaluation data 52 that is the result of step S107 in the storage unit 12 (step S108), and ends the answer process.

語彙判断課題分析装置1は、上述の回答処理を複数の回答者に対して行う。そして複数の回答者による回答結果(入力データ4)を取得し、記憶部12に蓄積して記憶する。また、複数の回答者の入力データ4についてそれぞれ回答集計処理及び実験評価を行って、各回答者の回答集計データ51及び実験評価データ52を記憶部12に記憶する。複数の回答者から得た入力データ4は、後述する分析処理に利用される。   The vocabulary determination task analysis apparatus 1 performs the above-described answer processing on a plurality of respondents. Then, response results (input data 4) by a plurality of respondents are acquired, stored in the storage unit 12, and stored. Further, the answer totaling process and the experiment evaluation are respectively performed on the input data 4 of the plurality of respondents, and the answer totaling data 51 and the experiment evaluation data 52 of each respondent are stored in the storage unit 12. Input data 4 obtained from a plurality of respondents is used for analysis processing to be described later.

次に、語彙判断課題分析装置1が実行する分析処理について、図8〜図13を参照して説明する。
語彙判断課題分析装置1の制御部11は、図8に示す分析処理プログラムを記憶部12から読み込み、以下の手順に従って処理を実行する。
Next, analysis processing executed by the vocabulary determination task analysis apparatus 1 will be described with reference to FIGS.
The control unit 11 of the vocabulary determination task analysis apparatus 1 reads the analysis processing program shown in FIG. 8 from the storage unit 12 and executes processing according to the following procedure.

分析処理において制御部11は、記憶部12から複数の回答者による入力データ4(回答データ42及び反応時間データ43)を取得する(ステップS301)。このとき、ステップS107において行った実験評価に基づき、実験評価結果の良い回答者の入力データ4だけを選択的に取得するようにしてもよい。制御部11は、取得した入力データ3に基づいて各文字列に対する回答の反応時間を集計する(ステップS302)。   In the analysis process, the control unit 11 acquires input data 4 (answer data 42 and reaction time data 43) from a plurality of respondents from the storage unit 12 (step S301). At this time, only the input data 4 of respondents with good experimental evaluation results may be selectively acquired based on the experimental evaluation performed in step S107. Based on the acquired input data 3, the control unit 11 totals the response time of the response to each character string (step S302).

図9は、ステップS302の処理結果である分析結果データ6の一例を示す図である。
分析結果データ6は、調査対象物であるプライム刺激情報30について、文字列62毎に反応時間63が集計されたものである。反応時間の集計方法は、例えば、複数の回答者の反応時間の例えば平均値等を算出するものとすればよい。分析結果データ6の順位61は、反応時間が短い方から並べ替えた順位である。件数64は、当該文字列62の集計に利用した入力データ4の数である。例えば、4人分の回答から反応時間の平均値を算出した場合は、件数64は「4」である。
FIG. 9 is a diagram illustrating an example of the analysis result data 6 that is the processing result of step S302.
The analysis result data 6 is obtained by collecting the reaction time 63 for each character string 62 with respect to the prime stimulus information 30 that is an investigation object. The reaction time counting method may be, for example, calculating an average value or the like of reaction times of a plurality of respondents. The rank 61 of the analysis result data 6 is the rank sorted from the shorter reaction time. The number of cases 64 is the number of input data 4 used for counting the character strings 62. For example, when the average value of the reaction time is calculated from the responses for four people, the number of cases 64 is “4”.

図9の分析結果データ6は、プライム刺激情報30を調査対象物とした調査結果である。ターゲット刺激とした文字列は、「かわいい」、「はほん」、「こわい」、「なつかしい」、「かいすき」、「おもしろい」等である。文字列「かわいい」についての反応時間63は「879.0」、文字列「はほん」についての反応時間63は「902.0」、文字列「こわい」についての反応時間63は「934.0」、・・・のように集計されている。   The analysis result data 6 in FIG. 9 is a result of the investigation using the prime stimulus information 30 as an investigation object. The character strings used as the target stimulus are “cute”, “hahon”, “scare”, “nostalgic”, “kaisuki”, “interesting”, and the like. The reaction time 63 for the character string “cute” is “879.0”, the reaction time 63 for the character string “hahon” is “902.0”, and the reaction time 63 for the character string “koi” is “934.0”. ", And so on.

次に制御部11は、分析チャート70を作成する(ステップS303)。
語彙判断課題分析装置1の制御部11は、図10に示す分析チャート作成処理プログラムを記憶部12から読み込み、以下の手順に従って処理を実行する。以下の説明では、一例として図11に示す分析チャート70を作成する処理について説明する。
Next, the control part 11 creates the analysis chart 70 (step S303).
The control unit 11 of the vocabulary determination task analysis apparatus 1 reads the analysis chart creation processing program shown in FIG. 10 from the storage unit 12 and executes the processing according to the following procedure. In the following description, a process for creating the analysis chart 70 shown in FIG. 11 will be described as an example.

制御部11は、まず、プライム刺激情報30を示すオブジェクト700を記憶部12から取得する(ステップS401)。プライム刺激情報30を示すオブジェクト700とは、プライム刺激情報30を図案化したデータである。本実施の形態のように、プライム刺激情報30が画像である場合は、その画像データを上記オブジェクト700として取得すればよい。プライム刺激情報が文字列等、画像でない場合は、記憶部12に予め記憶されている図案データをプライム刺激情報を示すオブジェクト700として取得する。   First, the control unit 11 acquires an object 700 indicating the prime stimulus information 30 from the storage unit 12 (step S401). The object 700 indicating the prime stimulus information 30 is data in which the prime stimulus information 30 is designed. As in the present embodiment, when the prime stimulus information 30 is an image, the image data may be acquired as the object 700. When the prime stimulus information is not an image such as a character string, the design data stored in advance in the storage unit 12 is acquired as an object 700 indicating the prime stimulus information.

図案データは、四角、楕円、線、矢印等の各種の図形や、色や模様と図形とを組み合わせたもの、或いは任意の画像等である。図案データは記憶部12に複数格納され、これらの中からプライム刺激情報を示すオブジェクト700として選択するようにしてもよい。また、プライム刺激情報を示すオブジェクト700に使用する図案データをユーザに選択させる選択画面を提示するようにしてもよい。   The design data is various figures such as a square, an ellipse, a line, an arrow, a combination of a color, a pattern and a figure, or an arbitrary image. A plurality of design data may be stored in the storage unit 12 and may be selected as an object 700 indicating prime stimulus information from these. Moreover, you may make it show the selection screen which makes a user select the design data used for the object 700 which shows prime stimulus information.

次に制御部11は、分析結果データ6から分析チャート70に使用する文字列を抽出する(ステップS402)。文字列の抽出処理では、単語文字列31aのみを抽出するようにしてもよいし、上位の文字列を所定数だけ抽出するようにしてもよい。抽出する文字列の数は任意である。例えば、図11等に示す分析チャート70では、「かわいい」、「こわい」、「なつかしい」、「おもしろい」4つの文字列が抽出されている。   Next, the control part 11 extracts the character string used for the analysis chart 70 from the analysis result data 6 (step S402). In the character string extraction process, only the word character string 31a may be extracted, or a predetermined number of upper character strings may be extracted. The number of character strings to be extracted is arbitrary. For example, in the analysis chart 70 shown in FIG. 11 and the like, four character strings of “cute”, “scare”, “nostalgic”, and “interesting” are extracted.

制御部11は、抽出した文字列(ターゲット刺激情報)を示す各オブジェクト701a〜701dを作成する(ステップS403)。ターゲット刺激情報を示すオブジェクト701a〜701dとは、ターゲット刺激情報である文字列を図案を用いて示したものである。例えば、上述の図形データや画像データ等を用いればよい。また、ターゲット刺激情報である文字列(テキストデータ)そのものを所定の表示形式(フォント、サイズ、色)等で示した修飾文字データを、ターゲット刺激情報を示すオブジェクト701a〜701dとしてもよい。ターゲット刺激情報を示すオブジェクト701a〜701dの図案データは記憶部12に複数格納され、これらの中から各ターゲット刺激情報を示すオブジェクト701a〜701dとして選択するようにしてもよい。また、ターゲット刺激情報を示すオブジェクト701a〜701dに使用する図案データをユーザに選択させる選択画面を提示するようにしてもよい。   The control unit 11 creates each of the objects 701a to 701d indicating the extracted character string (target stimulus information) (step S403). The objects 701a to 701d indicating the target stimulus information indicate character strings that are target stimulus information using a design. For example, the graphic data or image data described above may be used. Further, the modified character data indicating the target stimulus information character string (text data) itself in a predetermined display format (font, size, color) or the like may be used as the objects 701a to 701d indicating the target stimulus information. A plurality of design data of the objects 701a to 701d indicating the target stimulus information may be stored in the storage unit 12, and may be selected from these as the objects 701a to 701d indicating the target stimulus information. Moreover, you may make it present the selection screen which makes a user select the design data used for object 701a-701d which shows target stimulus information.

制御部11は、プライム刺激情報を示すオブジェクト700と各ターゲット刺激情報を示すオブジェクト701a〜701dとを結ぶ矢印オブジェクト703a,703b,703c,703dを取得し、反応時間の長さに応じて矢印オブジェクト703a,703b,703c,703dの表示形態(サイズや色等)を変更する(ステップS404)。   The control unit 11 acquires arrow objects 703a, 703b, 703c, and 703d that connect the object 700 indicating the prime stimulus information and the objects 701a to 701d indicating the target stimulus information, and the arrow object 703a according to the length of the reaction time. , 703b, 703c, and 703d are changed (size, color, etc.) (step S404).

例えば、図11の例では、矢印オブジェクト703a,703b,703c,703dの長さが各ターゲット刺激情報回答時の反応時間の長さに相当する。   For example, in the example of FIG. 11, the lengths of the arrow objects 703a, 703b, 703c, and 703d correspond to the length of the reaction time when each target stimulus information is answered.

制御部11は、プライム刺激情報を示すオブジェクト700と、ターゲット刺激情報を示すオブジェクト701a〜701dと、反応時間を示すオブジェクト(矢印オブジェクト703a,703b,703c,703d)とを所定の配置にレイアウトする(ステップS405)。   The control unit 11 lays out an object 700 indicating prime stimulus information, objects 701a to 701d indicating target stimulus information, and objects (arrow objects 703a, 703b, 703c, and 703d) indicating reaction times in a predetermined arrangement ( Step S405).

レイアウトでは、プライム刺激情報を示すオブジェクト700を中心に配置し、ターゲット刺激情報を示す複数のオブジェクト701a〜701dをプライム刺激情報を示すオブジェクト700の周囲に配置する。また、プライム刺激情報を示すオブジェクト700とターゲット刺激情報を示す各オブジェクト701a〜701dとを結ぶように、反応時間を示す矢印オブジェクト703a〜703dを配置する。反応時間を示すオブジェクト703a〜703dの長さは、反応時間の長さに対応している。
図11は、レイアウトの結果、作成された分析チャート70の一例である。
In the layout, an object 700 indicating prime stimulus information is arranged around the center, and a plurality of objects 701a to 701d indicating target stimulus information are arranged around the object 700 indicating prime stimulus information. In addition, arrow objects 703a to 703d indicating reaction times are arranged so as to connect the object 700 indicating prime stimulus information and the objects 701a to 701d indicating target stimulus information. The lengths of the objects 703a to 703d indicating the reaction time correspond to the length of the reaction time.
FIG. 11 is an example of an analysis chart 70 created as a result of layout.

図11では、ターゲット刺激情報を示す各オブジェクト701a〜701dは、図案として文字列そのものを採用し、文字のサイズやフォントを一律としているが、これに限定されない。文字列を楕円等の図形で囲んだものをターゲット刺激情報を示す各オブジェクト701a〜701dとしてもよい。   In FIG. 11, each of the objects 701a to 701d indicating the target stimulus information adopts a character string itself as a design and has a uniform character size and font, but is not limited thereto. A character string surrounded by a figure such as an ellipse may be used as the objects 701a to 701d indicating the target stimulus information.

或いは、図12に示す分析チャート71のように、ターゲット刺激情報を示す各オブジェクト711a,711b,711c,711dのサイズを反応時間の長さに対応させてもよい。この場合、各矢印オブジェクト713a〜713dは反応時間に応じた長さとしてもよいし、一律の長さとしてもよい。   Or you may make the size of each object 711a, 711b, 711c, 711d which shows target stimulus information respond | correspond to the length of reaction time like the analysis chart 71 shown in FIG. In this case, each of the arrow objects 713a to 713d may have a length corresponding to the reaction time or a uniform length.

また、図13に示す分析チャート72のように、ターゲット刺激情報を示す各オブジェクト721a,721b,721c,721dの色を反応時間の長さに対応させて変化させてもよい。この場合、反応時間の長さと色との関係を示すカラーチャート725を分析チャート72とともに表示することが望ましい。   Further, as in the analysis chart 72 shown in FIG. 13, the colors of the objects 721a, 721b, 721c, and 721d indicating the target stimulus information may be changed in accordance with the length of the reaction time. In this case, it is desirable to display a color chart 725 showing the relationship between the length of reaction time and color together with the analysis chart 72.

図13の例の分析チャート72では、反応時間が短い方から長い方に「赤」〜「黄」〜「青」となるように色値が割り当てられている。オブジェクト721a「かわいい」は、反応時間が短いので赤色で表示される。また、オブジェクト723c「なつかしい」は、反応時間が長いので青色で表示される。同様に、各ターゲット刺激情報を示すオブジェクトがそれぞれ反応時間に対応する色で表示される。   In the analysis chart 72 in the example of FIG. 13, color values are assigned so as to be “red” to “yellow” to “blue” from the shorter reaction time to the longer reaction time. The object 721a “cute” is displayed in red because the reaction time is short. The object 723c “nostalgic” is displayed in blue because the reaction time is long. Similarly, an object indicating each target stimulus information is displayed in a color corresponding to the reaction time.

分析チャート70(71,72)を作成すると、制御部11は、作成した分析チャート70(71,72)を出力する(ステップS406、図2のステップS304)。出力は、表示画面への表示、印刷出力、ネットワークへのデータ送信等である。   When the analysis chart 70 (71, 72) is created, the control unit 11 outputs the created analysis chart 70 (71, 72) (step S406, step S304 in FIG. 2). The output includes display on a display screen, print output, data transmission to a network, and the like.

以上説明したように、第1の実施の形態の語彙判断課題分析装置1は、プライム刺激情報を提示した後に単語または非単語をターゲット刺激情報として提示し、ターゲット刺激情報が語彙として意味をなすか否かを判断する語彙判断課題を設問として順次表示する。そして、設問に対し、回答を入力するまでの反応時間を計測する。制御部11は、複数の回答者から得られた回答及び反応時間を集計し、分析結果として、プライム刺激情報、ターゲット刺激情報、及び反応時間を図案を用いて示した分析チャートを作成して出力する。
したがって、語彙判断課題の調査を反応時間の計測とともに行うことが可能となる。また、語彙判断課題の分析結果がチャート化されて出力されるため、回答者の心理状態を推察しやすいように見やすく表示することが可能となる。
As described above, the vocabulary determination task analysis apparatus 1 according to the first embodiment presents words or non-words as target stimulus information after presenting prime stimulus information, and does the target stimulus information make sense as a vocabulary? The vocabulary determination tasks for determining whether or not are sequentially displayed as questions. And the reaction time until an answer is input with respect to a question is measured. The control unit 11 aggregates the responses and reaction times obtained from a plurality of respondents, and creates and outputs an analysis chart showing the prime stimulus information, the target stimulus information, and the reaction time using a design as an analysis result. To do.
Therefore, it becomes possible to investigate the vocabulary determination task together with the measurement of the reaction time. Moreover, since the analysis result of the vocabulary determination task is output in the form of a chart, it is possible to display it easily so that the psychological state of the respondent can be easily guessed.

なお、上述の実施形態で示した分析チャートに使用する図案は一例であり、他の図案を用いるものとしてもよい。また、分析チャートでは、反応時間の順位データを使用してターゲット刺激情報を示す各オブジェクトの表示位置を並べ替えるようにしてもよい。   In addition, the design used for the analysis chart shown in the above-mentioned embodiment is an example, and other designs may be used. Further, in the analysis chart, the display position of each object indicating the target stimulus information may be rearranged using the ranking data of the reaction time.

[第2の実施の形態]
次に、図14〜図20を参照して本発明の第2の実施の形態に係る語彙判断課題分析装置10について説明する。
[Second Embodiment]
Next, a vocabulary determination task analysis apparatus 10 according to the second exemplary embodiment of the present invention will be described with reference to FIGS.

第1の実施の形態と異なる点は、設問に対する回答中に回答者の生理指標データを計測し、生理指標に基づく心理状態や感情の分析を更に行う点である。   The difference from the first embodiment is that the physiological index data of the respondent is measured during the answer to the question, and the psychological state and emotion are further analyzed based on the physiological index.

図14は、第2の実施の形態に係る語彙判断課題分析装置10の全体構成図である。
図14に示すように、第2の実施の形態に係る語彙判断課題分析装置10は、回答者端末10aと生理指標計測装置10bとを備える。
FIG. 14 is an overall configuration diagram of the vocabulary determination task analysis apparatus 10 according to the second embodiment.
As illustrated in FIG. 14, the vocabulary determination task analysis device 10 according to the second exemplary embodiment includes a respondent terminal 10 a and a physiological index measurement device 10 b.

回答者端末10aは、第1の実施の形態の語彙判断課題分析装置1と同様に、設問の表示、回答の入力、反応時間の計測、取得した回答の集計、及び分析処理を行う装置である。回答者端末10aの内部構成は図1に示す第1の実施の形態の語彙判断課題装置1と同一であるため、重複する説明を省略し、同一の各部は同一の符号を付して以下の説明をする。なお、回答者端末10aは、図14の例では一例としてタブレット型のコンピュータを図示しているが、この形態に限定されない。図1の内部構成を有する各種電子機器を利用可能である。   The respondent terminal 10a is a device that displays a question, inputs a response, measures a reaction time, counts the acquired response, and performs an analysis process, similar to the vocabulary determination task analysis device 1 of the first embodiment. . Since the internal structure of the respondent terminal 10a is the same as that of the vocabulary determination task device 1 of the first embodiment shown in FIG. 1, the duplicate description is omitted, and the same parts are denoted by the same reference numerals and Explain. In addition, although the respondent terminal 10a has illustrated the tablet-type computer as an example in the example of FIG. 14, it is not limited to this form. Various electronic devices having the internal configuration of FIG. 1 can be used.

また、第2の実施の形態において回答者端末10aは、生理指標計測装置10bから入力された生理指標データに基づいて生理指標または感情に関する分析指標を算出する処理を含む分析処理を実行する。また、回答者端末10aは、分析の結果、取得した生理指標または感情を分析チャート内に表現する。例えば、ターゲット刺激情報を示すオブジェクトの表示形態を生理指標または感情に応じて変更する。生理指標または感情の分析、及び分析結果を図案で表現した分析チャートの作成については後述する。   In the second embodiment, the respondent terminal 10a executes an analysis process including a process of calculating an analysis index related to a physiological index or an emotion based on physiological index data input from the physiological index measurement device 10b. Moreover, the respondent terminal 10a expresses the acquired physiological index or emotion in the analysis chart as a result of the analysis. For example, the display form of the object indicating the target stimulus information is changed according to a physiological index or emotion. The analysis of the physiological index or emotion, and the creation of an analysis chart expressing the analysis result in a design will be described later.

生理指標計測装置10bは、回答者の生理指標データを計測する装置である。生理心理学においては、視覚系(眼球運動や瞬目活動;いわゆる視線)の他に、中枢神経系(脳波(自発脳波、事象関連電位)、脳血流)、自律神経・呼吸系(心拍、血行力学的反応、呼吸、皮膚電気活動、体温調節系)、運動系(骨格筋反応)、免疫・内分泌系(血液、唾液)等が生理指標として研究されている。
本実施の形態では、自律神経系・呼吸系の生理指標をアンケート調査の分析に用いる例を説明する。
The physiological index measuring device 10b is a device that measures the physiological index data of the respondent. In physiological psychology, in addition to the visual system (eye movement and blink activity; so-called gaze), the central nervous system (electroencephalogram (spontaneous electroencephalogram, event-related potential), cerebral blood flow), autonomic nervous system / respiratory system (heartbeat, Hemodynamic reactions, respiration, electrodermal activity, thermoregulatory system), motor system (skeletal muscle reaction), immune / endocrine system (blood, saliva), etc. have been studied as physiological indices.
In this embodiment, an example will be described in which physiological indices of the autonomic nervous system / respiratory system are used for analysis of a questionnaire survey.

自律神経系、呼吸系の生理指標をアンケートの分析に利用する利点としては、他の系と比較して計測が簡便であるという点や、自律神経・呼吸系の生理指標は、感情や情動といった心理状態と密接に関係している点等が挙げられる。自律神経系・呼吸系の生理指標とは、具体的には、心拍数、心拍変動、血圧、心拍出量、血液容積脈、呼吸数、一回換気量、皮膚コンダクタンス反応、皮膚電位反応、核心温度、皮膚温等である。   Advantages of using physiological indices of the autonomic nervous system and respiratory system for analysis of questionnaires are that the measurement is simpler than other systems, and physiological indices of the autonomic nervous system and respiratory system are emotions and emotions. A point closely related to the psychological state. The physiological index of the autonomic nervous system / respiratory system specifically includes heart rate, heart rate variability, blood pressure, cardiac output, blood volume pulse, respiratory rate, tidal volume, skin conductance response, skin potential response, Core temperature, skin temperature, etc.

自律神経系、呼吸系の生理指標を計測する生理指標計測装置10bとしては、例えば、心拍計測装置、脈波・コロトロフ音記録器、皮膚電位計等がある。   Examples of the physiological index measuring apparatus 10b that measures physiological indices of the autonomic nervous system and the respiratory system include a heartbeat measuring apparatus, a pulse wave / Korotrov sound recorder, and a skin electrometer.

心拍計測装置は、回答者の心電情報を計測する装置である。心電情報とは、心拍数や心電図等のデータである。
脈波・コロトロフ音記録器は、血圧値、脈拍数、循環機能の指標であるKSG(コロトロフ音図)等を計測する装置である。
The heartbeat measuring device is a device that measures the electrocardiographic information of the respondent. The electrocardiogram information is data such as a heart rate and an electrocardiogram.
The pulse wave / Korotrov sound recorder is a device for measuring a blood pressure value, a pulse rate, KSG (Korotrov sound diagram), which is an index of the circulation function, and the like.

皮膚電位計とは、皮膚電気活動(EDA;Electro Dermal Activity)を測定する装置である。EDAは発汗現象と深い関わりがあり、精神活動状態を示すパラメータとして利用される。皮膚電位計によりEDAの指標として、皮膚電位(skin potential activitiy;SPA)、皮膚コンダクタンス(skin conductance activity;SCA)等を計測可能である。皮膚電位活動(SPA)は、覚醒度に関する指標である皮膚電位水準(skin potential level;SPL)や皮膚電位反射(skin potential reflex;SPR)等を含む。   A skin electrometer is a device that measures electrodermal activity (EDA). EDA is closely related to sweating and is used as a parameter indicating a mental activity state. Skin potential activitiy (SPA), skin conductance activity (SCA), etc. can be measured as an EDA index by a skin electrometer. Skin potential activity (SPA) includes skin potential level (SPL), skin potential reflex (SPR), and the like, which are indicators of arousal level.

生理指標計測装置10bには、上述の心拍計測装置、脈波・コロトロフ音記録器、皮膚電位計等のうちいずれか1種類の装置を使用してもよいし、複数種類の装置を組み合わせて使用してもよい。生理指標計測装置10bは、回答者端末10aの周辺機器I/F部17にケーブル等を介して接続されるか、無線等によって通信接続される。   As the physiological index measuring device 10b, any one of the above-mentioned heart rate measuring device, pulse wave / Korotrov sound recorder, skin electrometer, etc. may be used, or a plurality of types of devices may be used in combination. May be. The physiological index measuring device 10b is connected to the peripheral device I / F unit 17 of the respondent terminal 10a via a cable or the like, or is connected by wireless or the like.

生理指標計測装置10bにより計測された生理指標データは、生理指標計測装置10b内の記憶部に記憶され、回答者端末10aに順次または一括で送信される。回答者端末10aの制御部11は、回答者端末10a側の処理(設問の表示や回答の入力等)と、生理指標計測装置10bにおける計測開始や計測終了のタイミングとが連動するよう制御する。なお、生理指標計測装置10bの仕様によっては、必ずしも回答者端末10a側の処理と同期できない場合もある。この場合は、設問を表示する間、生理指標計測装置10bは絶えず回答者の生理指標を計測しつつ時刻情報を計測し、また回答者端末10bにおいても設問の表示時刻や回答入力時刻等の時刻情報を計測する。そして、データ分析時点で生理指標計測装置10b側の時刻と、回答者端末10a側の時刻とを突き合わせるようにしてもよい。   The physiological index data measured by the physiological index measuring apparatus 10b is stored in a storage unit in the physiological index measuring apparatus 10b, and transmitted sequentially or collectively to the respondent terminal 10a. The control unit 11 of the respondent terminal 10a performs control so that processing on the respondent terminal 10a side (question display, answer input, etc.) and measurement start timing and measurement end timing in the physiological index measuring device 10b are linked. Depending on the specifications of the physiological index measuring device 10b, it may not always be possible to synchronize with the process on the respondent terminal 10a side. In this case, while the question is displayed, the physiological index measuring device 10b continuously measures the time information while measuring the respondent's physiological index, and the answerer terminal 10b also displays a time such as the question display time and the answer input time. Measure information. Then, at the time of data analysis, the time on the physiological index measuring device 10b side may be matched with the time on the respondent terminal 10a side.

次に、図15〜図20を参照して、第2の実施の形態に係る語彙判断課題分析装置10の動作を説明する。図15は第2の実施の形態に係る語彙判断課題分析装置10が実行する回答処理の流れを説明するフローチャート、図16は語彙判断課題分析装置10に対して回答者により入力される入力データ4aの一例、図17は第2の実施の形態に係る語彙判断課題分析装置10が実行する分析処理の流れを説明するフローチャート、図18は分析結果データ6aの一例、図19は第2の実施の形態に係る語彙判断課題分析装置10が実行する分析チャート作成処理の流れを説明するフローチャート、図20は第2の実施の形態における分析チャート80の一例である。   Next, the operation of the vocabulary determination task analysis apparatus 10 according to the second embodiment will be described with reference to FIGS. FIG. 15 is a flowchart for explaining the flow of answer processing executed by the vocabulary determination task analysis apparatus 10 according to the second embodiment, and FIG. 16 is input data 4a input by the respondent to the vocabulary determination task analysis apparatus 10. 17 is a flowchart for explaining the flow of analysis processing executed by the vocabulary determination task analysis apparatus 10 according to the second embodiment, FIG. 18 is an example of analysis result data 6a, and FIG. 19 is a flowchart of the second embodiment. FIG. 20 is an example of an analysis chart 80 according to the second embodiment. FIG. 20 is an example of an analysis chart 80 according to the second embodiment.

語彙判断課題分析装置10の回答者端末10aの制御部11は、図15に示す回答処理プログラムを記憶部12から読み込み、以下の手順に従って処理を実行する。   The control unit 11 of the respondent terminal 10a of the vocabulary determination task analysis apparatus 10 reads the response processing program shown in FIG. 15 from the storage unit 12, and executes the processing according to the following procedure.

図15に示す回答処理において、まず制御部11は、記憶部12に記憶されているプライム刺激情報を取得し、表示部16に表示する。また、制御部11は、表示部16にプライム刺激情報を表示するのと同じタイミングで生理指標計測装置10bに計測開始指示を出力し、生理指標データの計測を開始させる(ステップS501)。   In the answer processing shown in FIG. 15, first, the control unit 11 acquires prime stimulus information stored in the storage unit 12 and displays it on the display unit 16. Further, the control unit 11 outputs a measurement start instruction to the physiological index measurement device 10b at the same timing as displaying the prime stimulus information on the display unit 16, and starts measurement of physiological index data (step S501).

生理指標計測装置10bは、回答者端末10aから計測開始指示を受信すると、生理指標データの計測を開始する。例えば、心拍計測装置を用いる場合は、回答者の心拍数や心電図データ等を計測する。計測された生理指標データは、回答者端末10aの記憶部12に設問と対応付けて保持される。   When receiving the measurement start instruction from the respondent terminal 10a, the physiological index measurement device 10b starts measuring physiological index data. For example, when using a heart rate measuring device, the respondent's heart rate, ECG data, and the like are measured. The measured physiological index data is stored in the storage unit 12 of the respondent terminal 10a in association with the question.

所定の時間が経過すると、制御部11は、記憶部12に記憶されているターゲット刺激情報を取得し、表示部16に表示する。ターゲット刺激情報の表示と同時に、制御部11は反応時間の計測を開始する(ステップS502)。
設問ページの表示手順(プライム刺激情報表示画面21、ターゲット刺激情報表示画面22,23等)は第1の実施の形態と同様である。
When the predetermined time has elapsed, the control unit 11 acquires the target stimulus information stored in the storage unit 12 and displays it on the display unit 16. Simultaneously with the display of the target stimulus information, the control unit 11 starts measuring the reaction time (step S502).
The question page display procedure (prime stimulus information display screen 21, target stimulus information display screens 22, 23, etc.) is the same as in the first embodiment.

ターゲット刺激情報表示画面22(23)において回答が入力されると、制御部11は選択された方の回答を回答データ42として取得する。また、制御部11は計時部18による反応時間の計測を終了し、取得した計時データを反応時間データ43として収集する。反応時間データ43は、各ターゲット刺激情報(文字列データ41)についての回答データ42に対応付けられて、入力データ4aとして記憶部12に記憶される。また、回答者端末10aは、生理指標計測装置10bから生理指標データを順次または一括に取得する(ステップS503)。   When an answer is input on the target stimulus information display screen 22 (23), the control unit 11 acquires the selected answer as the answer data 42. Further, the control unit 11 ends the measurement of the reaction time by the time measuring unit 18 and collects the acquired time measurement data as the reaction time data 43. The reaction time data 43 is stored in the storage unit 12 as input data 4a in association with response data 42 for each target stimulus information (character string data 41). The respondent terminal 10a acquires physiological index data sequentially or collectively from the physiological index measuring device 10b (step S503).

回答の入力と反応時間の計時については、第1の実施の形態と同様である。取得した反応時間データ43は、各設問ページ(文字列41)に対する回答データ42に対応付けて保持される。また、生理指標データ44も各設問ページ(文字列41)の回答データ42に対応付けて保持される(ステップS504)。ただし、心電図や脈波等のように連続的に計測される生理指標データについては、設問ページ(文字列)単位ではなく、一連のデータとして保持してもよい。この場合は、回答者端末10aが分析処理を行う際に、生理指標計測装置10bで計測データに付与したタイムスタンプ等と設問の回答時刻とを突き合わせ、設問の回答時に該当する生理指標データを算出すればよい。   The input of answers and the measurement of reaction time are the same as in the first embodiment. The obtained reaction time data 43 is held in association with the answer data 42 for each question page (character string 41). The physiological index data 44 is also stored in association with the answer data 42 of each question page (character string 41) (step S504). However, physiological index data continuously measured such as an electrocardiogram and a pulse wave may be held as a series of data instead of a question page (character string) unit. In this case, when the respondent terminal 10a performs the analysis process, the time stamp or the like given to the measurement data by the physiological index measuring device 10b is matched with the answer time of the question, and the physiological index data corresponding to the answer of the question is calculated. do it.

次に制御部11は、次の設問ページがあるか否かを判定し、次の設問ページがある場合(ステップS505;Yes)は、ステップS501へ戻る。   Next, the control unit 11 determines whether or not there is a next question page. If there is a next question page (step S505; Yes), the control unit 11 returns to step S501.

制御部11は、再度プライム刺激情報表示画面21を表示し、その後、次のターゲット刺激情報表示画面23を表示する。制御部11は、プライム刺激情報30の表示と同じタイミングで生理指標の計測を開始させる。また、制御部11は、ターゲット刺激情報表示画面23の表示と同じタイミングで、制御部11は反応時間の計測を開始する。   The control unit 11 displays the prime stimulus information display screen 21 again, and then displays the next target stimulus information display screen 23. The control unit 11 starts measuring the physiological index at the same timing as the display of the prime stimulus information 30. Moreover, the control part 11 starts the measurement of reaction time at the same timing as the display of the target stimulus information display screen 23.

次のターゲット刺激情報表示画面23に対して、回答が入力されると、制御部11は選択された方の回答を回答データ42として取得する。また、制御部11は計時部18による反応時間の計測を終了し、取得した計時データを反応時間データ43として収集し、回答及び反応時間を記憶部12に記憶する。また、制御部11は生理指標計測装置10bから生理指標データ44を取得し、各文字列41の回答データ42に対応付けて保持する。   When an answer is input to the next target stimulus information display screen 23, the control unit 11 acquires the selected answer as the answer data 42. The control unit 11 ends the measurement of the reaction time by the time measuring unit 18, collects the acquired time measurement data as the reaction time data 43, and stores the answer and the reaction time in the storage unit 12. In addition, the control unit 11 acquires the physiological index data 44 from the physiological index measuring device 10b, and stores the physiological index data 44 in association with the response data 42 of each character string 41.

以上のように、制御部11は設問ページの表示、反応時間の計時、生理指標データの計測、及び回答の入力を繰り返し行う。次の設問ページがなくなると(ステップS505;No)、次に制御部11は回答集計処理を行う(ステップS506)。回答集計処理が終了すると、次に制御部11は、回答集計データ51に基づいて実験評価を行う(ステップS507)。   As described above, the control unit 11 repeatedly displays the question page, measures the reaction time, measures the physiological index data, and inputs the answer. When there is no next question page (step S505; No), the control unit 11 performs an answer totaling process (step S506). When the answer totaling process is completed, the control unit 11 performs an experimental evaluation based on the answer totaling data 51 (step S507).

ステップS506の回答集計処理では、制御部11は、ステップS501〜ステップS505の処理により取得した入力データ4a(図16の回答データ42)について回答の正否を判定し、集計する。
ステップS507の実験評価処理では、制御部11は、ステップS506で得た回答集計データ51(図6)に基づいて正解率、CR率、MISS率、FA率等の実験評価データ52を算出する。
回答集計処理及び実験評価処理は第1の実施の形態と同様の処理であるため、重複する説明を省略する。
In the answer counting process in step S506, the control unit 11 determines whether the answer is correct or not for the input data 4a (answer data 42 in FIG. 16) acquired by the processes in steps S501 to S505.
In the experiment evaluation process in step S507, the control unit 11 calculates the experiment evaluation data 52 such as the correct answer rate, the CR rate, the MISS rate, and the FA rate based on the answer total data 51 (FIG. 6) obtained in step S506.
Since the answer counting process and the experiment evaluation process are the same processes as those in the first embodiment, a duplicate description is omitted.

制御部11は、ステップS506の結果である回答集計データ51と、ステップS507の結果である実験評価データ52を記憶部12に記憶して(ステップS508)、回答処理を終了する。   The control unit 11 stores the answer total data 51 that is the result of step S506 and the experimental evaluation data 52 that is the result of step S507 in the storage unit 12 (step S508), and ends the answer process.

語彙判断課題分析装置10は、上述の回答処理を複数の回答者に対して行う。そして複数の回答者による回答結果(入力データ4a)を取得し、記憶部12に蓄積して記憶する。また、複数の回答者の入力データ4aについてそれぞれ回答集計処理及び実験評価を行って、各回答者の回答集計データ51及び実験評価データ52を記憶部12に記憶する。複数の回答者から得た入力データ4aは、後述する分析処理(図17の分析処理)に利用される。   The vocabulary determination task analysis apparatus 10 performs the above-described answer processing on a plurality of respondents. Then, response results (input data 4a) by a plurality of respondents are acquired, stored in the storage unit 12, and stored. Further, the answer totaling process and the experiment evaluation are respectively performed on the input data 4a of the plurality of respondents, and the answer totaling data 51 and the experiment evaluation data 52 of each respondent are stored in the storage unit 12. Input data 4a obtained from a plurality of respondents is used for analysis processing (analysis processing in FIG. 17) described later.

次に、第2の実施の形態の語彙判断課題分析装置10が実行する分析処理について、図17〜図20を参照して説明する。
語彙判断課題分析装置10の制御部11は、図17に示す分析処理プログラムを記憶部12から読み込み、以下の手順に従って処理を実行する。
Next, analysis processing executed by the vocabulary determination task analysis apparatus 10 according to the second embodiment will be described with reference to FIGS.
The control unit 11 of the vocabulary determination task analysis apparatus 10 reads the analysis processing program shown in FIG. 17 from the storage unit 12 and executes processing according to the following procedure.

分析処理において制御部11は、記憶部12から複数の回答者による入力データ4a(回答データ42、反応時間データ43、及び生理指標データ44)を取得する(ステップS601)。このとき、ステップS507において行った実験評価に基づき、実験評価結果の良い回答者の入力データ4aを取得するようにしてもよい。制御部11は、取得した入力データ4aに基づいて各文字列に対する回答の反応時間を集計する(ステップS602)。反応時間の集計は第1の実施の形態と同様に行えばよい。   In the analysis process, the control unit 11 acquires input data 4a (response data 42, reaction time data 43, and physiological index data 44) from a plurality of respondents from the storage unit 12 (step S601). At this time, based on the experimental evaluation performed in step S507, the input data 4a of the respondent with a good experimental evaluation result may be acquired. Based on the acquired input data 4a, the control unit 11 adds up the response times of responses to the character strings (step S602). The totaling of reaction times may be performed in the same manner as in the first embodiment.

次に、制御部11は、取得した入力データ4aの生理指標データ44に基づいて生理指標または感情に関する分析指標を算出する。分析指標は文字列毎に算出される(ステップS603)。   Next, the control unit 11 calculates a physiological index or an analysis index related to emotion based on the acquired physiological index data 44 of the input data 4a. An analysis index is calculated for each character string (step S603).

生理指標または感情に関する分析指標としては、例えば、以下の(A)〜(F)等がある。   Examples of analysis indices relating to physiological indices or emotions include the following (A) to (F).

(A)ストレス/リラックス状態
ストレス/リラックス状態とは、対象物選択時のストレス状態またはリラックス状態を示す分析指標である。ストレス/リラックス状態の算出方法は周知の方法を用いればよい。例えば、特開2009−66017号公報には、指尖の血管の容積変化である指尖容積脈波を測定するための脈波センサと、脈波センサに接続されたコンピュータ端末とを利用し、ユーザの脈波についてカオス解析を行うことによりストレス評価値を演算し、基準となるストレス評価値と比較することにより、ユーザの心身の状態を診断する手法について記載されている。また、特開平9−70399号公報には、被検者の心拍数を計測し、所定心拍数毎にその間の所要時間を測定して、所要時間の増加率を順次算出し、増加率と判定基準値との比較でリラックス度を「小」、「中」、「大」のように多段階に簡易に判定する装置について記載されている。また、心拍R−R間隔の測定値を高速フーリエ変換して、ある特定の周波数帯域のパワー値と全体のパワー値とからリラックス度の判定指標を得る手法(特開1−131648号公報)や、心拍R−R間隔の分散を算出して指標とする手法(特開平3−272745号公報)、心拍信号に加えて呼吸信号を検出し、両方またはいずれか一方の信号の分散を算出して判定指標とする手法(特開平5−42129号公報)等も提案されている。
(A) Stress / relaxed state The stress / relaxed state is an analysis index indicating a stressed state or a relaxed state when an object is selected. A known method may be used as a method for calculating the stress / relaxed state. For example, Japanese Patent Application Laid-Open No. 2009-66017 uses a pulse wave sensor for measuring a finger tip volume pulse wave, which is a volume change of a blood vessel of a finger tip, and a computer terminal connected to the pulse wave sensor, It describes a technique for diagnosing the state of mind and body of a user by calculating a stress evaluation value by performing chaos analysis on the user's pulse wave and comparing it with a reference stress evaluation value. Japanese Patent Laid-Open No. 9-70399 discloses a subject's heart rate, measures the required time between each predetermined heart rate, sequentially calculates an increase rate of the required time, and determines that the rate is an increase rate. An apparatus is described in which the degree of relaxation is easily determined in multiple stages such as “small”, “medium”, and “large” by comparison with a reference value. In addition, a method for obtaining a relaxation degree determination index from a power value in a specific frequency band and an overall power value by performing fast Fourier transform on the measured value of the heartbeat R—R interval (Japanese Patent Laid-Open No. 1-1131648), A method of calculating the variance of the heart rate RR interval as an index (Japanese Patent Laid-Open No. 3-272745), detecting a respiratory signal in addition to the heart rate signal, and calculating the variance of both or one of the signals A method (Japanese Patent Laid-Open No. 5-42129) or the like that is used as a determination index has also been proposed.

回答者が設問に回答している間のストレス/リラックス状態を定量的な分析指標で求め、アンケートの結果と結び付けて示すことにより、対象物選択時のストレス度合等の心理状態を分析できる可能性が考えられる。   Possibility to analyze the psychological state such as the degree of stress at the time of target selection by calculating the stress / relaxation state while respondents are answering the question with quantitative analysis index and showing it in the result of questionnaire Can be considered.

(B)快/不快
「快/不快」とは、対象物選択時の快状態または不快状態を示す分析指標である。快/不快状態の算出方法は周知の方法を用いればよい。例えば、特開2006−149470号公報には、脈波や心拍等の生体信号を基に心拍変動の傾きの時系列波形を求め、これを周波数解析し、筋疲労信号のピーク値が含まれるVLF周波数帯域又は入眠予兆信号のピーク値が含まれるULF周波数帯域に属する周波数成分を抽出して、それらのスペクトルを両対数表示させ、スペクトルの周波数に対する傾きを算出し、快適度を判定する手法について記載されている。VLF(verylow-frequency)周波数帯域とは、0.0033〜0.04Hzの周波数帯であり、この周波数帯域に含まれる心拍変動の周波数成分には、疲労時に現れる信号(疲労信号)が多く含まれている。ULF(ultralow-frequency)周波数帯域とは、0.0033Hz以下の周波数帯であり、この周波数帯域に含まれる心拍変動の周波数成分には、入眠予兆時に現れる信号(入眠予兆信号)が多く含まれている。その傾きが1/f0、1/f又は1/f2のいずれに近いかにより快適度として定量化するものである。また、特開2000−116614号公報には、手袋に皮膚温計測用の温度センサと、皮膚インピーダンス計測用電極と、脈波計測用のLED及びフォトトランジスタを配備し、脈波検出回路、温度検出回路、皮膚インピーダンス検出回路を介して、それぞれ脈波、皮膚温度、皮膚インピーダンスを計測制御CPUに取り込み、皮膚温度、皮膚インピーダンス、及び脈拍の変化から快適性を総合的に評価する装置について記載されている。また、皮膚温度、皮膚インピーダンス、脈拍の安静時と比べた変化比率と微分値の変化から快適性を評価する手法等が開示されている。
(B) Pleasure / discomfort “Pleasure / discomfort” is an analysis index indicating a pleasant state or an unpleasant state when an object is selected. A well-known method may be used as a method for calculating the pleasant / unpleasant state. For example, in Japanese Patent Laid-Open No. 2006-149470, a VLF including a peak value of a muscle fatigue signal is obtained by obtaining a time-series waveform of the slope of heartbeat variability based on a biological signal such as a pulse wave or a heartbeat, performing frequency analysis on this. Describes how to extract the frequency components belonging to the frequency band or the ULF frequency band that contains the peak value of the sleep signal, display the spectrum of the logarithm, calculate the slope of the spectrum with respect to the frequency, and determine the comfort level Has been. The VLF (very low-frequency) frequency band is a frequency band of 0.0033 to 0.04 Hz, and the frequency component of heart rate variability included in this frequency band includes many signals (fatigue signals) that appear during fatigue. ing. The ULF (ultralow-frequency) frequency band is a frequency band of 0.0033 Hz or less, and the frequency component of heart rate variability included in this frequency band includes many signals that appear at the onset of sleep onset (sleep onset predictor signal). Yes. The degree of comfort is quantified depending on whether the slope is close to 1 / f0, 1 / f, or 1 / f2. Japanese Patent Laid-Open No. 2000-116614 provides a glove with a temperature sensor for skin temperature measurement, an electrode for skin impedance measurement, an LED and a phototransistor for pulse wave measurement, and a pulse wave detection circuit, temperature detection A device that captures pulse wave, skin temperature, and skin impedance into a measurement control CPU via a circuit and a skin impedance detection circuit, respectively, and comprehensively evaluates comfort from changes in skin temperature, skin impedance, and pulse is described. Yes. Also disclosed is a method for evaluating comfort based on changes in skin temperature, skin impedance, and change rate and differential value compared to when the pulse is at rest.

回答者が設問に回答している間の快/不快状態を定量的に求めて、アンケートの結果と結び付けて示すことにより、対象物選択時の快適さや不快さとの関連を分析できる可能性が考えられる。   It may be possible to analyze the relationship between comfort and discomfort at the time of object selection by quantitatively obtaining the pleasant / discomfort state while the respondent is answering the question and showing it in connection with the results of the questionnaire. It is done.

(C)覚醒度
「覚醒度」とは、対象物選択時の回答者の眠けや覚醒度を示す分析指標である。覚醒度の算出方法は周知の方法を用いればよい。例えば、国際公開WO2010/140273には、被験者の心拍信号から心拍間隔を算出し、算出した心拍間隔に対して周波数毎のスペクトル密度を算出し、極大点密度と、極大点周波数と、極大点周波数の前後にある周波数に対応するスペクトル密度と該極大点密度との差を示す大小差分関係とを組み合わせて所定のタイミングごとに抽出し、その組み合わせより前のタイミングにて抽出した極大点周波数と極大点密度と大小差分関係と比較することにより定まる判定基準に基づいて覚醒度を判定する手法について記載されている。また、例えば、心拍信号の覚醒時におけるピーク周波数を基準とし、ピーク周波数よりも被験者の心拍信号の周波数が低いか否かによって被験者の眠気度合いを評価する手法(特開2004−350773号公報)や、脈波信号の低周波部分および高周波部分の強度や低周波部分と高周波部分との比によって被験者の覚醒度を評価する手法(特開平8−299443号公報)も知られている。
(C) Awakening level The “awakening level” is an analysis index indicating the sleep level or awakening level of the respondent when selecting an object. A known method may be used as a method for calculating the arousal level. For example, in International Publication WO2010 / 140273, a heartbeat interval is calculated from a heartbeat signal of a subject, a spectral density for each frequency is calculated with respect to the calculated heartbeat interval, a maximum point density, a maximum point frequency, and a maximum point frequency. The spectral density corresponding to the frequency before and after the frequency and the magnitude difference relationship indicating the difference between the local maximum densities are combined and extracted at a predetermined timing, and the local maximum frequency and local maximum extracted at the timing before the combination are extracted. It describes a method for determining the degree of arousal based on a determination criterion determined by comparing the point density with the magnitude difference relationship. In addition, for example, a method (Japanese Patent Laid-Open No. 2004-350773) for evaluating the degree of sleepiness of a subject based on whether or not the frequency of the heartbeat signal of the subject is lower than the peak frequency on the basis of the peak frequency when the heartbeat signal is awakened. There is also known a technique (Japanese Patent Laid-Open No. 8-299443) for evaluating a subject's arousal level based on the intensity of the low-frequency part and the high-frequency part of the pulse wave signal and the ratio between the low-frequency part and the high-frequency part.

回答者が設問に回答している間の覚醒度を求め、アンケートの結果と結び付けて示すことにより、回答中の眠けや覚醒度を把握したり、回答の信憑性を分析できる可能性が考えられる。   There is a possibility that the level of arousal while the respondent is answering a question will be obtained and linked to the results of the questionnaire to understand the level of sleepiness and arousal in the response and to analyze the credibility of the answer. It is done.

(D)感情状態(基本感情)
「感情状態」とは、対象物選択時の回答者の感情状態を示す分析指標であり、例えば、各種感情の度合いをスコア(ポイント)や割合等で示したものである。「基本感情」とは、文化等によって異ならず、生物学的基盤をもって普遍的に表現されると考えられる感情である。研究者によってその詳細、及び定義は異なるが、例えば、感情と表情に関する先駆的な研究を行った心理学者であるPaul Ekmanは「恐れ、怒り、悲しみ、嫌悪、喜び、驚き」の6種類を基本感情として定義している。ただし、これらの感情に限定されず、その他の感情状態を含むものとしてもよい。
(D) Emotional state (basic emotion)
The “emotion state” is an analysis index indicating the emotional state of the respondent at the time of selecting an object. For example, the level of various emotions is indicated by a score (point) or a ratio. “Basic emotions” are emotions that are considered to be expressed universally with a biological basis, regardless of culture. For example, Paul Ekman, a psychologist who conducted pioneering research on emotions and facial expressions, has six basic types of "fear, anger, sadness, disgust, joy, and surprise". It is defined as emotion. However, it is not limited to these emotions, but may include other emotional states.

感情状態の算出方法は周知の方法を用いればよい。例えば、特開2002−112969号公報には、心電図、血圧センサ、皮膚温度センサ、皮膚抵抗を測定する皮膚抵抗センサ、呼吸率を測定する呼吸センサ等を用いて、心拍や血圧、皮膚温度及び皮膚抵抗等に対応するアナログの生体信号を検出し、これらの生体信号をデジタル信号処理し、各種の生体パラメータを求め、生体パラメータに基づいて身体及び感情状態(「喜び」、「悲しみ」、「怒り」、「退屈」、「ストレス」等)を認識及び表現する手法について記載されている。上述の生体パラメータとしては、例えば、LF、HF、LF/HF、RR、HR、RSA、SKT、SCL、N−SCR、SCRM、SCL、N−SCR等が挙げられている。   A known method may be used as a method for calculating the emotional state. For example, Japanese Patent Application Laid-Open No. 2002-112969 discloses an electrocardiogram, a blood pressure sensor, a skin temperature sensor, a skin resistance sensor that measures skin resistance, a respiratory sensor that measures a respiratory rate, and the like. Analog biological signals corresponding to resistance, etc. are detected, these biological signals are digitally processed, various biological parameters are obtained, and body and emotional states (“joy”, “sadness”, “anger” are determined based on the biological parameters. ”,“ Boring ”,“ stress ”, etc.). Examples of the biological parameters include LF, HF, LF / HF, RR, HR, RSA, SKT, SCL, N-SCR, SCRM, SCL, and N-SCR.

LF、HFとは、心拍変動に基づいて算出されるパラメータである。HFは心拍変動を高速フーリエ変換した結果の高周波範囲に属するパワースペクトルを積分した値(高周波値HF)であり、LFは低周波範囲に属するパワースペクトルを積分した値(低周波値LF)である。LF/HFは、低周波値LHを高周波値HFで除算した値である。RRとは心電図のポジティブピーク(R波)とポジティブピーク(R波)との時間間隔である。またHRとは、単位時間あたりの心臓の搏動回数である。また、RSA(resporatory sinus arrhythmia)とは、心電図から算出される生体パラメータであり、R波とR波との間隔のなかの、最大間隔から最小間隔を引いた結果を最小間隔で除算した値、すなわち((最大間隔−最小間隔)/最小間隔)で示される呼吸性の変動成分である。また、SKT(skin temperature)とは、皮膚温度についての生体パラメータであり、皮膚温度平均値である。SCL、N−SCR、SCRM、SCLは皮膚抵抗度についての生体パラメータである。SCL(皮膚伝導レベル)は皮膚抵抗逆数値の平均、N−SCR(皮膚伝導応答数)は皮膚抵抗値の逆数を表したグラフから求められた負の傾きのゼロ交差点の数、SCRM(皮膚伝導応答量)は、正の傾きのゼロ交差点(positive slope zero crossing)の数から負の傾きのゼロ交差点(negative slope zero crossings)までの高さ値の和の逆数である。   LF and HF are parameters calculated based on heart rate variability. HF is a value (high frequency value HF) obtained by integrating the power spectrum belonging to the high frequency range as a result of fast Fourier transform of the heart rate variability, and LF is a value (low frequency value LF) obtained by integrating the power spectrum belonging to the low frequency range. . LF / HF is a value obtained by dividing the low frequency value LH by the high frequency value HF. RR is the time interval between the positive peak (R wave) and the positive peak (R wave) of the electrocardiogram. The HR is the number of times of heart movement per unit time. RSA (resporatory sinus arrhythmia) is a biological parameter calculated from an electrocardiogram, and is a value obtained by dividing the result obtained by subtracting the minimum interval from the maximum interval among the intervals between the R wave and the R wave, That is, it is a respiratory variation component represented by ((maximum interval−minimum interval) / minimum interval). SKT (skin temperature) is a biological parameter for skin temperature, and is an average skin temperature value. SCL, N-SCR, SCRM, and SCL are biological parameters for the degree of skin resistance. SCL (skin conduction level) is the average of skin resistance reciprocal values, N-SCR (skin conduction response number) is the number of negative zero crossings determined from a graph representing the reciprocal skin resistance value, SCRM (skin conduction) (Response) is the reciprocal of the sum of height values from the number of positive slope zero crossings to the negative slope zero crossings.

回答者が設問に回答している間の感情を分析し、アンケートの結果と結び付けて示すことにより、対象選択時の感情的洞察を得られる可能性が考えられる。   By analyzing emotions while respondents are answering questions and showing them in connection with the results of a questionnaire, it may be possible to obtain emotional insights at the time of target selection.

(E)自律神経活性度
「自律神経活性度」とは、生理指標から求められる自律神経指標であり、自律神経活性度(交感神経活動の活性度、副交感神経活動の活性度)等を含む。交感神経系はストレスの多い状況でより活動し、逆に副交感神経はストレスの少ない状況でより活動することが知られている。
自律神経活性度は、生理指標計測装置10bにより計測された心拍変動をフーリエ解析し、最大エントロピー法等の公知の手法を用いて周波数成分のパワースペクトル解析を行うことにより算出できる。副交感神経活動の活性度はHF、交換神経活動の活性度はLF/HFで求められる。LFは中間周波数成分(例えば、0.05〜0.20Hz)のパワースペクトルの合計値であり、HFは高周波成分;例えば、0.20〜0.35Hz)のパワースペクトルの合計値である。なお、この段落でいうところのHF、LFは上述の特開2002−112969号公報に記載されるHF、LFと必ずしも一致しなくてもよい。また、LFやHFの各周波数範囲は諸説あるため、上記の数値範囲に限定するものではない。
(E) Autonomic nerve activity “Autonomous nerve activity” is an autonomic nerve index obtained from a physiological index, and includes autonomic nerve activity (activity of sympathetic nerve activity, activity of parasympathetic nerve activity) and the like. It is known that the sympathetic nervous system is more active in stressful situations, and conversely the parasympathetic nerve is more active in less stressful situations.
The autonomic nerve activity can be calculated by performing a Fourier analysis of the heart rate fluctuation measured by the physiological index measuring device 10b and performing a power spectrum analysis of the frequency component using a known method such as a maximum entropy method. The activity of parasympathetic nerve activity is obtained by HF, and the activity of exchange nerve activity is obtained by LF / HF. LF is the total value of the power spectrum of the intermediate frequency component (for example, 0.05 to 0.20 Hz), and HF is the total value of the power spectrum of the high frequency component; for example, 0.20 to 0.35 Hz. Note that HF and LF in this paragraph do not necessarily coincide with HF and LF described in the above-mentioned JP-A-2002-112969. In addition, since there are various theories about the frequency ranges of LF and HF, they are not limited to the above numerical ranges.

回答者が設問に回答している間の自律神経活性度を分析し、アンケートの結果と結び付けて示すことにより、自律神経活性度から見たプライム刺激とターゲット刺激間の距離を把握することが可能となり、クラスタリングによる新たな分析ができる可能性が考えられる。   By analyzing the autonomic nerve activity while respondents are answering the questions and linking them with the results of the questionnaire, it is possible to grasp the distance between the prime stimulus and the target stimulus as seen from the autonomic nerve activity Therefore, there is a possibility that a new analysis by clustering can be performed.

(F)生理指標値
「生理指標値」とは、心拍数、血圧等の生理指標計測装置10bが計測した生理指標そのものの値である。回答者が設問に回答している間の生理指標値をそのままアンケートの結果と結び付けて示すことにより、プライム刺激とターゲット刺激間の生理的距離を把握することが可能となり、クラスタリングによる新たな分析ができる可能性が考えられる。
(F) Physiological index value The “physiological index value” is the value of the physiological index itself measured by the physiological index measuring apparatus 10b such as heart rate and blood pressure. Physiological index values while respondents are answering questions are shown directly linked to the results of the questionnaire, making it possible to grasp the physiological distance between the prime stimulus and the target stimulus, and new analysis by clustering is possible. Possible possibilities.

上述の(A)〜(F)の分析指標は、全て算出してもよいし、調査の趣旨に沿って必要なものだけを選択的に算出するようにしてもよい。いずれの分析指標を算出するか選択するために選択画面等を提示し、操作者に選択させるようにしてもよい。   All of the above-described analysis indexes (A) to (F) may be calculated, or only necessary ones may be selectively calculated according to the purpose of the survey. In order to select which analysis index to calculate, a selection screen or the like may be presented so that the operator can select it.

図18は、ステップS602〜S603の処理結果である分析結果データ6aの一例を示す図である。
分析結果データ6aは、調査対象物であるプライム刺激情報30について、文字列62毎に反応時間63及び分析指標65が集計されたものである。反応時間の集計方法は、第1の実施の形態と同様に、複数の回答者の反応時間の例えば平均値等を算出するものとすればよい。分析結果データ6の順位61は、反応時間が短い方から並べ替えた順位である。件数64は、当該文字列62の集計に利用した入力データ4の数である。例えば、4人分の回答から反応時間の平均値を算出した場合は、件数64は「4」である。分析指標65は、ステップS603で算出した生理指標または感情に関する分析指標である。図18には、分析指標65として1種類の指標が示されているが、複数種類の指標が算出されてもよい。
FIG. 18 is a diagram illustrating an example of the analysis result data 6a that is the processing result of steps S602 to S603.
The analysis result data 6a is obtained by collecting the reaction time 63 and the analysis index 65 for each character string 62 with respect to the prime stimulus information 30 that is an investigation object. The reaction time counting method may calculate, for example, an average value of the reaction times of a plurality of respondents, as in the first embodiment. The rank 61 of the analysis result data 6 is the rank sorted from the shorter reaction time. The number of cases 64 is the number of input data 4 used for counting the character strings 62. For example, when the average value of the reaction time is calculated from the responses for four people, the number of cases 64 is “4”. The analysis index 65 is an analysis index related to the physiological index or emotion calculated in step S603. Although one kind of index is shown as the analysis index 65 in FIG. 18, a plurality of kinds of indices may be calculated.

図18の分析結果データ6aは、プライム刺激情報30を調査対象物とした調査結果である。ターゲット刺激とした文字列は、「かわいい」、「はほん」、「こわい」、「なつかしい」、「かいすき」、「おもしろい」等である。文字列「かわいい」についての反応時間63は「879.0」、生理指標または感情に関する分析指標65の値は「3.8」と算出されている。また、文字列「はほん」についての反応時間63は「902.0」、生理指標または感情に関する分析指標の値65は「−1.3」と算出されている。   The analysis result data 6a in FIG. 18 is a result of investigation using the prime stimulus information 30 as an investigation object. The character strings used as the target stimulus are “cute”, “hahon”, “scare”, “nostalgic”, “kaisuki”, “interesting”, and the like. The reaction time 63 for the character string “cute” is calculated as “879.0”, and the value of the analysis index 65 regarding the physiological index or emotion is calculated as “3.8”. In addition, the reaction time 63 for the character string “hahon” is calculated as “902.0”, and the analysis index value 65 regarding the physiological index or emotion is calculated as “−1.3”.

ステップS602〜ステップS603の処理により、反応時間の集計、及び生理指標または感情に関する分析指標を算出すると、次に制御部11は、分析チャート80を作成する(ステップS604)。   After calculating the reaction time and analyzing the physiological index or the emotional analysis index by the processes of steps S602 to S603, the control unit 11 creates the analysis chart 80 (step S604).

語彙判断課題分析装置10の制御部11は、図19に示す分析チャート作成処理プログラムを記憶部12から読み込み、以下の手順に従って処理を実行する。以下の説明では、一例として図20に示す分析チャート80を作成する処理について説明する。   The control unit 11 of the vocabulary determination task analysis apparatus 10 reads the analysis chart creation processing program shown in FIG. 19 from the storage unit 12 and executes processing according to the following procedure. In the following description, a process for creating the analysis chart 80 shown in FIG. 20 will be described as an example.

制御部11は、まず、プライム刺激情報を示すオブジェクト800を記憶部12から取得する(ステップS701)。プライム刺激情報を示すオブジェクト800とは、第1の実施の形態と同様に、プライム刺激情報30の画像をそのまま使用してもよいし、図形や色等を組み合わせた図案としてもよい。   First, the control unit 11 acquires an object 800 indicating prime stimulation information from the storage unit 12 (step S701). As in the first embodiment, the object 800 indicating prime stimulus information may use the image of the prime stimulus information 30 as it is, or may be a design combining figures, colors, and the like.

次に制御部11は、分析結果データ9から分析チャート80に使用する文字列を抽出する(ステップS702)。文字列の抽出処理も第1の実施の形態と同様である。   Next, the control part 11 extracts the character string used for the analysis chart 80 from the analysis result data 9 (step S702). The character string extraction process is the same as that in the first embodiment.

制御部11は、抽出した文字列(ターゲット刺激情報)を示す各オブジェクト801a〜801dを作成する(ステップS703)。ターゲット刺激情報を示すオブジェクトとは、第1の実施の形態と同様に、ターゲット刺激情報を図案化した画像データまたは修飾文字データである。   The control unit 11 creates the respective objects 801a to 801d indicating the extracted character string (target stimulus information) (step S703). The object indicating the target stimulus information is image data or modified character data in which the target stimulus information is designed as in the first embodiment.

次に制御部11は、反応時間を示すオブジェクト(矢印オブジェクト)803a,803b,803c,803dを取得し、反応時間の長さに応じて矢印オブジェクト803a,803b,803c,803dの表示状態(サイズや色等)を変更する(ステップS704)。反応時間を示すオブジェクト803a,803b,803c,803dは、文字列(ターゲット刺激情報)毎にそれぞれ作成される。   Next, the control unit 11 acquires objects (arrow objects) 803a, 803b, 803c, and 803d indicating reaction times, and displays the display state (size and size) of the arrow objects 803a, 803b, 803c, and 803d according to the length of the reaction time. Color etc.) is changed (step S704). Objects 803a, 803b, 803c, and 803d indicating reaction times are created for each character string (target stimulus information).

次に制御部11は、生理指標または感情に関する分析指標に基づいて、各ターゲット刺激情報を示すオブジェクト801a,801b,801c,801dの表示形態(サイズや色等)を変更する(ステップS705)。   Next, the control unit 11 changes the display form (size, color, etc.) of the objects 801a, 801b, 801c, 801d indicating each target stimulus information based on the physiological index or the analysis index related to emotion (step S705).

例えば、図20の例では、ターゲット刺激情報を示す各オブジェクト801a〜801dが楕円で示される。各文字列(ターゲット刺激情報)の生理指標または感情に関する分析指標の値に応じて楕円のサイズをそれぞれ変更する。また、プライム刺激情報を示すオブジェクト800と、各ターゲット刺激情報を示すオブジェクト801a〜801dとを結ぶ矢印が反応時間を示すオブジェクト803a,803b,803c,803dである。矢印の長さが反応時間の長さに相当する。   For example, in the example of FIG. 20, each object 801a-801d which shows target stimulus information is shown with an ellipse. The size of the ellipse is changed according to the value of the physiological index of each character string (target stimulus information) or the analysis index related to emotion. Further, the arrows connecting the object 800 indicating the prime stimulus information and the objects 801a to 801d indicating the target stimulus information are the objects 803a, 803b, 803c, and 803d indicating the reaction time. The length of the arrow corresponds to the length of the reaction time.

制御部11は、プライム刺激情報を示すオブジェクト800と、ターゲット刺激情報を示すオブジェクト801a〜801dと、反応時間を示すオブジェクト803a,803b,803c,803dとを所定の配置にレイアウトする(ステップS706)。   The control unit 11 lays out an object 800 indicating prime stimulus information, objects 801a to 801d indicating target stimulus information, and objects 803a, 803b, 803c, and 803d indicating reaction times in a predetermined arrangement (step S706).

レイアウトでは、プライム刺激情報を示すオブジェクト800を中心に配置し、ターゲット刺激情報を示す複数のオブジェクト801a〜801dをプライム刺激情報を示すオブジェクト800の周囲に配置し、プライム刺激情報を示すオブジェクト800とターゲット刺激情報を示す各オブジェクト801a〜801dとを結ぶように、反応時間を示す矢印オブジェクト803a〜803dを配置する。反応時間を示す矢印オブジェクト803a〜803dの長さは、反応時間の長さに対応している。
また、ターゲット刺激情報を示す各オブジェクト801a〜801dのサイズが、各文字列(ターゲット刺激情報)の生理指標または感情に関する分析指標の大きさに相当する。
In the layout, the object 800 indicating the prime stimulus information is arranged around the object 800, the plurality of objects 801a to 801d indicating the target stimulus information are arranged around the object 800 indicating the prime stimulus information, and the object 800 indicating the prime stimulus information and the target Arrow objects 803a to 803d indicating reaction times are arranged so as to connect the objects 801a to 801d indicating stimulus information. The lengths of the arrow objects 803a to 803d indicating the reaction time correspond to the length of the reaction time.
Further, the size of each object 801a to 801d indicating the target stimulus information corresponds to the size of the physiological index or the emotional analysis index of each character string (target stimulus information).

図20は、レイアウトの結果、作成された分析チャート80の一例である。   FIG. 20 is an example of an analysis chart 80 created as a result of layout.

図20では、ターゲット刺激情報を示す各オブジェクト801a〜801dは、図案として文字列と図形(楕円)の組み合わせを採用し、文字サイズやフォントを一律としているが、これに限定されない。図形は楕円に限定されず、その他の図形としてもよい。また、各オブジェクト801a〜801dに色や模様を付加してもよい。また、文字のサイズやフォントや色等も、オブジェクト801a〜801dのサイズに合わせて変更してもよい。   In FIG. 20, each of the objects 801a to 801d indicating the target stimulus information employs a combination of a character string and a graphic (ellipse) as a design and has a uniform character size and font, but is not limited thereto. The figure is not limited to an ellipse, and may be another figure. Moreover, you may add a color and a pattern to each object 801a-801d. Further, the character size, font, color, and the like may be changed in accordance with the sizes of the objects 801a to 801d.

また、生理指標データまたは感情に関する分析指標に応じて、ターゲット刺激情報を示すオブジェクト801a〜801dの色を変更してもよい。例えば、ストレス状態を生理指標データまたは感情に関する分析指標として算出した場合は、ストレス状態を示す評価値が小さい場合は、明るい色で示し、ストレス状態を評価値が大きい場合は暗い色で示すようにする。この場合は生理指標または感情を示す分析指標の大きさと色との関係を示すカラーチャートを分析チャートとともに表示することが望ましい。   Further, the colors of the objects 801a to 801d indicating the target stimulus information may be changed according to physiological index data or an analysis index related to emotion. For example, when the stress state is calculated as physiological index data or an analysis index related to emotion, when the evaluation value indicating the stress state is small, the stress state is indicated by a bright color, and when the evaluation value is high, the stress state is indicated by a dark color. To do. In this case, it is desirable to display a color chart showing the relationship between the size and color of an analysis index indicating a physiological index or emotion together with the analysis chart.

分析チャート80を作成すると、制御部11は、作成した分析チャート80を出力する(ステップS707、図17のステップS605)。出力は、表示画面への表示、印刷出力、ネットワークへのデータ送信等である。   When the analysis chart 80 is created, the control unit 11 outputs the created analysis chart 80 (step S707, step S605 in FIG. 17). The output includes display on a display screen, print output, data transmission to a network, and the like.

以上説明したように、第2の実施の形態の語彙判断課題分析装置10は、プライム刺激情報を提示した後に単語または非単語をターゲット刺激情報として提示し、ターゲット刺激情報が語彙として意味をなすか否かを判断する語彙判断課題を設問として順次表示する。そして、設問に対し、回答を入力するまでの反応時間を計測する。また、設問を回答中の回答者の生理指標データを計測する。制御部11は、複数の回答者から得られた回答及び反応時間を集計し、分析結果として、プライム刺激情報、ターゲット刺激情報、及び反応時間を図案で示した分析チャートを作成して出力する。また、生理指標データを分析して生理指標または感情を表す分析指標を算出し、生理指標または感情を表す分析指標に応じて、分析チャートの例えばターゲット刺激情報の表示形態を変更する。
したがって、語彙判断課題の結果を分析チャートの形式で見やすく提示することが可能となる。特に、生理指標を計測してその分析結果を分析チャート内に示すため、回答中の回答者の心理状態等を把握しやすくなる。
As described above, the vocabulary determination task analysis apparatus 10 according to the second embodiment presents words or non-words as target stimulus information after presenting prime stimulus information, and does the target stimulus information make sense as a vocabulary? The vocabulary determination tasks for determining whether or not are sequentially displayed as questions. And the reaction time until an answer is input with respect to a question is measured. In addition, the physiological index data of the respondent who is answering the question is measured. The control unit 11 aggregates answers and reaction times obtained from a plurality of respondents, and creates and outputs an analysis chart showing the prime stimulus information, target stimulus information, and reaction time as a result of analysis. In addition, the physiological index data is analyzed to calculate an analytical index representing the physiological index or emotion, and the display format of, for example, target stimulus information on the analysis chart is changed according to the analytical index representing the physiological index or emotion.
Therefore, the result of the vocabulary determination task can be presented in an easy-to-read form in the form of an analysis chart. In particular, since the physiological index is measured and the analysis result is shown in the analysis chart, it becomes easy to grasp the psychological state of the respondent who is answering.

[第3の実施の形態]
次に、図21〜図23を参照して本発明の第3の実施の形態に係る語彙判断課題分析装置20について説明する。
[Third Embodiment]
Next, a vocabulary determination task analysis apparatus 20 according to a third embodiment of the present invention will be described with reference to FIGS.

第3の実施の形態の語彙判断課題分析装置20は、設問に対する回答の反応時間を計測し、分析に使用するとともに、回答中に回答者の顔画像をカメラ10c(撮像手段)により撮像し、撮像された顔画像データに基づいて感情の分析を更に行う。   The vocabulary determination task analysis apparatus 20 of the third embodiment measures the response time of an answer to a question, uses it for analysis, and captures the face image of the respondent during the answer by the camera 10c (imaging means), The emotion is further analyzed based on the captured face image data.

図21は、第3の実施の形態に係る語彙判断課題分析装置20の全体構成図である。
図21に示すように、第3の実施の形態に係る語彙判断課題分析装置20は、回答者端末10aとカメラ10c(撮像手段)とを備える。カメラ10cは、回答者端末10aの周辺機器I/F部17にケーブルや無線等のインターフェースを通して通信接続されてもよいし、回答者端末10aに一体的に搭載されていてもよい。
FIG. 21 is an overall configuration diagram of the vocabulary determination task analysis apparatus 20 according to the third embodiment.
As shown in FIG. 21, the vocabulary determination task analysis apparatus 20 according to the third embodiment includes a respondent terminal 10a and a camera 10c (imaging means). The camera 10c may be communicatively connected to the peripheral device I / F unit 17 of the respondent terminal 10a through an interface such as a cable or wireless, or may be integrated with the respondent terminal 10a.

回答者端末10aは、第1〜第2の実施の形態と同様に、設問の表示、回答の入力、反応時間の計測、取得した回答の集計、及び分析処理を行う装置である。回答者端末10aの内部構成は第1の実施の形態の語彙判断課題分析装置1と同一であるため、重複する説明を省略し、同一の各部は同一の符号を付して以下の説明をする。なお、回答者端末10aは、図21の例では一例としてタブレット型のコンピュータを図示しているが、回答者端末10aの形態はこれに限定されない。第1の実施の形態の語彙判断課題分析装置1と同様に、図1の内部構成を有する各種電子機器を利用可能である。   As in the first and second embodiments, the respondent terminal 10a is a device that displays a question, inputs a response, measures a reaction time, counts the acquired responses, and performs an analysis process. Since the internal structure of the respondent terminal 10a is the same as that of the vocabulary determination task analysis apparatus 1 of the first embodiment, a duplicate description is omitted, and the same parts are denoted by the same reference numerals and the following description is given. . In addition, although the respondent terminal 10a has illustrated the tablet-type computer as an example in the example of FIG. 21, the form of the respondent terminal 10a is not limited to this. As with the vocabulary determination task analysis apparatus 1 of the first embodiment, various electronic devices having the internal configuration of FIG. 1 can be used.

カメラ10cは、回答者の顔画像を設問毎に撮影する装置である。カメラ10cは静止画を撮影するカメラとしてもよいし、動画を撮影するビデオカメラとしてもよい。回答者端末10a側に搭載される感情分析アルゴリズムに応じて入力画像を静止画としてもよいし、動画としてもよい。カメラ10cにより撮影された顔画像データは回答者端末10aに入力される。回答者端末10aは、カメラ10cから入力された顔画像データを、設問と対応付けて記憶部12に記憶する。   The camera 10c is a device that captures an answerer's face image for each question. The camera 10c may be a camera that shoots still images or a video camera that shoots moving images. The input image may be a still image or a moving image in accordance with the emotion analysis algorithm installed on the respondent terminal 10a. The face image data photographed by the camera 10c is input to the respondent terminal 10a. The respondent terminal 10a stores the face image data input from the camera 10c in the storage unit 12 in association with the question.

第3の実施の形態において回答者端末10aは、カメラ10cから入力された顔画像データに基づいて回答者の表情を分析し、感情を示す分析指標を求める感情分析機能を有する。感情分析機能は、例えばアプリケーションプログラムの形態で回答者端末10aの記憶部12や制御部11のROMに保持される。また、回答者端末10aは、感情に関する分析指標を分析チャート内に示す。分析チャートのターゲット刺激情報を示すオブジェクトの表示形態を感情に関する分析指標に応じて変化させる。   In the third embodiment, the respondent terminal 10a has an emotion analysis function of analyzing the respondent's facial expression based on the face image data input from the camera 10c and obtaining an analysis index indicating emotion. The emotion analysis function is held in the storage unit 12 of the respondent terminal 10a or the ROM of the control unit 11 in the form of an application program, for example. Moreover, the respondent terminal 10a shows the analysis index regarding emotions in the analysis chart. The display form of the object indicating the target stimulus information of the analysis chart is changed according to the analysis index related to emotion.

顔画像データに基づいて感情を分析し、その分析指標を出力する技術は周知の技術を利用すればよい。例えば、特開2012−155631号公報には、顔画像から複数の顔部位を検出し、口領域処理範囲の画素分布に基づいて右口角および左口角を含む口領域を決定し、口領域の縦横比率、口領域の面積および口領域における右口角の位置および左口角の位置に応じたポイントを付与することで被験者の表情を判定する技術について開示されている。上述のポイントは、恐怖度、笑い度、嫌悪度、悲しみ度、冷笑度、通常度等である。また、特開2009−098901号公報には、動画像から人物の顔画像を検出し、顔画像領域から鼻の先端、口角の位置を特徴点として抽出し、鼻の先端を基準とした時の、口角の左右の位置との角度を計測して特徴量とし、角度の時間変化を求め、前記時間変化から平衡状態からの立ち上がり状態、最大角度情報、平衡状態への立ち下がり状態の3状態に分割することで、笑い状態の開始から終了までの連続的な変化を捕らえられることで笑い状態を検出する技術について開示されている。また、3Dモデルフィッティング技術と、蓄積された顔画像データを礎とする統計的識別手法に基づいて、入力された顔画像から喜び/驚き/恐怖/嫌悪/怒り/悲しみ/無表情といった表情を推定し、各感情の度合を数値化して出力する技術が提案されている(http://www.omron.co.jp/press/2012/10/e1023.html)。   As a technique for analyzing emotions based on the face image data and outputting the analysis index, a known technique may be used. For example, in Japanese Patent Laid-Open No. 2012-155631, a plurality of face parts are detected from a face image, a mouth region including a right mouth corner and a left mouth corner is determined based on a pixel distribution of a mouth region processing range, and the mouth region is vertically and horizontally A technique for determining a facial expression of a subject by assigning points according to the ratio, the area of the mouth area, and the position of the right mouth corner and the position of the left mouth corner in the mouth area is disclosed. The above-mentioned points are fear level, laughter level, disgust level, sadness level, cold smile level, normal level, and the like. In Japanese Patent Laid-Open No. 2009-098901, a face image of a person is detected from a moving image, the tip of the nose and the position of the mouth corner are extracted as feature points from the face image area, and the nose tip is used as a reference. Measure the angle between the left and right positions of the mouth corner and use it as a feature value to obtain the time change of the angle. From the time change, the state rises from the equilibrium state, the maximum angle information, and the state of falling to the equilibrium state. A technique for detecting a laughing state by capturing a continuous change from the start to the end of the laughing state by dividing is disclosed. Also, based on 3D model fitting technology and statistical identification methods based on accumulated face image data, facial expressions such as joy / surprise / fear / disgust / anger / sadness / no expression are estimated from the input face image. In addition, a technique for numerically outputting the degree of each emotion has been proposed (http://www.omron.co.jp/press/2012/10/e1023.html).

次に、図22〜図23を参照して、第3の実施の形態に係る語彙判断課題分析装置20の動作を説明する。図22は第3の実施の形態に係る語彙判断課題分析装置20が実行するアンケート回答処理の流れを説明するフローチャート、図23は語彙判断課題分析装置20の回答者端末10aが実行する分析処理の流れを説明するフローチャートである。   Next, the operation of the vocabulary determination task analysis apparatus 20 according to the third embodiment will be described with reference to FIGS. FIG. 22 is a flowchart for explaining the flow of the questionnaire response process executed by the vocabulary determination task analysis apparatus 20 according to the third embodiment, and FIG. 23 shows the analysis process executed by the respondent terminal 10a of the vocabulary determination problem analysis apparatus 20. It is a flowchart explaining a flow.

語彙判断課題分析装置20の回答者端末10aの制御部11は、図22に示す回答処理プログラムを記憶部12から読み込み、以下の手順に従って処理を実行する。   The control unit 11 of the respondent terminal 10a of the vocabulary determination task analysis apparatus 20 reads the response processing program shown in FIG. 22 from the storage unit 12, and executes the processing according to the following procedure.

図22に示す回答処理において、まず制御部11は、記憶部12に記憶されているプライム刺激情報を取得し、表示部16に表示する。また、制御部11は、表示部16にプライム刺激情報を表示するのと同じタイミングでカメラ10cに計測開始指示を出力し、顔画像の撮影を開始させる(ステップS801)。   In the answer process shown in FIG. 22, the control unit 11 first acquires prime stimulus information stored in the storage unit 12 and displays it on the display unit 16. In addition, the control unit 11 outputs a measurement start instruction to the camera 10c at the same timing as displaying the prime stimulus information on the display unit 16 and starts photographing the face image (step S801).

カメラ10cは、回答者端末10aから撮影指示を受信すると、顔画像の撮像を開始する。本第3の実施の形態では、回答者の顔の動画像を撮影するものとする。撮影された顔画像データは、回答者端末10aの記憶部12に設問毎に保持される。また、回答が入力されると、回答者端末10aは、カメラ10cに対して撮影停止指示を送る。カメラ10cは撮影終了指示に従って撮影を停止する。   Upon receiving a shooting instruction from the respondent terminal 10a, the camera 10c starts capturing a face image. In the third embodiment, a moving image of the respondent's face is taken. The photographed face image data is held for each question in the storage unit 12 of the respondent terminal 10a. When an answer is input, the respondent terminal 10a sends a shooting stop instruction to the camera 10c. The camera 10c stops shooting according to the shooting end instruction.

所定の時間が経過すると、制御部11は、記憶部12に記憶されているターゲット刺激情報を取得し、表示部16に表示する。ターゲット刺激情報の表示と同時に、制御部11は反応時間の計測を開始する(ステップS802)。
設問ページ等は第1の実施の形態の設問表示画面(図3参照)と同様である。
When the predetermined time has elapsed, the control unit 11 acquires the target stimulus information stored in the storage unit 12 and displays it on the display unit 16. Simultaneously with the display of the target stimulus information, the control unit 11 starts measuring the reaction time (step S802).
The question page and the like are the same as the question display screen (see FIG. 3) of the first embodiment.

設問ページ22(23)において回答入力ボタン32,33のうちいずれかが選択されると、制御部11は選択された方の回答を回答データ42として取得する。また、制御部11は計時部18による反応時間の計測を終了し、取得した計時データを反応時間データ43として収集する。反応時間データ43は、設問ページ22の文字列41に対する回答データ42に対応付けられて、入力データとして記憶部12に記憶される。また、回答者端末10aは、カメラ10cから顔画像データを順次または一括に取得する(ステップS803)。   When any one of the answer input buttons 32 and 33 is selected on the question page 22 (23), the control unit 11 acquires the selected answer as the answer data 42. Further, the control unit 11 ends the measurement of the reaction time by the time measuring unit 18 and collects the acquired time measurement data as the reaction time data 43. The reaction time data 43 is stored in the storage unit 12 as input data in association with the answer data 42 for the character string 41 of the question page 22. In addition, the respondent terminal 10a acquires face image data from the camera 10c sequentially or collectively (step S803).

回答の入力と反応時間の計時については、第1の実施の形態と同様である。取得した反応時間データ43は、各設問ページ(文字列41)に対する回答データ42に対応付けて保持される。また、顔画像データも各設問ページ(文字列41)の回答データ42に対応付けて保持される(ステップS804)。   The input of answers and the measurement of reaction time are the same as in the first embodiment. The obtained reaction time data 43 is held in association with the answer data 42 for each question page (character string 41). The face image data is also stored in association with the answer data 42 of each question page (character string 41) (step S804).

制御部11は次の設問ページがあるか否かを判定し、次の設問ページがある場合(ステップS805;Yes)は、ステップS801へ戻り、次の設問ページ23を表示部16に表示する。次の設問ページ23に対しても同様に回答の入力、反応時間の計測、顔画像の撮影を行い、入力データ(回答データ、反応時間データ)及び顔画像データを得る。   The control unit 11 determines whether or not there is a next question page. If there is a next question page (step S805; Yes), the control unit 11 returns to step S801 and displays the next question page 23 on the display unit 16. Similarly, for the next question page 23, an answer is input, a reaction time is measured, and a face image is taken to obtain input data (answer data, reaction time data) and face image data.

以上のように、制御部11は選択肢の表示、反応時間の計時、顔画像の撮影、及び回答の入力、回答、反応時間、及び顔画像データの記憶を繰り返し行い、次に表示する設問ページがなくなると(ステップS805;No)、次に制御部11は回答集計処理を行う(ステップS806)。回答集計処理が終了すると、次に制御部11は、回答集計データ51に基づいて実験評価を行う(ステップS807)   As described above, the control unit 11 repeatedly displays options, measures reaction time, captures a face image, inputs answers, stores answers, reaction times, and face image data, and displays a question page to be displayed next. If there is no more (step S805; No), then the control unit 11 performs an answer totaling process (step S806). When the answer totaling process is completed, the control unit 11 performs an experimental evaluation based on the answer totaling data 51 (step S807).

ステップS806の回答集計処理では、制御部11は、ステップS801〜ステップS805の処理により取得した入力データ(図16の回答データ42)について回答の正否を判定し、集計する。
ステップS807の実験評価処理では、制御部11は、ステップS806で得た回答集計データ51(図6)に基づいて正解率、CR率、MISS率、FA率等の実験評価データ52を算出する。
回答集計処理及び実験評価処理は第1の実施の形態と同様の処理であるため、重複する説明を省略する。
In the answer counting process in step S806, the control unit 11 determines whether the answer is correct or not for the input data (answer data 42 in FIG. 16) acquired by the processes in steps S801 to S805.
In the experiment evaluation process of step S807, the control unit 11 calculates the experiment evaluation data 52 such as the correct answer rate, the CR rate, the MISS rate, and the FA rate based on the answer total data 51 (FIG. 6) obtained in step S806.
Since the answer counting process and the experiment evaluation process are the same processes as those in the first embodiment, a duplicate description is omitted.

制御部11は、ステップS806の結果である回答集計データ51と、ステップS807の結果である実験評価データ52を記憶部12に記憶して(ステップS808)、回答処理を終了する。   The control unit 11 stores the answer total data 51 that is the result of step S806 and the experimental evaluation data 52 that is the result of step S807 in the storage unit 12 (step S808), and ends the answer process.

語彙判断課題分析装置10は、上述の回答処理を複数の回答者に対して行う。そして複数の回答者による回答結果(入力データ)を取得し、記憶部12に蓄積して記憶する。また、複数の回答者の入力データについてそれぞれ回答集計処理及び実験評価を行って、各回答者の回答集計データ51及び実験評価データ52を記憶部12に記憶する。複数の回答者から得た入力データは、後述する分析処理(図23の分析処理)に利用される。   The vocabulary determination task analysis apparatus 10 performs the above-described answer processing on a plurality of respondents. Then, response results (input data) by a plurality of respondents are acquired, stored in the storage unit 12 and stored. In addition, the answer totaling process and the experiment evaluation are respectively performed on the input data of the plurality of respondents, and the answer totaling data 51 and the experiment evaluation data 52 of each respondent are stored in the storage unit 12. Input data obtained from a plurality of respondents is used for analysis processing (analysis processing in FIG. 23) described later.

次に、第3の実施の形態の語彙判断課題分析装置20が実行する分析処理について、図22を参照して説明する。
語彙判断課題分析装置20の制御部11は、図23に示す分析処理プログラムを記憶部12から読み込み、以下の手順に従って処理を実行する。
Next, analysis processing executed by the vocabulary determination task analysis apparatus 20 according to the third embodiment will be described with reference to FIG.
The control unit 11 of the vocabulary determination task analysis apparatus 20 reads the analysis processing program shown in FIG. 23 from the storage unit 12 and executes processing according to the following procedure.

分析処理において制御部11は、記憶部12から複数の回答者による入力データ4(回答データ42、反応時間データ43、及び顔画像データ)を取得する(ステップS901)。このとき、ステップS807において行った実験評価に基づき、実験評価結果の良い回答者の入力データを取得するようにしてもよい。制御部11は、取得した入力データに基づいて各文字列に対する回答の反応時間を集計する(ステップS902)。反応時間の集計は第1の実施の形態と同様に行えばよい。   In the analysis process, the control unit 11 acquires input data 4 (answer data 42, reaction time data 43, and face image data) from a plurality of respondents from the storage unit 12 (step S901). At this time, input data of respondents with good experimental evaluation results may be acquired based on the experimental evaluation performed in step S807. Based on the acquired input data, the control unit 11 adds up the response time of responses to each character string (step S902). The totaling of reaction times may be performed in the same manner as in the first embodiment.

次に、制御部11は、取得した入力データの顔画像データに基づいて感情に関する分析指標を算出する。分析指標は文字列毎に算出される(ステップS903)。   Next, the control part 11 calculates the analysis parameter | index regarding emotion based on the face image data of the acquired input data. An analysis index is calculated for each character string (step S903).

顔画像から推定される感情に関する分析指標とは、例えば、基本感情(恐れ、怒り、悲しみ、嫌悪、喜び、驚き等)やその他の感情の割合を数値化したものである。   The analysis index related to the emotion estimated from the face image is, for example, a numerical value of the ratio of basic emotions (fear, anger, sadness, disgust, joy, surprise, etc.) and other emotions.

なお、感情の分析指標は、上述の基本感情やその他の感情をすべて数値化してもよいし、調査の趣旨に沿って必要なものだけを選択的に算出するようにしてもよい。いずれの分析指標を算出するか選択するために選択画面等を提示し、操作者に選択させるようにしてもよい。   As the emotion analysis index, all of the above-mentioned basic emotions and other emotions may be digitized, or only necessary ones may be selectively calculated according to the purpose of the survey. In order to select which analysis index to calculate, a selection screen or the like may be presented so that the operator can select it.

ステップS902〜ステップS903の処理により、反応時間の集計、及び感情に関する分析指標を算出すると、次に制御部11は、分析チャート80を作成する(ステップS904)。   After calculating the reaction time tabulation and the emotional analysis index by the processing of step S902 to step S903, the control unit 11 next creates the analysis chart 80 (step S904).

分析チャート80を作成する際、制御部11は、ステップS903で算出した感情に関する分析指標に基づいて、各ターゲット刺激情報を示すオブジェクト(図20の801a,801b,801c,801d)の表示形態(サイズや色等)を変更する。例えば、図20に示す分析チャート80では、ターゲット刺激情報を示す各オブジェクト801a〜801dが楕円で示される。制御部は、各文字列(ターゲット刺激情報)を回答中の顔画像データに基づいて推測された感情に関する分析指標の値に応じて、楕円のサイズをそれぞれ変更する。プライム刺激情報を示すオブジェクト800と、各ターゲット刺激情報を示すオブジェクト801a〜801dとを結ぶ矢印が反応時間を示すオブジェクト803a,803b,803c,803dである。矢印の長さが反応時間の長さに相当する。   When creating the analysis chart 80, the control unit 11 displays the display form (size) of the objects (801a, 801b, 801c, and 801d in FIG. 20) indicating each target stimulus information based on the emotion analysis index calculated in step S903. And color). For example, in the analysis chart 80 shown in FIG. 20, each object 801a-801d which shows target stimulus information is shown with an ellipse. The control unit changes the size of the ellipse according to the value of the analysis index related to the emotion estimated based on the face image data in which each character string (target stimulus information) is being answered. The arrows connecting the object 800 indicating prime stimulus information and the objects 801a to 801d indicating target stimulus information are objects 803a, 803b, 803c, and 803d indicating reaction times. The length of the arrow corresponds to the length of the reaction time.

分析チャートの作成の処理手順は、図19のフローチャートに示す手順と同様である。   The processing procedure for creating the analysis chart is the same as the procedure shown in the flowchart of FIG.

分析チャート80を作成すると、制御部11は、作成した分析チャート80を出力する(図23のステップS905)。   When the analysis chart 80 is created, the control unit 11 outputs the created analysis chart 80 (step S905 in FIG. 23).

以上説明したように、本発明の第3の実施の形態の語彙判断課題分析装置20は、プライム刺激情報を提示した後に単語または非単語をターゲット刺激情報として提示し、ターゲット刺激情報が語彙として意味をなすか否かを判断する語彙判断課題を設問として順次表示する。そして、設問に対し、回答を入力するまでの反応時間を計測する。また、設問を回答中の回答者の顔画像を撮影する。制御部11は、複数の回答者から得られた回答、反応時間を集計する。また顔画像に基づいて回答者の感情に関する分析指標を求める。更に、分析結果として、プライム刺激情報、ターゲット刺激情報、反応時間、及び感情に関する分析指標を図案で示した分析チャートを作成して出力する。感情を表す分析指標は、分析チャートの例えばターゲット刺激情報の表示形態を変更することにより表現される。   As described above, the vocabulary determination task analysis apparatus 20 according to the third exemplary embodiment of the present invention presents a word or non-word as target stimulus information after presenting prime stimulus information, and the target stimulus information has a meaning as a vocabulary. Vocabulary judgment tasks for judging whether or not to make a question are sequentially displayed as questions. And the reaction time until an answer is input with respect to a question is measured. Also, a face image of the respondent who is answering the question is taken. The control unit 11 aggregates answers and reaction times obtained from a plurality of respondents. Also, an analysis index regarding the respondent's emotion is obtained based on the face image. Furthermore, as an analysis result, an analysis chart is created and output with an analysis index relating to prime stimulus information, target stimulus information, reaction time, and emotion. The analysis index representing emotion is expressed by changing the display form of, for example, target stimulus information on the analysis chart.

したがって、語彙判断課題の結果を分析チャートの形式で見やすく提示することが可能となる。特に、回答中の回答者の顔画像を撮影してその分析結果を分析チャート内に示すため、回答中の回答者の心理状態等を把握しやすくなる。   Therefore, the result of the vocabulary determination task can be presented in an easy-to-read form in the form of an analysis chart. In particular, since the face image of the respondent who is answering is taken and the analysis result is shown in the analysis chart, it becomes easy to grasp the psychological state of the answerer who is answering.

[第4の実施の形態]
次に、図24〜図25を参照して本発明の第4の実施の形態に係るアンケート分析システム100について説明する。
[Fourth Embodiment]
Next, a questionnaire analysis system 100 according to a fourth embodiment of the present invention will be described with reference to FIGS.

第1〜第3の実施の形態では、語彙判断課題分析装置1(10、20)はスタンドアロン型とし、設問の表示、回答入力、集計、反応時間等の計測、生理指標の計測、顔画像の撮影、分析、及び結果出力等の処理をローカルに行うものであった。しかし、図24に示すように、webを利用し、ネットワーク103に接続された複数のクライアント端末101側で設問の表示、回答入力、反応時間の計測等の処理を行い、ネットワーク103を介して接続されたサーバ102で、各クライアント端末101における入力データ(回答、反応時間や生理指標データ、快画像データ)を収集して蓄積し、集計、分析、及び結果出力等の処理を行うものとしてもよい。   In the first to third embodiments, the vocabulary determination task analysis device 1 (10, 20) is a stand-alone type, displays questions, inputs answers, counts, measures reaction time, etc., measures physiological indices, and measures facial images. Processing such as photographing, analysis, and result output was performed locally. However, as shown in FIG. 24, using web, a plurality of client terminals 101 connected to the network 103 perform processing such as displaying questions, inputting answers, and measuring reaction time, and connecting via the network 103. The input data (answer, response time, physiological index data, pleasant image data) in each client terminal 101 may be collected and accumulated in the server 102, and processing such as aggregation, analysis, and result output may be performed. .

図24は、第4の実施の形態に係る語彙判断課題分析システム100の全体構成図であり、図25は、語彙判断課題分析システム100においてサーバ102及クライアント端末101が実行する処理の手順を示すシーケンス図である。   FIG. 24 is an overall configuration diagram of the vocabulary determination task analysis system 100 according to the fourth embodiment, and FIG. 25 illustrates a procedure of processing executed by the server 102 and the client terminal 101 in the vocabulary determination task analysis system 100. It is a sequence diagram.

図24に示すように、第4の実施の形態の語彙判断課題分析システム100は、1つまたは複数のクライアント端末101がネットワーク103を介してサーバ102と通信接続される。クライアント端末101には、第2、第3の実施の形態で説明したように、生理指標計測装置10bやカメラ10c(不図示)等が接続されていてもよい。   As shown in FIG. 24, in the vocabulary determination task analysis system 100 according to the fourth embodiment, one or a plurality of client terminals 101 are connected to a server 102 via a network 103. As described in the second and third embodiments, the physiological index measuring device 10b, the camera 10c (not shown), and the like may be connected to the client terminal 101.

クライアント端末101は、第1〜第3の実施の形態の語彙判断課題分析装置1(10、20)における設問の表示、回答の入力、反応時間の計測、生理指標データの計測、及び顔画像の撮影に関する機能を担うコンピュータである。また、サーバ102に対して設問ページの取得を要求してサーバ102から送信される設問ページを受信したり、設問に対する回答や計測データ(反応時間、生理指標データ、顔画像データ等)を送信したりする通信機能を有する。   The client terminal 101 displays questions, inputs answers, measures reaction time, measures physiological data, and measures facial images in the vocabulary determination task analysis apparatuses 1 (10, 20) of the first to third embodiments. It is a computer responsible for shooting-related functions Further, the server 102 requests the server 102 to obtain a question page, receives the question page transmitted from the server 102, and transmits the answer to the question and measurement data (reaction time, physiological index data, face image data, etc.). Communication function.

サーバ102は、第1〜第3の実施の形態の語彙判断課題分析装置1,10,0,20(回答者端末10a)における入力データの記憶、回答の集計、反応時間や視線に関する分析指標の分析、分析チャート作成、結果出力等に関する機能を担うコンピュータである。また、サーバ102は、クライアント端末101からの要求に応じて設問ページを送信したり、設問に対する回答や計測データ(反応時間、生理指標データ、顔画像データ等)を受信したりする通信機能を有する。   The server 102 stores input data in the vocabulary determination task analysis apparatuses 1, 10, 0, and 20 (respondent terminal 10a) of the first to third embodiments, totals answers, analysis indices relating to reaction time and line of sight. It is a computer responsible for functions related to analysis, analysis chart creation, and result output. Further, the server 102 has a communication function for transmitting a question page in response to a request from the client terminal 101 and receiving an answer to the question and measurement data (such as reaction time, physiological index data, and face image data). .

クライアント端末101及びサーバ102の内部構成は第1の実施の形態の語彙判断課題分析装置1と同様であるため、重複する説明を省略する。   Since the internal configurations of the client terminal 101 and the server 102 are the same as those of the vocabulary determination task analysis apparatus 1 according to the first embodiment, redundant description is omitted.

図25を参照して、第3の実施の形態に係るアンケート分析システム100の動作を説明する。
なお、アンケート分析システム100において実行される処理のうち、入力データに基づく分析処理(回答の集計、計測データの分析(分析指標の算出)、分析チャート作成、結果出力)は、第1〜第3の実施の形態において語彙判断課題分析装置1,10,20(回答者端末1a)が行う分析処理(図8、図17、図23)と同様である。
以下、第1〜第3の実施の形態と異なる処理として、クライアント端末101とサーバ102との間で行われる設問ページの送受信や、回答や計測データ等の結果送信に関する処理について説明する。
The operation of the questionnaire analysis system 100 according to the third embodiment will be described with reference to FIG.
Of the processes executed in the questionnaire analysis system 100, analysis processes based on input data (counting of answers, analysis of measurement data (calculation of analysis index), creation of analysis chart, output of results) are the first to third. This is the same as the analysis processing (FIGS. 8, 17, and 23) performed by the vocabulary determination task analysis devices 1, 10, 20 (respondent terminal 1a) in the embodiment.
Hereinafter, as processing different from the first to third embodiments, processing related to transmission / reception of question pages and transmission of results such as answers and measurement data performed between the client terminal 101 and the server 102 will be described.

図25に示すように、まずクライアント端末101においてアンケートを開始する指示が入力されると(設問開始要求;ステップS1001)、クライアント端末101の制御部はサーバ102に対して設問ページの取得要求を送信する(HTML要求;ステップS1002)。設問ページは、例えばHTML(HyperText Markup Language)等の文書データであり、サーバ102の記憶部に格納されている。サーバ102の制御部は、要求に応じてサーバ102の記憶部から設問ページを取得し、要求元のクライアント端末101に送信する(HTML応答;ステップS1003)。   As shown in FIG. 25, when an instruction to start a questionnaire is input at the client terminal 101 (question start request; step S1001), the control unit of the client terminal 101 transmits a request for acquiring a question page to the server 102. (HTML request; step S1002). The question page is, for example, document data such as HTML (HyperText Markup Language), and is stored in the storage unit of the server 102. The control unit of the server 102 acquires the question page from the storage unit of the server 102 in response to the request, and transmits it to the requesting client terminal 101 (HTML response; step S1003).

クライアント端末101の制御部は、受信した設問ページに記述されている画像データの取得要求をサーバ102に送信する(画像データ要求;ステップS1004)。画像データには、プライム刺激情報等の画像が含まれる。画像データはサーバ102の記憶部に格納されている。サーバ102の制御部は、要求に応じてサーバ102の記憶部から画像データを取得し、要求元のクライアント端末101に送信する(画像データ応答;ステップS1005)。
なお、設問が複数ページにわたる場合は、設問ページ及び画像データを一括してサーバ102からクライアント端末101へ送信するものとする。
The control unit of the client terminal 101 transmits an image data acquisition request described in the received question page to the server 102 (image data request; step S1004). The image data includes images such as prime stimulus information. Image data is stored in the storage unit of the server 102. The control unit of the server 102 acquires image data from the storage unit of the server 102 in response to the request, and transmits the image data to the requesting client terminal 101 (image data response; step S1005).
When the question includes a plurality of pages, the question page and the image data are collectively transmitted from the server 102 to the client terminal 101.

クライアント端末101は、受信した設問ページ及び画像を表示部に表示する。またクライアント端末101は反応時間の計測を開始する。また、必要に応じて生理指標計測装置10bによる生理指標の計測やカメラ10cによる顔画像の撮影を開始する(ステップS1006)。
設問ページに対する回答の入力の仕方、反応時間の計測、生理指標の計測、顔画像の撮影については、第1〜第3の実施の形態と同様である。
The client terminal 101 displays the received question page and image on the display unit. Further, the client terminal 101 starts measuring the reaction time. Further, measurement of a physiological index by the physiological index measuring device 10b and photographing of a face image by the camera 10c are started as necessary (step S1006).
The method of inputting the answer to the question page, the measurement of the reaction time, the measurement of the physiological index, and the photographing of the face image are the same as in the first to third embodiments.

クライアント端末101は、受信したすべての設問ページについて回答の入力(反応時間、生理指標の計測、顔画像の撮影)が完了すると(ステップS1007)、計測結果をサーバ102に送信する(ステップS1008)。計測結果としてサーバ102に送信するデータは、図4に示す入力データ4(回答データ42と反応時間データ43とが対応付けられたデータ)や図16に示す生理指標データ44、顔画像データ(不図示)等である。   When the client terminal 101 completes input of responses (reaction time, measurement of physiological index, photographing of face image) for all received question pages (step S1007), the client terminal 101 transmits the measurement result to the server 102 (step S1008). The data to be transmitted to the server 102 as the measurement result includes the input data 4 (data in which the response data 42 and the reaction time data 43 are associated) shown in FIG. 4, the physiological index data 44 shown in FIG. Etc.).

クライアント端末101から回答データ42、反応時間データ43、及び生理指標データ44、顔画像データを受信すると(ステップS1009)、受信した計測結果をサーバ102の所定の記憶領域に保存する(ステップS1010)。例えば、サーバ102は結果受信CGI(Common Gateway Interface)を起動し、受信した計測結果をサーバ102の所定の記憶領域に保存する。なお、ステップS1009、S1010におけるサーバ102側での結果受信及び保存の動作は、上述したようなCGIを利用するものに限定するものではない。サーバ102側でデータを受け取って保存できるものであれば、どのような仕組みを利用してもよい。サーバ102は結果の保存が成功したか失敗したか等を示す応答をクライアント端末101に送信する(ステップS1011)。   When the response data 42, reaction time data 43, physiological index data 44, and face image data are received from the client terminal 101 (step S1009), the received measurement results are stored in a predetermined storage area of the server 102 (step S1010). For example, the server 102 activates a result reception CGI (Common Gateway Interface) and stores the received measurement result in a predetermined storage area of the server 102. Note that the result reception and storage operations on the server 102 side in steps S1009 and S1010 are not limited to those using CGI as described above. Any mechanism that can receive and store data on the server 102 side may be used. The server 102 transmits a response indicating whether the result storage has succeeded or failed to the client terminal 101 (step S1011).

サーバ102と各クライアント端末101との間で以上の処理が繰り返され、サーバ102の記憶部に複数の回答者による回答データ42、反応時間データ43、生理指標データ44、顔画像データが蓄積される。   The above processing is repeated between the server 102 and each client terminal 101, and answer data 42, reaction time data 43, physiological index data 44, and face image data by a plurality of respondents are accumulated in the storage unit of the server 102. .

分析処理では、サーバ102は、記憶部に蓄積された複数の回答者による回答データ42、反応時間データ43、生理指標データ44、顔画像データに基づいて、回答の集計、反応時間に関する分析指標の算出、生理指標または感情に関する分析指標の算出を行う。また、サーバ102の制御部は分析結果として分析チャートを出力する。例えば図11,図12,図13、図20等に示す分析チャートを生成し、記憶部に保存するとともに表示部に表示する。   In the analysis process, the server 102 compiles the answers based on the answer data 42, the reaction time data 43, the physiological index data 44, and the face image data by a plurality of respondents stored in the storage unit, and analyzes the analysis indices related to the reaction time. Calculation, calculation of physiological index or analysis index related to emotion is performed. The control unit of the server 102 outputs an analysis chart as an analysis result. For example, the analysis charts shown in FIGS. 11, 12, 13, and 20 are generated, stored in the storage unit, and displayed on the display unit.

以上説明したように、第4の実施の形態に示すアンケート分析システム100では、webを利用して多数のクライアント端末101から回答データや計測データを取得し、取得したデータに基づいて分析処理を実行する。このため、第1〜第3の実施の形態の効果に加え、より多くの回答者から広範に回答等を得ることが可能となり、アンケート結果の信頼性をより高めることが可能となる。   As described above, in the questionnaire analysis system 100 shown in the fourth embodiment, response data and measurement data are acquired from a large number of client terminals 101 using web, and analysis processing is executed based on the acquired data. To do. For this reason, in addition to the effects of the first to third embodiments, it is possible to obtain a wide range of answers from more respondents, and it is possible to further improve the reliability of the questionnaire results.

以上、添付図面を参照して、本発明の好適な実施形態について説明したが、本発明は係る例に限定されない。例えば、図示した分析チャートの描画例やオブジェクトは一例であり、本発明の趣旨を逸脱しない範囲で、図形の形状を変更したり配置を変更してもよい。また、1つの分析チャート内に示すターゲット刺激の数は4つに限定されない。その他、当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. For example, the illustrated analysis chart drawing examples and objects are merely examples, and the shape of the figure may be changed or the arrangement may be changed without departing from the spirit of the present invention. Further, the number of target stimuli shown in one analysis chart is not limited to four. In addition, it is obvious that those skilled in the art can come up with various changes and modifications within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. It is understood.

1、10、20・・・・・・・・語彙判断課題分析装置
10a・・・・・・・・・・・・回答者端末
10b・・・・・・・・・・・・生理指標計測装置
10c・・・・・・・・・・・・カメラ
21・・・・・・・・・・・・・プライム刺激情報表示画面
22,23・・・・・・・・・・ターゲット刺激情報表示画面
30・・・・・・・・・・・・・プライム刺激情報
31a・・・・・・・・・・・・単語文字列(ターゲット刺激情報)
3b・・・・・・・・・・・・・非単語文字列(ターゲット刺激情報)
4,4a・・・・・・・・・・・入力データ
41・・・・・・・・・・・・・文字列データ
42・・・・・・・・・・・・・回答データ
43・・・・・・・・・・・・・反応時間データ
44・・・・・・・・・・・・・生理指標データ
51・・・・・・・・・・・・・回答集計データ
52・・・・・・・・・・・・・実験評価データ
6・・・・・・・・・・・・・・分析結果データ
70,71,72・・・・・・・分析チャート
700,710,720・・・・プライム刺激情報を示すオブジェクト
701a〜701d・・・・・・ターゲット刺激情報を示すオブジェクト
703a〜703d・・・・・・反応時間を示すオブジェクト
80・・・・・・・・・・・・・分析チャート
800・・・・・・・・・・・・プライム刺激情報を示すオブジェクト
801a〜801d・・・・・・ターゲット刺激情報を示すオブジェクト
803a〜803d・・・・・・反応時間を示すオブジェクト
100・・・・・・・・・・・・語彙判断課題分析システム
101・・・・・・・・・・・・クライアント端末
102・・・・・・・・・・・・サーバ
103・・・・・・・・・・・・ネットワーク
1, 10, 20 ... Vocabulary determination task analysis device 10a ... Replyer terminal 10b ... Physiological index measurement Device 10c ···························· 21 Display screen 30 ... Prime stimulus information 31a ... Word string (target stimulus information)
3b ... Non-word character string (target stimulus information)
4, 4a ... Input data 41 ... Character string data 42 ... Reply data 43 ·························· Reaction time data 44 ············· physiological index data 51 ················ 52... Experimental evaluation data 6... Analysis result data 70, 71, 72. , 710, 720... Objects 701a to 701d indicating prime stimulus information... Objects 703a to 703d indicating target stimulus information. ······· analysis chart 800 ··············· 801a to 801d... Object 803a to 803d indicating target stimulus information... Object 100 indicating reaction time...・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ Client terminal 102 ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ Server 103 ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ Network

Claims (11)

プライム刺激情報を提示した後に単語文字列または非単語文字列をターゲット刺激情報として提示し、前記ターゲット刺激情報が意味をなす語であるか否かを判断する語彙判断課題を設問として順次表示する表示手段と、
前記設問に対する回答を入力する入力手段と、
前記ターゲット刺激情報を表示した時点から回答を入力する時点までの反応時間を計測する反応時間計測手段と、
各ターゲット刺激情報に対する回答及び反応時間を対応付けて記憶する記憶手段と、
前記記憶手段に記憶されている複数の回答者から得られた回答及び反応時間を分析する分析手段と、
前記分析手段による分析結果として、前記プライム刺激情報及び前記ターゲット刺激情報を含み、前記ターゲット刺激情報に対する回答の反応時間を図案を用いて示した分析チャートを作成する分析チャート作成手段と、
前記分析チャートを出力する出力手段と、
を備えることを特徴とする語彙判断課題分析装置。
A display that displays word strings or non-word strings as target stimulus information after presenting prime stimulus information, and sequentially displays vocabulary judgment tasks for determining whether the target stimulus information is a meaningful word as questions. Means,
An input means for inputting an answer to the question;
A reaction time measuring means for measuring a reaction time from a time when the target stimulus information is displayed to a time when an answer is input;
Storage means for associating and storing responses and reaction times for each target stimulus information;
Analyzing means for analyzing responses and reaction times obtained from a plurality of respondents stored in the storage means;
As an analysis result by the analysis means, an analysis chart creation means for creating an analysis chart that includes the prime stimulus information and the target stimulus information and that shows a response time of a response to the target stimulus information using a design;
Output means for outputting the analysis chart;
A vocabulary determination task analysis device characterized by comprising:
前記設問に対する回答中に回答者の生理指標データを計測する生理指標計測手段と、
前記生理指標計測手段により計測された生理指標データに基づいて生理指標または感情に関する所定の分析指標を算出する生理指標分析手段と、を更に備え、
前記分析チャート作成手段は、前記分析チャート内に更に前記生理指標または感情に関する分析指標を図案を用いて示すことを特徴とする請求項1に記載の語彙判断課題分析装置。
Physiological index measuring means for measuring the physiological index data of the respondent during the answer to the question;
Physiological index analysis means for calculating a predetermined analysis index related to a physiological index or emotion based on physiological index data measured by the physiological index measurement means,
The vocabulary determination task analysis apparatus according to claim 1, wherein the analysis chart creating means further shows an analysis index related to the physiological index or emotion using a design in the analysis chart.
前記設問に対する回答中に回答者の顔を撮像する撮像手段と、
前記撮像手段により撮像された顔画像データに基づいて感情に関する所定の分析指標を算出する感情分析手段と、を更に備え、
前記分析チャート作成手段は、前記分析チャート内に更に前記感情に関する分析指標を図案を用いて示すことを特徴とする請求項1に記載の語彙判断課題分析装置。
Imaging means for imaging the face of the respondent during the answer to the question;
Emotion analysis means for calculating a predetermined analysis index related to emotion based on the face image data imaged by the imaging means,
The vocabulary determination task analysis apparatus according to claim 1, wherein the analysis chart creating means further indicates an analysis index related to the emotion using a design in the analysis chart.
前記分析チャート作成手段は、
前記プライム刺激情報を示すオブジェクトを中心に配置し、
前記ターゲット刺激情報を示すオブジェクトを前記プライム刺激情報を示すオブジェクトの周囲に配置し、
前記プライム刺激情報を示すオブジェクトと前記ターゲット刺激情報を示す各オブジェクトとを結ぶオブジェクトを前記反応時間に応じたサイズで配置することを特徴とする請求項1に記載の語彙判断課題分析装置。
The analysis chart creating means includes
Centering on the object indicating the prime stimulus information,
An object indicating the target stimulus information is arranged around an object indicating the prime stimulus information,
The vocabulary determination task analysis device according to claim 1, wherein an object connecting the object indicating the prime stimulus information and each object indicating the target stimulus information is arranged with a size corresponding to the reaction time.
前記分析チャート作成手段は、
前記プライム刺激情報を示すオブジェクトを中心に配置し、
前記ターゲット刺激情報を示すオブジェクトを前記プライム刺激情報を示すオブジェクトの周囲に配置し、
前記ターゲット刺激情報を示す各オブジェクトのサイズを前記反応時間に応じたサイズとすることを特徴とする請求項1に記載の語彙判断課題分析装置。
The analysis chart creating means includes
Centering on the object indicating the prime stimulus information,
An object indicating the target stimulus information is arranged around an object indicating the prime stimulus information,
The vocabulary determination task analysis apparatus according to claim 1, wherein a size of each object indicating the target stimulus information is set to a size corresponding to the reaction time.
前記分析チャート作成手段は、
前記プライム刺激情報を示すオブジェクトを中心に配置し、
前記ターゲット刺激情報を示すオブジェクトを前記プライム刺激情報を示すオブジェクトの周囲に配置し、
前記ターゲット刺激情報を示す各オブジェクトの色を前記反応時間に応じた色で描画することを特徴とする請求項1に記載の語彙判断課題分析装置。
The analysis chart creating means includes
Centering on the object indicating the prime stimulus information,
An object indicating the target stimulus information is arranged around an object indicating the prime stimulus information,
The lexical judgment task analysis apparatus according to claim 1, wherein a color of each object indicating the target stimulus information is drawn in a color corresponding to the reaction time.
前記分析チャート作成手段は、
前記プライム刺激情報を示すオブジェクトを中心に配置し、
前記ターゲット刺激情報を示す複数のオブジェクトを前記プライム刺激情報を示すオブジェクトの周囲に配置し、
前記プライム刺激情報を示すオブジェクトと前記ターゲット刺激情報を示す各オブジェクトとを結ぶオブジェクトを前記反応時間に応じたサイズで配置し、
前記ターゲット刺激情報を示す各オブジェクトの表示形態を前記生理指標または感情に関する分析指標に応じた表示形態とすることを特徴とする請求項2または請求項3に記載の語彙判断課題分析装置。
The analysis chart creating means includes
Centering on the object indicating the prime stimulus information,
A plurality of objects indicating the target stimulus information are arranged around an object indicating the prime stimulus information,
An object connecting the object indicating the prime stimulus information and each object indicating the target stimulus information is arranged in a size according to the reaction time,
The lexical judgment task analysis apparatus according to claim 2 or 3, wherein a display form of each object indicating the target stimulus information is a display form corresponding to the physiological index or an analysis index related to emotion.
各回答者から得られた回答の正否率に基づいて回答者毎に実験の信頼性を評価する実験評価手段を更に備えることを特徴とする請求項1に記載の語彙判断課題分析装置。   2. The vocabulary determination task analysis apparatus according to claim 1, further comprising an experiment evaluation unit that evaluates the reliability of the experiment for each respondent based on the correctness rate of answers obtained from each respondent. サーバとクライアント端末とがネットワークを介して通信接続された語彙判断課題分析システムであって、
前記サーバは、
前記クライアント端末からの要求に応じて、プライム刺激情報を提示した後に単語文字列または非単語文字列をターゲット刺激情報として提示し、前記ターゲット刺激情報が意味をなす語であるか否かを判断する語彙判断課題の設問ページを送信し、前記クライアント端末から設問に対する回答と、前記設問ページを表示した時点から前記回答を入力する時点までの反応時間とを受信する通信手段と、
前記通信手段により受信した各ターゲット刺激情報に対する回答及び反応時間を対応付けて記憶する記憶手段と、
前記記憶手段に記憶されている複数の回答者から得られた回答及び反応時間を分析する分析手段と、
前記分析手段による分析結果として、前記プライム刺激情報及び前記ターゲット刺激情報を含み、前記ターゲット刺激情報に対する回答の反応時間を図案を用いて示した分析チャートを作成する分析チャート作成手段と、
前記分析チャートを出力する出力手段と、を備え、
前記クライアント端末は、
前記サーバに対して、前記設問ページの取得を要求するとともに、前記サーバから送信された設問ページを受信して表示する設問ページ表示手段と、
前記設問ページに対して回答を入力する入力手段と、
前記ターゲット刺激情報を含む設問ページを表示した時点から前記回答が入力される時点までの反応時間を計測する反応時間計測手段と、
前記回答及び前記回答の反応時間を前記サーバに送信する結果送信手段と、を備えることを特徴とする語彙判断課題分析システム。
A vocabulary determination task analysis system in which a server and a client terminal are connected via a network,
The server
In response to a request from the client terminal, after presenting prime stimulus information, a word character string or a non-word character string is presented as target stimulus information to determine whether the target stimulus information is a meaningful word. A communication means for transmitting a question page of a vocabulary determination task and receiving an answer to the question from the client terminal and a reaction time from the time when the question page is displayed to the time when the answer is input;
Storage means for storing the response and response time for each target stimulus information received by the communication means in association with each other;
Analyzing means for analyzing responses and reaction times obtained from a plurality of respondents stored in the storage means;
As an analysis result by the analysis means, an analysis chart creation means for creating an analysis chart that includes the prime stimulus information and the target stimulus information and that shows a response time of a response to the target stimulus information using a design;
Output means for outputting the analysis chart,
The client terminal is
A request page display means for requesting the server to obtain the question page and receiving and displaying the question page transmitted from the server;
Input means for inputting an answer to the question page;
Reaction time measuring means for measuring the reaction time from the time when the question page including the target stimulus information is displayed to the time when the answer is input;
A lexical judgment problem analysis system comprising: a result transmission unit configured to transmit the answer and a response time of the answer to the server.
コンピュータを用いて行う語彙判断課題分析方法であって、
プライム刺激情報を提示した後に単語文字列または非単語文字列をターゲット刺激情報として提示し、前記ターゲット刺激情報が意味をなす語であるか否かを判断する語彙判断課題を設問として順次表示するステップと、
前記設問に対する回答を入力するステップと、
前記ターゲット刺激情報を表示した時点から前記回答を入力する時点までの反応時間を計測するステップと、
各ターゲット刺激情報に対する回答及び反応時間を対応付けて記憶部に記憶するステップと、
前記記憶部に記憶されている複数の回答者から得られた回答及び反応時間を分析するステップと、
分析結果として、前記プライム刺激情報及び前記ターゲット刺激情報を含み、前記ターゲット刺激情報に対する回答の反応時間を図案を用いて示した分析チャートを作成するステップと、
前記分析チャートを出力するステップと、
を含むことを特徴とする語彙判断課題分析方法。
A vocabulary determination task analysis method performed using a computer,
Steps of presenting word stimulus strings or non-word character strings as target stimulus information after presenting prime stimulus information and sequentially displaying vocabulary judgment tasks for determining whether the target stimulus information is a meaningful word as questions When,
Inputting an answer to the question;
Measuring a reaction time from the time when the target stimulus information is displayed to the time when the answer is input;
Storing the response and response time for each target stimulus information in the storage unit in association with each other;
Analyzing answers and reaction times obtained from a plurality of respondents stored in the storage unit;
Creating an analysis chart including the prime stimulus information and the target stimulus information as an analysis result, and showing a response time of a response to the target stimulus information using a design;
Outputting the analysis chart;
A lexical judgment task analysis method characterized by including:
コンピュータを、
プライム刺激情報を提示した後に単語文字列または非単語文字列をターゲット刺激情報として提示し、前記ターゲット刺激情報が意味をなす語であるか否かを判断する語彙判断課題を設問として順次表示する表示手段、
前記設問に対する回答を入力する入力手段、
前記ターゲット刺激情報を表示した時点から回答を入力する時点までの反応時間を計測する反応時間計測手段、
各ターゲット刺激情報に対する回答及び反応時間を対応付けて記憶する記憶手段、
前記記憶手段に記憶されている複数の回答者から得られた回答及び反応時間を分析する分析手段、
前記分析手段による分析結果として、前記プライム刺激情報及び前記ターゲット刺激情報を含み、前記ターゲット刺激情報に対する回答の反応時間を図案を用いて示した分析チャートを作成する分析チャート作成手段、
前記分析チャートを出力する出力手段、
として機能させるためのプログラム。
Computer
A display that displays word strings or non-word strings as target stimulus information after presenting prime stimulus information, and sequentially displays vocabulary judgment tasks for determining whether the target stimulus information is a meaningful word as questions. means,
An input means for inputting an answer to the question;
Reaction time measuring means for measuring the reaction time from the time when the target stimulus information is displayed to the time when the answer is input,
Storage means for storing the response and response time for each target stimulus information in association with each other;
Analyzing means for analyzing answers and reaction times obtained from a plurality of respondents stored in the storage means;
As an analysis result by the analysis means, an analysis chart creation means for creating an analysis chart that includes the prime stimulus information and the target stimulus information and that shows a response time of a response to the target stimulus information using a design;
Output means for outputting the analysis chart;
Program to function as.
JP2013066222A 2013-03-27 2013-03-27 Vocabulary determination task analysis device, vocabulary determination task analysis system, vocabulary determination task analysis method, and program Expired - Fee Related JP6089861B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013066222A JP6089861B2 (en) 2013-03-27 2013-03-27 Vocabulary determination task analysis device, vocabulary determination task analysis system, vocabulary determination task analysis method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013066222A JP6089861B2 (en) 2013-03-27 2013-03-27 Vocabulary determination task analysis device, vocabulary determination task analysis system, vocabulary determination task analysis method, and program

Publications (2)

Publication Number Publication Date
JP2014188168A JP2014188168A (en) 2014-10-06
JP6089861B2 true JP6089861B2 (en) 2017-03-08

Family

ID=51835120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013066222A Expired - Fee Related JP6089861B2 (en) 2013-03-27 2013-03-27 Vocabulary determination task analysis device, vocabulary determination task analysis system, vocabulary determination task analysis method, and program

Country Status (1)

Country Link
JP (1) JP6089861B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3363348A4 (en) * 2015-10-15 2019-05-15 Daikin Industries, Ltd. PHYSIOLOGICAL STATE DETERMINATION DEVICE AND PHYSIOLOGICAL STATE DETERMINING METHOD
JP6880721B2 (en) * 2015-12-28 2021-06-02 ニプロ株式会社 Stress determination device, program and method
JP7420369B2 (en) * 2019-10-21 2024-01-23 学校法人立命館 Quantification method, calculation device, and computer program
CN112908362B (en) * 2021-01-15 2023-10-31 南京中兴力维软件有限公司 System based on acquisition robot terminal, method and medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005000191A (en) * 2003-06-09 2005-01-06 Matsushita Electric Ind Co Ltd Reaction inspecting instrument and program
JP2006158421A (en) * 2004-12-02 2006-06-22 Hq Research Japan:Kk Cerebral function measuring system and method, and computer program
JP5046286B2 (en) * 2007-09-10 2012-10-10 公立大学法人首都大学東京 Stress evaluation apparatus, stress evaluation system, and stress evaluation program
WO2011158939A1 (en) * 2010-06-18 2011-12-22 株式会社日立製作所 Fatigue evaluation system

Also Published As

Publication number Publication date
JP2014188168A (en) 2014-10-06

Similar Documents

Publication Publication Date Title
Bota et al. A review, current challenges, and future possibilities on emotion recognition using machine learning and physiological signals
Sarabadani et al. Physiological detection of affective states in children with autism spectrum disorder
Schulte-Mecklenbeck et al. A handbook of process tracing methods for decision research: A critical review and user’s guide
CN106691476B (en) Image Cognitive Psychoanalysis System Based on Eye Movement Features
US20080255949A1 (en) Method and System for Measuring Non-Verbal and Pre-Conscious Responses to External Stimuli
Ekman et al. Assessment of facial behavior in affective disorders
US20190313966A1 (en) Pain level determination method, apparatus, and system
Abadi et al. Inference of personality traits and affect schedule by analysis of spontaneous reactions to affective videos
JP2014081913A (en) Questionnaire analysis device, questionnaire analysis system, questionnaire analysis method and program
CN103251417B (en) Method for representing and identifying entrepreneurial potential electroencephalogram signals
CN113974589B (en) Multimodal behavioral paradigm evaluation optimization system and cognitive ability evaluation method
Arapakis et al. Interest as a proxy of engagement in news reading: Spectral and entropy analyses of EEG activity patterns
Chen et al. Towards a physiological model of user interruptability
JP6089861B2 (en) Vocabulary determination task analysis device, vocabulary determination task analysis system, vocabulary determination task analysis method, and program
Tamulis et al. Affective computing for ehealth using low-cost remote internet of things-based emg platform
Lin et al. Using multiple data sources to get closer insights into user cost and task performance
da Silveira et al. Ongoing challenges of evaluating mulsemedia QoE
Kappeler-Setz Multimodal emotion and stress recognition
Blanchard et al. Towards advanced learner modeling: discussions on quasi real-time adaptation with physiological data
CN103251418A (en) Image cognition psychoanalysis system
Beaudoin-Gagnon et al. The FUNii database: A physiological, behavioral, demographic and subjective video game database for affective gaming and player experience research
Aurup et al. Pair-wise preference comparisons using alpha-peak frequencies
Yadav et al. Cradle: An IOMT psychophysiological analytics platform
WO2020209846A1 (en) Pain level determination method, apparatus, and system
Cheng et al. Enhancing Positive Emotions through Interactive Virtual Reality Experiences: An EEG-Based Investigation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170123

R150 Certificate of patent or registration of utility model

Ref document number: 6089861

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees