Nothing Special   »   [go: up one dir, main page]

JP6712027B1 - Learning support system - Google Patents

Learning support system Download PDF

Info

Publication number
JP6712027B1
JP6712027B1 JP2019239537A JP2019239537A JP6712027B1 JP 6712027 B1 JP6712027 B1 JP 6712027B1 JP 2019239537 A JP2019239537 A JP 2019239537A JP 2019239537 A JP2019239537 A JP 2019239537A JP 6712027 B1 JP6712027 B1 JP 6712027B1
Authority
JP
Japan
Prior art keywords
student
information
emotion
response
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019239537A
Other languages
Japanese (ja)
Other versions
JP2021108046A (en
Inventor
鈴木 博文
鈴木  博文
佐知夫 前田
佐知夫 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
UNIROBOT CORPORATION
Original Assignee
UNIROBOT CORPORATION
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by UNIROBOT CORPORATION filed Critical UNIROBOT CORPORATION
Priority to JP2019239537A priority Critical patent/JP6712027B1/en
Application granted granted Critical
Publication of JP6712027B1 publication Critical patent/JP6712027B1/en
Publication of JP2021108046A publication Critical patent/JP2021108046A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Toys (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】生徒に対してより適切な発信を行うこと。【解決手段】生徒向け発信部101は、生徒向け情報を発信する。言語操作部102は、生徒による言語情報の入力のための操作を受け付け、受け付けた操作により入力された言語情報を生徒の応答としてサーバ装置20に送信する。非言語感知部103は、生徒が発する非言語情報を感知し、感知した非言語情報を生徒の応答としてサーバ装置20に送信する。応答情報取得部201は、所要時間及び解答の正誤を含む生徒の応答を取得する。感情推定部204は、取得された応答に基づき生徒の現在の感情を推定する。発信情報決定部205は、推定された生徒の感情に基づき生徒に対して発信する生徒向け情報の内容を決定する。【選択図】図6[Problem] To more appropriately send to students. A student-oriented transmitting unit 101 transmits student-oriented information. The language operation unit 102 receives an operation for inputting language information by a student, and transmits the language information input by the received operation to the server device 20 as a response of the student. The non-language sensing unit 103 senses non-language information emitted by the student, and transmits the sensed non-language information to the server device 20 as a response from the student. The response information acquisition unit 201 acquires the response of the student including the required time and the correctness of the answer. The emotion estimation unit 204 estimates the current emotion of the student based on the acquired response. The transmission information determination unit 205 determines the content of the student-oriented information transmitted to the student based on the estimated emotion of the student. [Selection diagram] Fig. 6

Description

本発明は、コンピュータ支援教育に関する。 The present invention relates to computer-aided education.

コンピュータ支援教育に関する技術として、例えば、特許文献1には、生徒証から読み取られる個人データに基づいてユーザが本人であると認証された場合に、その個人データに対応する学習用問題のデータをデータ提供用装置から受信し、画像形成部が、受信されたデータに基づいて試験問題の画像を形成する技術が開示されている。 As a technique related to computer-aided education, for example, in Patent Document 1, when a user is authenticated based on personal data read from a student ID, data of a learning problem corresponding to the personal data is data. A technique is disclosed in which an image forming unit receives an image from a providing apparatus and an image forming unit forms an image of a test question based on the received data.

特開2014−29572号公報JP, 2014-29572, A

コンピュータ支援教育として、例えば、生徒の解答の正誤及び所要時間に基づいて新たな問題を発信することが行われているが、同じ生徒であっても、そのときの状態によって問題に取り組む姿勢が変化することがある。
そこで、本発明は、生徒に対して生徒の状態に応じた適切な発信を行うことを目的とする。
As computer-aided education, for example, a new question is transmitted based on the correctness of the student's answer and the time required. However, even the same student changes his/her attitude to tackle the problem depending on the state at that time. I have something to do.
Therefore, an object of the present invention is to appropriately transmit information to a student according to the state of the student.

上記目的を達成するために、本発明は、生徒に対して発信された情報に対する前記生徒の応答を取得する応答情報取得手段と、前記応答情報取得手段が取得した応答に基づき前記生徒の現在の感情を推定する推定手段と、前記推定手段が推定した感情に基づき前記生徒に対して発信する情報を決定する決定手段と、前記決定手段が決定した情報を前記生徒に対し発信する生徒向け発信手段と、前記生徒ではない情報元から前記生徒に関する情報を付加情報として取得する付加情報取得手段とを備え、前記推定手段は、前記付加情報取得手段が取得した付加情報に基づき前記生徒の現在の感情を推定する学習支援システムを提供する。 To achieve the above object, the present invention provides a response information acquisition means for acquiring a response of the student with respect to information transmitted with respect to the student, the current of the student based on the response to the response information acquisition unit acquires and estimating means for estimating the emotion, and determining means for determining a information originating to the student based on the emotion that the estimating means has estimated, transmits the information to the determining means has determined for the student And a supplementary information acquisition unit for acquiring information about the student as additional information from an information source other than the student , wherein the estimation unit is configured to transmit the student based on the additional information acquired by the additional information acquisition unit. to provide a learning support system that estimates the current feelings of.

また、前記決定手段は、前記付加情報取得手段が取得した付加情報を用いて前記生徒に対して発信する情報を決定してもよい。 Further, the determining means may determine the information to be transmitted to the student, using the additional information acquired by the additional information acquiring means .

また、記付加情報取得手段は、前記生徒又は前記生徒が属する組織のスケジュールに関する情報を付加情報として、ネットワークを介して外部の装置から取得してもよい。
また、前記付加情報取得手段は、前記生徒がSocial Networking Serviceを介して発信した情報を付加情報として取得してもよい。
Further, the additional information acquisition means may acquire information regarding the schedule of the student or the organization to which the student belongs as additional information from an external device via a network .
Further, the additional information acquisition means may acquire information transmitted by the student via the Social Networking Service as additional information.

また、前記決定手段は、前記推定手段が推定した感情に基づき前記生徒の関係者に対して発信する情報を決定し、前記決定手段が決定した情報を前記関係者に対して発信する関係者向け発信手段を備えてもよい。 Further, the deciding means decides the information to be transmitted to the related person of the student based on the emotion estimated by the estimating means, and is for the related person to transmit the information decided by the deciding means to the concerned person. A transmission means may be provided .

また、前記決定手段は、前記推定手段が前記生徒の現在の感情を推定するために用いた情報を前記応答情報取得手段が取得する前に前記生徒向け発信手段が発信した情報に基づき前記生徒に発信する情報を決定してもよい。 In addition, the determining means provides the student with information based on the information transmitted by the student transmitting means before the response information acquiring means acquires the information used by the estimating means to estimate the current emotion of the student. You may decide the information to transmit .

また、本発明は、生徒に対して発信された情報に対する前記生徒の応答を取得する応答情報取得手段と、前記応答情報取得手段が取得した応答に基づき前記生徒の現在の感情を推定する推定手段と、前記推定手段が推定した感情に基づき前記生徒に対して発信する情報を決定する決定手段と、前記決定手段が決定した情報を前記生徒に対し発信する生徒向け発信手段とを備える学習支援システムであって、人間の身体の部位を模した可動部位を有するロボットと、前記ロボットと通信接続されたサーバ装置とを備え、前記生徒向け発信手段は前記ロボットに配置され、前記応答情報取得手段、前記推定手段及び前記決定手段は前記ロボットと前記サーバ装置の両方に配置され、前記ロボットに配置されている前記推定手段は前記サーバ装置に配置されている前記推定手段よりも短時間で前記生徒の現在の感情を推定し、前記ロボットに配置されている前記推定手段が推定した感情に速やかな発信を行うべき変化が見られた場合、前記ロボットに配置されている前記決定手段は前記サーバ装置に配置されている前記決定手段の決定を待たずに前記生徒に発信する情報を決定する学習支援システムを提供するFurther, the present invention provides a response information acquisition unit that acquires the response of the student to the information transmitted to the student, and an estimation unit that estimates the current emotion of the student based on the response acquired by the response information acquisition unit. A learning support system including: a determining unit that determines information to be transmitted to the student based on the emotion estimated by the estimating unit; and a transmitting unit for a student that transmits the information determined by the determining unit to the student. A robot having a movable part imitating a part of a human body, and a server device communicatively connected to the robot, wherein the student-originating means is arranged in the robot, the response information acquiring means, The estimating means and the determining means are arranged in both the robot and the server device, and the estimating means arranged in the robot is shorter than the estimating means arranged in the server device in the student. When the current emotion is estimated and the emotion estimated by the estimation means arranged in the robot has changed to promptly transmit, the determination means arranged in the robot is stored in the server device. A learning support system for deciding information to be transmitted to the student without waiting for the decision of the deciding means arranged .

本発明によれば、生徒に対して生徒の状態に応じた適切な発信を行うことができる。 According to the present invention, it is possible to appropriately transmit to a student according to the state of the student.

実施例に係る学習支援システムの全体構成の一例を表す図The figure showing an example of the whole composition of the learning support system concerning an example. ロボットの外観を表す図Diagram showing the appearance of the robot ロボットのハードウェア構成の一例を表す図Diagram showing an example of the hardware configuration of a robot サーバ装置のハードウェア構成の一例を表す図The figure showing an example of the hardware constitutions of a server apparatus. 関係者端末のハードウェア構成の一例を表す図The figure showing an example of the hardware constitutions of a participant terminal. 学習支援システムの機能構成を表す図Diagram showing the functional configuration of the learning support system プルチックの感情の輪を表す図Illustration representing the circle of emotions of Prutic 生徒の応答の内容に基づき生徒の感情を推定するために用いるテーブルの構成の一例を表す図The figure showing an example of the structure of the table used for estimating a student's emotion based on the content of a student's response 生徒の感情に応じた生徒向け情報の決定に用いるテーブルの構成の一例を表す図The figure showing an example of the structure of the table used for the determination of the information for students according to the emotion of a student 生徒の関係者から得られる付加情報に基づき生徒の感情を推定するために用いるテーブルの構成の一例を表す図The figure showing an example of the structure of the table used for estimating a student's emotion based on the additional information obtained from the student's person concerned 発信処理における動作手順の一例を表す図The figure showing an example of the operation procedure in transmission processing. 発信処理における別の動作手順の一例を表す図The figure showing an example of another operation procedure in transmission processing. 一変形例に係る学習支援システムの機能構成を表す図A diagram showing a functional configuration of a learning support system according to a modification. 一変形例に係る学習支援システムの機能構成を表す図A diagram showing a functional configuration of a learning support system according to a modification. 一変形例に係る学習支援システムの機能構成を表す図A diagram showing a functional configuration of a learning support system according to a modification.

[1]実施例
図1は実施例に係る学習支援システム1の全体構成の一例を表す。学習支援システム1は、生徒の学習を支援するシステムである。学習支援システム1は、ネットワーク2と、ウェアラブルデバイス3と、ロボット10と、サーバ装置20と、教師端末30と、保護者端末40とを備える。
[1] Example FIG. 1 shows an example of the overall configuration of a learning support system 1 according to an example. The learning support system 1 is a system that supports learning for students. The learning support system 1 includes a network 2, a wearable device 3, a robot 10, a server device 20, a teacher terminal 30, and a guardian terminal 40.

ネットワーク2は、移動体通信網及びインターネット等を含む通信システムであり、自システムにアクセスする装置同士のデータのやり取りを中継する。ネットワーク2には、サーバ装置20が有線通信で、ロボット10、教師端末30及び保護者端末40が無線通信で接続している。なお、各装置とネットワーク2との通信は、有線でも無線でもどちらでもよい。また、ウェアラブルデバイス3は、ロボット10と無線通信で接続している。 The network 2 is a communication system including a mobile communication network, the Internet, and the like, and relays data exchange between devices that access the own system. The server device 20 is connected to the network 2 by wire communication, and the robot 10, the teacher terminal 30, and the guardian terminal 40 are connected by wireless communication. The communication between each device and the network 2 may be wired or wireless. The wearable device 3 is connected to the robot 10 by wireless communication.

ウェアラブルデバイス3は、生徒の身に装着されて使用されるデバイスであり、生徒の活動量を測定する。ウェアラブルデバイス3は、例えば、生徒の手首に装着される腕時計型のデバイスであり、生徒の手のモーション情報(動く方向及び速度等)及び心拍数等を活動量として測定する。ウェアラブルデバイス3は、測定した活動量をロボット10に送信する。 The wearable device 3 is a device that is worn and used by a student, and measures the amount of activity of the student. The wearable device 3 is, for example, a wristwatch-type device worn on the wrist of a student, and measures motion information (moving direction and speed, etc.) of the hand of the student, heart rate, and the like as activity amounts. The wearable device 3 transmits the measured amount of activity to the robot 10.

ロボット10は、生徒とコミュニケーションを取る機能を有し、例えば生徒の学習に関する生徒向けの情報(以下「生徒向け情報」と言う)を発信したり、発信した生徒向け情報に対する生徒の応答を受け取ったりする。ロボット10は、例えば教室の勉強机に設置されており、生徒の操作を受け付けたり、ウェアラブルデバイス3により測定された活動量等に基づき生徒の動き等を検知したりすることを契機にして各種の動作を行う。 The robot 10 has a function of communicating with students, and sends, for example, information for students regarding student learning (hereinafter referred to as “student information”) and receives student responses to the sent student information. To do. The robot 10 is installed on, for example, a study desk in a classroom, and receives various types of operations by accepting the operation of the student or detecting the movement of the student based on the amount of activity measured by the wearable device 3. Take action.

サーバ装置20は、ロボット10が受け取った生徒の応答を取得し、取得した応答に基づいて生徒の感情の推定及び生徒向け情報の内容の決定等を行う。サーバ装置20は、生徒向け情報の内容を決定すると、決定した内容をロボット10に通知する。ロボット10は、通知された内容の生徒向け情報を生徒に対して発信する。 The server device 20 acquires the response of the student received by the robot 10 and estimates the emotion of the student and determines the content of the student-oriented information based on the acquired response. When determining the content of the student-oriented information, the server device 20 notifies the determined content to the robot 10. The robot 10 transmits the notified information for students to the students.

教師端末30は、生徒達を教える教師が利用する端末であり、保護者端末40は、生徒達の保護者が利用する端末である。教師及び保護者は生徒の関係者である。以下では教師及び保護者を「生徒の関係者」と総称し、教師端末30及び保護者端末40を「関係者端末4」と総称する。サーバ装置20は、生徒向け情報だけでなく、生徒の関係者向けの情報(以下「関係者向け情報」と言う)も決定する。 The teacher terminal 30 is a terminal used by a teacher who teaches students, and the parent terminal 40 is a terminal used by parents of the students. Teachers and parents are concerned with the students. Hereinafter, the teacher and the guardian will be collectively referred to as “student related persons”, and the teacher terminal 30 and the guardian terminal 40 will be collectively referred to as “related person terminals 4”. The server device 20 determines not only the information for the students but also the information for the related persons of the students (hereinafter referred to as “information for related persons”).

関係者端末4は、決定された関係者向け情報を関係者に対して発信する。また、関係者端末4は、生徒の関係者により操作されて、生徒に関する情報(例えば保護者が自宅で観察した生徒が教室に向かう前の状態に関する情報や、教師が教室で観察した現在の生徒の状態に関する情報等)を生成してサーバ装置20に送信する。サーバ装置20は、送信されてきた情報を、生徒の応答に付加される情報(以下「付加情報」と言う)として取得し、生徒の感情の推定に活用する。 The related party terminal 4 transmits the determined related party information to the related parties. In addition, the related party terminal 4 is operated by a related person of the student, and information about the student (for example, information about a state observed by a guardian at home before a student goes to the classroom, or a current student observed by the teacher in the classroom). (Information regarding the state of 1) is generated and transmitted to the server device 20. The server device 20 acquires the transmitted information as information added to the response of the student (hereinafter referred to as “additional information”) and utilizes it for estimating the emotion of the student.

図2はロボット10の外観を表す。ロボット10としては、様々なロボットが採用可能であるが、以下の説明においては好適な一例として、ロボット10としてユニロボット株式会社が販売している「UNIBO」(登録商標)を採用した場合を説明する。ロボット10は、大まかには、胴体部1001と、頭部1002と、右腕部1003R及び左腕部1003Lと、右脚部1004R及び左脚部1004Lとで構成される。 FIG. 2 shows the appearance of the robot 10. Although various robots can be adopted as the robot 10, the case where “UNIBO” (registered trademark) sold by Uni Robot Co., Ltd. is adopted as the robot 10 will be described as a suitable example in the following description. To do. The robot 10 is roughly composed of a body portion 1001, a head portion 1002, a right arm portion 1003R and a left arm portion 1003L, a right leg portion 1004R and a left leg portion 1004L.

頭部1002の前面にはタッチディスプレイ1005が配置されている。また、タッチディスプレイ1005の上(額部分)にはカメラ1006が配置されている。また、頭部1002の上面(天頂部分)にはマイク1007が配置されている。また、胴体部1001の前面(腹部分)にはスピーカ1008が配置されている。 A touch display 1005 is arranged on the front surface of the head 1002. A camera 1006 is arranged on the touch display 1005 (forehead part). Further, a microphone 1007 is arranged on the upper surface (zenith portion) of the head 1002. Further, a speaker 1008 is arranged on the front surface (belly portion) of the body portion 1001.

タッチディスプレイ1005は、積層されたタッチパネル1005Aとディスプレイ1005Bを備え、タッチパネル1005Aによりユーザの指やスタイラス等の接触を検知すると共に、ディスプレイ1005Bにより画像等を表示する。カメラ1006は、いわゆるデジタルカメラであり、ロボット10の周囲の画像を撮影し、撮影した画像を示す画像データを生成する。マイク1007は、いわゆるマイクロフォンであり、自身が拾ったロボット10の周囲の音を示す音データを生成する。スピーカ1008は、合成された音声を含む各種の音を発する。 The touch display 1005 includes a stacked touch panel 1005A and a display 1005B. The touch panel 1005A detects a touch of a user's finger or a stylus, and the display 1005B displays an image or the like. The camera 1006 is a so-called digital camera, which captures an image of the surroundings of the robot 10 and generates image data indicating the captured image. The microphone 1007 is a so-called microphone, and generates sound data indicating the sound around the robot 10 picked up by itself. The speaker 1008 emits various sounds including the synthesized voice.

頭部1002は胴体部1001に対し、鉛直軸周りの回動(パン)と左右軸周りの回動(チルト)が可能である。従って、ロボット10は、頷く、頭を振る等の、頭の動きによる様々なジェスチャーを行うことができる。 The head portion 1002 can rotate (pan) around a vertical axis and rotate (tilt) around a horizontal axis with respect to the body portion 1001. Therefore, the robot 10 can make various gestures by the movement of the head, such as nodding and shaking the head.

右腕部1003Rは胴体部1001に対し、右上方向にやや傾斜した左右軸周りの回動が可能であり、左腕部1003Lは胴体部1001に対し、左上方向にやや傾斜した左右軸周りの回動が可能である。従って、ロボット10は、発言を強調するために両手を上下に振る等の、腕の動きによる様々なジェスチャーを行うことができる。 The right arm portion 1003R is rotatable about the left and right axes with respect to the body portion 1001 and slightly inclined in the upper right direction, and the left arm portion 1003L is rotatable about the left and right axes with respect to the body portion 1001 and slightly inclined in the upper left direction. It is possible. Therefore, the robot 10 can make various gestures by moving the arms, such as shaking both hands up and down to emphasize the speech.

タッチディスプレイ1005には、生徒に対し問題の出題や解説等が行われる際には、それらの内容を示すテキストや図等が表示されるが、問題の出題や解説等が行われない間は、左右の目を表す画像が表示される。ロボット10は、左右の目の形状、位置、大きさ等を変化させることで、様々な表情を作ることができる。これにより、生徒は機械であるロボット10に対し人格を感じるので、生徒自身がロボット10に対し感情を発現させやすくなる。その結果、後述する学習支援の効率を大幅に向上させることができる。 On the touch display 1005, when a question is given to the student or a commentary is given, texts or diagrams showing the contents of the question are displayed, but while the question is given or the commentary is not given, Images representing the left and right eyes are displayed. The robot 10 can create various facial expressions by changing the shape, position, size, etc. of the left and right eyes. As a result, the student feels the personality of the robot 10, which is a machine, so that the student can easily express his/her feelings toward the robot 10. As a result, the efficiency of learning support described later can be significantly improved.

図3はロボット10のハードウェア構成の一例を表す。ロボット10は、コンピュータ11と、入力装置12と、出力装置13と、駆動機構14とを備える。 FIG. 3 shows an example of the hardware configuration of the robot 10. The robot 10 includes a computer 11, an input device 12, an output device 13, and a drive mechanism 14.

コンピュータ11は、プロセッサ111と、メモリ112と、ストレージ113と、通信IF(Interface)114と、入出力IF(Interface)115と、バス119とを備える。 The computer 11 includes a processor 111, a memory 112, a storage 113, a communication IF (Interface) 114, an input/output IF (Interface) 115, and a bus 119.

プロセッサ111は、例えば中央処理装置(CPU:Central Processing Unit)であり、ストレージ113からメモリ112に読み出されたオペレーティングシステム、アプリケーションプログラム等のプログラムに従う演算処理を行うことでロボット10全体を制御する。 The processor 111 is, for example, a central processing unit (CPU), and controls the entire robot 10 by performing arithmetic processing according to programs such as an operating system and application programs read from the storage 113 to the memory 112.

メモリ112は、コンピュータで読み取り可能にデータを記録する記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)等である。ストレージ113もまた、コンピュータで読み取り可能にデータを記録する記録媒体であるが、一般的にメモリ112より記憶容量が大きい一方で、メモリ112よりデータの読み書き速度が遅い。ストレージ113は、例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ等である。 The memory 112 is a recording medium that records data in a computer-readable manner, and is, for example, a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), a RAM (Random Access Memory), or the like. is there. The storage 113 is also a recording medium that records data so that it can be read by a computer, but generally has a storage capacity larger than that of the memory 112, but has a slower data read/write speed than the memory 112. The storage 113 is, for example, a hard disk drive, a solid state drive, a flash memory, or the like.

通信IF114は、ネットワーク(有線及び無線の少なくとも一方)を介して外部装置との間で通信を行うためのインタフェースである。 The communication IF 114 is an interface for communicating with an external device via a network (at least one of wired and wireless).

入出力IF115は、ケットワークを介さずに外部装置との間で有線又は無線によりデータの受け渡しを行うためのインタフェースである。 The input/output IF 115 is an interface for exchanging data with an external device in a wired or wireless manner without using a ketwork.

バス19は、コンピュータ11の他の構成部(プロセッサ111、メモリ112等)が互いにデータを受け渡すための通信線である。 The bus 19 is a communication line for other components of the computer 11 (processor 111, memory 112, etc.) to mutually pass data.

入力装置12と、出力装置13と、駆動機構14とは、入出力IF115に接続されている。 The input device 12, the output device 13, and the drive mechanism 14 are connected to the input/output IF 115.

入力装置12には、タッチパネル1005Aと、カメラ1006と、マイク1007と、ウェアラブルデバイス3とが含まれる。出力装置13には、ディスプレイ1005Bと、スピーカ1008とが含まれる。 The input device 12 includes a touch panel 1005A, a camera 1006, a microphone 1007, and a wearable device 3. The output device 13 includes a display 1005B and a speaker 1008.

駆動機構14は、コンピュータ11の制御下でモータの動作を制御する駆動制御装置141と、駆動制御装置141の制御下で動作する頭部パン用モータ142、頭部チルト用モータ143、右腕回動用モータ144、及び左腕回動用モータ145を備える。 The drive mechanism 14 includes a drive control device 141 that controls the operation of the motor under the control of the computer 11, a head pan motor 142 that operates under the control of the drive control device 141, a head tilt motor 143, and a right arm rotation device. A motor 144 and a left arm rotation motor 145 are provided.

頭部パン用モータ142は胴体部1001と頭部1002との接続部に配置され、胴体部1001に対し頭部1002を鉛直軸周りに駆動する。頭部チルト用モータ143は胴体部1001と頭部1002との接続部に配置され、胴体部1001に対し頭部1002を左右軸周りに駆動する。 The head pan motor 142 is arranged at a connecting portion between the body portion 1001 and the head portion 1002, and drives the head portion 1002 around the vertical axis with respect to the body portion 1001. The head tilt motor 143 is arranged at the connecting portion between the body portion 1001 and the head portion 1002, and drives the head portion 1002 around the left and right axes with respect to the body portion 1001.

右腕回動用モータ144は胴体部1001と右腕部1003Rとの接続部に配置され、胴体部1001に対し右腕部1003Rを軸周りに駆動する。左腕回動用モータ145は胴体部1001と左腕部1003Lとの接続部に配置され、胴体部1001に対し左腕部1003Lを軸周りに駆動する。 The right arm rotation motor 144 is arranged at a connecting portion between the body portion 1001 and the right arm portion 1003R, and drives the right arm portion 1003R around the axis with respect to the body portion 1001. The left arm rotation motor 145 is arranged at the connecting portion between the body portion 1001 and the left arm portion 1003L, and drives the left arm portion 1003L around the axis with respect to the body portion 1001.

図4はサーバ装置20のハードウェア構成の一例を表す。サーバ装置20は、コンピュータ21で構成される。コンピュータ21は、プロセッサ211と、メモリ212と、ストレージ213と、通信IF214と、入出力IF215と、バス219とを備える。図3に同名のハードウェアが表されているプロセッサ211等は、性能及び仕様等の違いはあるが、図3と同種のハードウェアである。 FIG. 4 shows an example of the hardware configuration of the server device 20. The server device 20 includes a computer 21. The computer 21 includes a processor 211, a memory 212, a storage 213, a communication IF 214, an input/output IF 215, and a bus 219. The processor 211 and the like in which the hardware of the same name is represented in FIG. 3 is the same type of hardware as that of FIG. 3 although there are differences in performance and specifications.

図5は関係者端末4のハードウェア構成の一例を表す。関係者端末4は、コンピュータ41と、入力装置42と、出力装置43とを備える。コンピュータ41は、プロセッサ411と、メモリ412と、ストレージ413と、通信IF414と、入出力IF415と、バス419とを備える。図3に同名のハードウェアが表されているプロセッサ411等は、性能及び仕様等の違いはあるが、図3と同種のハードウェアである。 FIG. 5 shows an example of the hardware configuration of the related party terminal 4. The party terminal 4 includes a computer 41, an input device 42, and an output device 43. The computer 41 includes a processor 411, a memory 412, a storage 413, a communication IF 414, an input/output IF 415, and a bus 419. The processor 411 etc. in which the hardware of the same name is represented in FIG. 3 is the same kind of hardware as in FIG. 3 although there are differences in performance and specifications.

入力装置42には、例えば、生徒の関係者がタイピングによりテキストを入力するためのキーボード、音声によりテキストを入力するためのマイク、タッチ操作によりテキストの入力や選択肢の選択等を行うためのタッチパネル等が含まれる。出力装置43には、例えば、生徒の関係者に文字、図形等を表示するためのディスプレイ、合成された音声等の音を発音するためのスピーカ等が含まれる。 The input device 42 includes, for example, a keyboard for a person concerned with the student to input text by typing, a microphone for inputting text by voice, a touch panel for inputting text by touch operation, selection of options, and the like. Is included. The output device 43 includes, for example, a display for displaying characters, figures and the like to the students concerned, a speaker for producing sounds such as synthesized voice, and the like.

ロボット10、サーバ装置20及び関係者端末4の各プロセッサが自装置に記憶されているプログラムを実行して自装置の各部を制御することで、図6に示す学習支援システム1の機能構成が実現される。以下に、学習支援システム1の機能構成を説明する。 The functional configuration of the learning support system 1 shown in FIG. 6 is realized by each processor of the robot 10, the server device 20, and the related person terminal 4 executing a program stored in the device itself to control each part of the device itself. To be done. The functional configuration of the learning support system 1 will be described below.

ロボット10は、生徒向け発信部101と、言語操作部102と、非言語感知部103とを備える。サーバ装置20は、応答情報取得部201と、所要時間算出部202と、正誤判定部203と、感情推定部204と、発信情報決定部205と、付加情報取得部206とを備える。関係者端末4は、関係者向け発信部301と、付加情報操作部302とを備える。 The robot 10 includes a student-oriented transmitting unit 101, a language operating unit 102, and a non-language detecting unit 103. The server device 20 includes a response information acquisition unit 201, a required time calculation unit 202, a correctness determination unit 203, an emotion estimation unit 204, a transmission information determination unit 205, and an additional information acquisition unit 206. The related party terminal 4 includes a related party transmitting section 301 and an additional information operating section 302.

ロボット10の生徒向け発信部101は、上述した生徒向け情報を生徒に対して発信する。生徒向け発信部101は本発明の「発信手段」及び「第1発信手段」の一例である。 The student-oriented transmitting unit 101 of the robot 10 transmits the above-described student-oriented information to the students. The student transmitting unit 101 is an example of the "transmitting unit" and the "first transmitting unit" of the present invention.

生徒向け情報は、例えば、生徒に対し出願される問題、生徒に対する問題を解くためのアドバイス、生徒を鼓舞する掛け声、生徒の回答に喜ぶ笑顔の表示などである。生徒向け発信部101は、ロボット10のタッチディスプレイ1005に生徒向け情報を表示したり、ロボット10のスピーカ1008から生徒向け情報を発声したりすることで、生徒向け情報を発信する。 The information for students is, for example, a problem to be applied to the student, advice for solving the problem to the student, a cheering voice that inspires the student, and a display of a smile that pleases the student's answer. The student transmitting unit 101 transmits the student information by displaying the student information on the touch display 1005 of the robot 10 or by uttering the student information from the speaker 1008 of the robot 10.

生徒は、ロボット10から上記のような生徒向け情報が発信されると、その生徒向け情報に対して応答する。例えば生徒向け情報が生徒に対し出題される問題である場合には、その問題への解答という応答を行う。生徒向け情報が生徒に対するアドバイスや掛け声等である場合には、それらのアドバイスや掛け声に対する返事、表情の変化、ジェスチャー、姿勢の変化、声色の変化又は上述した活動量の変化等の応答を行う。 When the above-mentioned student-oriented information is transmitted from the robot 10, the student responds to the student-oriented information. For example, when the information for students is a question to be given to the students, a response of answering the question is given. When the information for students is advice or shouts to the students, a response such as a reply to the advice or shouts, a change in facial expression, a gesture, a change in posture, a change in voice color, or a change in the above-mentioned activity amount is performed.

生徒による応答は、言語情報と非言語情報に大別される。言語情報は、問題への解答及び返事等のように言語を用いて表される情報である。非言語情報は、表情、姿勢、声色、話す速度、ジェスチャー及び上述した活動量(心拍数、モーション情報及び視線の方向等)等のように言語を用いずに表される情報である。言語操作部102は、生徒による言語情報の入力のための操作を受け付ける。言語操作部102は本発明の「操作手段」の一例である。 Responses by students are roughly divided into verbal information and non-verbal information. The linguistic information is information represented by using a language such as an answer to a question and a reply. The non-verbal information is information expressed without using language, such as facial expression, posture, voice color, speaking speed, gesture, and the above-mentioned activity amount (heart rate, motion information, gaze direction, etc.). The language operation unit 102 receives an operation for inputting language information by a student. The language operation unit 102 is an example of the “operation means” of the present invention.

言語操作部102は、例えば、タッチディスプレイ1005を用いた文字や文章を入力する操作を、言語情報の入力のための操作として受け付ける。また、言語操作部102は、マイク1007を用いた音声入力の操作を、言語情報の入力のための操作として受け付ける。言語操作部102は、受け付けた操作により入力された言語情報に入力時刻を示す時刻情報(タイムスタンプ)を付加してサーバ装置20に送信する。 The language operation unit 102 receives, for example, an operation of inputting a character or a sentence using the touch display 1005 as an operation for inputting language information. In addition, the language operation unit 102 receives an operation of voice input using the microphone 1007 as an operation for inputting language information. The language operation unit 102 adds time information (time stamp) indicating the input time to the language information input by the received operation and transmits it to the server device 20.

非言語感知部103は、生徒が発する非言語情報を感知する。非言語感知部103は本発明の「感知手段」の一例である。非言語感知部103は、例えば、カメラ1006で撮影した画像から認識される生徒の状態(生徒の表情、姿勢、ジェスチャー、視線の方向等)を非言語情報として感知する。非言語感知部103は、マイク1007で拾った音声から認識される生徒の状態(声色及び話す速度等)を非言語情報として感知する。なお、カメラ1006やマイク1007によって生徒の表情や姿勢、声色を検出することで非言語情報を感知するので、カメラ1006やマイク1007も非言語感知部103の一部を構成する。 The non-verbal sensing unit 103 senses non-verbal information emitted by the student. The non-language sensing unit 103 is an example of the "sensing device" in the present invention. The non-language sensing unit 103 senses, for example, a student's state (a student's facial expression, posture, gesture, gaze direction, etc.) recognized from an image captured by the camera 1006 as non-language information. The non-language sensing unit 103 senses the student's state (voice color, speaking speed, etc.) recognized from the voice picked up by the microphone 1007 as non-language information. Since the camera 1006 and the microphone 1007 detect the non-verbal information by detecting the facial expression, posture, and voice color of the student, the camera 1006 and the microphone 1007 also constitute a part of the non-verbal sensor 103.

また、ロボット10には、上述したようにウェアラブルデバイス3から測定された生徒の活動量が送信されてくる。非言語感知部103は、ウェアラブルデバイス3で測定した活動量から認識される生徒の状態(心拍数、モーション情報等)を非言語情報として感知する。なお、ウェアラブルデバイス3によって生徒の状態を検出することで非言語情報を感知するので、ウェアラブルデバイス3も非言語感知部103の一部を構成する。非言語感知部103は、上記のとおり感知した非言語情報に感知時刻を示す時刻情報(タイムスタンプ)を付加してサーバ装置20に送信する。 Further, the activity amount of the student measured from the wearable device 3 is transmitted to the robot 10 as described above. The non-language sensing unit 103 senses a student's state (heart rate, motion information, etc.) recognized from the amount of activity measured by the wearable device 3 as non-language information. Since the wearable device 3 detects non-verbal information by detecting the state of the student, the wearable device 3 also constitutes a part of the non-verbal sensing unit 103. The non-language sensing unit 103 adds time information (time stamp) indicating the sensing time to the non-language information sensed as described above, and transmits it to the server device 20.

送信された言語情報及び非言語情報は、サーバ装置20の応答情報取得部201に供給される。応答情報取得部201は、生徒に対して発信された情報に対する生徒の応答を取得する。応答情報取得部201は本発明の「取得手段」及び「第1取得手段」の一例である。応答情報取得部201は、供給された各情報、すなわち、言語操作部102により受け付けられた操作により入力された言語情報と、非言語感知部103により感知された非言語情報とを生徒の応答として取得する。 The transmitted language information and non-language information are supplied to the response information acquisition unit 201 of the server device 20. The response information acquisition unit 201 acquires the response of the student to the information transmitted to the student. The response information acquisition unit 201 is an example of the “acquisition unit” and the “first acquisition unit” of the present invention. The response information acquisition unit 201 uses the supplied information, that is, the language information input by the operation accepted by the language operation unit 102 and the non-language information sensed by the non-language sensing unit 103, as a student response. get.

応答情報取得部201は、取得した応答のうち、生徒向け情報として発信された問題への解答を所要時間算出部202及び正誤判定部203に供給する。所要時間算出部202は、生徒が問題を解くのに要した所要時間を算出する。所要時間算出部202は、各問題の解答の入力時刻の間隔から所要時間を算出する。所要時間算出部202は、算出した所要時間を応答情報取得部201に供給する。 The response information acquisition unit 201 supplies, to the required time calculation unit 202 and the correctness/incorrectness determination unit 203, the answer to the question transmitted as the student-oriented information among the acquired responses. The required time calculation unit 202 calculates the required time required for the student to solve the problem. The required time calculating unit 202 calculates the required time from the interval of the input time of the answer to each question. The required time calculation unit 202 supplies the calculated required time to the response information acquisition unit 201.

正誤判定部203は、生徒が入力した問題への解答の正誤を判定する。サーバ装置20は、例えば、生徒向け情報として発信するための問題と正解とを対応付けた問題データを記憶している。正誤判定部203は、供給された生徒の解答の正誤を問題データに基づいて判定する。正誤判定部203は、判定した各解答の正誤を応答情報取得部201に供給する。 The correctness determination unit 203 determines whether the answer to the question input by the student is correct. The server device 20 stores, for example, question data in which a question to be transmitted as student information and a correct answer are associated with each other. The correctness determination unit 203 determines the correctness of the supplied student's answer based on the question data. The correctness determination unit 203 supplies the determined correctness of each answer to the response information acquisition unit 201.

応答情報取得部201は、上記のとおり供給された所要時間及び解答の正誤を生徒の応答として取得する。応答情報取得部201は、取得した生徒の応答を感情推定部204に供給する。感情推定部204は、応答情報取得部201により取得された応答に基づき生徒の現在の感情を推定する。感情推定部204は本発明の「推定手段」の一例である。感情推定部204は、本実施例では、感情推定部204は、感情を、プルチックの感情の輪に従う複数のパラメータの各々の高低を示す数値の集まりの形式で表現する。 The response information acquisition unit 201 acquires the required time and correctness of the answer supplied as described above as the response of the student. The response information acquisition unit 201 supplies the acquired student response to the emotion estimation unit 204. The emotion estimation unit 204 estimates the current emotion of the student based on the response acquired by the response information acquisition unit 201. The emotion estimation unit 204 is an example of the “estimation unit” in the present invention. In the present embodiment, the emotion estimating unit 204 expresses the emotion in the form of a set of numerical values indicating the height of each of the plurality of parameters that follow the ring of emotions of the plutik.

図7はプルチックの感情の輪を表す。プルチックの感情の輪は、喜び、信頼、恐れ、驚き、悲しみ、嫌気、怒り、予測という8つの基本感情で表されている。プルチックの感情の輪は、内側に近づくほど強い感情を表す。例えば、「夢中」、「喜び」、「安らぎ」はいずれも、8つの基本感情の1つである「喜び」に分類される感情だが、これらの感情のうち「夢中」が最も強い感情であり、「安らぎ」が最も弱い感情である。また、最も外側の感情の間には2つの感情から生じる新たな感情が配置されている。例えば、「安らぎ」と「容認」からは「愛」が生じる。 FIG. 7 shows the circle of emotions of Plutik. Pulchic's emotional ring is represented by eight basic emotions: joy, trust, fear, surprise, sadness, disgust, anger, and prediction. Pulchic's emotional ring represents stronger emotion as it gets closer to the inside. For example, "enthusiasm", "joy" and "comfort" are all classified as "joy", which is one of the eight basic emotions. Of these emotions, "enthusiasm" is the strongest emotion. , "Comfort" is the weakest emotion. Further, a new emotion generated from two emotions is arranged between the outermost emotions. For example, "comfort" and "acceptance" give rise to "love."

プルチックの感情の輪において相対する位置に配置されている2つの基本感情(例えば「喜び」と「悲しみ」)は互いに正反対の基本感情として対を成す。従って、8つの基本感情は以下の4つの軸(以下、「感情軸」という)で表される。
第1感情軸:「喜び」−「悲しみ」
第2感情軸:「信頼」−「嫌気」
第3感情軸:「恐れ」−「怒り」
第4感情軸:「驚き」−「予測」
Two basic emotions (for example, "joy" and "sorrow"), which are arranged at opposite positions in the Purtic emotional ring, are paired as opposite basic emotions. Therefore, the eight basic emotions are represented by the following four axes (hereinafter referred to as “emotion axes”).
First emotional axis: "joy"-"sadness"
Second emotional axis: "trust"-"dislike"
Third emotional axis: "fear"-"anger"
Fourth emotional axis: "Surprise"-"Prediction"

本実施例において、生徒の感情は、上記の4つの感情軸の各々に応じた4つの数値(例えば、−3〜+3の範囲内の数値)の集まりで表現される。以下、それらの4つの数値の集まりを「感情指標値群」と呼ぶ。 In the present embodiment, the emotion of the student is expressed by a group of four numerical values (for example, numerical values within the range of -3 to +3) corresponding to each of the above four emotional axes. Hereinafter, a group of these four numerical values will be referred to as a “feeling index value group”.

図8は感情推定部204が生徒の感情を表す感情指標値群を推定するために用いるテーブルの構成の一例を表している。図8のテーブルは、様々な応答内容(例えば、問題に対する正当と誤答の経時変化のパターン、カメラ1006で撮影した画像から認識される表情のパターン、マイク1007で拾った音声から認識される声色のパターン等)に応じたレコードの集まりであり、各レコードには、そのレコードの応答内容に応じた感情指標値群(第1感情軸〜第4感情軸の各々の数値)が格納されている。 FIG. 8 shows an example of the configuration of a table used by the emotion estimation unit 204 to estimate the emotion index value group representing the emotion of the student. The table of FIG. 8 shows various response contents (for example, a pattern of change in correctness and an incorrect answer to a problem over time, a pattern of facial expressions recognized from an image captured by the camera 1006, a voice color recognized from a voice picked up by the microphone 1007). Pattern), and each record stores an emotion index value group (numerical value of each of the first emotion axis to the fourth emotion axis) corresponding to the response content of the record. ..

感情推定部204は応答情報取得部201から情報が供給される毎に、その情報が表す応答内容に応じた感情指標値群を図8のテーブルから読み出し、応答情報取得部201から供給された情報に伴う時刻情報と対応付けてログテーブルに記憶する。そして、感情推定部204はログテーブルに記憶されている多数の感情指標値群を、第1感情軸〜第4感情軸の各々に関し、それらに対応付けられている時刻情報から現在時刻までの時間に応じたウェイト(時間が長い程、小さいウエイト)を用いて加重平均した値を算出する。そのように算出される第1感情軸〜第4感情軸の各々の加重平均値の集まりは、その時点において推定される生徒の感情指標値群を意味する。以下、この感情指標値群を、「生徒の現在の感情指標値群」という。感情推定部204は、生徒の現在の感情指標値群を更新する毎に、更新後の感情指標値群を発信情報決定部205に供給する。 Every time information is supplied from the response information acquisition unit 201, the emotion estimation unit 204 reads the emotion index value group corresponding to the response content represented by the information from the table in FIG. 8, and the information supplied from the response information acquisition unit 201. It is stored in the log table in association with the time information associated with. Then, the emotion estimation unit 204 sets, for each of the first emotion axis to the fourth emotion axis, a large number of emotion index value groups stored in the log table, from the time information associated with them to the current time. The weighted average value is calculated using the weight (the smaller the weight, the longer the time). The collection of the weighted average values of the first emotion axis to the fourth emotion axis thus calculated means a group of student emotion index values estimated at that time. Hereinafter, this emotion index value group is referred to as a “student's current emotion index value group”. The emotion estimation unit 204 supplies the updated emotion index value group to the transmission information determination unit 205 every time the current emotion index value group of the student is updated.

発信情報決定部205は、感情推定部204から供給される生徒の現在の感情指標値群に基づき、生徒に対して発信する生徒向け情報の内容を決定する。発信情報決定部205は本発明の「決定手段」の一例である。 The transmission information determination unit 205 determines the content of the student-oriented information transmitted to the student based on the current emotion index value group of the student supplied from the emotion estimation unit 204. The outgoing information determining unit 205 is an example of the “determining means” in the present invention.

図9は発信情報決定部205が生徒に対して発信する生徒向け情報の内容を決定するために用いるテーブルの構成の一例を表している。図9のテーブルは、様々な条件と感情指標値群との組み合わせに応じたレコードの集まりであり、各レコードには、そのレコードの条件と感情指標値群との組み合わせに応じた発信内容が格納されている。 FIG. 9 shows an example of the configuration of a table used by the transmission information determination unit 205 to determine the content of the student-oriented information transmitted to the students. The table in FIG. 9 is a collection of records according to combinations of various conditions and emotion index value groups, and each record stores transmission contents according to combinations of conditions of the records and emotion index value groups. Has been done.

図9のテーブルに格納される条件とは、例えば、直前に発信された発信内容の種別、直前の生徒の応答の種別(問題への解答か否か等)等に関する条件であり、様々な発信内容の選択肢の中から、現在の状況に適するものを絞り込むために用いられる。従って、発信情報決定部205は、まず図9のテーブルから、現在の状況が満たす条件を格納しているレコードを抽出する。続いて、発信情報決定部205は、抽出したレコードの中から、生徒の現在の感情指標値群と最も近似している感情指標値群を格納しているレコードを検索し、検索したレコードの発信内容を、その時点で生徒に対し発信する生徒向け情報の内容として決定する。発信情報決定部205は、決定した内容の生徒向け情報を生成する。なお、発信情報決定部205は、生徒向け情報の内容として問題の出題を決定した場合、自装置が記憶している問題データを参照し、決定した問題を示す情報を生徒向け情報として生成する。 The conditions stored in the table of FIG. 9 are conditions relating to, for example, the type of the transmitted content transmitted immediately before, the type of the response of the student immediately before (whether or not the answer to the question, etc.), etc. It is used to narrow down the content choices that are appropriate for the current situation. Therefore, the transmission information determining unit 205 first extracts from the table of FIG. 9 a record that stores the condition satisfied by the current situation. Then, the transmission information determining unit 205 searches the extracted records for a record storing an emotion index value group that is the closest to the current emotion index value group of the student, and transmits the retrieved record. The content is determined as the content of the student information to be sent to the student at that time. The transmission information determination unit 205 generates student information having the determined content. In addition, when the question to be asked is determined as the content of the student-oriented information, the transmission information determination unit 205 refers to the question data stored in the device itself and generates information indicating the determined question as the student-oriented information.

発信情報決定部205は、生成した生徒向け情報をロボット10に送信する。ロボット10の生徒向け発信部101は、送信されてきた生徒向け情報、すなわち発信情報決定部205により決定された生徒向け情報を生徒に対して発信する。生徒向け発信部101は、生徒向け情報が問題を示す場合は、それらの問題をロボット10のディスプレイに表示することで生徒向け情報を発信する。 The transmission information determination unit 205 transmits the generated student-oriented information to the robot 10. The student transmission unit 101 of the robot 10 transmits the transmitted student information, that is, the student information determined by the transmission information determination unit 205 to the student. When the student-oriented information indicates a problem, the student-oriented transmitting unit 101 transmits the student-oriented information by displaying the problem on the display of the robot 10.

ここまでは生徒向け情報の発信に関して説明したが、以下では、生徒の関係者に向けた情報である関係者向け情報の発信に関して説明する。関係者向け情報とは、例えば、現在の生徒の感情の状態、その日の生徒の学習評価(問題に対する解答の正否及びその解説等)、生徒に対する声掛けの提案等である。関係者端末4の関係者向け発信部301は、生徒の関係者に対して関係者向け情報を発信する。関係者向け発信部301は本発明の「第2発信手段」の一例である。 Up to this point, the transmission of the information for the students has been described, but below, the transmission of the information for the related persons, which is the information for the related persons of the student, will be described. The information for related parties is, for example, the current emotional state of the student, the learning evaluation of the student on that day (whether the answer to the question is correct or not and its commentary, etc.), the suggestion of a voice call to the student, and the like. The related party transmitting unit 301 of the related party terminal 4 transmits related party information to the related person of the student. The related party transmitting unit 301 is an example of the “second transmitting unit” in the present invention.

関係者向け発信部301は、関係者端末4のディスプレイに関係者向け情報を表示したり、関係者端末4のスピーカから関係者向け情報を発声したりすることで、関係者向け情報を発信する。 The related party transmitting unit 301 transmits the related person information by displaying the related person information on the display of the related person terminal 4 or by uttering the related person information from the speaker of the related person terminal 4. ..

感情推定部204は、上述したように、主に応答情報取得部201から供給される、生徒の応答に関する情報に基づき、生徒の現在の感情を推定する。ただし、本実施例においては、感情推定部204は、生徒の応答に関する情報に加え、生徒の関係者から発信される生徒に関する付加情報を、生徒の現在の感情の推定に用いる。 As described above, the emotion estimation unit 204 estimates the current emotion of the student based on the information regarding the response of the student, which is mainly supplied from the response information acquisition unit 201. However, in the present embodiment, the emotion estimation unit 204 uses the additional information regarding the student transmitted from the related person of the student for estimating the current emotion of the student in addition to the information regarding the response of the student.

生徒の関係者は、例えば関係者端末4から上記のように発信される関係者向け情報に対し応答して、生徒に関する情報を付加情報として入力する。生徒の保護者が入力する付加情報とは、例えば、家庭内における生徒とその家族との不和の有無、教室に向かう前の食事の摂取状況、生徒の現在の体調、教室に向かう前に行っていた活動(習い事等)等に関する情報である。教師が入力する付加情報とは、例えば、教室において気付いた生徒の気になる様子、他の生徒との関係の良否等に関する情報である。 The student related person inputs the information about the student as additional information in response to the related party information transmitted from the related person terminal 4 as described above. The additional information entered by the parents of the students includes, for example, whether or not there is any disagreement between the students and their family members at home, the dietary intake before going to the classroom, the current physical condition of the students, and the information to be taken before going to the classroom. This is information related to the activities (learning, etc.) that were being conducted. The additional information input by the teacher is, for example, information about how the student notices in the classroom, whether the relationship with other students is good or bad, and the like.

関係者端末4の付加情報操作部302は、生徒の関係者による付加情報の入力のための操作を受け付ける。付加情報操作部302は、例えば、キーボードを用いた文字や文章を入力する操作を、付加情報の入力のための操作として受け付ける。また、付加情報操作部302は、マイクを用いた音声入力の操作を、付加情報の入力のための操作として受け付ける。付加情報操作部302は、受け付けた操作により入力された付加情報に入力時刻を示す時刻情報(タイムスタンプ)を付加してサーバ装置20に送信する。 The additional information operation unit 302 of the related person terminal 4 receives an operation for inputting additional information by a related person of the student. The additional information operating unit 302 receives, for example, an operation of inputting a character or a sentence using a keyboard as an operation for inputting additional information. Further, the additional information operation unit 302 accepts a voice input operation using a microphone as an operation for inputting additional information. The additional information operation unit 302 adds the time information (time stamp) indicating the input time to the additional information input by the received operation, and transmits the additional information to the server device 20.

送信された付加情報は、サーバ装置20の付加情報取得部206に供給される。付加情報取得部206は、生徒ではない情報元からその生徒に関する情報を取得する。付加情報取得部206は本発明の「第2取得手段」の一例である。生徒ではない情報元とは、本実施例では、関係者端末4を利用する教師又は保護者等である。付加情報取得部206は、供給された付加情報を、生徒ではない情報元からの生徒に関する情報として取得し、感情推定部204に供給する。 The transmitted additional information is supplied to the additional information acquisition unit 206 of the server device 20. The additional information acquisition unit 206 acquires information about the student from an information source that is not a student. The additional information acquisition unit 206 is an example of the “second acquisition unit” in the present invention. In the present embodiment, the information source that is not a student is a teacher or a guardian who uses the related person terminal 4. The additional information acquisition unit 206 acquires the supplied additional information as information about a student from an information source that is not a student, and supplies it to the emotion estimation unit 204.

感情推定部204は、供給された付加情報、すなわち、付加情報取得部206により取得された生徒に関する情報に基づきその生徒の現在の感情を推定する。図10は感情推定部204が付加情報に基づき生徒の感情を表す感情指標値群を推定するために用いるテーブルの構成の一例を表している。図10のテーブルは、図8のテーブルと比較し、第1列の内容が「応答内容」に代えて「付加情報」である点が異なっている。感情推定部204は、付加情報取得部206から付加情報が供給される毎に、図10のテーブルからその付加情報に応じた感情指標群を検索し、検索した感情指標値群に、付加情報に伴う時刻情報を対応付けて、既述のログテーブルに記憶する。そして、感情推定部204は、ログテーブルに記憶されている多数の感情指標群を経過時間に応じたウェイトを用いて加重平均し、生徒の現在の感情指標値群を算出する。そのように算出された感情指標値群に応じて、発信情報決定部205が生徒向け情報及び関係者向け情報を決定する点は既述のとおりである。 The emotion estimation unit 204 estimates the current emotion of the student based on the supplied additional information, that is, the information about the student acquired by the additional information acquisition unit 206. FIG. 10 shows an example of the configuration of a table used by the emotion estimation unit 204 to estimate the emotion index value group representing the emotion of the student based on the additional information. The table of FIG. 10 differs from the table of FIG. 8 in that the content of the first column is “additional information” instead of “response content”. Every time the additional information acquisition unit 206 supplies additional information, the emotion estimation unit 204 searches the table in FIG. 10 for an emotion index group according to the additional information, and adds the retrieved emotion index value group to the additional information. The associated time information is associated and stored in the log table described above. Then, the emotion estimation unit 204 weights and averages a large number of emotion index groups stored in the log table using weights according to the elapsed time, and calculates a current emotion index value group of the student. As described above, the transmission information determining unit 205 determines the student-oriented information and the related-person information according to the emotion index value group calculated in this way.

学習支援システム1が備える各装置は、上記構成に基づいて、生徒向け情報及び関係者向け情報を発信する発信処理を行う。 Each device included in the learning support system 1 performs a transmission process of transmitting information for students and information for related persons based on the above configuration.

図11は発信処理における動作手順の一例を表す。図11に表す動作手順は、例えばロボット10に生徒向け情報が送信されてくることを契機に開始される。まず、ロボット10(生徒向け発信部101)は、送信されてきた生徒向け情報を発信する(ステップS11)。 FIG. 11 shows an example of an operation procedure in the calling process. The operation procedure shown in FIG. 11 is started, for example, when the student-oriented information is transmitted to the robot 10. First, the robot 10 (student sending unit 101) sends the sent student information (step S11).

次に、ロボット10(言語操作部102)は、生徒による言語情報の入力のための操作を受け付け(ステップS12)、受け付けた操作により入力された言語情報を生徒の応答としてサーバ装置20に送信する(ステップS13)。続いて、ロボット10(非言語感知部103)は、生徒が発する非言語情報を感知し(ステップS14)、感知した非言語情報を生徒の応答としてサーバ装置20に送信する(ステップS15)。ステップS12及びS13とS14及びS15とは、順序が反対でもよいし、並行して行われてもよい。 Next, the robot 10 (language operation unit 102) accepts an operation for inputting language information by the student (step S12), and transmits the language information input by the accepted operation to the server device 20 as a response of the student. (Step S13). Subsequently, the robot 10 (non-language detecting unit 103) detects the non-language information emitted by the student (step S14), and transmits the detected non-language information to the server device 20 as a response of the student (step S15). The order of steps S12 and S13 and S14 and S15 may be reversed or may be performed in parallel.

サーバ装置20(所要時間算出部202)は、送信されてきた生徒の応答に基づいて、生徒が問題を解くのに要した所要時間を算出する(ステップS21)。次に、サーバ装置20(正誤判定部203)は、送信されてきた生徒の応答に基づいて、生徒が入力した問題への解答の正誤を判定する(ステップS22)。そして、サーバ装置20(応答情報取得部201)は、算出された所要時間及び判定された解答の正誤を含む生徒の応答を取得する(ステップS23)。 The server device 20 (required time calculation unit 202) calculates the required time required for the student to solve the problem based on the transmitted student response (step S21). Next, the server device 20 (correctness determination unit 203) determines the correctness of the answer to the question input by the student based on the transmitted response of the student (step S22). Then, the server device 20 (response information acquisition unit 201) acquires the response of the student including the calculated required time and the correctness of the determined answer (step S23).

次に、サーバ装置20(感情推定部204)は、取得された応答に基づき生徒の現在の感情を推定する(ステップS24)。続いて、サーバ装置20(発信情報決定部205)は、推定された生徒の感情に基づき生徒に対して発信する生徒向け情報の内容を決定し(ステップS25)、決定した内容の生徒向け情報をロボット10に送信する(ステップS26)。ロボット10(生徒向け発信部101)は、ステップS11に戻って、送信されてきた生徒向け情報を発信する。 Next, the server device 20 (emotion estimation unit 204) estimates the current emotion of the student based on the acquired response (step S24). Subsequently, the server device 20 (transmission information determination unit 205) determines the content of the student-oriented information transmitted to the student based on the estimated emotion of the student (step S25), and outputs the determined student-oriented information. It is transmitted to the robot 10 (step S26). The robot 10 (transmission unit 101 for students) returns to step S11 and transmits the transmitted information for students.

図12は発信処理における別の動作手順の一例を表す。図12に表す動作手順は、例えば関係者端末4に関係向け情報が送信されてくることを契機に開始される。まず、関係者端末4(関係者向け発信部301)は、送信されてきた関係者向け情報を発信する(ステップS31)。 FIG. 12 shows an example of another operation procedure in the calling process. The operation procedure illustrated in FIG. 12 is started, for example, when the related information is transmitted to the related party terminal 4. First, the related party terminal 4 (related party sending unit 301) sends the sent related party information (step S31).

次に、関係者端末4(付加情報操作部302)は、関係者による付加情報の入力のための操作を受け付け(ステップS32)、受け付けた操作により入力された付加情報をサーバ装置20に送信する(ステップS33)。サーバ装置20(付加情報取得部206)は、送信されてきた付加情報を、生徒ではない情報元からのその生徒に関する情報として取得する(ステップS41)。 Next, the related party terminal 4 (additional information operation unit 302) receives an operation for inputting additional information by a related person (step S32), and transmits the additional information input by the received operation to the server device 20. (Step S33). The server device 20 (additional information acquisition unit 206) acquires the transmitted additional information as information about the student from an information source that is not a student (step S41).

次に、サーバ装置20(感情推定部204)は、取得された付加情報に基づき生徒の現在の感情を推定する(ステップS42)。続いて、サーバ装置20(発信情報決定部205)は、推定された生徒の感情に基づき関係者に対して発信する関係者向け情報の内容を決定し(ステップS43)、決定した内容の関係者向け情報を関係者端末4に送信する(ステップS44)。関係者端末4(関係者向け発信部301)は、ステップS31に戻って、送信されてきた関係者向け情報を発信する。 Next, the server device 20 (emotion estimation unit 204) estimates the current emotion of the student based on the acquired additional information (step S42). Subsequently, the server device 20 (the transmission information determination unit 205) determines the content of the information for the related persons to be transmitted to the related persons based on the estimated emotion of the student (step S43), and the related persons of the determined content The target information is transmitted to the related party terminal 4 (step S44). The related party terminal 4 (related party sending unit 301) returns to step S31 and sends the sent related party information.

本実施例では、上記のとおり発信された生徒向け情報に対する生徒の応答に基づいて生徒の感情が推定され、推定された感情に基づき次の生徒向け情報の内容が決定される。そのため、例えば学習中の教科に夢中になっている生徒と、その教科に嫌気がさしている生徒とに対して、それぞれの感情に合った教科の問題が生徒向け情報として発信される。これにより、生徒の感情に関係なく生徒向け情報が発信される場合に比べて、生徒に対してより適切な発信を行うことができる。 In this embodiment, the emotion of the student is estimated based on the student's response to the student information transmitted as described above, and the content of the next student information is determined based on the estimated emotion. Therefore, for example, to a student who is absorbed in the subject being studied and a student who is disgusted by the subject, the subject matter that suits each emotion is transmitted as student-oriented information. As a result, more appropriate information can be transmitted to the students as compared with the case where the information for the students is transmitted regardless of the emotions of the students.

また、本実施例では、生徒の言語情報及び非言語情報の両方がその生徒の応答として取得され、感情の推定に用いられる。生徒の感情は表情や仕草にも表れるので、非言語情報を用いることで、非言語情報を用いない場合に比べて、生徒の感情をより的確に推定することができる。また、非言語情報をカメラ、マイク又は活動量計を用いて感知することで、それぞれ生徒の外観、音声又は動きが表す生徒の感情を推定することできる。 Further, in this embodiment, both the verbal information and the non-verbal information of the student are acquired as the response of the student and used for estimating the emotion. Since the emotions of the students also appear in facial expressions and gestures, the non-verbal information can be used to more accurately estimate the emotions of the students as compared to the case where the non-verbal information is not used. Further, by detecting non-verbal information using a camera, a microphone, or an activity meter, it is possible to estimate the emotion of the student represented by the appearance, voice, or movement of the student.

生徒の関係者である教師や保護者は、生徒の感情に大きな影響を与える立場にある。本実施例では、生徒の関係者を情報元として取得される付加情報にも基づいて生徒の感情が推定されるので、付加情報を用いない場合に比べて、生徒の感情をより的確に推定することができる。また、それらの関係者に対して関係者向け情報が発信されるので、関係者が生徒に与える影響をコントロールすることができる。 Teachers and parents who are involved in the students are in a position to have a great influence on their emotions. In the present embodiment, the emotion of the student is estimated based on the additional information acquired by using the related person of the student as the information source. Therefore, the emotion of the student is more accurately estimated as compared with the case where the additional information is not used. be able to. Moreover, since the information for the related persons is transmitted to those related persons, it is possible to control the influence of the related persons on the students.

[2]変形例
上述した各実施形態は、それぞれが本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、各実施形態及び各変形例は必要に応じてそれぞれ組み合わせてもよい。
[2] Modifications Each of the above-described embodiments is merely an example of the embodiment of the present invention, and may be modified as follows. In addition, each embodiment and each modification may be combined with each other as necessary.

[2−1]発信する情報
学習支援システム1は、実施例では、問題を示す生徒向け情報と関係者へのアドバイスを示す関係者向け情報を発信した。これらの言語情報を発信する生徒向け発信部101及び関係者向け発信部301は、いずれも本発明の「言語発信手段」の一例である。なお、生徒向け発信部101及び関係者向け発信部301は、言語情報に限らず、非言語情報を発信してもよく、その場合はそれぞれ本発明の「非言語発信手段」の一例となる。
[2-1] Information to be transmitted In the embodiment, the learning support system 1 transmits the information for students indicating a problem and the information for related persons indicating advice to the related persons. The student-originated transmitting unit 101 and the related-person-related transmitting unit 301 that transmit the language information are both examples of the “language transmitting unit” of the present invention. It should be noted that the student-originated transmitting unit 101 and the related-person-related transmitting unit 301 may transmit not only linguistic information but also non-linguistic information, and in that case, they are examples of the "non-language transmitting means" of the present invention.

ロボット10は、タッチディスプレイ1005に自装置を擬人化した顔を表示して、その顔の表情を変化させることができる。従って、発信情報決定部205が、ロボット10の表情の種類(笑顔や残念そうな顔など)を生徒向け情報として決定し、生徒向け発信部101が、決定された種類の表情の顔を表示することで非言語情報である生徒向け情報を発信してもよい。また、ロボット10は、頭部1002と、右腕部1003R及び左腕部1003Lを動かすことができる。従って、発信情報決定部205が、ロボット10の動きを生徒向け情報として決定し、生徒向け発信部101が、決定された動きを行うことで非言語情報である生徒向け情報を発信してもよい。非言語情報を発信することで、言語情報だけでは伝えられないニュアンスを生徒に伝えることができる。 The robot 10 can display a face of an anthropomorphic device on the touch display 1005 and change the facial expression of the face. Therefore, the transmission information determination unit 205 determines the type of facial expression of the robot 10 (such as a smile or a disappointing face) as the student information, and the student transmission unit 101 displays the face of the determined type of expression. Therefore, non-verbal information for students may be transmitted. Further, the robot 10 can move the head 1002 and the right arm 1003R and the left arm 1003L. Therefore, the transmission information determination unit 205 may determine the movement of the robot 10 as the student information, and the student transmission unit 101 may transmit the non-language information for the student by performing the determined movement. .. By sending non-verbal information, students can be told nuances that cannot be conveyed by verbal information alone.

例えば、同じレベルの計算問題を解いている生徒の解答の正否が、正答→正答→誤答→正答という順序で変化した場合、3問目の誤答はケアレスミスであると推定される。このような場合に、ロボット10は生徒に対し単純に「不正解」と解答の正否を伝えるのではなく、例えば疑いの表情を表示しながら「え〜〜?」「本当にこれでファイナルアンサー?」というように、言語情報と非言語情報を組み合わせて発信することで、生徒の自発的な見直しを促し、さらなる成長を促すことが可能となる。 For example, if the correctness of the answers of the students solving the same level of calculation problem changes in the order of correct answer→correct answer→wrong answer→correct answer, the third wrong answer is presumed to be careless miss. In such a case, the robot 10 does not simply tell the student whether the answer is “incorrect” or “correct”, for example, while displaying an expression of doubt, “Eh?” “Is this really the final answer?” In this way, by sending a combination of linguistic information and non-linguistic information, it is possible to encourage the students to voluntarily review and promote further growth.

[2−2]情報の発信方法
学習支援システム1における情報の発信方法は実施例で述べたものに限らない。例えば、生徒向け情報である問題をロボット10のディスプレイに表示する代わりに、プリンタに印刷させて紙媒体上の情報として生徒に対して発信してもよい。
[2-2] Information Transmission Method The information transmission method in the learning support system 1 is not limited to the one described in the embodiment. For example, instead of displaying the question, which is information for students, on the display of the robot 10, it may be printed by a printer and transmitted to the students as information on a paper medium.

また、発信情報決定部205が、生成した生徒向け情報をロボット10ではなく関係者端末4に送信して、関係者端末4が関係者に対して生徒向け情報を発信してもよい。その場合は、関係者端末4を利用する関係者(教師又は保護者)が、発信された生徒向け情報を口頭又は関係者端末4を利用して生徒に発信すればよい。 Further, the transmission information determining unit 205 may transmit the generated student-oriented information to the related party terminal 4 instead of the robot 10, and the related party terminal 4 may transmit the student-related information to the related parties. In that case, a person (teacher or guardian) using the person concerned terminal 4 may transmit the transmitted information for students to the student verbally or using the person concerned terminal 4.

[2−3]機能の実現方法
図6に表す各機能を実現する方法は実施例で述べた方法に限らない。例えば、ロボット10が実現する機能(例えば言語操作部102等)をサーバ装置20が実現してもよいし、サーバ装置20が実現する機能(例えば発信情報決定部205等)をロボット10が実現してもよい。また、ロボット10が実現する機能をタブレット端末やスマートフォン等の端末が実現してもよい。
[2-3] Function Realization Method The method for realizing each function shown in FIG. 6 is not limited to the method described in the embodiment. For example, the server device 20 may realize the function realized by the robot 10 (for example, the language operation unit 102 or the like), or the function realized by the server device 20 (for example, the transmission information determination unit 205 or the like) may be realized by the robot 10. May be. Further, the functions realized by the robot 10 may be realized by a terminal such as a tablet terminal or a smartphone.

また、ロボット10又はサーバ装置20がそれぞれ1台の装置で実現する機能を2以上の装置で分担して実現してもよい。また、各機能が実行する動作を2以上の機能で分担して実行してもよい。例えば発信情報決定部205が行う情報の決定と生成等の動作を別々の機能が実行してもよい。いずれの場合も、学習支援システム1の全体で図6に表す各機能が実現されていればよい。 Further, the functions realized by the robot 10 or the server device 20 by one device may be shared by two or more devices. Further, the operation executed by each function may be shared by two or more functions and executed. For example, separate functions may execute the operations such as the information determination and generation performed by the transmission information determination unit 205. In either case, each function shown in FIG. 6 may be realized in the learning support system 1 as a whole.

図13は、実施例のサーバ装置20の機能を全て、ロボット10が備える構成例の学習支援システム1の機能構成を表す図である。 FIG. 13 is a diagram illustrating the functional configuration of the learning support system 1 of the configuration example in which the robot 10 has all the functions of the server device 20 of the embodiment.

図14は、実施例のサーバ装置20が備える応答情報取得部201、所要時間算出部202、正誤判定部203、感情推定部204及び発信情報決定部205と同じ機能の構成部である応答情報取得部104、所要時間算出部105、正誤判定部106、感情推定部107及び発信情報決定部108をロボット10が備える構成例の学習支援システム1の機能構成を表す図である。図14に示す構成の学習支援システム1において、例えば、ロボット10は感情推定部107において生徒の現在の感情を、サーバ装置20の感情推定部204よりも大まかであるが短時間で推定する。そして、ロボット10は、生徒の現在の感情に、速やかに適切な発信を行うべき変化が見られた場合、サーバ装置20の発信情報決定部205による生徒向け情報の決定を待たずに、発信情報決定部108により生徒向け情報を決定し、その生徒向け情報を生徒向け発信部101により発信する。 FIG. 14 is a diagram illustrating a response information acquisition unit 201, a required time calculation unit 202, a correctness determination unit 203, an emotion estimation unit 204, and a transmission information determination unit 205 that are included in the server device 20 of the embodiment and have the same function. FIG. 3 is a diagram showing a functional configuration of a learning support system 1 of a configuration example in which the robot 10 includes a unit 104, a required time calculation unit 105, a correctness determination unit 106, an emotion estimation unit 107, and a transmission information determination unit 108. In the learning support system 1 having the configuration shown in FIG. 14, for example, the robot 10 estimates the current emotion of the student in the emotion estimation unit 107 in a shorter time than the emotion estimation unit 204 of the server device 20, although the estimation is rough. Then, when a change in the student's current feelings that should be appropriately transmitted is found, the robot 10 does not wait for the transmission information determination unit 205 of the server device 20 to determine the student-oriented information, and transmits the transmission information. The deciding unit 108 decides the student-oriented information, and the student-oriented information is transmitted by the student-oriented transmitting unit 101.

一方、ロボット10において、生徒の現在の感情に、速やかに適切な発信を行うべき変化が見られない場合、生徒向け発信部101はサーバ装置20の発信情報決定部205から送信されるよる生徒向け情報を発信する。 On the other hand, in the robot 10, when there is no change in the current feelings of the student that should be appropriately and promptly transmitted, the student-oriented sending unit 101 sends the student-oriented information sent from the outgoing information determination unit 205 of the server device 20. Send information.

図14の構成を備える学習支援システム1によれば、例えば、相づち等の速やかな発信が必要な生徒向け情報はロボット10においてその決定と発信を行うことができるため、生徒にとってより適切な発信が可能となる。 According to the learning support system 1 having the configuration of FIG. 14, for example, the information for students who need to promptly send information such as grouping can be determined and sent by the robot 10, so that more appropriate sending can be performed for the students. It will be possible.

図15は、実施例においてロボット10が備える非言語感知部103の機能の一部を、サーバ装置20が備える構成例の学習支援システム1の機能構成を表す図である。図15に示す構成の学習支援システム1において、例えば、ロボット10の非言語感知部103は、非言語情報から特徴量(例えば、非言語情報が画像であれば画像のエッジの位置を示す座標等、又、非言語情報が音声であれば音節毎の音量や音節間の時間等)を抽出し、抽出した特徴量を示す特徴量情報をサーバ装置20に送信する。サーバ装置20の非言語感知部207は、ロボット10から受信した特徴量情報に基づき、非言語情報の意味(例えば、非言語情報が生徒の顔の画像であればその画像が笑顔を表しているということ等、又、非言語情報が音声であればその音声が緊張した声色であるということ等)を特定する。 FIG. 15 is a diagram illustrating a functional configuration of the learning support system 1 of a configuration example in which the server device 20 includes part of the functions of the non-language sensing unit 103 included in the robot 10 in the embodiment. In the learning support system 1 having the configuration shown in FIG. 15, for example, the non-language sensing unit 103 of the robot 10 uses the non-language information to calculate the feature amount (for example, if the non-language information is an image, coordinates indicating the position of the edge of the image, etc.). If the non-verbal information is voice, the volume of each syllable, the time between syllables, etc.) is extracted, and the characteristic amount information indicating the extracted characteristic amount is transmitted to the server device 20. The non-verbal detection unit 207 of the server device 20 means the meaning of the non-verbal information based on the feature amount information received from the robot 10 (for example, if the non-verbal information is an image of a student's face, the image represents a smile). If the non-linguistic information is voice, it means that the voice has a tense tone color).

図15の構成を備える学習支援システム1によれば、ロボット10は非言語情報の意味を特定するための処理を行う必要が無い。また、図15の構成を備える学習支援システム1によれば、例えば画像データや音声データをロボット10からサーバ装置20に送信する場合と比較し、通信すべきデータ量が大幅に削減される。 According to the learning support system 1 having the configuration of FIG. 15, the robot 10 does not need to perform the process for specifying the meaning of the non-verbal information. Further, according to the learning support system 1 having the configuration of FIG. 15, the amount of data to be communicated is significantly reduced as compared with, for example, the case of transmitting image data or audio data from the robot 10 to the server device 20.

[2−4]ロボットの配置位置
実施例では、ロボット10は教室に配置される。ロボット10が配置される位置は教室に限られない。例えば、ロボット10が家庭に配置されてもよいし、生徒の移動に伴いロボット10が移動してもよい。
[2-4] Arrangement Position of Robot In the embodiment, the robot 10 is arranged in the classroom. The position where the robot 10 is arranged is not limited to the classroom. For example, the robot 10 may be placed at home, or the robot 10 may move as a student moves.

[2−5]生徒端末の形態
実施例では、生徒が用いる端末としてロボット10が用いられる。生徒が用いる端末が、実施例のように物理的な可動部を備えるロボットである場合、動きによる非言語情報の発信が可能となり望ましい。一方、可動部を備えるロボットは、可動部を備えないタブレット型パーソナルコンピュータ等の端末と比較し、一般的に高額で長大となる。従って、価格やモバイル性を考慮して、生徒が用いる端末として、可動部を備えない端末が採用されてもよい。その場合であっても、端末のディスプレイに表示される表情や、スピーカから発声される音声の声色等の非言語情報を用いることで、生徒とのコミュニケーションを豊かにすることができる。
[2-5] Form of Student Terminal In the embodiment, the robot 10 is used as a terminal used by a student. If the terminal used by the student is a robot having a physically movable part as in the embodiment, it is desirable because it can transmit non-verbal information by movement. On the other hand, a robot provided with a movable part is generally expensive and long compared to a terminal such as a tablet type personal computer having no movable part. Therefore, in consideration of price and mobility, as the terminal used by the student, a terminal having no movable part may be adopted. Even in that case, the communication with the student can be enriched by using the non-verbal information such as the facial expression displayed on the display of the terminal and the voice color of the voice uttered from the speaker.

[2−6]ウェアラブルデバイスの種類及び要否
実施例では、ウェアラブルデバイス3として、生徒の手首に装着される腕時計型のデバイスが用いられる。ウェアラブルデバイス3の形態は腕時計型に限られず、例えば、ネックレス型のデバイスやメガネ型のデバイス等であってもよい。
[2-6] Type of Wearable Device and Necessity of Use In the embodiment, as the wearable device 3, a wristwatch type device worn on the wrist of the student is used. The form of the wearable device 3 is not limited to the wristwatch type, and may be, for example, a necklace type device, a glasses type device, or the like.

また、ウェアラブルデバイス3は必ずしも必要ではない。例えば、カメラ1006が撮影する画像から生徒の動きや心拍数が推定可能であれば、それらの計測のためのウェアラブルデバイス3は不要である。 The wearable device 3 is not always necessary. For example, if the movement of the student and the heart rate can be estimated from the image captured by the camera 1006, the wearable device 3 for measuring them is unnecessary.

[2−7]ロボットが備える測定手段の種類
実施例では、ロボット10は生徒の感情を推定するための情報を測定するための測定手段として、タッチパネル1005Aと、カメラ1006と、マイク1007とを備える。ロボット10(又は、生徒が用いる端末)が備える測定手段の種類はこれらに限られない。例えば、ロボット10に、生徒の体温の分布を表すサーモグラフを生成する赤外線カメラが接続され、赤外線カメラが生成するサーモグラフが、生徒の感情の推定に用いられてもよい。
[2-7] Types of Measuring Means Included in Robot In the embodiment, the robot 10 includes a touch panel 1005A, a camera 1006, and a microphone 1007 as measuring means for measuring information for estimating a student's emotions. .. The types of measuring means included in the robot 10 (or the terminal used by the student) are not limited to these. For example, the robot 10 may be connected to an infrared camera that generates a thermograph representing the distribution of the body temperature of the student, and the thermograph generated by the infrared camera may be used to estimate the emotion of the student.

[2−8]ロボットの可動部
実施例において、ロボット10の可動部は頭部1002と、右腕部1003Rと、左腕部1003Lであるが、ロボット10の可動部はこれらに限られない。例えば、右脚部1004R及び左脚部1004Lが動く構成が採用されてもよい。
[2-8] Movable Part of Robot In the embodiment, the movable part of the robot 10 is the head 1002, the right arm 1003R, and the left arm 1003L, but the movable part of the robot 10 is not limited to these. For example, a configuration may be adopted in which the right leg 1004R and the left leg 1004L move.

また、ロボット10の可動部の動く方向は実施例に示したものに限られない。例えば、頭部1002がパン、チルトに加え、ロールの方向にも動く構成が採用されてもよい。また、右腕部1003R及び左腕部1003Lが方部、肘部及び手首部に関節を備え、それらの関節で様々な方向に右腕部1003R及び左腕部1003Lが屈曲できる構成が採用されてもよい。 Further, the moving direction of the movable part of the robot 10 is not limited to that shown in the embodiment. For example, a configuration may be adopted in which the head 1002 moves in the roll direction in addition to the pan and tilt. Further, the right arm 1003R and the left arm 1003L may be provided with joints on the sides, elbows and wrists, and the joints may be used to bend the right arm 1003R and the left arm 1003L in various directions.

[2−9]AI
実施例では、図8及び図10に例示の構成のテーブルに格納されている情報に基づき、生徒の現在の感情が推定される。これに代えて、学習支援システム1が、生徒の応答の内容及び生徒以外の情報元から供給される付加情報を入力すると、それらの入力された情報に応じた生徒の感情を表す感情指標値群を出力する人工知能モデルを備え、当該人工知能モデルにより生徒の感情の推定を行ってもよい。
[2-9] AI
In the embodiment, the current emotion of the student is estimated based on the information stored in the tables having the configurations illustrated in FIGS. 8 and 10. Alternatively, when the learning support system 1 inputs the content of the response of the student and the additional information supplied from the information source other than the student, the emotion index value group representing the emotion of the student according to the input information. It is also possible to provide an artificial intelligence model that outputs, and estimate the emotion of the student using the artificial intelligence model.

また、実施例では、図9に例示の構成のテーブルに格納されている情報に基づき、生徒の現在の感情に応じた生徒向け情報が決定される。これに代えて、学習支援システム1が、生徒の現在の感情指標値群と、過去の生徒の応答及び過去に生徒に発信した生徒向け情報とを入力すると、それらの入力された情報に応じた生徒向け情報を出力する人工知能モデルを備え、当該人工知能モデルにより生徒向け情報の決定を行ってもよい。 Further, in the embodiment, the student-oriented information corresponding to the current emotion of the student is determined based on the information stored in the table having the configuration illustrated in FIG. Instead of this, when the learning support system 1 inputs the current emotion index value group of the student, the past student response, and the student-oriented information transmitted to the student in the past, the learning support system 1 responds to the input information. An artificial intelligence model that outputs student-oriented information may be provided, and the student-oriented information may be determined by the artificial intelligence model.

[2−10]付加情報の情報元
実施例では、生徒の現在の感情の推定に用いる、生徒ではない情報元の情報(付加情報)として、生徒の関係者から提供される情報が用いられる。生徒の現在の感情の推定に用いる情報の情報元はこれに限られない。例えば、生徒のスケジュールがクラウド上で管理されている場合、学習支援システム1が生徒のスケジュールに関する情報を付加情報としてクラウドから取得し、生徒の現在の感情の推定に用いてもよい。例えば、スケジュールに、近々、習い事の発表会の予定が入っていれば、学習支援システム1は、生徒が学習において集中力を欠いている場合、習い事の発表会で失敗することに対する不安(第3感情軸)の指標値を増加させることで、生徒の感情の推定の精度を高めることができる。
[2-10] Information Source of Additional Information In the embodiment, the information provided by the related person of the student is used as the information (additional information) of the information source which is not the student and is used for estimating the current emotion of the student. The information source of the information used for estimating the current emotion of the student is not limited to this. For example, when the student's schedule is managed on the cloud, the learning support system 1 may acquire information about the student's schedule from the cloud as additional information and use it for estimating the current emotion of the student. For example, if there is a schedule for a lesson presentation in the schedule in the near future, the learning support system 1 may be anxious about failing in the lesson presentation if the student lacks concentration in learning (3rd By increasing the index value of the emotion axis, the accuracy of estimating the emotion of the student can be improved.

また、生徒のスケジュールがクラウド上ではなく、生徒が携帯しているスマートフォン等の端末上で管理されている場合、学習支援システム1が、生徒の端末と通信を行い、生徒のスケジュールに関する情報を付加情報として生徒の端末から取得してもよい。 In addition, when the student's schedule is managed not on the cloud but on a terminal such as a smartphone carried by the student, the learning support system 1 communicates with the student's terminal and adds information about the student's schedule. The information may be acquired from the student terminal.

また、例えば、生徒の属する組織(学校や習い事の教室等)のスケジュールがクラウド上で管理されていれば、生徒のスケジュールに代えて、又は加えて、学習支援システム1が生徒の属する組織のスケジュールに関する情報を付加情報としてクラウドから取得し、生徒の現在の感情の推定に用いてもよい。 Further, for example, if the schedule of the organization to which the student belongs (school, lesson classroom, etc.) is managed on the cloud, instead of or in addition to the schedule of the student, the learning support system 1 schedules the organization to which the student belongs. It is also possible to obtain the information regarding the above from the cloud as additional information and use it for estimating the current emotion of the student.

また、例えば、生徒が不特定多数の人々に対しSNS(Social Networking Service)を介して情報を発信している場合、学習支援システム1が生徒からSNSを介して発信された情報を付加情報として取得し、生徒の現在の感情の推定に用いてもよい。 In addition, for example, when a student transmits information to an unspecified number of people via SNS (Social Networking Service), the learning support system 1 acquires the information transmitted from the student via SNS as additional information. However, it may be used to estimate the current feelings of the student.

[2−11]付加情報の用途
実施例では、生徒ではない情報元(生徒の関係者)の情報(付加情報)は、生徒の現在の感情の推定に用いられる。これに代えて、又は加えて、付加情報が生徒向け情報の決定に用いられてもよい。例えば、付加情報が、家庭での学習の評価を示す場合、学習支援システム1がロボット10により、教室において、家庭での学習の評価に応じた生徒向け情報が生徒に向けて発信されてもよい。
[2-11] Use of additional information In the embodiment, information (additional information) of an information source (student-related person) who is not a student is used to estimate the current emotion of the student. Alternatively or additionally, additional information may be used to determine student-oriented information. For example, when the additional information indicates the evaluation of learning at home, the learning support system 1 may send the student-oriented information corresponding to the evaluation of learning at home to the students in the classroom by the robot 10. ..

[2−12]発明のカテゴリ
本発明は、ロボット10及びサーバ装置20のような情報処理装置の他、それらの情報処理装置を備える情報処理システム(学習支援システム1がその一例)としても捉えられる。また、それらの情報処理装置が実施する処理を実現するための情報処理方法やそれらの装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。これらのプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等のネットワークを介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。
[2-12] Category of the Invention The present invention can be understood as an information processing device such as the robot 10 and the server device 20 as well as an information processing system including the information processing devices (the learning support system 1 is one example). .. It can also be understood as an information processing method for realizing the processing executed by those information processing apparatuses and a program for causing a computer that controls these apparatuses to function. These programs may be provided in the form of a recording medium such as an optical disc in which they are stored, or may be downloaded to a computer via a network such as the Internet and installed and made available. May be provided.

1…学習支援システム、3…ウェアラブルデバイス、4…関係者端末、10…ロボット、1006…カメラ、1007…マイク、20…サーバ装置、30…教師端末、40…保護者端末、101…発信部、102…言語操作部、103…非言語感知部、201…応答情報取得部、202…所要時間算出部、203…正誤判定部、204…感情推定部、205…発信情報決定部、206…付加情報取得部、301…発信部、302…付加情報操作部。 1... Learning support system, 3... Wearable device, 4... Person terminal, 10... Robot, 1006... Camera, 1007... Microphone, 20... Server device, 30... Teacher terminal, 40... Parent terminal, 101... Transmitter, 102...Language operation unit, 103...Non-language detection unit, 201...Response information acquisition unit, 202...Required time calculation unit, 203...Correctness determination unit, 204...Emotion estimation unit, 205...Transmission information determination unit, 206...Additional information Acquisition unit, 301... Sending unit, 302... Additional information operation unit.

Claims (7)

生徒に対して発信された情報に対する前記生徒の応答を取得する応答情報取得手段と、
前記応答情報取得手段が取得した応答に基づき前記生徒の現在の感情を推定する推定手段と、
前記推定手段が推定した感情に基づき前記生徒に対して発信する情報を決定する決定手段と、
前記決定手段が決定した情報を前記生徒に対し発信する生徒向け発信手段と
前記生徒ではない情報元から前記生徒に関する情報を付加情報として取得する付加情報取得手段と
を備え
前記推定手段は、前記付加情報取得手段が取得した付加情報に基づき前記生徒の現在の感情を推定す
学習支援システム。
Response information acquisition means for acquiring the response of the student to the information transmitted to the student,
And estimating means for estimating a current emotion of the student based on the response to the response information acquisition means has acquired,
Determining means for determining the information for transmitting to the student based on the emotion that the estimating means estimated,
And students for transmitting means for transmitting the information that the determining means has determined for the student,
An additional information acquisition unit for acquiring information about the student as additional information from an information source that is not the student ,
It said estimating means, learning support system that estimates the current emotion of the student based on the additional information acquisition unit acquires the additional information.
前記決定手段は、前記付加情報取得手段が取得した付加情報を用いて前記生徒に対して発信する情報を決定するThe determining means determines information to be transmitted to the student using the additional information acquired by the additional information acquiring means.
請求項1に記載の学習支援システム。The learning support system according to claim 1.
前記付加情報取得手段は、前記生徒又は前記生徒が属する組織のスケジュールに関する情報を付加情報として、ネットワークを介して外部の装置から取得するThe additional information acquisition unit acquires information about the schedule of the student or the organization to which the student belongs as additional information from an external device via a network.
請求項1又は2に記載の学習支援システム。The learning support system according to claim 1.
前記付加情報取得手段は、前記生徒がSocial Networking Serviceを介して発信した情報を付加情報として取得するThe additional information acquisition unit acquires the information transmitted by the student via the Social Networking Service as additional information.
請求項1乃至3のいずれか1項に記載の学習支援システム。The learning support system according to any one of claims 1 to 3.
前記決定手段は、前記推定手段が推定した感情に基づき前記生徒の関係者に対して発信する情報を決定し、
前記決定手段が決定した情報を前記関係者に対して発信する関係者向け発信手段を備える
請求項1乃至4のいずれか1項に記載の学習支援システム。
It said determining means determines the information originating against officials of the pupils based on the emotion that the estimating means estimated,
Learning System according to any one of claims 1 to 4 comprising a transmitting means for parties that transmits information to said determining means has determined for the parties.
前記決定手段は、前記推定手段が前記生徒の現在の感情を推定するために用いた情報を前記応答情報取得手段が取得する前に前記生徒向け発信手段が発信した情報に基づき前記生徒に発信する情報を決定するThe determining means transmits the information used by the estimating means to estimate the current emotion of the student to the student based on the information transmitted by the student transmitting means before the response information acquiring means acquires the information. Determine information
請求項1乃至5のいずれか1項に記載の学習支援システム。The learning support system according to any one of claims 1 to 5.
生徒に対して発信された情報に対する前記生徒の応答を取得する応答情報取得手段と、Response information acquisition means for acquiring the response of the student to the information transmitted to the student,
前記応答情報取得手段が取得した応答に基づき前記生徒の現在の感情を推定する推定手段と、Estimating means for estimating the current emotion of the student based on the response acquired by the response information acquiring means,
前記推定手段が推定した感情に基づき前記生徒に対して発信する情報を決定する決定手段と、Determining means for determining information to be transmitted to the student based on the emotion estimated by the estimating means;
前記決定手段が決定した情報を前記生徒に対し発信する生徒向け発信手段とA sending means for students, which sends the information decided by the deciding means to the students,
を備える学習支援システムであって、A learning support system comprising:
人間の身体の部位を模した可動部位を有するロボットと、前記ロボットと通信接続されたサーバ装置とを備え、A robot having a movable part simulating a part of a human body; and a server device communicatively connected to the robot,
前記生徒向け発信手段は前記ロボットに配置され、The transmitting means for students is arranged in the robot,
前記応答情報取得手段、前記推定手段及び前記決定手段は前記ロボットと前記サーバ装置の両方に配置され、The response information acquisition means, the estimation means and the determination means are arranged in both the robot and the server device,
前記ロボットに配置されている前記推定手段は前記サーバ装置に配置されている前記推定手段よりも短時間で前記生徒の現在の感情を推定し、前記ロボットに配置されている前記推定手段が推定した感情に速やかな発信を行うべき変化が見られた場合、前記ロボットに配置されている前記決定手段は前記サーバ装置に配置されている前記決定手段の決定を待たずに前記生徒に発信する情報を決定するThe estimating means arranged in the robot estimates the current emotion of the student in a shorter time than the estimating means arranged in the server device, and the estimating means arranged in the robot estimates the present emotion. When a change in the emotion that should be transmitted promptly is observed, the determination unit arranged in the robot transmits information to be transmitted to the student without waiting for the determination of the determination unit arranged in the server device. decide
学習支援システム。Learning support system.
JP2019239537A 2019-12-27 2019-12-27 Learning support system Active JP6712027B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019239537A JP6712027B1 (en) 2019-12-27 2019-12-27 Learning support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019239537A JP6712027B1 (en) 2019-12-27 2019-12-27 Learning support system

Publications (2)

Publication Number Publication Date
JP6712027B1 true JP6712027B1 (en) 2020-06-17
JP2021108046A JP2021108046A (en) 2021-07-29

Family

ID=71079428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019239537A Active JP6712027B1 (en) 2019-12-27 2019-12-27 Learning support system

Country Status (1)

Country Link
JP (1) JP6712027B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023039445A (en) * 2021-09-08 2023-03-20 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー Doppelganger tele-robotic system

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102510998B1 (en) * 2022-02-11 2023-03-16 주식회사 천재교과서 Learning induction type chatbot system
WO2023175929A1 (en) * 2022-03-18 2023-09-21 日本電気株式会社 Guidance assistance device, guidance assistance method, and computer-readable recording medium
WO2024116280A1 (en) * 2022-11-29 2024-06-06 日本電気株式会社 Information processing device, determination method, and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005121846A (en) * 2003-10-15 2005-05-12 Nec Fielding Ltd Record inquiry system, record inquiry method, and record inquiry program
JP2012103524A (en) * 2010-11-11 2012-05-31 Hitachi Ltd Learning navigation system
JP6193001B2 (en) * 2013-06-12 2017-09-06 株式会社ベネッセコーポレーション Learning promotion system, learning promotion method, program, and information storage medium
JP2017173547A (en) * 2016-03-23 2017-09-28 カシオ計算機株式会社 Robot control device, robot, robot control method, robot control system and program
JP6756130B2 (en) * 2016-03-23 2020-09-16 カシオ計算機株式会社 Learning support device, robot, learning support system, learning support method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023039445A (en) * 2021-09-08 2023-03-20 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー Doppelganger tele-robotic system
JP7548970B2 (en) 2021-09-08 2024-09-10 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー Doppelganger remote robot system

Also Published As

Publication number Publication date
JP2021108046A (en) 2021-07-29

Similar Documents

Publication Publication Date Title
JP6712027B1 (en) Learning support system
US11798431B2 (en) Public speaking trainer with 3-D simulation and real-time feedback
EP3384437B1 (en) Systems, computer medium and methods for management training systems
WO2019084412A1 (en) Virtual reality microsimulation platform
US20220392625A1 (en) Method and system for an interface to provide activity recommendations
CN110890140A (en) Virtual reality-based autism rehabilitation training and capability assessment system and method
CN113748449B (en) Evaluation and training system
KR20220043562A (en) System for providing treatment and skill simulation using virtual reality
JP2019086602A (en) Learning support system and learning support method
US20220254506A1 (en) Extended reality systems and methods for special needs education and therapy
Pise et al. Estimation of learning affects experienced by learners: an approach using relational reasoning and adaptive mapping
KR20240016626A (en) Multimodal DigitalHuman linked psychological counseling method and system using conversational AI service
Vermun et al. Gesture-based affective and cognitive states recognition using kinect for effective feedback during e-learning
Faltaous et al. Understanding challenges and opportunities of technology-supported sign language learning
KR20110092538A (en) Method for self-management using user terminal and system for processing the method
Munteanu et al. Multimodal technologies for seniors: challenges and opportunities
Wong Emotion assessment in evaluation of affective interfaces
US20230326092A1 (en) Real-time visualization of head mounted display user reactions
Shingjergji et al. Sense the classroom: AI-supported synchronous online education for a resilient new normal.
Boyd Designing and evaluating alternative channels: Visualizing nonverbal communication through AR and VR systems for people with autism
KR102725271B1 (en) 5G-based mobile digital human twin education system and education method using the same
WO2024062935A1 (en) Information processing device, system, information processing method, and program
US20240012860A1 (en) Systems, methods and computer readable media for special needs service provider matching and reviews
Tu et al. The Effect of Two Different Types of Human-Computer Interactions on User's Emotion in Virtual Counseling Environment
Smolina Teaching interpersonal communication in distance learning. Contemporary Issues in Philology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200121

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200121

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200427

R150 Certificate of patent or registration of utility model

Ref document number: 6712027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150