JP6712027B1 - Learning support system - Google Patents
Learning support system Download PDFInfo
- Publication number
- JP6712027B1 JP6712027B1 JP2019239537A JP2019239537A JP6712027B1 JP 6712027 B1 JP6712027 B1 JP 6712027B1 JP 2019239537 A JP2019239537 A JP 2019239537A JP 2019239537 A JP2019239537 A JP 2019239537A JP 6712027 B1 JP6712027 B1 JP 6712027B1
- Authority
- JP
- Japan
- Prior art keywords
- student
- information
- emotion
- response
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 claims abstract description 131
- 230000004044 response Effects 0.000 claims abstract description 74
- 230000008859 change Effects 0.000 claims description 9
- 230000008520 organization Effects 0.000 claims description 4
- 230000006855 networking Effects 0.000 claims description 3
- 210000001747 pupil Anatomy 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 abstract description 37
- 238000010586 diagram Methods 0.000 abstract description 12
- 230000001755 vocal effect Effects 0.000 description 24
- 238000000034 method Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 11
- 210000003128 head Anatomy 0.000 description 11
- 230000000694 effects Effects 0.000 description 10
- 230000008921 facial expression Effects 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 230000002996 emotional effect Effects 0.000 description 9
- 230000010365 information processing Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 235000018823 dietary intake Nutrition 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Toys (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】生徒に対してより適切な発信を行うこと。【解決手段】生徒向け発信部101は、生徒向け情報を発信する。言語操作部102は、生徒による言語情報の入力のための操作を受け付け、受け付けた操作により入力された言語情報を生徒の応答としてサーバ装置20に送信する。非言語感知部103は、生徒が発する非言語情報を感知し、感知した非言語情報を生徒の応答としてサーバ装置20に送信する。応答情報取得部201は、所要時間及び解答の正誤を含む生徒の応答を取得する。感情推定部204は、取得された応答に基づき生徒の現在の感情を推定する。発信情報決定部205は、推定された生徒の感情に基づき生徒に対して発信する生徒向け情報の内容を決定する。【選択図】図6[Problem] To more appropriately send to students. A student-oriented transmitting unit 101 transmits student-oriented information. The language operation unit 102 receives an operation for inputting language information by a student, and transmits the language information input by the received operation to the server device 20 as a response of the student. The non-language sensing unit 103 senses non-language information emitted by the student, and transmits the sensed non-language information to the server device 20 as a response from the student. The response information acquisition unit 201 acquires the response of the student including the required time and the correctness of the answer. The emotion estimation unit 204 estimates the current emotion of the student based on the acquired response. The transmission information determination unit 205 determines the content of the student-oriented information transmitted to the student based on the estimated emotion of the student. [Selection diagram] Fig. 6
Description
本発明は、コンピュータ支援教育に関する。 The present invention relates to computer-aided education.
コンピュータ支援教育に関する技術として、例えば、特許文献1には、生徒証から読み取られる個人データに基づいてユーザが本人であると認証された場合に、その個人データに対応する学習用問題のデータをデータ提供用装置から受信し、画像形成部が、受信されたデータに基づいて試験問題の画像を形成する技術が開示されている。
As a technique related to computer-aided education, for example, in
コンピュータ支援教育として、例えば、生徒の解答の正誤及び所要時間に基づいて新たな問題を発信することが行われているが、同じ生徒であっても、そのときの状態によって問題に取り組む姿勢が変化することがある。
そこで、本発明は、生徒に対して生徒の状態に応じた適切な発信を行うことを目的とする。
As computer-aided education, for example, a new question is transmitted based on the correctness of the student's answer and the time required. However, even the same student changes his/her attitude to tackle the problem depending on the state at that time. I have something to do.
Therefore, an object of the present invention is to appropriately transmit information to a student according to the state of the student.
上記目的を達成するために、本発明は、生徒に対して発信された情報に対する前記生徒の応答を取得する応答情報取得手段と、前記応答情報取得手段が取得した応答に基づき前記生徒の現在の感情を推定する推定手段と、前記推定手段が推定した感情に基づき前記生徒に対して発信する情報を決定する決定手段と、前記決定手段が決定した情報を前記生徒に対し発信する生徒向け発信手段と、前記生徒ではない情報元から前記生徒に関する情報を付加情報として取得する付加情報取得手段とを備え、前記推定手段は、前記付加情報取得手段が取得した付加情報に基づき前記生徒の現在の感情を推定する学習支援システムを提供する。 To achieve the above object, the present invention provides a response information acquisition means for acquiring a response of the student with respect to information transmitted with respect to the student, the current of the student based on the response to the response information acquisition unit acquires and estimating means for estimating the emotion, and determining means for determining a information originating to the student based on the emotion that the estimating means has estimated, transmits the information to the determining means has determined for the student And a supplementary information acquisition unit for acquiring information about the student as additional information from an information source other than the student , wherein the estimation unit is configured to transmit the student based on the additional information acquired by the additional information acquisition unit. to provide a learning support system that estimates the current feelings of.
また、前記決定手段は、前記付加情報取得手段が取得した付加情報を用いて前記生徒に対して発信する情報を決定してもよい。 Further, the determining means may determine the information to be transmitted to the student, using the additional information acquired by the additional information acquiring means .
また、記付加情報取得手段は、前記生徒又は前記生徒が属する組織のスケジュールに関する情報を付加情報として、ネットワークを介して外部の装置から取得してもよい。
また、前記付加情報取得手段は、前記生徒がSocial Networking Serviceを介して発信した情報を付加情報として取得してもよい。
Further, the additional information acquisition means may acquire information regarding the schedule of the student or the organization to which the student belongs as additional information from an external device via a network .
Further, the additional information acquisition means may acquire information transmitted by the student via the Social Networking Service as additional information.
また、前記決定手段は、前記推定手段が推定した感情に基づき前記生徒の関係者に対して発信する情報を決定し、前記決定手段が決定した情報を前記関係者に対して発信する関係者向け発信手段を備えてもよい。 Further, the deciding means decides the information to be transmitted to the related person of the student based on the emotion estimated by the estimating means, and is for the related person to transmit the information decided by the deciding means to the concerned person. A transmission means may be provided .
また、前記決定手段は、前記推定手段が前記生徒の現在の感情を推定するために用いた情報を前記応答情報取得手段が取得する前に前記生徒向け発信手段が発信した情報に基づき前記生徒に発信する情報を決定してもよい。 In addition, the determining means provides the student with information based on the information transmitted by the student transmitting means before the response information acquiring means acquires the information used by the estimating means to estimate the current emotion of the student. You may decide the information to transmit .
また、本発明は、生徒に対して発信された情報に対する前記生徒の応答を取得する応答情報取得手段と、前記応答情報取得手段が取得した応答に基づき前記生徒の現在の感情を推定する推定手段と、前記推定手段が推定した感情に基づき前記生徒に対して発信する情報を決定する決定手段と、前記決定手段が決定した情報を前記生徒に対し発信する生徒向け発信手段とを備える学習支援システムであって、人間の身体の部位を模した可動部位を有するロボットと、前記ロボットと通信接続されたサーバ装置とを備え、前記生徒向け発信手段は前記ロボットに配置され、前記応答情報取得手段、前記推定手段及び前記決定手段は前記ロボットと前記サーバ装置の両方に配置され、前記ロボットに配置されている前記推定手段は前記サーバ装置に配置されている前記推定手段よりも短時間で前記生徒の現在の感情を推定し、前記ロボットに配置されている前記推定手段が推定した感情に速やかな発信を行うべき変化が見られた場合、前記ロボットに配置されている前記決定手段は前記サーバ装置に配置されている前記決定手段の決定を待たずに前記生徒に発信する情報を決定する学習支援システムを提供する。 Further, the present invention provides a response information acquisition unit that acquires the response of the student to the information transmitted to the student, and an estimation unit that estimates the current emotion of the student based on the response acquired by the response information acquisition unit. A learning support system including: a determining unit that determines information to be transmitted to the student based on the emotion estimated by the estimating unit; and a transmitting unit for a student that transmits the information determined by the determining unit to the student. A robot having a movable part imitating a part of a human body, and a server device communicatively connected to the robot, wherein the student-originating means is arranged in the robot, the response information acquiring means, The estimating means and the determining means are arranged in both the robot and the server device, and the estimating means arranged in the robot is shorter than the estimating means arranged in the server device in the student. When the current emotion is estimated and the emotion estimated by the estimation means arranged in the robot has changed to promptly transmit, the determination means arranged in the robot is stored in the server device. A learning support system for deciding information to be transmitted to the student without waiting for the decision of the deciding means arranged .
本発明によれば、生徒に対して生徒の状態に応じた適切な発信を行うことができる。 According to the present invention, it is possible to appropriately transmit to a student according to the state of the student.
[1]実施例
図1は実施例に係る学習支援システム1の全体構成の一例を表す。学習支援システム1は、生徒の学習を支援するシステムである。学習支援システム1は、ネットワーク2と、ウェアラブルデバイス3と、ロボット10と、サーバ装置20と、教師端末30と、保護者端末40とを備える。
[1] Example FIG. 1 shows an example of the overall configuration of a
ネットワーク2は、移動体通信網及びインターネット等を含む通信システムであり、自システムにアクセスする装置同士のデータのやり取りを中継する。ネットワーク2には、サーバ装置20が有線通信で、ロボット10、教師端末30及び保護者端末40が無線通信で接続している。なお、各装置とネットワーク2との通信は、有線でも無線でもどちらでもよい。また、ウェアラブルデバイス3は、ロボット10と無線通信で接続している。
The network 2 is a communication system including a mobile communication network, the Internet, and the like, and relays data exchange between devices that access the own system. The
ウェアラブルデバイス3は、生徒の身に装着されて使用されるデバイスであり、生徒の活動量を測定する。ウェアラブルデバイス3は、例えば、生徒の手首に装着される腕時計型のデバイスであり、生徒の手のモーション情報(動く方向及び速度等)及び心拍数等を活動量として測定する。ウェアラブルデバイス3は、測定した活動量をロボット10に送信する。
The
ロボット10は、生徒とコミュニケーションを取る機能を有し、例えば生徒の学習に関する生徒向けの情報(以下「生徒向け情報」と言う)を発信したり、発信した生徒向け情報に対する生徒の応答を受け取ったりする。ロボット10は、例えば教室の勉強机に設置されており、生徒の操作を受け付けたり、ウェアラブルデバイス3により測定された活動量等に基づき生徒の動き等を検知したりすることを契機にして各種の動作を行う。
The
サーバ装置20は、ロボット10が受け取った生徒の応答を取得し、取得した応答に基づいて生徒の感情の推定及び生徒向け情報の内容の決定等を行う。サーバ装置20は、生徒向け情報の内容を決定すると、決定した内容をロボット10に通知する。ロボット10は、通知された内容の生徒向け情報を生徒に対して発信する。
The
教師端末30は、生徒達を教える教師が利用する端末であり、保護者端末40は、生徒達の保護者が利用する端末である。教師及び保護者は生徒の関係者である。以下では教師及び保護者を「生徒の関係者」と総称し、教師端末30及び保護者端末40を「関係者端末4」と総称する。サーバ装置20は、生徒向け情報だけでなく、生徒の関係者向けの情報(以下「関係者向け情報」と言う)も決定する。
The
関係者端末4は、決定された関係者向け情報を関係者に対して発信する。また、関係者端末4は、生徒の関係者により操作されて、生徒に関する情報(例えば保護者が自宅で観察した生徒が教室に向かう前の状態に関する情報や、教師が教室で観察した現在の生徒の状態に関する情報等)を生成してサーバ装置20に送信する。サーバ装置20は、送信されてきた情報を、生徒の応答に付加される情報(以下「付加情報」と言う)として取得し、生徒の感情の推定に活用する。
The
図2はロボット10の外観を表す。ロボット10としては、様々なロボットが採用可能であるが、以下の説明においては好適な一例として、ロボット10としてユニロボット株式会社が販売している「UNIBO」(登録商標)を採用した場合を説明する。ロボット10は、大まかには、胴体部1001と、頭部1002と、右腕部1003R及び左腕部1003Lと、右脚部1004R及び左脚部1004Lとで構成される。
FIG. 2 shows the appearance of the
頭部1002の前面にはタッチディスプレイ1005が配置されている。また、タッチディスプレイ1005の上(額部分)にはカメラ1006が配置されている。また、頭部1002の上面(天頂部分)にはマイク1007が配置されている。また、胴体部1001の前面(腹部分)にはスピーカ1008が配置されている。
A
タッチディスプレイ1005は、積層されたタッチパネル1005Aとディスプレイ1005Bを備え、タッチパネル1005Aによりユーザの指やスタイラス等の接触を検知すると共に、ディスプレイ1005Bにより画像等を表示する。カメラ1006は、いわゆるデジタルカメラであり、ロボット10の周囲の画像を撮影し、撮影した画像を示す画像データを生成する。マイク1007は、いわゆるマイクロフォンであり、自身が拾ったロボット10の周囲の音を示す音データを生成する。スピーカ1008は、合成された音声を含む各種の音を発する。
The
頭部1002は胴体部1001に対し、鉛直軸周りの回動(パン)と左右軸周りの回動(チルト)が可能である。従って、ロボット10は、頷く、頭を振る等の、頭の動きによる様々なジェスチャーを行うことができる。
The
右腕部1003Rは胴体部1001に対し、右上方向にやや傾斜した左右軸周りの回動が可能であり、左腕部1003Lは胴体部1001に対し、左上方向にやや傾斜した左右軸周りの回動が可能である。従って、ロボット10は、発言を強調するために両手を上下に振る等の、腕の動きによる様々なジェスチャーを行うことができる。
The
タッチディスプレイ1005には、生徒に対し問題の出題や解説等が行われる際には、それらの内容を示すテキストや図等が表示されるが、問題の出題や解説等が行われない間は、左右の目を表す画像が表示される。ロボット10は、左右の目の形状、位置、大きさ等を変化させることで、様々な表情を作ることができる。これにより、生徒は機械であるロボット10に対し人格を感じるので、生徒自身がロボット10に対し感情を発現させやすくなる。その結果、後述する学習支援の効率を大幅に向上させることができる。
On the
図3はロボット10のハードウェア構成の一例を表す。ロボット10は、コンピュータ11と、入力装置12と、出力装置13と、駆動機構14とを備える。
FIG. 3 shows an example of the hardware configuration of the
コンピュータ11は、プロセッサ111と、メモリ112と、ストレージ113と、通信IF(Interface)114と、入出力IF(Interface)115と、バス119とを備える。
The
プロセッサ111は、例えば中央処理装置(CPU:Central Processing Unit)であり、ストレージ113からメモリ112に読み出されたオペレーティングシステム、アプリケーションプログラム等のプログラムに従う演算処理を行うことでロボット10全体を制御する。
The
メモリ112は、コンピュータで読み取り可能にデータを記録する記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)等である。ストレージ113もまた、コンピュータで読み取り可能にデータを記録する記録媒体であるが、一般的にメモリ112より記憶容量が大きい一方で、メモリ112よりデータの読み書き速度が遅い。ストレージ113は、例えば、ハードディスクドライブ、ソリッドステートドライブ、フラッシュメモリ等である。
The
通信IF114は、ネットワーク(有線及び無線の少なくとも一方)を介して外部装置との間で通信を行うためのインタフェースである。 The communication IF 114 is an interface for communicating with an external device via a network (at least one of wired and wireless).
入出力IF115は、ケットワークを介さずに外部装置との間で有線又は無線によりデータの受け渡しを行うためのインタフェースである。 The input/output IF 115 is an interface for exchanging data with an external device in a wired or wireless manner without using a ketwork.
バス19は、コンピュータ11の他の構成部(プロセッサ111、メモリ112等)が互いにデータを受け渡すための通信線である。
The bus 19 is a communication line for other components of the computer 11 (
入力装置12と、出力装置13と、駆動機構14とは、入出力IF115に接続されている。
The
入力装置12には、タッチパネル1005Aと、カメラ1006と、マイク1007と、ウェアラブルデバイス3とが含まれる。出力装置13には、ディスプレイ1005Bと、スピーカ1008とが含まれる。
The
駆動機構14は、コンピュータ11の制御下でモータの動作を制御する駆動制御装置141と、駆動制御装置141の制御下で動作する頭部パン用モータ142、頭部チルト用モータ143、右腕回動用モータ144、及び左腕回動用モータ145を備える。
The
頭部パン用モータ142は胴体部1001と頭部1002との接続部に配置され、胴体部1001に対し頭部1002を鉛直軸周りに駆動する。頭部チルト用モータ143は胴体部1001と頭部1002との接続部に配置され、胴体部1001に対し頭部1002を左右軸周りに駆動する。
The
右腕回動用モータ144は胴体部1001と右腕部1003Rとの接続部に配置され、胴体部1001に対し右腕部1003Rを軸周りに駆動する。左腕回動用モータ145は胴体部1001と左腕部1003Lとの接続部に配置され、胴体部1001に対し左腕部1003Lを軸周りに駆動する。
The right
図4はサーバ装置20のハードウェア構成の一例を表す。サーバ装置20は、コンピュータ21で構成される。コンピュータ21は、プロセッサ211と、メモリ212と、ストレージ213と、通信IF214と、入出力IF215と、バス219とを備える。図3に同名のハードウェアが表されているプロセッサ211等は、性能及び仕様等の違いはあるが、図3と同種のハードウェアである。
FIG. 4 shows an example of the hardware configuration of the
図5は関係者端末4のハードウェア構成の一例を表す。関係者端末4は、コンピュータ41と、入力装置42と、出力装置43とを備える。コンピュータ41は、プロセッサ411と、メモリ412と、ストレージ413と、通信IF414と、入出力IF415と、バス419とを備える。図3に同名のハードウェアが表されているプロセッサ411等は、性能及び仕様等の違いはあるが、図3と同種のハードウェアである。
FIG. 5 shows an example of the hardware configuration of the
入力装置42には、例えば、生徒の関係者がタイピングによりテキストを入力するためのキーボード、音声によりテキストを入力するためのマイク、タッチ操作によりテキストの入力や選択肢の選択等を行うためのタッチパネル等が含まれる。出力装置43には、例えば、生徒の関係者に文字、図形等を表示するためのディスプレイ、合成された音声等の音を発音するためのスピーカ等が含まれる。
The
ロボット10、サーバ装置20及び関係者端末4の各プロセッサが自装置に記憶されているプログラムを実行して自装置の各部を制御することで、図6に示す学習支援システム1の機能構成が実現される。以下に、学習支援システム1の機能構成を説明する。
The functional configuration of the
ロボット10は、生徒向け発信部101と、言語操作部102と、非言語感知部103とを備える。サーバ装置20は、応答情報取得部201と、所要時間算出部202と、正誤判定部203と、感情推定部204と、発信情報決定部205と、付加情報取得部206とを備える。関係者端末4は、関係者向け発信部301と、付加情報操作部302とを備える。
The
ロボット10の生徒向け発信部101は、上述した生徒向け情報を生徒に対して発信する。生徒向け発信部101は本発明の「発信手段」及び「第1発信手段」の一例である。
The student-oriented
生徒向け情報は、例えば、生徒に対し出願される問題、生徒に対する問題を解くためのアドバイス、生徒を鼓舞する掛け声、生徒の回答に喜ぶ笑顔の表示などである。生徒向け発信部101は、ロボット10のタッチディスプレイ1005に生徒向け情報を表示したり、ロボット10のスピーカ1008から生徒向け情報を発声したりすることで、生徒向け情報を発信する。
The information for students is, for example, a problem to be applied to the student, advice for solving the problem to the student, a cheering voice that inspires the student, and a display of a smile that pleases the student's answer. The
生徒は、ロボット10から上記のような生徒向け情報が発信されると、その生徒向け情報に対して応答する。例えば生徒向け情報が生徒に対し出題される問題である場合には、その問題への解答という応答を行う。生徒向け情報が生徒に対するアドバイスや掛け声等である場合には、それらのアドバイスや掛け声に対する返事、表情の変化、ジェスチャー、姿勢の変化、声色の変化又は上述した活動量の変化等の応答を行う。
When the above-mentioned student-oriented information is transmitted from the
生徒による応答は、言語情報と非言語情報に大別される。言語情報は、問題への解答及び返事等のように言語を用いて表される情報である。非言語情報は、表情、姿勢、声色、話す速度、ジェスチャー及び上述した活動量(心拍数、モーション情報及び視線の方向等)等のように言語を用いずに表される情報である。言語操作部102は、生徒による言語情報の入力のための操作を受け付ける。言語操作部102は本発明の「操作手段」の一例である。
Responses by students are roughly divided into verbal information and non-verbal information. The linguistic information is information represented by using a language such as an answer to a question and a reply. The non-verbal information is information expressed without using language, such as facial expression, posture, voice color, speaking speed, gesture, and the above-mentioned activity amount (heart rate, motion information, gaze direction, etc.). The
言語操作部102は、例えば、タッチディスプレイ1005を用いた文字や文章を入力する操作を、言語情報の入力のための操作として受け付ける。また、言語操作部102は、マイク1007を用いた音声入力の操作を、言語情報の入力のための操作として受け付ける。言語操作部102は、受け付けた操作により入力された言語情報に入力時刻を示す時刻情報(タイムスタンプ)を付加してサーバ装置20に送信する。
The
非言語感知部103は、生徒が発する非言語情報を感知する。非言語感知部103は本発明の「感知手段」の一例である。非言語感知部103は、例えば、カメラ1006で撮影した画像から認識される生徒の状態(生徒の表情、姿勢、ジェスチャー、視線の方向等)を非言語情報として感知する。非言語感知部103は、マイク1007で拾った音声から認識される生徒の状態(声色及び話す速度等)を非言語情報として感知する。なお、カメラ1006やマイク1007によって生徒の表情や姿勢、声色を検出することで非言語情報を感知するので、カメラ1006やマイク1007も非言語感知部103の一部を構成する。
The
また、ロボット10には、上述したようにウェアラブルデバイス3から測定された生徒の活動量が送信されてくる。非言語感知部103は、ウェアラブルデバイス3で測定した活動量から認識される生徒の状態(心拍数、モーション情報等)を非言語情報として感知する。なお、ウェアラブルデバイス3によって生徒の状態を検出することで非言語情報を感知するので、ウェアラブルデバイス3も非言語感知部103の一部を構成する。非言語感知部103は、上記のとおり感知した非言語情報に感知時刻を示す時刻情報(タイムスタンプ)を付加してサーバ装置20に送信する。
Further, the activity amount of the student measured from the
送信された言語情報及び非言語情報は、サーバ装置20の応答情報取得部201に供給される。応答情報取得部201は、生徒に対して発信された情報に対する生徒の応答を取得する。応答情報取得部201は本発明の「取得手段」及び「第1取得手段」の一例である。応答情報取得部201は、供給された各情報、すなわち、言語操作部102により受け付けられた操作により入力された言語情報と、非言語感知部103により感知された非言語情報とを生徒の応答として取得する。
The transmitted language information and non-language information are supplied to the response
応答情報取得部201は、取得した応答のうち、生徒向け情報として発信された問題への解答を所要時間算出部202及び正誤判定部203に供給する。所要時間算出部202は、生徒が問題を解くのに要した所要時間を算出する。所要時間算出部202は、各問題の解答の入力時刻の間隔から所要時間を算出する。所要時間算出部202は、算出した所要時間を応答情報取得部201に供給する。
The response
正誤判定部203は、生徒が入力した問題への解答の正誤を判定する。サーバ装置20は、例えば、生徒向け情報として発信するための問題と正解とを対応付けた問題データを記憶している。正誤判定部203は、供給された生徒の解答の正誤を問題データに基づいて判定する。正誤判定部203は、判定した各解答の正誤を応答情報取得部201に供給する。
The
応答情報取得部201は、上記のとおり供給された所要時間及び解答の正誤を生徒の応答として取得する。応答情報取得部201は、取得した生徒の応答を感情推定部204に供給する。感情推定部204は、応答情報取得部201により取得された応答に基づき生徒の現在の感情を推定する。感情推定部204は本発明の「推定手段」の一例である。感情推定部204は、本実施例では、感情推定部204は、感情を、プルチックの感情の輪に従う複数のパラメータの各々の高低を示す数値の集まりの形式で表現する。
The response
図7はプルチックの感情の輪を表す。プルチックの感情の輪は、喜び、信頼、恐れ、驚き、悲しみ、嫌気、怒り、予測という8つの基本感情で表されている。プルチックの感情の輪は、内側に近づくほど強い感情を表す。例えば、「夢中」、「喜び」、「安らぎ」はいずれも、8つの基本感情の1つである「喜び」に分類される感情だが、これらの感情のうち「夢中」が最も強い感情であり、「安らぎ」が最も弱い感情である。また、最も外側の感情の間には2つの感情から生じる新たな感情が配置されている。例えば、「安らぎ」と「容認」からは「愛」が生じる。 FIG. 7 shows the circle of emotions of Plutik. Pulchic's emotional ring is represented by eight basic emotions: joy, trust, fear, surprise, sadness, disgust, anger, and prediction. Pulchic's emotional ring represents stronger emotion as it gets closer to the inside. For example, "enthusiasm", "joy" and "comfort" are all classified as "joy", which is one of the eight basic emotions. Of these emotions, "enthusiasm" is the strongest emotion. , "Comfort" is the weakest emotion. Further, a new emotion generated from two emotions is arranged between the outermost emotions. For example, "comfort" and "acceptance" give rise to "love."
プルチックの感情の輪において相対する位置に配置されている2つの基本感情(例えば「喜び」と「悲しみ」)は互いに正反対の基本感情として対を成す。従って、8つの基本感情は以下の4つの軸(以下、「感情軸」という)で表される。
第1感情軸:「喜び」−「悲しみ」
第2感情軸:「信頼」−「嫌気」
第3感情軸:「恐れ」−「怒り」
第4感情軸:「驚き」−「予測」
Two basic emotions (for example, "joy" and "sorrow"), which are arranged at opposite positions in the Purtic emotional ring, are paired as opposite basic emotions. Therefore, the eight basic emotions are represented by the following four axes (hereinafter referred to as “emotion axes”).
First emotional axis: "joy"-"sadness"
Second emotional axis: "trust"-"dislike"
Third emotional axis: "fear"-"anger"
Fourth emotional axis: "Surprise"-"Prediction"
本実施例において、生徒の感情は、上記の4つの感情軸の各々に応じた4つの数値(例えば、−3〜+3の範囲内の数値)の集まりで表現される。以下、それらの4つの数値の集まりを「感情指標値群」と呼ぶ。 In the present embodiment, the emotion of the student is expressed by a group of four numerical values (for example, numerical values within the range of -3 to +3) corresponding to each of the above four emotional axes. Hereinafter, a group of these four numerical values will be referred to as a “feeling index value group”.
図8は感情推定部204が生徒の感情を表す感情指標値群を推定するために用いるテーブルの構成の一例を表している。図8のテーブルは、様々な応答内容(例えば、問題に対する正当と誤答の経時変化のパターン、カメラ1006で撮影した画像から認識される表情のパターン、マイク1007で拾った音声から認識される声色のパターン等)に応じたレコードの集まりであり、各レコードには、そのレコードの応答内容に応じた感情指標値群(第1感情軸〜第4感情軸の各々の数値)が格納されている。
FIG. 8 shows an example of the configuration of a table used by the
感情推定部204は応答情報取得部201から情報が供給される毎に、その情報が表す応答内容に応じた感情指標値群を図8のテーブルから読み出し、応答情報取得部201から供給された情報に伴う時刻情報と対応付けてログテーブルに記憶する。そして、感情推定部204はログテーブルに記憶されている多数の感情指標値群を、第1感情軸〜第4感情軸の各々に関し、それらに対応付けられている時刻情報から現在時刻までの時間に応じたウェイト(時間が長い程、小さいウエイト)を用いて加重平均した値を算出する。そのように算出される第1感情軸〜第4感情軸の各々の加重平均値の集まりは、その時点において推定される生徒の感情指標値群を意味する。以下、この感情指標値群を、「生徒の現在の感情指標値群」という。感情推定部204は、生徒の現在の感情指標値群を更新する毎に、更新後の感情指標値群を発信情報決定部205に供給する。
Every time information is supplied from the response
発信情報決定部205は、感情推定部204から供給される生徒の現在の感情指標値群に基づき、生徒に対して発信する生徒向け情報の内容を決定する。発信情報決定部205は本発明の「決定手段」の一例である。
The transmission
図9は発信情報決定部205が生徒に対して発信する生徒向け情報の内容を決定するために用いるテーブルの構成の一例を表している。図9のテーブルは、様々な条件と感情指標値群との組み合わせに応じたレコードの集まりであり、各レコードには、そのレコードの条件と感情指標値群との組み合わせに応じた発信内容が格納されている。
FIG. 9 shows an example of the configuration of a table used by the transmission
図9のテーブルに格納される条件とは、例えば、直前に発信された発信内容の種別、直前の生徒の応答の種別(問題への解答か否か等)等に関する条件であり、様々な発信内容の選択肢の中から、現在の状況に適するものを絞り込むために用いられる。従って、発信情報決定部205は、まず図9のテーブルから、現在の状況が満たす条件を格納しているレコードを抽出する。続いて、発信情報決定部205は、抽出したレコードの中から、生徒の現在の感情指標値群と最も近似している感情指標値群を格納しているレコードを検索し、検索したレコードの発信内容を、その時点で生徒に対し発信する生徒向け情報の内容として決定する。発信情報決定部205は、決定した内容の生徒向け情報を生成する。なお、発信情報決定部205は、生徒向け情報の内容として問題の出題を決定した場合、自装置が記憶している問題データを参照し、決定した問題を示す情報を生徒向け情報として生成する。
The conditions stored in the table of FIG. 9 are conditions relating to, for example, the type of the transmitted content transmitted immediately before, the type of the response of the student immediately before (whether or not the answer to the question, etc.), etc. It is used to narrow down the content choices that are appropriate for the current situation. Therefore, the transmission
発信情報決定部205は、生成した生徒向け情報をロボット10に送信する。ロボット10の生徒向け発信部101は、送信されてきた生徒向け情報、すなわち発信情報決定部205により決定された生徒向け情報を生徒に対して発信する。生徒向け発信部101は、生徒向け情報が問題を示す場合は、それらの問題をロボット10のディスプレイに表示することで生徒向け情報を発信する。
The transmission
ここまでは生徒向け情報の発信に関して説明したが、以下では、生徒の関係者に向けた情報である関係者向け情報の発信に関して説明する。関係者向け情報とは、例えば、現在の生徒の感情の状態、その日の生徒の学習評価(問題に対する解答の正否及びその解説等)、生徒に対する声掛けの提案等である。関係者端末4の関係者向け発信部301は、生徒の関係者に対して関係者向け情報を発信する。関係者向け発信部301は本発明の「第2発信手段」の一例である。
Up to this point, the transmission of the information for the students has been described, but below, the transmission of the information for the related persons, which is the information for the related persons of the student, will be described. The information for related parties is, for example, the current emotional state of the student, the learning evaluation of the student on that day (whether the answer to the question is correct or not and its commentary, etc.), the suggestion of a voice call to the student, and the like. The related
関係者向け発信部301は、関係者端末4のディスプレイに関係者向け情報を表示したり、関係者端末4のスピーカから関係者向け情報を発声したりすることで、関係者向け情報を発信する。
The related
感情推定部204は、上述したように、主に応答情報取得部201から供給される、生徒の応答に関する情報に基づき、生徒の現在の感情を推定する。ただし、本実施例においては、感情推定部204は、生徒の応答に関する情報に加え、生徒の関係者から発信される生徒に関する付加情報を、生徒の現在の感情の推定に用いる。
As described above, the
生徒の関係者は、例えば関係者端末4から上記のように発信される関係者向け情報に対し応答して、生徒に関する情報を付加情報として入力する。生徒の保護者が入力する付加情報とは、例えば、家庭内における生徒とその家族との不和の有無、教室に向かう前の食事の摂取状況、生徒の現在の体調、教室に向かう前に行っていた活動(習い事等)等に関する情報である。教師が入力する付加情報とは、例えば、教室において気付いた生徒の気になる様子、他の生徒との関係の良否等に関する情報である。
The student related person inputs the information about the student as additional information in response to the related party information transmitted from the
関係者端末4の付加情報操作部302は、生徒の関係者による付加情報の入力のための操作を受け付ける。付加情報操作部302は、例えば、キーボードを用いた文字や文章を入力する操作を、付加情報の入力のための操作として受け付ける。また、付加情報操作部302は、マイクを用いた音声入力の操作を、付加情報の入力のための操作として受け付ける。付加情報操作部302は、受け付けた操作により入力された付加情報に入力時刻を示す時刻情報(タイムスタンプ)を付加してサーバ装置20に送信する。
The additional
送信された付加情報は、サーバ装置20の付加情報取得部206に供給される。付加情報取得部206は、生徒ではない情報元からその生徒に関する情報を取得する。付加情報取得部206は本発明の「第2取得手段」の一例である。生徒ではない情報元とは、本実施例では、関係者端末4を利用する教師又は保護者等である。付加情報取得部206は、供給された付加情報を、生徒ではない情報元からの生徒に関する情報として取得し、感情推定部204に供給する。
The transmitted additional information is supplied to the additional
感情推定部204は、供給された付加情報、すなわち、付加情報取得部206により取得された生徒に関する情報に基づきその生徒の現在の感情を推定する。図10は感情推定部204が付加情報に基づき生徒の感情を表す感情指標値群を推定するために用いるテーブルの構成の一例を表している。図10のテーブルは、図8のテーブルと比較し、第1列の内容が「応答内容」に代えて「付加情報」である点が異なっている。感情推定部204は、付加情報取得部206から付加情報が供給される毎に、図10のテーブルからその付加情報に応じた感情指標群を検索し、検索した感情指標値群に、付加情報に伴う時刻情報を対応付けて、既述のログテーブルに記憶する。そして、感情推定部204は、ログテーブルに記憶されている多数の感情指標群を経過時間に応じたウェイトを用いて加重平均し、生徒の現在の感情指標値群を算出する。そのように算出された感情指標値群に応じて、発信情報決定部205が生徒向け情報及び関係者向け情報を決定する点は既述のとおりである。
The
学習支援システム1が備える各装置は、上記構成に基づいて、生徒向け情報及び関係者向け情報を発信する発信処理を行う。
Each device included in the
図11は発信処理における動作手順の一例を表す。図11に表す動作手順は、例えばロボット10に生徒向け情報が送信されてくることを契機に開始される。まず、ロボット10(生徒向け発信部101)は、送信されてきた生徒向け情報を発信する(ステップS11)。
FIG. 11 shows an example of an operation procedure in the calling process. The operation procedure shown in FIG. 11 is started, for example, when the student-oriented information is transmitted to the
次に、ロボット10(言語操作部102)は、生徒による言語情報の入力のための操作を受け付け(ステップS12)、受け付けた操作により入力された言語情報を生徒の応答としてサーバ装置20に送信する(ステップS13)。続いて、ロボット10(非言語感知部103)は、生徒が発する非言語情報を感知し(ステップS14)、感知した非言語情報を生徒の応答としてサーバ装置20に送信する(ステップS15)。ステップS12及びS13とS14及びS15とは、順序が反対でもよいし、並行して行われてもよい。
Next, the robot 10 (language operation unit 102) accepts an operation for inputting language information by the student (step S12), and transmits the language information input by the accepted operation to the
サーバ装置20(所要時間算出部202)は、送信されてきた生徒の応答に基づいて、生徒が問題を解くのに要した所要時間を算出する(ステップS21)。次に、サーバ装置20(正誤判定部203)は、送信されてきた生徒の応答に基づいて、生徒が入力した問題への解答の正誤を判定する(ステップS22)。そして、サーバ装置20(応答情報取得部201)は、算出された所要時間及び判定された解答の正誤を含む生徒の応答を取得する(ステップS23)。 The server device 20 (required time calculation unit 202) calculates the required time required for the student to solve the problem based on the transmitted student response (step S21). Next, the server device 20 (correctness determination unit 203) determines the correctness of the answer to the question input by the student based on the transmitted response of the student (step S22). Then, the server device 20 (response information acquisition unit 201) acquires the response of the student including the calculated required time and the correctness of the determined answer (step S23).
次に、サーバ装置20(感情推定部204)は、取得された応答に基づき生徒の現在の感情を推定する(ステップS24)。続いて、サーバ装置20(発信情報決定部205)は、推定された生徒の感情に基づき生徒に対して発信する生徒向け情報の内容を決定し(ステップS25)、決定した内容の生徒向け情報をロボット10に送信する(ステップS26)。ロボット10(生徒向け発信部101)は、ステップS11に戻って、送信されてきた生徒向け情報を発信する。
Next, the server device 20 (emotion estimation unit 204) estimates the current emotion of the student based on the acquired response (step S24). Subsequently, the server device 20 (transmission information determination unit 205) determines the content of the student-oriented information transmitted to the student based on the estimated emotion of the student (step S25), and outputs the determined student-oriented information. It is transmitted to the robot 10 (step S26). The robot 10 (
図12は発信処理における別の動作手順の一例を表す。図12に表す動作手順は、例えば関係者端末4に関係向け情報が送信されてくることを契機に開始される。まず、関係者端末4(関係者向け発信部301)は、送信されてきた関係者向け情報を発信する(ステップS31)。
FIG. 12 shows an example of another operation procedure in the calling process. The operation procedure illustrated in FIG. 12 is started, for example, when the related information is transmitted to the
次に、関係者端末4(付加情報操作部302)は、関係者による付加情報の入力のための操作を受け付け(ステップS32)、受け付けた操作により入力された付加情報をサーバ装置20に送信する(ステップS33)。サーバ装置20(付加情報取得部206)は、送信されてきた付加情報を、生徒ではない情報元からのその生徒に関する情報として取得する(ステップS41)。
Next, the related party terminal 4 (additional information operation unit 302) receives an operation for inputting additional information by a related person (step S32), and transmits the additional information input by the received operation to the
次に、サーバ装置20(感情推定部204)は、取得された付加情報に基づき生徒の現在の感情を推定する(ステップS42)。続いて、サーバ装置20(発信情報決定部205)は、推定された生徒の感情に基づき関係者に対して発信する関係者向け情報の内容を決定し(ステップS43)、決定した内容の関係者向け情報を関係者端末4に送信する(ステップS44)。関係者端末4(関係者向け発信部301)は、ステップS31に戻って、送信されてきた関係者向け情報を発信する。 Next, the server device 20 (emotion estimation unit 204) estimates the current emotion of the student based on the acquired additional information (step S42). Subsequently, the server device 20 (the transmission information determination unit 205) determines the content of the information for the related persons to be transmitted to the related persons based on the estimated emotion of the student (step S43), and the related persons of the determined content The target information is transmitted to the related party terminal 4 (step S44). The related party terminal 4 (related party sending unit 301) returns to step S31 and sends the sent related party information.
本実施例では、上記のとおり発信された生徒向け情報に対する生徒の応答に基づいて生徒の感情が推定され、推定された感情に基づき次の生徒向け情報の内容が決定される。そのため、例えば学習中の教科に夢中になっている生徒と、その教科に嫌気がさしている生徒とに対して、それぞれの感情に合った教科の問題が生徒向け情報として発信される。これにより、生徒の感情に関係なく生徒向け情報が発信される場合に比べて、生徒に対してより適切な発信を行うことができる。 In this embodiment, the emotion of the student is estimated based on the student's response to the student information transmitted as described above, and the content of the next student information is determined based on the estimated emotion. Therefore, for example, to a student who is absorbed in the subject being studied and a student who is disgusted by the subject, the subject matter that suits each emotion is transmitted as student-oriented information. As a result, more appropriate information can be transmitted to the students as compared with the case where the information for the students is transmitted regardless of the emotions of the students.
また、本実施例では、生徒の言語情報及び非言語情報の両方がその生徒の応答として取得され、感情の推定に用いられる。生徒の感情は表情や仕草にも表れるので、非言語情報を用いることで、非言語情報を用いない場合に比べて、生徒の感情をより的確に推定することができる。また、非言語情報をカメラ、マイク又は活動量計を用いて感知することで、それぞれ生徒の外観、音声又は動きが表す生徒の感情を推定することできる。 Further, in this embodiment, both the verbal information and the non-verbal information of the student are acquired as the response of the student and used for estimating the emotion. Since the emotions of the students also appear in facial expressions and gestures, the non-verbal information can be used to more accurately estimate the emotions of the students as compared to the case where the non-verbal information is not used. Further, by detecting non-verbal information using a camera, a microphone, or an activity meter, it is possible to estimate the emotion of the student represented by the appearance, voice, or movement of the student.
生徒の関係者である教師や保護者は、生徒の感情に大きな影響を与える立場にある。本実施例では、生徒の関係者を情報元として取得される付加情報にも基づいて生徒の感情が推定されるので、付加情報を用いない場合に比べて、生徒の感情をより的確に推定することができる。また、それらの関係者に対して関係者向け情報が発信されるので、関係者が生徒に与える影響をコントロールすることができる。 Teachers and parents who are involved in the students are in a position to have a great influence on their emotions. In the present embodiment, the emotion of the student is estimated based on the additional information acquired by using the related person of the student as the information source. Therefore, the emotion of the student is more accurately estimated as compared with the case where the additional information is not used. be able to. Moreover, since the information for the related persons is transmitted to those related persons, it is possible to control the influence of the related persons on the students.
[2]変形例
上述した各実施形態は、それぞれが本発明の実施の一例に過ぎず、以下のように変形させてもよい。また、各実施形態及び各変形例は必要に応じてそれぞれ組み合わせてもよい。
[2] Modifications Each of the above-described embodiments is merely an example of the embodiment of the present invention, and may be modified as follows. In addition, each embodiment and each modification may be combined with each other as necessary.
[2−1]発信する情報
学習支援システム1は、実施例では、問題を示す生徒向け情報と関係者へのアドバイスを示す関係者向け情報を発信した。これらの言語情報を発信する生徒向け発信部101及び関係者向け発信部301は、いずれも本発明の「言語発信手段」の一例である。なお、生徒向け発信部101及び関係者向け発信部301は、言語情報に限らず、非言語情報を発信してもよく、その場合はそれぞれ本発明の「非言語発信手段」の一例となる。
[2-1] Information to be transmitted In the embodiment, the
ロボット10は、タッチディスプレイ1005に自装置を擬人化した顔を表示して、その顔の表情を変化させることができる。従って、発信情報決定部205が、ロボット10の表情の種類(笑顔や残念そうな顔など)を生徒向け情報として決定し、生徒向け発信部101が、決定された種類の表情の顔を表示することで非言語情報である生徒向け情報を発信してもよい。また、ロボット10は、頭部1002と、右腕部1003R及び左腕部1003Lを動かすことができる。従って、発信情報決定部205が、ロボット10の動きを生徒向け情報として決定し、生徒向け発信部101が、決定された動きを行うことで非言語情報である生徒向け情報を発信してもよい。非言語情報を発信することで、言語情報だけでは伝えられないニュアンスを生徒に伝えることができる。
The
例えば、同じレベルの計算問題を解いている生徒の解答の正否が、正答→正答→誤答→正答という順序で変化した場合、3問目の誤答はケアレスミスであると推定される。このような場合に、ロボット10は生徒に対し単純に「不正解」と解答の正否を伝えるのではなく、例えば疑いの表情を表示しながら「え〜〜?」「本当にこれでファイナルアンサー?」というように、言語情報と非言語情報を組み合わせて発信することで、生徒の自発的な見直しを促し、さらなる成長を促すことが可能となる。
For example, if the correctness of the answers of the students solving the same level of calculation problem changes in the order of correct answer→correct answer→wrong answer→correct answer, the third wrong answer is presumed to be careless miss. In such a case, the
[2−2]情報の発信方法
学習支援システム1における情報の発信方法は実施例で述べたものに限らない。例えば、生徒向け情報である問題をロボット10のディスプレイに表示する代わりに、プリンタに印刷させて紙媒体上の情報として生徒に対して発信してもよい。
[2-2] Information Transmission Method The information transmission method in the
また、発信情報決定部205が、生成した生徒向け情報をロボット10ではなく関係者端末4に送信して、関係者端末4が関係者に対して生徒向け情報を発信してもよい。その場合は、関係者端末4を利用する関係者(教師又は保護者)が、発信された生徒向け情報を口頭又は関係者端末4を利用して生徒に発信すればよい。
Further, the transmission
[2−3]機能の実現方法
図6に表す各機能を実現する方法は実施例で述べた方法に限らない。例えば、ロボット10が実現する機能(例えば言語操作部102等)をサーバ装置20が実現してもよいし、サーバ装置20が実現する機能(例えば発信情報決定部205等)をロボット10が実現してもよい。また、ロボット10が実現する機能をタブレット端末やスマートフォン等の端末が実現してもよい。
[2-3] Function Realization Method The method for realizing each function shown in FIG. 6 is not limited to the method described in the embodiment. For example, the
また、ロボット10又はサーバ装置20がそれぞれ1台の装置で実現する機能を2以上の装置で分担して実現してもよい。また、各機能が実行する動作を2以上の機能で分担して実行してもよい。例えば発信情報決定部205が行う情報の決定と生成等の動作を別々の機能が実行してもよい。いずれの場合も、学習支援システム1の全体で図6に表す各機能が実現されていればよい。
Further, the functions realized by the
図13は、実施例のサーバ装置20の機能を全て、ロボット10が備える構成例の学習支援システム1の機能構成を表す図である。
FIG. 13 is a diagram illustrating the functional configuration of the
図14は、実施例のサーバ装置20が備える応答情報取得部201、所要時間算出部202、正誤判定部203、感情推定部204及び発信情報決定部205と同じ機能の構成部である応答情報取得部104、所要時間算出部105、正誤判定部106、感情推定部107及び発信情報決定部108をロボット10が備える構成例の学習支援システム1の機能構成を表す図である。図14に示す構成の学習支援システム1において、例えば、ロボット10は感情推定部107において生徒の現在の感情を、サーバ装置20の感情推定部204よりも大まかであるが短時間で推定する。そして、ロボット10は、生徒の現在の感情に、速やかに適切な発信を行うべき変化が見られた場合、サーバ装置20の発信情報決定部205による生徒向け情報の決定を待たずに、発信情報決定部108により生徒向け情報を決定し、その生徒向け情報を生徒向け発信部101により発信する。
FIG. 14 is a diagram illustrating a response
一方、ロボット10において、生徒の現在の感情に、速やかに適切な発信を行うべき変化が見られない場合、生徒向け発信部101はサーバ装置20の発信情報決定部205から送信されるよる生徒向け情報を発信する。
On the other hand, in the
図14の構成を備える学習支援システム1によれば、例えば、相づち等の速やかな発信が必要な生徒向け情報はロボット10においてその決定と発信を行うことができるため、生徒にとってより適切な発信が可能となる。
According to the
図15は、実施例においてロボット10が備える非言語感知部103の機能の一部を、サーバ装置20が備える構成例の学習支援システム1の機能構成を表す図である。図15に示す構成の学習支援システム1において、例えば、ロボット10の非言語感知部103は、非言語情報から特徴量(例えば、非言語情報が画像であれば画像のエッジの位置を示す座標等、又、非言語情報が音声であれば音節毎の音量や音節間の時間等)を抽出し、抽出した特徴量を示す特徴量情報をサーバ装置20に送信する。サーバ装置20の非言語感知部207は、ロボット10から受信した特徴量情報に基づき、非言語情報の意味(例えば、非言語情報が生徒の顔の画像であればその画像が笑顔を表しているということ等、又、非言語情報が音声であればその音声が緊張した声色であるということ等)を特定する。
FIG. 15 is a diagram illustrating a functional configuration of the
図15の構成を備える学習支援システム1によれば、ロボット10は非言語情報の意味を特定するための処理を行う必要が無い。また、図15の構成を備える学習支援システム1によれば、例えば画像データや音声データをロボット10からサーバ装置20に送信する場合と比較し、通信すべきデータ量が大幅に削減される。
According to the
[2−4]ロボットの配置位置
実施例では、ロボット10は教室に配置される。ロボット10が配置される位置は教室に限られない。例えば、ロボット10が家庭に配置されてもよいし、生徒の移動に伴いロボット10が移動してもよい。
[2-4] Arrangement Position of Robot In the embodiment, the
[2−5]生徒端末の形態
実施例では、生徒が用いる端末としてロボット10が用いられる。生徒が用いる端末が、実施例のように物理的な可動部を備えるロボットである場合、動きによる非言語情報の発信が可能となり望ましい。一方、可動部を備えるロボットは、可動部を備えないタブレット型パーソナルコンピュータ等の端末と比較し、一般的に高額で長大となる。従って、価格やモバイル性を考慮して、生徒が用いる端末として、可動部を備えない端末が採用されてもよい。その場合であっても、端末のディスプレイに表示される表情や、スピーカから発声される音声の声色等の非言語情報を用いることで、生徒とのコミュニケーションを豊かにすることができる。
[2-5] Form of Student Terminal In the embodiment, the
[2−6]ウェアラブルデバイスの種類及び要否
実施例では、ウェアラブルデバイス3として、生徒の手首に装着される腕時計型のデバイスが用いられる。ウェアラブルデバイス3の形態は腕時計型に限られず、例えば、ネックレス型のデバイスやメガネ型のデバイス等であってもよい。
[2-6] Type of Wearable Device and Necessity of Use In the embodiment, as the
また、ウェアラブルデバイス3は必ずしも必要ではない。例えば、カメラ1006が撮影する画像から生徒の動きや心拍数が推定可能であれば、それらの計測のためのウェアラブルデバイス3は不要である。
The
[2−7]ロボットが備える測定手段の種類
実施例では、ロボット10は生徒の感情を推定するための情報を測定するための測定手段として、タッチパネル1005Aと、カメラ1006と、マイク1007とを備える。ロボット10(又は、生徒が用いる端末)が備える測定手段の種類はこれらに限られない。例えば、ロボット10に、生徒の体温の分布を表すサーモグラフを生成する赤外線カメラが接続され、赤外線カメラが生成するサーモグラフが、生徒の感情の推定に用いられてもよい。
[2-7] Types of Measuring Means Included in Robot In the embodiment, the
[2−8]ロボットの可動部
実施例において、ロボット10の可動部は頭部1002と、右腕部1003Rと、左腕部1003Lであるが、ロボット10の可動部はこれらに限られない。例えば、右脚部1004R及び左脚部1004Lが動く構成が採用されてもよい。
[2-8] Movable Part of Robot In the embodiment, the movable part of the
また、ロボット10の可動部の動く方向は実施例に示したものに限られない。例えば、頭部1002がパン、チルトに加え、ロールの方向にも動く構成が採用されてもよい。また、右腕部1003R及び左腕部1003Lが方部、肘部及び手首部に関節を備え、それらの関節で様々な方向に右腕部1003R及び左腕部1003Lが屈曲できる構成が採用されてもよい。
Further, the moving direction of the movable part of the
[2−9]AI
実施例では、図8及び図10に例示の構成のテーブルに格納されている情報に基づき、生徒の現在の感情が推定される。これに代えて、学習支援システム1が、生徒の応答の内容及び生徒以外の情報元から供給される付加情報を入力すると、それらの入力された情報に応じた生徒の感情を表す感情指標値群を出力する人工知能モデルを備え、当該人工知能モデルにより生徒の感情の推定を行ってもよい。
[2-9] AI
In the embodiment, the current emotion of the student is estimated based on the information stored in the tables having the configurations illustrated in FIGS. 8 and 10. Alternatively, when the
また、実施例では、図9に例示の構成のテーブルに格納されている情報に基づき、生徒の現在の感情に応じた生徒向け情報が決定される。これに代えて、学習支援システム1が、生徒の現在の感情指標値群と、過去の生徒の応答及び過去に生徒に発信した生徒向け情報とを入力すると、それらの入力された情報に応じた生徒向け情報を出力する人工知能モデルを備え、当該人工知能モデルにより生徒向け情報の決定を行ってもよい。
Further, in the embodiment, the student-oriented information corresponding to the current emotion of the student is determined based on the information stored in the table having the configuration illustrated in FIG. Instead of this, when the
[2−10]付加情報の情報元
実施例では、生徒の現在の感情の推定に用いる、生徒ではない情報元の情報(付加情報)として、生徒の関係者から提供される情報が用いられる。生徒の現在の感情の推定に用いる情報の情報元はこれに限られない。例えば、生徒のスケジュールがクラウド上で管理されている場合、学習支援システム1が生徒のスケジュールに関する情報を付加情報としてクラウドから取得し、生徒の現在の感情の推定に用いてもよい。例えば、スケジュールに、近々、習い事の発表会の予定が入っていれば、学習支援システム1は、生徒が学習において集中力を欠いている場合、習い事の発表会で失敗することに対する不安(第3感情軸)の指標値を増加させることで、生徒の感情の推定の精度を高めることができる。
[2-10] Information Source of Additional Information In the embodiment, the information provided by the related person of the student is used as the information (additional information) of the information source which is not the student and is used for estimating the current emotion of the student. The information source of the information used for estimating the current emotion of the student is not limited to this. For example, when the student's schedule is managed on the cloud, the
また、生徒のスケジュールがクラウド上ではなく、生徒が携帯しているスマートフォン等の端末上で管理されている場合、学習支援システム1が、生徒の端末と通信を行い、生徒のスケジュールに関する情報を付加情報として生徒の端末から取得してもよい。
In addition, when the student's schedule is managed not on the cloud but on a terminal such as a smartphone carried by the student, the
また、例えば、生徒の属する組織(学校や習い事の教室等)のスケジュールがクラウド上で管理されていれば、生徒のスケジュールに代えて、又は加えて、学習支援システム1が生徒の属する組織のスケジュールに関する情報を付加情報としてクラウドから取得し、生徒の現在の感情の推定に用いてもよい。
Further, for example, if the schedule of the organization to which the student belongs (school, lesson classroom, etc.) is managed on the cloud, instead of or in addition to the schedule of the student, the
また、例えば、生徒が不特定多数の人々に対しSNS(Social Networking Service)を介して情報を発信している場合、学習支援システム1が生徒からSNSを介して発信された情報を付加情報として取得し、生徒の現在の感情の推定に用いてもよい。
In addition, for example, when a student transmits information to an unspecified number of people via SNS (Social Networking Service), the
[2−11]付加情報の用途
実施例では、生徒ではない情報元(生徒の関係者)の情報(付加情報)は、生徒の現在の感情の推定に用いられる。これに代えて、又は加えて、付加情報が生徒向け情報の決定に用いられてもよい。例えば、付加情報が、家庭での学習の評価を示す場合、学習支援システム1がロボット10により、教室において、家庭での学習の評価に応じた生徒向け情報が生徒に向けて発信されてもよい。
[2-11] Use of additional information In the embodiment, information (additional information) of an information source (student-related person) who is not a student is used to estimate the current emotion of the student. Alternatively or additionally, additional information may be used to determine student-oriented information. For example, when the additional information indicates the evaluation of learning at home, the
[2−12]発明のカテゴリ
本発明は、ロボット10及びサーバ装置20のような情報処理装置の他、それらの情報処理装置を備える情報処理システム(学習支援システム1がその一例)としても捉えられる。また、それらの情報処理装置が実施する処理を実現するための情報処理方法やそれらの装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。これらのプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等のネットワークを介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。
[2-12] Category of the Invention The present invention can be understood as an information processing device such as the
1…学習支援システム、3…ウェアラブルデバイス、4…関係者端末、10…ロボット、1006…カメラ、1007…マイク、20…サーバ装置、30…教師端末、40…保護者端末、101…発信部、102…言語操作部、103…非言語感知部、201…応答情報取得部、202…所要時間算出部、203…正誤判定部、204…感情推定部、205…発信情報決定部、206…付加情報取得部、301…発信部、302…付加情報操作部。 1... Learning support system, 3... Wearable device, 4... Person terminal, 10... Robot, 1006... Camera, 1007... Microphone, 20... Server device, 30... Teacher terminal, 40... Parent terminal, 101... Transmitter, 102...Language operation unit, 103...Non-language detection unit, 201...Response information acquisition unit, 202...Required time calculation unit, 203...Correctness determination unit, 204...Emotion estimation unit, 205...Transmission information determination unit, 206...Additional information Acquisition unit, 301... Sending unit, 302... Additional information operation unit.
Claims (7)
前記応答情報取得手段が取得した応答に基づき前記生徒の現在の感情を推定する推定手段と、
前記推定手段が推定した感情に基づき前記生徒に対して発信する情報を決定する決定手段と、
前記決定手段が決定した情報を前記生徒に対し発信する生徒向け発信手段と、
前記生徒ではない情報元から前記生徒に関する情報を付加情報として取得する付加情報取得手段と
を備え、
前記推定手段は、前記付加情報取得手段が取得した付加情報に基づき前記生徒の現在の感情を推定する
学習支援システム。 Response information acquisition means for acquiring the response of the student to the information transmitted to the student,
And estimating means for estimating a current emotion of the student based on the response to the response information acquisition means has acquired,
Determining means for determining the information for transmitting to the student based on the emotion that the estimating means estimated,
And students for transmitting means for transmitting the information that the determining means has determined for the student,
An additional information acquisition unit for acquiring information about the student as additional information from an information source that is not the student ,
It said estimating means, learning support system that estimates the current emotion of the student based on the additional information acquisition unit acquires the additional information.
請求項1に記載の学習支援システム。The learning support system according to claim 1.
請求項1又は2に記載の学習支援システム。The learning support system according to claim 1.
請求項1乃至3のいずれか1項に記載の学習支援システム。The learning support system according to any one of claims 1 to 3.
前記決定手段が決定した情報を前記関係者に対して発信する関係者向け発信手段を備える
請求項1乃至4のいずれか1項に記載の学習支援システム。 It said determining means determines the information originating against officials of the pupils based on the emotion that the estimating means estimated,
Learning System according to any one of claims 1 to 4 comprising a transmitting means for parties that transmits information to said determining means has determined for the parties.
請求項1乃至5のいずれか1項に記載の学習支援システム。The learning support system according to any one of claims 1 to 5.
前記応答情報取得手段が取得した応答に基づき前記生徒の現在の感情を推定する推定手段と、Estimating means for estimating the current emotion of the student based on the response acquired by the response information acquiring means,
前記推定手段が推定した感情に基づき前記生徒に対して発信する情報を決定する決定手段と、Determining means for determining information to be transmitted to the student based on the emotion estimated by the estimating means;
前記決定手段が決定した情報を前記生徒に対し発信する生徒向け発信手段とA sending means for students, which sends the information decided by the deciding means to the students,
を備える学習支援システムであって、A learning support system comprising:
人間の身体の部位を模した可動部位を有するロボットと、前記ロボットと通信接続されたサーバ装置とを備え、A robot having a movable part simulating a part of a human body; and a server device communicatively connected to the robot,
前記生徒向け発信手段は前記ロボットに配置され、The transmitting means for students is arranged in the robot,
前記応答情報取得手段、前記推定手段及び前記決定手段は前記ロボットと前記サーバ装置の両方に配置され、The response information acquisition means, the estimation means and the determination means are arranged in both the robot and the server device,
前記ロボットに配置されている前記推定手段は前記サーバ装置に配置されている前記推定手段よりも短時間で前記生徒の現在の感情を推定し、前記ロボットに配置されている前記推定手段が推定した感情に速やかな発信を行うべき変化が見られた場合、前記ロボットに配置されている前記決定手段は前記サーバ装置に配置されている前記決定手段の決定を待たずに前記生徒に発信する情報を決定するThe estimating means arranged in the robot estimates the current emotion of the student in a shorter time than the estimating means arranged in the server device, and the estimating means arranged in the robot estimates the present emotion. When a change in the emotion that should be transmitted promptly is observed, the determination unit arranged in the robot transmits information to be transmitted to the student without waiting for the determination of the determination unit arranged in the server device. decide
学習支援システム。Learning support system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019239537A JP6712027B1 (en) | 2019-12-27 | 2019-12-27 | Learning support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019239537A JP6712027B1 (en) | 2019-12-27 | 2019-12-27 | Learning support system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6712027B1 true JP6712027B1 (en) | 2020-06-17 |
JP2021108046A JP2021108046A (en) | 2021-07-29 |
Family
ID=71079428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019239537A Active JP6712027B1 (en) | 2019-12-27 | 2019-12-27 | Learning support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6712027B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023039445A (en) * | 2021-09-08 | 2023-03-20 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー | Doppelganger tele-robotic system |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102510998B1 (en) * | 2022-02-11 | 2023-03-16 | 주식회사 천재교과서 | Learning induction type chatbot system |
WO2023175929A1 (en) * | 2022-03-18 | 2023-09-21 | 日本電気株式会社 | Guidance assistance device, guidance assistance method, and computer-readable recording medium |
WO2024116280A1 (en) * | 2022-11-29 | 2024-06-06 | 日本電気株式会社 | Information processing device, determination method, and storage medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005121846A (en) * | 2003-10-15 | 2005-05-12 | Nec Fielding Ltd | Record inquiry system, record inquiry method, and record inquiry program |
JP2012103524A (en) * | 2010-11-11 | 2012-05-31 | Hitachi Ltd | Learning navigation system |
JP6193001B2 (en) * | 2013-06-12 | 2017-09-06 | 株式会社ベネッセコーポレーション | Learning promotion system, learning promotion method, program, and information storage medium |
JP2017173547A (en) * | 2016-03-23 | 2017-09-28 | カシオ計算機株式会社 | Robot control device, robot, robot control method, robot control system and program |
JP6756130B2 (en) * | 2016-03-23 | 2020-09-16 | カシオ計算機株式会社 | Learning support device, robot, learning support system, learning support method and program |
-
2019
- 2019-12-27 JP JP2019239537A patent/JP6712027B1/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023039445A (en) * | 2021-09-08 | 2023-03-20 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー | Doppelganger tele-robotic system |
JP7548970B2 (en) | 2021-09-08 | 2024-09-10 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハー | Doppelganger remote robot system |
Also Published As
Publication number | Publication date |
---|---|
JP2021108046A (en) | 2021-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6712027B1 (en) | Learning support system | |
US11798431B2 (en) | Public speaking trainer with 3-D simulation and real-time feedback | |
EP3384437B1 (en) | Systems, computer medium and methods for management training systems | |
WO2019084412A1 (en) | Virtual reality microsimulation platform | |
US20220392625A1 (en) | Method and system for an interface to provide activity recommendations | |
CN110890140A (en) | Virtual reality-based autism rehabilitation training and capability assessment system and method | |
CN113748449B (en) | Evaluation and training system | |
KR20220043562A (en) | System for providing treatment and skill simulation using virtual reality | |
JP2019086602A (en) | Learning support system and learning support method | |
US20220254506A1 (en) | Extended reality systems and methods for special needs education and therapy | |
Pise et al. | Estimation of learning affects experienced by learners: an approach using relational reasoning and adaptive mapping | |
KR20240016626A (en) | Multimodal DigitalHuman linked psychological counseling method and system using conversational AI service | |
Vermun et al. | Gesture-based affective and cognitive states recognition using kinect for effective feedback during e-learning | |
Faltaous et al. | Understanding challenges and opportunities of technology-supported sign language learning | |
KR20110092538A (en) | Method for self-management using user terminal and system for processing the method | |
Munteanu et al. | Multimodal technologies for seniors: challenges and opportunities | |
Wong | Emotion assessment in evaluation of affective interfaces | |
US20230326092A1 (en) | Real-time visualization of head mounted display user reactions | |
Shingjergji et al. | Sense the classroom: AI-supported synchronous online education for a resilient new normal. | |
Boyd | Designing and evaluating alternative channels: Visualizing nonverbal communication through AR and VR systems for people with autism | |
KR102725271B1 (en) | 5G-based mobile digital human twin education system and education method using the same | |
WO2024062935A1 (en) | Information processing device, system, information processing method, and program | |
US20240012860A1 (en) | Systems, methods and computer readable media for special needs service provider matching and reviews | |
Tu et al. | The Effect of Two Different Types of Human-Computer Interactions on User's Emotion in Virtual Counseling Environment | |
Smolina | Teaching interpersonal communication in distance learning. Contemporary Issues in Philology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200121 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200121 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200313 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200331 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200427 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6712027 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |