JP2016012342A - Action control system and program - Google Patents
Action control system and program Download PDFInfo
- Publication number
- JP2016012342A JP2016012342A JP2015053474A JP2015053474A JP2016012342A JP 2016012342 A JP2016012342 A JP 2016012342A JP 2015053474 A JP2015053474 A JP 2015053474A JP 2015053474 A JP2015053474 A JP 2015053474A JP 2016012342 A JP2016012342 A JP 2016012342A
- Authority
- JP
- Japan
- Prior art keywords
- user
- emotion
- unit
- behavior
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000009471 action Effects 0.000 title claims abstract description 165
- 230000008451 emotion Effects 0.000 claims abstract description 209
- 206010037180 Psychiatric symptoms Diseases 0.000 claims description 7
- 230000002996 emotional effect Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 abstract description 32
- 230000006399 behavior Effects 0.000 description 78
- 238000012545 processing Methods 0.000 description 69
- 230000008447 perception Effects 0.000 description 50
- 238000004891 communication Methods 0.000 description 44
- 238000007906 compression Methods 0.000 description 20
- 230000008859 change Effects 0.000 description 19
- 230000006835 compression Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 17
- 238000001514 detection method Methods 0.000 description 13
- 230000008921 facial expression Effects 0.000 description 11
- 238000012790 confirmation Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 230000008909 emotion recognition Effects 0.000 description 5
- 208000019901 Anxiety disease Diseases 0.000 description 4
- 230000036506 anxiety Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 241001442654 Percnon planissimum Species 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、行動制御システム及びプログラムに関する。 The present invention relates to a behavior control system and a program.
ユーザと通話相手との会話を学習してユーザの問いかけに対する通話相手の返答を返答テーブルに蓄積する端末が知られていた(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2011−253389号公報
There has been known a terminal that learns a conversation between a user and a call partner and accumulates a response of the call partner in response to the user's inquiry in a response table (see, for example, Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Patent Application Laid-Open No. 2011-253389
自己の感情に基づいて適切な行動を行うことができなかった。 I could not take appropriate action based on my feelings.
本発明の第1の態様においては、行動制御システムであって、行動制御システムにおける現在の感情を示す感情値を決定する感情決定部と、ユーザの状態を認識するユーザ状態認識部と、感情決定部によって決定された感情値及びユーザ状態認識部が認識したユーザの状態に基づいて、実行される行動を決定する行動決定部とを備え、感情決定部は、ユーザ状態認識部が認識したユーザの状態及び行動決定部が決定した行動を実行したことに対するユーザの反応の少なくとも一方に基づいて、感情値を更新する行動制御システムが提供される。 In the first aspect of the present invention, the behavior control system includes an emotion determination unit that determines an emotion value indicating a current emotion in the behavior control system, a user state recognition unit that recognizes a user state, and an emotion determination An action determination unit that determines an action to be executed based on the emotion value determined by the unit and the user state recognized by the user state recognition unit. A behavior control system is provided that updates an emotion value based on at least one of a user's response to the execution of the behavior determined by the state and behavior determination unit.
行動制御システムにおける感情を示す感情値及びユーザの状態に基づいて行動を決定するための決定情報を記憶する行動情報記憶部を更に備え、行動決定部は、感情決定部によって決定された感情値、ユーザ状態認識部が認識したユーザの状態及び決定情報に基づいて、実行される行動を決定してよい。 A behavior information storage unit for storing determination information for determining an action based on an emotion value indicating an emotion in the behavior control system and the state of the user, and the behavior determination unit includes an emotion value determined by the emotion determination unit, The action to be executed may be determined based on the user state recognized by the user state recognition unit and the determination information.
感情決定部は、ユーザ状態認識部が認識したユーザの状態に基づいて、感情値を更新し、行動制御システムは、感情決定部が更新した感情値に基づいて、行動決定部が決定した行動の実行形態を決定する行動制御部を更に備えてよい。 The emotion determination unit updates the emotion value based on the user state recognized by the user state recognition unit, and the behavior control system determines the behavior determined by the behavior determination unit based on the emotion value updated by the emotion determination unit. You may further provide the action control part which determines an execution form.
行動情報記憶部は、感情値及びユーザの状態に基づいて感情値を更新するための感情更新情報を更に記憶し、感情決定部は、感情決定部によって決定された感情値及びユーザ状態認識部が認識したユーザの状態に対応付けて行動情報記憶部が記憶している感情更新情報に基づいて、感情値を更新し、行動制御部は、感情決定部が更新した感情値に基づいて、行動決定部が決定した行動の実行形態を決定し、感情決定部は、行動決定部が決定した行動を行動制御部が決定した実行形態で実行したことに対するユーザの反応に基づいて、感情値を更に更新してよい。 The behavior information storage unit further stores emotion update information for updating the emotion value based on the emotion value and the user state, and the emotion determination unit includes the emotion value and user state recognition unit determined by the emotion determination unit. The emotion value is updated based on the emotion update information stored in the behavior information storage unit in association with the recognized user state, and the behavior control unit determines the behavior based on the emotion value updated by the emotion determination unit. The action determination unit determines the action execution mode determined by the unit, and the emotion determination unit further updates the emotion value based on the user's reaction to the action determined by the action control unit determined by the action control unit. You can do it.
決定情報は、ユーザに対して音声で発話する行動をユーザの状態に基づいて決定するための情報を含み、行動制御部は、感情決定部が更新した感情値に基づいて、音声の発声速度を決定してよい。 The determination information includes information for determining an action to be uttered by voice to the user based on the state of the user, and the action control unit determines the voice utterance speed based on the emotion value updated by the emotion determination unit. You may decide.
行動制御部は、感情決定部が更新した感情値に基づいて、行動決定部が決定した行動を行う場合の態度を決定してよい。 The behavior control unit may determine an attitude when performing the behavior determined by the behavior determination unit based on the emotion value updated by the emotion determination unit.
感情値は、悲しさの強さを表し、感情決定部は、行動決定部が決定した行動を行動制御部が決定した実行形態でユーザに対して行ったことに対するユーザの反応が不良であった場合に、悲しさの強さを表す感情値を、より大きい悲しさの強さを表す値に変更してよい。 The emotion value represents the strength of sadness, and the emotion determination unit has a poor user response to the user performing the action determined by the behavior determination unit in the execution mode determined by the behavior control unit In this case, the emotion value representing the intensity of sadness may be changed to a value representing the intensity of greater sadness.
感情値は、悲しさの強さを表すパラメータ値を含み、感情決定部は、ユーザ状態認識部が認識したユーザの状態に基づいて行動決定部がユーザに対する行動を決定できなかった場合に、悲しさの強さを表す感情値を、より大きい悲しさの強さを表す値に変更してよい。 The emotion value includes a parameter value representing the intensity of sadness, and the emotion determination unit is sad when the behavior determination unit cannot determine an action for the user based on the user state recognized by the user state recognition unit. The emotion value representing the strength of the sadness may be changed to a value representing the strength of the greater sadness.
ユーザの状態は、ユーザの感情の種類を含んでよい。 The user state may include the type of emotion of the user.
ユーザの感情は、寂しさの感情を含み、感情値は、心配の強さを表し、ユーザ状態認識部は、ユーザが寂しさを感じている状態にあることを認識し、感情決定部は、ユーザ状態認識部によってユーザが寂しさを感じている状態にあると認識された場合に、心配の強さを表す感情値を、より大きい心配の強さを表す値に変更してよい。 The user's emotion includes the feeling of loneliness, the emotion value represents the strength of worry, the user state recognition unit recognizes that the user feels loneliness, and the emotion determination unit When the user state recognizing unit recognizes that the user feels loneliness, the emotion value indicating the intensity of worry may be changed to a value indicating the greater intensity of worry.
本発明の第2の態様においては、コンピュータを、上記の行動制御システムとして機能させるためのプログラムが提供される。 In the 2nd aspect of this invention, the program for functioning a computer as said behavior control system is provided.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、本実施形態に係るシステム5の一例を概略的に示す。システム5は、ロボット100、ロボット101、ロボット102、及びサーバ200を備える。ユーザ10a、ユーザ10b、ユーザ10c、及びユーザ10dは、ロボット100のユーザである。ユーザ11a、ユーザ11b及びユーザ11cは、ロボット101のユーザである。ユーザ12a及びユーザ12bは、ロボット102のユーザである。なお、本実施形態の説明において、ユーザ10a、ユーザ10b、ユーザ10c、及びユーザ10dを、ユーザ10と総称する場合がある。また、ユーザ11a、ユーザ11b及びユーザ11cを、ユーザ11と総称する場合がある。また、ユーザ12a及びユーザ12bを、ユーザ12と総称する場合がある。ロボット101及びロボット102は、ロボット100と略同一の機能を有する。そのため、ロボット100の機能を主として取り上げてシステム5を説明する。
FIG. 1 schematically shows an example of a
ロボット100は、ユーザ10と会話を行ったり、ユーザ10に映像を提供したりする。このとき、ロボット100は、通信網20を介して通信可能なサーバ200等と連携して、ユーザ10との会話や、ユーザ10への映像等の提供を行う。例えば、ロボット100は、自身で適切な会話を学習するだけでなく、サーバ200と連携して、ユーザ10とより適切に会話を進められるように学習を行う。また、ロボット100は、撮影したユーザ10の映像データ等をサーバ200に記録させ、必要に応じて映像データ等をサーバ200に要求して、ユーザ10に提供する。
The
また、ロボット100は、自身の感情の種類を表す感情値を持つ。例えば、ロボット100は、「喜」、「怒」、「哀」、「楽」、「快」、「不快」、「安心」、「不安」、「悲しみ」、「興奮」、「心配」、「安堵」、「充実感」、「虚無感」及び「普通」のそれぞれの感情の強さを表す感情値を持つ。ロボット100は、例えば興奮の感情値が大きい状態でユーザ10と会話するときは、早いスピードで音声を発する。このように、ロボット100は、自己の感情を行動で表現することができる。
The
また、ロボット100は、ユーザ10の感情を認識する機能を有する。ロボット100は、カメラ機能で取得したユーザ10の顔画像や、マイク機能で取得したユーザ10の音声を解析することによって、ユーザ10の感情を認識する。ロボット100は、認識したユーザ10の感情等に基づいて、ロボット100が実行する行動を決定する。例えば、ロボット100は、ユーザ10が寂しそうだと認識した場合に、ユーザ10に対して声をかける等の行動を実行する。
The
ロボット100は、ユーザ10の感情や自己の感情等に基づいてロボット100が実行する行動を定めたルールを記憶しており、ルールに従って各種の行動を行う。図2及び図3等に関連して、ルールに基づく行動の一例を概略的に説明する。
The
図2は、ロボット100がユーザ10に対して実行する行動を概略的に示す。ロボット100には、ユーザ10の感情に基づいて行動を決定するための反応ルールを有している。図示された反応ルールによると、ロボット100の感情が「普通」であり、ユーザの状態が「1人、寂しそう」という条件が満たされた場合に、ロボット100の感情が「心配になる」という感情の変化内容と、「声をかける」の行動を実行できることが定められている。ここで、行動には、ユーザ10の思いやりの強さを表す思いやりポイントが対応付けられている。
FIG. 2 schematically shows actions that the
ロボット100は、反応ルールに基づいて、ロボット100の現在の感情が「普通」であり、かつ、ユーザ10が1人で寂しそうな状態にあると認識した場合、ロボット100の「心配」の感情値を増大させる。また、ロボット100は、反応ルールで定められた「声をかける」という行動を、ユーザ10に対して実行する行動として選択する。例えば、ロボット100は、「声をかける」という行動を選択した場合に、心配していることを表す「どうしたの?」という言葉を、心配そうな音声に変換して出力する。
If the
ロボット100は、ユーザ10に音声を出力した後に、ユーザ10の感情の変化を認識する。例えば、ロボット100が「どうしたの?」という音声を出力した後に、ユーザ10が「ありがとう。大丈夫だよ!」と返答すると、ロボット100は、ユーザ10の返答を音声解析することによって、ユーザ10の感情が好転したと認識する。ロボット100は、「声をかける」という行動によって、ユーザ10の感情が好転したことから、「声をかける」という行動が思いやり度の高い行動であったと判断して、「声をかける」という行動の思いやりポイントを高める。これにより、ロボット100は、ユーザ10にとって適正な行動を学習していくことができる。
The
また、ロボット100は、この行動によって、ユーザ10からポジティブな反応が得られたことを示すユーザ反応情報を、サーバ200に送信する。ユーザ反応情報には、例えば、「一人、寂しそう」という条件、「声をかける」という行動、ユーザ10の反応がポジティブであったこと、及びユーザ10の属性が含まれる。
In addition, the
サーバ200は、ロボット100から受信したユーザ反応情報を記憶する。なお、サーバ200は、ロボット100だけでなく、ロボット101及びロボット102のそれぞれからもユーザ反応情報を受信して記憶する。そして、サーバ200は、ロボット100、ロボット101及びロボット102からのユーザ反応情報を解析して、推奨される反応ルールを生成する。
The
ロボット100は、推奨される反応ルールをサーバ200に問い合わせることにより、推奨される反応ルールをサーバ200から受信する。ロボット100は、推奨される反応ルールを、ロボット100が記憶している反応ルールに組み込む。これにより、ロボット100は、ロボット101やロボット102等が獲得した反応ルールを、自身の反応ルールに組み込むことができる。
The
図3は、ロボット100がサーバ200に記録させるデータの記録形式の切り換えを実行する場面を概略的に示す。ロボット100には、ユーザ10の感情に基づいて記録形式の切り換えを行うための記録形式切換ルールを有している。図示された記録形式切換ルールによると、「一定人数以上の家族がいる」及び「一定数以上、家族の笑顔が検出された」という条件が満たされた場合に、データの記録形式を「低圧縮形式に切り換える」という行動が定められている。
FIG. 3 schematically shows a scene in which the
ロボット100は、この記録形式切換ルールの条件が満されていない期間には、ユーザ10の骨格データ等の高圧縮データを連続的にサーバ200に送信して、サーバ200に記録させる。なお、骨格データは、ユーザの形状を表現する形状データの一例である。ロボット100は、記録形式切換ルールの条件が満たされたと判断すると、フルHDの映像データ及び音声データの送信を開始して、骨格データに加えて、フルHDの映像データ及び音声データを含む低圧縮データをサーバ200に記録させる。
The
そして、ロボット100は、ユーザ10に何か楽しい映像を提供する場合に、サーバ200にフルHDの映像データ及び音声データを送信するよう要求して、サーバ200から受信した映像データをユーザ10に提供する。これにより、ロボット100は、ユーザ10が強く思い出に残るようなシーンに遭遇した場合に、そのシーンの高画質な映像データをサーバ200に蓄積することができる。
Then, when providing the
図4は、ロボット100の機能構成を概略的に示す。ロボット100は、センサ部400と、センサモジュール部410と、格納部420と、ユーザ状態認識部430と、条件判断部434と、ユーザ反応認識部432と、行動決定部440と、感情決定部442と、ルール更新部422と、通信処理部480と、記録データ生成部470と、切換制御部477と、ラベル生成部478と、制御対象452とを有する。
FIG. 4 schematically shows a functional configuration of the
制御対象452は、表示装置、スピーカ及び目部のLED、並びに、腕、手及び足等を駆動するモータ等を含む。ロボット100の姿勢や仕草は、腕、手及び足等のモータを制御することにより制御される。ロボット100の感情の一部は、これらのモータを制御することにより表現できる。また、ロボット100の目部のLEDの発光状態を制御することによっても、ロボット100の感情の一部を表現できる。なお、ロボット100の姿勢、仕草及び表情は、ロボット100の態度の一例である。
The
センサ部400は、マイク401と、3D深度センサ402と、2Dカメラ403と、距離センサ404とを含む。マイク401は、音声を連続的に検出して音声データを出力する。なお、マイク401は、ロボット100の頭部に設けられ、バイノーラル録音を行う機能を有してよい。3D深度センサ402は、赤外線パターンを連続的に照射して、赤外線カメラで連続的に撮影された赤外線画像から赤外線パターンを解析することによって、物体の輪郭を検出する。2Dカメラ403は、イメージセンサの一例である。2Dカメラ403は、可視光によって撮影して、可視光の映像情報を生成する。距離センサは、例えばレーザや超音波等を照射して物体までの距離を検出する。なお、センサ部400は、この他にも、時計、ジャイロセンサ、タッチセンサ、モータフィードバック用のセンサ等を含んでよい。
The sensor unit 400 includes a
なお、図4に示すロボット100の構成要素のうち、制御対象452及びセンサ部400を除く構成要素は、ロボット100が有する行動制御システムが有する構成要素の一例である。ロボット100の行動制御システムは、制御対象452を制御の対象とする。
Note that, among the components of the
格納部420は、反応ルール421と、知覚確認ルール417と、意味理解ルール419と、記録形式切換ルール471と、人物DB424とを含む。格納部420の少なくとも一部は、メモリ等の記憶媒体によって実装される。人物DB424は、ユーザ10の顔画像、ユーザ10の属性情報等を格納する。なお、図4に示すロボット100の構成要素のうち、制御対象452、センサ部400及び格納部420を除く構成要素の機能は、CPUがプログラムに基づいて動作することによって実現できる。例えば、基本ソフトウエア(OS)及びOS上で動作するプログラムによって、これらの構成要素の機能をCPUの動作として実装できる。
The
センサモジュール部410は、音声感情認識部411と、発話理解部412と、表情認識部413と、顔認識部414とを含む。センサモジュール部410には、センサ部400で検出された情報が入力される。センサモジュール部410は、センサ部400で検出された情報を解析して、解析結果をユーザ状態認識部430に出力する。
The
センサモジュール部410の音声感情認識部411は、マイク401で検出されたユーザ10の音声を解析して、ユーザ10の感情を認識する。例えば、音声感情認識部411は、音声の周波数成分等の特徴量を抽出して、抽出した特徴量に基づいて、ユーザ10の感情を認識する。発話理解部412は、マイク401で検出されたユーザ10の音声を解析して、ユーザ10の発話内容を表す文字情報を出力する。
The voice
表情認識部413は、2Dカメラ403で撮影されたユーザ10の画像から、ユーザ10の表情及びユーザ10の感情を認識する。例えば、表情認識部413は、目及び口の形状、位置関係等に基づいて、ユーザ10の表情及び感情を認識する。
The facial
顔認識部414は、ユーザ10の顔を認識する。顔認識部414は、人物DB424に格納されている顔画像と、2Dカメラ403によって撮影されたユーザ10の顔画像とをマッチングすることによって、ユーザ10を認識する。
The
ユーザ状態認識部430は、ユーザ10の状態を認識する。ユーザ状態認識部430は、知覚処理部416及び意味理解部418を含む。センサモジュール部410で解析された情報は、知覚処理部416に出力される。知覚処理部416は、センサモジュール部410の解析結果及び格納部420の知覚確認ルール417を用いて、主として知覚に関する処理を行う。例えば、知覚処理部416は、「パパが1人です。」、「パパが笑顔でない確率90%です。」等の知覚情報を生成する。
The user
意味理解部418は、知覚処理部416で生成された知覚情報の意味を、格納部420の意味理解ルール419を用いて理解する処理を行う。例えば、意味理解部418は、「パパが1人、寂しそうです。」等の意味情報を生成する。なお、知覚情報や意味情報は、ユーザ10の状態を表す情報の一例である。ここで、ユーザ10の状態を表す情報とは、ユーザ10の感情を表す情報を含んでよい。
The meaning understanding unit 418 performs processing for understanding the meaning of the perceptual information generated by the
意味理解部418によって生成された意味情報は、条件判断部434、ユーザ反応認識部432及びラベル生成部478に出力される。
The semantic information generated by the semantic understanding unit 418 is output to the
条件判断部434は、意味情報と、格納部420の反応ルール421に基づいて、反応ルール421で定められている条件が満たされたことを判断する。なお、反応ルール421は、ロボット100の行動を決定するための決定情報の一例である。上述したように、反応ルール421によって、複数の行動及び複数の行動のそれぞれの思いやりポイントが対応付けられる。また、反応ルール421には、ロボット100における感情を示す感情値及びユーザ10の状態に基づいて行動を決定するための情報が含まれる。このように、格納部420は、ユーザの状態に基づいて行動を決定するための情報を記憶する行動情報記憶部の一例として機能する。
The
条件判断部434は、反応ルール421によって記憶されている条件が満たされたことを判断する。行動決定部440は、条件判断部434によって満たされたことが判断された条件に対応付けて反応ルール421で記憶されている複数の行動の中から、実行する行動を決定する。具体的には、行動決定部440は、条件判断部434によって満たされたことが判断された条件に対応付けて反応ルール421によって記憶されている複数の行動のそれぞれの思いやりポイントに基づいて、実行する行動を決定する。このように、行動決定部440は、ユーザ状態認識部430が認識したユーザ10の状態と、反応ルール421の情報とに基づいて、実行する行動を決定する。
The
感情決定部442は、意味理解部418によって生成された意味情報に基づいて、ロボット100の現在の感情を示す感情値を決定する。このように、感情決定部442は、ユーザ状態認識部430が認識したユーザの状態に基づいて、ロボット100の現在の感情を示す感情値を決定する。
The emotion determination unit 442 determines an emotion value indicating the current emotion of the
行動制御部450は、行動決定部440が決定した行動に基づいて、制御対象452を制御する。例えば、行動制御部450は、行動決定部440が発話することを決定した場合に、制御対象452に含まれるスピーカから音声を出力させる。このとき、行動制御部450は、感情決定部442が更新した感情値に基づいて、音声の発声速度を決定する。例えば、行動制御部450は、興奮の感情値が大きいほど、速い発生速度を決定する。このように、行動制御部450は、感情決定部442が決定した感情値に基づいて、行動決定部440が決定した行動の実行形態を決定する。
The
ユーザ反応認識部432は、行動決定部440が決定した行動を実行したことに対するユーザ10の感情の変化を認識する。なお、ユーザ10の感情の変化は、ユーザ10の反応の一例である。すなわち、ユーザ反応認識部432は、行動決定部440が決定した行動を実行したことに対するユーザ10の反応を認識する。なお、ユーザ反応認識部432は、ユーザ10の音声や表情に基づいて感情の変化を認識してよい。その他、ユーザ反応認識部432は、センサ部400に含まれるタッチセンサで衝撃が検出されたことに基づいて、ユーザ10の感情の変化を認識してよい。例えば、ユーザ反応認識部432は、センサ部400に含まれるタッチセンサで衝撃が検出された場合に、ユーザ10の感情が悪くなったと認識してよい。
The user
ユーザ反応認識部432によって認識されたユーザ10の反応を示す情報は、感情決定部442、通信処理部480及びラベル生成部478に出力される。上述したように、感情決定部442は、ユーザ状態認識部430によってユーザ10が寂しそうと認識された場合、反応ルール421に従って、悲しさの感情値を増大させてよい。また、ユーザ反応認識部432によって、ユーザ10が笑顔になったと認識された場合、反応ルール421によって、喜び感情値を増大させてよい。このように、感情決定部442は、ユーザ状態認識部430が認識したユーザの状態及び行動決定部440が決定した行動を実行したことに対するユーザの反応の少なくとも一方に基づいて、感情値を更新する。
Information indicating the reaction of the
また、ルール更新部422は、ユーザ反応認識部432が認識したユーザ10の感情の変化に基づいて、行動決定部440が決定した行動に対応づけて反応ルール421によって記憶されている思いやりポイントを変更する。具体的には、ルール更新部422は、ユーザ反応認識部432が認識したユーザ10の感情の変化に基づいて、条件判断部434によって満たされたことが判断された条件に対応付けて反応ルール421によって記憶されている複数の行動の思いやりポイントのうち、行動決定部440が決定した行動の思いやりポイントを変更する。例えば、ルール更新部422は、ユーザ反応認識部432によってユーザ10の感情が良くなったことが認識された場合に、条件判断部434によって満たされたことが判断された条件及び行動決定部440が決定した行動に対応付けて反応ルール421によって記憶されている思いやりポイントを大きくする。一方、ルール更新部422は、ユーザ反応認識部432によってユーザ10の感情が悪くなったことが認識された場合に、条件判断部434によって満たされたことが判断された条件及び行動決定部440が決定した行動に対応付けて反応ルール421によって記憶されている思いやりポイントを小さくする。
Also, the
通信処理部480は、サーバ200との通信を担う。上述したように、通信処理部480は、ユーザ反応情報をサーバ200に送信する。このように、通信処理部480は、ユーザ状態認識部430が認識したユーザ10の状態、行動決定部440が決定した行動、及びユーザ反応認識部432が認識したユーザ10の反応を、サーバ200に送信する。また、通信処理部480は、行動決定部440がユーザ10の状態と反応ルール421とに基づいて実行する行動を決定できなかった場合に、推奨される反応ルールをサーバ200から受信する。このように、通信処理部480は、行動決定部440がユーザ10の状態と反応ルール421とに基づいて実行する行動を決定できなかった場合に、ユーザ状態認識部430が認識したユーザ10の状態に適した行動を、サーバ200から受信する。
The
ルール更新部422は、通信処理部480がサーバ200から受信した、推奨される反応ルールに基づいて、反応ルール421を更新する。このように、ルール更新部422は、通信処理部480がサーバ200から受信した行動に基づいて、反応ルール421を更新する。
The
なお、感情決定部442は、ユーザ状態認識部430が認識したユーザ10の状態に基づいて行動決定部440がユーザに対する行動を決定できなかった場合に、悲しさの強さを表す感情値を、より大きい悲しさの強さを表す値に変更してよい。
In addition, the emotion determination part 442, when the action determination part 440 cannot determine the action with respect to the user based on the state of the
記録データ生成部470は、センサ部400によって検出された情報に基づいて、サーバ200に記録させるデータを生成する。通信処理部480は、記録データ生成部470が生成した情報を、外部のサーバに送信してサーバに記録させる。
The recording
例えば、記録データ生成部470は、3D深度センサ402により連続的に検出された骨格情報に基づいて、記録用の骨格データを連続的に生成する。また、記録データ生成部470は、2Dカメラ403によって撮影された映像情報に基づいて、記録用の映像データを生成する。例えば、記録データ生成部470は、フルHDの映像データを生成する。また、記録データ生成部470は、マイク401により連続的に検出された音声情報に基づいて、記録用の音声データを生成する。
For example, the recording
ここで、映像データは、例えばフルHDの映像データであり、骨格データより情報量が多い。したがって、骨格データは、高圧縮データとみなすことができ、映像データは、低圧縮データとみなすことができる。このように、骨格データは、第1記録形式の情報の一例であり、映像データは、第1記録形式の情報より情報量が多い第2記録形式の情報の一例である。このように、記録データ生成部470は、ユーザ10を連続的に検出するセンサによって検出された情報の少なくとも一部を連続的に処理して、第1記録形式の情報又は第1記録形式の情報より情報量が多い第2記録形式の情報を生成する。
Here, the video data is, for example, full HD video data and has a larger amount of information than the skeleton data. Therefore, the skeleton data can be regarded as high-compression data, and the video data can be regarded as low-compression data. Thus, the skeleton data is an example of information in the first recording format, and the video data is an example of information in the second recording format that has a larger amount of information than the information in the first recording format. As described above, the recording
ここで、知覚処理部416は、センサ部400によって検出された情報の少なくとも一部に基づいて、認識された家族の数及び笑顔が検出された家族の数を知覚する。上述したように、知覚処理部416は、センサ部400によって検出されたユーザ10の画像及びユーザ10の音声の少なくとも一方に基づいて、笑っているユーザを知覚する。ここで、笑顔は、ユーザ10の感情の強さを表す情報の一例である。したがって、笑顔が検出された家族の数は、複数のユーザ10のそれぞれの感情の強さの合計値の一例である。このように、知覚処理部416は、センサ部400によって検出された情報の少なくとも一部に基づいて、ユーザの感情の強さを検出する。
Here, the
そして、知覚処理部416は、記録形式切換ルール471に基づいて、一定数以上の家族が認識され、かつ、一定数以上の家族の笑顔が検出されたか否かを知覚する。そして、切換制御部477は、記録データ生成部470に骨格データを生成させている場合に、知覚処理部416によって一定数以上の家族が認識され、かつ、一定数以上の家族の笑顔が検出されたことに応じて、記録データ生成部470に映像データの生成を開始させる。このように、切換制御部477は、記録データ生成部470に第1記録形式の情報を生成させている場合に、複数のユーザ10の数が予め定められた人数を超え、かつ、検出された感情の強さの合計値が予め定められた閾値を超えたことに応じて、記録データ生成部470に生成させる情報の記録形式を、第1記録形式から、第1記録形式の情報より情報量が多い第2記録形式に切り換える。
Based on the recording
ラベル生成部478は、記録データに付帯されて記録されるラベルを生成する。ラベルは、記録データに付帯される付帯情報の一例である。ラベル生成部478は、例えば「ヨシコちゃんのお誕生日」、「ヨシコちゃんの誕生パーティー」等の言葉を含むラベルを生成する。ラベルの他の例としては、「進学祝い」、「クリスマス」及び「正月」等を例示できる。ラベル生成部478は、日時情報や、ユーザ10への質問に対してユーザ反応認識部432で認識された返答内容に基づいて、誕生日であることや誕生パーティーをしている等の状況を判断して、判断した状況に基づいてラベルを生成する。このように、ラベル生成部478は、センサ部400サで検出された情報の少なくとも一部に基づいて、現在の状況を表す1以上の言葉を含むラベルを生成する。通信処理部480は、記録データ生成部470が生成した記録データにラベル生成部478が生成したラベルを対応付けて、サーバ200に送信してサーバ200に記録させる。
The
図5は、サーバ200の機能構成を概略的に示す。サーバ200は、格納部520と、反応ルール生成部530と、反応ルール検索部540と、統計情報制御部550と、アクセス制御部560と、通信処理部580とを有する。
FIG. 5 schematically shows a functional configuration of the
格納部520には、反応ルール521、反応ルール統計情報522及び記録データ561が格納される。反応ルール521は、反応ルール421と同様の情報を含む。反応ルール統計情報522は、反応ルール421と同様の情報に加えて、ユーザ10、ユーザ11及びユーザ12の属性情報と、ポジティブな反応が得られた割合の情報を含む。記録データ561は、上述した骨格データ、映像データ及び音声データ等の、記録用のデータである。
The
通信処理部580は、ロボット100、ロボット101及びロボット102とサーバ200との間の通信を担う。通信処理部580は、ロボット100から送信されたユーザ反応情報を受信する。上述したように、ロボット101及びロボット102も、ロボット100が有する機能と同様の機能を有する。したがって、例えばロボット101は、ユーザ11に対して実行した行動に対する反応を含むユーザ反応情報を、サーバ200に送信する。通信処理部580は、ロボット101から送信されたユーザ反応情報及びロボット102から送信されたユーザ反応情報を受信する。このように、通信処理部580は、ロボット101において認識されたユーザ11の状態、ロボット101においてユーザ11の状態に基づいて決定された行動、及び当該行動が実行されたことに対するユーザ11の反応を、ロボット101から受信する。
The
統計情報制御部550は、格納部520の反応ルール統計情報522として、通信処理部580が受信したユーザ反応情報を蓄積する。このように、格納部520には、通信処理部580が受信したユーザの状態、行動、及びユーザの反応を対応づけて記憶される。統計情報制御部550に蓄積されるユーザ反応情報は、ユーザ10に関するユーザ反応情報、ユーザ11に関するユーザ反応情報及びユーザ12に関するユーザ反応情報を含む。
The statistical
反応ルール生成部530は、反応ルール統計情報522に蓄積されているユーザ反応情報に基づいて、推奨される反応ルールを生成して、反応ルール521として格納する。反応ルール統計情報522に含まれる情報に基づいて、ポジティブな反応が得られた行動を含む反応ルールを、推奨される反応ルールとして生成する。
The reaction
ここで、ロボット100が、推奨される反応ルールをサーバ200に問い合わせた場合の動作を説明する。ロボット100は、ロボット100において認識されたユーザ10の状態をサーバ200に送信することによって、推奨される反応ルールをサーバ200に問い合わせる。この場合、反応ルール検索部540は、通信処理部580が受信したユーザ10の状態によって満たされる条件を有する反応ルールを、反応ルール521及び反応ルール統計情報522の少なくとも一方から検索する。通信処理部580は、反応ルール検索部540によって検索された反応ルールを、推奨される反応ルールとしてロボット100に送信する。
Here, an operation when the
このように、反応ルール検索部540は、通信処理部580が受信したユーザ10の状態に合致する状態に対応付けて行動結果記憶部が記憶しているユーザ10の反応に基づいて、通信処理部580が受信したユーザの状態に合致する状態に対応付けて反応ルール統計情報522に記憶されている行動の中から、通信処理部580が受信したユーザ10の状態に適した行動を選択する。通信処理部580は、反応ルール検索部540が選択した行動を、ロボット100に送信する。
As described above, the reaction
アクセス制御部560は、通信処理部580がロボット100、ロボット101及びロボット102からそれぞれ受信した記録データを、格納部520の記録データ561に格納する。また、アクセス制御部560は、記録データの送信要求を通信処理部580が受信した場合、要求された記録データを記録データ561から読み出して、通信処理部580に送信させる。
The
なお、図5に示すロボット100の構成要素のうち、格納部420を除く構成要素の機能は、CPUがプログラムに基づいて動作することによって実現できる。例えば、基本ソフトウエア(OS)及びOS上で動作するプログラムによって、これらの構成要素の機能をCPUの動作として実装できる。
Of the components of the
図6は、知覚処理部416が知覚する情報を概略的に示す。知覚処理部416は、3D深度センサ402による人物検出情報601、顔認識部414による顔検出情報602及びユーザ認識情報603が入力されると、人物検出情報601、顔検出情報602及びユーザ認識情報603を統合して、知覚情報611、知覚情報612及び知覚情報613を生成する。続いて、表情認識部413からの笑顔検出情報604が入力されると、笑顔検出情報604を変換して、知覚情報614を生成する。また、知覚処理部416は、知覚情報614で知覚した笑顔でない確率の高さに基づいて、「パパもしかして寂しい?」と知覚する(知覚情報615)。
FIG. 6 schematically shows information perceived by the
ここで、知覚確認ルール417には、「もしかして寂しい?」と知覚した場合の知覚確認ルールとして、「誰かが1人」かつ「笑顔である確率が20%以下」という条件部と、「マイクから30秒、発話がないか確認する」という結論部とを持つ知覚確認ルール630が含まれている。知覚処理部416は、知覚情報613及び笑顔検出情報604から、知覚確認ルール630の条件部が満たされると判断して、知覚確認ルール630の結論部に基づいて、マイク401による検出結果の確認を実行する。具体的には、知覚処理部416は、マイク401から出力される音声を発話理解部412に解析させる。
Here, in the
ここで、発話理解部412は、マイク401によって音声が30秒間検出されなかった場合に、発話が30秒間検出されなかったことを示すタイムアウト情報を出力する。知覚処理部416は、発話理解部412からのタイムアウト情報605が入力されると、タイムアウト情報605を「パパは何も話しません。」という知覚情報616に変換する。
Here, when the voice is not detected by the
このようにして、知覚処理部416は、知覚情報611、知覚情報612、知覚情報613、知覚情報614、知覚情報615及び知覚情報616を含む知覚履歴610を生成する。知覚処理部416は、生成した知覚情報を、意味理解部418に出力する。
In this way, the
図7は、意味理解部418が理解する情報を概略的に示す。意味理解部418には、知覚処理部416が生成した知覚履歴610が入力される。意味理解部418は、知覚情報611、知覚情報612、知覚情報613、知覚情報614及び知覚情報615から、それぞれ意味情報711、意味情報712、意味情報713、意味情報714及び意味情報715を生成する。
FIG. 7 schematically shows information understood by the semantic understanding unit 418. The
なお、知覚情報614から意味情報714を生成する場合、意味理解部418は、意味理解部418は、知覚情報614に含まれる「確率90%」という数値情報を、「あまり〜でない」という情報に曖昧化する。これにより、意味理解部418は、知覚情報614を曖昧化した意味情報714を生成する。 When the semantic information 714 is generated from the perceptual information 614, the semantic understanding unit 418 converts the numerical information “probability 90%” included in the perceptual information 614 into information “not so much”. Vague. As a result, the semantic understanding unit 418 generates semantic information 714 obtained by obscuring the perceptual information 614.
ここで、意味理解ルール419には、「もしかして寂しい?」と理解した場合の意味確認ルールとして、「誰かが1人」かつ「あまり笑顔でない」かつ「何も話さない」という条件部と、「誰かが1人、寂しそう」と理解するという結論部とを持つ意味理解ルール730が含まれる。意味理解部418は、意味理解ルール730に基づいて、意味情報713、意味情報714及び知覚情報616が意味理解ルール730の条件部を満たすと判断すると、「パパが1人、寂しそうです。」という意味情報717を生成する。このように、意味理解部418は、意味理解ルール730を用いて、意味情報714及び知覚情報616を統合して意味情報717を生成する。
Here, in the meaning
このようにして、意味理解部418は、意味情報711、意味情報712、意味情報713、意味情報714、意味情報715及び意味情報717を含む意味履歴710を生成する。意味理解部418が生成した意味情報は、条件判断部434、ユーザ反応認識部432及びラベル生成部478に出力される。
In this way, the semantic understanding unit 418 generates the
図6及び図7等に関連して説明したように、知覚処理部416及び意味理解部418においては、知覚結果の正確性を失いながらも、知覚結果の意味を、パターン化した言語を用いて曖昧に記憶する。
As described with reference to FIGS. 6 and 7, the
図8は、反応ルール421に含まれる情報をテーブル形式で示す。反応ルール421は、「自己感情」及び「ユーザ状態」の条件を含む条件部と、「感情変化」及び「行動」を含む結論部と、「思いやりポイント」及び「褒められポイント」を含む「付属情報」とを含む。
FIG. 8 shows information included in the
「自己感情」の条件は、ロボット100の自己の感情に関する条件である。「ユーザ状態」は、ユーザ10の状態に関する条件である。「感情変化」は、ロボット100の感情をどのように変更させるかを示す。「行動」は、ロボット100が実行できる行動を表す。「思いやりポイント」は、ユーザ10に対する思いやりの度合いを示す。「思いやりポイント」は、適正度の一例である。
The condition of “self emotion” is a condition related to the self emotion of the
図示されるように、反応ルール421の条件部は、「普通である」という「自己感情」の条件と、「誰かが一人、寂しそう」という「ユーザ状態」とを含む。この条件部に対応する結論部には、「心配になる」という感情変化を表す「感情変化」が含まれている。また、この条件部に対応する結論部として、「声をかける」、「心配そうな仕草だけ返す」及び「挨拶をする」という行動を示す「行動」が含まれている。また、「付属情報」によって、これらの「声をかける」、「心配そうな仕草だけ返す」及び「挨拶をする」という行動に対する「思いやりポイント」として、それぞれ30ポイント、20ポイント及び10ポイントが対応付けられている。また、「付属情報」によって、これらの「声をかける」、「心配そうな仕草だけ返す」及び「挨拶をする」という行動に対する「褒められポイント」として、それぞれ50ポイント、30ポイント及び30ポイントが対応付けられている。
As shown in the figure, the condition part of the
このように、反応ルール421は、満たされるべきユーザの状態を示す条件と、条件に対応付けられた行動とを示す情報を含む。また、反応ルール421は、満たされるべきロボット100の感情を示す条件と、条件に対応付けられた行動とを示す情報を含む。また、反応ルール421は、ロボット100の感情値及びユーザ10の状態に基づいて感情値を変更するための感情変更情報を含む。そして、感情決定部442は、感情決定部442によって決定された感情値及びユーザ状態認識部430が認識したユーザ10の状態に対応付けて反応ルール421によって記憶されている感情変更情報に基づいて、感情値を更新する。
Thus, the
図9は、反応ルール421に基づく処理を概略的に示す。条件判断部434は、意味理解部418から「パパが一人、寂しそう」という意味情報717が入力されると、「パパが一人、寂しそう」というユーザ10の状態と、現在のロボット100の感情である「普通」の感情とによって満たされる条件部を、反応ルール421から検索する。
FIG. 9 schematically shows processing based on the
条件判断部434は、「パパが一人、寂しそう」というユーザ10の状態と、「普通」の感情とが、反応ルール421内の反応ルール810の条件部を満たすと判断する。これにより、行動決定部440は、反応ルール810で定められた「声をかける」、「心配そうな仕草だけ返す」及び「挨拶をする」を、行動の候補910として特定する。そして、行動決定部440は、特定した行動の候補910の中から、実際に実行する行動を選択する。例えば、行動決定部440は、思いやりポイントの大きさに応じた選択確率で、1つの行動を選択する。ここでは、行動決定部440は、「声をかける」という行動を選択したとする。
The
また、感情決定部442は、反応ルール810で定められた「心配になる」という感情の変化内容に基づいて、感情値を更新する。例えば、感情決定部442は、心配さの強さを表す「心配」の感情値を増大させる。このように、感情決定部442は、反応ルール421に基づいて、ユーザ状態認識部430が認識したユーザ10の状態に基づいて、感情値を更新する。例えば、感情決定部442は、ユーザ状態認識部430によってユーザ10が寂しさを感じている状態にあると認識された場合に、心配の強さを表す感情値を、より大きい心配の強さを表す値に変更する。
In addition, the emotion determination unit 442 updates the emotion value based on the emotional change content “being worried” determined by the
続いて、行動制御部450は、「どうしたの?」という発話内容の音声を、制御対象452のスピーカから出力させる。このとき、行動制御部450は、現在の感情値に基づいて、心配そうな感情を表す音声特性を持つ音声を出力させる。例えば、スピードが比較的に遅い音声を生成させる。なお、行動制御部450は、「心配になる」という感情に基づいて、「どうしたの?」という発話内容を決定してよい。
Subsequently, the
続いて、ユーザ反応認識部432は、ユーザ10の反応が検出されるのを待つ。例えば、「大丈夫だよ。ありがとう!」という音声や、そのときのユーザ10の顔の表情に基づいて、「パパは少し笑顔です。」という意味情報940が意味理解部418から出力されると、ユーザ反応認識部432は、ユーザ10が「寂しそう」な感情から「楽しそう」な感情に変化したと判断する。これにより、ルール更新部422は、「声をかける」という行動によってユーザ10の感情が良くなったと判断する。これにより、「声をかける」という行動の思いやりポイントを、30ポイントから40ポイントに増加させる。また、ルール更新部422は、褒められポイントを50ポイントから60ポイントに増加させる。
Subsequently, the user
また、感情決定部442は、ロボット100が実行した行動によってユーザ10の感情が良くなったことから、喜びの感情値を増大させる。また、行動制御部450は、増大させた喜びの感情値に基づいて、喜ばしい感情になったことを動作で表現する。例えば、行動制御部450は、喜びを表す仕草を行わせる。
In addition, the emotion determination unit 442 increases the emotion value of joy because the emotion of the
また、通信処理部480は、反応ルール810に含まれる情報のうち「思いやりポイント」及び「褒められポイント」を除く情報と、ユーザ10の反応がポジティブであったことを示す情報と、「パパ」として認識されたユーザ10の属性とを含むユーザ反応情報960を、サーバ200に送信する。
The
このように、行動決定部440は、感情決定部442によって決定された感情値、ユーザ状態認識部430が認識したユーザの状態及び反応ルール421に基づいて、実行される行動を決定する。具体的には、行動決定部440は、条件判断部434によって満たされたことが判断された条件に対応付けて反応ルール421によって記憶されている複数の行動の中から、条件判断部434によって満たされたことが判断された条件に対応付けて反応ルール421によって記憶されている思いやりポイントがより高い行動を、実行する行動としてより高い頻度で決定する。なお、行動決定部440は、思いやりポイントが最大の行動を、実際に実行する行動として選択してよい。この場合において、思いやりポイントが最大の行動が複数存在する場合、行動決定部440は、思いやりポイントが最大の複数の行動の中から、実際に実行する1つの行動をランダムに選択してよい。この場合に、行動決定部440は、褒められポイントに応じた選択確率で、実際に実行する1つの行動を選択してもよい。
As described above, the action determination unit 440 determines an action to be executed based on the emotion value determined by the emotion determination unit 442, the user state recognized by the user
図10は、ロボット100において行動を決定する動作に関する動作フローの一例を概略的に示す。図10に示す動作フローは、例えば、ユーザ10の感情を含む意味情報が入力された場合に開始される。なお、動作フロー中の「S」は、実行されるステップを表す。
FIG. 10 schematically shows an example of an operation flow related to an action of determining an action in the
条件判断部434は、反応ルール421が含む条件部のうち、ロボット100の感情と、入力された意味情報とによって満される条件部を検索する(S1002)。条件判断部434は、条件部が満たされた反応ルールの有無を判断する(S1004)。条件部が満たされた反応ルールが存在すると判断した場合、行動決定部440は、検索された反応ルールの結論部で定められた行動の中から、ユーザ10に対して実行する1つの行動を選択する(S1006)。また、感情決定部442は、検索された反応ルールの結論部で定められた感情変化に基づいて、感情値を更新する(S1008)。
The
続いて、行動制御部450は、S1006で選択された行動を実行するよう、制御対象452を制御する(S1010)。このとき、行動制御部450は、S1008で更新された後の感情値に基づいて、制御対象452を制御する。例えば、「心配」の感情を表す場合、行動制御部450は、ロボット100の姿勢が心配そうな姿勢になるように、制御対象452を制御する。
Subsequently, the
続いて、ユーザ反応認識部432は、ユーザ10の反応を表す意味情報が入力されるのを監視する(S1012)。ユーザ10の反応を表す意味情報が入力されると、ユーザ反応認識部432は、入力された意味情報に基づいて、ユーザの反応がポジティブであるか否かを判断する(S1016)。
Subsequently, the user
S1016の判断において、反応がポジティブであると判断した場合、感情決定部442は、「喜び」の感情値を増加させる(S1018)。また、ルール更新部422は、実行した行動に対応する思いやりポイント及び褒められポイントを増大させる。一方、S1016の判断において、ネガティブな反応が得られた場合、感情決定部442は、「悲しみ」の感情値を増加させる(S1022)。また、ルール更新部422は、実行した行動に対応する思いやりポイント及び褒められポイントを減少させる(S1024)。
If it is determined in S1016 that the reaction is positive, the emotion determination unit 442 increases the emotion value of “joy” (S1018). Also, the
このように、ルール更新部422は、ユーザ反応認識部432が認識したユーザの反応が不良でなかった場合に、条件判断部434によって満たされたことが判断された条件及び行動決定部440が決定した行動に対応付けて反応ルール421によって記憶されている思いやりポイントを増大させる。一方、ユーザ反応認識部432が認識したユーザの反応が不良であった場合、ルール更新部422は、条件判断部434によって満たされたことが判断された条件及び行動決定部440が決定した行動に対応付けて反応ルール421によって記憶されている思いやりポイントを減少させる。
As described above, the
また、行動制御部450は、行動決定部440が決定した行動を感情に応じて決定した実行形態で実行した後、感情決定部442は、当該行動が実行されたことに対するユーザの反応に基づいて、感情値を更に変化させる。具体的には、感情決定部442は、行動決定部440が決定した行動を行動制御部450が決定した実行形態でユーザに対して行ったことに対するユーザの反応が不良でなかった場合に、喜びの強さを表す感情値を、より大きい喜びの強さを表す値に変更する。また、感情決定部442は、行動決定部440が決定した行動を行動制御部450が決定した実行形態でユーザに対して行ったことに対するユーザの反応が不良であった場合に、悲しさの強さを表す感情値を、より大きい悲しさの強さを表す値に変更する。
In addition, after the
行動制御部450は、S1018又はS1022で決定した感情値に基づいて、ロボット100の感情を表現する(S1026)。例えば、行動制御部450は、「喜び」の感情値を増加させた場合、制御対象452を制御して、ロボット100に喜んだ仕草を行わせる。また、行動制御部450は、「悲しみ」の感情値を増加させた場合、ロボット100の姿勢がうなだれた姿勢になるように、制御対象452を制御する。続いて、通信処理部480は、ユーザ反応情報をサーバ200に送信し(S1028)、ロボット100の動作の決定に関する動作を終了する。
The
なお、S1004の判断において、条件部が満たされた反応ルールが存在しなかったと判断された場合、通信処理部480は、サーバ200に対して、推奨される反応ルールの問い合わせを行う。例えば、ロボット100の感情を示す情報、入力された意味情報で表されるユーザの状態を示す情報、及び、ユーザ10の属性を示す情報を、サーバ200に送信する(S1030)。サーバ200からは、問い合わせで送信した情報に適した反応ルールが、推奨される反応ルールとしてロボット100に送信される。通信処理部480がサーバ200から推奨される反応ルールを受信すると、ルール更新部422は、推奨される反応ルールを反応ルール421に組み込んで(S1032)、S1006に移行する。この場合、S1006及びS1008では、サーバ200から受信した反応ルールに基づいて、行動の選択及び感情値の更新を行う。このように、通信処理部480は、条件判断部434によって反応ルール421に含まれるいずれの条件も満たされていないことが判断された場合に、ユーザ状態認識部430が認識したユーザの状態に適した行動を、サーバ200から受信する。
If it is determined in S1004 that there is no reaction rule that satisfies the condition part, the
なお、本動作フローによれば、条件部が満たされた反応ルールが存在しなかった場合に、推奨される反応ルールの問い合わせを行う。なお、条件部が満たされた反応ルールが存在した場合でも、どの行動に対応付けられている思いやりポイントも予め定められた値より小さい場合には、行動を決定できないと判断してよい。この場合に、通信処理部480は、推奨される反応ルールの問い合わせを行ってよい。すなわち、行動決定部440は、決定情報に含まれる情報のうち条件判断部434によって満たされたことが判断された条件に対応付けられた1以上の行動のうち、決定情報に含まれる思いやりポイントが予め定められた値より高い行動を、実行する行動として決定する。通信処理部480は、条件判断部434によって満たされたことが判断された条件に対応付けられた1以上の行動の思いやりポイントが、いずれも予め定められた値以下である場合に、ユーザ状態認識部430が認識したユーザ10の状態に適した行動を、サーバ200から受信してよい。そして、ルール更新部422は、条件判断部434によって満たされたことが判断された条件に対応付けて、通信処理部480がサーバ200から受信した行動を反応ルールに追加してよい。
According to this operation flow, when there is no reaction rule that satisfies the condition part, an inquiry about a recommended reaction rule is performed. Note that even when there is a reaction rule that satisfies the condition part, it may be determined that the action cannot be determined if the consideration point associated with any action is smaller than a predetermined value. In this case, the
なお、推奨される反応ルールの問い合わせは、行動決定部440が行動を決定できない場合の他に、バッチ処理等で定期的に行ってもよい。また、推奨される反応ルールの問い合わせは、ユーザ10が睡眠していると判断した場合や、ロボット100がアイドル状態またはスリープ状態に遷移した場合に行ってよい。その他、ロボット100が行動しようとする任意のタイミングで、推奨される反応ルールの問い合わせを行ってよい。
In addition, the inquiry of the recommended reaction rule may be periodically performed by batch processing or the like in addition to the case where the behavior determination unit 440 cannot determine the behavior. The inquiry of the recommended reaction rule may be performed when it is determined that the
また、反応ルール421は、ユーザ10に対して実行するべき行動が検索されなかった場合の行動を定めたルールを有してよい。例えば、反応ルール421は、「ユーザ10に対して実行するべき行動が検索されなかった」という条件を定めた条件部と、「推奨される反応ルールをサーバ200に問い合わせる」という行動を定めた結論部とを含むルールを有してよい。これにより、行動決定部440は、反応ルール421に従って、推奨される反応ルールをサーバ200に問い合わせすることを決定してよい。
Further, the
図11は、サーバ200が格納している反応ルール統計情報522の一例を示す。反応ルール統計情報522は、「反応ルール」、「属性」、「人数」及び「反応結果」を含む。「反応ルール」は、「条件部」、「結論部」及び「思いやりポイント」を含む。反応ルール統計情報522の「条件部」、「結論部」及び「思いやりポイント」には、反応ルール421の「条件部」、「結論部」及び「思いやりポイント」に対応する情報が格納される。
FIG. 11 shows an example of the reaction rule
反応ルール統計情報522の「属性」には、ユーザ10の属性が格納される。ユーザ10の属性には、年齢層、性別、又は家庭内での役割、住んでいる地域の情報等を含む。「人数」には、反応ルール統計情報522に蓄積されている情報に寄与した人の数が格納される。「反応結果」には、ポジティブな反応があった回数と、ポジティネガティブな反応があった回数とを示す情報が格納される。
In the “attribute” of the reaction rule
通信処理部580がロボット100からユーザ反応情報を受信した場合、統計情報制御部550は、ユーザ反応情報に含まれる属性に合致する属性に対応付けて、ユーザ反応情報に含まれる反応ルールの「条件部」及び「結論部」を、反応ルール統計情報522に格納する。また、統計情報制御部550は、ユーザ反応情報に含まれる反応の良否情報に基づいて、「ポジティブ回数」の値又は「ネガティブ回数」の値をインクリメントする。また、統計情報制御部550は、必要に応じて「人数」の値をインクリメントする。例えば、今回受信したユーザ反応情報が、過去において反応ルール統計情報522の同一レコードにユーザ反応情報を反映したことがあるユーザのユーザ反応情報である場合、「人数」の値をインクリメントしない。
When the
また、統計情報制御部550は、推奨される思いやりポイントを算出して、「反応ルール」の「思いやりポイント」に格納する。例えば、統計情報制御部550は、「ポジティブ回数」の値が大きいほど、推奨される思いやりポイントとしてより大きい値を算出する。具体的には、統計情報制御部550は、「ネガティブ回数」の値に対する「ポジティブ回数」の値の比が大きいほど、推奨される思いやりポイントとしてより大きい値を算出してよい。
Further, the statistical
通信処理部580がロボット100から推奨される反応ルールの問い合わせを受信した場合、反応ルール検索部540は、反応ルール521に格納されている反応ルールの中から、推奨される反応ルールを検索する。例えば、反応ルール検索部540は、反応ルール521から、問い合わせに含まれる「条件部」に合致する「条件部」を有する反応ルールを検索する。反応ルール検索部540によって検索された反応ルールは、問い合わせに対する応答として、通信処理部580からロボット100に送信される。
When the
なお、反応ルール検索部540は、反応ルール統計情報522に格納されている反応ルールの中から、推奨される反応ルールを検索してよい。具体的には、反応ルール検索部540は、反応ルール統計情報522に格納されている反応ルールのうち、問い合わせに含まれる「条件部」に合致する「条件部」を有し、かつ、問い合わせに含まれる「属性」に合致する「属性」を有する反応ルールを検索してよい。これにより、サーバ200は、ユーザ10の属性に適した行動をロボット100に提供できる。
The reaction
なお、図12の例では、反応ルール統計情報522では、ユーザの属性毎に反応結果が集計されている。反応ルール統計情報の他の例としては、反応結果がユーザ別に集計されていてよい。
In the example of FIG. 12, in the reaction rule
図12は、記録データに付帯されるラベルを決定するためにロボット100が実行する行動を概略的に示す。行動決定部440は、日時情報及びユーザ10の属性情報に基づいて、ユーザ10の誕生日であることが判断された場合、誕生日であるか否かをユーザ10に確認するために質問することを決定する。この場合、行動制御部450は、例えば「○○さん、今日は誕生日だね。お誕生日おめでとう!」という発話内容の音声を、制御対象452のスピーカから出力させる。
FIG. 12 schematically shows actions performed by the
その後、ユーザ反応認識部432は、ユーザ10の発話内容から、ユーザ10の反応が肯定的であったか否定的であったかを認識する。例えば、ユーザ10が「ありがとう、嬉しいよ!」という返答をした場合、ユーザ反応認識部432は、ユーザ10の反応が肯定的であったと認識する。認識されたユーザ10の名前が「ヨシコちゃん」であった場合、ラベル生成部478は、「ヨシコちゃんの誕生日」というラベルを生成する。
Thereafter, the user
ラベル生成部478は、認識されたユーザ10の名前を示す情報と、「ヨシコちゃんの誕生日」という情報とを含むラベルを、記録データに付帯するラベルとして生成する。通信処理部480は、3D深度センサ402で取得された骨格情報に基づく骨格データに、ラベル生成部478が生成したラベルを付帯した記録データを、サーバ200に連続的に送信する。サーバ200においては、ロボット100から受信した記録データを、格納部520の記録データ561に格納する。
The
意味理解部418において、3D深度センサ402から取得された骨格情報に基づく現在の骨格データによって、現在認識されている人数を算出する。また、過去の同じ時間帯に取得された骨格データをサーバ200から取得して、過去の同じ時間帯に同じ室内で認識された人数の平均値を算出する。ここで、意味理解部418は、現在認識されている人数が、過去の同じ時間帯に同じ室内で認識された人数の平均値より予め定められた閾値以上多いと認識した場合に、いつもと違う状況であると認識する。また、意味理解部418は、過去の同じ時間帯に取得された骨格データに付帯されたラベルと、現在認識されているユーザ10とを比較して、いつもは家にいないユーザ10が現在認識されていると判断した場合に、いつもと違う状況であると認識する。なお、行動制御部450は、いつもと違う状況であると認識した場合、センサ部400やセンサモジュール部410を制御して、より詳細な検出動作を行うように制御してよい。例えば、行動制御部450は、発話理解部412に対して、より高い精度で発話内容を認識するよう制御してよい。また、音声感情認識部411に対して、より高い精度で感情を認識するよう制御してよい。また、表情認識部413に対して、より高い精度で表情を認識するよう制御してよい。
The semantic understanding unit 418 calculates the number of people currently recognized based on the current skeleton data based on the skeleton information acquired from the
意味理解部418によっていつもと違う状況であると認識された場合、行動決定部440は、ユーザ10に状況を確認するために質問することを決定する。例えば、「ヨシコちゃんの誕生日」というラベルが決定されている場合において、沢山の人が認識されていると判断した場合には、行動制御部450は、「ヨシコちゃんの誕生パーティーをするの?」という発話内容の音声を、制御対象452のスピーカから出力させる。
When the meaning understanding unit 418 recognizes that the situation is different from the usual situation, the behavior determination unit 440 determines to ask the
この場合に、ユーザ反応認識部432は、ユーザ10の発話内容から、ユーザ10の反応が肯定的であったか否定的であったかを認識する。例えば、ユーザ10が「そうだよ!」という返答をした場合、ユーザ反応認識部432は、ユーザ10の反応が肯定的であったと認識する。この場合、ラベル生成部478は、「ヨシコちゃんの誕生パーティー」というラベルを生成する。なお、「ヨシコちゃんの誕生日」や「ヨシコちゃんの誕生パーティー」というラベルは、ユーザ10の現在の状況を表すラベルの一例である。
In this case, the user
このように、ロボット100は、センサ部400で検出された情報の少なくとも一部に基づいて、現在の状況を確認するためにユーザ10と対話を行う。そして、ラベル生成部478は、ユーザ10との対話結果に基づいて、ユーザ10の現在の状況を決定して、決定した情報に基づいて、ユーザ10の現在の状況を表す1以上の文字情報を含むラベルを生成する。
As described above, the
図13は、記録形式切換ルール471の一例を示す。記録形式切換ルール471は、「一定数以上の家族が前にいる」かつ「一定数以上、家族の笑顔が検出された」という条件を定めた条件部と、「低圧縮の記録形式に切り換える」という行動を定めた結論部とを有するルール1300が含まれる。また、記録形式切換ルール471には、「前にいる家族が一定数未満になった」かつ「一定数以上、家族の怒りが検出された」という条件を定めた条件部と、「高圧縮の記録形式に切り換える」という行動を定めた結論部とを有するルールが含まれる。
FIG. 13 shows an example of the recording
なお、「一定数」の値は、1つの家族に属する人数が多いほど、大きくてよい。例えば、4人家族である場合、「一定数」の値は3であってよい。5人家族である場合、「一定数」の値は4であってよい。また、「一定数」の値には、意味理解部418で認識されるユーザ10の数の履歴に基づいて決定されてよい。例えば、5人家族であっても、意味理解部418で4人しか認識されないことが多い場合は、「一定数」の値として3を決定してよい。
Note that the value of the “certain number” may be larger as the number of members belonging to one family increases. For example, in the case of a family of four, the “certain number” value may be three. In the case of a family of five, the “certain number” value may be four. Further, the value of “a certain number” may be determined based on the history of the number of
図14は、記録形式の切り換えに関する動作フローの一例を概略的に示す。本動作フローは、記録データ生成部470が高圧縮形式の記録データの生成を開始した場合に開始される。
FIG. 14 schematically shows an example of an operation flow relating to switching of recording formats. This operation flow is started when the recording
S1402において、知覚処理部416は、センサ部400及びセンサモジュール部410が出力する情報に基づいて、特定の家族に属するユーザ10の数と、笑顔度が予め定められた値を超えているユーザ10の数の検出とを開始する。ここで、知覚処理部416は、センサ部400及びセンサモジュール部410が出力する情報に基づいて存在が認識されたユーザのうち、人物DB424に家族として登録されているユーザ10の数を数える。また、知覚処理部416は、笑顔度が予め定められた値を超えているユーザのうち、人物DB424に家族として登録されているユーザ10の数を数える。
In S1402, the
S1404において、切換制御部477は、記録形式を低圧縮形式に切り換えることを定めたルール1300の条件部が満たされたか否かを判断する。ルール1300の条件部が満たされたと判断された場合、行動制御部450は、「楽しそうだから撮っておきますね!」という発話内容の音声を制御対象452のスピーカから出力させる(S1406)。これにより、映像を記録することをユーザ10に通知する。
In step S <b> 1404, the switching
S1408において、切換制御部477は、ユーザ10から否定的な反応があったか否かを判断する。例えば、切換制御部477は、ユーザ10の音声から否定的な語句が認識されなかった場合に、ユーザ10から否定的な反応がなかったと判断する。ユーザ10から否定的な反応がなかったと判断した場合、切換制御部477は、記録データ生成部470を制御して、骨格データに加えて、フルHDの映像データ及び音声データの生成を開始させる(S1410)。このようにして、切換制御部477は、記録形式を高圧縮形式から低圧縮形式に切り換わる。S1408の判断において、ユーザ10から否定的な反応があったと判断した場合、予め定められたウェイト時間が経過してから(S1420)、S1404に処理を移行する。
In step S <b> 1408, the switching
S1410で低圧縮形式に切り換えた後、S1412において、高圧縮形式に切り換えることを定めたルール1310の条件部が満たされたか否かを判断する。ルール1310の条件部が満たされたと判断された場合、切換制御部477は、記録形式を低圧縮形式から高圧縮形式に切り換える(S1414)。S1412の判断において、ルール1310の条件部が満たされていないと判断された場合、ルール1310の条件部が満たされるまで、S1412の判断を繰り返す。
After switching to the low compression format in S1410, it is determined in S1412 whether or not the condition part of the
なお、S1412のルール1310に基づく判断の他、「記録を終了して」等のように、低圧縮形式による記録の停止を指示する発話が認識された場合にも、記録形式を低圧縮形式から高圧縮形式に切り換えてよい。また、記録形式を低圧縮形式に切り換えた後、予め定められた最大記録時間が経過した場合に、記録形式を低圧縮形式から高圧縮形式に切り換えてもよい。
In addition to the determination based on the
なお、切換制御部477は、笑顔の数に限らず、ユーザ10の感情の強さが激しく変化したことに応じて、記録形式を切り換えてよい。例えば、切換制御部477は、センサ部400に含まれるタッチセンサで予め定められた値より強い衝撃が検出された場合に、記録形式を低圧縮形式に切り換えてよい。
It should be noted that the switching
なお、ロボット100は、行動制御システムを備える電子機器の一例である。行動制御システムの適用対象は、ロボット100に限られず、様々な電子機器に行動制御システムを適用できる。また、サーバ200の機能は、1以上のコンピュータによって実装されてよい。サーバ200の少なくとも一部の機能は、仮想マシンによって実装されてよい。また、サーバ200の機能の少なくとも一部は、クラウドで実装されてよい。
The
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first,” “next,” etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
5 システム
10、11、12 ユーザ
20 通信網
100、101、102 ロボット
200 サーバ
400 センサ部
401 マイク
402 3D深度センサ
403 2Dカメラ
404 距離センサ
410 センサモジュール部
411 音声感情認識部
412 発話理解部
413 表情認識部
414 顔認識部
416 知覚処理部
417 知覚確認ルール
418 意味理解部
419 意味理解ルール
420 格納部
421 反応ルール
422 ルール更新部
424 人物DB
430 ユーザ状態認識部
432 ユーザ反応認識部
434 条件判断部
440 行動決定部
442 感情決定部
450 行動制御部
452 制御対象
470 記録データ生成部
471 記録形式切換ルール
477 切換制御部
478 ラベル生成部
480 通信処理部
520 格納部
521 反応ルール
522 反応ルール統計情報
530 反応ルール生成部
540 反応ルール検索部
550 統計情報制御部
560 アクセス制御部
561 記録データ
580 通信処理部
601 人物検出情報
602 顔検出情報
603 ユーザ認識情報
604 笑顔検出情報
605 タイムアウト情報
610 知覚履歴
611、612、613、614、615、616 知覚情報
630 知覚確認ルール
710 意味履歴
711、712、713、714、715、717 意味情報
730 意味理解ルール
810 反応ルール
910 候補
940 意味情報
960 ユーザ反応情報
1300、1310 ルール
5
430 User
Claims (11)
前記行動制御システムにおける現在の感情を示す感情値を決定する感情決定部と、
ユーザの状態を認識するユーザ状態認識部と、
前記感情決定部によって決定された感情値及び前記ユーザ状態認識部が認識した前記ユーザの状態に基づいて、実行される行動を決定する行動決定部と
を備え、
前記感情決定部は、前記ユーザ状態認識部が認識した前記ユーザの状態及び前記行動決定部が決定した行動を実行したことに対する前記ユーザの反応の少なくとも一方に基づいて、前記感情値を更新する
行動制御システム。 A behavior control system,
An emotion determination unit for determining an emotion value indicating a current emotion in the behavior control system;
A user state recognition unit for recognizing the user state;
An action determination unit that determines an action to be executed based on the emotion value determined by the emotion determination unit and the state of the user recognized by the user state recognition unit;
The emotion determination unit is configured to update the emotion value based on at least one of the user state recognized by the user state recognition unit and the user's reaction to the execution of the behavior determined by the behavior determination unit. Control system.
を更に備え、
前記行動決定部は、前記感情決定部によって決定された感情値、前記ユーザ状態認識部が認識した前記ユーザの状態及び前記決定情報に基づいて、実行される行動を決定する
請求項1に記載の行動制御システム。 An action information storage unit for storing decision information for determining an action based on an emotion value indicating an emotion in the action control system and a user's state;
The said action determination part determines the action performed based on the emotion value determined by the said emotion determination part, the said user's state which the said user state recognition part recognized, and the said determination information. Behavior control system.
前記行動制御システムは、
前記感情決定部が更新した前記感情値に基づいて、前記行動決定部が決定した行動の実行形態を決定する行動制御部
を更に備える請求項2に記載の行動制御システム。 The emotion determination unit updates the emotion value based on the state of the user recognized by the user state recognition unit,
The behavior control system includes:
The behavior control system according to claim 2, further comprising a behavior control unit that determines an execution form of the behavior determined by the behavior determination unit based on the emotion value updated by the emotion determination unit.
前記感情決定部は、前記感情決定部によって決定された感情値及び前記ユーザ状態認識部が認識した前記ユーザの状態に対応付けて前記行動情報記憶部が記憶している感情更新情報に基づいて、前記感情値を更新し、
前記行動制御部は、前記感情決定部が更新した前記感情値に基づいて、前記行動決定部が決定した行動の実行形態を決定し、
前記感情決定部は、前記行動決定部が決定した行動を前記行動制御部が決定した実行形態で実行したことに対する前記ユーザの反応に基づいて、前記感情値を更に更新する
請求項3に記載の行動制御システム。 The behavior information storage unit further stores emotion update information for updating the emotion value based on the emotion value and the state of the user,
The emotion determination unit is based on the emotion update information stored in the behavior information storage unit in association with the emotion value determined by the emotion determination unit and the state of the user recognized by the user state recognition unit, Update the emotion value,
The behavior control unit determines an execution form of the behavior determined by the behavior determination unit based on the emotion value updated by the emotion determination unit,
The said emotion determination part further updates the said emotion value based on the said user's reaction with respect to having performed the action which the said action determination part determined with the execution form which the said action control part determined Behavior control system.
前記行動制御部は、前記感情決定部が更新した前記感情値に基づいて、前記音声の発声速度を決定する
請求項3または4に記載の行動制御システム。 The determination information includes information for determining an action to speak by voice to the user based on the state of the user,
The behavior control system according to claim 3 or 4, wherein the behavior control unit determines an utterance speed of the voice based on the emotion value updated by the emotion determination unit.
請求項3から5のいずれか1項に記載の行動制御システム。 The behavior according to claim 3, wherein the behavior control unit determines an attitude when performing the behavior determined by the behavior determination unit, based on the emotion value updated by the emotion determination unit. Control system.
前記感情決定部は、前記行動決定部が決定した行動を前記行動制御部が決定した実行形態で前記ユーザに対して行ったことに対する前記ユーザの反応が不良であった場合に、前記悲しさの強さを表す感情値を、より大きい悲しさの強さを表す値に変更する
請求項3から6のいずれか1項に記載の行動制御システム。 The emotion value represents the strength of sadness,
When the user's reaction to the behavior determining unit performing the behavior determined by the behavior determining unit on the user in the execution mode determined by the behavior control unit is poor, the sadness determination unit The behavior control system according to any one of claims 3 to 6, wherein an emotion value representing strength is changed to a value representing greater sadness strength.
前記感情決定部は、前記ユーザ状態認識部が認識した前記ユーザの状態に基づいて前記行動決定部が前記ユーザに対する行動を決定できなかった場合に、前記悲しさの強さを表す感情値を、より大きい悲しさの強さを表す値に変更する
請求項1から7のいずれか1項に記載の行動制御システム。 The emotion value includes a parameter value representing the intensity of sadness,
The emotion determination unit, when the behavior determination unit can not determine the behavior for the user based on the state of the user recognized by the user state recognition unit, the emotion value representing the intensity of the sadness, The behavior control system according to claim 1, wherein the behavior control system is changed to a value representing a greater sadness intensity.
請求項1から8のいずれか1項に記載に記載の行動制御システム。 The behavior control system according to any one of claims 1 to 8, wherein the state of the user includes a type of emotion of the user.
前記感情値は、心配の強さを表し、
前記ユーザ状態認識部は、前記ユーザが寂しさを感じている状態にあることを認識し、
前記感情決定部は、前記ユーザ状態認識部によって前記ユーザが寂しさを感じている状態にあると認識された場合に、前記心配の強さを表す感情値を、より大きい心配の強さを表す値に変更する
請求項9に記載に記載の行動制御システム。 The emotion of the user includes a feeling of loneliness,
The emotional value represents the strength of worry,
The user state recognition unit recognizes that the user feels loneliness,
When the user state recognition unit recognizes that the user feels loneliness, the emotion determination unit represents an emotion value representing the strength of the worry and represents a greater strength of the worry. The behavior control system according to claim 9, wherein the behavior control system is changed to a value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015053474A JP6328580B2 (en) | 2014-06-05 | 2015-03-17 | Behavior control system and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014116432 | 2014-06-05 | ||
JP2014116432 | 2014-06-05 | ||
JP2015053474A JP6328580B2 (en) | 2014-06-05 | 2015-03-17 | Behavior control system and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016012342A true JP2016012342A (en) | 2016-01-21 |
JP6328580B2 JP6328580B2 (en) | 2018-05-23 |
Family
ID=55228986
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015053474A Active JP6328580B2 (en) | 2014-06-05 | 2015-03-17 | Behavior control system and program |
JP2015053473A Active JP6053847B2 (en) | 2014-06-05 | 2015-03-17 | Action control system, system and program |
JP2015053475A Expired - Fee Related JP6058053B2 (en) | 2014-06-05 | 2015-03-17 | Recording control system, system and program |
JP2015053472A Active JP6351528B2 (en) | 2014-06-05 | 2015-03-17 | Behavior control system and program |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015053473A Active JP6053847B2 (en) | 2014-06-05 | 2015-03-17 | Action control system, system and program |
JP2015053475A Expired - Fee Related JP6058053B2 (en) | 2014-06-05 | 2015-03-17 | Recording control system, system and program |
JP2015053472A Active JP6351528B2 (en) | 2014-06-05 | 2015-03-17 | Behavior control system and program |
Country Status (1)
Country | Link |
---|---|
JP (4) | JP6328580B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017130649A1 (en) * | 2016-01-26 | 2017-08-03 | インターマン株式会社 | Autonomous robot |
JP2017182700A (en) * | 2016-03-31 | 2017-10-05 | Cocoro Sb株式会社 | Customer reception control system, customer reception system and program |
JP2018001404A (en) * | 2016-07-07 | 2018-01-11 | 深▲せん▼狗尾草智能科技有限公司Shenzhen Gowild Robotics Co.,Ltd. | Method, system and robot body for synchronizing voice and virtual operation |
JP2018152810A (en) * | 2017-03-15 | 2018-09-27 | 株式会社日立製作所 | Communication system and communication control device |
JP2019018265A (en) * | 2017-07-13 | 2019-02-07 | 田嶋 雅美 | Customer service system |
KR20190100348A (en) * | 2016-12-31 | 2019-08-28 | 후아웨이 테크놀러지 컴퍼니 리미티드 | Robot, Server, and Man-Machine Interaction Methods |
JP2020537206A (en) * | 2017-10-09 | 2020-12-17 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Methods and devices for robot interaction |
JP2021018481A (en) * | 2019-07-17 | 2021-02-15 | 本田技研工業株式会社 | Robot management device, robot management method and robot management system |
WO2024225408A1 (en) * | 2023-04-25 | 2024-10-31 | ソフトバンクグループ株式会社 | Behavior control system and electronic device |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6199927B2 (en) * | 2015-06-17 | 2017-09-20 | Cocoro Sb株式会社 | Control system, system and program |
JP6726388B2 (en) | 2016-03-16 | 2020-07-22 | 富士ゼロックス株式会社 | Robot control system |
JP6851871B2 (en) * | 2016-03-30 | 2021-03-31 | 光吉 俊二 | Emergence device, emergence method and emergence program |
WO2017170404A1 (en) * | 2016-03-30 | 2017-10-05 | 光吉 俊二 | Intention emergence device, intention emergence method, and intention emergence program |
US9751212B1 (en) * | 2016-05-05 | 2017-09-05 | Toyota Jidosha Kabushiki Kaisha | Adapting object handover from robot to human using perceptual affordances |
CN106182032B (en) * | 2016-08-24 | 2018-11-13 | 陈中流 | One kind is accompanied and attended to robot |
JP6933455B2 (en) | 2016-09-29 | 2021-09-08 | 株式会社東芝 | Interest maintenance system and server |
JP6637917B2 (en) * | 2017-03-16 | 2020-01-29 | 株式会社日立製作所 | Education support system and education support method |
JP6891601B2 (en) * | 2017-03-31 | 2021-06-18 | 富士通株式会社 | Robot control programs, robot devices, and robot control methods |
JP2019003283A (en) * | 2017-06-12 | 2019-01-10 | シャープ株式会社 | Information processing device, control method of information processing device, and program for allowing computer as information processing device |
JP7073640B2 (en) * | 2017-06-23 | 2022-05-24 | カシオ計算機株式会社 | Electronic devices, emotion information acquisition systems, programs and emotion information acquisition methods |
WO2019051645A1 (en) * | 2017-09-12 | 2019-03-21 | 深圳前海达闼云端智能科技有限公司 | Dynamic learning method and system for robot, robot, and cloud server |
WO2019064650A1 (en) * | 2017-09-28 | 2019-04-04 | 三菱自動車工業株式会社 | Information transfer support system for vehicle |
JP2019197509A (en) * | 2018-05-11 | 2019-11-14 | フューブライト・コミュニケーションズ株式会社 | Nursing-care robot, nursing-care robot control method and nursing-care robot control program |
JP2021165866A (en) * | 2018-07-10 | 2021-10-14 | ソニーグループ株式会社 | Device and method for management, device and method for control, and system for management |
JP7101815B2 (en) * | 2018-12-19 | 2022-07-15 | 本田技研工業株式会社 | Guidance robot control device, guidance system using it, and guidance robot control method |
KR102708292B1 (en) * | 2018-12-24 | 2024-09-23 | 엘지전자 주식회사 | Robot and method for controlling thereof |
WO2020213245A1 (en) * | 2019-04-16 | 2020-10-22 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2020213244A1 (en) * | 2019-04-16 | 2020-10-22 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2024071171A1 (en) * | 2022-09-29 | 2024-04-04 | 日東電工株式会社 | Robot, learning device, control method, and program |
TW202421382A (en) * | 2022-09-29 | 2024-06-01 | 日商日東電工股份有限公司 | Robot, learning device, control method, and program |
TW202421381A (en) * | 2022-09-29 | 2024-06-01 | 日商日東電工股份有限公司 | Robot, learning device, control method, and program |
WO2024214751A1 (en) * | 2023-04-11 | 2024-10-17 | ソフトバンクグループ株式会社 | Behavior control system |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11126017A (en) * | 1997-08-22 | 1999-05-11 | Sony Corp | Storage medium, robot, information processing device and electronic pet system |
JPH11339058A (en) * | 1998-05-27 | 1999-12-10 | Nec Corp | Portrait interactive device and recording medium for recording portrait interactive program |
JP2001212783A (en) * | 2000-02-01 | 2001-08-07 | Sony Corp | Robot device and control method for it |
JP2002049385A (en) * | 2000-08-07 | 2002-02-15 | Yamaha Motor Co Ltd | Voice synthesizer, pseudofeeling expressing device and voice synthesizing method |
JP2002116792A (en) * | 2000-10-11 | 2002-04-19 | Sony Corp | Robot controller and method for robot control and recording medium |
JP2002239256A (en) * | 2001-02-14 | 2002-08-27 | Sanyo Electric Co Ltd | Emotion determination device in automatic response toy and automatic response toy |
JP2002268663A (en) * | 2001-03-08 | 2002-09-20 | Sony Corp | Voice synthesizer, voice synthesis method, program and recording medium |
JP2003181784A (en) * | 2001-12-19 | 2003-07-02 | Sanyo Electric Co Ltd | Automatic answering robot |
JP2004066367A (en) * | 2002-08-05 | 2004-03-04 | Mitsubishi Heavy Ind Ltd | Action pattern formation device, action pattern formation method, and action pattern formation program |
JP2005044330A (en) * | 2003-07-24 | 2005-02-17 | Univ Of California San Diego | Weak hypothesis generation device and method, learning device and method, detection device and method, expression learning device and method, expression recognition device and method, and robot device |
JP2011201002A (en) * | 2010-03-26 | 2011-10-13 | Sony Corp | Robot device, method and program of remote control of the robot device |
JP2014098962A (en) * | 2012-11-13 | 2014-05-29 | Sharp Corp | Behavior control device, behavior control method, and control program |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002261966A (en) * | 2000-09-08 | 2002-09-13 | Matsushita Electric Works Ltd | Communication support system and photographing equipment |
JP2002137182A (en) * | 2000-10-31 | 2002-05-14 | Yamaha Motor Co Ltd | Operation content deciding device |
JP2003274360A (en) * | 2002-03-14 | 2003-09-26 | Sony Corp | Apparatus and method for imaging, and device and system for imaging management |
JP4244812B2 (en) * | 2004-01-16 | 2009-03-25 | ソニー株式会社 | Action control system and action control method for robot apparatus |
JP2005222331A (en) * | 2004-02-05 | 2005-08-18 | Ntt Docomo Inc | Agent interface system |
JP2005238422A (en) * | 2004-02-27 | 2005-09-08 | Sony Corp | Robot device, its state transition model construction method and behavior control method |
JP4368316B2 (en) * | 2005-03-02 | 2009-11-18 | シャープ株式会社 | Content viewing system |
JP5089140B2 (en) * | 2006-11-14 | 2012-12-05 | 三菱電機株式会社 | Information processing apparatus, information processing method, and program |
JP2011119963A (en) * | 2009-12-03 | 2011-06-16 | Seiko Epson Corp | Imaging apparatus and imaging method |
JP5927797B2 (en) * | 2011-07-26 | 2016-06-01 | 富士通株式会社 | Robot control device, robot system, behavior control method for robot device, and program |
JP2013237124A (en) * | 2012-05-15 | 2013-11-28 | Fujitsu Ltd | Terminal device, method for providing information, and program |
-
2015
- 2015-03-17 JP JP2015053474A patent/JP6328580B2/en active Active
- 2015-03-17 JP JP2015053473A patent/JP6053847B2/en active Active
- 2015-03-17 JP JP2015053475A patent/JP6058053B2/en not_active Expired - Fee Related
- 2015-03-17 JP JP2015053472A patent/JP6351528B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11126017A (en) * | 1997-08-22 | 1999-05-11 | Sony Corp | Storage medium, robot, information processing device and electronic pet system |
JPH11339058A (en) * | 1998-05-27 | 1999-12-10 | Nec Corp | Portrait interactive device and recording medium for recording portrait interactive program |
JP2001212783A (en) * | 2000-02-01 | 2001-08-07 | Sony Corp | Robot device and control method for it |
JP2002049385A (en) * | 2000-08-07 | 2002-02-15 | Yamaha Motor Co Ltd | Voice synthesizer, pseudofeeling expressing device and voice synthesizing method |
JP2002116792A (en) * | 2000-10-11 | 2002-04-19 | Sony Corp | Robot controller and method for robot control and recording medium |
JP2002239256A (en) * | 2001-02-14 | 2002-08-27 | Sanyo Electric Co Ltd | Emotion determination device in automatic response toy and automatic response toy |
JP2002268663A (en) * | 2001-03-08 | 2002-09-20 | Sony Corp | Voice synthesizer, voice synthesis method, program and recording medium |
JP2003181784A (en) * | 2001-12-19 | 2003-07-02 | Sanyo Electric Co Ltd | Automatic answering robot |
JP2004066367A (en) * | 2002-08-05 | 2004-03-04 | Mitsubishi Heavy Ind Ltd | Action pattern formation device, action pattern formation method, and action pattern formation program |
JP2005044330A (en) * | 2003-07-24 | 2005-02-17 | Univ Of California San Diego | Weak hypothesis generation device and method, learning device and method, detection device and method, expression learning device and method, expression recognition device and method, and robot device |
JP2011201002A (en) * | 2010-03-26 | 2011-10-13 | Sony Corp | Robot device, method and program of remote control of the robot device |
JP2014098962A (en) * | 2012-11-13 | 2014-05-29 | Sharp Corp | Behavior control device, behavior control method, and control program |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017130649A1 (en) * | 2016-01-26 | 2017-08-03 | インターマン株式会社 | Autonomous robot |
JP2017182700A (en) * | 2016-03-31 | 2017-10-05 | Cocoro Sb株式会社 | Customer reception control system, customer reception system and program |
JP2018001404A (en) * | 2016-07-07 | 2018-01-11 | 深▲せん▼狗尾草智能科技有限公司Shenzhen Gowild Robotics Co.,Ltd. | Method, system and robot body for synchronizing voice and virtual operation |
KR102328959B1 (en) * | 2016-12-31 | 2021-11-18 | 후아웨이 테크놀러지 컴퍼니 리미티드 | How robots, servers, and human-machines interact |
KR20190100348A (en) * | 2016-12-31 | 2019-08-28 | 후아웨이 테크놀러지 컴퍼니 리미티드 | Robot, Server, and Man-Machine Interaction Methods |
JP2020507835A (en) * | 2016-12-31 | 2020-03-12 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Robot, server and human-machine interaction method |
US11858118B2 (en) | 2016-12-31 | 2024-01-02 | Huawei Technologies Co., Ltd. | Robot, server, and human-machine interaction method |
JP2018152810A (en) * | 2017-03-15 | 2018-09-27 | 株式会社日立製作所 | Communication system and communication control device |
JP2019018265A (en) * | 2017-07-13 | 2019-02-07 | 田嶋 雅美 | Customer service system |
JP7146373B2 (en) | 2017-07-13 | 2022-10-04 | 雅美 田嶋 | Customer service system |
JP2020537206A (en) * | 2017-10-09 | 2020-12-17 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | Methods and devices for robot interaction |
JP7254772B2 (en) | 2017-10-09 | 2023-04-10 | アリババ・グループ・ホールディング・リミテッド | Methods and devices for robot interaction |
JP2021018481A (en) * | 2019-07-17 | 2021-02-15 | 本田技研工業株式会社 | Robot management device, robot management method and robot management system |
JP7273637B2 (en) | 2019-07-17 | 2023-05-15 | 本田技研工業株式会社 | ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM |
WO2024225408A1 (en) * | 2023-04-25 | 2024-10-31 | ソフトバンクグループ株式会社 | Behavior control system and electronic device |
Also Published As
Publication number | Publication date |
---|---|
JP2016012914A (en) | 2016-01-21 |
JP6053847B2 (en) | 2016-12-27 |
JP6328580B2 (en) | 2018-05-23 |
JP6351528B2 (en) | 2018-07-04 |
JP2016012341A (en) | 2016-01-21 |
JP2016012340A (en) | 2016-01-21 |
JP6058053B2 (en) | 2017-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6328580B2 (en) | Behavior control system and program | |
US20240194190A1 (en) | Detection and/or enrollment of hot commands to trigger responsive action by automated assistant | |
EP3631793B1 (en) | Dynamic and/or context-specific hot words to invoke automated assistant | |
US10270736B2 (en) | Account adding method, terminal, server, and computer storage medium | |
KR20160011620A (en) | Systems and methods for interactive synthetic character dialogue | |
US11367443B2 (en) | Electronic device and method for controlling electronic device | |
US11267121B2 (en) | Conversation output system, conversation output method, and non-transitory recording medium | |
CN111557001B (en) | Method for providing natural language dialogue, computer device and computer readable storage medium | |
CN111556999B (en) | Method, computer device and computer readable storage medium for providing natural language dialogue by providing substantive answer in real time | |
WO2019202804A1 (en) | Speech processing device and speech processing method | |
JP2020077272A (en) | Conversation system and conversation program | |
KR20230087577A (en) | Control Playback of Scene Descriptions | |
KR20200051173A (en) | System for providing topics of conversation in real time using intelligence speakers | |
CN114424148B (en) | Electronic device and method for providing manual thereof | |
WO2019017033A1 (en) | Information processing device, information processing method, and program | |
JP7474211B2 (en) | Dialogue program, device and method for forgetting nouns spoken by a user | |
JP2024155782A (en) | Electronics | |
JP2024159687A (en) | Agent System | |
JP2024159684A (en) | Electronics | |
JP2024152027A (en) | Behavior Control System | |
JP2024159692A (en) | Electronics | |
JP2024159585A (en) | Behavior Control System | |
JP2024155852A (en) | Electronics | |
JP2024153587A (en) | Behavior Control System | |
WO2024145675A1 (en) | Language model orchestration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151203 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20160425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170502 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180206 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180418 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6328580 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |