JP6317266B2 - Robot control device and robot - Google Patents
Robot control device and robot Download PDFInfo
- Publication number
- JP6317266B2 JP6317266B2 JP2015011679A JP2015011679A JP6317266B2 JP 6317266 B2 JP6317266 B2 JP 6317266B2 JP 2015011679 A JP2015011679 A JP 2015011679A JP 2015011679 A JP2015011679 A JP 2015011679A JP 6317266 B2 JP6317266 B2 JP 6317266B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- unit
- degree
- output value
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000008921 facial expression Effects 0.000 claims description 53
- 230000001815 facial effect Effects 0.000 claims description 41
- 230000014509 gene expression Effects 0.000 claims description 41
- 230000009471 action Effects 0.000 claims description 26
- 238000001514 detection method Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000013500 data storage Methods 0.000 description 7
- 230000001965 increasing effect Effects 0.000 description 7
- 235000019645 odor Nutrition 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 239000000428 dust Substances 0.000 description 6
- 230000008451 emotion Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000002269 spontaneous effect Effects 0.000 description 6
- 210000004243 sweat Anatomy 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 208000008454 Hyperhidrosis Diseases 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000001816 cooling Methods 0.000 description 3
- 238000010438 heat treatment Methods 0.000 description 3
- 238000000034 method Methods 0.000 description 3
- 206010044565 Tremor Diseases 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000035900 sweating Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 206010019345 Heat stroke Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 206010027940 Mood altered Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000007791 dehumidification Methods 0.000 description 1
- 230000018044 dehydration Effects 0.000 description 1
- 238000006297 dehydration reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004071 soot Substances 0.000 description 1
- 208000013460 sweaty Diseases 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、ロボット制御装置及びロボットに関する。 The present invention relates to a robot control device and a robot.
近年、ユーザを癒したり楽しませたりするペット型ロボットや家事や介護の代行を行う生活支援ロボットといったロボットが、徐々に人々の生活に浸透してきている。このようなロボットの中には、音声認識機能を有しユーザとコミュニケーションを取れるものも開発されている。例えば、顔を有し、出力する音声に応じて表情を変え、喜怒哀楽等の感情を表現するロボットもある。また、例えば、内蔵するセンサの検知により、例えば、「エアコンつけて」等の音声を出力して、環境を変えるための提案をユーザにするロボットもある。 In recent years, robots such as pet-type robots that heal and entertain users and life support robots that perform housework and nursing care have gradually permeated people's lives. Some of these robots have a voice recognition function and can communicate with the user. For example, there is a robot that has a face, changes its facial expression according to the output voice, and expresses emotions such as emotions. Further, for example, there is a robot that makes a user a suggestion for changing the environment by outputting a sound such as “turn on an air conditioner” by detecting a built-in sensor.
しかしながら、従来のロボットでは、ユーザにとって便利であるが、ロボットからの提案があたかもロボットから指示あるいは命令されているように感じ、ユーザは、憤慨したり、ロボットに対する親しみが芽生えず、提案を受け入れ難かったりすることがある。 However, with conventional robots, it is convenient for the user, but it feels as if the proposal from the robot seems to be instructed or commanded by the robot, and the user does not hesitate or develop familiarity with the robot, so it is difficult to accept the proposal. Sometimes.
そこで、本願発明は、前記課題に鑑みなされ、その目的は、ユーザに自発的行動を促すようにロボットを制御することが可能なロボット制御装置、及びロボットを提供することである。 Accordingly, the present invention has been made in view of the above problems, and an object thereof is to provide a robot control device and a robot capable of controlling the robot so as to prompt the user to take spontaneous action.
上記の課題を解決するために、本発明の一態様に係るロボット制御装置は、周囲の環境を検知するセンサ部と、顔画像を表示する表示部と、を備えたロボットを制御するロボット制御装置であって、前記センサ部による検知結果を示す出力値が所定の範囲から外れると、前記センサ部からの出力値に応じた行動をユーザに促す表情の顔画像を前記表示部に表示する表示制御部と、前記出力値、及び、前記出力値が前記所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、前記行動をユーザに促す度合いを設定する度合い設定部と、を備え、前記表示制御部は、設定された前記度合いに応じた表情の顔画像を前記表示部に表示することを特徴とする。 In order to solve the above problems, a robot control apparatus according to one aspect of the present invention is a robot control apparatus that controls a robot including a sensor unit that detects a surrounding environment and a display unit that displays a face image. When the output value indicating the detection result by the sensor unit is out of a predetermined range, the display control displays on the display unit a facial image of a facial expression that prompts the user to perform an action according to the output value from the sensor unit. A degree setting unit configured to set a degree of prompting the user to perform the action based on at least one of the output value and an elapsed time after the output value is out of the predetermined range, The display control unit displays a facial image of an expression corresponding to the set degree on the display unit.
上記構成によると、ロボットのセンサ部からの出力値が所定の範囲から外れると、センサ部からの出力値に応じた行動をユーザに促す度合いに応じた表情の顔画像を表示する。よって、促す度合に応じた表情の顔画像の表示により、センサ部の出力値が所定の範囲から外れていることをユーザに伝えることができ、センサ部からの出力値に応じた行動をユーザに促すことができる。所定の範囲をユーザに快適なあるいは安全な環境となる数値に設定しておくことで、ユーザにとって不快や危険といったよくない環境になることを未然に防ぐことができる。さらに、顔の表情によりユーザを促すため、威圧的でなく、ユーザを和ませたり癒したりしながら促すことができるという効果を奏する。このように、上記構成によると、ユーザに自発的行動を促すようにロボットを制御することが可能となる。 According to the above configuration, when the output value from the sensor unit of the robot is out of the predetermined range, a facial image of a facial expression corresponding to the degree of prompting the user to act according to the output value from the sensor unit is displayed. Therefore, the display of the facial image of the facial expression according to the degree of prompting can inform the user that the output value of the sensor unit is out of the predetermined range, and the user can behave according to the output value from the sensor unit. Can be urged. By setting the predetermined range to a value that is comfortable or safe for the user, it is possible to prevent an unfavorable environment such as discomfort and danger for the user. Furthermore, since the user is prompted by facial expressions, it is not intimidating, and the user can be urged while being softened or healed. Thus, according to the above configuration, it is possible to control the robot so as to prompt the user to take spontaneous action.
〔実施の形態1〕
以下、本発明の一実施形態について図1〜7に基づいて説明すれば以下の通りである。
[Embodiment 1]
Hereinafter, it will be as follows if one Embodiment of this invention is described based on FIGS.
(ロボットの構成)
本実施の形態に係るロボット1は、表情を表出可能なロボットであり、その外観は、図2に示すように頭部と胴体部とを有する雪だるま型である。胴体部には腕部が付随している。なお、ロボット1の外観は、図示したものに限定されず、例えば、図2の外観にさらに脚部を有していてもよい。あるいは、ヒューマノイド型であっても、ペット型であってもよい。
(Robot configuration)
The
ロボット1は、その頭部の顔領域に顔画像が表示され、表情の変化は後述のセンサ部60による検知結果を示す出力値に基づき行われる。また、ユーザとの対話内容に基づき表情が変化する。ロボット1は、本来の喜怒哀楽に加え、汗をかいたり震えていたりする顔画像を表示することで、人間により近い表情を映すことが可能である。このように、ロボット1は顔の表情を様々に変化できるため、ロボット1が感情を持っているように見せかけることができる。そのため、ユーザは、より親しみや愛着をもってロボット1に接することができる。
In the
さらに、ロボット1は、音声認識機能及び発話機能を有しており、音声(音声信号)が入力されると音声認識を行い、その認識結果に応じた発話を行う。よって、ユーザは自然言語を用いた音声によってロボット1と対話することが可能である。
Furthermore, the
次に、ロボット1の構成の詳細について説明する。図1は、本実施の形態に係るロボット1の構成を示す図である。ロボット1は、制御部(ロボット制御装置)10、表示部20、音声出力部30、音声入力部40、動作部50、センサ部60、カメラ部70、及びデータ格納部80を備えている。
Next, details of the configuration of the
制御部10は、ロボット1の各部を制御するブロックである。制御部10は、例えば、CPU(Central Processing Unit)や専用プロセッサなどの演算処理部などにより構成されるコンピュータ装置から成る。制御部10は、データ格納部80に記憶されているロボット1における各種制御を実施するためのプログラムを読み出して実行することで、ロボット1の各部の動作を統括的に制御する。制御部10は、また、表示制御部11、度合い設定部12、発話制御部(音声制御部)13、及び音声認識部14としての機能を有する。これらの詳細については、後述する。
The
表示部20は、ロボット1の顔領域に顔場像データを用いて様々な顔画像を表示することで、ロボット1にて喜怒哀楽等の表情を表出するブロックである。本実施の形態では、表示部20は、リアプロジェクション方式で内蔵プロジェクタによりロボット1の顔領域に顔画像を映し出すものとするが、これには限定されない。
The
音声出力部30は、スピーカ等の音声出力装置であり、音声入力部40は、マイク等の音声入力装置である。
The
動作部50は、ロボット1の各種動作を実行するブロックである。動作部50が実行するロボット1における動作としては、例えば、頭部又は全体を回転させたり、手を動かしたりといった動作が挙げられるが、これらに限定されない。ロボット1の動作とは、ロボット1の少なくとも一部が物理的に移動することを指す。
The
センサ部60は、ロボット1周囲の環境を検知するための装置である。本実施の形態では、センサ部60は、温度センサ、湿度センサ、及び度センサを備えているものとする。これら以外のセンサが含まれていてもよい。カメラ部70は、静止画像及び動画像を撮影する撮像装置である。
The
データ格納部80は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)などを含み、ロボット1にて用いられる各種情報(データ)を記憶するブロックである。また、データ格納部80には、ロボット1の顔領域に表示される顔画像データのデータベース81と、ロボット1が発話する発話データのデータベース82とが格納されている。
The
表示制御部11は、表示部20を制御し、ロボット1の頭部の顔領域に顔画像データを表示するブロックである。表示制御部11は、センサ部60による検知結果を示す出力値が所定の範囲から外れると、センサ部60からの出力値に応じた行動をユーザに促す表情の顔画像であり、度合い設定部12にて設定された度合いに応じた表情の顔画像を、表示部20に表示させる。センサ部60からの出力値に応じた行動をユーザに促す表情とは、例えば、センサ部60からの出力値が温度である場合、エアコンを操作し冷房運転するようユーザを促す、汗をかいて辛そうな表情、エアコンを操作し暖房運転するようユーザを促す、青ざめて震えている表情、等である。促す度合いに応じた表情の顔画像の表示については、後段で具体例を用いて説明する。
The
度合い設定部12は、センサ部60からの出力値、及び、センサ部60からの出力値が所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、センサ部60からの出力値に応じた行動をユーザに促す度合いを設定するブロックである。促す度合いの設定については、後段で具体例を用いて説明する。
The
発話制御部13は、センサ部からの出力値またはカメラ部70が取得した情報に応じた発話データを、あるいは、音声認識部14の認識結果に応じた発話データを、データ格納部80から読み出し、音声データ(音声、音声情報)を生成(音声合成)して、音声出力部30から出力させるブロックである。なお、発話データが音声データとして生成されている(録音音声)場合には、発話制御部13は、音声合成は行わない。
The
音声認識部14は、ユーザからの入力音声を認識するブロックである。具体的には、音声認識部14は、音声入力部40から入力された音声データをテキストデータに変換して、そのテキストデータを解析して単語やフレーズを抽出する。なお、音声認識の処理について公知技術を用いることができる。
The
顔画像データのデータベース81は、表示部20に表示させる様々な表情の顔画像の画像データが、センサ部60からの出力値に応じた行動をユーザに促す度合い毎に登録されているデータベースである。
The face
発話データのデータベース82は、センサ部60からの出力値に応じた行動をユーザに促す度合いに対応させた発話データ登録されているデータベースである。また、発話データのデータベース82には、単語やフレーズに対応させた発話データが登録されている。単語1つに対応したものだけでなく、複数の単語の組み合わせに対応したものが登録されていてもよい。また、ある単語やあるフレーズに対応させて複数の発話データが登録されていてもよく、この場合、実際に音声出力されるものを選択すればよい。なお、発話データは、テキストデータとして格納しておけばよい。このようなデータベースの構築については、公知技術が利用できる。
The
(促す度合いに応じた表情の具体例)
センサ部60からの出力値に応じた行動をユーザに促す度合いに応じた表情の表示について、具体例を用いて説明する。
(Specific examples of facial expressions according to the degree of prompting)
The display of a facial expression according to the degree of prompting the user to act according to the output value from the
以下では、センサ部60が温度を検知する場合について説明する。センサ部60からの出力値が、温度について設定された所定の範囲を外れて高温である場合、度合い設定部12は、出力値に応じてエアコンの冷房運転を行うようユーザを促す度合いを設定する。度合い設定部12は、温度について設定された所定の範囲が28℃未満であり、センサ部60からの出力値が、28℃以上30℃未満の場合促す度合いを「小」として、30℃以上の場合促す度合いを「中」として設定する。このように、まず、度合い設定部12は、センサ部60からの出力値に基づいて、センサ部60からの出力値に応じた行動をユーザに促す度合いを設定する。
Below, the case where the
度合い設定部12の設定に応じて、表示制御部11は、促す度合いが小の場合には、促す度合いが小の場合に対応付けられた図3の(a)に示す少し汗でほほが少し赤くなる表情の顔画像を表示する。このとき、発話制御部13は、度合いが小の場合に対応付けられた音声データ、例えば、「今日は暑いね」を音声出力する。表示制御部11は、促す度合いが中の場合には、促す度合いが中の場合に対応付けられた図3の(b)に示すように、やや多くの汗でほほがやや大きく赤くなる表情の顔画像を表示する。このとき、発話制御部13は、促す度合いが中の場合に対応付けられた音声データであり、促す度合いが小の場合に対応付けられた音声データよりも多くの音声データ、例えば、「暑いね、汗がたくさん出てきたよ」を音声出力する。
In accordance with the setting of the
図3の(a)の顔画像を表示してから所定時間経過後のセンサ部60の出力値が、前回と同じあるいはさらに高くなっている場合、度合い設定部12はす度合いを「中」として設定し、表示制御部11は、表示制御部11は、図3の(b)の顔画像を表示し、発話制御部13は、促す度合いが中の場合に対応付けられた音声データを音声出力する。
When the output value of the
図3の(b)の顔画像を表示してから所定時間経過後のセンサ部60の温度センサからの出力値が、前回と同じあるいはさらに高くなっている場合、度合い設定部12はす度合いを「大」として設定し、表示制御部11は、表示制御部11は、度合いが大の場合に対応付けられた図3の(c)に示す多くの汗で顔中赤くなる表情顔画像を表示し、発話制御部13は、促す度合いが大の場合に対応付けられた音声データ、例えば、「暑いよ、汗がたくさんで顔も赤くなっちゃった」を音声出力する。さらに所定時間経過後のセンサ部60の温度センサからの出力値が、前回と同じあるいはさらに高くなっている場合には、図3の(c)の表情の顔画像の表示を繰り返してもよいし、さらに度合いの大きい促す表情を表示してもよいし、表示を停止してもよい。このような表示を行い、エアコンの冷房運転を行うようユーザを促す。
When the output value from the temperature sensor of the
上記では、高温の場合を例に挙げて説明したが、低温の場合も同様にエアコンの暖房運転を行うようユーザを促す度合いを設定して、設定された促す度合いに応じた表情の顔画像を表示すればよい。また、上記では、図3の(a)の顔画像の表示から始まる場合、3段階で度合いを大きくしており、図3の(b)の顔画像の表示から始まる場合、2段階で度合いを大きくしているが、何段階で変化させてもよい。また、度合いを段階的に大きくする途中でセンサ部60からの出力値に応じて度合いを小さくしたり、反対に度合いを段階的に小さくする途中でセンサ部60からの出力値に応じて度合いを大きくしたりしてもよい。
In the above description, the case of high temperature has been described as an example, but the degree of prompting the user to perform the heating operation of the air conditioner is set similarly in the case of low temperature, and facial images of facial expressions corresponding to the set degree of prompting are set. Show it. Further, in the above, when starting from the display of the face image of FIG. 3A, the degree is increased in three stages, and when starting from the display of the face image of FIG. 3B, the degree is increased in two stages. Although it is large, it can be changed in any number of steps. In addition, the degree is decreased in accordance with the output value from the
以上のように、度合い設定部12は、センサ部60からの出力値及び当該出力値が所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、センサ部60からの出力値に応じた行動をユーザに促す度合いを設定する。そして、表示制御部11は、出力値が所定の範囲から外れると、度合い設定部12により設定された促す度合いに応じた表情の顔画像を表示する。よって、促す度合に応じた表情の顔画像の表示により、センサ部の出力値が所定の範囲から外れていることをユーザに伝えることができ、センサ部60からの出力値に応じた行動をユーザに促すことができる。所定の範囲をユーザに快適なあるいは安全な環境となる数値に設定しておくことで、ユーザにとって不快や危険といったよくない環境になることを未然に防ぐことができる。さらに、顔の表情によりユーザを促すため、威圧的でなく、ユーザを和ませたり癒したりしながら促すことができるという効果を奏する。このように、制御部10は、ユーザに自発的行動を促すようにロボット1を制御することが可能となる。
As described above, the
センサ部60からの出力値に応じた行動をユーザに促す表情が、センサ部60からの出力値を所定の範囲内に戻す(上記の例では温度を下げる)ための行動をユーザに促す表情であると、ロボット1のセンサ部60からの出力値が所定の範囲から外れると、促す度合いに応じた表情の顔画像を表示することで、所定の範囲内に戻すための行動をユーザに促すことができる。
A facial expression that prompts the user to take an action according to the output value from the
また、促す度合いに応じた音声データを出力することにより、さらに効果的にユーザを促すことができる。 Further, by outputting audio data corresponding to the degree of prompting, the user can be prompted more effectively.
また、度合い設定部12は、センサ部からの出力値が所定の範囲に戻るまで、経過時間の長さに応じて、前記促す度合を段階的に大きくなるように設定する。段階的に大きくなるよう設定することで、効果的にユーザを促すことができる。
Further, the
度合い設定部12は、前記センサ部からの出力値が前記所定の範囲に近づく方向に変化すると、前記度合いを前回よりも小さくなるように設定し、センサ部60からの出力値が前記所定の範囲から遠ざかる方向に変化すると、前記度合いを前回よりも大きくなるように設定してもよい。
The
このようにセンサ部60からの出力値の変化に応じて、促す度合を前回よりも弱めたり強めたりすることで、促す度合がさらに大きい表情の顔画像を表示することができる。センサ部60からの出力値が所定の範囲に近づく方向に変化する場合表示される別の表情の画像として、例えば、不快さが解消されつつあることを伝えるための喜びの表情の顔画像であってもよい。また、この喜びの表情の顔画像が段階的に変化してもよい。
In this way, by reducing or enhancing the degree of prompting according to the change in the output value from the
また、度合い設定部12は、音声認識部14による音声認識結果に基づいて、促す度合いを変化させてもよい。このように構成されていると、ユーザによる入力音声に応じて促す度合いを変化させ、それに応じて表情も変化する。よって、変化のバリエーションを増やすことで表情がより豊かになり、ユーザにロボットへの愛着をより湧かせることができる。
Further, the
なお、促す度合いに応じた表情の顔画像の表示は、ロボット1がユーザを検知した場合にのみ行うようにしてもよい。ユーザの検知は、カメラ部70にて、あるいはセンサ部60に人感センサが設けられている場合にはこの人感センサにて、実施すればよい。
In addition, you may make it display the face image of the facial expression according to the degree of prompting only when the
センサ部60が湿度を検知する場合も、上記と同様に、センサ部60からの出力値が、湿度について設定された所定の範囲を外れて高湿である場合、度合い設定部12は、出力値に応じてエアコンの除湿運転を行うようユーザを促す度合いを設定する。この度合いに応じて、表示制御部11は表情の顔画像を表示する。促す度合いが「小」の場合には、促す度合いが小の場合に対応付けられた図4の(a)に示す少し汗をかいた表情の顔画像を表示し、促す度合いが「中」の場合には、促す度合いが中の場合に対応付けられた図4の(b)に示すやや汗をかいた表情の顔画像を表示する。また、図4の(a)の顔画像を表示してから所定時間経過後のセンサ部60の出力値が、前回と同じあるいはさらに高くなっている場合、表示制御部11は、図4の(b)の顔画像を表示する。図4の(b)の顔画像を表示してから所定時間経過後のセンサ部60の出力値が、前回と同じあるいはさらに高くなっている場合、表示制御部11は、図4の(c)に示す沢山汗をかいた表情の顔画像を表示する。
Similarly to the above, when the
これらの場合も発話制御部13は、促す度合いに対応付けられた音声データ、例えば、「蒸し蒸ししない?」、「蒸し蒸し、べたべたするよ」、「蒸し蒸しして気持ち悪いよ」を段階的に音声出力する。このような表示を行い、エアコンの除湿運転を行うようユーザを促す。また、低湿の場合も同様に加湿器の運転を行うようユーザを促す度合いを設定して、設定された促す度合いに応じた表情の顔画像を表示すればよい。
Also in these cases, the
センサ部60が照度を検知する場合も、上記と同様に、センサ部60からの出力値が、照度について設定された所定の範囲を外れて低い場合、度合い設定部12は、出力値に応じて照明機器を点灯するようユーザを促す度合いを設定する。この度合いに応じて、表示制御部11は表情の顔画像を次のように表示する。促す度合いが「小」の場合には、図5の(a)に示す目を開けている表情の顔画像と図5の(b)に示す目を閉じている顔画像との表示を交互に行う頻度を小にして、瞬きをし出す顔画像を表示する。促す度合いが「中」の場合には、図5の(a)に示す顔画像と図5の(b)に示す顔画像との表示を交互に行う頻度を中にして、瞬きがやや多い表情の顔画像を表示する。また、促す度合いが「中」の場合には、図5の(a)に示す顔画像と図5の(b)に示す顔画像との表示を交互に行う頻度を大にして、瞬きが多い表情の顔画像を表示する。これらの場合も発話制御部13は、促す度合いに対応付けられた音声データ、例えば、「暗くなってきてない?」、「見えなくなってきた」、「見えないよ」を段階的に音声出力する。このような表示を行い、照明機器を点灯するようユーザを促す。
Even when the
上記はあくまで例示であり、促す度合いに応じた表情の顔画像の表示は、上記したものに限定されない。また、上記では、温度センサ、湿度センサ、照度センサによる出力値に応じた表情について、それぞれのセンサ単独に用いる場合を説明したが、複数のセンサからの出力値に応じて、複雑な表情を表示するように構成されていてもよい。 The above is merely an example, and the display of a facial image of an expression according to the degree of prompting is not limited to the above. Further, in the above description, the case where facial expressions according to the output values from the temperature sensor, humidity sensor, and illuminance sensor are used individually has been described, but complex facial expressions are displayed according to the output values from a plurality of sensors. It may be configured to.
また、センサ部60に加速度センサが備えられていてもよい。この場合、加速度センサにより地震を検知し、図6の(a)に示すようなびっくりした表情の顔画像を表示することで、避難を促すことができる。また、状況に合わせた音声データを出力してもよい。
Further, the
さらに、加速度センサによりユーザからの接触を検知し、検知結果に応じた表情の顔画像を表示してもよい。この場合、例えば、叩かれたことを検知すると、図6の(b)に示すような悲しみの表情の顔画像を表示したり、例えば、撫でられたり抱き上げられたりしたことを検知すると、図6の(c)に示すような喜びの表情の顔画像を表示する。また、こられの状況に合わせた音声データを出力してもよい。 Furthermore, a contact from a user may be detected by an acceleration sensor, and a facial image of a facial expression corresponding to the detection result may be displayed. In this case, for example, when it is detected that the player is hit, a face image with a sad expression as shown in FIG. 6B is displayed. For example, when it is detected that the player is stroked or lifted, FIG. The face image of the expression of joy as shown in (c) of FIG. Moreover, you may output the audio | voice data according to these situations.
また、センサ部60に気圧センサが備えられていてもよい。この場合、気圧センサの出力値が気圧に対して設けられた所定の範囲から外れると(天気の崩れを予測して)、図7の(a)に示すようなだるそうな表情の顔画像を表示して、天気に対する対策(例えば、洗濯ものを取り込む、不要な外出は控える等)を促してもよい。また、状況に合わせた音声データを出力してもよい。
Further, the
また、センサ部60にニオイセンサ又はホコリセンサが備えられていてもよい。この場合、ニオイセンサ又はホコリセンサの出力値が、ニオイ(臭気)又はホコリに対して設けられた所定の範囲から外れると、図7の(b)に示すようなしかめっ面の顔画像を表示し、掃除を促してもよい。また、状況に合わせた音声データを出力してもよい。
Further, the
このように、センサ部60が人間の生活環境に密接した状態を検知できるセンサを備えており、所定の範囲内をユーザにとって快適な値に設定しておくことで、ロボット1はその表情により、ユーザの周囲を安全で快適な空間するための自発的行動をユーザに促すことができる。
In this way, the
さらに、ロボット1は、バッテリー残量や故障の検知等のロボット1内部の状態、又は時間によって、表情を変化させてもよい。例えば、バッテリー残量が豊富な状態では満腹な表情、残量が減ってくるに従って、お腹を空かせた表情の顔画像を表示するようにしてもよい。また、故障が検知された場合、気分の悪さを示す表情の顔画像を表示してもよい。ロボットの起動時や、あるいは深夜や早朝などは、眠そうな表情の顔画像を表示させてもよい。また、状況に合わせた音声データを出力してもよい。
Furthermore, the
また、ロボット1は、カメラ部70から入力された画像からユーザの表情や位置を解析してそれに基づきユーザと対話をするように構成されていていてもよい。例えば、ロボット1の正面から見てユーザの位置が右方向であると認識した場合、ロボットの頭部を実際に右に向ける、あるいは、頭部に顔が右に向いて移動する状態を表示することで、ユーザの方を向いている、つまり応答可能であるという状態を示す構成であってもよい。
The
〔実施の形態2〕
以下では、本発明のさらに別の実施の形態のロボットについて説明する。なお説明の便宜上、実施の形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
Hereinafter, a robot according to still another embodiment of the present invention will be described. For convenience of explanation, members having the same functions as those explained in the first embodiment are given the same reference numerals and explanations thereof are omitted.
本実施の形態のロボット1aは、図8に示すように、ロボット1の構成に加え、通信ネットワークにより外部との通信を行う通信部90を備えている。通信ネットワークとしては、例えば、インターネットが利用できる。また、電話回線網、移動体通信網、CATV(Cable Television)通信網、衛星通信網などを利用することもできる。
As shown in FIG. 8, the
ロボット1aは、通信部90から管理サーバ装置(図示せず)と接続している。よって、外部の管理サーバ装置からロボット1aを管理することができる。
The
通信部90により管理サーバから顔画像データ及び発話データの更新データを取得できるように構成されていると、表情データのバリエーション及び発話のバリエーションをさらに増やすこととができる。また、ロボット1aの制御部10の一部の機能を管理サーバ装置にて行わせてもよい。このような構成であると、ロボット1の処理能力の向上やデータ格納部80の容量の拡大を図ることなく、複雑な表情で表現することが可能になる。また、ロボット1aの使用時間の経過(例えば、対話や接触の回数等)の増大に応じて、複雑な感情を表情で表現することが可能になるように、構成されていてもよい。
If the communication unit 90 is configured to acquire the update data of the face image data and the utterance data from the management server, the variation of the expression data and the variation of the utterance can be further increased. Further, some functions of the
さらに、ロボット1aは、外部の管理サーバ装置(図示せず)を介して、ユーザの携帯電話、スマートフォン、タブレット端末等の携帯端末と通信するように構成されていてもよい。この場合、例えば、ユーザ宅4の外にいる母親が、スマートフォンにより、ユーザ宅4にいる子供の情報をロボット1aのカメラ部70からの映像により随時取得し、スマートフォンから、子供に勉強を促す表情の顔画像を、促す度合いが段階的に大きくなるように表示させるよう、ロボット1aを遠隔操作するといった使用も可能である。
Furthermore, the
〔実施の形態3〕
以下では、本発明のさらに別の実施の形態のロボットについて説明する。なお説明の便宜上、実施の形態1または2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 3]
Hereinafter, a robot according to still another embodiment of the present invention will be described. For convenience of explanation, members having the same functions as those described in the first or second embodiment are denoted by the same reference numerals and description thereof is omitted.
ロボット1bは、図9に示すように、実施の形態1のロボット1の構成に加え、さらに、家電操作部95を備えている。家電操作部95は、ロボット1b周囲の、例えば、ユーザ宅4等のロボット1bがいる空間にある家電を操作するためのブロックである。家電操作部95は、家電を操作する操作信号を赤外線通信や無線LAN通信などで送信する。
As shown in FIG. 9, the
ロボット1bは、家電を操作可能な家電操作モードを家電毎に有しており、センサ部60からの出力値から操作対象とする家電を判定し、判定した家電の家電操作モードに自装置を設定する。ロボット1bが操作可能な家電は、例えば、空気調和機(エアコン)、洗濯機、冷蔵庫、調理器具、照明装置、給湯機器、撮影機器、各種AV(Audio-Visual)機器、自装置以外の各種家庭用ロボット(例えば、掃除ロボット、家事支援ロボット、動物型ロボット等)等である。本実施の形態では、家電の例として、エアコン5−1及び照明機器5−2を用いて説明を行う。なお、ロボット1bのデータ格納部80は、家電を操作できるように自装置を設定するための情報が家電毎に格納されている。
The
ロボット1bは、度合いに応じた表情の顔画像を表示部20に表示後、所定時間経過しても、ユーザが行動しなかった場合、自ら家電を操作可能に構成されている。この場合、ロボット1bがいる空間においてユーザを検知した場合にのみ、自ら家電を操作するように構成されているのが好ましい。ユーザの検知は、カメラ部70にて、あるいはセンサ部60に人感センサが設けられている場合にはこの人感センサにて、実施すればよい。
The
高齢や病気などで動作が不自由であったり、例えば、別の作業で手がふさがっていたり等で、ユーザが家電を操作できない場合でも、ロボット1bにて対応(操作)することができる。例えば、ロボット1bがエアコン5−1を操作することで、ユーザを熱射病や脱水症状から予防できる。
Even if the user cannot operate the home appliance due to his / her inability to operate due to his / her old age or illness, for example, when his / her hand is occupied by another work, the
また、ロボット1bは、音声入力部40から入力された入力音声から操作対象とする家電を判定し、判定した家電の家電操作モードに自装置を設定するように構成されていてもよい。この場合、ロボット1bは、ユーザとの対話からエアコン5−1を操作したいことを類推した場合には、エアコン5−1を操作する家電操作モードにロボット1bを設定し、操作を行うことが可能となる。
Moreover, the
ロボット1bからエアコン5−1又は照明機器5−2を操作する際には、赤外線を用いてエアコン5−1又は照明機器5−2の位置を検出してもよいし、ロボット1bのカメラ部70から入手した情報を用いて、エアコン5−1又は照明機器5−2の位置を検出してもよい。
When operating the air conditioner 5-1 or the lighting device 5-2 from the
なお、ロボット1bからのエアコン5−1の操作前には、操作の実行を確認する音声、例えば、「エアコンつけていい?」といった音声データをロボット1bから出力させて、ユーザから実行を許可する音声、例えば、「つけて」、「ONにして」、「OK」等といった肯定の音声が入力された場合に操作を実行する。このように、家電の操作を実行する前にはユーザの確認を取るのが安全性を確保する上で好ましい。
Before the operation of the air conditioner 5-1 from the
〔実施の形態4〕
実施の形態1から3にて説明したロボット1,1a,1bは、それぞれ、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Embodiment 4]
Each of the
後者の場合、ロボット1,1a,1bは、それぞれ、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラム及び各種データがコンピュータ(又はCPU)で読み取り可能に記録されたROM(Read Only Memory)又は記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)等を備えている。そして、コンピュータ(又はCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路等を用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, each of the
本発明は上述した各実施の形態に限定されるものではなく、種々の変更が可能であり、異なる実施の形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。さらに、各実施の形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the above-described embodiments, and various modifications are possible, and the present invention also relates to embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is included in the technical scope. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.
〔まとめ〕
本発明の態様1に係るロボット制御装置(制御部10)は、周囲の環境を検知するセンサ部(60)と、顔画像を表示する表示部(20)と、を備えたロボット(1)を制御するロボット制御装置であって、前記センサ部による検知結果を示す出力値が所定の範囲から外れると、前記センサ部からの出力値に応じた行動をユーザに促す表情の顔画像を前記表示部に表示させる表示制御部(11)と、前記出力値、及び、前記出力値が前記所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、前記行動をユーザに促す度合いを設定する度合い設定部(12)と、を備え、前記表示制御部は、設定された前記度合いに応じた表情の顔画像を前記表示部に表示させることを特徴とする。
[Summary]
A robot control device (control unit 10) according to an
上記構成によると、ロボットのセンサ部からの出力値が所定の範囲から外れると、センサ部からの出力値に応じた行動をユーザに促す度合いに応じた表情の顔画像を表示する。促す度合いは、センサ部からの出力値、及び、出力値が所定の範囲から外れてからの経過時間の少なくとも一方に基づいて設定される。 According to the above configuration, when the output value from the sensor unit of the robot is out of the predetermined range, a facial image of a facial expression corresponding to the degree of prompting the user to act according to the output value from the sensor unit is displayed. The degree of prompting is set based on at least one of an output value from the sensor unit and an elapsed time after the output value is out of a predetermined range.
よって、促す度合に応じた表情の顔画像の表示により、センサ部の出力値が所定の範囲から外れていることをユーザに伝えることができ、センサ部からの出力値に応じた行動をユーザに促すことができる。所定の範囲をユーザに快適なあるいは安全な環境となる数値に設定しておくことで、ユーザにとって不快や危険といったよくない環境になることを未然に防ぐことができる。さらに、顔の表情によりユーザを促すため、威圧的でなく、ユーザを和ませたり癒したりしながら促すことができるという効果を奏する。このように、上記構成によると、ユーザに自発的行動を促すようにロボットを制御することが可能となる。 Therefore, the display of the facial image of the facial expression according to the degree of prompting can inform the user that the output value of the sensor unit is out of the predetermined range, and the user can behave according to the output value from the sensor unit. Can be urged. By setting the predetermined range to a value that is comfortable or safe for the user, it is possible to prevent an unfavorable environment such as discomfort and danger for the user. Furthermore, since the user is prompted by facial expressions, it is not intimidating, and the user can be urged while being softened or healed. Thus, according to the above configuration, it is possible to control the robot so as to prompt the user to take spontaneous action.
また、顔の表情は画像で表示するため、表情の種類を豊富に用意することがたやすく行え、ロボットにおいて複雑な処理をすることなく、顔の表情を様々に変化させることが可能である。 Since facial expressions are displayed as images, it is easy to prepare a wide variety of facial expressions, and the facial expressions can be changed in various ways without complicated processing in the robot.
本発明の態様2に係るロボット制御装置は、上記態様1において、前記センサ部からの出力値に応じた行動は、前記センサ部からの出力値を前記所定の範囲内に戻すための行動である。
In the robot control device according to aspect 2 of the present invention, in the
上記構成によると、ロボットのセンサ部からの出力値が所定の範囲から外れると、促す度合いに応じた表情の顔画像を表示することで、所定の範囲内に戻すための行動をユーザに促すことができる。 According to the above configuration, when the output value from the sensor unit of the robot is out of the predetermined range, the facial image of the facial expression corresponding to the degree of prompting is displayed to prompt the user to return to the predetermined range. Can do.
本発明の態様3に係るロボット制御装置は、上記態様1または2において、さらに音声出力部を備えた前記ロボットが制御対象であり、前記促す度合いに応じて設定された音声情報を、前記音声出力部から出力する音声制御部を備えている。
The robot control apparatus according to aspect 3 of the present invention is the robot control apparatus according to
上記構成によると、促す度合いに応じて表情が変化する顔画像に加え、音声により、さらに効果的にユーザを促すことができる。 According to the above configuration, the user can be prompted more effectively by voice in addition to the face image whose facial expression changes according to the degree of prompting.
本発明の態様4に係るロボット制御装置は、上記態様1から3のいずれか1つにおいて、前記度合い設定部は、前記センサ部からの出力値が前記所定の範囲に戻るまで、前記経過時間の長さに応じて、前記促す度合を段階的に大きくなるように設定する。
The robot control device according to aspect 4 of the present invention is the robot control apparatus according to any one of the
上記構成によると、センサ部からの出力値が所定の範囲から外れてからの経過時間の長さに応じて、顔画像の表情の促す度合が段階的に大きくなるため、効果的にユーザを促すことができる。 According to the above configuration, the degree of prompting facial expression in the face image increases stepwise according to the length of time that has elapsed since the output value from the sensor unit deviates from the predetermined range, so the user is effectively prompted be able to.
本発明の態様5に係るロボット制御装置は、上記態様1から4のいずれか1つにおいて、前記度合い設定部は、前記センサ部からの出力値が前記所定の範囲に近づく方向に変化すると、前記度合いを前回よりも小さくなるように設定し、前記センサ部からの出力値が前記所定の範囲から遠ざかる方向に変化すると、前記度合いを前回よりも大きくなるように設定する。
The robot control device according to aspect 5 of the present invention is the robot control apparatus according to any one of the
上記構成によると、センサ部からの出力値の変化に応じて、促す度合を前回よりも弱めたり強めたりする。よって、促す度合がさらに大きい表情の顔画像を表示することができる。センサ部からの出力値が所定の範囲に近づく方向に変化する場合表示される別の表情の画像として、例えば、不快さが解消されつつあることを伝えるための喜びの表情の顔画像であってもよい。また、この喜びの表情の顔画像が段階的に変化してもよい。 According to the above configuration, the degree of prompting is weakened or strengthened compared to the previous time according to the change in the output value from the sensor unit. Therefore, it is possible to display a facial image with an expression that is more urged. When the output value from the sensor unit changes in a direction approaching a predetermined range, another facial expression image that is displayed is, for example, a facial image of a joyful expression to convey that discomfort is being resolved. Also good. Moreover, the facial image of the expression of joy may change stepwise.
本発明の態様6に係るロボット制御装置は、上記態様1から5のいずれか1つにおいて、前記センサ部は、温度センサ、湿度センサ、照度センサ、加速度センサ、気圧センサ、ニオイセンサ、ホコリセンサ、の少なくとも1つを含む。
The robot control device according to aspect 6 of the present invention is the robot control apparatus according to any one of the
上記構成によると、温度センサ、湿度センサ、照度センサ、加速度センサ、気圧センサ、ニオイセンサ、ホコリセンサの少なくとも1の出力値が所定の範囲から外れると、出力値に応じた行動をユーザに促すことができる。温度、湿度、照度、例えば加速度センサで検知できる地震、気圧、ニオイ、ホコリ等は、人間の生活環境に密接したものである。そのため、上記構成によって、所定の範囲内をユーザにとって快適な値に設定しておくことで、ユーザの周囲を安全で快適な空間するための自発的行動をユーザに促すことができる。 According to the above configuration, when at least one output value of the temperature sensor, the humidity sensor, the illuminance sensor, the acceleration sensor, the atmospheric pressure sensor, the odor sensor, and the dust sensor is out of the predetermined range, the user is prompted to take an action according to the output value. Can do. Temperature, humidity, and illuminance, such as earthquakes, atmospheric pressure, odors, and dust that can be detected by an acceleration sensor, are closely related to the human living environment. Therefore, by setting the value within a predetermined range to a value comfortable for the user, the user can be encouraged to take a spontaneous action to create a safe and comfortable space around the user.
本発明の態様7に係るロボット制御装置は、上記態様1から6のいずれか1つにおいて、前記ロボットは音声入力部を備えており、前記音声入力部から入力された音声を音声認識する音声認識部を備え、前記度合い設定部は、上記音声認識部による音声認識結果に基づいて、前記促す度合いを変化させる。
The robot control device according to aspect 7 of the present invention is the robot control device according to any one of the
上記構成によると、ユーザによる音声に応じて促す度合いを変化させ、それに応じて表情も変化する。変化のバリエーションを増やすことで表情がより豊かになり、ユーザにロボットへの愛着をより湧かせることができる。 According to the above configuration, the degree of prompting is changed according to the user's voice, and the facial expression is changed accordingly. By increasing the variation, the expression becomes richer and the user can be more attached to the robot.
本発明の態様8に係るロボットは、周囲の環境を検知するセンサ部と、顔画像を表示する表示部と、上記態様1から6のいずれか1つに記載のロボット制御装置と、を備えたことを特徴とする。 A robot according to an eighth aspect of the present invention includes a sensor unit that detects the surrounding environment, a display unit that displays a face image, and the robot control device according to any one of the first to sixth aspects. It is characterized by that.
上記構成によると、上記ロボット制御装置と同様の効果を奏し、自発的に行動するようユーザを促すことが可能なロボットを提供することができる。 According to the above configuration, it is possible to provide a robot that has the same effect as the robot control device and can prompt the user to act spontaneously.
また、本発明の各態様に係るロボット制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータをロボット制御装置が備える各部として動作させることによりロボット制御装置をコンピュータにて実現させるプログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。 In addition, the robot control device according to each aspect of the present invention may be realized by a computer, and in this case, a program for realizing the robot control device by the computer by causing the computer to operate as each unit included in the robot control device. , And computer-readable recording media on which it is recorded also fall within the scope of the present invention.
本発明は、周囲の環境を検知するセンサ部と顔画像を表示する表示部とを備えたロボットを制御するロボット制御装置及びロボットに利用可能である。 INDUSTRIAL APPLICABILITY The present invention can be used for a robot control apparatus and a robot that control a robot including a sensor unit that detects the surrounding environment and a display unit that displays a face image.
1,1a,1b ロボット
4 ユーザ宅
5−1 エアコン(家電)
5−2 照明機器(家電)
10 制御部(ロボット制御装置)
11 表示制御部
12 度合い設定部
13 発話制御部(音声制御部)
14 音声認識部
20 表示部
30 音声出力部
40 音声入力部
50 動作部
60 センサ部
90 通信部
95 家電操作部
1, 1a, 1b Robot 4 User house 5-1 Air conditioner (home appliance)
5-2 Lighting equipment (home appliances)
10 Control unit (robot control device)
DESCRIPTION OF
DESCRIPTION OF
Claims (5)
前記センサ部による検知結果を示す出力値が所定の範囲から外れると、前記センサ部からの出力値に応じた行動をユーザに促す表情の顔画像を前記表示部に表示させる表示制御部と、
前記出力値、及び、前記出力値が前記所定の範囲から外れてからの経過時間の少なくとも一方に基づいて、前記行動をユーザに促す度合いを設定する度合い設定部と、を備え、
前記表示制御部は、設定された前記度合いに応じた表情の顔画像を前記表示部に表示させることを特徴とするロボット制御装置。 A robot control device that controls a robot including a sensor unit that detects the surrounding environment and a display unit that displays a face image,
A display control unit that displays a facial image of a facial expression that prompts the user to act according to the output value from the sensor unit when an output value indicating a detection result by the sensor unit is out of a predetermined range;
A degree setting unit that sets a degree of prompting the user to perform the action based on at least one of the output value and an elapsed time since the output value is out of the predetermined range;
The display control unit causes the display unit to display a facial image of an expression corresponding to the set degree.
前記促す度合いに応じて設定された音声情報を、前記音声出力部から出力する音声制御部を備えたことを特徴とする請求項1または2に記載のロボット制御装置。 The robot further includes a voice output unit,
The robot control apparatus according to claim 1, further comprising a voice control unit that outputs voice information set according to the degree of prompting from the voice output unit.
顔画像を表示する表示部と、
請求項1から4のいずれか1項に記載のロボット制御装置と、を備えたことを特徴とするロボット。 A sensor unit for detecting the surrounding environment;
A display for displaying a face image;
A robot comprising: the robot control device according to claim 1.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015011679A JP6317266B2 (en) | 2015-01-23 | 2015-01-23 | Robot control device and robot |
PCT/JP2016/051325 WO2016117514A1 (en) | 2015-01-23 | 2016-01-18 | Robot control device and robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015011679A JP6317266B2 (en) | 2015-01-23 | 2015-01-23 | Robot control device and robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016135530A JP2016135530A (en) | 2016-07-28 |
JP6317266B2 true JP6317266B2 (en) | 2018-04-25 |
Family
ID=56417058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015011679A Expired - Fee Related JP6317266B2 (en) | 2015-01-23 | 2015-01-23 | Robot control device and robot |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6317266B2 (en) |
WO (1) | WO2016117514A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019104087A (en) * | 2017-12-13 | 2019-06-27 | カシオ計算機株式会社 | Device controller, device control method, and program |
JP7152908B2 (en) * | 2018-09-05 | 2022-10-13 | 日本放送協会 | Gesture control device and gesture control program |
JP7189434B2 (en) * | 2019-01-11 | 2022-12-14 | ダイキン工業株式会社 | Spatial control system |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS594423U (en) * | 1982-07-02 | 1984-01-12 | シャープ株式会社 | temperature display device |
JPH09154186A (en) * | 1995-11-30 | 1997-06-10 | Nippon Seiki Co Ltd | Display device |
JP2000181500A (en) * | 1998-12-15 | 2000-06-30 | Equos Research Co Ltd | Speech recognition apparatus and agent apparatus |
JP2001091035A (en) * | 1999-09-22 | 2001-04-06 | Togami Electric Mfg Co Ltd | Temperature-announcing device |
JP2002281567A (en) * | 2001-03-14 | 2002-09-27 | Nec Corp | Method/system for remote control and program for remote control system |
JP4556024B2 (en) * | 2004-10-04 | 2010-10-06 | 株式会社国際電気通信基礎技術研究所 | Robot and robot system |
JP2007147217A (en) * | 2005-11-30 | 2007-06-14 | Advanced Telecommunication Research Institute International | Robot |
JP5610283B2 (en) * | 2010-09-10 | 2014-10-22 | 株式会社日立製作所 | External device control apparatus, external device control method and program |
JP5758428B2 (en) * | 2013-03-19 | 2015-08-05 | シャープ株式会社 | ELECTRIC DEVICE CONTROL DEVICE, ELECTRIC DEVICE CONTROL SYSTEM, PROGRAM, AND ELECTRIC DEVICE CONTROL METHOD |
-
2015
- 2015-01-23 JP JP2015011679A patent/JP6317266B2/en not_active Expired - Fee Related
-
2016
- 2016-01-18 WO PCT/JP2016/051325 patent/WO2016117514A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2016135530A (en) | 2016-07-28 |
WO2016117514A1 (en) | 2016-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6448971B2 (en) | Interactive device | |
US10224060B2 (en) | Interactive home-appliance system, server device, interactive home appliance, method for allowing home-appliance system to interact, and nonvolatile computer-readable data recording medium encoded with program for allowing computer to implement the method | |
US20210043189A1 (en) | Method and system for performing voice command | |
CN112051743A (en) | Device control method, conflict processing method, corresponding devices and electronic device | |
KR102338888B1 (en) | Methods, systems and media for providing information regarding detected events | |
JP2006127057A (en) | Estimation device and its control method | |
WO2022262283A1 (en) | Control method and apparatus for air conditioner, and air conditioner | |
US20240095143A1 (en) | Electronic device and method for controlling same | |
JP6317266B2 (en) | Robot control device and robot | |
WO2022262281A1 (en) | Control method and apparatus for air conditioner, and air conditioner | |
JP6373709B2 (en) | Dialogue device | |
JP2014075045A (en) | Controller, method for controlling controller, device to be controlled, server, control program, and recording medium | |
CN113359503A (en) | Equipment control method and related device | |
JP7254345B2 (en) | Information processing device and program | |
Basanta et al. | Using voice and gesture to control living space for the elderly people | |
JP6868049B2 (en) | Information processing equipment, watching system, watching method, and watching program | |
CN115718433A (en) | Control method and device of intelligent equipment, intelligent system and storage medium | |
KR102519599B1 (en) | Multimodal based interaction robot, and control method for the same | |
JP7131542B2 (en) | Information processing device, information processing method and program | |
JP2021033677A (en) | Information processing apparatus and program | |
WO2019128632A1 (en) | Audio playback method, device, and system | |
CN106054625A (en) | Home theater | |
KR20230047434A (en) | Inferring assistant action(s) based on ambient sensing of the assistant device(s) | |
TW201740244A (en) | Electronic device capable of automatically sleepling and sleeping method thereof | |
JP6698428B2 (en) | Network system, information processing method, and server |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6317266 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |