JP7176244B2 - Robot, robot control method and program - Google Patents
Robot, robot control method and program Download PDFInfo
- Publication number
- JP7176244B2 JP7176244B2 JP2018116650A JP2018116650A JP7176244B2 JP 7176244 B2 JP7176244 B2 JP 7176244B2 JP 2018116650 A JP2018116650 A JP 2018116650A JP 2018116650 A JP2018116650 A JP 2018116650A JP 7176244 B2 JP7176244 B2 JP 7176244B2
- Authority
- JP
- Japan
- Prior art keywords
- predetermined target
- distance
- robot
- voice
- dialogue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Description
本発明は、ロボット、ロボットの制御方法及びプログラムに関する。 The present invention relates to a robot, a robot control method, and a program.
一般家庭等において音声対話を目的としたロボットが用いられている。音声対話を目的としたロボットの普及には、ロボットと、ユーザを含む所定の対象と、の対話の精度を向上させることが重要な点となっている。ロボットと所定の対象との距離が、ロボットと所定の対象との対話に必要な対話距離よりも離れている場合、又は、雑音が大きい場合には、ロボットと所定の対象との対話が困難である。 Robots for the purpose of voice interaction are used in general households and the like. Improving the precision of dialogue between a robot and a predetermined target including a user is important for the spread of robots intended for voice dialogue. When the distance between the robot and the predetermined target is longer than the dialogue distance required for dialogue between the robot and the predetermined target, or when the noise is large, it is difficult for the robot to interact with the predetermined target. be.
例えば、特許文献1は、所定の対象からの音源方向を推定して、推定された音源方向へロボットを移動させて、所定の対象と対話をする対話型ロボットを開示する。 For example, Patent Literature 1 discloses an interactive robot that estimates the direction of a sound source from a predetermined target, moves the robot in the estimated direction of the sound source, and interacts with the predetermined target.
しかしながら、特許文献1の技術においては、所定の対象から音源方向へロボットを移動させて、所定の対象と対話をするだけであるため、対話距離よりも離れている所定の対象から話しかけられた場合や、雑音が大きいときに所定の対象から話しかけられた場合に、ロボットと所定の対象との対話時の音声認識精度を向上させることが困難であるという問題がある。 However, in the technique of Patent Literature 1, since the robot is moved from a predetermined target toward the sound source and only interacts with the predetermined target, when the predetermined target that is farther than the dialogue distance talks to the robot, Another problem is that it is difficult to improve the accuracy of speech recognition during dialogue between the robot and the predetermined target when the target speaks to the robot when there is a lot of noise.
本発明は、前記のような課題を解決するためになされたものであり、対話時の音声認識精度が高いロボット、ロボットの制御方法及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a robot, a method for controlling the robot, and a program that achieve high speech recognition accuracy during dialogue.
本発明の目的を達成するため、本発明に係るロボットの一様態は、
自装置に動作をさせる動作手段と、
前記自装置を移動させる移動手段と、
前記自装置が所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の距離を検出し、検出された前記距離が前記所定の対象との対話の音声認識精度を確保できる対話可能距離を超えるか否かを判定する判定手段と、
前記判定手段により、検出された前記距離が前記対話可能距離を超えていると判定された場合、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御する制御手段と、
を備え、
前記制御手段は、前記自装置の前記所定の対象に向けての移動中に前記所定の対象から再度話しかけられた場合、前記判定手段により前記自装置と前記所定の対象との間の距離が前記対話可能距離以下となったと判定された後に、前記移動中に話しかけられた内容を認識できていないことを示す動作をするように前記動作手段を制御する、
ことを特徴とする。
In order to achieve the object of the present invention, one aspect of the robot according to the present invention is
an operation means for causing the device to operate;
a moving means for moving the own device;
When the device is spoken to by a predetermined target, the device detects the distance between the device and the predetermined target, and the detected distance can ensure the speech recognition accuracy of the dialogue with the predetermined target. a determination means for determining whether or not the interactive distance is exceeded ;
a control means for controlling the movement means so that the self-device moves toward the predetermined target when the determination means determines that the detected distance exceeds the interactive distance ; ,
with
When the predetermined target speaks to the device again while the device is moving toward the predetermined target, the control means determines the distance between the device and the predetermined target by the determination device. controlling the operating means so as to perform an operation indicating that the content spoken to during the movement is not recognized after it is determined that the distance is equal to or less than the interactive distance ;
It is characterized by
本発明の目的を達成するため、本発明に係るロボットの制御方法の一様態は、
自装置に動作をさせる動作手段と、前記自装置を移動させる移動手段と、を備えるロボットの制御方法であって、
前記自装置が所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の距離を検出し、検出された前記距離が前記所定の対象との対話の音声認識精度を確保できる対話可能距離を超えるか否かを判定する判定ステップと、
前記判定ステップにより、検出された前記距離が前記対話可能距離を超えていると判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御ステップと、
を含み、
前記判定ステップにより、前記距離が前記対話可能距離を超えると判定された場合、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御し、
前記自装置の前記所定の対象に向けての移動中に前記所定の対象から再度話しかけられた場合、前記自装置と前記所定の対象との間の距離が前記対話可能距離以下となったと判定された後に、前記移動中に話しかけられた内容を認識できていないことを示す動作をするように前記動作手段を制御する、
ことを特徴とする。
In order to achieve the object of the present invention, one aspect of the robot control method according to the present invention includes:
A control method for a robot comprising operating means for causing the own device to operate and moving means for moving the own device ,
When the device is spoken to by a predetermined target, the device detects the distance between the device and the predetermined target, and the detected distance can ensure the speech recognition accuracy of the dialogue with the predetermined target. a determination step of determining whether or not the interactive distance is exceeded ;
When the determination step determines that the detected distance exceeds the interactive distance, the operation means makes a first response for causing the predetermined target to stop the talking. a control step for controlling
including
if the determining step determines that the distance exceeds the interactive distance, controlling the moving means so that the own device moves toward the predetermined target;
When the predetermined target speaks to the device again while the device is moving toward the predetermined target, it is determined that the distance between the device and the predetermined target is equal to or less than the interactive distance. After that, controlling the operation means to perform an operation indicating that the content spoken to during the movement is not recognized.
It is characterized by
本発明の目的を達成するため、本発明に係るプログラムの一様態は、
自装置に動作をさせる動作手段と、前記自装置を移動させる移動手段と、を備えるロボットを制御するコンピュータを、
前記自装置が所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の距離を検出し、検出された前記距離が前記所定の対象との対話の音声認識精度を確保できる対話可能距離を超えるか否かを判定する判定手段、
前記判定手段により、検出された前記距離が前記対話可能距離を超えていると判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御手段、
として機能させ、
前記制御手段は、
前記判定手段により前記距離が前記対話可能距離を超えると判定された場合、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御し、
前記自装置の前記所定の対象に向けての移動中に前記所定の対象から再度話しかけられた場合、前記判定手段により前記自装置と前記所定の対象との間の距離が前記対話可能距離以下となったと判定された後に、前記移動中に話しかけられた内容を認識できていないことを示す動作をするように前記動作手段を制御する、
ことを特徴とする。
In order to achieve the object of the present invention, one aspect of the program according to the present invention is
A computer that controls a robot comprising operating means for causing the own device to move and moving means for moving the own device ,
When the device is spoken to by a predetermined target, the device detects the distance between the device and the predetermined target, and the detected distance can ensure the speech recognition accuracy of the dialogue with the predetermined target. Determination means for determining whether or not the interactive distance is exceeded ;
When the determining means determines that the detected distance exceeds the interactive distance, the operating means makes a first response for causing the predetermined target to stop talking. control means for controlling
function as
The control means is
controlling the movement means so that the device moves toward the predetermined target when the determination means determines that the distance exceeds the interactive distance;
When the predetermined target speaks to the device again while the device is moving toward the predetermined target, the determining means determines that the distance between the device and the predetermined target is equal to or less than the interactive distance. controlling the operating means to perform an operation indicating that the content spoken to during the movement is not recognized after it is determined that the
It is characterized by
本発明によれば、対話時の音声認識精度が高いロボット、ロボットの制御方法及びプログラムを提供することができる。 Advantageous Effects of Invention According to the present invention, it is possible to provide a robot, a control method for the robot, and a program that achieve high speech recognition accuracy during dialogue.
以下、本発明を実施するための形態に係るロボットを、図面を参照しながら説明する。 Hereinafter, robots according to embodiments for carrying out the present invention will be described with reference to the drawings.
(第1の実施の形態)
第1の実施の形態に係るロボット100は、図1に示すように、人をデフォルメした形状を有し、目と口と鼻とを模した部材が配置された頭部101と、足を模した部材が配置された胴体部(筐体)102と、胴体部102に配置された手部103と、頭部101に配置されたマイク(マイクロフォン)104と、撮像部105と、スピーカ106と、表示部107と、底部に配置された移動部108と、胴体部102の背中に設けられた操作ボタン120と、を備え、胴体部102の内部には、制御部110と電源部130とを有する。手部103とマイク104と撮像部105とスピーカ106と表示部107とは、動作手段として機能する。
(First embodiment)
As shown in FIG. 1, the
手部103は、制御部110の制御に基づいて、図示しない駆動部により動作する。例えば、手部103を耳の後ろにあてる動作で、音声が聞こえないことをジェスチャーにより表現する。
The
マイク104は、頭部101の右耳、左耳及び後頭部に配置され、音声を収音する。右耳に配置されたマイク104は、右前方から発せられた音声を集音する。左耳に配置されたマイク104は、左前方から発せられた音声を集音する。後頭部に配置されたマイク104は、後ろから発せられた音声を集音する。マイク104は、収音した音声を制御部110に出力する。このように、マイク104は、音声を入力する音声入力手段として機能する。
The
撮像部105は、頭部101の鼻の位置に設けられたカメラである。撮像部105は、ユーザUなどの所定の対象を撮像し、撮像された画像を示すデータを制御部110に出力する。このように、撮像部105は、画像を撮像する撮像手段として機能する。
The
スピーカ106は、頭部101の口の位置に設けられ、制御部110の制御に基づいて、音声を発話する。このように、スピーカ106は、音声を出力する音声出力手段として機能する。
The
表示部107は、頭部101の目の位置に設けられ、制御部110の制御に基づいて、目の画像を表示する。
The
移動部108は、モータとタイヤとから構成され、制御部110の制御に基づいて、ロボット100を自律移動するものである。移動部108は、ロボット100を前進、後退、右折、左折、右旋回及び左旋回する。このように、移動部108は、移動手段として機能する。
The moving
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)から構成される。ROMは、フラッシュメモリ等の不揮発性メモリから構成され、制御部110が各種機能を実現するためのプログラム及び呼びかけ音声の音声パターンを示すデータ、対話を開始する通知を示す音声データ及び移動中話しかけ対策のための音声データを記憶する。RAMは、揮発性メモリから構成され、制御部110が各種処理を行うためのプログラムを実行するための作業領域として用いられる。また、RAMは、移動中話しかけFlagがONであるかOFFであるかを記憶する。制御部110は、CPUがROMに記憶されたプログラムを読み出してRAM上で実行することにより、図2に示すように、音声解析部111と、移動制御部112と、判定部113と、対話制御部114として機能する。移動制御部112と対話制御部114とは、制御手段として機能する。
The
音声解析部111は、ユーザUから発せられた音声を検出し、ユーザUから発せられた音声に、予め登録された呼びかけ音声を含んでいるか否かを判定する。呼びかけ音声は、例えば、ロボットの名前、「おーい」、「ちょっと聞いて」などが含まれる。呼びかけ音声は、予め登録されている音声パターンと照合するため、対話可能距離Dを超えて離れていても検出可能である。また、音声解析部111は、呼びかけ音声が発せられた音源の方向を検出する。具体的には、音声解析部111は、呼びかけ音声が発せられた音源の方向を、頭部101の右耳に配置されたマイク104、左耳に配置されたマイク104、及び後頭部に配置されたマイク104で収音した呼びかけ音声の音量差又は位相差により検出する。また、音声解析部111は、移動中にユーザUから話しかけられているか否かを判定する。移動中にユーザUから話しかけられていると判定すると、音声解析部111は、移動中話しかけFlagをONにする。
The
移動制御部112は、移動部108を制御し、呼びかけ音声が発せられた音源の方向にロボット100が向くように旋回する。具体的には、移動制御部112は、音声解析部111で検出された方向、又は撮像部105で検出したユーザUの顔の方向にロボット100を右旋回又は左旋回し、呼びかけ音声が発せられた音源の方向に向ける。また、移動制御部112は、移動部108を制御し、ロボット100をユーザUに向けて移動する。また、対話可能距離Dを超えていた位置から、ロボット100がユーザUに向けて移動をするように移動部108を制御した後において、移動制御部112は、ロボット100が対話可能距離D以下に近づいたと判定された場合に、ロボット100を停止するように移動部108を制御する。
The
判定部113は、ユーザUからロボット100に話しかけられた場合、ユーザUとロボット100との対話が可能であるか否かを判定する。撮像部105が撮像した画像からユーザUの顔を検出し、ユーザUの顔までの距離を検出する。判定部113は、顔の大きさから距離を検出してもよく、左右の目の間の距離からユーザUの顔までの距離を検出してもよい。その後、判定部113は、ユーザUとロボット100との対話が可能であるか否かを、ユーザUの顔までの距離が対話可能距離D以下であるか否かにより判定する。対話可能距離Dは、音声パターンが予め登録されていなくても、マイク104で集音した音声を文字情報に変換できる程度に音声を認識できる距離である。対話可能距離Dは、例えば1mである。このように、判定部113は、判定手段として機能する。
When the user U speaks to the
対話制御部114は、対話の開始を阻止する動作(対話の中断をさせるための第1の応答)、対話を開始する通知(第1の応答とは異なる対話を継続する第2の応答)、移動中話しかけ対策及び対話の実行を行う。対話制御部114は、ロボット100とユーザUとの間の対話が可能になるまでの間、対話の開始を阻止する動作を実行する。具体的には、対話制御部114は、対話の開始を阻止する動作として、「ハーイただいま」「ちょっと待って」などの対話の開始を阻止する音声を発話する、又は手部103を耳の後ろに当てて聞こえないジェスチャーを実行する。また、対話制御部114は、対話の開始を阻止する動作を実行した後、ロボット100とユーザUとの間の対話が可能になったと判定されると、対話を開始する通知を実行する。対話制御部114は、対話を開始する通知として、スピーカ106からユーザUの名前、「何でしょうか」などの対話を開始する通知を音声により発話してもよく、手部103を前に出して対話を開始するジェスチャーを実行してもよい。また、対話制御部114は、移動中話しかけFlagがONであるか否かを判定し、移動中話しかけFlagがONであると判定されると、スピーカ106から移動中話しかけ対策のための音声を発話する。移動中話しかけ対策のための音声は、「聞こえなかった」、「もう一回言って」などを含む。
The
操作ボタン120は、胴体部102の背中に設けられ、ロボット100を操作するためのボタンであり、電源ボタンを含む。
The
電源部130は、胴体部102に内蔵された充電池から構成され、ロボット100の各部に電力を供給する。
The
次に、以上の構成を有するロボット100が実行する第1の対話処理について説明する。第1の対話処理は、ユーザUとロボット100との距離が対話可能距離D以上離れている場合、対話の開始を阻止し、対話可能距離D以下に近づくと対話を開始する通知を実行する処理である。
Next, the first interactive processing executed by the
ユーザUが操作ボタン120を操作し電源をONにすると、ロボット100は電源をONにする指示に応答し、図3に示す第1の対話処理を開始する。以下、ロボット100が実行する第1の対話処理を、フローチャートを用いて説明する。
When the user U operates the
まず、音声解析部111は、ユーザUから発せられた音声を検出する(ステップS101)。次に、音声解析部111は、ユーザUから発せられた音声に、予め登録された呼びかけ音声を含んでいるか否かを判定する(ステップS102)。呼びかけ音声は、例えば、ロボットの名前、「おーい」、「ちょっと聞いて」などが含まれる。呼びかけ音声が含まれていないと判定されると(ステップS102;No)、ステップS101~ステップS102を繰り返す。
First, the
ユーザUから発せられた音声に、呼びかけ音声が含まれていると判定されると(ステップS102;Yes)、音声解析部111は、移動中話しかけFlagをOFFにする(ステップS103)。次に、音声解析部111は、呼びかけ音声が発せられた音源の方向を検出する(ステップS104)。具体的には、音声解析部111は、呼びかけ音声が発せられた音源の方向を、頭部101の右耳に配置されたマイク104、左耳に配置されたマイク104、及び後頭部に配置されたマイク104で収音した呼びかけ音声の音量差又は位相差により検出する。次に、移動制御部112は、呼びかけ音声が発せられた音源の方向にロボット100が向くように旋回する(ステップS105)。具体的には、移動制御部112は、移動部108を制御し、ロボット100を右旋回又は左旋回し、呼びかけ音声が発せられた音源の方向に向ける。次に、判定部113は、ユーザUの顔を検出する(ステップS106)。次に、判定部113は、ユーザUの顔までの距離を検出する(ステップS107)。判定部113は、顔の大きさから距離を検出してもよく、左右の目の間の距離からユーザUの顔までの距離を検出してもよい。
When it is determined that the voice uttered by the user U includes the calling voice (step S102; Yes), the
次に、判定部113は、ユーザUの顔までの距離が対話可能距離D以下であるか否かを判定する(ステップS108)。対話可能距離Dは、例えば1mである。ユーザUの顔までの距離が対話可能距離D以下でないと判定されると(ステップS108;No)、対話制御部114は、対話の開始を阻止する動作を行う(ステップS109)。対話の開始を阻止する動作には、スピーカ106から「ハーイただいま」「ちょっと待って」などの対話の開始を阻止する音声を発話してもよく、手部103を耳の後ろに当てて聞こえないジェスチャーを実行してもよい。次に、移動制御部112は、移動部108を制御し、ロボット100をユーザUに向けて移動する(ステップS110)。次に、音声解析部111は、移動中にユーザUから話しかけられているか否かを判定する(ステップS111)。移動中にユーザUから話しかけられていると判定すると(ステップS111;Yes)、音声解析部111は、移動中話しかけFlagをONにし(ステップS112)、ステップS106に戻る。移動中にユーザUから話しかけられていないと判定すると(ステップS111;No)、ステップS106に戻る。
Next, the
ユーザUの顔までの距離が対話可能距離D以下であると判定されると(ステップS108;Yes)、対話制御部114は、対話を開始する通知を行う(ステップS113)。具体的には、対話制御部114は、スピーカ106から「何でしょうか」などの対話を開始する通知を音声により発話してもよく、手部103を前に出して対話を開始するジェスチャーを実行してもよい。このとき、移動制御部112は、ロボット100を停止するように移動部108を制御する。次に、対話制御部114は、移動中話しかけFlagがONであるか否かを判定する(ステップS114)。移動中話しかけFlagがONであると判定されると(ステップS114;Yes)、スピーカ106から移動中話しかけ対策のための音声を発話する(ステップS115)。移動中話しかけ対策のための音声は、「聞こえなかった」、「もう一回言って」などを含む。次に、対話制御部114は、対話を実行する(ステップS116)。移動中話しかけFlagがONでないと判定されると(ステップS114;No)、対話制御部114は、対話を実行する(ステップS116)。その後、音声解析部111は、終了指示を受け付けたか否かを判定する(ステップS117)。終了指示を受け付けていないと判定すると(ステップS117;No)、ステップS101に戻り、ステップS101からステップS117を繰り返す。対話中に終了指示を受け付けたと判定すると(ステップS117;Yes)、第1の対話処理を終了する。
When it is determined that the distance to the face of the user U is equal to or less than the conversationable distance D (step S108; Yes), the
次に、本実施の形態に係るロボット100が実行する第1の対話処理を具体例に基づいて図4~図7を参照しながら説明する。
Next, the first interactive processing executed by the
ユーザUが操作ボタン120を操作し電源をONにすると、ロボット100は電源をONにする指示に応答し第1の対話処理を開始する。ロボット100は、自走しユーザUから対話可能距離Dを超えて離れた位置に移動したとする。
When the user U operates the
ユーザUが図4に示すロボット100に「ちょっと聞いて」と呼びかけると、音声解析部111は、ユーザUから発せられた音声を検出する(ステップS101;図3)。ユーザUから発せられた音声に、「ちょっと聞いて」という音声を含んでいるので、音声解析部111は、予め登録された呼びかけ音声を含んでいると判定する(ステップS102;Yes;図3)。
When the user U calls the
次に、音声解析部111は、移動中話しかけFlagをOFFにする(ステップS103;図3)。次に、音声解析部111は、呼びかけ音声が発せられた音源の方向を検出する(ステップS104;図3)。このときユーザUは、ロボット100からみて右に位置するので、音声解析部111は、右耳、左耳、後頭部に配置されたマイク104で収音した呼びかけ音声の音量差又は位相差により、呼びかけ音声が発せられた音源の方向は、右であると検出する。次に、移動制御部112は、図5に示すように、呼びかけ音声が発せられた音源の方向にロボット100が向くように右旋回する(ステップS105;図3)。次に、判定部113は、ユーザの顔を検出する(ステップS106;図3)。次に、判定部113は、ユーザの顔までの距離D1を検出する(ステップS107;図3)。
Next, the
次に、判定部113は、ユーザの顔までの距離が対話可能距離D以下であるか否かを判定する(ステップS108;図3)。このとき、距離D1は、対話可能距離Dよりも大きいので、ユーザの顔までの距離が対話可能距離D以下でないと判定され(ステップS108;No;図3)、対話制御部114は、対話の開始を阻止する動作を行う(ステップS109;図3)。対話の開始を阻止する動作として、図6に示すように、手部103を耳の後ろに当てて聞こえないジェスチャーを実行する、又はスピーカ106から「ハーイただいま」「ちょっと待って」などの対話の開始を阻止する音声を発話する。次に、移動制御部112は、移動部108を制御し、ロボット100をユーザに向けて移動する(ステップS110;図3)。次に、移動中にユーザUから話しかけられると、音声解析部111は、移動中にユーザから話しかけられていると判定する(ステップS111;Yes;図3)。次に、音声解析部111は、移動中話しかけFlagをONにし(ステップS112;図3)、ステップS106に戻る。
Next, the
ロボット100が図7に示す位置まで移動すると、判定部113は、ユーザの顔までの距離D2が対話可能距離D以下であると判定する(ステップS108;Yes;図3)。次に、対話制御部114は、対話を開始する通知を行う(ステップS113;図3)。具体的には、対話制御部114は、手部103を前に出して対話を開始するジェスチャーを実行し、スピーカ106から「何でしょうか」などの対話を開始する通知を音声により発話する。次に、対話制御部114は、移動中話しかけFlagがONであると判定し(ステップS114;Yes;図3)、スピーカ106から移動中話しかけ対策のための音声「聞こえなかった」を発話(ステップS115;図3)する。次に、対話制御部114は、対話を実行する(ステップS116;図3)。その後、音声解析部111は、対話中に終了指示を受け付けたと判定すると(ステップS117;Yes;図3)、第1の対話処理を終了する。
When the
以上のように、本実施の形態のロボット100によれば、呼びかけ音声を検出し、ユーザUとロボット100の距離が、対話の音声認識精度が確保できる対話可能距離Dよりも大きい場合に、明示的にまだ対話出来ない旨を表し、ユーザUに対話可能距離D以下の位置まで近づくまで不用な対話開始を阻止することで、音声認識精度を向上することができる。また、ロボット100が対話を開始する通知を行うことで、移動後の対話をスムーズに行うことを可能にする。
As described above, according to the
(第2の実施の形態)
第1の実施の形態に係るロボット100は、移動部108により自律移動し、ユーザUがロボット100に呼びかけたとき、ロボット100がユーザUから離れているとユーザUに移動して近づくものである。これに対して、第2の実施の形態に係るロボット200は、自律移動せず、雑音の音量がユーザUと対話をすることができる基準値以上である場合、雑音の音量が基準値以下になるまでの間、ユーザUに対話の開始を阻止する動作を実行する。
(Second embodiment)
The
第2の実施の形態に係るロボット200は、図8に示すように、ロボット100の構成で有していた移動部108及び移動制御部112を有さず、ロボット100の構成に加えて、唇動作検出部115を備える。
As shown in FIG. 8, the
音声解析部111は、ユーザUから発せられた音声を検出し、ユーザUから発せられた音声に、予め登録された呼びかけ音声を含んでいるか否かを判定する。また、音声解析部111は、ユーザUから発せられた音声以外の音を雑音として検出する。また、音声解析部111は、雑音がテレビジョン、オーディオ機器、楽器などの音響機器から発せられた音であるか否かを判定する。音響機器から発せられた音か否かは、音に音声又は楽器の音を含むか、音にリズムを有するか、等により判定する。
The
判定部113は、音声解析部111により検出された雑音の音量がユーザUと対話をすることができる基準値以下である場合に、ロボット200とユーザUとの間の対話が可能であると判定する。判定部113は、唇動作検出部115により検出されたユーザUの唇の動作により、ユーザUがロボット200に呼びかけたか否かを判定する。具体的には、判定部113は、ユーザUの唇の動作にロボットの名前、「おーい」、「ちょっと聞いて」と発音したときの動きが含まれるか否かにより判定する。
The
対話制御部114は、判定部113により雑音の音量が基準値を超えると判定された場合に、雑音の音量が基準値以下になるまでの間、ユーザUへ対話の開始を阻止する動作を実行する。また、対話制御部114は、音声解析部111により雑音がテレビジョン、オーディオ機器、楽器などの音響機器から発せられたものであると判定されると、音響機器からの音量を下げる指示を示す音声を発話する。
When the
唇動作検出部115は、撮像部105により撮像された画像からユーザUの顔を検出し、ユーザUの唇の動作を検出する。このように、唇動作検出部115は、唇動作検出手段として機能する。
The lip
次に、第2の実施の形態に係るロボット200が実行する第2の対話処理を説明する。
Next, a second interactive process executed by the
ユーザUが操作ボタン120を操作し電源をONにすると、ロボット200は電源をONにする指示に応答し、図9に示す第2の対話処理を開始する。以下、ロボット200が実行する第2の対話処理を、フローチャートを用いて説明する。
When the user U operates the
まず、音声解析部111は、ユーザUから発せられた音声を検出する(ステップS201)。次に、音声解析部111は、ユーザUから発せられた音声に、予め登録された呼びかけ音声を含んでいるか否かを判定する(ステップS202)。呼びかけ音声は、例えば、ロボット200の名前、「おーい」、「ちょっと聞いて」などが含まれる。呼びかけ音声が含まれていないと判定されると(ステップS202;No)、唇動作検出部115は、撮像部105により撮像された画像からユーザUの顔を検出する(ステップS203)。次に、唇動作検出部115は、ユーザUの唇の動作を検出する(ステップS204)。次に、判定部113は、ユーザUの唇の動作により、ユーザUがロボット200に呼びかけたか否かを判定する(ステップS205)。具体的には、判定部113は、ユーザUの唇の動作にロボット200の名前、「おーい」、「ちょっと聞いて」と発音したときの動きが含まれるか否かにより判定する。呼びかけがなかったと判定されると(ステップS205;No)、ステップS201~ステップS204を繰り返す。
First, the
音声解析部111により呼びかけ音声が含まれていると判定される(ステップS202;Yes)、又は判定部113により、ユーザUがロボット200に呼びかけたと判定されると(ステップS205;Yes)、音声解析部111は、ユーザUから発せられた音声以外の音を雑音として検出する(ステップS206)。次に、判定部113は、音声解析部111により検出された雑音の音量がユーザUと対話をすることができる基準値以下であるか否かを判定する(ステップS207)。
When the
判定部113により、雑音の音量が基準値以下でないと判定されると(ステップS207;No)、対話制御部114は、対話の開始を阻止する動作を行う(ステップS208)。対話の開始を阻止する動作には、スピーカ106から「ハーイただいま」「ちょっと待って」などの対話の開始を阻止する音声を発話してもよく、手部103を耳の後ろに当てて聞こえないジェスチャーを実行してもよい。音声解析部111は、雑音がテレビジョン、オーディオ機器、楽器などの音響機器から発せられた音であるか否かを判定する(ステップS209)。音響機器から発せられた音か否かは、音に音声又は楽器の音を含むか、音にリズムを有するか、等により判定する。雑音が音響機器から発せられた音であると判定されると(ステップS209;Yes)、対話制御部114は、音響機器からの音量を下げる指示、例えば「ボリュームを下げて」を示す音声を発話し(ステップS210)、ステップS206に戻る。雑音が音響機器から発せられた音でないと判定されると(ステップS209;No)、ステップS206に戻る。
When the
判定部113により、雑音の音量が基準値以下であると判定されると(ステップS207;Yes)、対話制御部114は、対話を開始する通知を行う(ステップS211)。具体的には、対話制御部114は、スピーカ106から「何でしょうか」などの対話を開始する通知を音声により発話してもよく、手部103を前に出して対話を開始するジェスチャーを実行してもよい。次に、対話制御部114は、対話を実行する(ステップS212)。その後、音声解析部111は、終了指示を受け付けたか否かを判定する(ステップS213)。終了指示を受け付けていないと判定すると(ステップS213;No)、ステップS201に戻り、ステップS201からステップS213を繰り返す。対話中に終了指示を受け付けたと判定すると(ステップS213;Yes)、第2の対話処理を終了する。
When the
以上のように、第2の実施の形態のロボット200によれば、雑音の音量が基準値を超える場合、対話の開始を阻止する動作を行う。これにより、雑音により対話が困難である場合に対話が中止されるため、音声認識精度を向上することができる。また、ロボット200が対話を開始する通知を行うことで、移動後の対話をスムーズに行うことを可能にする。また、唇動作検出部115は、撮像部105により撮像された画像からユーザUの唇の動作を検出し、判定部113は、ユーザUの唇の動作により、ユーザUがロボット200に呼びかけたか否かを判定する。これにより、雑音が大きい場合でもロボット200は、ユーザUがロボット200に呼びかけたか否かを判定できる。
As described above, according to the
(変形例)
前述の実施の形態では、第1の実施の形態に係るロボット100の判定部113は、ユーザUとの距離が対話可能距離Dを超えるか否かで、対話が困難であるか否かを判定した。第2の実施の形態に係るロボット200の判定部113は、雑音の音量が基準値を超えるか否かにより、対話が困難であるか否かを判定した。ロボット100、200の判定部113は、対話が困難であるか否かを判定できればよい。例えば、ロボット100、200の判定部113は、ユーザUとの距離と、雑音と、により対話が困難であるか否かを判定してもよい。例えば、ユーザUとの距離が対話可能距離Dを超え、且つ雑音の音量が基準値を超えた場合に、対話が困難であるか否かを判定してもよい。また、雑音の音量レベルに応じて対話可能距離Dを変更してもよい。例えば、図10に示すように、雑音の音量が大きいとき、対話可能距離Dを小さくし、雑音の音量が小さいとき、対話可能距離Dを大きくする。この場合、ロボット100、200は、対話可能距離Dを関数により算出してもよく、対話可能距離DをあらかじめROMに記憶したテーブルにより得てもよい。また、ユーザUと対話をすることができる雑音の音量の基準値は、ユーザUとロボット100、200の距離により変化してもよい。例えば、図11に示すように、ユーザUとロボット100、200の距離が大きいとき、雑音の音量の基準値を小さくする。この場合、ロボット100、200は、雑音の音量の基準値を関数により算出してもよく、雑音の音量の基準値をあらかじめROMに記憶したテーブルにより得てもよい。また、ロボット100、200の判定部113は、ユーザUの声の大きさ、音声認識で文字データに変換できる割合、対話に用いる言語などにより対話が困難であるか否かを判定してもよい。
(Modification)
In the above-described embodiment, the
前述の実施の形態のロボット100、200の対話制御部114は、目を表す表示部107とユーザUの目とがアイコンタクトをするように、表示部107に目の画像を表示してもよい。このようにすることで、ロボット100、200がより人間に近い動作を表現できる。対話制御部114が行う対話の開始を阻止する動作は、マイク104が配置さていている耳部及び目部に配置された表示部107に目をとじた画像を表示し、ロボット100、200が音声を聞いておらず且つユーザUも見ていないようなふりをしてもよい。
The
前述の第1の実施の形態では、移動制御部112が、移動部108を制御し、ロボット100をユーザUに向けて移動し、対話可能距離D以下に近づくと、ロボット100を停止するように移動部108を制御する例について説明した。移動制御部112は、ロボット100を対話可能距離D以下に近づくように制御すればよい。例えば、判定部113によりロボット100とユーザUとの距離が対話可能距離Dを超えると判定された場合に、移動制御部112は、ロボット100が任意の方向に移動をしている場合にはロボット100が移動の方向を変更してユーザUに向けて移動をするように移動部108を制御して、ロボット100が停止をしている場合にはロボット100がユーザUに向けて移動を始めるように移動部108を制御してもよい。判定部113によりロボット100とユーザUとの距離が対話可能距離以下であると判定された場合に、移動制御部112は、ロボット100が移動をしている場合にはロボット100を停止するように移動部108を制御して、ロボット100が停止をしている場合にはロボット100の停止を維持するように移動部を制御してもよい。この場合、対話制御部114は、ユーザUに対話の継続をさせるための応答をするように動作手段を制御してもよい。
In the first embodiment described above, the
前述の実施の形態では、撮像部105が、頭部101の鼻の位置に設けられたカメラである例について説明した。撮像部105は、頭部101の片方の目の位置に設けられたカメラでもよく、両目に設けられたステレオカメラであってもよい。
In the above-described embodiment, an example in which
前述の実施の形態では、ロボット100、200とユーザUの顔との距離を、撮像部105が撮像した画像に写るユーザUの顔の大きさ、又は左右の目の間の距離から検出する例について説明した。ロボット100、200とユーザUの顔との距離を測定する方法は限定されず、非接触距離センサにより測定されてもよい。非接触距離センサは、例えば、ロボット100、200の胴体部102に設置された超音波センサ又はレーザーセンサである。撮像部105にステレオカメラを用いた場合、ステレオカメラで撮像した画像からロボット100、200とユーザUの顔との距離を検出してもよい。
In the above embodiments, the distance between the
前述の実施の形態では、所定の対象がユーザUである例について説明した。所定の対象は、ロボット100と対話できるものであればよく、人であってもよく、犬や猫などの動物であってもよく、ロボット100以外の他のロボットであってもよい。
In the above embodiment, an example in which the predetermined target is the user U has been described. The predetermined object may be any object that can interact with the
前述の実施の形態では、移動部108が、モータとタイヤとから構成される例について説明した。移動部108は、ロボット100を移動することができればよく、例えば、複数の足と足を動かすモータとから構成されてもよい。このようにすることで、ロボット100の形状を人や動物により近づけることができる。
In the above-described embodiment, an example in which the moving
前述の実施の形態では、ロボット100、200が、人を模した形状を有する例について説明したが、ロボット100、200の形状は、特に限定されず、例えば、犬又は猫を含む動物を模した形状を有してもよく、アニメーションのキャラクタや想像上の生き物を模した形状であってもよい。また、ロボット100、200は、対話機能を有するものであればよく、自律走行して床などを掃除する掃除ロボット、巡回監視などを行う警備ロボットなどを含む。
In the above-described embodiments,
前述の実施の形態では、判定手段は、ロボットが所定の対象から話しかけられた場合、ロボットと所定の対象との間の対話が可能であるか否かを判定したが、対話に限定されず、判定手段は、ロボットが所定の対象から話しかけがあった場合、ロボットと所定の対象との間の音声認識精度の向上が可能であるか否かを判定してもよい。 In the above-described embodiment, when the robot is spoken to by the predetermined target, the determining means determines whether or not the robot can interact with the predetermined target. The determining means may determine whether or not it is possible to improve the speech recognition accuracy between the robot and the predetermined target when the robot is spoken to by the predetermined target.
また、前述の実施の形態では、制御手段は、判定手段によりロボットと所定の対象との間の対話が可能でないと判定された場合に、対話の中断をさせるための第1の応答をするように動作手段を制御したが、同様に対話に限定されず、制御手段は判定手段によりロボットと所定の対象との間の音声認識精度の向上が可能でないと判定された場合に、所定の対象に話しかけの中断をさせるための第1の応答をしてもよい。 Further, in the above-described embodiment, the control means makes the first response for interrupting the dialogue when the determination means determines that the dialogue between the robot and the predetermined object is not possible. However, it is not limited to dialogue, and the control means controls the predetermined target when the determination means determines that it is not possible to improve the speech recognition accuracy between the robot and the predetermined target. A first response may be given to cause a break in speaking.
また、第1の応答は、所定の対象に対話の中断を促す、音声出力手段による音声の出力、又は、所定の対象に対話の中断を促す、動作手段による姿勢の出力を含んでもよい。また、第1の応答は、音声入力手段及び撮像手段が意図的に機能していないふりをして、ロボット100、200が音声を聞いておらず、且つ、画像も見ていないような感情表現をすることを含んでもよい。
In addition, the first response may include output of sound by the audio output means to prompt the predetermined target to stop the dialogue, or output of posture by the action means to prompt the predetermined target to stop the dialogue. In addition, the first response is to intentionally pretend that the voice input means and imaging means are not functioning, and the
また、第2の応答は、所定の対象に対話の継続を促す、音声出力手段による音声の出力、又は、所定の対象に対話の継続を促す、動作手段による姿勢の出力を含んでもよい。また、第2の応答は、音声入力手段及び撮像部105が意図的に機能しているふりをして、ロボット100、200が音声を聞いており、且つ、画像も見ているような感情表現をすることを含んでもよい。
In addition, the second response may include output of voice by the voice output means prompting the predetermined target to continue the dialogue, or output of posture by the action means prompting the predetermined target to continue the dialogue. In addition, the second response is to pretend that the voice input means and the
また、前述の実施の形態では、ロボットを例として説明したが、ロボットに限定されず、AI(Artificial Intelligence)スピーカ等の電子機器でもよい。 Further, in the above-described embodiments, a robot was described as an example, but the present invention is not limited to a robot, and an electronic device such as an AI (Artificial Intelligence) speaker may be used.
また、CPU、RAM、ROM等から構成される制御部110が実行する処理を行う中心となる部分は、専用のシステムによらず、通常の情報携帯端末(スマートフォン、タブレットPC(Personal Computer))、パーソナルコンピュータなどを用いて実行可能である。たとえば、前述の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)等)に格納して配布し、このコンピュータプログラムを情報携帯端末などにインストールすることにより、前述の処理を実行する情報端末を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置にこのコンピュータプログラムを格納しておき、通常の情報処理端末などがダウンロード等することで情報処理装置を構成してもよい。
In addition, the main part of the processing executed by the
また、制御部110の機能を、OS(Operating System)とアプリケーションプログラムとの分担、又はOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
In addition, when the functions of the
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にこのコンピュータプログラムを掲示し、ネットワークを介してこのコンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前述の処理を実行できるように構成してもよい。 It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board system (BBS: Bulletin Board System) on a communication network and distributed over the network. Then, this computer program may be activated and executed in the same manner as other application programs under the control of the OS so that the above processing can be executed.
本発明は、本発明の広義の精神と範囲とを逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、前述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 The present invention is capable of various embodiments and modifications without departing from the broader spirit and scope of the invention. Moreover, the above-described embodiments are for explaining the present invention, and do not limit the scope of the present invention. In other words, the scope of the present invention is indicated by the claims rather than the embodiments. Various modifications made within the scope of the claims and within the meaning of the invention equivalent thereto are considered to be within the scope of the present invention. The invention described in the original claims of the present application is appended below.
(付記1)
自装置に動作をさせる動作手段と、
前記自装置が所定の対象から話しかけがあった場合、前記自装置と前記所定の対象との間の音声認識精度の向上が可能であるか否かを判定する判定手段と、
前記判定手段により前記自装置と前記所定の対象との間の前記音声認識精度の向上が可能でないと判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御手段と、
を備える、
ことを特徴とするロボット。
(Appendix 1)
an operation means for causing the device to operate;
determination means for determining whether or not speech recognition accuracy between the device and the predetermined target can be improved when the device is spoken to by a predetermined target;
When the determination means determines that the accuracy of speech recognition between the device itself and the predetermined target cannot be improved, a first response for causing the predetermined target to stop talking to the target is provided. a control means for controlling the operating means to
comprising
A robot characterized by:
(付記2)
前記判定手段は、前記自装置が前記所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の対話が可能であるか否かを判定し、
前記制御手段は、前記判定手段により前記自装置と前記所定の対象との間の前記対話が可能でないと判定された場合に、前記対話の前記中断をさせるための前記第1の応答をするように前記動作手段を制御する、
ことを特徴とする付記1に記載のロボット。
(Appendix 2)
The determination means determines whether or not a dialogue between the device and the predetermined object is possible when the device is spoken to by the predetermined object,
The control means makes the first response for interrupting the dialogue when the determination means determines that the dialogue between the device and the predetermined target is not possible. controlling the operating means to
The robot according to appendix 1, characterized by:
(付記3)
前記制御手段は、前記自装置と前記所定の対象との間の前記対話が可能になるまでの間、前記対話の前記中断をさせるための前記第1の応答をするように前記動作手段を制御する、
ことを特徴とする付記2に記載のロボット。
(Appendix 3)
The control means controls the operation means to make the first response for interrupting the dialogue until the dialogue between the device and the predetermined target becomes possible. do,
The robot according to appendix 2, characterized by:
(付記4)
前記制御手段が、前記第1の応答をするように前記動作手段を制御した後、前記判定手段が前記自装置と前記所定の対象との間の前記対話が可能であると判定すると、前記制御手段は、前記第1の応答とは異なる前記所定の対象に前記対話の継続をさせるための第2の応答をするように前記動作手段を制御する、
ことを特徴とする付記2又は3に記載のロボット。
(Appendix 4)
After the control means controls the operation means to make the first response, if the determination means determines that the interaction between the device and the predetermined target is possible, the control means for controlling the operating means to make a second response different from the first response for causing the predetermined target to continue the dialogue;
The robot according to appendix 2 or 3, characterized by:
(付記5)
前記判定手段は、前記自装置が前記所定の対象から話しかけられた場合、前記自装置と前記所定の対象との距離を検出し、前記距離が前記所定の対象と前記対話をするために必要な対話可能距離を超える場合に、前記自装置と前記所定の対象との間の前記対話が可能でないと判定する、
ことを特徴とする付記2乃至4の何れか1つに記載のロボット。
(Appendix 5)
The determination means detects a distance between the device and the predetermined target when the device is spoken to by the predetermined target, and the determination means detects the distance required for the dialogue with the predetermined target. Determining that the interaction between the device and the predetermined target is not possible when the interaction possible distance is exceeded;
5. The robot according to any one of Appendices 2 to 4, characterized by:
(付記6)
前記自装置を移動させる移動手段を更に備え、
前記制御手段は、前記判定手段により前記距離が前記対話可能距離を超えると判定された場合に、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御する、
ことを特徴とする付記5に記載のロボット。
(Appendix 6)
further comprising moving means for moving the device,
When the determining means determines that the distance exceeds the interactive distance, the control means controls the moving means so that the own device moves toward the predetermined target.
The robot according to appendix 5, characterized by:
(付記7)
前記距離が前記対話可能距離以下になるまでの間、前記第1の応答をするように前記動作手段を制御する、
ことを特徴とする付記5又は6に記載のロボット。
(Appendix 7)
controlling the operating means to make the first response until the distance becomes equal to or less than the interactive distance;
The robot according to appendix 5 or 6, characterized by:
(付記8)
音声を入力する音声入力手段と、
前記音声入力手段により入力された音声を解析する音声解析手段と、
を更に備え、
前記判定手段は、前記音声解析手段により解析された雑音の音量が前記所定の対象と前記対話をすることができる基準値を超える場合に、前記自装置と前記所定の対象との間の前記対話が可能でないと判定し、
前記制御手段は、前記判定手段により前記雑音の音量が前記基準値を超えると判定された場合に、前記雑音の音量が前記基準値以下になるまでの間、前記第1の応答をするように前記動作手段を制御する、
ことを特徴とする付記2乃至7の何れか1つに記載のロボット。
(Appendix 8)
voice input means for inputting voice;
a voice analysis means for analyzing the voice input by the voice input means;
further comprising
When the volume of the noise analyzed by the speech analysis means exceeds a reference value at which the dialogue with the predetermined object is possible, the determination means determines whether the dialogue between the device itself and the predetermined object is possible. is not possible,
When the determination means determines that the volume of the noise exceeds the reference value, the control means makes the first response until the volume of the noise becomes equal to or less than the reference value. controlling the operating means;
8. The robot according to any one of Appendices 2 to 7, characterized by:
(付記9)
画像を撮像する撮像手段と、
前記撮像手段により撮像された画像から前記所定の対象の顔を検出し、検出された前記顔に含まれる唇動作を検出する唇動作検出手段と、
を更に備え、
前記判定手段は、前記唇動作検出手段により検出された前記唇動作により前記所定の対象から話しかけられたか否かを判定する、
ことを特徴とする付記2乃至8の何れか1つに記載のロボット。
(Appendix 9)
an imaging means for imaging an image;
lip motion detection means for detecting the face of the predetermined target from the image captured by the imaging means and detecting lip motion included in the detected face;
further comprising
The determination means determines whether or not the predetermined target has spoken to the lip motion detected by the lip motion detection means.
9. The robot according to any one of Appendices 2 to 8, characterized by:
(付記10)
前記判定手段により前記自装置と前記所定の対象との距離が対話可能距離を超えると判定された場合に、
前記制御手段は、前記自装置が任意の方向に移動をしている場合には前記自装置が移動の方向を変更して前記所定の対象に向けて移動をするように移動手段を制御して、前記自装置が停止をしている場合には前記自装置が前記所定の対象に向けて移動を始めるように前記移動手段を制御する、
ことを特徴とする付記2乃至9の何れか1つに記載のロボット。
(Appendix 10)
when the determination means determines that the distance between the device and the predetermined target exceeds the interactive distance,
The control means controls the movement means so that, when the device is moving in an arbitrary direction, the device changes the direction of movement and moves toward the predetermined target. , controlling the moving means so that the own device starts moving toward the predetermined target when the own device is stopped;
The robot according to any one of Appendices 2 to 9, characterized in that:
(付記11)
前記判定手段により前記自装置と前記所定の対象との距離が対話可能距離以下であると判定された場合に、
前記制御手段は、前記自装置が移動をしている場合には前記自装置を停止するように移動手段を制御して、前記自装置が停止をしている場合には前記自装置の停止を維持するように前記移動手段を制御して、
前記制御手段は、前記所定の対象に前記対話の継続をさせるための第2の応答をするように前記動作手段を制御する、
ことを特徴とする付記2乃至10の何れか1つに記載のロボット。
(Appendix 11)
when the determination means determines that the distance between the device and the predetermined object is equal to or less than the interactive distance,
The control means controls the moving means to stop the own device when the own device is moving, and stops the own device when the own device is stopped. controlling the moving means to maintain
The control means controls the action means to give a second response for causing the predetermined target to continue the dialogue.
11. The robot according to any one of Appendices 2 to 10, characterized by:
(付記12)
音声を出力する音声出力手段を更に備え、
前記第1の応答は、前記所定の対象に前記対話の前記中断を促す、前記音声出力手段による音声の出力、又は、前記所定の対象に前記対話の前記中断を促す、前記動作手段による姿勢の出力を含む、
ことを特徴とする付記2に記載のロボット。
(Appendix 12)
further comprising audio output means for outputting audio,
The first response prompts the predetermined target to discontinue the dialogue, outputs voice by the voice output means, or prompts the predetermined target to discontinue the dialogue, and changes posture by the action means. including output,
The robot according to appendix 2, characterized by:
(付記13)
音声を出力する音声出力手段を更に備え、
前記第2の応答は、前記所定の対象に前記対話の前記継続を促す、前記音声出力手段による音声の出力、又は、前記所定の対象に前記対話の前記継続を促す、前記動作手段による姿勢の出力を含む、
ことを特徴とする付記4又は11に記載のロボット。
(Appendix 13)
further comprising audio output means for outputting audio,
The second response prompts the predetermined target to continue the dialogue, outputs voice by the voice output means, or prompts the predetermined target to continue the dialogue, and changes posture by the action means. including output,
The robot according to appendix 4 or 11, characterized by:
(付記14)
音声を入力する音声入力手段と、
画像を撮像する撮像手段と、
を更に備え、
前記第1の応答は、前記音声入力手段及び前記撮像手段が意図的に機能していないふりをして、前記自装置が音声を聞いておらず、且つ、画像も見ていないような感情表現をすることを含む、
ことを特徴とする付記2に記載のロボット。
(Appendix 14)
voice input means for inputting voice;
an imaging means for imaging an image;
further comprising
The first response is to intentionally pretend that the voice input means and the imaging means are not functioning, and to express an emotion such that the self-device neither hears voices nor sees images. including doing
The robot according to appendix 2, characterized by:
(付記15)
音声を入力する音声入力手段と、
画像を撮像する撮像手段と、
を更に備え、
前記第2の応答は、前記音声入力手段及び前記撮像手段が意図的に機能しているふりをして、前記自装置が音声を聞いており、且つ、画像も見ているような感情表現をすることを含む、
ことを特徴とする付記4又は11に記載のロボット。
(Appendix 15)
voice input means for inputting voice;
an imaging means for imaging an image;
further comprising
The second response is to pretend that the voice input means and the imaging means are functioning intentionally, and to express emotions such that the self-device is listening to voices and also seeing images. including to
The robot according to appendix 4 or 11, characterized by:
(付記16)
前記所定の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする付記1乃至15の何れか1つに記載のロボット。
(Appendix 16)
the predetermined target includes a human or animal or other robot;
16. The robot according to any one of Appendices 1 to 15, characterized by:
(付記17)
自装置に動作をさせる動作手段を備えるロボットの制御方法であって、
前記自装置が所定の対象から話しかけがあった場合、前記自装置と前記所定の対象との間の音声認識精度の向上が可能であるか否かを判定する判定ステップと、
前記判定ステップにより前記自装置と前記所定の対象との間の前記音声認識精度の向上が可能でないと判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御ステップと、
を含む、
ことを特徴とするロボットの制御方法。
(Appendix 17)
A control method for a robot comprising operating means for causing the robot to operate,
a determination step of determining whether or not it is possible to improve speech recognition accuracy between the device and the predetermined target when the device itself is spoken to by a predetermined target;
When it is determined by the determination step that the improvement of the speech recognition accuracy between the device itself and the predetermined target is not possible, a first response for causing the predetermined target to stop the speech is provided. a control step of controlling the operating means to
including,
A robot control method characterized by:
(付記18)
自装置に動作をさせる動作手段を備えるロボットを制御するコンピュータを、
前記自装置が所定の対象から話しかけがあった場合、前記自装置と前記所定の対象との間の音声認識精度の向上が可能であるか否かを判定する判定手段、
前記判定手段により前記自装置と前記所定の対象との間の前記音声認識精度の向上が可能でないと判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御手段、
として機能させる、
ことを特徴とするプログラム。
(Appendix 18)
A computer that controls a robot equipped with operating means that causes the device to operate,
Determination means for determining whether or not speech recognition accuracy between the device and the predetermined target can be improved when the device is spoken to by a predetermined target;
When the determination means determines that the accuracy of speech recognition between the device itself and the predetermined target cannot be improved, a first response for causing the predetermined target to stop talking to the target is provided. control means for controlling the operating means to
to function as
A program characterized by
100、200…ロボット、101…頭部、102…胴体部、103…手部、104…マイク、105…撮像部、106…スピーカ、107…表示部、108…移動部、110…制御部、111…音声解析部、112…移動制御部、113…判定部、114…対話制御部、115…唇動作検出部、120…操作ボタン、130…電源部
DESCRIPTION OF
Claims (16)
前記自装置を移動させる移動手段と、
前記自装置が所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の距離を検出し、検出された前記距離が前記所定の対象との対話の音声認識精度を確保できる対話可能距離を超えるか否かを判定する判定手段と、
前記判定手段により、検出された前記距離が前記対話可能距離を超えていると判定された場合、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御する制御手段と、
を備え、
前記制御手段は、前記自装置の前記所定の対象に向けての移動中に前記所定の対象から再度話しかけられた場合、前記判定手段により前記自装置と前記所定の対象との間の距離が前記対話可能距離以下となったと判定された後に、前記移動中に話しかけられた内容を認識できていないことを示す動作をするように前記動作手段を制御する、
ことを特徴とするロボット。 an operation means for causing the device to operate;
a moving means for moving the own device;
When the device is spoken to by a predetermined target, the device detects the distance between the device and the predetermined target, and the detected distance can ensure the speech recognition accuracy of the dialogue with the predetermined target. a determination means for determining whether or not the interactive distance is exceeded ;
a control means for controlling the movement means so that the self-device moves toward the predetermined target when the determination means determines that the detected distance exceeds the interactive distance ; ,
with
When the predetermined target speaks to the device again while the device is moving toward the predetermined target, the control means determines the distance between the device and the predetermined target by the determination device. controlling the operating means so as to perform an operation indicating that the content spoken to during the movement is not recognized after it is determined that the distance is equal to or less than the interactive distance ;
A robot characterized by:
ことを特徴とする請求項1に記載のロボット。 When the determination means determines that the detected distance exceeds the interactive distance, the control means makes a first response for causing the predetermined target to stop the talking. controlling said operating means to
The robot according to claim 1, characterized by:
ことを特徴とする請求項2に記載のロボット。 The control means causes the operation means to make the first response for interrupting the talking until the distance between the device and the predetermined object becomes equal to or less than the interactive distance . to control the
3. The robot according to claim 2, characterized by:
ことを特徴とする請求項2又は3に記載のロボット。 After the control means controls the operation means to make the first response, the determination means determines that the distance between the own device and the predetermined object has become equal to or less than the interactive distance. Then, the control means controls the operation means to make a second response different from the first response to cause the predetermined target to continue the dialogue.
4. The robot according to claim 2 or 3, characterized in that:
ことを特徴とする請求項4に記載のロボット。 The second response is performed before an action indicating that the content spoken to during the movement is not recognized .
5. The robot according to claim 4 , characterized in that:
呼びかけ音声が記憶されたメモリと、
を更に備え、
前記判定手段は、前記音声入力手段から入力された音声と、前記メモリに記憶されている呼びかけ音声と、を比較することにより前記所定の対象から話しかけられているかを判定する、
ことを特徴とする請求項1乃至5の何れか1項に記載のロボット。 voice input means for inputting voice;
a memory in which a calling voice is stored;
further comprising
The determining means compares the voice input from the voice input means with the calling voice stored in the memory to determine whether the predetermined target is speaking to the user .
6. The robot according to any one of claims 1 to 5 , characterized in that:
前記制御手段は、前記自装置が任意の方向に移動をしている場合には前記自装置が移動の方向を変更して前記所定の対象に向けて移動をするように前記移動手段を制御して、前記自装置が停止をしている場合には前記自装置が前記所定の対象に向けて移動を始めるように前記移動手段を制御する、
ことを特徴とする請求項1乃至6の何れか1項に記載のロボット。 when the determining means determines that the distance between the device and the predetermined target exceeds the interactive distance,
The control means controls the movement means so that, when the device is moving in an arbitrary direction, the device changes the direction of movement and moves toward the predetermined target. and controlling the moving means so that the own device starts moving toward the predetermined target when the own device is stopped;
7. The robot according to any one of claims 1 to 6 , characterized in that:
前記制御手段は、前記自装置が移動をしている場合には前記自装置を停止するように前記移動手段を制御して、前記自装置が停止をしている場合には前記自装置の停止を維持するように前記移動手段を制御して、
前記制御手段は、前記所定の対象に前記対話の継続をさせるための前記第2の応答をするように前記動作手段を制御する、
ことを特徴とする請求項4又は5に記載のロボット。 when the determining means determines that the distance between the device and the predetermined target is equal to or less than the interactive distance,
The control means controls the moving means to stop the own device when the own device is moving, and stops the own device when the own device is stopped. controlling the moving means to maintain
The control means controls the action means to give the second response for causing the predetermined target to continue the dialogue.
6. The robot according to claim 4 or 5, characterized in that:
前記移動中に話しかけられた内容を認識できていないことを示す動作は、前記所定の対象からの話しかけの内容を再度繰り返すことを要求する音声、又は、前記所定の対象からの話しかけの内容を認識できていないことを示す音声を前記音声出力手段から出力する動作である、
ことを特徴とする請求項1乃至8の何れか1項に記載のロボット。 further comprising audio output means for outputting audio,
The action indicating that the content spoken to while moving is not recognized is a voice requesting to repeat the content of the speech from the predetermined target, or recognizing the content of the speech from the predetermined target. An operation of outputting a voice indicating that it is not done from the voice output means ,
9. The robot according to any one of claims 1 to 8 , characterized in that:
前記第1の応答は、前記所定の対象に前記対話の前記中断を促す、前記音声出力手段による音声の出力、又は、前記所定の対象に前記対話の前記中断を促す、前記動作手段による姿勢の出力を含む、
ことを特徴とする請求項2に記載のロボット。 further comprising audio output means for outputting audio,
The first response prompts the predetermined target to discontinue the dialogue, outputs voice by the voice output means, or prompts the predetermined target to discontinue the dialogue, and changes posture by the action means. including output,
3. The robot according to claim 2 , characterized by:
画像を撮像する撮像手段と、
を更に備え、
前記第1の応答は、前記音声入力手段及び前記撮像手段が意図的に機能していないふりをして、前記自装置が音声を聞いておらず、且つ、画像も見ていないような感情表現をすることを含む、
ことを特徴とする請求項2に記載のロボット。 voice input means for inputting voice;
an imaging means for imaging an image;
further comprising
The first response is to intentionally pretend that the voice input means and the imaging means are not functioning, and to express an emotion such that the self-device neither hears voices nor sees images. including doing
3. The robot according to claim 2, characterized by:
前記第2の応答は、前記所定の対象に前記対話の前記継続を促す、前記音声出力手段による音声の出力、又は、前記所定の対象に前記対話の前記継続を促す、前記動作手段による姿勢の出力を含む、
ことを特徴とする請求項4、5又は8に記載のロボット。 further comprising audio output means for outputting audio,
The second response prompts the predetermined target to continue the dialogue, outputs voice by the voice output means, or prompts the predetermined target to continue the dialogue, and changes posture by the action means. including output,
9. The robot according to claim 4 , 5 or 8 , characterized in that:
画像を撮像する撮像手段と、
を更に備え、
前記第2の応答は、前記音声入力手段及び前記撮像手段が意図的に機能しているふりをして、前記自装置が音声を聞いており、且つ、画像も見ているような感情表現をすることを含む、
ことを特徴とする請求項4、5又は8に記載のロボット。 voice input means for inputting voice;
an imaging means for imaging an image;
further comprising
The second response is to pretend that the voice input means and the imaging means are functioning intentionally, and to express emotions such that the self-device is listening to voices and also seeing images. including to
9. The robot according to claim 4 , 5 or 8 , characterized in that:
ことを特徴とする請求項1乃至13の何れか1項に記載のロボット。 the predetermined target includes a human or animal or other robot;
14. The robot according to any one of claims 1 to 13 , characterized in that:
前記自装置が所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の距離を検出し、検出された前記距離が前記所定の対象との対話の音声認識精度を確保できる対話可能距離を超えるか否かを判定する判定ステップと、
前記判定ステップにより、検出された前記距離が前記対話可能距離を超えていると判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御ステップと、
を含み、
前記判定ステップにより、前記距離が前記対話可能距離を超えると判定された場合、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御し、
前記自装置の前記所定の対象に向けての移動中に前記所定の対象から再度話しかけられた場合、前記自装置と前記所定の対象との間の距離が前記対話可能距離以下となったと判定された後に、前記移動中に話しかけられた内容を認識できていないことを示す動作をするように前記動作手段を制御する、
ことを特徴とするロボットの制御方法。 A control method for a robot comprising operating means for causing the own device to operate and moving means for moving the own device ,
When the device is spoken to by a predetermined target, the device detects the distance between the device and the predetermined target, and the detected distance can ensure the speech recognition accuracy of the dialogue with the predetermined target. a determination step of determining whether or not the interactive distance is exceeded ;
When the determination step determines that the detected distance exceeds the interactive distance, the operation means makes a first response for causing the predetermined target to stop the talking. a control step for controlling
including
if the determining step determines that the distance exceeds the interactive distance, controlling the moving means so that the own device moves toward the predetermined target;
When the predetermined target speaks to the device again while the device is moving toward the predetermined target, it is determined that the distance between the device and the predetermined target is equal to or less than the interactive distance. After that, controlling the operation means to perform an operation indicating that the content spoken to during the movement is not recognized.
A robot control method characterized by:
前記自装置が所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の距離を検出し、検出された前記距離が前記所定の対象との対話の音声認識精度を確保できる対話可能距離を超えるか否かを判定する判定手段、
前記判定手段により、検出された前記距離が前記対話可能距離を超えていると判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御手段、
として機能させ、
前記制御手段は、
前記判定手段により前記距離が前記対話可能距離を超えると判定された場合、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御し、
前記自装置の前記所定の対象に向けての移動中に前記所定の対象から再度話しかけられた場合、前記判定手段により前記自装置と前記所定の対象との間の距離が前記対話可能距離以下となったと判定された後に、前記移動中に話しかけられた内容を認識できていないことを示す動作をするように前記動作手段を制御する、
ことを特徴とするプログラム。 A computer that controls a robot comprising operating means for causing the own device to move and moving means for moving the own device ,
When the device is spoken to by a predetermined target, the device detects the distance between the device and the predetermined target, and the detected distance can ensure the speech recognition accuracy of the dialogue with the predetermined target. Determination means for determining whether or not the interactive distance is exceeded ;
When the determining means determines that the detected distance exceeds the interactive distance, the operating means makes a first response for causing the predetermined target to stop talking. control means for controlling
function as
The control means is
controlling the movement means so that the device moves toward the predetermined target when the determination means determines that the distance exceeds the interactive distance;
When the predetermined target speaks to the device again while the device is moving toward the predetermined target, the determining means determines that the distance between the device and the predetermined target is equal to or less than the interactive distance. controlling the operating means to perform an operation indicating that the content spoken to during the movement is not recognized after it is determined that the
A program characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018116650A JP7176244B2 (en) | 2018-06-20 | 2018-06-20 | Robot, robot control method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018116650A JP7176244B2 (en) | 2018-06-20 | 2018-06-20 | Robot, robot control method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019219509A JP2019219509A (en) | 2019-12-26 |
JP7176244B2 true JP7176244B2 (en) | 2022-11-22 |
Family
ID=69096421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018116650A Active JP7176244B2 (en) | 2018-06-20 | 2018-06-20 | Robot, robot control method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7176244B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7351757B2 (en) * | 2020-01-24 | 2023-09-27 | 株式会社日立製作所 | How to control a moving robot |
JP7430083B2 (en) * | 2020-03-19 | 2024-02-09 | 株式会社フジタ | speech control device |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006181651A (en) | 2004-12-24 | 2006-07-13 | Toshiba Corp | Interactive robot, voice recognition method of interactive robot and voice recognition program of interactive robot |
JP2006187825A (en) | 2005-01-05 | 2006-07-20 | Yaskawa Electric Corp | Robot device and method of controlling the same |
JP2006251266A (en) | 2005-03-10 | 2006-09-21 | Hitachi Ltd | Audio-visual coordinated recognition method and device |
JP2009192942A (en) | 2008-02-15 | 2009-08-27 | Toshiba Corp | Voice interaction apparatus and support method |
JP2009222969A (en) | 2008-03-17 | 2009-10-01 | Toyota Motor Corp | Speech recognition robot and control method for speech recognition robot |
JP2013061715A (en) | 2011-09-12 | 2013-04-04 | Nec Corp | Person monitoring system, robot, person monitoring method and robot control program |
JP2013244566A (en) | 2012-05-28 | 2013-12-09 | Fujitsu Ltd | Robot, and method for controlling the same |
WO2017169826A1 (en) | 2016-03-28 | 2017-10-05 | Groove X株式会社 | Autonomous behavior robot that performs welcoming behavior |
JP2018086689A (en) | 2016-11-28 | 2018-06-07 | 株式会社G−グロボット | Communication robot |
-
2018
- 2018-06-20 JP JP2018116650A patent/JP7176244B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006181651A (en) | 2004-12-24 | 2006-07-13 | Toshiba Corp | Interactive robot, voice recognition method of interactive robot and voice recognition program of interactive robot |
JP2006187825A (en) | 2005-01-05 | 2006-07-20 | Yaskawa Electric Corp | Robot device and method of controlling the same |
JP2006251266A (en) | 2005-03-10 | 2006-09-21 | Hitachi Ltd | Audio-visual coordinated recognition method and device |
JP2009192942A (en) | 2008-02-15 | 2009-08-27 | Toshiba Corp | Voice interaction apparatus and support method |
JP2009222969A (en) | 2008-03-17 | 2009-10-01 | Toyota Motor Corp | Speech recognition robot and control method for speech recognition robot |
JP2013061715A (en) | 2011-09-12 | 2013-04-04 | Nec Corp | Person monitoring system, robot, person monitoring method and robot control program |
JP2013244566A (en) | 2012-05-28 | 2013-12-09 | Fujitsu Ltd | Robot, and method for controlling the same |
WO2017169826A1 (en) | 2016-03-28 | 2017-10-05 | Groove X株式会社 | Autonomous behavior robot that performs welcoming behavior |
JP2018086689A (en) | 2016-11-28 | 2018-06-07 | 株式会社G−グロボット | Communication robot |
Also Published As
Publication number | Publication date |
---|---|
JP2019219509A (en) | 2019-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10930303B2 (en) | System and method for enhancing speech activity detection using facial feature detection | |
CN108363706B (en) | Method and device for man-machine dialogue interaction | |
JP6551507B2 (en) | Robot control device, robot, robot control method and program | |
JP7038210B2 (en) | Systems and methods for interactive session management | |
US11548147B2 (en) | Method and device for robot interactions | |
WO2022033236A1 (en) | Audio enhancement method and apparatus, storage medium, and wearable device | |
KR102115222B1 (en) | Electronic device for controlling sound and method for operating thereof | |
JP2009166184A (en) | Guide robot | |
JP7180139B2 (en) | Robot, robot control method and program | |
JP7176244B2 (en) | Robot, robot control method and program | |
JP2018185362A (en) | Robot and control method of the same | |
JP2014191029A (en) | Voice recognition system and method for controlling voice recognition system | |
KR102629796B1 (en) | An electronic device supporting improved speech recognition | |
JP2018171683A (en) | Robot control program, robot device, and robot control method | |
JP2020126195A (en) | Voice interactive device, control device for voice interactive device and control program | |
JP2004234631A (en) | System for managing interaction between user and interactive embodied agent, and method for managing interaction of interactive embodied agent with user | |
JP2007155986A (en) | Voice recognition device and robot equipped with the same | |
JP6874437B2 (en) | Communication robots, programs and systems | |
JP2015150620A (en) | robot control system and robot control program | |
KR102134860B1 (en) | Artificial Intelligence speaker and method for activating action based on non-verbal element | |
JP7286303B2 (en) | Conference support system and conference robot | |
KR20200058354A (en) | Electronic device for controlling sound and method for operating thereof | |
EP3288035A2 (en) | Personal audio lifestyle analytics and behavior modification feedback | |
Han et al. | Collecting multi-modal data of human-robot interaction | |
JP7342928B2 (en) | Conference support device, conference support method, conference support system, and conference support program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221024 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7176244 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |