Nothing Special   »   [go: up one dir, main page]

JP2002120180A - Robot device and control method for it - Google Patents

Robot device and control method for it

Info

Publication number
JP2002120180A
JP2002120180A JP2000350276A JP2000350276A JP2002120180A JP 2002120180 A JP2002120180 A JP 2002120180A JP 2000350276 A JP2000350276 A JP 2000350276A JP 2000350276 A JP2000350276 A JP 2000350276A JP 2002120180 A JP2002120180 A JP 2002120180A
Authority
JP
Japan
Prior art keywords
unit
action
pet robot
sensor
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000350276A
Other languages
Japanese (ja)
Other versions
JP4411503B2 (en
Inventor
Hideki Noma
英樹 野間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000350276A priority Critical patent/JP4411503B2/en
Publication of JP2002120180A publication Critical patent/JP2002120180A/en
Application granted granted Critical
Publication of JP4411503B2 publication Critical patent/JP4411503B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot device capable of improving an entertainment property and a control method for it. SOLUTION: In this autonomous robot device and control method for it, the outside and/inside status is recognized according to the output of an external sensor and/or internal sensor, and according to the recognition result, the robot behaves. After working given from the outside is detected, according to a previously stored program, a specified behavior previously uniquely associated according to the detection result is manifested, whereby according to the manifested behavior to the working given from the outside, a user easily can judge whether hardware or software in the device main body gets out of order or not.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はロボット装置及びそ
の制御方法に関し、例えばペットロボットに適用して好
適なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus and a control method therefor, and is suitably applied to, for example, a pet robot.

【0002】[0002]

【従来の技術】近年、ユーザからの指令や周囲の環境に
応じて行動を行う4足歩行型のペットロボットが本願出
願人から提案及び開発されている。かかるペットロボッ
トは、一般家庭において飼育される犬や猫に似た形状を
有し、ユーザからの指令や周囲の環境に応じて自律的に
行動するものである。なお以下においては、外部の命令
から脱することを基本として、必要に応じて当該命令に
従うときもありながら、自己の規範に従って行動するこ
とを自律と定義して使用するものとする。
2. Description of the Related Art In recent years, a pet robot of a four-legged walking type that performs an action in response to a command from a user or the surrounding environment has been proposed and developed by the present applicant. Such a pet robot has a shape similar to a dog or cat bred in a general household, and acts autonomously in response to a command from a user or a surrounding environment. In the following, on the basis of departure from an external instruction, it is defined and used as autonomous to act in accordance with its own norm while sometimes obeying the instruction as necessary.

【0003】[0003]

【発明が解決しようとする課題】ところでかかるペット
ロボットにおいて、例えばユーザからの「叩く」や「撫
でる」といった働きかけに対して「怒り」や「喜び」な
どの感情を表現し得るようにすることができれば、ユー
ザとペットロボットのコミュニケーションを円滑にさせ
ることができ、その分ペットロボットに対するユーザの
愛着心及び好奇心を向上させて、そのエンターテインメ
ント性をより一層向上させ得るものと考えられる。
By the way, in such a pet robot, it is necessary to be able to express emotions such as "anger" and "joy" in response to a user's action such as "hitting" or "stroking". If possible, it is considered that communication between the user and the pet robot can be made smooth, and the user's attachment and curiosity to the pet robot can be improved accordingly, thereby further improving the entertainment property.

【0004】そして従来ではこのような考えのもとに、
ペットロボットは、身体の所定位置に配設されたCCD
(Charge Coupled Device)カメ
ラ、マイクロホン及びタッチセンサ等の出力に基づいて
周囲及び自己内部の状況や、ユーザからの指令及び働き
かけの有無などを認識し、認識結果に基づいて行動する
ようになされている。
Conventionally, based on such an idea,
The pet robot is a CCD arranged at a predetermined position on the body
(Charge Coupled Device) Based on the output of a camera, a microphone, a touch sensor, and the like, the surroundings and the state of the inside, the presence or absence of a command from a user, the presence or absence of an action, and the like are recognized, and the action is performed based on the recognition result. .

【0005】ところがかかるペットロボットは、上述の
ように自律的に行動するものであるが故に、ユーザから
の働きかけ等に対して必ずしも反応したり決まった反応
を起こすものではない。このためかかるペットロボット
においては、例えばもともと動きのない姿勢にある場合
(例えば寝ていたり、又は単に座っているだけの場合)
や、意識的に動きを発現しない動作モード時に、ユーザ
がペットロボットが壊れてしまったとの誤解を与えるお
それがあった。
However, since such a pet robot behaves autonomously as described above, it does not always react or react in a fixed manner to a user's action or the like. For this reason, in such a pet robot, for example, when it is originally in a motionless posture (for example, when it is sleeping or just sitting)
Also, in the operation mode in which the movement is not intentionally expressed, the user may give a misunderstanding that the pet robot has been broken.

【0006】従来のペットロボットでは、上述のような
自律的な行動を発現するためのプログラムが記憶された
ソフトウェアがペットロボット本体内のハードウェア上
に実装されていたため、ユーザは自律性のある動作モー
ド時に本来発現するはずの行動が発現しない場合は、
「仮想ペットの感情値などによって行動が抑制されてい
る」のか、或いは「ハードウェア等の故障により、発現
不可能な状態にある」のかを外部からは判別することは
非常に困難であった。
In a conventional pet robot, software in which a program for expressing the above-described autonomous behavior is stored is implemented on hardware in the main body of the pet robot. If the behavior that should be manifested in mode is not manifested,
It has been extremely difficult to determine externally whether "the behavior is suppressed by the emotion value of the virtual pet or the like" or "it is in a state where it cannot be expressed due to a failure of hardware or the like".

【0007】従ってかかるペットロボットにおいて、自
律性のある動作モード時に正常に行動発現しているのか
否かをユーザが容易に認識することができれば、ユーザ
に不要の誤解や心配を与えるのを防止して、エンターテ
インメント性をより一層向上させ得るものと考えられ
る。
[0007] Therefore, in such a pet robot, if the user can easily recognize whether or not the behavior is normally exhibited in the autonomous operation mode, unnecessary misunderstanding or worry is prevented from being given to the user. Therefore, it is considered that the entertainment property can be further improved.

【0008】本発明は以上の点を考慮してなされたもの
で、エンターテインメント性を向上させ得るロボット装
置及びその制御方法を提案しようとするものである。
The present invention has been made in view of the above points, and has as its object to propose a robot apparatus capable of improving the entertainment property and a control method thereof.

【0009】[0009]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、外部センサ及び又は内部センサの
出力に基づいて外部及び又は内部の状況を認識し、認識
結果に基づいて行動する自律型のロボット装置におい
て、外部から与えられた働きかけを検出する検出手段
と、所定のプログラムを記憶する記憶手段と、当該記憶
手段から読み出したプログラムに基づいて、検出手段の
検出結果に応じて予め一意に対応付けられた特定の行動
を発現する行動発現手段とを設けるようにした。
According to the present invention, there is provided an autonomous type apparatus for recognizing external and / or internal conditions based on the output of an external sensor and / or an internal sensor and acting on the recognition result. In the robot apparatus, a detecting means for detecting an externally applied action, a storing means for storing a predetermined program, and a program uniquely read in advance in accordance with a detection result of the detecting means based on a program read from the storing means. An action expressing means for expressing the associated specific action is provided.

【0010】この結果このロボット装置では、外部から
与えられた働きかけに対する発現行動に基づいてユーザ
が容易に装置本体内のハードウェアやソフトウェアに故
障が生じているか否かを判断することができ、かくして
装置本体内のハードウェアやソフトウェアに実際に故障
が生じていない場合であっても、ユーザがロボット装置
が壊れてしまったとの誤解が生ずるのを未然に回避する
ことができる。
As a result, in this robot device, the user can easily determine whether or not a failure has occurred in the hardware or software in the device main body based on the manifestation behavior in response to an externally applied action. Even when hardware or software in the apparatus main body does not actually have a failure, it is possible to prevent a user from misunderstanding that the robot apparatus has been broken.

【0011】また本発明においては、外部センサ及び又
は内部センサの出力に基づいて外部及び又は内部の状況
を認識し、認識結果に基づいて行動する自律型のロボッ
ト装置の制御方法において、外部から与えられた働きか
けを検出した後、予め記憶されているプログラムに基づ
いて、当該検出結果に応じて予め一意に対応付けられた
特定の行動を発現するようにした。
According to the present invention, there is provided a method for controlling an autonomous robot apparatus which recognizes an external and / or internal situation based on an output of an external sensor and / or an internal sensor, and acts based on the recognition result. After detecting the given action, a specific action uniquely associated in advance is developed according to the detection result based on a program stored in advance.

【0012】この結果このロボット装置の制御方法で
は、外部から与えられた働きかけに対する発現行動に基
づいてユーザが容易に装置本体内のハードウェアやソフ
トウェアに故障が生じているか否かを判断することがで
き、かくして装置本体内のハードウェアやソフトウェア
に実際に故障が生じていない場合であっても、ユーザが
ロボット装置が壊れてしまったとの誤解が生ずるのを未
然に回避することができる。
As a result, in this method of controlling the robot apparatus, the user can easily determine whether or not a failure has occurred in the hardware or software in the apparatus body based on the manifestation of the action given from the outside. Thus, even if the hardware or software in the apparatus main body does not actually fail, the user can be prevented from misunderstanding that the robot apparatus has been broken.

【0013】さらに本発明においては、プログラムが記
憶された記憶手段は、ロボット装置の本体内に設けるよ
うにした。この結果このロボット装置及びその方法で
は、当該ロボット装置に不具合が生じた場合に、故障が
生じた部分が装置本体内のハードウェアやソフトウェア
であるか、又は外部から装填された記憶媒体であるかを
ユーザが容易に判断することができる。
Further, in the present invention, the storage means in which the program is stored is provided in the main body of the robot device. As a result, in the robot apparatus and the method thereof, when a failure occurs in the robot apparatus, whether the failed part is hardware or software in the apparatus body or a storage medium loaded from outside. Can be easily determined by the user.

【0014】[0014]

【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0015】(1)本実施の形態によるペットロボット
の構成 図1において、1は全体として本実施の形態によるペッ
トロボットを示し、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A〜3Dが連結されると共に、胴体
部ユニット2の前後部及び後端部にそれぞれ頭部ユニッ
ト4及び尻尾部ユニット5が連結されることにより構成
されている。
(1) Configuration of Pet Robot According to the Present Embodiment In FIG. 1, reference numeral 1 denotes a pet robot according to the present embodiment as a whole, and leg units 3A to 3D are connected to the front, rear, left and right of body unit 2, respectively. The head unit 4 and the tail unit 5 are connected to the front and rear and rear ends of the body unit 2, respectively.

【0016】この場合胴体部ユニット2には、図2に示
すように、このペットロボット1全体の動作を制御する
コントローラ10と、このペットロボット1の動力源と
してのバッテリ11と、バッテリセンサ12、熱センサ
13及び加速度センサ14等からなる内部センサ部15
と、背中に配設されたタッチセンサ(以下、これを背中
タッチセンサと呼ぶ)16とが収納されている。
In this case, as shown in FIG. 2, a controller 10 for controlling the operation of the pet robot 1 as a whole, a battery 11 as a power source of the pet robot 1, a battery sensor 12, Internal sensor unit 15 including heat sensor 13, acceleration sensor 14, and the like
And a touch sensor (hereinafter referred to as a back touch sensor) 16 disposed on the back.

【0017】また頭部ユニット4には、このペットロボ
ット1の「耳」に相当するマイクロホン17、「目」に
相当するCCD(Charge Coupled De
vice)カメラ18及び上部に配設されたタッチセン
サ(以下、これを頭部タッチセンサと呼ぶ)19、外見
上の「目」としての機能を有する複数のLED(Lig
ht Emitting Diode、発光ダイオー
ド)からなるLED部20と、「口」に相当するスピー
カ21と、「顎」に相当するタッチセンサ(以下、これ
を顎タッチセンサと呼ぶ)22となどがそれぞれ所定位
置に配設されている。
The head unit 4 has a microphone 17 corresponding to the "ears" of the pet robot 1 and a CCD (Charge Coupled De) corresponding to the "eyes".
device), a camera 18 and a touch sensor (hereinafter referred to as a head touch sensor) 19 disposed above, and a plurality of LEDs (Lig) having a function as an external "eye".
HT Emitting Diode, a light emitting diode (LED) 20, a speaker 21 corresponding to a “mouth”, a touch sensor 22 corresponding to a “chin” (hereinafter referred to as a chin touch sensor) 22, and the like. It is arranged in.

【0018】この場合、胴体部ユニット2の背中タッチ
センサ16と、頭部ユニット4のマイクロホン17、C
CDカメラ18、頭部タッチセンサ19及び顎タッチセ
ンサ22とから外部センサ部23を構成するようになさ
れている。
In this case, the back touch sensor 16 of the body unit 2 and the microphones 17 and C of the head unit 4
An external sensor unit 23 is configured by the CD camera 18, the head touch sensor 19, and the chin touch sensor 22.

【0019】さらに尻尾部ユニット5には、駆動自在に
尻尾5Aが配設されると共に、当該尻尾5Aには、その
ときのペットロボット1の心理状態を表示するための青
色又はオレンジ色に発光可能なLED(以下、これを心
理状態表示用LEDと呼ぶ)5ALが配設されている。
Further, the tail unit 5 is provided with a tail 5A so as to be freely driven, and the tail 5A can emit blue or orange light for displaying the mental state of the pet robot 1 at that time. A simple LED (hereinafter, referred to as a mental state display LED) 5AL is provided.

【0020】さらに各脚部ユニット3A〜3Dの関節部
分や、各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5及び胴体部ユニット
2の連結部分などには、それぞれ対応する自由度数分の
アクチュエータ24〜24が配設されている。
Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D and the trunk unit 2
Actuators 24 1 to 24 n corresponding to the respective degrees of freedom are arranged in each of the connecting portions, the connecting portion of the head unit 4 and the body unit 2, and the connecting portion of the tail unit 5 and the body unit 2. Has been established.

【0021】そして外部センサ部23のマイクロホン1
7は、ユーザから図示しないサウンドコマンダを介して
音階として与えられる「歩け」、「伏せ」又は「ボール
を追いかけろ」などの指令音を集音し、得られた音声信
号S1Aをコントローラ10に送出する。またCCDカ
メラ18は、周囲の状況を撮像し、得られた画像信号S
1Bをコントローラ10に送出する。
The microphone 1 of the external sensor unit 23
Reference numeral 7 collects command sounds such as “walk”, “down” or “follow the ball” given as a musical scale by a user via a sound commander (not shown), and sends the obtained audio signal S1A to the controller 10. . Further, the CCD camera 18 captures an image of the surrounding situation and obtains an image signal S.
1B is sent to the controller 10.

【0022】さらに背中タッチセンサ16、頭部タッチ
センサ19及び顎タッチセンサ22は、それぞれ図1に
おいて明らかなように、胴体部ユニット2の背中部、頭
部ユニット4の上部及び顎部に設けられており、ユーザ
からの「撫でる」や「叩く」といった物理的な働きかけ
により受けた圧力を検出し、検出結果を圧力検出信号S
1C、S1D、S1Eとしてそれぞれコントローラ10
に送出する。
Further, the back touch sensor 16, the head touch sensor 19, and the chin touch sensor 22 are provided on the back of the body unit 2, the upper part of the head unit 4, and the chin, respectively, as apparent from FIG. And detects the pressure received by a physical action such as “stroke” or “hit” from the user, and returns the detection result to a pressure detection signal S.
1C, S1D, and S1E, respectively.
To send to.

【0023】また内部センサ部15のバッテリセンサ1
2には、バッテリ11のエネルギー残量を検出し、検出
結果をバッテリ残量検出信号S2Aとしてコントローラ
10に送出する。また温度センサ13は、ペットロボッ
ト1内部の温度を検出し、検出結果を温度検出信号S2
Bとしてコントローラ10に送出する。さらに加速度セ
ンサ14には、3軸方向(X軸方向、Y軸方向及びZ軸
方向)の加速度を検出し、検出結果を加速度検出信号S
2Cとしてコントローラ10に送出する。
The battery sensor 1 of the internal sensor section 15
2 detects the remaining energy of the battery 11, and sends the detection result to the controller 10 as a remaining battery detection signal S2A. The temperature sensor 13 detects the temperature inside the pet robot 1 and outputs the detection result to a temperature detection signal S2.
B is sent to the controller 10. Further, the acceleration sensor 14 detects accelerations in three axial directions (X-axis direction, Y-axis direction, and Z-axis direction), and outputs a detection result as an acceleration detection signal S
It is sent to the controller 10 as 2C.

【0024】コントローラ10は、外部センサ部22か
ら与えられる音声信号S1A、画像信号S1B及び圧力
検出信号S1C、S1D、S1E(以下、これらをまと
めて外部情報信号S1と呼ぶ)と、内部センサ部15か
ら与えられるバッテリ残量信号S2A、温度検出信号S
2B及び加速度検出信号S2C等(以下、これらをまと
めて内部情報信号S2と呼ぶ)とに基づいて、外部及び
内部の状態や、ユーザからの指令及び働きかけの有無な
どを判断する。
The controller 10 includes a voice signal S1A, an image signal S1B and pressure detection signals S1C, S1D, S1E (hereinafter collectively referred to as an external information signal S1) provided from the external sensor unit 22, and an internal sensor unit 15 Remaining signal S2A and temperature detection signal S
Based on the 2B and the acceleration detection signal S2C and the like (hereinafter, these are collectively referred to as an internal information signal S2), the external and internal states, the presence or absence of a command from the user, and the presence or absence of an action are determined.

【0025】そしてコントローラ10は、この判断結果
と、胴体部ユニット2内に着脱自在に装填されている外
部メモリ25に予め格納されている制御プログラムとに
基づいて続く行動を決定し、当該決定結果に基づいて必
要なアクチュエータ24〜24を駆動させることに
より、頭部ユニット4を上下左右に振らせたり、尻尾部
ユニット5の尻尾5Aを動かせたり、各脚部ユニット3
A〜3Dを駆動して歩行させるなどの行動や動作を行わ
せる。
The controller 10 determines a subsequent action based on the result of this determination and a control program stored in advance in an external memory 25 which is removably mounted in the body unit 2. By driving the necessary actuators 24 1 to 24 n based on the above, the head unit 4 can be swung up and down, left and right, the tail 5A of the tail unit 5 can be moved, and each leg unit 3 can be moved.
A to 3D are performed to perform an action or action such as walking.

【0026】またこの際コントローラ10は、必要に応
じて音声信号S3を生成してこれをスピーカ20に与え
ることにより、当該音声信号S3に基づく音声を外部に
出力させ、外見上の「目」としてのLED部20にLE
D駆動信号S5を出力することによりこれをかかる判断
結果に応じた所定の発光パターンで発光させ、及び又は
尻尾部ユニット5の心理状態表示用LED5ALにLE
D駆動信号S6を送出することによりこれをそのときの
心理状態に応じた発光パターンで発光させる。
At this time, the controller 10 generates an audio signal S3 as necessary and gives it to the speaker 20, so that the audio based on the audio signal S3 is output to the outside, and as an external "eye". LE 20
By outputting the D drive signal S5, it is caused to emit light in a predetermined light emission pattern according to the determination result, and / or the LE 5AL is displayed on the psychological state display LED 5AL of the tail unit 5.
By transmitting the D drive signal S6, it emits light in a light emission pattern according to the mental state at that time.

【0027】このようにしてこのペットロボット1にお
いては、外部メモリ25が装填されている場合には、当
該外部メモリ25から読み出した制御プログラムに基づ
いて自律性のある動作モード(以下、これを自律モード
と呼ぶ)を実行することにより、外部及び内部の状態
や、ユーザからの指令及びユーザからの働きかけの有無
などに応じて自律的に行動することができるようになさ
れている。
As described above, in the pet robot 1, when the external memory 25 is loaded, an operation mode (hereinafter, referred to as an autonomous mode) having autonomy based on the control program read from the external memory 25. (Referred to as a mode), it is possible to autonomously act according to the external and internal states, the command from the user and the presence or absence of the user's action.

【0028】なおペットロボット1の外見上の「目」と
しての機能を有するLED部20の具体的な構成を図3
に示す。この図3からも明らかなように、LED部20
は、感情を表現するための感情表現用LEDとして、そ
れぞれ赤色光を発光する一対の第1の赤色LED20R
11、20R12及び一対の第2の赤色LED20R
21、20R22と、それぞれ青緑色光を発光する一対
の青緑色LED20BG、20GBとを有してい
る。
FIG. 3 shows a specific configuration of the LED section 20 having a function as an "eye" of the pet robot 1 in appearance.
Shown in As is apparent from FIG.
Is a pair of first red LEDs 20R each of which emits red light as an emotion expressing LED for expressing an emotion.
11 , 20R 12 and a pair of second red LEDs 20R
21 and 20R 22 and a pair of blue-green LEDs 20BG 1 and 20GB 2 respectively emitting blue-green light.

【0029】この場合各第1の赤色LED20R11
20R12は、それぞれ発光部が所定長さの直線形状を
有しており、矢印aで示す頭部ユニット4の前方向に行
くに従って先窄みの位置関係となるように頭部ユニット
4の前後方向のほぼ中段部に配設されている。
In this case, each first red LED 20R 11 ,
Each of the 20Rs 12 has a linear shape with a predetermined length of the light-emitting portion, and the front and rear of the head unit 4 are so arranged as to have a constricted positional relationship toward the front of the head unit 4 as indicated by an arrow a. It is arranged almost in the middle of the direction.

【0030】また各第2の赤色LED20R21、20
22は、それぞれ発光部が所定長さの直線形状を有し
ており、頭部ユニット4の前方向に行くに従って先広が
りの位置関係となるように、かつ各第1の赤色LED2
0R11、20R12と合わせてほぼ放射状の位置関係
となるように頭部ユニット4の中段部に配設されてい
る。
Each second red LED 20R 21 , 20R
R 22 has a light-emitting portion having a linear shape of a predetermined length, and has a positional relationship of expanding toward the front of the head unit 4.
The head unit 4 is disposed in the middle of the head unit 4 so as to have a substantially radial positional relationship with the 0R 11 and 20R 12 .

【0031】これによりこのペットロボット1において
は、各第1の赤色LED20R11、20R12を同時
に点灯することによって、あたかも目をつり上げて怒っ
ているかのような「怒り」の表情や、嫌悪感を感じてい
るかのような「嫌悪」の表情などを表現することがで
き、各第2の赤色LED20R21、20R22を同時
に点灯することによって、あたかも悲しんでいるかのよ
うな「悲しみ」の表情などを表現することができ、さら
には各第1及び第2の赤色LED20R11、20R
12、20R21、20R22を全て同時に点灯するこ
とによって、恐怖を感じているかのような「恐怖」の表
情や、驚いているかのような「驚き」の表情などを表現
することができるようになされている。
Thus, in the pet robot 1, by turning on the first red LEDs 20R 11 and 20R 12 at the same time, the expression of "anger" and the disgust as if the eyes were raised and angry were raised. such as facial expressions of "disgust" as if they feel able to express, by the each of the second red LED20R 21, 20R 22 at the same time to light, such as facial expression if it were sad in "sadness" as if the And each of the first and second red LEDs 20R 11 , 20R
By turning on 12 , 20R 21 and 20R 22 at the same time, it is possible to express the expression of “fear” as if feeling a fear, the expression of “surprise” as if being surprised, and the like. It has been done.

【0032】これに対して各青緑色LED20BG
20BGは、それぞれ発光部が所定長さの弓なり形状
を有しており、それぞれ頭部ユニット4における対応す
る第1の赤色LED20R11、20R12の直前位置
に、弓なりの内側を前方(矢印a)に向けた状態で配設
されている。
On the other hand, each blue-green LED 20BG 1 ,
20BG 2 are each light emitting portion has a bow shape of a predetermined length, the position immediately before the first red LED20R 11, 20R 12 corresponding in each head unit 4, a bow-shaped inner front (arrow a ).

【0033】これによりこのペットロボット1では、各
青緑色LED20BG、20BGを同時に点灯する
ことによって、あたかも笑っているかのような「喜び」
の表情を表現することができるようになされている。
Thus, in the pet robot 1, by turning on the blue-green LEDs 20BG 1 and 20BG 2 at the same time, “joy” as if they are smiling.
The expression can be expressed.

【0034】そしてかかるボットロボット1では、頭部
ユニット4の前端近傍から頭部タッチセンサ19の直前
までの筐体の上部部分に、これら第1及び第2の赤色L
ED20R11、20R12、20R21、20R22
並びに青緑色LED20BG、20BGを覆い隠す
ように、例えば合成樹脂材からなる黒色の半透明カバー
26(図1)が配設されている。
In the bot robot 1, the first and second red LEDs L are provided on the upper portion of the housing from near the front end of the head unit 4 to immediately before the head touch sensor 19.
ED20R 11, 20R 12, 20R 21 , 20R 22
And blue-green LED20BG 1, so as to cover the 20BG 2, for example, synthetic made of a resin material black translucent cover 26 (FIG. 1) is disposed.

【0035】これによりこのペットロボット1において
は、第1、第2の赤色LED20R11、20R12
20R21、20R22や青緑色LED20BG、2
0BGが点灯していない状態のときにはこれらが外側
から見えず、これに対して第1、第2の赤色LED20
11、20R12、20R21、20R22や青緑色
LED20BG、20BGが点灯している状態のと
きにはこれを外側から確実に見えるようにすることがで
き、かくして3種類の形状の「目」が存在することに起
因する違和感を有効に防止することができるようになさ
れている。
Thus, in the pet robot 1, the first and second red LEDs 20R 11 , 20R 12 ,
20R 21 , 20R 22 and blue-green LED 20BG 1 , 2
When 0BG 2 is not lit, these are not visible from the outside, whereas the first and second red LEDs 20
When R 11 , 20R 12 , 20R 21 , 20R 22 and the blue-green LEDs 20BG 1 , 20BG 2 are lit, they can be reliably seen from the outside, and thus three types of “eyes” It is possible to effectively prevent a sense of incongruity caused by the presence of the.

【0036】かかる構成に加えてこのペットロボット1
の場合、LED部20には、後述するように当該ペット
ロボット1のシステムが特別な状態にあるときに点滅駆
動されるシステム情報表示用の緑色LED20Gが設け
られている。
In addition to the above configuration, this pet robot 1
In the case of, the LED section 20 is provided with a green LED 20G for displaying system information, which is driven to blink when the system of the pet robot 1 is in a special state, as described later.

【0037】この場合この緑色LED20Gは、発光部
が所定長さの直線形状を有する緑色に発光可能なLED
であり、頭部ユニット4における第1の赤色LED20
11、20R12の僅か上側で、かつ半透明カバー2
6によって覆い隠される位置に配設されている。
In this case, the green LED 20G is an LED capable of emitting green light whose light emitting portion has a linear shape with a predetermined length.
And the first red LED 20 in the head unit 4
Translucent cover 2 slightly above R 11 and 20R 12
6 so as to be covered and hidden.

【0038】これによりこのペットロボット1では、半
透明カバー26越しに見えるこの緑色LED20Gの点
滅状態に基づいて、ユーザが当該ペットロボット1のシ
ステム状態を容易に認識することができるようになされ
ている。
Thus, in the pet robot 1, the user can easily recognize the system state of the pet robot 1 based on the blinking state of the green LED 20G seen through the translucent cover 26. .

【0039】(2)クリニックモードにおけるコントロ
ーラの処理 この実施の形態の場合、ペットロボット1において、外
部メモリ26が装填されていないときには、コントロー
ラ10内の内部メモリ10Aから読み出した制御プログ
ラムに基づいて故障の有無判断のための動作モード(以
下、これをクリニックモードと呼ぶ)を実行することに
より、外部センサ部22から与えられる外部情報信号S
1に基づく周囲の状況やユーザからの指令及び働きかけ
の有無などに応じて予め対応付けられた特定の行動を発
現するようになされている。
(2) Processing of Controller in Clinic Mode In this embodiment, when the external memory 26 is not loaded in the pet robot 1, a failure occurs based on the control program read from the internal memory 10A in the controller 10. By executing an operation mode (hereinafter, referred to as a clinic mode) for judging the presence or absence of the external information signal S provided from the external sensor unit 22
Specific actions associated in advance are expressed in accordance with the surrounding situation based on No. 1, the presence or absence of a command from the user, and the presence or absence of an action.

【0040】かかるクリニックモード時では、コントロ
ーラ10は、外部センサ部23のうち頭部タッチセンサ
19、背中タッチセンサ16、顎タッチセンサ22及び
CCDカメラ18の各センサ(以下、これを入力系セン
サ類と呼ぶ)のうちいずれか1の入力系センサ類からセ
ンサ入力が与えられると、当該センサ入力に対応して、
頭部ユニット4のLED部20、尻尾部ユニット5の心
理状態表示用LED5AL、各脚部ユニット3A〜3D
及び頭部ユニット4のスピーカ21の各出力系(以下、
これを出力系デバイスと呼ぶ)のうちの少なくとも1以
上の出力系デバイスから出力(発光、動作、放音)させ
るようになされている。
In the clinic mode, the controller 10 controls the head sensor 19, the back sensor 16, the chin sensor 22, and the CCD camera 18 of the external sensor unit 23 (hereinafter referred to as input sensors). ), A sensor input is given from any one of the input sensors, and in response to the sensor input,
LED unit 20 of head unit 4, LED 5AL for displaying mental state of tail unit 5, leg units 3A to 3D
And each output system of the speaker 21 of the head unit 4 (hereinafter, referred to as
(This is referred to as an output system device) is output (light emission, operation, sound emission) from at least one output system device.

【0041】例えばクリニックモード時に、ペットロボ
ット1がCCDカメラ18の撮像範囲内に「ボール」を
とらえて撮像した場合、コントローラ10は、当該撮像
結果を受けると、各脚部ユニット3A〜3Dに対応する
アクチュエータ21を駆動して座り姿勢を5秒間維持し
ながら、尻尾部ユニット5の心理状態表示用LED5A
Lを青色に点灯させると同時に、頭部ユニット4のスピ
ーカ21を介して所定のサウンド(鳴き声)を放音す
る。
For example, in the clinic mode, when the pet robot 1 captures an image by capturing a “ball” within the imaging range of the CCD camera 18, the controller 10 receives the imaging result and responds to each of the leg units 3A to 3D. LED 5A for displaying the psychological state of the tail unit 5 while driving the actuator 21 that performs
At the same time as lighting L in blue, a predetermined sound (scream) is emitted via the speaker 21 of the head unit 4.

【0042】またクリニックモード時に、ペットロボッ
ト1では、胴体部ユニット2の背中タッチセンサ16が
ユーザによって押圧されたことをコントローラ10が確
認すると、頭部ユニット4のスピーカ21を介して所定
のサウンド(返事のような鳴き声)を放音しながら、各
脚部ユーザ3A〜3Dに対応するアクチュエータ24を
駆動して5歩だけ進む。
In the clinic mode, when the controller 10 confirms that the back touch sensor 16 of the body unit 2 is pressed by the user in the pet robot 1, a predetermined sound (the speaker 21) of the head unit 4 is obtained. While emitting a vocal sound such as a reply), the actuator 24 corresponding to each of the leg users 3A to 3D is driven to proceed by five steps.

【0043】さらにクリニックモード時に、ペットロボ
ット1が頭部ユーザ4の頭部タッチセンサ19がユーザ
によって押圧されたことをコントローラ10が確認する
と、頭部ユニット4のLED部20のうち第1及び第2
の赤色LED20R11、20R12、20R21、2
0R22並びに青緑色LED20BG、20BG
当該押圧の度合いに応じて適宜選択的に発光すると共
に、頭部ユニット4のスピーカ21を介して当該押圧の
度合いに応じた強度及びリズムでなるサウンドを放音す
る。
Further, in the clinic mode, when the controller 10 confirms that the pet robot 1 has pressed the head touch sensor 19 of the head user 4 by the user, the first and second LED units 20 of the head unit 4 are checked. 2
Red LEDs 20R 11 , 20R 12 , 20R 21 , 2
The 0R 22 and the blue-green LEDs 20BG 1 and 20BG 2 emit light appropriately and selectively in accordance with the degree of the pressing, and sound with the intensity and rhythm according to the degree of the pressing via the speaker 21 of the head unit 4. Emit sound.

【0044】具体的にはユーザが頭部タッチセンサ19
を撫でた(Click)ときには、コントローラ10
は、頭部ユニット4のスピーカ21を介して所定のサウ
ンド(鳴き声)を放音する。
Specifically, when the user touches the head touch sensor 19
When the controller is stroked (Click), the controller 10
Emits a predetermined sound (cry) through the speaker 21 of the head unit 4.

【0045】またユーザが頭部タッチセンサ19を強く
押した(Hit)ときには、コントローラ10は、頭部
ユニット4のスピーカ21を介して所定のサウンド(怒
り声)を放音すると共に、頭部ユニット4のLED部2
0のうち各第1の赤色LED20R11、20R12
同時に点灯することによって、あたかも目をつり上げて
怒っているかのような「怒り」の表情を表現する。
When the user presses the head touch sensor 19 strongly (Hit), the controller 10 emits a predetermined sound (anger) through the speaker 21 of the head unit 4, 4 LED section 2
By turning on each of the first red LEDs 20R 11 and 20R 12 simultaneously, the expression of “anger” is expressed as if the eyes were raised and angry.

【0046】さらにユーザが頭部タッチセンサ19を軽
く押した(Pat)ときには、コントローラ10は、頭
部ユニット4のスピーカ21を介して所定のサウンド
(笑い声)を放音すると共に、頭部ユニット4のLED
部20のうち各青緑色LED20BG、20BG
同時に点灯することによって、あたかも笑っているかの
ような「喜び」の表情を表現する。
Further, when the user presses the head touch sensor 19 lightly (Pat), the controller 10 emits a predetermined sound (laughter) through the speaker 21 of the head unit 4 and simultaneously outputs the predetermined sound (laughter). LED
By turning on each of the blue-green LEDs 20BG 1 and 20BG 2 of the unit 20 at the same time, an expression of “joy” as if laughing is expressed.

【0047】さらにユーザが頭部タッチセンサ19を3
秒以上押し続けた(Long Pat)ときには、コン
トローラ10は、頭部ユニット4のスピーカ21を介し
て所定のサウンド(歓声)を放音すると共に、頭部ユニ
ット4のLED部20のうち第1の赤色LED20R
12、青緑色LED20BG、第2の赤色LED20
21、第2の赤色LED20R22、青緑色LED2
0BG及び第1の赤色LED20R11の順番で時計
回りに1つずつ順次点滅させることによって、あたかも
電光ルーレットをユーザに呈示するかのような「大喜
び」の表情を表現する。
Further, the user sets the head touch sensor 19 to three.
When pressed for longer than a second (Long Pat), the controller 10 emits a predetermined sound (cheers) via the speaker 21 of the head unit 4 and the first of the LED units 20 of the head unit 4. Red LED20R
12 , blue-green LED 20BG 1 , second red LED 20
R 21 , second red LED 20R 22 , blue-green LED 2
0BG By sequentially blinks one 2 and in turn clockwise of the first red LED20R 11, though representing the expression of "delight" as if presenting lightning roulette user.

【0048】さらにクリニックモード時に、ペットロボ
ット1が頭部ユニット4の顎タッチセンサ22がユーザ
によって押圧されたことをコントローラ10が確認する
と、当該押圧の度合いにかかわらず頭部ユーザ4のスピ
ーカ21を介して所定のサウンド(甘えるような鳴き
声)を放音する。
Further, in the clinic mode, when the controller 10 confirms that the pet robot 1 has pressed the chin touch sensor 22 of the head unit 4 by the user, the speaker 21 of the head user 4 is turned on regardless of the degree of the pressing. A predetermined sound (squealing sound) is emitted through the keyboard.

【0049】なおこのクリニックモード時に、入力系セ
ンサ類16、18、19、22のうちいずれも所定時間
の間ユーザから何も入力動作が与えられなかったときに
は、コントローラ10は、各脚部ユーザ3A〜3Dに対
応するアクチュエータ24を駆動することによって、5
種類の伏せ姿勢で表現される「伏せ芸」、5種類の座り
姿勢で表現される「座り芸」及び5種類の立ち姿勢で表
現される「立ち芸」の順番で5秒ごとに各「芸」を順次
繰り返して発現するようにして、あたかも退屈している
かのような「退屈芸」を表現する。
In this clinic mode, if no input operation is given by the user for a predetermined time in any of the input system sensors 16, 18, 19, and 22, the controller 10 sets each leg user 3A. By driving the actuator 24 corresponding to 3D, 5
Every 5 seconds, there are three types of “geishaku” expressed in different types of prone postures, “seated art” expressed in five different sitting postures, and “standing art” expressed in five different standing postures. ”Are sequentially and repeatedly expressed to express“ boring tricks ”as if they were bored.

【0050】このようにペットロボット1では、クリニ
ックモード時において、入力系センサ類16、18、1
9、22のうちいずれか1の入力系センサ類16、1
8、19、22からセンサ入力が与えられると、コント
ローラ10は、内部メモリ10Aから読み出した制御プ
ログラムに基づいて、複数の出力系デバイスのうち当該
センサ入力に対応して予め設定されている少なくとも1
以上の出力系デバイス3A〜3D、5AL、20、21
を特定して当該各出力系デバイス3A〜3D、5AL、
20、21から出力(発光、動作、放音)させることに
より、周囲の状況やユーザからの指令及び働きかけの有
無などに応じて予め対応付けられた特定の行動を発現さ
せ得るようになされている。
As described above, in the pet robot 1, in the clinic mode, the input system sensors 16, 18, 1
9, any one of the input system sensors 16, 1
When a sensor input is provided from 8, 19, and 22, the controller 10 determines at least one of a plurality of output system devices that is set in advance corresponding to the sensor input, based on the control program read from the internal memory 10A.
The above output devices 3A to 3D, 5AL, 20, 21
And the respective output system devices 3A to 3D, 5AL,
By outputting (light emission, operation, sound emission) from the devices 20 and 21, it is possible to express a specific action associated in advance in accordance with the surrounding situation, a command from the user, the presence or absence of an action, and the like. .

【0051】(3)コントローラ10の処理 次にこのペットロボット1におけるコントローラ10の
具体的な処理について説明する。
(3) Processing of Controller 10 Next, specific processing of the controller 10 in the pet robot 1 will be described.

【0052】コントローラ10の処理内容を機能的に分
類すると、図4に示すように、外部及び内部の状態を認
識する状態認識機構部30と、状態認識機構部30の認
識結果に基づいて感情及び本能の状態を決定する感情・
本能モデル部31と、状態認識機構部30の認識結果及
び感情・本能モデル部31の出力に基づいて続く行動や
動作を決定する行動決定機構部32と、行動決定機構部
32により決定された行動や動作を行うためのペットロ
ボット1の一連の動作計画を立てる姿勢遷移機構部33
と、姿勢遷移機構部33により立てられた動作計画に基
づいてアクチュエータ24〜24を制御するデバイ
ス制御部34とに分けることができる。
When the processing contents of the controller 10 are functionally classified, as shown in FIG. 4, a state recognition mechanism unit 30 for recognizing external and internal states, and emotions and emotions based on the recognition results of the state recognition mechanism unit 30 are obtained. Emotions that determine the state of instinct
An instinct model unit 31, an action determining mechanism unit 32 that determines a subsequent action or action based on the recognition result of the state recognition mechanism unit 30 and the output of the emotion / instinct model unit 31, and an action determined by the action determining mechanism unit 32 Transition mechanism unit 33 that makes a series of motion plans of the pet robot 1 for performing motion and motion
When, it can be divided into a device control unit 34 for controlling the actuator 24 1 to 24 n based on the operation plan erected by the posture transition mechanism section 33.

【0053】以下、これら状態認識機構部30、感情・
本能モデル部31、行動決定機構部32、姿勢遷移機構
部33及びデバイス制御機構部34について詳細に説明
する。
Hereinafter, these state recognition mechanism units 30,
The instinct model unit 31, the action determination mechanism unit 32, the posture transition mechanism unit 33, and the device control mechanism unit 34 will be described in detail.

【0054】(3−1)状態認識機構部30の構成 状態認識機構部30は、外部センサ部23(図2)から
与えられる外部情報信号S1と、内部センサ部15から
与えられる内部情報信号S2とに基づいて特定の情報を
認識し、認識結果を状態認識情報S10として感情・本
能モデル部31及び行動決定機構部32に通知する。
(3-1) Configuration of the state recognition mechanism 30 The state recognition mechanism 30 includes an external information signal S1 supplied from the external sensor unit 23 (FIG. 2) and an internal information signal S2 supplied from the internal sensor unit 15. And recognizes the specific information based on the above, and notifies the emotion / instinct model unit 31 and the action determination mechanism unit 32 of the recognition result as state recognition information S10.

【0055】実際上、状態認識機構部30は、外部セン
サ部23のマイクロホン17(図2)から与えられる集
音信号S1Aを常時監視し、当該集音信号S1Aのスペ
クトラムとして「歩け」、「伏せ」、「ボールを追いか
けろ」などの指令に応じてサウンドコマンダから出力さ
れる指令音と同じ音階のスペクトラムを検出したときに
その指令が与えられたと認識し、認識結果を感情・本能
モデル部31及び行動決定機構部32に通知する。
In practice, the state recognition mechanism section 30 constantly monitors the sound collection signal S1A given from the microphone 17 (FIG. 2) of the external sensor section 23, and “walks” or “downs” as the spectrum of the sound collection signal S1A. ", When it detects a spectrum of the same scale as the command sound output from the sound commander in response to a command such as" follow the ball ", recognizes that the command has been given, and recognizes the recognition result as the emotion / instinct model unit 31 and The action decision mechanism 32 is notified.

【0056】また状態認識機構部30は、CCDカメラ
18(図2)から与えられる画像信号S1Bを常時監視
し、当該画像信号S1Bに基づく画像内に例えば「赤い
丸いもの」や「地面に対して垂直かつ所定高さ以上の平
面」を検出したときには「ボールがある」、「壁があ
る」と認識し、認識結果を感情・本能モデル部31及び
行動決定機構部32に通知する。
The state recognizing mechanism 30 constantly monitors the image signal S1B provided from the CCD camera 18 (FIG. 2), and includes, for example, a “red round object” or a “red circle” in the image based on the image signal S1B. When a “vertical plane having a height equal to or more than a predetermined height” is detected, it is recognized that “there is a ball” and “there is a wall”, and the recognition result is notified to the emotion / instinct model unit 31 and the action determination mechanism unit 32.

【0057】さらに状態認識機構部30は、頭部タッチ
センサ19(図2)から与えられる圧力検出信号S1D
を常時監視し、当該圧力検出信号S1Cに基づいて所定
の閾値以上のかつ短時間(例えば2秒未満)の圧力を検
出したときには「叩かれた(叱られた)」と認識し、所
定の閾値未満のかつ長時間(例えば2秒以上)の圧力を
検出したときには「撫でられた(誉められた)」と認識
し、認識結果を感情・本能モデル部31及び行動決定機
構部32に通知する。
Further, the state recognition mechanism 30 is provided with a pressure detection signal S1D given from the head touch sensor 19 (FIG. 2).
Is constantly monitored, and when a pressure that is equal to or more than a predetermined threshold value and is detected for a short time (for example, less than 2 seconds) is detected based on the pressure detection signal S1C, it is recognized as “hit” (scored), and When a pressure of less than a long time (for example, 2 seconds or more) is detected, it is recognized as “stroke (praised)”, and the recognition result is notified to the emotion / instinct model unit 31 and the action determination mechanism unit 32.

【0058】一方、状態認識機構部30は、内部センサ
部15の加速度センサ14(図2)から与えられる加速
度検出信号S2Cを常時監視し、当該加速度検出信号S
2Cに基づいて例えば予め設定された所定レベル以上の
加速度を検出したときには「大きな衝撃を受けた」と認
識する一方、これよりもさらに大きい重力加速度程度の
加速度を検出したときには「(机等から)落ちた」と認
識し、これら認識結果を感情・本能モデル部31及び行
動決定機構部32に通知する。
On the other hand, the state recognition mechanism section 30 constantly monitors the acceleration detection signal S2C given from the acceleration sensor 14 (FIG. 2) of the internal sensor section 15, and
For example, when an acceleration equal to or higher than a predetermined level detected based on 2C is detected, it is recognized that “a large impact has been received”. On the other hand, when an acceleration about a gravitational acceleration larger than this is detected, “(from a desk or the like)” is detected. And the recognition result is notified to the emotion / instinct model unit 31 and the action determination mechanism unit 32.

【0059】また状態認識機構部30は、温度センサ1
3(図2)から与えられる温度検出信号S2Bを常時監
視し、当該温度検出信号S2Bに基づいて所定以上の温
度を検出したときには「内部温度が上昇した」と認識
し、認識結果を感情・本能モデル部31及ぶ行動決定機
構部32に通知する。
The state recognition mechanism 30 is provided with a temperature sensor 1
3 (FIG. 2) is constantly monitored, and when a temperature equal to or higher than a predetermined value is detected based on the temperature detection signal S2B, it is recognized that "the internal temperature has risen" and the recognition result is expressed as emotion / instinct. Notify the model section 31 and the action determination mechanism section 32.

【0060】(3−2)感情・本能モデル部31の処理 感情・本能モデル部31は、図5に示すように、「喜
び」、「悲しみ」、「驚き」、「恐怖」、「嫌悪」及び
「怒り」の6つの情動にそれぞれ対応させて設けられた
感情モデルとしての情動ユニット40A〜40Fからな
る基本情動群40と、「食欲」、「愛情欲」、「探索
欲」及び「運動欲」の4つの欲求にそれぞれ対応させて
設けられた欲求モデルとしての欲求ユニット41A〜4
1Dからなる基本欲求群41と、各情動ユニット40A
〜40F及び各欲求ユニット41A〜41Dにそれぞれ
対応して設けられた強度増減関数42A〜42Jとを有
している。
(3-2) Processing of Emotion / Instinct Model Unit 31 As shown in FIG. 5, the emotion / instinct model unit 31 performs “joy”, “sadness”, “surprise”, “fear”, and “disgust”. And a basic emotion group 40 composed of emotion units 40A to 40F as emotion models provided corresponding to the six emotions of “anger” and “anger”, “appetite”, “love affection”, “search desire”, and “exercise desire”. Unit 41A-4 as a desire model provided corresponding to each of the four needs
1D basic desire group 41 and each emotion unit 40A
To 40F and the intensity increasing / decreasing functions 42A to 42J provided corresponding to the desire units 41A to 41D, respectively.

【0061】そして各情動ユニット40A〜40Fは、
対応する情動の度合いを例えば0〜100レベルまでの
強度によってそれぞれ表し、当該強度を対応する強度増
減関数42A〜42Fから与えられる強度情報S11A
〜S11Fに基づいて時々刻々と変化させる。
Each of the emotion units 40A to 40F
The degree of the corresponding emotion is represented by, for example, an intensity from 0 to 100 level, and the intensity is represented by intensity information S11A given from the corresponding intensity increase / decrease functions 42A to 42F.
11S11F to change every moment.

【0062】また各欲求ユニット41A〜41Dは、情
動ユニット40A〜40Fと同様に、対応する欲求の度
合いを0〜100レベルまでの強度によってそれぞれ表
し、当該強度を対応する強度増減関数42G〜42Jか
ら与えられる強度情報S12G〜S12Jに基づいて時
々刻々と変化させる。
Similarly to the emotion units 40A to 40F, each of the desire units 41A to 41D expresses the degree of the corresponding desire by the intensity from 0 to 100 level, and the intensity is expressed by the corresponding intensity increase / decrease functions 42G to 42J. It changes every moment based on the given intensity information S12G to S12J.

【0063】そして感情・本能モデル31は、これら情
動ユニット40A〜40Fの強度を組み合わせることよ
り感情の状態を決定すると共に、これら欲求ユニット4
1A〜41Dの強度を組み合わせることにより本能の状
態を決定し、当該決定した感情及び本能の状態を感情・
本能状態情報S12として行動決定機構部32に出力す
る。
The emotion / instinct model 31 determines the state of emotion by combining the intensities of the emotion units 40A to 40F,
The state of the instinct is determined by combining the intensities of 1A to 41D, and the determined emotion and the state of the instinct are expressed as emotion /
The information is output to the action determining mechanism 32 as the instinct state information S12.

【0064】なお強度増減関数42A〜42Jは、状態
認識機構部30から与えられる状態認識情報S10と、
後述の行動決定機構部32から与えられるペットロボッ
ト1自身の現在又は過去の行動の内容を表す行動情報S
13とに基づき、予め設定されているパラメータに応じ
て上述のように各情動ユニット40A〜40F及び各欲
求ユニット41A〜41Dの強度を増減させるための強
度情報S11A〜S11Jを生成して出力するような関
数である。
The intensity increasing / decreasing functions 42A to 42J correspond to state recognition information S10 given from the state recognition mechanism 30 and
Behavior information S representing the current or past behavior of the pet robot 1 itself given from the behavior determining mechanism 32 described later.
13, and generates and outputs intensity information S11A to S11J for increasing / decreasing the intensity of each of the emotion units 40A to 40F and each of the desire units 41A to 41D according to the parameters set in advance as described above. Function.

【0065】かくしてペットロボット1においては、こ
れら強度増減関数42A〜42Jのパラメータを各行動
及び動作モデル(Baby1、Child 1、Chi
ld2、Young 1〜Young 3、Adult
1〜Adult 4)ごとに異なる値に設定すること
によって、ペットロボット1に「いらいら」や「おとな
しい」のような性格をもたせることができるようになさ
れている。
Thus, in the pet robot 1, the parameters of the intensity increasing / decreasing functions 42A to 42J are set to the respective behavior and action models (Baby1, Child1, Chi1).
ld2, Young 1 to Young 3, Adult
By setting different values for each of 1 to 4), the pet robot 1 can be given a character such as "irritable" or "quiet".

【0066】(3−3)行動決定機構部32の処理 行動決定機構部32は、複数の行動モデルを外部メモリ
25内に有している。そして行動決定機構部32は、状
態認識機構部30から与えられる状態認識情報10と、
感情・本能モデル部31の各情動ユニット40A〜40
F及び各欲求ユニット41A〜41Dの強度と、対応す
る行動モデルとに基づいて次の行動や動作を決定し、決
定結果を行動決定情報S14として姿勢遷移機構部33
及び成長制御機構部35に出力する。
(3-3) Processing of the Action Determination Mechanism 32 The action determination mechanism 32 has a plurality of action models in the external memory 25. Then, the action determining mechanism unit 32 includes: the state recognition information 10 given from the state recognition mechanism unit 30;
Each emotion unit 40A-40 of the emotion / instinct model unit 31
F and the intensity of each of the desire units 41A to 41D and the corresponding behavior model, determine the next behavior or action, and use the determination result as the behavior determination information S14 as the posture transition mechanism unit 33.
And output to the growth control mechanism 35.

【0067】この場合、行動決定機構部32は、次の行
動や動作を決定する手法として、図6に示すような1つ
のノード(状態)NDA0から同じ又は他のどのノード
NDA0〜NDAnに遷移するかを各ノードNDA0
NDAn間を接続するアークARA0〜ARAnに対し
てそれぞれ設定された遷移確率P〜Pに基づいて確
率的に決定する確率オートマトンと呼ばれるアルゴリズ
ムを用いる。
In this case, the action determining mechanism unit 32 determines the next action or operation from one node (state) ND A0 as shown in FIG. 6 or any other node ND A0 to ND An as shown in FIG. To each node ND A0 to
An algorithm called probability automaton for determining probabilistically based on the transition probability P 0 to P n which is set respectively arc AR A0 to Ar An for connecting the ND An employed.

【0068】より具体的には、外部メモリ25には行動
モデルとして、各ノードNDA〜NDAnごとの図7
に示すような状態遷移表50が格納されており、行動決
定機構部32がこれに状態遷移表50に基づいて次の行
動や動作を決定するようになされている。
More specifically, the external memory 25 stores a behavior model as shown in FIG. 7 for each of the nodes NDA 0 to ND An .
Is stored, and the action determining mechanism 32 determines the next action or operation based on the state transition table 50.

【0069】ここで状態遷移表50においては、そのノ
ードNDA0〜NDAnにおいて遷移条件とする入力イ
ベント(認識結果)が「入力イベント」の行に優先順に
列記され、その遷移条件についてのさらなる条件が「デ
ータ名」及び「データ範囲」の行における対応する列に
記述されている。
In the state transition table 50, input events (recognition results) as transition conditions at the nodes ND A0 to ND An are listed in a row of “input event” in order of priority, and further conditions for the transition conditions are further described. Are described in the corresponding columns in the rows of “data name” and “data range”.

【0070】従って図7の状態遷移表50で定義された
ノードND100では、「ボールを検出した(BAL
L)」という認識結果が与えられた場合に、当該認識結
果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000の範囲(0,1000)」で
あることや、「障害物を検出(OBSTACLE)」と
いう認識結果が与えられた場合に、当該認識結果と共に
与えられるその障害物までの「距離(DISTANC
E)」が「0から100の範囲(0,100)」である
ことが他のノードに遷移するための条件となっている。
Therefore, at the node ND 100 defined in the state transition table 50 of FIG.
L) "is given, the" size (SIZ) "of the ball given together with the recognition result is given.
E) is in the range of 0 to 1000 (0,1000), or when a recognition result of “obstacle detected (OBSTABLE)” is given, the obstacle is given together with the recognition result. "Distance (DISTANC
"E)" is in the range of "0 to 100 (0, 100)", which is a condition for transition to another node.

【0071】またこのノードND100では、認識結果
の入力がない場合においても、行動決定機構部が周期的
に参照する感情・本能モデル部31の各情動ユニット4
0A〜40F及び各欲求ユニット41A〜41Dの強度
のうち、「喜び(JOY)」、「驚き(SUPRIS
E)」又は「悲しみ(SUDNESS)」のいずれかの
情動ユニット40A〜40Fの強度が「50から100
の範囲(50,100)」であるときには他のノードに
遷移することができる。
In the node ND 100 , even when there is no input of the recognition result, each emotion unit 4 of the emotion / instinct model unit 31 periodically referred to by the action determination mechanism unit.
0A to 40F and the intensity of each desire unit 41A to 41D, “joy” and “surprise”
E) ”or“ SUDNESS ”emotion unit 40A to 40F has a strength of“ 50 to 100 ”.
Is within the range (50, 100) ”, it is possible to transit to another node.

【0072】また状態遷移表50では、「他のノードへ
の遷移確率」の欄における「遷移先ノード」の列にその
ノードNDA0〜NDAnから遷移できるノード名が列
記されると共に、「入力イベント名」、「データ値」及
び「データの範囲」の各行に記述された全ての条件が揃
ったときに遷移できる他の各ノードNDA0〜NDAn
への遷移確率が「他のノードへの遷移確率」の欄におけ
る「出力行動」の行に記述される。なお「他のノードへ
の遷移確率」の欄における各行の遷移確率の和は100
〔%〕となっている。
In the state transition table 50, in the column of “transition destination node” in the column of “transition probability to another node”, the names of nodes that can transition from the nodes ND A0 to ND An are listed, and Other nodes ND A0 to ND An to which a transition can be made when all the conditions described in each row of “event name”, “data value”, and “data range” are met
Is described in the row of “output action” in the column of “transition probability to another node”. Note that the sum of the transition probabilities of each row in the column of “transition probability to another node” is 100
[%].

【0073】従ってこの例のノードNODE100
は、例えば「ボールを検出(BALL)」し、そのボー
ルの「大きさ(SIZE)」が「0から1000の範囲
(0,1000)」であるという認識結果が与えられた
場合には、「30〔%〕」の確率で「ノードNODE
120(node 120)」に遷移でき、そのとき
「ACTION 1」の行動や動作が出力されることと
なる。
Therefore, in the node NODE 100 of this example, for example, “ball is detected (BALL)”, and it is recognized that the “size” of the ball is in the range of (0, 1000) (0, 1000). If the result is given, the “node NODE” has a probability of “30 [%]”.
120 (node 120) ", and the action or action of" ACTION 1 "is output at that time.

【0074】そして各行動モデルは、それぞれこのよう
な状態遷移表50として記述されたノードNDA0〜N
Anがいくつも繋がるようにして構成されている。
Each of the behavior models corresponds to the nodes ND A0 to ND A described in the state transition table 50, respectively.
The configuration is such that a number of D An are connected.

【0075】かくして行動決定機構部32は、状態認識
機構部30から状態認識情報S10が与えられたとき
や、最後に行動を発現してから一定時間が経過したとき
などに、メモリ10Aに格納されている対応する行動モ
デルのうちの対応するノードNDA0〜NDAnの状態
遷移表50を利用して次の行動や動作(「出力行動」の
行に記述された行動や動作)を確率的に決定し、決定結
果を行動指令情報S14として姿勢遷移機構部33及び
成長制御機構部35に出力するようになされている。
[0075] Thus the action determining unit 32 is stored, and when the state recognition information through S10 state recognition mechanism unit 30 is given to such last time a predetermined time from the expressing action has elapsed, the memory 10 A Using the state transition table 50 of the corresponding nodes ND A0 to ND An in the corresponding behavior model, the next behavior or behavior (the behavior or behavior described in the row of “output behavior”) is probabilistically determined. And outputs the result of the determination to the posture transition mechanism 33 and the growth control mechanism 35 as the action command information S14.

【0076】(3−4)姿勢遷移機構部33の処理 姿勢遷移機構部33は、行動決定機構部32から行動決
定情報S14が与えられると、当該行動決定情報S14
に基づく行動や動作を行うためのペットロボット1の一
連の動作計画を立て、当該動作計画に基づく動作指令情
報S15を制御機構部34に出力する。
(3-4) Processing of Posture Transition Mechanism 33 When the behavior decision information S14 is given from the behavior decision mechanism 32, the posture transition mechanism 33 receives the action decision information S14.
A series of operation plans of the pet robot 1 for performing an action or an operation based on the operation plan are made, and operation command information S15 based on the operation plan is output to the control mechanism unit 34.

【0077】この場合姿勢遷移機構部33は、動作計画
を立てる手法として、図8に示すようなペットロボット
1がとり得る姿勢をそれぞれノードNDB0〜NDB2
とし、遷移可能なノードNDB0〜NDB2間を動作を
表す有向アークARB0〜ARB2で結び、かつ1つの
ノードNDB0〜NDB2間で完結する動作を自己動作
アークARC0〜ARC2として表現する有向グラフを
用いる。
In this case, the posture transition mechanism unit 33 uses the nodes ND B0 to ND B2 to determine the postures that the pet robot 1 can take as shown in FIG.
And then, connected by directed arcs AR B0 to Ar B2 representing the operation between possible transition nodes ND B0 to ND B2, and one node ND B0 self operating arc operation to complete between ~ND B2 AR C0 ~AR C2 Is used.

【0078】このためメモリ10Aには、このような有
向グラフの元となる、当該ペットロボット1が発現でき
る全ての動作の始点姿勢及び終了姿勢をデータベース化
したファイル(以下、これをネットワーク定義ファイル
と呼ぶ)のデータが格納されており、姿勢遷移機構部3
3は、このネットワーク定義ファイルに基づいて、図9
〜図12に示すような全身用、頭部用、脚部用及び尻尾
部用の各有向グラフ60〜63をそれぞれ生成する。
For this reason, in the memory 10A, a file in which the starting point posture and the ending posture of all the movements that can be expressed by the pet robot 1 as a source of such a directed graph are stored in a database (hereinafter, referred to as a network definition file) ) Is stored, and the posture transition mechanism unit 3
3 is based on this network definition file, and FIG.
12 to generate directed graphs 60 to 63 for the whole body, for the head, for the legs, and for the tail, respectively.

【0079】なおこの図9〜図12からも明らかなよう
に、このペットロボット1においては、姿勢が大きく
「立つ(oStanding)」、「すわる(oSit
ting)」、「伏せる(oSleeping)」及び
バッテリ11(図2)を充電するための図示しない充電
台上の姿勢である「ステーション(oStatio
n)」の4つに分類されている。そしてこれら各4つの
各姿勢について、各「成長段階」に共通する基本姿勢
(二重丸印)と、「幼年期」用、「少年期」用、「青年
期」用及び「成人期」用の1又は複数の通常姿勢(丸
印)とを有している。
As is clear from FIGS. 9 to 12, in the pet robot 1, the posture is greatly “stand (oStanding)” and “stand (oSit)”.
"station", which is an attitude on a charging stand (not shown) for charging the battery 11 (FIG. 2), "oSleeping", and the battery 11 (FIG. 2).
n)). For each of these four postures, the basic posture (double circle) common to each "growth stage" and the one for "childhood", "childhood", "youth" and "adult" And one or more normal postures (circles).

【0080】例えば図9〜図12において破線で囲んだ
部分は「幼年期」用の通常姿勢を表わすものであるが、
このうち図9からも明らかなように、「幼年期」におけ
る「伏せる」の通常姿勢として、「oSleeping
b(baby)」、「oSleeping b2」〜
「oSleeping b5」があり、「すわる」の通
常姿勢として、「oSitting b」、「oSit
ting b2」がある。
For example, the portion surrounded by a broken line in FIGS. 9 to 12 represents the normal posture for “childhood”,
As is apparent from FIG. 9, the normal posture “down” in “childhood” is “oSleeping”.
b (baby) "," oSleeping b2 "~
There is “oSleeping b5”, and “oSitting b”, “oSit
ting b2 ".

【0081】そして姿勢遷移機構部33は、行動決定機
構部32から「立て」、「歩け」、「お手をしろ」、
「頭を揺すれ」、「尻尾を動かせ」などの行動指令が行
動指令情報S14として与えられると、対応する有向グ
ラフ60〜63を用いて、有向アークの向きに従いなが
ら現在のノードから指定された姿勢が対応付けられたノ
ード又は指定された動作が対応付けられた有向アーク若
しくは自己動作アークに至る経路を探索し、当該探索し
た経路上の各有向アークにそれぞれ対応付けられた動作
を順次行わせるような動作指令を動作指令情報S15と
して制御機構部34に次々と出力する。
Then, the posture transition mechanism unit 33 sends the “stand”, “walk”, “reach hand”,
When an action command such as "shake the head" or "move the tail" is given as the action command information S14, the command is designated from the current node using the corresponding directed graphs 60 to 63 while following the direction of the directed arc. A path to a node to which a posture is associated or a directed arc or a self-operation arc to which a specified operation is associated is searched, and the operations respectively associated with the directed arcs on the searched path are sequentially performed. Operation commands to be performed are sequentially output to the control mechanism unit 34 as operation command information S15.

【0082】例えばペットロボット1の現在のノードが
全身用の有向グラフ60における「oSitting
b」であり、行動決定機構部32から「oSleepi
ngb4」のノードにおいて発現する動作(自己動作ア
ークaに対応付けられた動作)の行動指令が姿勢遷移
機構部に与えれた場合、姿勢遷移機構部33は、全身用
の有向グラフ60上で「oSitting b」のノー
ドから「oSleeping b4」のノードに至る経
路を探索し、「oSitting b」のノードから
「oSleeping b5」のノードに姿勢を遷移さ
せるための動作指令と、「oSleeping b5」
のノードから「oSleeping b3」のノードに
姿勢を遷移させるための動作指令と、「oS1eepi
ng b3」のノードから「oSleeping b
4」のノードに姿勢を遷移させるための動作指令とを動
作指令情報S15として制御機構部34に次々と出力
し、最後に「oSleeping b4」のノードから
指定された動作が対応付けられた自己動作アークa
介して「oSleeping b4」のノードに戻るた
めの動作指令を動作指令情報S15として制御機構部3
4に出力する。
For example, if the current node of the pet robot 1 is “oSitting” in the directed graph 60 for the whole body,
b ”, and the behavior determination mechanism unit 32 outputs“ oSleepi
If the action command of the operation to be expressed at a node ngb4 "(operation associated with the self-operating arc a 1) is given to the posture transition mechanism unit, the posture transition mechanism section 33 on the directed graph 60 for the whole body" oSitting b) to search for a path from the node “o Sleeping b4” to the node “o Sleeping b4”, and an operation command to change the posture from the node “o Sleeping b 5” to the node “o Sleeping b 5”, and “o Sleeping b 5”
An operation command for changing the posture from the node of “oSleeping b3” to the node of “oSleeping b3”;
ng b3 ”node to“ oSleeping b
4 is sequentially output to the control mechanism unit 34 as the operation command information S15 as the operation command information S15, and finally, the self-operation associated with the operation specified by the node “oSleeping b4” arc a 1 through the "OSleeping b4" control mechanism unit 3 an operation command for returning to the node as operation command information S15 in
4 is output.

【0083】この際、ペットロボット1の「成長段階」
及び「性格」等に応じて動き(「荒々しい」動き、「お
となしい」動きなど)を変えるために、遷移可能な2つ
のノード間が複数の有向アークによって結ばれているこ
とがあるが、このような場合には、姿勢遷移機構部33
は、後述の成長制御機構部35の制御に基づいてそのと
きのペットロボット1の「成長段階」及び「性格」に応
じた有向アークを経路として選択する。
At this time, the “growth stage” of the pet robot 1
In order to change the movement (“rough” movement, “quiet” movement, etc.) according to the “personality” and the like, two nodes that can be transitioned may be connected by a plurality of directed arcs. In such a case, the posture transition mechanism 33
Selects a directed arc according to the “growth stage” and “character” of the pet robot 1 at that time based on the control of the growth control mechanism unit 35 described later as a path.

【0084】またこれと同様に、各「成長段階」及び
「性格」等に応じて動きを変えるために、あるノードか
ら当該ノードに戻る自己動作アークが複数設けられてい
ることがあるが、このような場合にも姿勢遷移機構部3
3は、上述と同様にしてそのときのペットロボット1の
「成長段階」及び「性格」に応じた有向アークを経路と
して選択する。
Similarly, a plurality of self-operation arcs returning from a certain node to the node may be provided in order to change the movement according to each “growth stage” and “character”. In such a case, the posture transition mechanism 3
3 selects a directed arc according to the “growth stage” and “character” of the pet robot 1 at that time as a path in the same manner as described above.

【0085】なお上述のような姿勢遷移では、途中の姿
勢に停留する時間がほどんど「0」であり、従って当該
姿勢遷移の途中で他の「成長段階」で使用するノードを
経由しても良い。このため姿勢遷移機構部33は、現在
のノードから目標とするノード又は有向アーク若しくは
自己動作アークに至る経路を探索する際、現在の「成長
段階」に関わりなく最短の経路を探索する。
In the posture transition as described above, the time of staying in the middle position is almost “0”, and therefore, even during the transition of the posture, it passes through a node used in another “growth stage”. good. Therefore, when searching for a path from the current node to the target node or the directed arc or the self-acting arc, the posture transition mechanism unit 33 searches for the shortest path regardless of the current “growth stage”.

【0086】また姿勢遷移機構部33は、頭部、脚部又
は尻尾部に対する行動指令が与えられた場合には、全身
用の有向グラフ60に基づいてペットロボット1の姿勢
を当該行動命令に応じたいずれかの基本姿勢(二重丸
印)に戻し、この後対応する頭部、脚部又は尻尾部の有
向グラフ61〜63を用いて頭部、脚部又は尻尾部の姿
勢を遷移させるように動作指令情報S15を出力する。
When an action command for the head, legs, or tail is given, the posture transition mechanism unit 33 changes the posture of the pet robot 1 based on the directed graph 60 for the whole body. Return to one of the basic postures (double circles), and then operate to change the posture of the head, leg, or tail using the directed graphs 61 to 63 of the corresponding head, leg, or tail. The command information S15 is output.

【0087】(3−5)制御機構部34の処理 制御機構部34は、姿勢遷移機構部33から与えられる
動作指令情報S15に基づいて制御信号S16を生成
し、当該制御信号S16に基づいて各アクチュエータ2
〜24を駆動制御することにより、ペットロボッ
ト1に指定された行動や動作を行わせる。
(3-5) Processing of the control mechanism unit 34 The control mechanism unit 34 generates a control signal S16 based on the operation command information S15 given from the posture transition mechanism unit 33, and generates each control signal based on the control signal S16. Actuator 2
4 by a 1 to 24 n for controlling the drive to perform the behavioral and operation specified in the pet robot 1.

【0088】(4)本実施の形態の動作及び効果 以上の構成において、このペットロボット1では、胴体
部ユニット2内に外部メモリ25を装填してない状態で
電源投入するとクリニックモードで起動する。このとき
ペットロボット1の周囲の状況やユーザからの指令及び
働きかけの有無などのセンサ入力に応じて予め一意に対
応付けられた特定の行動を発現する。
(4) Operation and Effects of the Embodiment In the above configuration, the pet robot 1 starts up in the clinic mode when the power is turned on without the external memory 25 loaded in the body unit 2. At this time, a specific action uniquely associated in advance is expressed according to a sensor input such as a situation around the pet robot 1, a command from the user, and the presence or absence of an action.

【0089】従って、このペットロボット1では、クリ
ニックモード時における入力に対する当該ペットロボッ
トの出力行動に基づいてユーザが容易にそのペットロボ
ットのハードウェアやソフトウェアに故障が生じている
か否かを判断することができる。かくしてペットロボッ
ト1内のハードウェアやソフトウェアに実際に故障が生
じていない場合であっても、ユーザがペットロボット1
が壊れてしまったとの誤解が生ずるのを未然に回避する
ことができる。
Therefore, in the pet robot 1, the user can easily determine whether or not a failure has occurred in the hardware or software of the pet robot based on the output behavior of the pet robot in response to the input in the clinic mode. Can be. Thus, even if the hardware or software in the pet robot 1 has not actually failed, the user can operate the pet robot 1
It is possible to prevent a misunderstanding that the is broken.

【0090】またペットロボット1では、クリニックモ
ードに応じた制御プログラムを、外部メモリ25ではな
く、コントローラ10内の内部メモリ10Aに記憶して
おくようにしたことにより、ペットロボット1に不具合
が生じた場合に、故障が生じた部分がペットロボット1
内のハードウェアやソフトウェアであるか、又は外部メ
モリ25であるかをユーザが容易に判断することができ
る。
Further, in the pet robot 1, the control program corresponding to the clinic mode is stored not in the external memory 25 but in the internal memory 10 A in the controller 10, so that a problem occurs in the pet robot 1. In this case, the part where the failure occurred is the pet robot 1
The user can easily determine whether it is hardware or software in the device or the external memory 25.

【0091】以上の構成によれば、このペットロボット
1において、胴体部ユニット2内に外部メモリ25を装
填してない状態で電源投入するとクリニックモードで起
動し、ペットロボット1の周囲の状況やユーザからの指
令及び働きかけの有無などのセンサ入力に応じて予め一
意に対応付けられた特定の行動を発現するようにしたこ
とにより、クリニックモード時における入力に対するペ
ットロボットの出力行動に基づいてユーザが容易にその
ペットロボットのハードウェアやソフトウェアに故障が
生じているか否かを判断することができる。かくするに
つきペットロボット1内のハードウェアやソフトウェア
に実際に故障が生じていない場合であっても、ユーザが
ペットロボット1が壊れてしまったとの誤解が生ずるの
を未然に回避することができ、かくしてエンターテイン
メント性を向上させ得るペットロボット1を実現でき
る。
According to the above configuration, in the pet robot 1, when the power is turned on in a state where the external memory 25 is not loaded in the trunk unit 2, the pet robot 1 is started in the clinic mode, and the surroundings of the pet robot 1 and the user A specific action uniquely associated in advance in response to a command input from the user and a sensor input such as the presence or absence of an action is expressed, so that the user can easily perform the action based on the output action of the pet robot in response to the input in the clinic mode. Then, it can be determined whether or not the hardware or software of the pet robot has failed. Thus, even if the hardware or software in the pet robot 1 has not actually failed, the user can be prevented from misunderstanding that the pet robot 1 has been broken, Thus, the pet robot 1 that can improve the entertainment property can be realized.

【0092】(5)他の実施の形態 なお上述の実施の形態においては、本発明を図1のよう
に構成された4脚歩行型のペットロボット1に適用する
ようにした場合について述べたが、本発明はこれに限ら
ず、要は、外部センサ及び又は内部センサの出力に基づ
いて外部及び又は内部の状況を認識し、認識結果に基づ
いて行動する自律型のロボット装置に広く適用すること
ができる。
(5) Other Embodiments In the above-described embodiment, the case where the present invention is applied to the four-legged walking type pet robot 1 configured as shown in FIG. 1 has been described. However, the present invention is not limited to this, and the point is that the present invention is widely applied to an autonomous robot apparatus that recognizes an external and / or internal situation based on the output of an external sensor and / or an internal sensor and acts based on the recognition result. Can be.

【0093】また上述の実施の形態においては、外部か
ら与えられた働きかけを検出する検出手段として、入力
系センサ類、すなわち外部センサ部23のうちの頭部タ
ッチセンサ19、背中タッチセンサ16、顎タッチセン
サ22及びCCDカメラ18を適用するようにした場合
について述べたが、本発明はこれに限らず、外部センサ
部23のうちの上述の入力系センサ類以外の他のマイク
ロホン16など、この他種々の検出手段を広く適用する
ことができる。
In the above-described embodiment, the input means sensors, that is, the head touch sensor 19, the back touch sensor 16, the chin Although the case where the touch sensor 22 and the CCD camera 18 are applied has been described, the present invention is not limited to this, and the microphone 16 other than the above-described input sensors of the external sensor unit 23 may be used. Various detection means can be widely applied.

【0094】さらに上述の実施の形態においては、所定
のプログラムを記憶する記憶手段として、上述したクリ
ニックモードに応じた制御プログラムが記憶されたコン
トローラ10内の内部メモリ10Aを適用するようにし
た場合について述べたが、本発明はこれに限らず、要
は、ロボット装置の本体内部に設けられた記憶手段であ
れば、この他種々の構成のものに広く適用することがで
きる。
Further, in the above-described embodiment, the case where the internal memory 10A in the controller 10 in which the control program corresponding to the clinic mode is stored is applied as the storage means for storing the predetermined program. As described above, the present invention is not limited to this, but the point is that any storage means provided inside the main body of the robot apparatus can be widely applied to various other structures.

【0095】さらに上述の実施の形態においては、クリ
ニックモードに応じた制御プログラムに基づいて、入力
系センサ類16、18、19、22のセンサ入力に応じ
て予め一意に対応付けられた特定の行動を発現する行動
発現手段として、頭部ユニット4のLED部20、尻尾
部ユニット5の心理状態表示用LED5AL、各脚部ユ
ニット3A〜3D及び頭部ユニット4のスピーカ21の
各出力系(以下、これを出力系デバイスと呼ぶ)のうち
の少なくとも1以上の出力系デバイスを適用するように
した場合について述べたが、本発明はこれに限らず、こ
の他種々の構成からなる行動発現手段に広く適用するこ
とができる。
Further, in the above-described embodiment, a specific action uniquely associated in advance in accordance with the sensor input of the input sensors 16, 18, 19, 22 based on the control program corresponding to the clinic mode. As an action manifesting means, the LED unit 20 of the head unit 4, the LED 5AL for displaying the psychological state of the tail unit 5, the respective output systems of the leg units 3A to 3D and the speaker 21 of the head unit 4 (hereinafter, referred to as This is referred to as an output device), but at least one of the output devices has been described. However, the present invention is not limited to this, and is widely applied to action expression means having various other configurations. Can be applied.

【0096】[0096]

【発明の効果】上述のように本発明によれば、外部セン
サ及び又は内部センサの出力に基づいて外部及び又は内
部の状況を認識し、認識結果に基づいて行動する自律型
のロボット装置において、外部から与えられた働きかけ
を検出する検出手段と、所定のプログラムを記憶する記
憶手段と、当該記憶手段から読み出したプログラムに基
づいて、検出手段の検出結果に応じて予め一意に対応付
けられた特定の行動を発現する行動発現手段とを設ける
ようにしたことにより、外部から与えられた働きかけに
対する発現行動に基づいてユーザが容易に装置本体内の
ハードウェアやソフトウェアに故障が生じているか否か
を判断することができ、この結果装置本体内のハードウ
ェアやソフトウェアに実際に故障が生じていない場合で
あっても、ユーザがロボット装置が壊れてしまったとの
誤解が生ずるのを未然に回避することができ、かくして
エンターテインメント性を向上させ得るロボット装置を
実現できる。
As described above, according to the present invention, in an autonomous robot apparatus which recognizes an external and / or internal situation based on the output of an external sensor and / or an internal sensor, and acts based on the recognition result, Detection means for detecting an externally applied action, storage means for storing a predetermined program, and identification uniquely associated in advance in accordance with the detection result of the detection means based on the program read from the storage means And the behavior manifesting means for exhibiting the behavior of the device, the user can easily determine whether or not a failure has occurred in the hardware or software in the device main body based on the manifestation behavior in response to an externally applied action. This allows the user to determine whether the hardware or software in the main unit of the device has not actually failed. It is possible to avoid the misunderstanding that the robot apparatus is broken occurs in advance, thus the robot apparatus can be realized which can improve entertainment property.

【0097】また本発明においては、外部センサ及び又
は内部センサの出力に基づいて外部及び又は内部の状況
を認識し、認識結果に基づいて行動する自律型のロボッ
ト装置の制御方法において、外部から与えられた働きか
けを検出した後、予め記憶されているプログラムに基づ
いて、当該検出結果に応じて予め一意に対応付けられた
特定の行動を発現するようにしたことにより、外部から
与えられた働きかけに対する発現行動に基づいてユーザ
が容易に装置本体内のハードウェアやソフトウェアに故
障が生じているか否かを判断することができ、この結果
装置本体内のハードウェアやソフトウェアに実際に故障
が生じていない場合であっても、ユーザがロボット装置
が壊れてしまったとの誤解が生ずるのを未然に回避する
ことができ、かくしてエンターテインメント性を向上さ
せ得るロボット装置の制御方法を実現できる。
Further, according to the present invention, in a control method of an autonomous robot apparatus which recognizes an external and / or internal situation based on an output of an external sensor and / or an internal sensor, and acts based on the recognition result, an externally provided After detecting a given action, based on a program stored in advance, by expressing a specific action uniquely associated in advance according to the detection result, it is possible to respond to an externally given action. Based on the manifestation behavior, the user can easily determine whether or not the hardware or software in the device body has failed, and as a result, the hardware or software in the device body has not actually failed. Even in this case, it is possible to prevent the user from misunderstanding that the robot device has been broken beforehand. Control method for a robot apparatus capable of improving entertainment property Te can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用したペットロボットの外観構成を
示す斜視図である。
FIG. 1 is a perspective view showing an external configuration of a pet robot to which the present invention is applied.

【図2】ペットロボットの回路構成を示すブロック図で
ある。
FIG. 2 is a block diagram illustrating a circuit configuration of the pet robot.

【図3】LED部の構成を示す一部断面図である。FIG. 3 is a partial cross-sectional view illustrating a configuration of an LED unit.

【図4】コントローラの処理の説明に供するブロック図
である。
FIG. 4 is a block diagram for explaining processing of a controller;

【図5】感情・本能モデル部におけるデータ処理の説明
に供する概念図である。
FIG. 5 is a conceptual diagram serving to explain data processing in an emotion / instinct model unit.

【図6】確率オートマトンを示す概念図である。FIG. 6 is a conceptual diagram illustrating a stochastic automaton.

【図7】状態遷移表を示す概念図である。FIG. 7 is a conceptual diagram showing a state transition table.

【図8】有向グラフの説明に供する概念図である。FIG. 8 is a conceptual diagram serving to explain a directed graph.

【図9】全身用の有向グラフを示す概念図である。FIG. 9 is a conceptual diagram showing a directed graph for the whole body.

【図10】頭部用の有向グラフを示す概念図である。FIG. 10 is a conceptual diagram showing a directed graph for the head.

【図11】脚部用の有向グラフを示す概念図である。FIG. 11 is a conceptual diagram showing a directed graph for a leg.

【図12】尻尾部用の有向グラフを示す概念図である。FIG. 12 is a conceptual diagram showing a directed graph for the tail.

【符号の説明】[Explanation of symbols]

1……ペットロボット、2……胴体部ユニット、3A〜
3D……脚部ユニット、4……頭部ユニット、5……尻
尾部ユニット、5AL……心理状態表示用LED、10
……コントローラ、10A……メモリ、15……内部セ
ンサ、16……背中タッチセンサ、17……マイクロホ
ン、18……CCDカメラ、19……頭部タッチセン
サ、20……LED部、21……スピーカ、22……顎
タッチセンサ、23……外部センサ、24〜24
…アクチュエータ、25……外部メモリ、30……状態
認識機構部、31……感情・本能モデル部、32……行
動決定機構部、33……姿勢遷移機構部、34……制御
機構部。
1 ... pet robot, 2 ... body unit, 3A ~
3D ... leg unit, 4 ... head unit, 5 ... tail unit, 5AL ... psychological state display LED, 10
... Controller, 10A ... Memory, 15 ... Internal sensor, 16 ... Back touch sensor, 17 ... Microphone, 18 ... CCD camera, 19 ... Head touch sensor, 20 ... LED section, 21 ... Speaker, 22: jaw touch sensor, 23: external sensor, 24 1 to 24 n ...
An actuator 25, an external memory 30, a state recognition mechanism 31, an emotion / instinct model 32, an action determining mechanism 33, a posture transition mechanism 34, a control mechanism 34.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 CA01 CA02 CA04 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED52 EF03 EF07 EF16 EF23 EF29 EF34 EF36 3F059 AA00 BA02 BB06 BC07 CA05 DB02 DB09 DC01 DD06 DD11 DD18 FB12 3F060 AA00 CA14 GD15 HA02 5H223 AA06 BB05 CC06 EE19 EE30 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2C150 CA01 CA02 CA04 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED52 EF03 EF07 EF16 EF23 EF29 EF34 EF36 3F059 AA00 BA02 BB06 BC07 CA05 DB02 DB09 DC01 DD06 DD06 CA14 GD15 HA02 5H223 AA06 BB05 CC06 EE19 EE30

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】外部センサ及び又は内部センサの出力に基
づいて外部及び又は内部の状況を認識し、認識結果に基
づいて行動する自律型のロボット装置において、 外部から与えられた働きかけを検出する検出手段と、 所定のプログラムを記憶する記憶手段と、 上記記憶手段から読み出した上記プログラムに基づい
て、上記検出手段の検出結果に応じて予め一意に対応付
けられた特定の行動を発現する行動発現手段とを具える
ことを特徴とするロボット装置。
1. An autonomous robot apparatus which recognizes an external and / or internal situation based on an output of an external sensor and / or an internal sensor and acts based on a result of the recognition. Means, storage means for storing a predetermined program, and action manifestation means for exhibiting a specific action uniquely associated in advance in accordance with the detection result of the detection means, based on the program read from the storage means. A robot device comprising:
【請求項2】上記記憶手段は、上記ロボット装置の本体
内に設けられたことを特徴とする請求項1に記載のロボ
ット装置。
2. The robot apparatus according to claim 1, wherein said storage means is provided in a main body of said robot apparatus.
【請求項3】外部センサ及び又は内部センサの出力に基
づいて外部及び又は内部の状況を認識し、認識結果に基
づいて行動する自律型のロボット装置の制御方法におい
て、 外部から与えられた働きかけを検出する第1のステップ
と、 予め記憶されているプログラムに基づいて、上記検出結
果に応じて予め一意に対応付けられた特定の行動を発現
する第2のステップとを具えることを特徴とするロボッ
ト装置の制御方法。
3. A control method for an autonomous robot apparatus which recognizes an external and / or internal situation based on an output of an external sensor and / or an internal sensor and acts based on a result of the recognition. A first step of detecting, and a second step of expressing a specific action uniquely associated in advance according to the detection result based on a program stored in advance. A method for controlling a robot device.
【請求項4】上記第2のステップでは、上記プログラム
が記憶された記憶手段を上記ロボット装置の本体内に設
けるようにしたことを特徴とする請求項3に記載のロボ
ット装置の制御方法。
4. The method according to claim 3, wherein in the second step, storage means for storing the program is provided in a main body of the robot device.
JP2000350276A 2000-10-11 2000-10-11 Robot apparatus and control method thereof Expired - Fee Related JP4411503B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000350276A JP4411503B2 (en) 2000-10-11 2000-10-11 Robot apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000350276A JP4411503B2 (en) 2000-10-11 2000-10-11 Robot apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2002120180A true JP2002120180A (en) 2002-04-23
JP4411503B2 JP4411503B2 (en) 2010-02-10

Family

ID=18823535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000350276A Expired - Fee Related JP4411503B2 (en) 2000-10-11 2000-10-11 Robot apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP4411503B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101241561B (en) * 2007-02-08 2012-07-04 三星电子株式会社 Apparatus and method for expressing behavior of software robot
CN107957719A (en) * 2016-10-18 2018-04-24 珠海格力智能装备有限公司 Robot and abnormity monitoring method and device thereof
CN114364494A (en) * 2019-09-13 2022-04-15 株式会社富士 Workpiece transfer robot

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101241561B (en) * 2007-02-08 2012-07-04 三星电子株式会社 Apparatus and method for expressing behavior of software robot
CN107957719A (en) * 2016-10-18 2018-04-24 珠海格力智能装备有限公司 Robot and abnormity monitoring method and device thereof
CN107957719B (en) * 2016-10-18 2020-10-23 珠海格力智能装备有限公司 Robot and abnormity monitoring method and device thereof
CN114364494A (en) * 2019-09-13 2022-04-15 株式会社富士 Workpiece transfer robot
CN114364494B (en) * 2019-09-13 2023-09-19 株式会社富士 Workpiece carrying robot

Also Published As

Publication number Publication date
JP4411503B2 (en) 2010-02-10

Similar Documents

Publication Publication Date Title
US6539283B2 (en) Robot and action deciding method for robot
KR101137205B1 (en) Robot behavior control system, behavior control method, and robot device
JP4086024B2 (en) Robot apparatus and behavior control method thereof
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
JP4239635B2 (en) Robot device, operation control method thereof, and program
US6684130B2 (en) Robot apparatus and its control method
WO2000068879A1 (en) Robot device, its control method, and recorded medium
WO2000043167A1 (en) Robot device and motion control method
US6711467B2 (en) Robot apparatus and its control method
JP2001191281A (en) Editing device, editing method, and storage medium
JP3277500B2 (en) Robot device
JP2004302644A (en) Face identification device, face identification method, recording medium and robot device
JP2004298975A (en) Robot device and obstacle searching method
JP2003334785A (en) Robot behavior control system and behavior control method and robot device
JP2004130427A (en) Robot device and method for controling operation of robot device
JP2002120180A (en) Robot device and control method for it
JP2007125629A (en) Robot device and motion control method
JP2004114285A (en) Robotic device and its behavior control method
JP4556425B2 (en) Content reproduction system, content reproduction method, and content reproduction apparatus
JP2001157979A (en) Robot device, and control method thereof
JP2001157980A (en) Robot device, and control method thereof
JP2001157982A (en) Robot device and control method thereof
JP2002120181A (en) Robot device and control method for it
JP2003071765A (en) Robot device and input method therefor
JP2003266352A (en) Robot device and control method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070307

A977 Report on retrieval

Effective date: 20081114

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Effective date: 20081120

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090806

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Effective date: 20091022

Free format text: JAPANESE INTERMEDIATE CODE: A01

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091104

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees