JP2000326274A - Acting robot - Google Patents
Acting robotInfo
- Publication number
- JP2000326274A JP2000326274A JP11144090A JP14409099A JP2000326274A JP 2000326274 A JP2000326274 A JP 2000326274A JP 11144090 A JP11144090 A JP 11144090A JP 14409099 A JP14409099 A JP 14409099A JP 2000326274 A JP2000326274 A JP 2000326274A
- Authority
- JP
- Japan
- Prior art keywords
- person
- unit
- processing unit
- detected
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 124
- 238000001514 detection method Methods 0.000 claims abstract description 88
- 238000000034 method Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 16
- 230000004044 response Effects 0.000 claims description 16
- 230000009471 action Effects 0.000 claims description 11
- 238000013459 approach Methods 0.000 claims description 6
- 230000002349 favourable effect Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 6
- 241000282414 Homo sapiens Species 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 101150042515 DA26 gene Proteins 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Toys (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、家庭などにおい
て、ペットとしての役割をはたす自律行動ロボットに関
する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an autonomous robot that plays a role as a pet at home or the like.
【0002】[0002]
【従来の技術】家庭において、ペットと同等の位置づけ
を持って人間と接する自律行動ロボットの開発が一般化
している。例えば、犬のような形状を持ち、人間の声に
反応してあらかじめプログラムされた動作を行ったり、
色のついた物体に反応して近づいてきたりするロボット
が開発されている。2. Description of the Related Art At home, the development of autonomous robots that come into contact with humans with a position equivalent to that of pets has become common. For example, it has a dog-like shape, performs pre-programmed actions in response to human voice,
Robots have been developed that approach and approach colored objects.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、上述の
ようなロボットでは人物を検出・識別できないので、人
とコミュニケーションをしたり、特定の人になつくな
ど、ペットとしての重要な機能が欠落しており、人間が
ペットと同じような親近感を持てない原因となってい
る。人間が親近感を持てるようにするには、ロボットが
そこにいる人物を検出し、また、その人物が誰であるか
を識別し、また、その人物を好きであるとか嫌いである
とかの情報を持つ必要があり、さらには、これらの認識
結果や情報に基づいてロボットをペットらしく振る舞わ
せることが必須となるという課題があった。このとき、
外界の様々な情報を得ると同時に適切に処理を行い、ペ
ットらしく振る舞うことが重要な課題である。However, since the above-described robot cannot detect and identify a person, important functions as a pet, such as communicating with a person or becoming a specific person, are lost. And cause human beings to have a feeling of intimacy similar to pets. In order for humans to be close, the robot can detect the person there, identify who the person is, and provide information on whether the person likes or dislikes the person. There is a problem that it is necessary to make the robot behave like a pet based on these recognition results and information. At this time,
It is important to obtain various kinds of information from the outside world, perform appropriate processing at the same time, and behave like a pet.
【0004】本発明は、このような点を鑑みてなされた
もので、様々な外界の情報を得ると同時に適切な処理を
行うことによって、人間に対してできるだけペットのよ
うな振る舞いで応答し、人間が親近感を感じることがで
きるような自律行動ロボットのための行動制御装置を提
供することを目的とする。[0004] The present invention has been made in view of such a point, and by responding to humans as much as possible as a pet by obtaining various external information and performing appropriate processing at the same time, It is an object of the present invention to provide a behavior control device for an autonomous behavior robot that allows a human to feel closeness.
【0005】[0005]
【課題を解決するための手段】請求項1に記載の発明
は、画像入力装置と、該画像入力装置により入力された
画像から人物を検出する人物検出手段と、該人物検出手
段により検出された人物までの距離を算出する距離算出
手段と、前記人物検出手段により検出された人物を識別
する人物識別手段と、人物の情報を記憶する人物情報記
憶手段と、音声入力装置と、該音声入力装置により入力
された音声の方向を検出する音源方向検出手段と、前記
音声入力装置により入力された音声を認識する音声認識
手段と、超音波センサにより周囲の障害物を検出する障
害物検出手段と、撫でられたか叩かれたかを検出する接
触検出手段と、前記人物検出手段により検出された人物
検出情報と前記人物識別手段により識別された人物識別
情報と前記音源方向検出手段により検出された音源方向
と前記音声認識手段により認識された音声情報と前記障
害物検出手段により検出された障害物情報と前記接触検
出手段により検出された接触情報とを用いてロボットの
行動を制御する行動制御手段と、該行動制御手段の制御
により可動する脚部と頭部と、前記行動制御手段の制御
により応答を出力する応答出力手段とを備える自律行動
ロボットにおいて、前記行動制御手段が、前記人物検出
手段及び前記人物識別手段及び前記音源方向検出手段及
び前記音声認識手段及び前記障害物検出手段及び前記接
触検出手段の出力を順々に記憶する入力情報記憶部と、
該入力情報記憶部に記憶されている入力情報を参照し、
前記障害物検出手段により検出された障害物情報を用い
て周囲の障害物に衝突しないようにロボットを移動さ
せ、前記人物検出手段により人物が検出された場合なら
びに前記音源方向検出手段により音源方向が検出された
場合ならびに前記接触検出手段により接触が検出された
場合に終了する移動制御処理部と、前記入力情報記憶部
に記憶されている入力情報を参照し、その場でロボット
を停止させ、前記音源方向検出手段により音源方向が検
出されたらロボットを該方向に向け、前記人物検出手段
により人物が検出された場合とあらかじめ決められた時
間人物が検出されない場合に終了する人物探索処理部
と、前記入力情報記憶部に記憶されている入力情報を参
照し、ロボットに前記人物検出手段により検出している
人物の方向を向かせ、前記距離算出手段により算出され
た人物までの距離があらかじめ決められた値よりも大き
くかつ前記障害物検出手段により人物までの間に障害物
が検出されないときに人物へ接近し、前記距離があらか
じめ決められた値よりも小さいときに接近を止め、前記
音声認識手段により音声を認識した場合に認識した音声
に応じた反応を前記応答出力手段により出力し、前記接
触検出手段により接触が検出されたときに撫でられたか
叩かれたかによって異なる応答を前記応答出力手段によ
り出力し、前記人物識別手段により検出している人物を
識別した場合に前記人物情報記憶手段に記憶されている
前記人物の情報を参照して該人物に応じた応答をし、前
記人物を見失った場合ならびにあらかじめ決められた音
声を認識した場合に終了することを特徴とする対話処理
部と、ロボットが起動されたときに前記移動制御処理部
を起動し、該移動制御処理部が前記人物検出手段により
人物が検出されたために終了した場合に前記対話処理部
を起動し、前記移動制御処理部が前記音源方向検出手段
により終了した場合と前記接触検出手段により終了した
場合に人物探索処理部を起動し、該人物探索処理部が前
記人物検出手段により人物が検出されたために終了した
場合に対話処理部を起動し、前記人物探索処理部があら
かじめ決められた時間人物が検出されないために終了し
た場合に移動制御処理部を起動し、前記対話処理部が人
物を見失ったために終了した場合に人物探索処理部を起
動し、前記対話処理部があらかじめ決められた音声を認
識したために終了した場合に移動制御手段を起動する、
ことを特徴とする制御切替部とからなることを特徴とす
る自律行動ロボットを提供する。According to a first aspect of the present invention, there is provided an image input apparatus, a person detecting means for detecting a person from an image input by the image input apparatus, and a person detecting means for detecting a person. Distance calculation means for calculating a distance to a person, person identification means for identifying a person detected by the person detection means, person information storage means for storing information on the person, a voice input device, and the voice input device Sound source direction detecting means for detecting the direction of the voice input by, voice recognition means for recognizing the voice input by the voice input device, obstacle detection means for detecting an obstacle around the ultrasonic sensor, Contact detection means for detecting whether the object has been stroked or hit, person detection information detected by the person detection means, person identification information identified by the person identification means, and the sound source direction The robot behavior using the sound source direction detected by the output unit, the voice information recognized by the voice recognition unit, the obstacle information detected by the obstacle detection unit, and the contact information detected by the contact detection unit. An autonomous behavior robot comprising: a behavior control means for controlling the behavior control; a leg and a head movable under the control of the behavior control means; and a response output means for outputting a response under the control of the behavior control means. However, an input information storage unit that sequentially stores the outputs of the person detection unit, the person identification unit, the sound source direction detection unit, the voice recognition unit, the obstacle detection unit, and the contact detection unit,
With reference to the input information stored in the input information storage unit,
Using the obstacle information detected by the obstacle detection means, move the robot so as not to collide with surrounding obstacles, and when a person is detected by the person detection means, and when the sound source direction is detected by the sound source direction detection means, A movement control processing unit that ends when a contact is detected and when a contact is detected by the contact detection unit, and refers to input information stored in the input information storage unit, stops the robot on the spot, When the sound source direction is detected by the sound source direction detection means, the robot is turned in the direction, and a person search processing unit which ends when a person is detected by the person detection means and when no person is detected for a predetermined time, With reference to the input information stored in the input information storage unit, direct the robot to the direction of the person detected by the person detection means, When the distance to the person calculated by the distance calculating means is larger than a predetermined value and the obstacle detecting means does not detect an obstacle between the person and the person approaches the person, the distance is predetermined. When approaching is stopped when the value is smaller than the given value, a response corresponding to the recognized voice is output by the response output unit when the voice is recognized by the voice recognition unit, and when a contact is detected by the contact detection unit. A different response is output by the response output means depending on whether it has been stroked or struck, and when the person detected by the person identification means is identified, the information of the person stored in the person information storage means is referred to. And responds according to the person, and ends when the person is lost or when a predetermined voice is recognized. A dialogue processing unit that activates the movement control processing unit when the robot is activated, and activates the dialogue processing unit when the movement control processing unit ends because a person is detected by the person detection unit. When the movement control processing unit is terminated by the sound source direction detection unit and when the movement control processing unit is terminated by the contact detection unit, a person search processing unit is started, and the person search processing unit detects a person by the person detection unit. When the dialogue processing unit is started, the person search processing unit starts the movement control processing unit when it ends because a person is not detected for a predetermined time, and the dialogue processing unit loses a person. Activate the person search processing unit when it ends, activate the movement control means when it ends because the dialogue processing unit has recognized a predetermined voice,
An autonomous behavior robot characterized by comprising a control switching unit characterized in that:
【0006】請求項2に記載の発明は、前記人物情報記
憶手段が、前記構成に加えて人物に対する好感度を記憶
することを特徴とし、前記行動制御手段における対話処
理部が、前記構成に加えて好感度と距離の対応表を持
ち、前記人物識別手段によって人物を識別したときに前
記人物情報記憶手段を参照して記憶されている該人物の
好感度を得、前記対応表から該好感度に対応する距離値
L1を得、前記距離算出手段により算出される該人物ま
での距離値L2を得、L1>L2であるときにロボット
を人物から遠ざけ、L1<L2であるときにロボットを
人物に近づけ、前記音声認識手段により単語を認識した
ときに認識した単語と人物に対する好感度を参照して応
答することを特徴とする、請求項1記載の自律行動ロボ
ットを提供する。The invention according to claim 2 is characterized in that the personal information storage means stores a favorable impression of a person in addition to the configuration, and the interaction processing unit in the action control means includes A correspondence table between the positivity and the distance, and when the person is identified by the person identification unit, the positivity of the person stored with reference to the person information storage unit is obtained. Is obtained, a distance value L2 to the person calculated by the distance calculating means is obtained, and the robot is moved away from the person when L1> L2, and the robot is moved when L1 <L2. 2. The autonomous behavior robot according to claim 1, wherein when the word is recognized by the voice recognition unit, a response is made by referring to the recognized word and a favorable impression of a person.
【0007】また、請求項3に記載の発明は、前記行動
制御手段が、前記構成に加えて入力情報解析処理部を有
し、前記入力情報解析処理部が、前記入力情報記憶部に
記憶されている入力情報を参照して、前記音源方向検出
手段による出力が複数存在するときに最も新しいものだ
けを残して他の前記音源方向検出手段による出力を前記
入力情報記憶部から削除し、前記障害物検出手段による
出力が複数存在するときに最も新しい出力だけを残して
他の前記障害物検出手段による出力を前記入力情報記憶
部から削除し、前記接触検出手段による出力が複数存在
するときに最も新しい出力だけを残して他の前記接触検
出手段による出力を前記入力情報記憶部から削除するこ
とを特徴とする、請求項1または2記載の自律行動ロボ
ットを提供する。According to a third aspect of the present invention, in addition to the above configuration, the behavior control means has an input information analysis processing section, and the input information analysis processing section is stored in the input information storage section. When there are a plurality of outputs from the sound source direction detecting means, the output from the other sound source direction detecting means is deleted from the input information storage unit except for the newest one when there are a plurality of outputs from the sound source direction detecting means. When there are a plurality of outputs from the object detecting means, the output from the other obstacle detecting means is deleted from the input information storage unit while leaving only the newest output. 3. The autonomous behavior robot according to claim 1, wherein an output of the other contact detection unit is deleted from the input information storage unit while leaving only a new output.
【0008】本発明に係る自律行動ロボットの行動制御
装置は、移動制御処理、人物探索処理、対話処理とこれ
らを切り替える切替処理とから構成され、人物の検出・
識別、音源方向検出、音声認識、タッチセンサ、超音波
センサによる障害物検出、などの様々な入力を適切に処
理して、ペットらしく自然に応答することを特徴とす
る。[0008] The action control device for an autonomous action robot according to the present invention comprises a movement control process, a person search process, an interactive process, and a switching process for switching these processes.
It is characterized by appropriately processing various inputs such as identification, sound source direction detection, voice recognition, touch sensor, and obstacle detection by an ultrasonic sensor, and responding naturally like a pet.
【0009】[0009]
【発明の実施の形態】以下、本発明の実施形態を図面に
より詳細に説明する。図1に本発明に従う自律行動ロボ
ットの第一の実施形態の概略構成を示す。図1を参照し
て、本装置の構成及び動作の概要を説明する。また、図
5に本発明の実施形態において想定するロボットの外観
を示す。本装置は、画像入力装置1、人物検出装置2、
距離算出装置3、人物識別装置4、人物情報記憶部5、
音声入力装置6、音源方向検出装置7、音声認識装置
8、超音波センサ9、障害物検出装置10、タッチセン
サ11、行動制御装置12、脚部モータ13、頭部モー
タ14、音声出力装置15を有する。Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 shows a schematic configuration of a first embodiment of an autonomous behavior robot according to the present invention. An outline of the configuration and operation of the present apparatus will be described with reference to FIG. FIG. 5 shows an appearance of a robot assumed in the embodiment of the present invention. This device includes an image input device 1, a person detection device 2,
Distance calculation device 3, person identification device 4, person information storage unit 5,
Voice input device 6, sound source direction detection device 7, voice recognition device 8, ultrasonic sensor 9, obstacle detection device 10, touch sensor 11, action control device 12, leg motor 13, head motor 14, voice output device 15. Having.
【0010】画像入力装置1はステレオカメラとなって
いて、片方のカメラの画像が人物検出装置2へ入力さ
れ、両方のカメラの画像が距離算出装置3へ入力され
る。人物検出装置2では、画像処理によって人物が検出
され、人物の顔領域が抽出され、以後顔領域を追跡す
る。人物を検出したときには検出を示す信号を行動制御
装置12へ出力し、人物を見失ったときには見失ったこ
とを示す信号を行動制御装置12へ出力する。また、人
物検出装置2が保持する人物の顔の画像上の位置情報は
行動制御装置12から参照することが可能となってい
る。人物検出装置2で抽出された顔領域は距離算出装置
3と人物識別装置4へ供給される。The image input device 1 is a stereo camera. The image of one camera is input to the person detecting device 2 and the image of both cameras is input to the distance calculating device 3. The person detection device 2 detects a person by image processing, extracts a face area of the person, and thereafter tracks the face area. When a person is detected, a signal indicating detection is output to the behavior control device 12, and when a person is lost, a signal indicating that the person is lost is output to the behavior control device 12. The position information on the image of the face of the person held by the person detection device 2 can be referred to from the behavior control device 12. The face area extracted by the person detecting device 2 is supplied to the distance calculating device 3 and the person identifying device 4.
【0011】距離算出装置3では、ステレオマッチング
によって人物までの距離が算出される。この距離値は距
離算出装置3に保持され、行動制御装置12から参照す
ることが可能となっている。人物識別装置4では、人物
情報記憶部5に記憶されている人物の顔画像の情報を参
照して、検出された人物が登録された人物のうちの誰で
あるか、または登録されていない人物であるかが識別さ
れ、結果が出たときに行動制御装置12へその結果が供
給される。The distance calculation device 3 calculates a distance to a person by stereo matching. This distance value is stored in the distance calculation device 3 and can be referred to from the behavior control device 12. The person identification device 4 refers to the information of the face image of the person stored in the person information storage unit 5 to determine whether the detected person is a registered person or an unregistered person. Is determined, and the result is supplied to the behavior control device 12 when the result is obtained.
【0012】音声入力装置6はボディに付けられた三つ
のマイクから構成され、ボディ正面のマイクの入力が音
声認識装置8へ供給される。音声認識装置8では、入力
された音声が、あらかじめ登録された単語のどれかと一
致するときにその単語が行動制御装置12へ供給され
る。また、音声入力装置6の三つのマイクの入力が音源
方向検出装置7へ出力される。音源方向検出装置7で
は、複数のマイクによる音声信号を解析して、その音が
発生した方向を検出し、ロボットに固定された座標系に
おける方向ベクトルを算出して音がしたという情報とと
もに行動制御装置12へ出力する。The voice input device 6 comprises three microphones attached to the body, and inputs from the microphones on the front of the body are supplied to the voice recognition device 8. In the voice recognition device 8, when the input voice matches any of the words registered in advance, the word is supplied to the behavior control device 12. Inputs from three microphones of the voice input device 6 are output to the sound source direction detection device 7. The sound source direction detection device 7 analyzes voice signals from a plurality of microphones, detects a direction in which the sound is generated, calculates a direction vector in a coordinate system fixed to the robot, and performs action control together with information that the sound is generated. Output to the device 12.
【0013】超音波センサ9はロボットの前後左右に設
置され、その出力は障害物検出装置10へ供給される、
障害物検出装置10では、各超音波センサ毎の障害物ま
での距離値を算出して保持し、これらの距離値のうちの
どれか又は複数が、あらかじめ決められた距離以下であ
るとき、障害物が存在すると判断して、障害物が存在す
るという信号とその方向を行動制御装置12へ供給す
る。障害物検出装置10が保持する距離情報は行動制御
装置12から参照することが可能である。タッチセンサ
11は、ロボットの頭部に設置され、このタッチセンサ
が撫でられた場合と叩かれた場合に、それぞれを識別で
きる信号を行動制御装置12へ供給する。The ultrasonic sensors 9 are installed at the front, rear, left and right of the robot, and the output is supplied to an obstacle detecting device 10.
The obstacle detection device 10 calculates and holds a distance value to an obstacle for each ultrasonic sensor, and when one or more of these distance values is equal to or less than a predetermined distance, an obstacle is detected. It is determined that an object is present, and a signal indicating that an obstacle is present and its direction are supplied to the behavior control device 12. The distance information held by the obstacle detection device 10 can be referred to from the behavior control device 12. The touch sensor 11 is installed on the head of the robot, and supplies a signal that can identify the touch sensor to the action control device 12 when the touch sensor is stroked and when the touch sensor is hit.
【0014】脚部モータ13は、図5にあるようにロボ
ットの下部の左右にある二つの車輪をそれぞれ独立に回
転させることができる。また、頭部モータ14はロボッ
トの頭部を上下左右に回転させることができる。音声出
力装置15は、ロボットの口に付けられたスピーカであ
る。行動制御装置12は、移動制御処理部21、人物探
索処理部22、対話処理部23、制御切替部24、入力
情報記憶部25とからなる。入力情報記憶部25には、
人物検出装置2、人物識別装置4、音源方向検出装置
7、音声認識装置8、障害物検出装置10、タッチセン
サ11から行動制御装置12へ出力される情報が順次記
憶される。As shown in FIG. 5, the leg motor 13 can independently rotate two wheels on the left and right of the lower part of the robot. The head motor 14 can rotate the head of the robot up, down, left, and right. The audio output device 15 is a speaker attached to the mouth of the robot. The behavior control device 12 includes a movement control processing unit 21, a person search processing unit 22, a dialog processing unit 23, a control switching unit 24, and an input information storage unit 25. In the input information storage unit 25,
Information output from the person detection device 2, the person identification device 4, the sound source direction detection device 7, the voice recognition device 8, the obstacle detection device 10, and the touch sensor 11 to the action control device 12 is sequentially stored.
【0015】移動制御処理部21、人物探索処理部2
2、対話処理部23は、ループ処理を終了するまで繰り
返し、そのループ処理の中で、記憶部25を参照してそ
こに何らかの出力情報があれば、それに対応した命令を
脚部モータ13、頭部モータ14、音声出力装置15へ
送り、脚部を稼働してロボットを移動させたり、頭部を
稼働したり、音声を出力したりする。この記憶部25に
記憶されている情報を行動制御装置側からは入力情報と
呼ぶことにする。The movement control processing unit 21, the person search processing unit 2
2. The dialogue processing unit 23 repeats until the loop processing is completed, and in the loop processing, refers to the storage unit 25 and, if there is any output information there, sends a corresponding instruction to the leg motor 13 and the head. The motor is sent to the motor 14 and the audio output device 15 to operate the legs to move the robot, operate the head, and output sounds. The information stored in the storage unit 25 will be referred to as input information from the behavior control device side.
【0016】次に、本実施形態の行動制御装置12の動
作について詳細に説明する。図3に行動制御装置12の
概略図を示す。まずはじめに、移動制御処理部21につ
いて図2を参照して説明する。移動制御処理部21は、
図2に示すようにループ(繰り返し)処理を行う。ルー
プ処理の中には、入力情報参照部211と制御処理部2
12とがあり、入力情報参照部211では入力情報記憶
部25に記憶されている入力情報のうちのもっとも古い
情報を取り出してこれを制御処理部212へ渡す。制御
処理部212では、渡された入力情報に応じた命令を脚
部モータ13および頭部モータ14へ送り、次に、入力
された情報に応じて、ループ処理を抜けるかループ処理
を続けるかの判断を行う。ループ処理を抜けた場合、移
動制御処理部21は終了する。Next, the operation of the behavior control device 12 of the present embodiment will be described in detail. FIG. 3 shows a schematic diagram of the behavior control device 12. First, the movement control processing unit 21 will be described with reference to FIG. The movement control processing unit 21
A loop (repetition) process is performed as shown in FIG. In the loop processing, the input information reference unit 211 and the control processing unit 2
The input information reference unit 211 extracts the oldest information from the input information stored in the input information storage unit 25 and passes it to the control processing unit 212. The control processing unit 212 sends a command corresponding to the passed input information to the leg motor 13 and the head motor 14, and then determines whether to exit the loop processing or continue the loop processing according to the input information. Make a decision. When the processing exits from the loop processing, the movement control processing unit 21 ends.
【0017】以下に制御処理部212の動作を具体的に
説明する。入力情報が障害物検出装置10の出力である
場合、脚部モータ13に停止命令を送る。次に、障害物
の存在する方向と逆の方向を向くように脚部モータ13
に命令を送る。このときにはループ処理を続ける。入力
情報が人物検出装置2の出力であり、その内容が人物検
出であるときには、ループを抜ける。入力情報が音源方
向検出装置7の出力であるときには、脚部モータ13に
命令を送り、音のした方向にロボットを向け、ループ処
理を抜ける。入力情報がタッチセンサ11の出力である
ときには、撫でられたか叩かれたかに関わらず、ループ
処理を抜ける。入力情報が上記以外の場合(入力情報が
空の場合も含む)には脚部モータ13に命令を送りロボ
ットを前進させ、ループ処理を続ける。The operation of the control processing section 212 will be specifically described below. When the input information is the output of the obstacle detection device 10, a stop command is sent to the leg motor 13. Next, the leg motor 13 is turned in a direction opposite to the direction in which the obstacle exists.
Send an order to At this time, the loop processing is continued. When the input information is the output of the person detection device 2 and the content is the person detection, the process exits the loop. When the input information is the output of the sound source direction detection device 7, a command is sent to the leg motor 13 to direct the robot in the direction in which the sound was made, and the processing exits the loop processing. When the input information is the output of the touch sensor 11, the process exits the loop processing regardless of whether the input device is stroked or hit. If the input information is other than the above (including the case where the input information is empty), a command is sent to the leg motor 13 to advance the robot, and the loop processing is continued.
【0018】次に、人物探索処理部22の動作について
説明する。人物探索処理部22は移動制御処理部21と
同様に、ループ処理からなる。ループ処理の中には、入
力情報参照部211と制御処理部212とがあり、入力
情報参照部211では入力情報記憶部25に記憶されて
いる入力情報のうちのもっとも古い情報を取り出してこ
れを制御処理部212へ渡す。制御処理部212では、
渡された入力情報に応じた命令を脚部モータ13および
頭部モータ14へ送り、入力された情報に応じて、ルー
プ処理を抜けるかループ処理を続けるかの判断を行う。
ループ処理を抜けた場合、人物探索処理部22は終了す
る。Next, the operation of the person search processing section 22 will be described. Like the movement control processing unit 21, the person search processing unit 22 includes a loop process. The loop processing includes an input information reference unit 211 and a control processing unit 212. The input information reference unit 211 extracts the oldest information from the input information stored in the input information storage unit 25 and It is passed to the control processing unit 212. In the control processing unit 212,
A command corresponding to the input information is sent to the leg motor 13 and the head motor 14, and it is determined whether to exit the loop processing or continue the loop processing according to the input information.
If the processing exits from the loop processing, the person search processing unit 22 ends.
【0019】以下に制御処理部212の動作を具体的に
説明する。入力情報が人物検出装置2の出力であり、そ
の内容が人物検出である場合、ループを抜ける。入力情
報が音源方向検出装置7の出力であるときには、脚部モ
ータ13に命令を送り、音のした方向にロボットを向け
る。このときにはループ処理を抜けない。入力情報が上
記以外の場合(入力情報が空の場合も含む)、人物探索
処理部22が起動されてからの時間をチェックし、この
時間があらかじめ決められた時間よりも長いときにルー
プ処理を抜ける。The operation of the control processing section 212 will be specifically described below. If the input information is the output of the person detection device 2 and the content is the person detection, the process exits the loop. When the input information is the output of the sound source direction detection device 7, a command is sent to the leg motor 13 to direct the robot in the direction of the sound. At this time, the process does not exit the loop process. If the input information is other than the above (including the case where the input information is empty), the time since the person search processing unit 22 was started is checked, and when this time is longer than a predetermined time, the loop processing is performed. Exit.
【0020】次に、対話処理部23の動作について説明
する。対話処理部23は移動制御処理部21と同様に、
入力情報参照部211と制御処理部212とから構成さ
れるループ処理になっている。入力情報参照部211で
は入力情報記憶部25に記憶されている入力情報のうち
のもっとも古い情報を取り出してこれを制御処理部21
2へ渡す。制御処理部212では、渡された入力情報に
応じた命令を脚部モータ13および頭部モータ14およ
び音声出力装置15へ送り、入力された情報に応じて、
ループ処理を抜けるかループ処理を続けるかの判断を行
う。ループ処理を抜けた場合、対話処理部23は終了す
る。Next, the operation of the dialog processing section 23 will be described. The interaction processing unit 23, like the movement control processing unit 21,
This is a loop process including an input information reference unit 211 and a control processing unit 212. The input information reference unit 211 extracts the oldest information from the input information stored in the input information storage unit 25, and extracts it from the control processing unit 21.
Hand over to 2. The control processing unit 212 sends a command corresponding to the passed input information to the leg motor 13, the head motor 14, and the audio output device 15, and according to the input information,
It is determined whether to exit the loop processing or continue the loop processing. If the processing exits from the loop processing, the interaction processing unit 23 ends.
【0021】以下に制御処理部212の動作を具体的に
説明する。入力情報が人物検出装置2の出力であり、そ
の内容が「人物を見失った」である場合にはループを抜
ける。入力情報が音声認識装置8の出力であるとき、認
識した単語に応じた音声を音声出力装置15から出力す
る。このとき人物識別結果がすでに得られている場合に
は、識別した人物の好感度を参照して、好感度に応じた
応答をする。例えば、好感度が一定値よりも小さいとき
には何も応答しない、であるとか、頭部モータに命令を
送って横を向く、などが考えられる(この場合には人物
を見失うので対話処理部23は終了することになる)。
このときループは抜けない。また、認識した単語があら
かじめ決められた特定の単語であるときには、ループを
抜ける。これは例えば、人間が「さようなら」と言った
ときに対話を終了するということである。Hereinafter, the operation of the control processing unit 212 will be specifically described. If the input information is the output of the person detection device 2 and the content is "I lost a person", the process exits the loop. When the input information is the output of the speech recognition device 8, the speech output device 15 outputs a speech corresponding to the recognized word. At this time, if the person identification result has already been obtained, a response according to the liking is made with reference to the liking of the identified person. For example, there is no response when the favorable impression is smaller than a certain value, or a command is sent to the head motor to turn sideways. Will end).
At this time, the loop does not exit. When the recognized word is a predetermined specific word, the process exits the loop. This means, for example, that the conversation ends when a human says “goodbye”.
【0022】入力情報が人物識別装置4の出力であると
きには識別結果を保持してループ処理を抜けない。入力
情報が障害物検出装置10の出力であるときにはロボッ
トを停止させるが、ループ処理は抜けない。入力情報が
タッチセンサ11の出力であるとき、撫でられた場合に
は、喜びを表現する音声を音声出力装置15から出力
し、人物が識別できているときにはその人物の好感度を
増やす。叩かれた場合には、怒りを表現する音声を音声
出力装置15から出力し、人物が識別できているときに
はその人物の好感度を減少させる。入力情報が上記以外
の場合(入力情報が空の場合も含む)には、人物検出装
置2に保持されている人物の顔の中心の画像上の位置座
標を参照し、この位置が画像の中心から一定値以上離れ
ている場合には、顔の中心位置が画像上の中心に来るよ
うにロボットを動かす。When the input information is the output of the person identification device 4, the identification result is retained and the loop processing is not exited. When the input information is the output of the obstacle detection device 10, the robot is stopped, but the loop processing is not exited. When the input information is the output of the touch sensor 11, when the user is stroked, a sound expressing joy is output from the sound output device 15, and when the person can be identified, the liking of the person is increased. When the user is hit, a voice expressing anger is output from the voice output device 15, and when the person can be identified, the favorable impression of the person is reduced. If the input information is other than the above (including the case where the input information is empty), the position coordinates on the image of the center of the face of the person held in the person detection device 2 are referred to, and the position is determined as the center of the image. If it is more than a certain value away from the robot, the robot is moved so that the center position of the face is at the center on the image.
【0023】また、顔の中心位置が画像の中心から一定
値以内にあり、かつ、人物がすでに識別されている場合
には、その人物の好感度を人物情報記憶部5から取得
し、好感度毎に設定されている距離値L1を取得する。
この距離値L1は、例えば、好感度が0から1まで変化
するときに、好感度が0.3未満であればLa、0.3
以上0.7未満であればLb、0.7以上であればLc
(La>Lb>Lc)のようにあらかじめ設定されてい
る。次に距離算出装置3に保持されている人物までの距
離値L2を取得し、L2>L1であればロボットを距離
Ltだけ人物に接近させ、逆に、L2<L1であればロ
ボットを距離Ltだけ人物から遠ざける。If the center position of the face is within a certain value from the center of the image and a person has already been identified, the positivity of the person is obtained from the person information storage unit 5 and the positivity is obtained. The distance value L1 set for each is acquired.
For example, when the positivity changes from 0 to 1, when the positivity is less than 0.3, the distance value L1 is La, 0.3.
Lb if less than 0.7 and Lc if more than 0.7
(La>Lb> Lc) is set in advance. Next, the distance value L2 to the person held in the distance calculation device 3 is acquired, and if L2> L1, the robot approaches the person by the distance Lt. Conversely, if L2 <L1, the robot is moved to the distance Lt. Only keep away from people.
【0024】次に制御切替部24の動作について説明す
る。制御切替部24は、自律行動ロボットが起動された
ときに、移動制御処理部21を起動する。移動制御処理
部21が、人物を検出して終了した場合には対話処理部
23を起動し、音源方向検出及びタッチセンサによって
終了した場合、人物探索処理部22を起動する。人物探
索処理部22が、人物を検出して終了した場合には対話
処理部23を起動し、あらかじめ決められた時間よりも
長いという条件で終了した場合には移動制御処理部21
を起動する。対話処理部23が、人物を見失って終了し
た場合には人物探索処理部22を起動し、特定の単語を
認識して終了した場合には移動制御処理部21を起動す
る。Next, the operation of the control switching unit 24 will be described. The control switching unit 24 activates the movement control processing unit 21 when the autonomous behavior robot is activated. When the movement control processing unit 21 detects a person and terminates, the dialog processing unit 23 is activated. When the movement control processing unit 21 terminates by sound source direction detection and the touch sensor, the person search processing unit 22 is activated. When the person search processing unit 22 detects a person and ends the processing, the person search processing unit 22 starts the dialog processing unit 23. When the person search processing unit 22 ends the processing for a time longer than a predetermined time, the movement control processing unit 21
Start If the dialogue processing unit 23 ends after losing a person, it starts the person search processing unit 22, and if it ends after recognizing a specific word, it starts up the movement control processing unit 21.
【0025】次に、本発明の第二の実施形態について説
明する。本発明の第二の実施形態は、画像入力装置1、
人物検出装置2、距離算出装置3、人物識別装置4、人
物情報記憶部5、音声入力装置6、音源方向検出装置
7、音声認識装置8、超音波センサ9、障害物検出装置
10、タッチセンサ11、行動制御装置12、脚部モー
タ13、頭部モータ14、および音声出力装置15を有
する。本発明の第二の実施形態は、上で述べた第一の実
施形態の構成と比較し、図4にあるように、行動制御装
置12が、人物情報解析処理部26を有する点で、第一
の実施形態における行動制御装置12と異なる。したが
って、第二の実施形態の説明では、人物情報解析処理部
26の説明を以下に行う。Next, a second embodiment of the present invention will be described. In a second embodiment of the present invention, the image input device 1,
Person detection device 2, distance calculation device 3, person identification device 4, person information storage unit 5, voice input device 6, sound source direction detection device 7, voice recognition device 8, ultrasonic sensor 9, obstacle detection device 10, touch sensor 11, an action control device 12, a leg motor 13, a head motor 14, and a voice output device 15. The second embodiment of the present invention is different from the configuration of the first embodiment described above in that the action control device 12 has a person information analysis processing unit 26 as shown in FIG. It is different from the behavior control device 12 in one embodiment. Therefore, in the description of the second embodiment, the person information analysis processing unit 26 will be described below.
【0026】人物情報解析処理部26は、人物情報記憶
部25に記憶されているすべての人物情報を取り出し、
音源方向検出装置7による出力が複数存在するときに最
も新しいものだけを残して他の音源方向検出装置7によ
る出力を人物情報記憶部から削除し、障害物検出装置1
0による出力が複数存在するときに最も新しい出力だけ
を残して他の障害物検出装置10による出力を人物情報
記憶部から削除し、タッチセンサ11による出力が複数
存在するときに最も新しい出力だけを残して他のタッチ
センサ11による出力を人物情報記憶部から削除する。The personal information analysis processing unit 26 extracts all personal information stored in the personal information storage unit 25,
When there are a plurality of outputs from the sound source direction detecting device 7, the output from the other sound source direction detecting devices 7 is deleted from the person information storage unit except for the newest one, and the obstacle detecting device 1
When there are a plurality of outputs from 0, the output from the other obstacle detection device 10 is deleted from the person information storage unit, leaving only the newest output, and when there are a plurality of outputs from the touch sensor 11, only the newest output is output. The output from the other touch sensors 11 is deleted from the person information storage unit.
【0027】以上、本発明の好適な実施形態を説明した
が、本発明の要旨を逸脱しない範囲で、他の種々の態様
で実施した場合も本発明に含まれる。The preferred embodiment of the present invention has been described above, but the present invention includes embodiments embodied in various other forms without departing from the gist of the present invention.
【0028】[0028]
【発明の効果】以上説明したように、本発明によれば、
人物の検出・識別、音源方向検出、音声認識、タッチセ
ンサ、超音波センサによる障害物検出、などの様々な入
力を適切に処理して、ペットらしく自然に応答すること
ができるので、人間にとって親しみやすいペットのよう
な自律行動ロボットを提供することができるという効果
が得られる。As described above, according to the present invention,
Appropriate processing of various inputs, such as detection and identification of people, sound source direction detection, voice recognition, obstacle detection by touch sensors and ultrasonic sensors, etc. An effect is obtained that an autonomous behavior robot such as an easy pet can be provided.
【図1】 本発明の第一の実施形態の全体の構成を示す
ブロック図。FIG. 1 is a block diagram showing the overall configuration of a first embodiment of the present invention.
【図2】 本発明の第一の実施形態における移動制御処
理部の処理の流れをを示す図。FIG. 2 is a diagram showing a processing flow of a movement control processing unit according to the first embodiment of the present invention.
【図3】 本発明の第一の実施形態における行動制御装
置を示すブロック図。FIG. 3 is a block diagram showing a behavior control device according to the first embodiment of the present invention.
【図4】 本発明の第二の実施形態における行動制御装
置を示すブロック図。FIG. 4 is a block diagram showing a behavior control device according to a second embodiment of the present invention.
【図5】 本発明の実施形態における自律行動ロボット
の外観の概略を示す図。FIG. 5 is a diagram schematically illustrating an appearance of the autonomous behavior robot according to the embodiment of the present invention.
1…画像入力装置 2…人物検出装置 3…距離算出装置 4…人物識別装置 5…人物情報記憶部 6…音声入力装置 7…音源方向検出装置 8…音声認識装置 9…超音波センサ 10…障害物検出装置 11…タッチセンサ 12…行動制御装置 13…脚部モータ 14…頭部モータ 15…音声出力装置 21…移動制御処理部 22…人物探索処理部 23…対話処理部 24…制御切替部 25…人物情報記憶部 26…人物情報解析処理部 211…人物情報参照部 212…制御処理部 REFERENCE SIGNS LIST 1 image input device 2 person detection device 3 distance calculation device 4 person identification device 5 person information storage unit 6 voice input device 7 sound source direction detection device 8 voice recognition device 9 ultrasonic sensor 10 obstacle Object detection device 11 Touch sensor 12 Behavior control device 13 Leg motor 14 Head motor 15 Voice output device 21 Movement control processing unit 22 Person search processing unit 23 Dialogue processing unit 24 Control switching unit 25 ... person information storage unit 26 ... person information analysis processing unit 211 ... person information reference unit 212 ... control processing unit
フロントページの続き Fターム(参考) 2C150 BA06 CA01 CA02 DA02 DA24 DA26 DA27 DA28 DF02 DF04 DF06 DF08 DF31 EB01 ED08 ED21 ED37 ED39 ED52 EE02 EF02 EF07 EF13 EF16 EF23 EF29 EF33 3F059 AA00 BB06 CA05 DA05 DB00 DB03 DC01 DD18 FB11 FC08 5H301 AA02 AA10 BB15 CC06 CC08 DD06 DD18 GG01 GG06 GG10 GG24 LL01 LL08 LL11 LL17 MM03 MM09 Continued on the front page F-term (reference) 2C150 BA06 CA01 CA02 DA02 DA24 DA26 DA27 DA28 DF02 DF04 DF06 DF08 DF31 EB01 ED08 ED21 ED37 ED39 ED52 EE02 EF02 EF07 EF13 EF16 EF23 EF29 EF33 3F059 AA01 DB01 FCB AA10 BB15 CC06 CC08 DD06 DD18 GG01 GG06 GG10 GG24 LL01 LL08 LL11 LL17 MM03 MM09
Claims (3)
入力された画像から人物を検出する人物検出手段と、該
人物検出手段により検出された人物までの距離を算出す
る距離算出手段と、前記人物検出手段により検出された
人物を識別する人物識別手段と、人物の情報を記憶する
人物情報記憶手段と、音声入力装置と、該音声入力装置
により入力された音声の方向を検出する音源方向検出手
段と、前記音声入力装置により入力された音声を認識す
る音声認識手段と、超音波センサにより周囲の障害物を
検出する障害物検出手段と、撫でられたか叩かれたかを
検出する接触検出手段と、前記人物検出手段により検出
された人物検出情報と前記人物識別手段により識別され
た人物識別情報と前記音源方向検出手段により検出され
た音源方向と前記音声認識手段により認識された音声情
報と前記障害物検出手段により検出された障害物情報と
前記接触検出手段により検出された接触情報とを用いて
ロボットの行動を制御する行動制御手段と、該行動制御
手段の制御により可動する脚部と頭部と、前記行動制御
手段の制御により応答を出力する応答出力手段とを備え
る自律行動ロボットにおいて、 前記行動制御手段が、 前記人物検出手段及び前記人物識別手段及び前記音源方
向検出手段及び前記音声認識手段及び前記障害物検出手
段及び前記接触検出手段の出力を順々に記憶する入力情
報記憶部と、 該入力情報記憶部に記憶されている入力情報を参照し、
前記障害物検出手段により検出された障害物情報を用い
て周囲の障害物に衝突しないようにロボットを移動さ
せ、前記人物検出手段により人物が検出された場合なら
びに前記音源方向検出手段により音源方向が検出された
場合ならびに前記接触検出手段により接触が検出された
場合に終了する移動制御処理部と、 前記入力情報記憶部に記憶されている入力情報を参照
し、その場でロボットを停止させ、前記音源方向検出手
段により音源方向が検出されたらロボットを該方向に向
け、前記人物検出手段により人物が検出された場合とあ
らかじめ決められた時間人物が検出されない場合に終了
する人物探索処理部と、 前記入力情報記憶部に記憶されている入力情報を参照
し、ロボットに前記人物検出手段により検出している人
物の方向を向かせ、前記距離算出手段により算出された
人物までの距離があらかじめ決められた値よりも大きく
かつ前記障害物検出手段により人物までの間に障害物が
検出されないときに人物へ接近し、前記距離があらかじ
め決められた値よりも小さいときに接近を止め、前記音
声認識手段により音声を認識した場合に認識した音声に
応じた反応を前記応答出力手段により出力し、前記接触
検出手段により接触が検出されたときに撫でられたか叩
かれたかによって異なる応答を前記応答出力手段により
出力し、前記人物識別手段により検出している人物を識
別した場合に前記人物情報記憶手段に記憶されている前
記人物の情報を参照して該人物に応じた応答をし、前記
人物を見失った場合ならびにあらかじめ決められた音声
を認識した場合に終了することを特徴とする対話処理部
と、 ロボットが起動されたときに前記移動制御処理部を起動
し、該移動制御処理部が前記人物検出手段により人物が
検出されたために終了した場合に前記対話処理部を起動
し、前記移動制御処理部が前記音源方向検出手段により
終了した場合と前記接触検出手段により終了した場合に
人物探索処理部を起動し、該人物探索処理部が前記人物
検出手段により人物が検出されたために終了した場合に
対話処理部を起動し、前記人物探索処理部があらかじめ
決められた時間人物が検出されないために終了した場合
に移動制御処理部を起動し、前記対話処理部が人物を見
失ったために終了した場合に人物探索処理部を起動し、
前記対話処理部があらかじめ決められた音声を認識した
ために終了した場合に移動制御手段を起動する、ことを
特徴とする制御切替部とからなることを特徴とする自律
行動ロボット。An image input device; a person detecting unit for detecting a person from an image input by the image input device; a distance calculating unit for calculating a distance to the person detected by the person detecting unit; Person identification means for identifying a person detected by the person detection means, person information storage means for storing information on the person, a voice input device, and sound source direction detection for detecting the direction of the voice input by the voice input device Means, voice recognition means for recognizing the voice input by the voice input device, obstacle detection means for detecting an obstacle around the ultrasonic sensor, and contact detection means for detecting whether stroked or hit The person detection information detected by the person detection means, the person identification information identified by the person identification means, the sound source direction detected by the sound source direction detection means, and the sound Behavior control means for controlling the behavior of the robot using the voice information recognized by the voice recognition means, the obstacle information detected by the obstacle detection means, and the contact information detected by the contact detection means; An autonomous behavior robot comprising a leg and a head movable under the control of a control means, and a response output means for outputting a response under the control of the behavior control means, wherein the behavior control means comprises: the person detection means and the person identification. Means, an input information storage unit for sequentially storing the outputs of the sound source direction detection unit, the voice recognition unit, the obstacle detection unit, and the contact detection unit, and input information stored in the input information storage unit. See,
Using the obstacle information detected by the obstacle detection means, move the robot so as not to collide with surrounding obstacles, and when a person is detected by the person detection means, and when the sound source direction is detected by the sound source direction detection means, A movement control processing unit that ends when detected and when a contact is detected by the contact detection unit, and refers to input information stored in the input information storage unit, stops the robot on the spot, When the sound source direction is detected by the sound source direction detection unit, the robot is turned in the direction, and a person search processing unit that ends when the person is detected by the person detection unit and when no person is detected for a predetermined time, The robot refers to the input information stored in the input information storage unit and directs the robot to the direction of the person detected by the person detecting means. When the distance to the person calculated by the distance calculating means is larger than a predetermined value and the obstacle detecting means does not detect an obstacle between the person and approaches the person, the distance is predetermined. When approaching is stopped when the value is smaller than the given value, a response corresponding to the recognized voice is output by the response output unit when the voice is recognized by the voice recognition unit, and when a contact is detected by the contact detection unit. A different response is output by the response output means depending on whether it has been stroked or struck, and when the person detected by the person identification means is identified, the information of the person stored in the person information storage means is referred to. And responds according to the person, and ends when the person is lost or when a predetermined voice is recognized. And a dialogue processing unit that activates the movement control processing unit when the robot is started, and starts the dialogue processing unit when the movement control processing unit ends because a person is detected by the person detection unit. Then, when the movement control processing unit is terminated by the sound source direction detection unit and when the movement control processing unit is terminated by the contact detection unit, a person search processing unit is started, and the person search processing unit detects a person by the person detection unit. Therefore, when the process ends, the dialogue processing unit is started, and when the person search processing unit ends because no person is detected for a predetermined time, the movement control processing unit is started, and the dialogue processing unit loses sight of the person. If it is terminated because of it, start the person search processing unit,
An autonomous behavior robot, comprising: a control switching unit that activates a movement control unit when the dialog processing unit ends because of recognition of a predetermined voice.
えて人物に対する好感度を記憶することを特徴とし、 前記行動制御手段における対話処理部は、前記構成に加
えて好感度と距離の対応表を持ち、前記人物識別手段に
よって人物を識別したときに前記人物情報記憶手段を参
照して記憶されている該人物の好感度を得、前記対応表
から該好感度に対応する距離値L1を得、前記距離算出
手段により算出される該人物までの距離値L2を得、L
1>L2であるときにロボットを人物から遠ざけ、L1
<L2であるときにロボットを人物に近づけ、前記音声
認識手段により単語を認識したときに認識した単語と人
物に対する好感度を参照して応答することを特徴とす
る、請求項1記載の自律行動ロボット。2. The apparatus according to claim 1, wherein the personal information storage unit stores a favorable impression of a person in addition to the configuration, and a dialogue processing unit in the behavior control unit corresponds to the correspondence of the favorable impression and the distance in addition to the configuration. When a person is identified by the person identification means, the friendship of the person stored with reference to the person information storage means is obtained, and a distance value L1 corresponding to the friendship is obtained from the correspondence table. Obtaining a distance value L2 to the person calculated by the distance calculating means;
When 1> L2, move the robot away from the person and L1
2. The autonomous action according to claim 1, wherein the robot approaches the person when <L2, and responds by referring to the word recognized when the word is recognized by the voice recognition unit and the liking of the person. robot.
入力情報解析処理部を有し、 前記入力情報解析処理部は、前記入力情報記憶部に記憶
されている入力情報を参照して、前記音源方向検出手段
による出力が複数存在するときに最も新しいものだけを
残して他の前記音源方向検出手段による出力を前記入力
情報記憶部から削除し、前記障害物検出手段による出力
が複数存在するときに最も新しい出力だけを残して他の
前記障害物検出手段による出力を前記入力情報記憶部か
ら削除し、前記接触検出手段による出力が複数存在する
ときに最も新しい出力だけを残して他の前記接触検出手
段による出力を前記入力情報記憶部から削除することを
特徴とする、請求項1または2記載の自律行動ロボッ
ト。3. The behavior control unit further includes an input information analysis processing unit in addition to the configuration, wherein the input information analysis processing unit refers to input information stored in the input information storage unit, When there are a plurality of outputs from the sound source direction detecting means, the outputs from the other sound source direction detecting means are deleted from the input information storage unit except for the newest one, and a plurality of outputs from the obstacle detecting means exist. Sometimes, leaving only the newest output and deleting the output of the other obstacle detection means from the input information storage unit, and leaving only the newest output when there are a plurality of outputs by the contact detection means, The autonomous behavior robot according to claim 1, wherein an output of the contact detection unit is deleted from the input information storage unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11144090A JP2000326274A (en) | 1999-05-24 | 1999-05-24 | Acting robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11144090A JP2000326274A (en) | 1999-05-24 | 1999-05-24 | Acting robot |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003147615A Division JP2003326479A (en) | 2003-05-26 | 2003-05-26 | Autonomous operation robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000326274A true JP2000326274A (en) | 2000-11-28 |
Family
ID=15353997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11144090A Pending JP2000326274A (en) | 1999-05-24 | 1999-05-24 | Acting robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000326274A (en) |
Cited By (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003050559A (en) * | 2001-08-07 | 2003-02-21 | Honda Motor Co Ltd | Autonomously movable robot |
JP2003062777A (en) * | 2001-08-22 | 2003-03-05 | Honda Motor Co Ltd | Autonomous acting robot |
US6583723B2 (en) | 2001-02-23 | 2003-06-24 | Fujitsu Limited | Human interface system using a plurality of sensors |
EP1375084A1 (en) * | 2001-03-09 | 2004-01-02 | Japan Science and Technology Corporation | Robot audiovisual system |
JP2004243427A (en) * | 2003-02-12 | 2004-09-02 | Yaskawa Electric Corp | Robot control device and robot control method |
US6799086B2 (en) | 2001-01-30 | 2004-09-28 | Nec Corporation | Robot, robot control system, and program for the same |
JP2004283927A (en) * | 2003-03-20 | 2004-10-14 | Sony Corp | Robot control device, and method, recording medium and program |
JP2006192562A (en) * | 2004-12-14 | 2006-07-27 | Honda Motor Co Ltd | Autonomous mobile robot |
US7248721B2 (en) | 2002-03-29 | 2007-07-24 | Nec Corporation | Identification of facial image with high accuracy |
JPWO2005076660A1 (en) * | 2004-02-10 | 2008-01-10 | 三菱電機エンジニアリング株式会社 | Super directional speaker mounted mobile body |
US7340100B2 (en) | 2002-08-09 | 2008-03-04 | Honda Giken Kogyo Kabushiki Kaisha | Posture recognition apparatus and autonomous robot |
JP2008087140A (en) * | 2006-10-05 | 2008-04-17 | Toyota Motor Corp | Speech recognition robot and control method of speech recognition robot |
US7366309B2 (en) * | 2004-03-08 | 2008-04-29 | Nec Corporation | Robot |
KR100834577B1 (en) * | 2006-12-07 | 2008-06-02 | 한국전자통신연구원 | Home intelligent service robot and method capable of searching and following moving of target using stereo vision processing |
JP2008243217A (en) * | 2001-01-30 | 2008-10-09 | Nec Corp | Robot device, verification environment determining method, and verification environment determining program |
JP2009072910A (en) * | 2008-12-22 | 2009-04-09 | Nec Corp | Robot device and its control method |
US7526361B2 (en) | 2002-03-01 | 2009-04-28 | Honda Motor Co., Ltd. | Robotics visual and auditory system |
KR100919095B1 (en) * | 2008-01-18 | 2009-09-28 | 주식회사 케이티 | Method of executing robot behavior based on user behavior and its robot |
US7684894B2 (en) | 2003-03-14 | 2010-03-23 | Panasonic Electric Works Co., Ltd. | Autonomously moving robot |
JP2011000681A (en) * | 2009-06-19 | 2011-01-06 | Advanced Telecommunication Research Institute International | Communication robot |
US8209179B2 (en) | 2003-07-03 | 2012-06-26 | Sony Corporation | Speech communication system and method, and robot apparatus |
KR101240259B1 (en) * | 2005-02-23 | 2013-03-07 | 엘지전자 주식회사 | Stop control method for mobile robot |
CN105690408A (en) * | 2016-04-27 | 2016-06-22 | 深圳前海勇艺达机器人有限公司 | Emotion recognition robot based on data dictionary |
JP2016224761A (en) * | 2015-06-01 | 2016-12-28 | 日本電信電話株式会社 | Robot, emotion expressing method, and emotion expressing program |
WO2017131582A1 (en) * | 2016-01-25 | 2017-08-03 | Mastercard Asia/Pacific Pte Ltd | A method for facilitating a transaction using a humanoid robot |
WO2017175559A1 (en) * | 2016-04-08 | 2017-10-12 | Groove X株式会社 | Autonomous robot exhibiting shyness |
JP2018086201A (en) * | 2016-11-29 | 2018-06-07 | 株式会社メニコン | Health management type pet robot |
CN108459512A (en) * | 2018-03-12 | 2018-08-28 | 京东方科技集团股份有限公司 | Intelligent terminal and the exchange method based on it, interactive system, processor |
CN108629944A (en) * | 2018-05-07 | 2018-10-09 | 温州中佣科技有限公司 | A kind of scientific and technological system of accompanying and attending to of supporting parents |
CN108665891A (en) * | 2017-03-28 | 2018-10-16 | 卡西欧计算机株式会社 | Sound detection device, sound detection method and recording medium |
CN109885104A (en) * | 2017-12-06 | 2019-06-14 | 湘潭宏远电子科技有限公司 | A kind of tracking terminal system |
WO2019142227A1 (en) * | 2018-01-16 | 2019-07-25 | 株式会社ソニー・インタラクティブエンタテインメント | Mobile body and mobile body control method |
CN110465939A (en) * | 2019-07-09 | 2019-11-19 | 南昌大学 | A kind of robot touch system based on Winform |
JP2019217122A (en) * | 2018-06-22 | 2019-12-26 | カシオ計算機株式会社 | Robot, method for controlling robot and program |
CN110815174A (en) * | 2019-10-10 | 2020-02-21 | 汕头大学 | Following robot |
CN112873201A (en) * | 2021-01-13 | 2021-06-01 | 北京方正数码有限公司 | Automatic change flow robot |
CN113176775A (en) * | 2020-01-24 | 2021-07-27 | 株式会社日立制作所 | Method for controlling a mobile robot and robot |
US11648672B2 (en) | 2018-01-16 | 2023-05-16 | Sony Interactive Entertainment Inc. | Information processing device and image generation method |
US11780084B2 (en) | 2018-01-16 | 2023-10-10 | Sony Interactive Entertainment Inc. | Robotic device, control method for robotic device, and program |
-
1999
- 1999-05-24 JP JP11144090A patent/JP2000326274A/en active Pending
Cited By (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6799086B2 (en) | 2001-01-30 | 2004-09-28 | Nec Corporation | Robot, robot control system, and program for the same |
JP2008243217A (en) * | 2001-01-30 | 2008-10-09 | Nec Corp | Robot device, verification environment determining method, and verification environment determining program |
US6583723B2 (en) | 2001-02-23 | 2003-06-24 | Fujitsu Limited | Human interface system using a plurality of sensors |
US6686844B2 (en) | 2001-02-23 | 2004-02-03 | Fujitsu Limited | Human interface system using a plurality of sensors |
EP1375084A1 (en) * | 2001-03-09 | 2004-01-02 | Japan Science and Technology Corporation | Robot audiovisual system |
EP1375084A4 (en) * | 2001-03-09 | 2009-10-21 | Japan Science & Tech Agency | Robot audiovisual system |
JP2003050559A (en) * | 2001-08-07 | 2003-02-21 | Honda Motor Co Ltd | Autonomously movable robot |
JP4642287B2 (en) * | 2001-08-07 | 2011-03-02 | 本田技研工業株式会社 | Autonomous mobile robot |
JP2003062777A (en) * | 2001-08-22 | 2003-03-05 | Honda Motor Co Ltd | Autonomous acting robot |
JP4689107B2 (en) * | 2001-08-22 | 2011-05-25 | 本田技研工業株式会社 | Autonomous robot |
US7526361B2 (en) | 2002-03-01 | 2009-04-28 | Honda Motor Co., Ltd. | Robotics visual and auditory system |
US7308120B2 (en) | 2002-03-29 | 2007-12-11 | Nec Corporation | Identification of facial image with high accuracy |
US7248721B2 (en) | 2002-03-29 | 2007-07-24 | Nec Corporation | Identification of facial image with high accuracy |
US7340100B2 (en) | 2002-08-09 | 2008-03-04 | Honda Giken Kogyo Kabushiki Kaisha | Posture recognition apparatus and autonomous robot |
JP2004243427A (en) * | 2003-02-12 | 2004-09-02 | Yaskawa Electric Corp | Robot control device and robot control method |
US7684894B2 (en) | 2003-03-14 | 2010-03-23 | Panasonic Electric Works Co., Ltd. | Autonomously moving robot |
JP2004283927A (en) * | 2003-03-20 | 2004-10-14 | Sony Corp | Robot control device, and method, recording medium and program |
US8538750B2 (en) | 2003-07-03 | 2013-09-17 | Sony Corporation | Speech communication system and method, and robot apparatus |
US8321221B2 (en) | 2003-07-03 | 2012-11-27 | Sony Corporation | Speech communication system and method, and robot apparatus |
US8209179B2 (en) | 2003-07-03 | 2012-06-26 | Sony Corporation | Speech communication system and method, and robot apparatus |
JPWO2005076660A1 (en) * | 2004-02-10 | 2008-01-10 | 三菱電機エンジニアリング株式会社 | Super directional speaker mounted mobile body |
US7366309B2 (en) * | 2004-03-08 | 2008-04-29 | Nec Corporation | Robot |
JP4564447B2 (en) * | 2004-12-14 | 2010-10-20 | 本田技研工業株式会社 | Autonomous mobile robot |
JP2006192562A (en) * | 2004-12-14 | 2006-07-27 | Honda Motor Co Ltd | Autonomous mobile robot |
US7933684B2 (en) | 2004-12-14 | 2011-04-26 | Honda Motor Co., Ltd. | Autonomous mobile robot |
KR101240259B1 (en) * | 2005-02-23 | 2013-03-07 | 엘지전자 주식회사 | Stop control method for mobile robot |
JP2008087140A (en) * | 2006-10-05 | 2008-04-17 | Toyota Motor Corp | Speech recognition robot and control method of speech recognition robot |
KR100834577B1 (en) * | 2006-12-07 | 2008-06-02 | 한국전자통신연구원 | Home intelligent service robot and method capable of searching and following moving of target using stereo vision processing |
KR100919095B1 (en) * | 2008-01-18 | 2009-09-28 | 주식회사 케이티 | Method of executing robot behavior based on user behavior and its robot |
JP2009072910A (en) * | 2008-12-22 | 2009-04-09 | Nec Corp | Robot device and its control method |
JP2011000681A (en) * | 2009-06-19 | 2011-01-06 | Advanced Telecommunication Research Institute International | Communication robot |
JP2016224761A (en) * | 2015-06-01 | 2016-12-28 | 日本電信電話株式会社 | Robot, emotion expressing method, and emotion expressing program |
JP2019510291A (en) * | 2016-01-25 | 2019-04-11 | マスターカード アジア パシフィック ピーティーイー リミテッドMastercard Asia/Pacific Pte.Ltd. | A method of supporting transactions using a humanoid robot |
WO2017131582A1 (en) * | 2016-01-25 | 2017-08-03 | Mastercard Asia/Pacific Pte Ltd | A method for facilitating a transaction using a humanoid robot |
WO2017175559A1 (en) * | 2016-04-08 | 2017-10-12 | Groove X株式会社 | Autonomous robot exhibiting shyness |
JPWO2017175559A1 (en) * | 2016-04-08 | 2018-04-12 | Groove X株式会社 | An autonomous behavioral robot |
US11192257B2 (en) | 2016-04-08 | 2021-12-07 | Groove X, Inc. | Autonomously acting robot exhibiting shyness |
GB2563786B (en) * | 2016-04-08 | 2021-08-04 | Groove X Inc | Autonomously acting robot exhibiting shyness |
GB2563786A (en) * | 2016-04-08 | 2018-12-26 | Groove X Inc | Autonomous robot exhibiting shyness |
CN105690408A (en) * | 2016-04-27 | 2016-06-22 | 深圳前海勇艺达机器人有限公司 | Emotion recognition robot based on data dictionary |
JP2018086201A (en) * | 2016-11-29 | 2018-06-07 | 株式会社メニコン | Health management type pet robot |
CN108665891A (en) * | 2017-03-28 | 2018-10-16 | 卡西欧计算机株式会社 | Sound detection device, sound detection method and recording medium |
CN109885104A (en) * | 2017-12-06 | 2019-06-14 | 湘潭宏远电子科技有限公司 | A kind of tracking terminal system |
US11780084B2 (en) | 2018-01-16 | 2023-10-10 | Sony Interactive Entertainment Inc. | Robotic device, control method for robotic device, and program |
US11733705B2 (en) | 2018-01-16 | 2023-08-22 | Sony Interactive Entertainment Inc. | Moving body and moving body control method |
US11648672B2 (en) | 2018-01-16 | 2023-05-16 | Sony Interactive Entertainment Inc. | Information processing device and image generation method |
WO2019142227A1 (en) * | 2018-01-16 | 2019-07-25 | 株式会社ソニー・インタラクティブエンタテインメント | Mobile body and mobile body control method |
CN108459512A (en) * | 2018-03-12 | 2018-08-28 | 京东方科技集团股份有限公司 | Intelligent terminal and the exchange method based on it, interactive system, processor |
US10945008B2 (en) | 2018-03-12 | 2021-03-09 | Boe Technology Group Co., Ltd. | Smart terminal, interaction method based thereon, interaction system, and non-transitory computer readable storage medium |
CN108629944B (en) * | 2018-05-07 | 2020-08-07 | 刘知迪 | Science and technology endowment accompanying system |
CN108629944A (en) * | 2018-05-07 | 2018-10-09 | 温州中佣科技有限公司 | A kind of scientific and technological system of accompanying and attending to of supporting parents |
JP7180139B2 (en) | 2018-06-22 | 2022-11-30 | カシオ計算機株式会社 | Robot, robot control method and program |
JP2023027060A (en) * | 2018-06-22 | 2023-03-01 | カシオ計算機株式会社 | Robot, method for controlling robot and program |
JP2019217122A (en) * | 2018-06-22 | 2019-12-26 | カシオ計算機株式会社 | Robot, method for controlling robot and program |
JP7476941B2 (en) | 2018-06-22 | 2024-05-01 | カシオ計算機株式会社 | ROBOT, ROBOT CONTROL METHOD AND PROGRAM |
CN110465939A (en) * | 2019-07-09 | 2019-11-19 | 南昌大学 | A kind of robot touch system based on Winform |
CN110815174A (en) * | 2019-10-10 | 2020-02-21 | 汕头大学 | Following robot |
CN113176775A (en) * | 2020-01-24 | 2021-07-27 | 株式会社日立制作所 | Method for controlling a mobile robot and robot |
CN113176775B (en) * | 2020-01-24 | 2024-03-29 | 株式会社日立制作所 | Method for controlling moving robot and robot |
CN112873201A (en) * | 2021-01-13 | 2021-06-01 | 北京方正数码有限公司 | Automatic change flow robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2000326274A (en) | Acting robot | |
JP2003326479A (en) | Autonomous operation robot | |
EP2068275B1 (en) | Communication robot | |
JP5429462B2 (en) | Communication robot | |
JP5366048B2 (en) | Information provision system | |
US7653458B2 (en) | Robot device, movement method of robot device, and program | |
JP4949969B2 (en) | Communication robot and its operation method | |
JP4599522B2 (en) | Communication robot | |
JP7476941B2 (en) | ROBOT, ROBOT CONTROL METHOD AND PROGRAM | |
JP2008149399A (en) | Mobile robot and travel speed estimating method | |
JP2008087140A (en) | Speech recognition robot and control method of speech recognition robot | |
JPH09185412A (en) | Autonomous moving device | |
JP2012139798A (en) | Mobile robot, learning system for the same, and method of learning action of the same | |
JP2009131914A (en) | Robot control system | |
JP4798581B2 (en) | Robot system | |
WO2020105309A1 (en) | Information processing device, information processing method, and program | |
JP2019217558A (en) | Interactive system and control method for the same | |
JP4617428B2 (en) | Motion generation system | |
Li et al. | An egocentric computer vision based co-robot wheelchair | |
JP2007160427A (en) | Robot control system | |
Carbini et al. | From a Wizard of Oz experiment to a real time speech and gesture multimodal interface | |
JP2006231497A (en) | Communication robot | |
JP2004034273A (en) | Robot and system for generating action program during utterance of robot | |
JP4198676B2 (en) | Robot device, robot device movement tracking method, and program | |
JP5324956B2 (en) | Road guidance robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20030909 |