Nothing Special   »   [go: up one dir, main page]

JP4689107B2 - 自律行動ロボット - Google Patents

自律行動ロボット Download PDF

Info

Publication number
JP4689107B2
JP4689107B2 JP2001251642A JP2001251642A JP4689107B2 JP 4689107 B2 JP4689107 B2 JP 4689107B2 JP 2001251642 A JP2001251642 A JP 2001251642A JP 2001251642 A JP2001251642 A JP 2001251642A JP 4689107 B2 JP4689107 B2 JP 4689107B2
Authority
JP
Japan
Prior art keywords
sound
voice
unit
image
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001251642A
Other languages
English (en)
Other versions
JP2003062777A (ja
Inventor
義秋 坂上
信男 檜垣
直亮 住田
雄一 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2001251642A priority Critical patent/JP4689107B2/ja
Priority to US10/225,287 priority patent/US6853880B2/en
Publication of JP2003062777A publication Critical patent/JP2003062777A/ja
Application granted granted Critical
Publication of JP4689107B2 publication Critical patent/JP4689107B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39387Reflex control, follow movement, track face, work, hand, visual servoing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Toys (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、画像処理と音声処理とを併用して移動や姿勢制御を行う自律行動ロボットに関する。
【0002】
【従来の技術】
近年、人間のパートナーとして共存することを目的とした自律行動ロボットが開発されてきている。この種の自律行動ロボットには、人間の音声に反応してあらかじめ決められた行動をするものがある。また、カメラ等の各種センサを用いて、認識対象である目標を含んだシーンをイメージ情報として取得し、そのイメージ情報と目標に対する断片的な知識とを利用して目標を認識するものもある。例えば、人間の音声を認識し、音声の種類によっていくつかの動作によってできるだけ人間らしい振る舞いをさせ、親近感を感じさせるような人間型ロボットも自律行動ロボットの一つの実施形態である。
【0003】
【発明が解決しようとする課題】
しかしながら、本物の人間により近い動作をする人間型ロボットを開発するためには、例えば、ロボットの視野外にいる対面者の呼びかけに反応して振り向いたり、対面者の顔を見分けたりするような機能を備える必要がある。さらに、対面者がジェスチャー等によりある物を提示したような場合には、指示された物等に視線を移して、その物を認識することができるような機能がこれからの人間型ロボットには必要である。
【0004】
この発明は、このような事情を考慮してなされたものであり、視線を呼びかけた人の方向に向けたり、対面者の顔を認識したり、いくつかの命令に応じた行動をとることができるような自律行動ロボットを提供することを目的とする。
【0005】
【課題を解決するための手段】
上記課題を解決するために、請求項1に記載の発明は、音源から発せられた音を検出する音検出手段と、検出された音が、あらかじめ決められた指示語の音声であるか否か判定する音声認識手段と、周辺の画像を撮影する撮像手段と、撮影された画像から特定の形状を有する移動体の輪郭を抽出する輪郭抽出手段と、前記音声認識手段によって前記指示語の音声であると判定された場合に、前記移動体の輪郭上の位置であって、前記移動体の重心から遠く且つ前記移動体の重心より上方の位置を手先位置として推定する目標画像決定手段と、前記手先位置に基づいて該手先位置に向かう方向に前記撮像手段の撮影方向を制御する制御手段とを有し、前記撮像手段が、互いに対応付けられた2台の撮像装置から構成され、撮影された2枚の画像で構成されるステレオ画像を立体視することによって奥行き情報を検出する奥行き情報検出手段をさらに備え、前記目標画像決定手段は、複数の移動体が存在する場合には自装置から最も距離が近い前記移動体の輪郭上の位置から、前記手先位置を推定することを特徴とする。
【0006】
この発明によれば、まず、人物その他の音源から発せられた音が、音検出手段により検出される。次に、検出された音が、あらかじめ決められた指示語の音声であるか否か、音声認識手段によって判定される。次に、撮像手段の作動により、周辺の画像が撮影される。次いで、輪郭抽出手段の作動により、撮影された画像から特定の形状を有する移動体の輪郭が抽出される。次に、目標画像決定手段の作動により、移動体の輪郭上の位置であって、移動体の重心から遠く且つ移動体の重心より上方の位置が手先位置として推定される。そして、制御手段の作動により、撮影手段の撮影方向が制御されて推定された手先位置の方向に向けられる。
また、この発明によれば、人物等の画像を撮影する撮像手段が2台のカメラである撮像装置から構成され、その2台のカメラによってステレオ画像が撮影される。そして、奥行き情報検出手段の作動により、撮影されたステレオ画像を立体視することによって、カメラからの距離を示す奥行き情報が検出される。
したがって、音を発した移動体等の方向だけではなく、カメラとの3次元位置関係に関する情報を検出することが可能となる。
【0007】
請求項2記載の発明は、請求項1記載の発明において、複数のマイクで検出された音に関して音圧を計算し、前記音圧の差を計算することによって音源の方向を特定する音源定位手段をさらに備え、前記制御手段は、さらに、特定された音源方向に向けて前記撮像手段の撮影方向を制御することを特徴とする。
【0008】
この発明によれば、検出された音に基づいて、音源定位手段が作動することにより、その音を発した音源の方向が特定される。さらに、制御手段の作動により、周辺の画像を撮影する撮像手段であるカメラが制御されて、その撮影方向が特定された音源の方向に向けられる。
【0009】
請求項3記載の発明は、請求項1または2記載の発明において、前記音声認識手段は、前記検出された音の音圧の時間変化から波形形状を推定し、前記波形形状がなだらかである場合には人間の音声であると判定し、前記波形形状がなだらかでない場合には人間の音声でないと判定し、人間の音声であると判定した場合に、検出された音が、予め決められた指示語の音声であるか否か判定することを特徴とする。
【0010】
この発明によれば、音声の波形形状に基づいて人間の音声であるか否か判定される。
【0011】
本願の発明は、音源から発せられた音を検出する音検出手段と、検出された音に基づいて音源の方向を特定する音源定位手段と、周辺の画像を撮影する撮像手段と、撮影された画像から特定の形状を有する目標画像を抽出する目標画像抽出手段と、特定された音源方向および抽出された目標画像に基づいて該目標画像に向かう方向に姿勢または位置を変更する姿勢位置変更手段とを備えるように構成されても良い
【0012】
このように構成された本願発明によれば、まず、人物その他の音源から発せられた音が、音検出手段の作動により検出される。次に、検出された音に基づいて、音源定位手段が作動することにより、その音を発した音源の方向が特定される。一方、撮像手段の作動により、自律移動ロボット周辺の画像が撮影される。次いで、目標画像抽出手段の作動により、撮影された画像から特定の形状を有する目標画像が抽出される。そして、姿勢位置変更手段の作動により、特定された音源方向および抽出された目標画像に基づいて目標画像に向かう方向に姿勢または位置が変更される。
したがって、人物の位置を発生された音声により認識するだけではなく、人間のような振る舞いをして、その人物に対して親近感を抱かせることが可能となる。
【0013】
請求項4記載の発明は、請求項1から3までのいずれかの項に記載の発明において、前記音声認識手段は、前記波形形状の平均音圧が第一の閾値以上であり、前記波形形状の先頭の音圧と前記平均音圧との差が第二の閾値以下であり、且つ、音の継続時間が第三閾値以上である場合に、人間の音声であると判定することを特徴とする。
【0014】
この発明によれば、第一の閾値、第二の閾値、及び第三の閾値に基づいて人間の音声であるか否か判定される。
【0017】
【発明の実施の形態】
以下、図面を参照して、この発明の一実施形態について説明する。図1は、この発明の一実施形態による自律行動ロボットの構成を示すブロック図である。本実施形態における自律行動ロボットは、対面者である人物に対して親近感を抱かせるような人間型ロボットを想定しており、目や耳等を有する頭部に相当するロボット頭部1と、胴体に相当するロボット胴体部2と、手足に相当するロボット手足部3とから構成される。尚、犬や猫のタイプのような4本足のペットロボットの場合、ロボットの手や足は4つの部分に分かれてそれぞれの部分が関連して動作するが、本実施形態では便宜上これをまとめて一つのロボット手足部3として記述する。
【0018】
ロボット頭部1は、周囲のカラー画像を撮影するための撮像部11と、音源から発せられた音を検知するための音検出部12と、撮像部11および音検出部12が固定されているロボット頭部1自身を左右上下方向に任意の角度で向けることができる頭部駆動部13とから構成される。
【0019】
撮像部11は人間型ロボットの目の役割を果たすため、ロボット頭部前面に同じ高さに水平に設置された、互いに対応付けられた2台のCCDカメラで構成されており、カラーのステレオ画像を撮影することが可能である。これらのカメラは図1において右カメラ111と左カメラ112で示されている。尚、本実施形態では入力画像は8ビット(256階調)の濃淡値で表現されているものとする。また、音検出部12は、人間型ロボットの耳の役割を果たすため、ロボット頭部1の左右それぞれの側面に設置された2本のマイクで構成されている。図1において、その2本のマイクは、右マイク121と左マイク122で示されている。これらのマイクで受信したアナログの入力音響信号は、デジタルの時系列信号に変換される。
【0020】
ロボット胴体部2は、撮像部11で撮影されたカラーのステレオ画像を記憶するための画像記憶部23と、記憶された画像を処理してロボット頭部1またはロボット手足部3にあらかじめ決められた動作をさせるための情報を獲得する画像処理部24とを備える。また、ロボット胴体部2は、音検出部12で検出された音に関する情報を記憶する入力音記憶部21と、入力された音を処理してロボット頭部1にあらかじめ決められた動作をさせるための情報を獲得する音声処理部22とを備える。さらにロボット胴体部2は、音声処理部22と画像処理部24における処理の結果に基づいて、ロボット頭部1またはロボット手足部3の動作を制御して、ロボット頭部1の向きを変化させ、ロボットの姿勢や位置を変化させるための動作指示を行う動作指示部25を備えている。
【0021】
音声処理部22は、記憶された音に関する情報に基づいて両マイクの音到達時間差と音圧差により水平方向の音源の相対的な方向を特定する音源定位処理部221と、当該音が人間が発した音声か否かを判別するための音声判別部222と、特定の音声命令が記憶された音声情報記憶部223と、音声情報記憶部223に接続され入力された音声が特定の命令であるか否かを認識する音声認識部224とから構成される。
【0022】
一方、画像処理部24は撮影された画像から特定の目標を抽出するための目標画像抽出部241と、特定の個人を識別するための個人情報が記憶された個人識別情報記憶部242と、目標画像抽出部241と個人識別情報記憶部242とに接続され、抽出された人物の顔画像が特定の個人であるか否かを識別する個人識別部243と、画像記憶部23に記憶されたステレオ画像から立体視によって奥行き情報を算出する奥行き情報検出部244とから構成される。
【0023】
また、目標画像抽出部241は、人物の顔画像等を含む肌色領域を抽出するための肌色領域抽出部241aと、人物等の輪郭を抽出するための輪郭抽出部241bと、肌色領域抽出部241aまたは輪郭抽出部241bで抽出された情報に基づいて特定の目標画像を決定する目標画像決定部241cとから構成される。
まず、肌色領域抽出部241aは、RGB座標で取得したカラー画像をHLS座標に色座標変換して、色相成分等を用いて肌色に相当する領域だけを抽出することによって肌色領域からなる肌色領域画像を作成する。また、輪郭抽出部241bは、肌色領域抽出手段241aで抽出された肌色領域の輪郭部分をエッジとして抽出してエッジ画像を作成する手段である。尚、肌色領域抽出部241aと輪郭抽出部241bにおける処理は、特願2001−013818に記載されている肌色領域抽出及び輪郭抽出の方法を用いることもできる。
【0024】
また、輪郭抽出部241bは上記抽出方法に加えて、スネーク(Snakes)と呼ばれる動的輪郭モデルを適用する輪郭抽出手段の作動により、撮影された画像の中から目標画像の輪郭を抽出することもできる。
さらに、ロボット手足部3には、ロボット胴体部2の動作指示部25に接続され、当該ロボットの手足をあらかじめ決められた動作を行うように制御するための手足駆動部31が備わっている。このように、上述した頭部駆動部13と動作指示部25と手足駆動部31は、人間型ロボットの動作等の制御手段となり対面者に対して親しみを抱かせるような動きをする。
【0025】
次に、図面を参照して、上述した実施形態の動作について説明する。
図2は、同実施形態における自律行動ロボットの各部の動作を説明するためのフローチャートである。以下の説明において、画像処理、音源定位処理、音声認識処理、動作指示処理は各々並列に処理が実行され、それらの処理結果に基づいて視線制御値の算出を行い頭部の駆動が行なわれるものする。
まず、音源方向、音種別、音量を入力する(ステップS1)。続いて、音声認識結果を入力する(ステップS2)。さらに、頭部位置候補、及び顔位置候補を入力する(ステップS3)。
【0026】
そして、音の入力があったか否かが判断される(ステップS4)。その結果、音検出部12で音が検出されなかった場合(NO)、撮影された画像に対して画像処理部24の作動により、目標画像の抽出処理が行われる(ステップS11)。また、何らかの音が検出された場合(YES)、その音に関する情報が入力音記憶部21に記憶される。ここで、音に関する情報とは、検出された音の受信信号や、左右マイク121、122に到達したときの時間、時間差等が含まれる。そして、これらの音声情報を音声処理部22で処理することにより動作指示部25に与える各種情報が求められる。
【0027】
音声処理部22における音源定位処理部221では、当該ロボットに対する左右マイク121、122で検出された音の音源の方向が特定される(ステップS5)。ここで、音源の方向を特定する手順について図面を用いて詳述する。図3は、同実施形態による自律行動ロボットの音源定位処理部221の細部の構造を説明するためのブロック図である。図3において、音到達時間差計算部221aには、入力音記憶部21に記憶された入力音に関する情報に基づいて、左右マイク121、122で検出された音の到達時間が入力され、その時間差が計算される。すなわち、両入力時系列の相互相関関数から時系列間の位相差を推定し、音到達時間差τの候補を出力する。
【0028】
また、音圧測定部221b、cでは、それぞれ右マイク121、左マイク122で検出された音に関する受信信号から、入力時系列の一定時間窓における二乗平均の平方根を計算することによってdB値によって音圧Vsが計算される。そして、音圧差計算部221dにおいて音圧計算部221bおよび221cで求められた音圧の差がdB値で計算される。その結果、音源方向計算部221eにおいて、右マイク121と左マイク122で検出された音から音源の方向Θsを出力することができる。
【0029】
ここで、音圧の計算方法について説明する。図4は、入力初期位置の音圧の時間変化から推定されたエンベローブ(波形形状)による音圧の計算例について示した図である。例えば、図4(a)に示すように、人間の音声「おい」が入力され、左図のように振幅と時間との関係が得られた場合、エンベローブ推定によって右図のように音圧と時間との関係に置き換えることができる。そこで、エンベローブのなだらかさを評価して、なだらかな場合を人間の音声と判定してVsの符号を正の値とし、急峻な立ち上がりをする場合を音声以外の音としてVsの符号を負に設定する。また、図4(b)に示すように、手拍子音の場合は、人間の音声と比較して、振幅は音声よりも大きいが、計測された時間が短いという特徴がある。
【0030】
一方、図5は、図3に示された音源定位処理部221において出力である音源方向を求めるための手順について説明するための図である。ここでは、2つの音響入力端子(右マイク121、左マイク122)に到達する音響信号における時間差と音圧差により、水平方向の相対的な音源の方向を推定する。図5(a)は、音源定位処理部221における動作手順について詳細に説明するための図である。図3に示す音到達時間差計算部221aにおいて、音到達時間差τの候補が計算される。また、音圧差計算部221dにおいて、音圧差Vsが計算される。次に、図5(b)に示すような音圧差からの音到達時間差τの選択領域マップを用いて、求めた音圧差から音到達時間差τの選択領域Aを設定する。そして、音到達時間差τの候補から選択領域Aに属するτを選択する。このようにして求めた音到達時間差τから、以下に示す音源の方向を算出する計算式、あるいは図4(c)に示されるτとΘsとを対応付けるマップによって音源の方向Θsを求める。
【0031】
図6は、本実施形態における音源の方向Θsを説明するための図である。図6に示すように、音源の方向は、左右マイク121、122を結んだ線分と、その線分の中点と音源とを結んだ線分とのなす角Θs で示す。すなわち、音源の方向は式(1)に示される角度Θsで求めることができる。
Θs=sin 1(V・τ/d) (1)
ここで、Vは音速、τはそれぞれのマイクで検出された音の到達時間差、dはそれぞれのマイク間の距離である。
【0032】
これと同時に、検出された音が人間の音声であるか、それ以外の音であるかの判別が音声判別部222において行われる(ステップS5)。図7は、音声判別部222の細部構成を説明するためのブロック図である。ここでは、音響入力端子(右マイク121、左マイク122)に到達する音響信号の入力初期位置におけるエンベローブ(波形形状)を評価することにより、その音響信号が音声であるか、それ以外の音であるかを判別する。図7において、音圧計算部222aと222bは、それぞれ右マイク121と左マイク122で検出した音の音圧を計算する部分である。また、平均音圧計算部222は、計算した音圧の平均音圧を計算する部分である。さらに、エンベローブ推定部222dは、図4に示す振幅からエンベローブを推定する部分である。そして、判別部222eは、人間の音声であるか、それ以外の音であるかを判別する部分である。
【0033】
図8は、図7に示される音声判別部222の動作を説明するためのフローチャートである。入力された音は上述したように、音圧が計算されて平均音圧計算部222cの作動により、平均音圧Vsが計算され、エンベローブ推定部222dで図4に示すようなエンベローブが推定される(ステップS81)。そして、計算された平均音圧Vsがあらかじめ設定された一定値α以上であるか否かが判断される(ステップS82)。その結果、平均音圧Vsが一定値α以上であれば(YES)、続いて平均音圧Vsと音響信号先頭の音圧pVsとを比較してβ以上減衰しているか否かが判断される(ステップS83)。一方、ステップS82で平均音圧Vsが一定値α以上でない場合(NO)、人間の音声以外の音であると判断される(ステップS84)。
【0034】
そして、ステップS83において、β以上減衰していると判断された場合(YES)、人間の音声以外の音であると判断される(ステップS84)。また、β以上減衰していないと判断された場合(NO)、ステップS85に進んで一定時間T以上継続した音か否かが判断される。そして、一定時間T以上の音であると判断された場合(YES)、人間の音声であると判断される(ステップS86)。また、一定時間T以上継続していない場合(NO)、ステップS81に戻る。上述したステップS82以降の一連の処理は、判別部222eの作動により行われる。
尚、音圧計算部は音源定位処理部221と音声判別部222の両方に必要であるため、音源定位処理部221と音声判別部222の両部で音圧計算部を共有する構造にしてもよい。
【0035】
次に、このようにして求められた音源の位置が人間型ロボットの視野角内にあるか否かが判定される(ステップS6)。その結果、すでにロボットの視野角内にあれば、ステップS8に進む。また、視野角内にないと判断された場合は、ロボット頭部1の方向が求められた音源の方向Θsに基づいて動作指示部25からの指示による頭部駆動部13の作動により方向転換される(ステップS7)。そして、再びステップS1へ戻る。
【0036】
さらに、ステップS5で判定された入力音が人間の音声であるか否かが判定される(ステップS8)。その結果、人間の音声であると判断された場合(YES)、さらにその音声が指示語であるか否かが判断される(ステップS10)。また、ステップS8で人間の音声でないと判断された場合(NO)、一定時間経過後に方向転換したロボット頭部1を元の方向に戻す(ステップS9)。
【0037】
ステップS10では、入力された音声があらかじめ決められた指示語であるか否かが判定される。この判定は、音声情報記憶部223に記憶されている音声に関する情報と入力音声との比較が音声認識部224において行われる。この結果、入力音声が特定の指示語であると判定された場合は、指示された手先位置の領域が推定される(ステップS14)。次いで、この方向に基づいて視線制御値が算出される(ステップS15)。そして、ロボット頭部1が方向転換される(ステップS16)。
【0038】
一方、画像処理では人間の顔領域の抽出が行われる(ステップS11)。顔領域の抽出に際して、肌色領域および輪郭の抽出方法については、上述したように、肌色領域抽出部241aは、RGB座標で取得したカラー画像をHLS座標に色座標変換して、色相成分等を用いて肌色に相当する領域だけを抽出することによって肌色領域とそれ以外の領域とからなる肌色領域画像を生成する。また、輪郭抽出部241bは、肌色領域抽出部241aにおいて得られた肌色領域画像からエッジ抽出をすることによって肌色領域の輪郭を抽出する。
尚、顔領域の抽出において、画像内輪郭の最上点を始点として、あらかじめ距離に応じた大きさの矩形領域を走査して、輪郭内画素が最も多く含まれる位置を求めて、その位置を頭部候補位置M(x,y)とする。ここで、(x,y)は原点を画像の左上として、右方向をx、左方向をyとした画像上の座標値を表している。図9は、移動体の輪郭と頭部候補位置および手先位置を説明するための図である。尚、図9(c)に示す手先位置に関する処理については後述する。
図10は、撮影されたカラー画像と抽出される顔画像候補F(x,y)との関係を説明するための図である。
【0039】
そして、上述した手順によって得られた視線制御値である音源の方向Θsと、音声認識結果Cvと、頭部候補位置M(x,y)と、顔候補位置F(x,y)とが算出される(ステップS12)。これらのデータが動作指示部25に入力することによって、頭部駆動部13あるいは手足駆動部31の動作が制御され、ロボット頭部1あるいはロボット手足部3が動く(ステップS13)。例えば、頭部候補位置M(x,y)または顔候補位置F(x,y)の相対角と音源の方位Θsとの差が最小となる頭部候補位置M(x,y)または顔候補位置F(x,y)を選択して、それよりパン、チルト角が算出される。但し、音の入力がない場合は、頭部候補位置M(x,y)および顔候補位置F(x,y)間の距離が、あるしきい値内であるものについて式(2)で求める。
G(x,y)=1/n*{M(x,y)+F(x,y)} (2)
但し、nは互いの距離がしきい値内の位置の総数である。
【0040】
そして、この中から移動体までの距離が最も近いG(x,y)を選んで、これに基づいてパン、チルトの視線制御値を算出することによって、ロボット頭部1が制御される。尚、移動体までの距離の選択方法は、移動体が複数の場合は、適切な順によってロボット頭部1のパン、チルト制御させ、くまなくロボットの視線を制御させることも可能である。
また、音の入力がなく、顔候補位置F(x,y)のみが求められた場合には、画像中央からの距離が近い順にパン、チルト角を算出して、ロボット頭部1を制御させる。さらに、音の入力がなく、頭部候補位置M(x,y)のみが求められた場合には、距離が最も近いものから順にパン、チルト角を算出して、ロボット頭部1を制御させる。
【0041】
一方、ステップS10で入力音声が、例えば「これ」、「この」、「ここ」等の指示語であった場合、手先位置H(x,y)が推定される(ステップS14)。すなわち、図9に示すように、頭部候補位置M(x,y)と輪郭内画素の位置の平均から求められる移動体重心Gからより遠い輪郭上の位置であって、かつ、重心Gより上の部分にあたる点H(x,y)が手先位置として目標画像推定部241cにおいて推定される。ここで、H(X,Y)を中心とする矩形領域内から肌色領域を抽出し、手先位置を求めてもよい。次いで、その位置に基づいて、頭部駆動部13に対してパン、チルト角等の動作指示情報が動作指示部25において算出される(ステップS15)。そして、動作命令が頭部駆動部13に伝えられて、例えばロボット頭部1が方向転換される(ステップS16)。
【0042】
また、本実施形態においては、輪郭抽出手段として上述した差分による方法のほかに、ステレオ画像から得られる時系列画像からスネークと呼ばれる移動体抽出アルゴリズムを用いて移動体の輪郭を抽出してもよい。この方法においては、ある探索領域内において動きのあるエッジが最も多く分布する距離を移動体までの距離と仮定して、その距離近辺にあるエッジを画像エネルギーとする。そして、この画像エネルギーを外部エネルギーとしてスネークアルゴリズムを用いて輪郭を抽出する。
【0043】
なお、図1における音声処理部22および画像処理部24の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより顔領域の検出等を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
【0044】
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
【0045】
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
【0046】
【発明の効果】
以上説明したように、請求項1記載の発明によれば、移動体の手先位置に向かう方向に、撮像手段の撮影方向を制御することが可能となる。また、音を発した人物等の方向だけではなく、カメラとの3次元位置関係に関する情報を検出することができる。したがって、視線を呼びかけた人の方向に向けたり、対面者の顔を認識したり、いくつかの命令に応じた行動をとることができる。
【0048】
【図面の簡単な説明】
【図1】 この発明の一実施形態による自律行動ロボットの構成を示すブロック図である。
【図2】 同実施形態における自律行動ロボットの各部の動作を説明するためのフローチャートである。
【図3】 同実施形態による自律行動ロボットの音源定位処理部221の細部の構造を説明するためのブロック図である。
【図4】 入力初期位置の音圧の時間変化から推定されたエンベローブ(波形形状)による音圧の計算例について示した図である。
【図5】 図3に示された音源定位処理部221において出力である音源方向を求めるための手順について説明するための図である。
【図6】 本実施形態における音源の方向Θsを説明するための図である。
【図7】 音声判別部222の細部構成を説明するためのブロック図である。
【図8】 図7に示される音声判別部222の動作を説明するためのフローチャートである。
【図9】 移動体の輪郭と頭部候補位置および手先位置を説明するための図である。
【図10】 撮影されたカラー画像と抽出される顔画像候補M(x,y)との関係を説明するための図である。
【符号の説明】
1 ロボット頭部、 2 ロボット胴体部、 3 ロボット手足部、
11 撮像部、 12 音検出部、 13 頭部駆動部、
22 音声処理部、 24 画像処理部、 25 動作指示部、
31 手足駆動部、 111 右カメラ、 112 左カメラ、
121 右マイク、 122 左マイク、
221 音源定位処理部、 222 音声判別部、
223 音声情報記憶部、 224 音声認識部、
241 目標画像抽出部、 242 個人識別情報記憶部、
243 個人識別部、 244 奥行き情報検出部

Claims (4)

  1. 音源から発せられた音を検出する音検出手段と、
    検出された音が、あらかじめ決められた指示語の音声であるか否か判定する音声認識手段と、
    周辺の画像を撮影する撮像手段と、
    撮影された画像から特定の形状を有する移動体の輪郭を抽出する輪郭抽出手段と、
    前記音声認識手段によって前記指示語の音声であると判定された場合に、前記移動体の輪郭上の位置であって、前記移動体の重心から遠く且つ前記移動体の重心より上方の位置を手先位置として推定する目標画像決定手段と、
    前記手先位置に基づいて該手先位置に向かう方向に前記撮像手段の撮影方向を制御する制御手段と
    を有し、
    前記撮像手段が、互いに対応付けられた2台の撮像装置から構成され、
    撮影された2枚の画像で構成されるステレオ画像を立体視することによって奥行き情報を検出する奥行き情報検出手段をさらに備え、
    前記目標画像決定手段は、複数の移動体が存在する場合には自装置から最も距離が近い前記移動体の輪郭上の位置から、前記手先位置を推定することを特徴とする自律行動ロボット。
  2. 複数のマイクで検出された音に関して音圧を計算し、前記音圧の差を計算することによって音源の方向を特定する音源定位手段をさらに備え、
    前記制御手段は、さらに、特定された音源方向に向けて前記撮像手段の撮影方向を制御することを特徴とする請求項1に記載の自律行動ロボット。
  3. 前記音声認識手段は、前記検出された音の音圧の時間変化から波形形状を推定し、前記波形形状がなだらかである場合には人間の音声であると判定し、前記波形形状がなだらかでない場合には人間の音声でないと判定し、人間の音声であると判定した場合に、検出された音が、予め決められた指示語の音声であるか否か判定することを特徴とする請求項1または2のいずれかの項に記載の自律行動ロボット。
  4. 前記音声認識手段は、前記波形形状の平均音圧が第一の閾値以上であり、前記波形形状の先頭の音圧と前記平均音圧との差が第二の閾値以下であり、且つ、音の継続時間が第三閾値以上である場合に、人間の音声であると判定することを特徴とする請求項1から3までのいずれかの項に記載の自律行動ロボット。
JP2001251642A 2001-08-22 2001-08-22 自律行動ロボット Expired - Lifetime JP4689107B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001251642A JP4689107B2 (ja) 2001-08-22 2001-08-22 自律行動ロボット
US10/225,287 US6853880B2 (en) 2001-08-22 2002-08-22 Autonomous action robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001251642A JP4689107B2 (ja) 2001-08-22 2001-08-22 自律行動ロボット

Publications (2)

Publication Number Publication Date
JP2003062777A JP2003062777A (ja) 2003-03-05
JP4689107B2 true JP4689107B2 (ja) 2011-05-25

Family

ID=19080253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001251642A Expired - Lifetime JP4689107B2 (ja) 2001-08-22 2001-08-22 自律行動ロボット

Country Status (2)

Country Link
US (1) US6853880B2 (ja)
JP (1) JP4689107B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11295755B2 (en) * 2018-08-08 2022-04-05 Fujitsu Limited Storage medium, sound source direction estimation method, and sound source direction estimation device

Families Citing this family (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6925357B2 (en) * 2002-07-25 2005-08-02 Intouch Health, Inc. Medical tele-robotic system
US20040162637A1 (en) * 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US20090030552A1 (en) * 2002-12-17 2009-01-29 Japan Science And Technology Agency Robotics visual and auditory system
JP2004283927A (ja) * 2003-03-20 2004-10-14 Sony Corp ロボット制御装置および方法、記録媒体、並びにプログラム
JP4048492B2 (ja) 2003-07-03 2008-02-20 ソニー株式会社 音声対話装置及び方法並びにロボット装置
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
EP2267697A3 (en) * 2003-12-12 2011-04-06 Nec Corporation Information processing system, method of processing information, and program for processing information
JP4244812B2 (ja) * 2004-01-16 2009-03-25 ソニー株式会社 行動制御システム及びロボット装置の行動制御方法
US20050204438A1 (en) 2004-02-26 2005-09-15 Yulun Wang Graphical interface for a remote presence system
JP2005293052A (ja) * 2004-03-31 2005-10-20 Honda Motor Co Ltd 顧客応対ロボット
JP2006015436A (ja) * 2004-06-30 2006-01-19 Honda Motor Co Ltd 監視ロボット
JP4594663B2 (ja) * 2004-06-30 2010-12-08 本田技研工業株式会社 警備ロボット
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US20060052676A1 (en) * 2004-09-07 2006-03-09 Yulun Wang Tele-presence system that allows for remote monitoring/observation and review of a patient and their medical records
JP4267556B2 (ja) * 2004-10-29 2009-05-27 株式会社国際電気通信基礎技術研究所 眼球制御装置、眼球制御方法および眼球制御プログラム
JP4373903B2 (ja) * 2004-12-14 2009-11-25 本田技研工業株式会社 自律移動ロボット
KR100763901B1 (ko) * 2005-01-26 2007-10-05 삼성전자주식회사 이동체 제어 장치 및 방법
US7441367B2 (en) * 2005-03-14 2008-10-28 Vmi Foundation Robotic pest removal system
US7456596B2 (en) * 2005-08-19 2008-11-25 Cisco Technology, Inc. Automatic radio site survey using a robot
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US8849679B2 (en) * 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
JP2008087140A (ja) * 2006-10-05 2008-04-17 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP2008249702A (ja) * 2007-03-05 2008-10-16 Univ Nihon 音響測定装置及び音響測定方法
US8265793B2 (en) 2007-03-20 2012-09-11 Irobot Corporation Mobile robot for telecommunication
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
KR101469246B1 (ko) * 2007-08-07 2014-12-12 삼성전자주식회사 로봇에서 사진 촬영하는 장치 및 방법
JP5228716B2 (ja) * 2007-10-04 2013-07-03 日産自動車株式会社 情報提示システム
US10875182B2 (en) * 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) * 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US9138891B2 (en) * 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
CN102396211B (zh) * 2009-04-17 2015-03-11 皇家飞利浦电子股份有限公司 气氛电话通信系统、运动部件及其方法
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US20110187875A1 (en) * 2010-02-04 2011-08-04 Intouch Technologies, Inc. Robot face used in a sterile environment
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US8918213B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
US8935005B2 (en) 2010-05-20 2015-01-13 Irobot Corporation Operating a mobile robot
US9014848B2 (en) 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US8930019B2 (en) 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
US12093036B2 (en) 2011-01-21 2024-09-17 Teladoc Health, Inc. Telerobotic system with a dual application screen presentation
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
KR20140040094A (ko) 2011-01-28 2014-04-02 인터치 테크놀로지스 인코퍼레이티드 이동형 원격현전 로봇과의 인터페이싱
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
US9269399B2 (en) * 2011-06-13 2016-02-23 Voxx International Corporation Capture, syncing and playback of audio data and image data
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US9355641B2 (en) 2011-12-06 2016-05-31 Kyungpook National University Industry-Academic Cooperation Monitoring device using selective attention model and method for monitoring same
KR101314687B1 (ko) * 2011-12-06 2013-10-07 서강대학교산학협력단 시선 경로 제공장치 및 시선 경로 제공방법
WO2013175484A2 (en) 2012-03-26 2013-11-28 Tata Consultancy Services Limited A multimodal system and method facilitating gesture creation through scalar and vector data
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9251313B2 (en) 2012-04-11 2016-02-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
WO2013176760A1 (en) 2012-05-22 2013-11-28 Intouch Technologies, Inc. Graphical user interfaces including touchpad driving interfaces for telemedicine devices
TWM451103U (zh) * 2012-10-30 2013-04-21 Agait Technology Corp 行走裝置
CN103753580A (zh) * 2014-01-24 2014-04-30 成都万先自动化科技有限责任公司 家庭矛盾和解服务机器人
US9301722B1 (en) * 2014-02-03 2016-04-05 Toyota Jidosha Kabushiki Kaisha Guiding computational perception through a shared auditory space
JP2015150620A (ja) * 2014-02-10 2015-08-24 日本電信電話株式会社 ロボット制御システムおよびロボット制御プログラム
US9807372B2 (en) * 2014-02-12 2017-10-31 Htc Corporation Focused image generation single depth information from multiple images from multiple sensors
EP2933064A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics System, method and computer program product for handling humanoid robot interaction with human
US10068588B2 (en) * 2014-07-21 2018-09-04 Microsoft Technology Licensing, Llc Real-time emotion recognition from audio signals
JP6221158B2 (ja) 2014-08-27 2017-11-01 本田技研工業株式会社 自律行動ロボット、及び自律行動ロボットの制御方法
CN106203259A (zh) * 2016-06-27 2016-12-07 旗瀚科技股份有限公司 机器人的交互方向调整方法及装置
WO2018047802A1 (ja) * 2016-09-08 2018-03-15 Groove X株式会社 自然な距離感を保つ自律行動型ロボット
KR20180037543A (ko) * 2016-10-04 2018-04-12 삼성전자주식회사 음성 인식 전자 장치
JP6708154B2 (ja) 2017-03-28 2020-06-10 カシオ計算機株式会社 対象物検出装置、対象物検出方法、及びプログラム
JP6673276B2 (ja) * 2017-03-28 2020-03-25 カシオ計算機株式会社 音声検出装置、音声検出方法、及びプログラム
JP6885160B2 (ja) * 2017-03-31 2021-06-09 カシオ計算機株式会社 移動装置、移動装置の制御方法及びプログラム
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters
US10483007B2 (en) 2017-07-25 2019-11-19 Intouch Technologies, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
GB2565315B (en) * 2017-08-09 2022-05-04 Emotech Ltd Robots, methods, computer programs, computer-readable media, arrays of microphones and controllers
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
CN108957392A (zh) * 2018-04-16 2018-12-07 深圳市沃特沃德股份有限公司 声源方向估计方法和装置
US10617299B2 (en) 2018-04-27 2020-04-14 Intouch Technologies, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching
US20210216808A1 (en) * 2018-06-05 2021-07-15 Sony Corporation Information processing apparatus, information processing system, program, and information processing method
US11230017B2 (en) 2018-10-17 2022-01-25 Petoi Llc Robotic animal puzzle
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
JP2020077135A (ja) * 2018-11-06 2020-05-21 本田技研工業株式会社 制御装置、エージェント装置及びプログラム
CN112026790B (zh) * 2020-09-03 2022-04-15 上海商汤临港智能科技有限公司 车载机器人的控制方法及装置、车辆、电子设备和介质
CN112711331A (zh) * 2020-12-28 2021-04-27 京东数科海益信息科技有限公司 机器人交互方法、装置、存储设备和电子设备
CN112925235A (zh) * 2021-01-21 2021-06-08 深圳市普渡科技有限公司 交互时的声源定位方法、设备和计算机可读存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07192112A (ja) * 1993-12-27 1995-07-28 Oki Electric Ind Co Ltd 侵入物体認識方法
JPH07334800A (ja) * 1994-06-06 1995-12-22 Matsushita Electric Ind Co Ltd 車両認識装置
JPH0822544A (ja) * 1994-07-11 1996-01-23 Oki Electric Ind Co Ltd 画像認識方法
JP2000202790A (ja) * 1999-01-14 2000-07-25 Sharp Corp ロボット装置
JP2000251078A (ja) * 1998-12-22 2000-09-14 Atr Media Integration & Communications Res Lab 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置
WO2000053281A1 (fr) * 1999-03-05 2000-09-14 Namco, Ltd. Dispositif d'animal virtuel et support d'enregistrement de son programme de commande
JP2000326274A (ja) * 1999-05-24 2000-11-28 Nec Corp 自律行動ロボット
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
JPH11126017A (ja) * 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
JP4328997B2 (ja) * 1998-06-23 2009-09-09 ソニー株式会社 ロボット装置
US6374157B1 (en) * 1998-11-30 2002-04-16 Sony Corporation Robot device and control method thereof
KR20010041969A (ko) * 1999-01-18 2001-05-25 이데이 노부유끼 로봇 장치, 로봇 장치의 본체 유닛 및 로봇 장치의 결합유닛
JP4366617B2 (ja) * 1999-01-25 2009-11-18 ソニー株式会社 ロボット装置
WO2000066239A1 (fr) * 1999-04-30 2000-11-09 Sony Corporation Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees
WO2000067961A1 (fr) * 1999-05-10 2000-11-16 Sony Corporation Robot et commande de ce robot
US6519506B2 (en) * 1999-05-10 2003-02-11 Sony Corporation Robot and control method for controlling the robot's emotions
WO2000067959A1 (fr) * 1999-05-10 2000-11-16 Sony Corporation Dispositif robotique et procede de commande associe
CN1205002C (zh) * 1999-05-10 2005-06-08 索尼公司 机器人装置及其控制方法
JP3665832B2 (ja) 1999-06-30 2005-06-29 コニカミノルタビジネステクノロジーズ株式会社 画像形成装置
JP2001191276A (ja) * 1999-10-29 2001-07-17 Sony Corp ロボットシステム、ロボット装置及びその外装
JP2001150374A (ja) * 1999-11-25 2001-06-05 Sony Corp ロボットの故障診断システム
JP2001191283A (ja) * 1999-12-31 2001-07-17 Sony Corp ロボット装置及びその制御方法
JP2001222316A (ja) * 2000-02-09 2001-08-17 Sony Corp ロボットの管理システム及びロボットの管理方法
JP2001260063A (ja) * 2000-03-21 2001-09-25 Sony Corp 多関節型ロボット及びその動作制御方法
JP2001277166A (ja) * 2000-03-31 2001-10-09 Sony Corp ロボット及びロボットの行動決定方法
JP4491912B2 (ja) * 2000-05-22 2010-06-30 ソニー株式会社 バッテリ駆動の脚式移動ロボット及びその制御方法
JP2001353678A (ja) * 2000-06-12 2001-12-25 Sony Corp オーサリング・システム及びオーサリング方法、並びに記憶媒体
JP2002036158A (ja) * 2000-07-27 2002-02-05 Yamaha Motor Co Ltd 自律機能を有する電子機器
JP2002113675A (ja) * 2000-10-11 2002-04-16 Sony Corp ロボット制御システム並びにロボット制御用ソフトウェアの導入方法
US6507773B2 (en) * 2001-06-14 2003-01-14 Sharper Image Corporation Multi-functional robot with remote and video system
US6604021B2 (en) * 2001-06-21 2003-08-05 Advanced Telecommunications Research Institute International Communication robot

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07192112A (ja) * 1993-12-27 1995-07-28 Oki Electric Ind Co Ltd 侵入物体認識方法
JPH07334800A (ja) * 1994-06-06 1995-12-22 Matsushita Electric Ind Co Ltd 車両認識装置
JPH0822544A (ja) * 1994-07-11 1996-01-23 Oki Electric Ind Co Ltd 画像認識方法
JP2000251078A (ja) * 1998-12-22 2000-09-14 Atr Media Integration & Communications Res Lab 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置
JP2000202790A (ja) * 1999-01-14 2000-07-25 Sharp Corp ロボット装置
WO2000053281A1 (fr) * 1999-03-05 2000-09-14 Namco, Ltd. Dispositif d'animal virtuel et support d'enregistrement de son programme de commande
JP2000326274A (ja) * 1999-05-24 2000-11-28 Nec Corp 自律行動ロボット
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11295755B2 (en) * 2018-08-08 2022-04-05 Fujitsu Limited Storage medium, sound source direction estimation method, and sound source direction estimation device

Also Published As

Publication number Publication date
US6853880B2 (en) 2005-02-08
JP2003062777A (ja) 2003-03-05
US20030055532A1 (en) 2003-03-20

Similar Documents

Publication Publication Date Title
JP4689107B2 (ja) 自律行動ロボット
JP3996015B2 (ja) 姿勢認識装置及び自律ロボット
EP3781896B1 (en) System for locating and identifying an object in unconstrained environments
US10970850B2 (en) Method and device for recognizing motion
KR100834577B1 (ko) 스테레오 비전 처리를 통해 목표물 검색 및 추종 방법, 및이를 적용한 가정용 지능형 서비스 로봇 장치
CN111601088B (zh) 一种基于单目摄像头坐姿识别技术的坐姿监控系统
JP4597391B2 (ja) 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
KR100586893B1 (ko) 시변 잡음 환경에서의 화자 위치 추정 시스템 및 방법
JP4435212B2 (ja) 姿勢認識装置及び自律ロボット
WO2020237611A1 (zh) 图像处理方法、装置、控制终端及可移动设备
JP7351383B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2003334389A (ja) ジェスチャ認識による制御装置、その方法および記録媒体
JP5001930B2 (ja) 動作認識装置及び方法
TW201941104A (zh) 智慧設備的控制方法、裝置、設備和存儲介質
JP2007257088A (ja) ロボット装置及びそのコミュニケーション方法
KR20140074201A (ko) 추적 장치
JP2015011404A (ja) 動作認識処理装置
Yu et al. Palmsight: an assistive technology helping the blind to locate and grasp objects
JP2005069734A (ja) 指さし行為による物体の空間位置の教示方法
JP2003085583A (ja) 頭部姿勢計測装置およびcgキャラクタ制御装置
Nakashima et al. Self-organization of a sound source localization robot by perceptual cycle
Dasu et al. Computer Vision based Tools and Technologies for Navigational Assistance for the Visually Impaired
CN110730378A (zh) 一种信息处理方法及系统
JP2021022185A (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
US20220248131A1 (en) Sound acquisition apparatus and sound acquisition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110216

R150 Certificate of patent or registration of utility model

Ref document number: 4689107

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

EXPY Cancellation because of completion of term