Nothing Special   »   [go: up one dir, main page]

JP2012161901A - コミュニケーションロボット - Google Patents

コミュニケーションロボット Download PDF

Info

Publication number
JP2012161901A
JP2012161901A JP2011025976A JP2011025976A JP2012161901A JP 2012161901 A JP2012161901 A JP 2012161901A JP 2011025976 A JP2011025976 A JP 2011025976A JP 2011025976 A JP2011025976 A JP 2011025976A JP 2012161901 A JP2012161901 A JP 2012161901A
Authority
JP
Japan
Prior art keywords
area
current location
communication
flow rate
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011025976A
Other languages
English (en)
Other versions
JP5732633B2 (ja
Inventor
Takayuki Kanda
崇行 神田
Masahiro Shiomi
昌裕 塩見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2011025976A priority Critical patent/JP5732633B2/ja
Publication of JP2012161901A publication Critical patent/JP2012161901A/ja
Application granted granted Critical
Publication of JP5732633B2 publication Critical patent/JP5732633B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】人で混雑した環境にも適応できる多様なコミュニケーションを提供すること。
【解決手段】コミュニケーションロボット10は、密集度DBを含み、人と共存する様々な環境に配置されて様々なコミュニケーション行動を実行する。密集度DBには、環境を区分したエリアのそれぞれと対応付けて、当該エリアにおける密集度の許容値が記憶される。コミュニケーションロボット10は、コミュニケーション行動を実行する際には、自身の現在地を取得するとともに、その現在地が含まれるエリアの現在の密集度を取得する。そして、現在地が含まれるエリアの密集度が当該エリアに対応する許容値以上か否かを判断し、その判断結果に従って、コミュニケーション行動の実行を制御する。
【選択図】図1

Description

この発明は、コミュニケーションロボットに関し、特にたとえば、人と共存する環境に配置されるコミュニケーションロボットに関する。
近年、人と共存する環境に配置されて、人に対して案内や客引きなどのコミュニケーション行動(サービス)を提供するコミュニケーションロボットが開発されつつある。たとえば特許文献1には、従来の案内ロボットの一例が開示されている。
特許文献1の案内ロボットは、画像解析手段を備えており、店舗内に配置したカメラから受信した画像を解析し、各チェックポイントを通過する人を検出し、通過人数を集計する。そして、人の通過が最も少ないチェックポイントを案内(誘導)先として抽出し、その誘導先につながる通路の入り口を案内ロボットの配置先として設定する。
特開2008−132568号公報 [G05D 1/02]
しかしながら、特許文献1の技術は、売り場の混雑状況に合わせて動的にロボットを配置して、そこから買い物客をすいている場所に案内するにとどまる技術であり、案内中の周囲の人の反応状況までは考慮していないので、結果として、ロボットの案内行動が周囲の人の行動の邪魔になってしまうことが懸念される。
それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボットを提供することである。
この発明の他の目的は、周囲の人の邪魔にならずにコミュニケーション行動を実行できる、コミュニケーションロボットを提供することである。
本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。
第1の発明は、人と共存する環境に配置され、身体動作および音声の少なくとも一方を用いて人との間でコミュニケーション行動を実行可能なコミュニケーションロボットであって、環境を1または複数のエリアに区分し、エリアのそれぞれと対応付けて、当該エリアにおける人の密集度の許容値を記憶する密集度記憶手段、自身の現在地を示す現在地情報を取得する現在地取得手段、現在地取得手段によって取得した現在地情報に基づいて、現在地が含まれるエリアの現在の密集度を取得する密集度取得手段、および密集度記憶手段を参照して、密集度取得手段によって取得した現在地が含まれるエリアの現在の密集度が当該エリアに対応する許容値以上か否かを判断する第1判断手段、第1判断手段の判断結果に従って、コミュニケーション行動の実行を制御する第1行動制御手段を備える、コミュニケーションロボットである。
第1の発明では、コミュニケーションロボット(10)は、身体動作や発話を用いて人との間でコミュニケーション行動を実行する相互作用指向のロボットであり、人と共存する様々な環境に配置され、その環境内を自律的に移動して、受付や道案内などの様々なコミュニケーション行動を実行する。コミュニケーションロボットは、密集度記憶手段(88)を備えており、密集度記憶手段には、環境を1または複数に区分したエリアのそれぞれと対応付けて、密集度の許容値が記憶される。実施例では、この密集度の許容値は、予め計測した、各エリアにおける滞在人数の最大値に応じて定められる。また、コミュニケーションロボットは、現在地取得手段(62,66,84,210,S3)、および密集度取得手段(62,66,84,210,S5)を備えており、移動する際には、現在地取得手段によって自身の現在地を取得するとともに、密集度取得手段によって現在地が含まれるエリアの密集度を取得する。実施例では、各エリアの現在の密集度は、位置検出システム(100)などを利用して検出する。そして、第1判断手段(62,66,88,214,S9,S11)によって、現在地が含まれるエリアの密集度が当該エリアに対応する許容値以上か否かを判断し、その判断結果に従って、行動制御手段(26,62,66,68,220,S35)によって、コミュニケーション行動の実行を制御する。
第1の発明によれば、自身の周囲の混雑状況を確認しながらコミュニケーション行動を実行することが可能であるので、周囲に人が行き交うような環境であっても、周囲の人の行動を妨げることなくコミュニケーション行動を実行できる。
第2の発明は、第1の発明に従属し、第1行動制御手段は、第1判断手段によって現在地が含まれるエリアの現在の密集度が許容値以上であると判断したとき、コミュニケーション行動の実行を停止する第1行動停止手段、および第1判断手段によって現在地が含まれるエリアの現在の密集度が許容値未満であると判断したとき、そのまま現在地でコミュニケーション行動を実行する第1行動実行手段を含む。
第2の発明では、行動制御手段(26,62,66,68,220,S35)は、第1行動停止手段(62,66,222,S21)および第1行動実行手段(62,66,212,S19)を含んでいる。そして、現在地が含まれるエリアの密集度が当該エリアに対応する許容値以上であると判断したときに、第1行動停止手段によって、実行しているコミュニケーション行動を停止するように制御する。また、現在地が含まれるエリアの密集度が当該エリアに対応する許容値未満であると判断したときに、第1行動実行手段によって、そのまま現在地でコミュニケーション行動を実行するように制御する。
第3の発明は、第2の発明に従属し、第1判断手段によって現在地が含まれるエリアの現在の密集度が許容値以上であると判断したとき、少なくとも密集度記憶手段に記憶された各エリアの許容値に基づいて、現在地が含まれるエリアの周囲のエリアの中から他のエリアを選択する第1エリア選択手段をさらに備え、第1行動制御手段は、第1行動停止手段によってコミュニケーション行動の実行を停止した後、第1エリア選択手段によって選択した他のエリアに向けて移動し、そのエリア内でコミュニケーション行動を再開する第2行動実行手段をさらに含む。
第3の発明では、コミュニケーションロボット(10)は、第1エリア選択手段(62,66,218,226,S25)を備えている。第1エリア選択手段は、第1判断手段(62,66,88,214,S9,S11)が現在地が含まれるエリアの密集度が当該エリアに対応する許容値以上であると判断したときに、たとえば密集度記憶手段(88)に記憶された各エリアの許容値に基づいて、現在地が含まれるエリアの周囲のエリアの中から他のエリアを選択する。そして、行動制御手段(26,62,66,68,220,S35)は、第1エリア選択手段が他のエリアを選択した後で、第2行動実行手段(26,62,66,68,224,S27,S29)によって、コミュニケーションロボットが他のエリアに向けて移動し、そのエリア内でコミュニケーション行動を再開するように制御する。
第4の発明は、第3の発明に従属し、第1エリア選択手段は、現在地が含まれるエリアの周囲のエリアの中から密集度の許容値が最も高いエリアを選択する。
第4の発明では、第1エリア選択手段(62,66,218,226,S25)は、密集度記憶手段(88)に記憶された各エリアの許容値を参照して、現在地が含まれるエリアの周囲のエリアの中から密集度の許容値が最も高いエリアを選択する。
第5の発明は、第1の発明に従属し、エリアのそれぞれと対応付けて、当該エリアにおける人の流れ度の許容値を記憶する流れ度記憶手段、現在地取得手段によって取得した現在地情報に基づいて、現在地が含まれるエリアの現在の流れ度を取得する流れ度取得手段、および第1判断手段によって現在地が含まれるエリアの現在の密集度が許容値以上であると判断したとき、流れ度記憶手段を参照して、流れ度取得手段によって取得した現在地が含まれるエリアの現在の流れ度が当該エリアに対応する許容値以上か否かを判断する第2判断手段をさらに備え、第1行動制御手段は、第2判断手段によって現在地が含まれるエリアの現在の流れ度が許容値以上であると判断したとき、コミュニケーション行動の実行を停止する第2行動停止手段、および第2判断手段によって現在地が含まれるエリアの現在の流れ度が許容値未満であると判断したとき、そのまま現在地でコミュニケーション行動を実行する第3行動実行手段を含む。
第5の発明では、コミュニケーションロボット(10)は、流れ度記憶手段(90)を備えており、流れ度記憶手段には、環境を1または複数に区分したエリアのそれぞれと対応付けて、流れ度の許容値が記憶される。実施例では、この流れ度の許容値は、予め計測した、各エリアにおける滞留人数の最大値に応じて定められる。また、コミュニケーションロボットは、流れ度取得手段(62,66,84,210,S7)を備えており、移動する際には、流れ度取得手段によって現在地が含まれるエリアの現在の流れ度を取得する。実施例では、各エリアの現在の流れ度は、位置検出システム(100)などを利用して検出する。コミュニケーションロボットは、第1判断手段(62,66,88,214,S9,S11)が現在地が含まれるエリアの密集度が当該エリアに対応する許容値以上であると判断したときに、第2判断手段(62,66,90,216,S15,S17)によって、現在地が含まれるエリアの流れ度が当該エリアに対応する許容値以上か否かを判断する。そして、現在地が含まれるエリアの流れ度が当該エリアに対応する許容値以上であると判断したときに、第2行動停止手段(62,66,222,S21)によって、コミュニケーションロボット(10)が実行しているコミュニケーション行動を停止するように制御する。また、現在地が含まれるエリアの流れ度が当該エリアに対応する許容値未満であると判断したときに、第3行動実行手段(62,66,212,S19)によって、コミュニケーションロボットがそのまま現在地でコミュニケーション行動を実行するように制御する。
第6の発明は、第5の発明に従属し、第2判断手段によって現在地が含まれるエリアの現在の流れ度が許容値以上であると判断したとき、少なくとも密集度記憶手段に記憶された各エリアの許容値に基づいて、現在地が含まれるエリアの周囲のエリアの中から他のエリアを選択する第2エリア選択手段をさらに備え、第1行動制御手段は、第2行動停止手段によってコミュニケーション行動の実行を停止した後、第2エリア選択手段によって選択した他のエリアに向けて移動し、そのエリア内でコミュニケーション行動を再開する第4行動実行手段をさらに含む。
第6の発明では、コミュニケーションロボット(10)は、第2エリア選択手段(62,66,218,226,S25)を備えている。第2エリア選択手段は、第2判断手段(62,66,90,216,S15,S17)が現在地が含まれるエリアの流れ度が当該エリアに対応する許容値以上であると判断したときに、たとえば密集度記憶手段(88)に記憶された各エリアの許容値に基づいて、現在地が含まれるエリアの周囲のエリアの中から他のエリアを選択する。そして、行動制御手段(26,62,66,68,220,S35)は、第2エリア選択手段が他のエリアを選択した後で、第4行動実行手段(26,62,66,68,224,S27,S29)によって、コミュニケーションロボットが他のエリアに向けて移動し、そのエリア内でコミュニケーション行動を再開するように制御する。
第7の発明は、第6の発明に従属し、第2エリア選択手段は、前記現在地が含まれるエリアの周囲のエリアの中から密集度の許容値が最も高いエリアを選択する。
第7の発明では、第2エリア選択手段(62,66,218,226,S25)は、密集度記憶手段(88)に記憶された各エリアの許容値を参照して、現在地が含まれるエリアの周囲のエリアの中から密集度の許容値が最も高いエリアを選択する。
第8の発明は、人と共存する環境に配置され、身体動作および音声の少なくとも一方を用いて人との間でコミュニケーション行動を実行可能なコミュニケーションロボットであって、環境を1または複数のエリアに区分し、エリアのそれぞれと対応付けて、当該エリアにおける人の流れ度の許容値を記憶する流れ度記憶手段、自身の現在地を示す現在地情報を取得する現在地取得手段、現在地取得手段によって取得した現在地情報に基づいて、現在地が含まれるエリアの現在の流れ度を取得する流れ度取得手段、および流れ度記憶手段を参照して、流れ度取得手段によって取得した現在地が含まれるエリアの現在の流れ度が当該エリアに対応する許容値以上か否かを判断する第3判断手段、第3判断手段の判断結果に従って、コミュニケーション行動の実行を制御する第2行動制御手段を備える、コミュニケーションロボットである。
第8の発明では、コミュニケーションロボット(10)は、人と共存する様々な環境に配置され、その環境内を自律的に移動して、受付や道案内などの様々なコミュニケーション行動を実行する。コミュニケーションロボットは、流れ度記憶手段(90)を備え、流れ度記憶手段には、環境を1または複数に区分したエリアのそれぞれと対応付けて、流れ度の許容値が記憶される。また、コミュニケーションロボットは、現在地取得手段(62,66,84,210)、および流れ度取得手段(62,66,210)を備えており、移動する際には、現在地取得手段によって自身の現在地を取得するとともに、流れ度取得手段によって現在地が含まれるエリアの流れ度を取得する。そして、第3判断手段(62,66,90,216)によって、現在地が含まれるエリアの流れ度が当該エリアに対応する許容値以上か否かを判断し、その判断結果に従って、行動制御手段(26,62,66,68,220)によって、コミュニケーション行動の実行を制御する。
第8の発明によれば、第1の発明と同様の効果を奏する。
この発明によれば、自身の現在地が含まれるエリアの密集度や流れ度が当該エリアに対応する許容値以上か否かを判断し、その判断結果に従って、コミュニケーション行動の実行を制御するようにしたため、周囲の人の邪魔にならずにコミュニケーション行動を実行することが可能になる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
この発明の一実施例のコミュニケーションロボットが人と共存する環境を移動する様子を示す図解図である。 図1のコミュニケーションロボットの外観を正面から見た様子を示す図解図である。 図1のコミュニケーションロボットの電気的構成を示すブロック図である。 コミュニケーションロボットが配置される環境を複数のエリアに区分した様子の一例を示す図解図である。 密集度データベースに記憶される各エリアと密集度の許容値との対応関係を表すテーブルの一例を示す図解図である。 流れ度データベースに記憶される各エリアと流れ度の許容値との対応関係を表すテーブルの一例を示す図解図である。 (A)は、位置検出システムの電気的構成を示すブロック図であり、(B)は、位置検出システムが適用された環境の様子を概略的に示す図解図である。 (A)は、コミュニケーションロボットの現在地が含まれるエリアの周囲のエリアの一例を示す図解図であり、(B)は、コミュニケーションロボットが周囲のエリアの中から選択した他のエリアに移動する様子を示す図解図である。 図2に示すメモリのメモリマップの一例を示す図解図である。 図3に示すCPUが実行する全体処理の一例を示すフロー図である。 図10のコミュニケーション行動実行処理の一例を示すフロー図である。
図1を参照して、この発明の一実施例であるコミュニケーションロボット(以下、単に「ロボット」という。)10は、身体動作や発話を用いて人との間でコミュニケーション行動を実行する相互作用指向のロボットであり、イベント会場や街中などの人と共存する様々な環境(場所)に配置される。その環境には、複数の人間が存在する。そして、ロボット10は、そのような環境内を自律的に移動して、受付や道案内などの様々なコミュニケーション行動を実行する。
図2は、ロボット10の外観を示す正面図である。この図2を参照して、ロボット10のハードウェアの構成について説明する。ロボット10は、台車20を含み、この台車20の下面には、ロボット10を自律移動させる2つの車輪22および1つの従輪24が設けられる。2つの車輪22は車輪モータ26(図3参照)によってそれぞれ独立に駆動され、ロボット10を前後左右任意の方向に動かすことができる。また、従輪24は車輪22を補助する補助輪である。このように、ロボット10は、配置された環境内を自由に移動可能なものである。ただし、ロボット10の移動機構は、車輪タイプに限定されず、公知の移動機構を適宜採用でき、たとえば2足歩行タイプの移動機構を採用することもできる。
台車20の上には、円柱形のセンサ取付パネル28が設けられ、このセンサ取付パネル28には、赤外線距離センサ30が取り付けられる。この赤外線距離センサ30は、ロボット10と周囲の物体(人や障害物など)との距離を計測するものである。
また、センサ取付パネル28の上には、胴体32が直立するように設けられる。胴体32の前方中央上部(胸に相当する位置)には、上述した赤外線距離センサ30がさらに設けられる。これは、ロボット10の前方の主として人との距離を計測する。また、胴体32には、1つの全方位カメラ34が設けられる。全方位カメラ34は、たとえば背面側上端部のほぼ中央から延びる支柱36上に設けられる。全方位カメラ34は、ロボット10の周囲を撮影するものであり、後述する眼カメラ60とは区別される。この全方位カメラ34としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ30および全方位カメラ34の設置位置は当該部位に限られず適宜変更され得る。
胴体32の両側面上端部(肩に相当する位置)のそれぞれには、肩関節38Rおよび38Lによって、上腕40Rおよび40Lが設けられる。図示は省略するが、肩関節38Rおよび38Lのそれぞれは、直交する3軸の自由度を有する。すなわち、肩関節38Rは、直交する3軸のそれぞれの軸廻りにおいて上腕40Rの角度を制御できる。肩関節38Rの或る軸(ヨー軸)は、上腕40Rの長手方向に平行な軸であり、他の2軸(ピッチ軸、ロール軸)は、それにそれぞれ異なる方向から直交する軸である。同様に、肩関節38Lは、直交する3軸のそれぞれの軸廻りにおいて上腕40Lの角度を制御できる。肩関節38Lの或る軸(ヨー軸)は、上腕40Lの長手方向に平行な軸であり、他の2軸(ピッチ軸、ロール軸)は、それにそれぞれ異なる方向から直交する軸である。
また、上腕40Rおよび40Lのそれぞれの先端には、肘関節42Rおよび42Lを介して、前腕44Rおよび44Lが設けられる。図示は省略するが、肘関節42Rおよび42Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸廻りにおいて前腕44Rおよび44Lの角度を制御できる。
前腕44Rおよび44Lのそれぞれの先端には、手に相当する球体46Rおよび46L
がそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
また、図示は省略するが、台車20の前面、肩関節38R,38Lを含む肩に相当する部位、上腕40R,40L、前腕44R,44Lおよび球体46R,46Lには、それぞれ、接触センサ(図3で接触センサ48として包括的に示す。)が設けられている。台車20の前面の接触センサ48は、台車20への人や他の障害物の接触を検知する。したがって、ロボット10の移動中に障害物との接触があると、それを検知し、直ちに車輪22の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ48は、主に、人がロボット10の当該各部位に触れたかどうかを検知する。なお、接触センサ48の設置位置はこれらに限定されず、適宜な位置(胸、腹、脇、背中、腰など)に設けられてよい。
胴体32の中央上部(首に相当する位置)には首関節50が設けられ、さらにその上には頭部52が設けられる。図示は省略するが、首関節50は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
頭部52には、口に相当する位置に、スピーカ54が設けられる。スピーカ54は、ロボット10が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。また、耳に相当する位置には、マイク56Rおよび56Lが設けられる。以下、右耳に相当するマイク56Rと左耳に相当するマイク56Lとをまとめて「マイク56」ということがある。マイク56は、周囲の音、とりわけコミュニケーションを実行する対象である人の声を取り込む。さらに、目に相当する位置には、眼球部58Rおよび58Lが設けられる。眼球部58Rおよび58Lは、それぞれ眼カメラ60Rおよび60Lを含む。以下、右の眼球部58Rと左の眼球部58Lとをまとめて「眼球部58」ということがあり、また、右の眼カメラ60Rと左の眼カメラ60Lとをまとめて「眼カメラ60」ということがある。
眼カメラ60は、ロボット10に接近した人の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。眼カメラ60としては、上述した全方位カメラ34と同様のカメラを用いることができる。たとえば、眼カメラ60は眼球部58内に固定され、眼球部58は眼球支持部(図示せず)を介して頭部52内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部52の上へ向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部52の正面側(顔)が向く方向に直交する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部58ないし眼カメラ60の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ54、マイク56および眼カメラ60の設置位置は、これらに限定されず、適宜な位置に設けてられてよい。
図3は、ロボット10の電気的な構成を示すブロック図である。図3に示すように、ロボット10は、全体を制御するCPU62を含む。CPU62は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス64を介して、メモリ66、モータ制御ボード68、センサ入力/出力ボード70および音声入力/出力ボード72等に接続される。
メモリ66は、図示は省略するが、ROMやHDDおよびRAMを含み、詳細は後に説明するように、これらによって図9に示すような保存領域202および一時記憶領域204が実現される。
モータ制御ボード68は、たとえばDSPで構成され、各腕や首関節50および眼球部58などの各軸モータの駆動を制御する。すなわち、モータ制御ボード68は、CPU62からの制御データを受け、右眼球部58Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)74の回転角度を制御する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左眼球部58Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)76の回転角度を制御する。
また、モータ制御ボード68は、CPU62からの制御データを受け、右肩関節38Rの直交する3軸のそれぞれの角度を制御する3つのモータと右肘関節42Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)78の回転角度を調節する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左肩関節38Lの直交する3軸のそれぞれの角度を制御する3つのモータと左肘関節42Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)80の回転角度を調節する。
さらに、モータ制御ボード68は、CPU62からの制御データを受け、首関節50の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)82の回転角度を制御する。さらにまた、モータ制御ボード68は、CPU62からの制御データを受け、車輪22を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。
なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。
センサ入力/出力ボード70もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU62に与える。すなわち、赤外線距離センサ30のそれぞれからの反射時間に関するデータが、センサ入力/出力ボード70を通してCPU62に入力される。また、全方位カメラ34からの映像信号が、必要に応じてセンサ入力/出力ボード70で所定の処理を施された後、CPU62に入力される。眼カメラ60からの映像信号も、同様にして、CPU62に入力される。また、上述した複数の接触センサ48からの信号がセンサ入力/出力ボード70を介してCPU62に与えられる。
音声入力/出力ボード72もまた、同様に、DSPで構成され、CPU62から与えられる音声合成データに従った音声または声がスピーカ54から出力される。また、マイク56からの音声入力が、音声入力/出力ボード56を介してCPU62に取り込まれる。
また、CPU62は、バス64を介して通信LANボード84に接続される。通信LANボード84は、DSPで構成され、CPU62から送られる送信データを無線通信装置86に与え、無線通信装置86から送信データを、たとえば、無線LANのようなネットワークを介して外部コンピュータに送信する。また、通信LANボード84は、無線通信装置86を介してデータを受信し、受信したデータをCPU62に与える。つまり、この
通信LANボード84および無線通信装置86によって、ロボット10は外部コンピュータ(たとえば、位置検出システム100)などと無線通信を行うことができる。
さらに、CPU62は、バス64を介して密集度データベース(DB)88および流れ度DB90に接続される。密集度DB88には、詳細は後に説明するように、エリアのそれぞれと対応付けて、人の集まり具合を示す密集度(人/m2)の許容値が記憶されている。また、流れ度DB90には、詳細は後に説明するように、エリアのそれぞれと対応付けて、人の流れ具合を示す流れ度(人/m2)の許容値が記憶されている。
このような構成のロボット10は、上述のように、人と共存する環境に配置され、環境内を自律的に移動して様々なコミュニケーション行動を実行する。そして、コミュニケーション行動を実行する際には、メモリ66に記憶された地図データ、および内蔵センサや環境に設置されたセンサ(たとえば、位置検出システム100)から送信される情報を参照して、自身の現在地(現在座標)を把握しながらコミュニケーション行動を実行する。
ここで、人と共存する環境においてロボットがコミュニケーション行動を実行すると、周囲の人は少なからず影響を受ける。たとえば、ロボットがコミュニケーション行動を実行すると、そのコミュニケーション行動の対象以外の人がロボットの周囲に集まってくる場合があるが、ロボットの周囲に人が集まるこのような現象は、人が少ない場所や、人の流入がほとんど無い場所においては問題ないが、人が多い場所や、人の流入が著しい場所においては、周囲の人の行動を妨げてしまうこととなる。
そこで、この実施例では、ロボット10が周囲の人の邪魔にならないようにコミュニケーション行動を実行できるように、ロボット10が配置される環境(つまりロボット10の移動領域)を複数のエリアに区分(分割)して、エリアのそれぞれと対応付けて、人の集まり具合や流れ具合の許容範囲(限界)を示す許容値を予め記憶しておく。
なお、人の集まり具合を示す情報としては、たとえば、エリア内に何人の人が滞在しているかを単位面積当りで計測した密集度(人/m2)が用いられる。また、人の流れ具合を示す情報としては、たとえば、所定時間(たとえば、10秒間)の間にエリア内に入った人の総数から出た人の総数をひいた値(流入人数−流出人数;つまり滞留した人数)を単位面積当りで計測した流れ度(人/m2)が用いられる。
そして、ロボット10は、自身の現在地が含まれるエリアの密集度や流れ度が当該エリアに対応する許容値以上であるか否を判断し、その判断結果に従って、コミュニケーション行動の実行を制御するようにしている。以下、具体的に説明する。
図4に、ロボット10が配置される環境を複数のエリアに区分した様子の一例を示す。この環境においては、グリッド線(破線)で囲まれた部分が1つのエリアを示しており、A1からA53までの53のエリアに環境が区分されている。このようなエリアに関する情報を含む地図データは、たとえばXY2次元平面座標系で表され、上述のようにメモリ66に記憶される。
なお、ロボット10が配置される環境の区分の仕方、すなわちエリアの大きさ、数および形状などは、適用する環境やロボット10が提供するサービスなどに応じて適宜設定される。この実施例では、一例として、A1からA41、A43からA47、およびA49からA52までのエリアを縦5m×横5m程度の正方形状に区分するとともに、A42、A48、およびA53のエリアを不定形状に区分している。このような環境の区分は、ロボット10の開発者や管理者が手動で詳細に設定するようにしてもよいし、k−means法などを利用して自動的に設定するようにしてもよい。
そして、このように複数のエリアに区分した環境において、たとえば、ロボット10を配置する前に(つまり、ロボット10がいない状況で)、数時間から数日の所定時間、各エリアの単位面積当たりの滞在人数を計測し、エリアのそれぞれと対応付けて、エリア毎の滞在人数の最大値を密集度(人/m2)の許容値として、密集度DB88に記憶しておく。
また、同じように、ロボット10を配置する前に、数時間から数日の所定時間、各エリアの単位面積当たりの滞留人数を計測し、エリアのそれぞれと対応付けて、エリア毎の滞留人数の最大値を流れ度(人/m2)の許容値として、流れ度DB90に記憶しておく。
図5には、密集度DB88に記憶される、各エリアと密集度の許容値との対応関係を表すテーブルの一例を示す。図5を参照すると、エリアA1の密集度の許容値は、1(人/m2)に設定され、エリアA2の密集度の許容値は、2.2(人/m2)に設定され、エリアA3の密集度の許容値は、0.3(人/m2)に設定されていることが分かる。
また、図6には、流れ度DB90に記憶される、各エリアと流れ度の許容値との対応関係を表すテーブルの一例を示す。図6を参照すると、エリアA1の流れ度の許容値は、0.8(人/m2)に設定され、エリアA2の流れ度の許容値は、1.5(人/m2)に設定され、エリアA3の流れ度の許容値は、0.1(人/m2)に設定されていることが分かる。
なお、エリア毎の密集度や流れ度を計測する際には、たとえばレーザレンジファインダ(LRF)等の環境センサを用いた位置検出システム100を利用することができる。以下、位置検出システム100について説明するが、LRFを用いた移動物体の位置検出については、この発明者らが先に出願した特開2009−168578号公報に詳細が開示されているので、参照されたい。
図6を参照して、位置検出システム100は、汎用のコンピュータ102と、計測区域が重なるように環境に設置される複数のLRF104とを含み、LRF104を利用して人をセンシングすることで、環境内に存在する移動物体(つまり、ロボット10や人)の位置を検出する。
LRF104は、レーザを照射し、物体に反射して戻ってくるまでの時間から当該物体までの距離を計測するセンサであり、たとえば、トランスミッタから照射したレーザを回転ミラーで反射させて、前方を扇状に一定角度ずつスキャンする。LRF104としては、SICK社製のLRF(型式 LMS 200)や、HOKUYO社製のLRF(型式 UTM‐30LX)等を用いることができる。
位置検出システム100では、コンピュータ102がLRF104からの出力(距離データ)に基づいて、パーティクルフィルタを用いて、人の現在位置の変化を推定する。たとえば、LRF104によってスキャンされると、人が存在しない可視区域、人が存在する陰区域および人のエッジが検出される。また、実空間に対応する仮想空間に対してパーティクルを均等にばら撒き、LRF104毎に尤度を求める。さらに、LRF104毎の尤度を統合することで、各パーティクルが更新される。そして、更新された各パーティクルによって人の現在位置の変化が推定される。なお、尤度は、可視区域では一定値とし、陰区域では一定値とエッジの尤度との和となる。このようにして推定された現在位置の変化に基づいて、エリア毎の現在の滞在人数や滞留人数を求める。そして、たとえば、エリア毎の現在の滞在人数や滞留人数を単位面積当りで算出することによって、各エリアの密集度や流れ度が算出される。
ただし、上述の位置検出システム100では、LRF104を用いて移動物体(つまり、ロボット10や人)の位置を検出するようにしたが、LRF104に代えて超音波距離センサやミリ波レーダなどを用いて、移動物体の位置を検出してもよい。また、環境に設置した無線IDタグリーダ、床センサおよび天井カメラ等を適宜用いることもできる。
ロボット10の説明に戻って、ロボット10は、コミュニケーション行動を実行する際には、一定時間(たとえば、60秒)ごとに、自身の現在地が含まれるエリア(現在エリア)の密集度や流れ度を取得する。そして、その現在エリアの密集度が当該エリアに対応する許容値未満であると判断したときに、そのまま現在エリア内でコミュニケーション行動を実行する。
一方、ロボット10は、現在エリアの密集度が当該エリアに対応する許容値以上であると判断したときには、さらに、現在エリアの流れ度が当該エリアに対応する許容値以上であるか否かを判断する。そして、たとえば、現在エリアの流れ度が当該エリアに対応する許容値未満であると判断したときに、そのまま現在地でコミュニケーション行動を実行する。
また、現在エリアの流れ度が当該エリアに対応する許容値以上であると判断したときは、コミュニケーション行動の実行を一旦停止し、所定の条件で現在エリアの周囲のエリアの中から他のエリアを選択する。なお、ここでいう“周囲のエリア”とは、図8(A)に示すように、たとえばロボット10が見渡せる範囲、具体的には、ロボット10を中心として半径5m程度の範囲に含まれるエリアを示している。そして、周囲のエリアの中から他のエリアを選択した後で、図8(B)に示すように、そのエリアに向けて移動し、そのエリア内でコミュニケーション行動を再開する。
続いて、フロー図を用いてロボット10の動作を説明する。ロボット10は、図10および図11に示すフロー図に従って全体処理を実行する。図7を参照して、CPU62は、たとえばロボット10が提供すべきサービスが発生すると(つまり、ロボット10がコミュニケーション行動を実行すると)、この全体処理を開始する。
なお、図10および図11のフロー図に対応するプログラムは、ロボット10のメモリ66に記憶されている。ここで、図9は、図3に示すメモリ66のメモリマップ200の一例を示す図解図である。
図9に示すように、メモリ66には、保存領域202、および一時記憶領域204が形成され、保存領域202には、通信制御プログラム210、行動実行プログラム212、密集度判断プログラム214、流れ度判断プログラム216、エリア選択プログラム218、行動制御プログラム220および地図情報226などが記憶される。通信制御プログラム210は、ロボット10が外部コンピュータ(たとえば、位置検出システム100)との間でネットワークを介して必要な情報を送受信するための通信プログラム等である。行動実行プログラム212は、ロボット10が人との間でコミュニケーションを実行するためのプログラムやデータ等である。密集度判断プログラム214は、ロボット10の現在エリアの密集度が当該エリアに対応する許容値以上であるか否かを判断するためのプログラムやデータ等である。流れ度判断プログラム216は、ロボット10の現在エリアの流れ度が当該エリアに対応する許容値以上であるか否かを判断するプログラムやデータ等である。エリア選択プログラム218は、ロボット10の現在エリアの周囲のエリアの中から他のエリアを選択するためのプログラムやデータ等である。また、行動制御プログラム220は、ロボット10の現在エリアの密集度や流れ度に基づいて、ロボット10のコミュニケーション行動の実行や停止を制御するためのプログラムであり、行動制御プログラム220には、各判断プログラム214、216の判断結果に基づいてコミュニケーション行動を停止するように制御する行動停止プログラム222、およびエリア選択プログラム220によって選択されたエリアに移動してコミュニケーション行動を再開するように制御する行動再開プログラム224が含まれている。さらに、地図情報226は、配置される環境を複数のエリアに区分したエリア情報を含む環境の地図データ等である。
また、一時記憶領域204には、現在位置データバッファ230、密集度データバッファ232、流れ度データバッファ234、許容値データバッファ236が設けられる。位置データバッファ130は、位置検出システム100から受信(取得)した情報であり、ロボット10の現在地を示す現在地情報を一時的に記憶するためのバッファである。密集度データバッファ232は、位置検出システム100から受信(取得)した、ロボット10の現在エリアの密集度を示す情報を一時的に記憶するためのバッファである。流れ度データバッファ234は、位置検出システム100から受信(取得)した、ロボット10の現在エリアの流れ度を示す情報を一時的に記憶するためのバッファである。許容値データバッファ236は、密集度DB88から読み出した密集度の許容値を示す情報や流れ度DB90から読み出した流れ度の許容値を示す情報を一時的に記憶するためのバッファである。
さて、図10に示すように、ロボット10(のCPU62)は、全体処理を開始すると、ステップS1で、全体処理を終了するか否かを判断する。ここでは、目的地に到着する等して一連のサービス(コミュニケーション行動)が終了したか、外部コンピュータ等から停止命令があったかどうか等を判断する。
ステップS1で“YES”の場合、すなわち一連のサービスが終了した場合などには、続くステップS3で終了処理を実行して、全体処理を終了する。この終了処理では、ロボット10の体の各部位をそれぞれのホームポジションに戻すようにしてもよい。
一方、ステップS1で“NO”の場合には、処理はステップS5に進む。そして、ステップS5では、自身の現在地を示す現在地情報を取得する。具体的には、メモリ66に記憶された地図情報226、および内蔵センサや環境に設置されたセンサ(たとえば、位置検出システム100)から送信される情報を参照して、自身の現在地(現在座標)を算出する。
続くステップS7では、ロボット10の現在地が含まれるエリア(現在エリア)の現在の密集度および流れ度を取得する。ここで、位置検出システム100では、コンピュータ102が、複数のエリアに区分したエリア情報を含む環境の地図データ、およびロボット10の現在座標に基づいて、ロボット10の現在地が含まれるエリア(現在エリア)を特定し、その現在エリアの密集度および流れ度を計測して、ネットワークを介してロボット10に送信する。よって、ステップS7では、CPU62が、位置検出システム100から送信される情報を参照して、ロボット10の現在エリアの密集度および流れ度を取得する。そして、これらのデータを、メモリ22の密集度データバッファ232(図9)ないし流れ度データバッファ234(図9)に一時的に保存する。なお、このような密集度および流れ度取得動作は、上述したように、たとえば60秒に1回、実行され得る。
そして、ステップS9で、ロボット10の現在エリアに対応する許容値を密集度DB88から読み出し、ステップS11で、ロボット10の現在エリアの密集度が当該エリアに対応する許容値以上であるか否かを判断する。
ステップS11で“YES”の場合、すなわちロボット10の現在エリアの密集度が当該エリアに対応する許容値以上である場合には、ステップS13に進み、ステップS13で、コミュニケーション行動の制御処理(図11参照)を開始する。
一方、ステップS11で“NO”の場合、すなわちロボット10の現在エリアの密集度が当該エリアに対応する許容値未満である場合には、処理はステップS15に進む。そして、ステップS15で、ロボット10の現在エリアに対応する許容値を流れ度DB88から読み出し、ステップS17で、ロボット10の現在エリアの流れ度が当該エリアに対応する許容値以上であるか否かを判断する。
ステップS17で“YES”の場合、すなわちロボット10の現在エリアの流れ度が当該エリアに対応する流れ度の許容値以上である場合には、ステップS13に進み、ステップS13で、コミュニケーション行動の制御処理(図11参照)を開始する。
一方、ステップS17で“NO”の場合、すなわちロボット10の現在エリアの流れ度が当該エリアに対応する流れ度の許容値未満である場合には、処理はステップS19に進む。
次に、ステップS19で、ロボット10がそのまま現在地でコミュニケーション行動を実行するように制御して、ステップS1に戻り、ステップS1で、全体処理を終了するか否かを繰り返し判断する。
図11は、図10に示したステップS13の、コミュニケーション行動の制御処理である。
図11に示すように、サーバ12はコミュニケーション行動の制御処理を開始すると、ステップS21で、ロボット10が現在実行中のコミュニケーション行動を停止するように制御する。
そして、ステップS23で、ロボット10が所定のコミュニケーション行動を実行するように制御する。一例を挙げると、所定のコミュニケーション行動には、たとえば「いっぱいになってきたからちょっと移動するよ」と発話するもの等が設定され得る。具体的には、メモリ66の行動実行プログラム212から所定のコミュニケーション行動に対応する実行情報を読み出して、その実行情報を音声入力/出力ボード110に送信して、「いっぱいになってきたからちょっと移動するよ」という音声または声がスピーカ54から出力されるように制御する。
次に、ステップS25で、ロボット10の現在エリアの周囲のエリアから、所定の条件で他のエリアを選択する。この実施例では、密集度DB88を参照して、ロボット10の現在エリアの周囲のエリアの中から、最も許容値が高いエリアを選択する。
続くステップS27では、ステップS25で選択したエリアに移動する。ここでは、メモリ66に記憶された地図情報226を参照して、ステップS25で選択したエリアの座標(x,y)をモータ制御ボード68に対して送信し、そのエリアまで移動する(つまり、そのエリアまで周囲の人間を誘導する)。
ステップS27を終了すると、すなわち、ステップS25で選択したエリアに到着すると、たとえば「つきましたよ」と発話し、ステップS29で、ステップS21で停止したコミュニケーション行動を再開する。ここでは、停止したコミュニケーション行動を続きから再開するのではなく、そのコミュニケーション行動を最初から実行し直すようにしてもよい。そして、図10のステップS1に戻り、ステップS1で、全体処理を終了するか否かを繰り返し判断する。
このように、この実施例では、環境を区分したエリアのそれぞれに対応付けて、密集度や流れ度の許容値が予め設定される。そして、ロボット10は、コミュニケーション行動を実行する際に、自身の現在地が含まれるエリアの密集度や流れ度が当該エリアに対応する許容値以上か否かを判断し、その判断結果に従って、コミュニケーション行動の実行や停止を制御する。
つまり、この実施例によれば、ロボット10が自身の周囲の混雑状況をリアルタイムで確認しながらコミュニケーション行動を実行することが可能になるので、周囲に人が行き交うような環境であっても、周囲の人の行動を妨げることなくコミュニケーション行動を実行できる。
なお、上述の実施例では、各エリアの滞在人数をロボット10がいない状況で一定期間計測し、エリア毎の単位面積当たりの滞在人数の最大値を密集度(人/m2)の許容値としたが、これに限定される必要はない。エリア毎の単位面積当たりの滞在人数の最大値の代わりに、或るエリアにおける単位面積当たりの滞在人数の平均値をa、標準偏差をαとしたときのa±3α(所謂、99%値)を、当該エリアにおける密集度の許容値として採用するようにしてもよい。
また、上述の実施例では、ロボット10は、自身の現在エリアの密集度が当該エリアに対応する許容値以上であるときに、当該エリアの周囲のエリアの中から、最も密集度の許容値が高い他のエリアを選択し、そのエリアに移動してコミュニケーション行動を再開したが、これに限定される必要はない。
たとえば、予め密集度の許容値に閾値を設定しておき、密集度の許容値が閾値を超えている場合には、密集度の許容値の代わりに、または密集度の許容値に加えて、自身の現在地からエリアまでの距離(つまり、移動距離)を参酌して、エリアを選択するようにしてもよい。
また、エリアのそれぞれと対応付けて、当該エリアにおける優先度を記憶した情報をテーブルなどで記憶しておき、密集度の許容値が閾値を超えている場合には、密集度の許容値の代わりに、または密集度の許容値に加えて、優先度のテーブルデータを参酌して、エリアを選択するようにしてもよい。一例を挙げると、たとえば、環境がショッピングモールである場合などに運営者が入り口から遠いエリアに顧客を誘導することを希望していれば、入り口から遠いエリアに高い優先度を設定し、入り口から近いエリアに低い優先度を設定するなどが考えられる。
さらにまた、密集度の許容値が閾値を超えている場合には、密集度の許容値の代わりに、または密集度の許容値に加えて、環境内に存在する他のロボット10の活動状況を参酌して、エリアを選択するようにしてもよい。一例を挙げると、たとえば、運営者がロボット10どうしを離れたエリアに配置することを希望していれば、ロボット10どうしが互いに離れる方向のエリアに移動するように設定するなどが考えられる。
なお、上記のいずれにおいても、密集度の許容値の代わりに、または密集度の許容値に加えて、流れ度の許容値を採用するようにしてもよいことは言うまでもない。
また、上述の実施例では、ロボット10は、コミュニケーション行動の実行を停止した後、現在エリアの周囲のエリアから他のエリアを選択して移動して、そのエリアでコミュニケーション行動を再開したが、これに限定される必要はない。コミュニケーション行動の実行を停止した後、そのまま現在エリアで待機して、当該エリアの密集度ないし流れ度が許容値未満になったときにコミュニケーション行動を再開するようにしてもよい。この場合には、コミュニケーション行動の実行を停止する前に、ロボット10に「いっぱいになってきたから、一旦中断するよ」などと発話させるようにすると好適である。
さらに、上述の実施例では、ロボット10は、先ず、自身の現在エリアの密集度が当該エリアに対応する許容値以上であるか否かを判断し、その後で、その現在エリアの流れ度が当該エリアに対応する許容値以上であるか否かを判断し、そして、最終的に、現在エリアの流れ度が当該エリアに対応する許容値以上であると判断したときに、コミュニケーション行動の実行を停止したが、これに限定される必要はない。
たとえば、先ず、ロボット10の現在エリアの流れ度が当該エリアに対応する許容値以上であるか否かを判断し、その後で、その現在エリアの密集度が当該エリアに対応する許容値以上であるか否かを判断し、そして、最終的に、現在エリアの密集度が当該エリアに対応する許容値以上であると判断したとき、コミュニケーション行動の実行を停止するようにしてもよい。
また、ロボット10の現在エリアの密集度が当該エリアに対応する許容値以上であるか否かを判断し、その現在エリアの密集度が当該エリアに対応する許容値以上であると判断したときに、コミュニケーション行動の実行を停止するようにしてもよい。
さらに、ロボット10の現在地エリアの流れ度が当該エリアに対応する許容値以上であるか否かを判断し、その現在エリアの流れ度が当該エリアに対応する許容値以上であると判断したときに、コミュニケーション行動の実行を停止するようにしてもよい。
さらにまた、上述の実施例では、位置検出システム100のコンピュータ102が、地図データ、およびロボット10の現在座標に基づいて、当該ロボット10の現在エリアを特定し、その現在エリアの密集度および流れ度を計測した。そして、ロボット10は、位置検出システム100から送信される情報を参照することによって、自身の現在エリアの密集度を取得したが、これに限定される必要はない。
上記のような現在エリア特定処理は、ロボット10側で行ってもよい。また、一旦、ロボット10が全エリアの現在の密集度を位置検出システム100から取得して、それをメモリ66の密集度データバッファ232(図9)に一時的に保存した後、その中から自身の現在座標に基づいて現在エリアの密集度を抽出するようにしてもよい。
なお、上述した時間や距離等の具体的数値は、いずれも単なる一例であり、必要に応じて適宜変更可能である。
10 …コミュニケーションロボット
62 …CPU
66 …メモリ
88 …密集度データベース
90 …流れ度データベース
100 …位置検出システム
102 …コンピュータ
104 …レーザレンジファインダ

Claims (8)

  1. 人と共存する環境に配置され、身体動作および音声の少なくとも一方を用いて人との間でコミュニケーション行動を実行可能なコミュニケーションロボットであって、
    前記環境を1または複数のエリアに区分し、前記エリアのそれぞれと対応付けて、当該エリアにおける人の密集度の許容値を記憶する密集度記憶手段、
    自身の現在地を示す現在地情報を取得する現在地取得手段、
    前記現在地取得手段によって取得した現在地情報に基づいて、前記現在地が含まれるエリアの現在の密集度を取得する密集度取得手段、および
    前記密集度記憶手段を参照して、前記密集度取得手段によって取得した前記現在地が含まれるエリアの現在の密集度が当該エリアに対応する許容値以上か否かを判断する第1判断手段、
    前記第1判断手段の判断結果に従って、コミュニケーション行動の実行を制御する第1行動制御手段を備える、コミュニケーションロボット。
  2. 前記第1行動制御手段は、
    前記第1判断手段によって前記現在地が含まれるエリアの現在の密集度が許容値以上であると判断したとき、コミュニケーション行動の実行を停止する第1行動停止手段、および
    前記第1判断手段によって前記現在地が含まれるエリアの現在の密集度が許容値未満であると判断したとき、そのまま前記現在地でコミュニケーション行動を実行する第1行動実行手段を含む、請求項1記載のコミュニケーションロボット。
  3. 前記第1判断手段によって前記現在地が含まれるエリアの現在の密集度が許容値以上であると判断したとき、少なくとも前記密集度記憶手段に記憶された各エリアの許容値に基づいて、前記現在地が含まれるエリアの周囲のエリアの中から他のエリアを選択する第1エリア選択手段をさらに備え、
    前記第1行動制御手段は、前記第1行動停止手段によってコミュニケーション行動の実行を停止した後、前記第1エリア選択手段によって選択した他のエリアに向けて移動し、そのエリア内でコミュニケーション行動を再開する第2行動実行手段をさらに含む、請求項2記載のコミュニケーションロボット。
  4. 前記第1エリア選択手段は、前記現在地が含まれるエリアの周囲のエリアの中から密集度の許容値が最も高いエリアを選択する、請求項3記載のコミュニケーションロボット。
  5. 前記エリアのそれぞれと対応付けて、当該エリアにおける人の流れ度の許容値を記憶する流れ度記憶手段、
    前記現在地取得手段によって取得した現在地情報に基づいて、前記現在地が含まれるエリアの現在の流れ度を取得する流れ度取得手段、および
    前記第1判断手段によって前記現在地が含まれるエリアの現在の密集度が許容値以上であると判断したとき、前記流れ度記憶手段を参照して、前記流れ度取得手段によって取得した前記現在地が含まれるエリアの現在の流れ度が当該エリアに対応する許容値以上か否かを判断する第2判断手段をさらに備え、
    前記第1行動制御手段は、
    前記第2判断手段によって前記現在地が含まれるエリアの現在の流れ度が許容値以上であると判断したとき、コミュニケーション行動の実行を停止する第2行動停止手段、および
    前記第2判断手段によって前記現在地が含まれるエリアの現在の流れ度が許容値未満であると判断したとき、そのまま前記現在地でコミュニケーション行動を実行する第3行動実行手段を含む、請求項1記載のコミュニケーションロボット。
  6. 前記第2判断手段によって前記現在地が含まれるエリアの現在の流れ度が許容値以上であると判断したとき、少なくとも前記密集度記憶手段に記憶された各エリアの許容値に基づいて、前記現在地が含まれるエリアの周囲のエリアの中から他のエリアを選択する第2エリア選択手段をさらに備え、
    前記第1行動制御手段は、前記第2行動停止手段によってコミュニケーション行動の実行を停止した後、前記第2エリア選択手段によって選択した他のエリアに向けて移動し、そのエリア内でコミュニケーション行動を再開する第4行動実行手段をさらに含む、請求項5記載のコミュニケーションロボット。
  7. 前記第2エリア選択手段は、前記現在地が含まれるエリアの周囲のエリアの中から密集度の許容値が最も高いエリアを選択する、請求項6記載のコミュニケーションロボット。
  8. 人と共存する環境に配置され、身体動作および音声の少なくとも一方を用いて人との間でコミュニケーション行動を実行可能なコミュニケーションロボットであって、
    前記環境を1または複数のエリアに区分し、前記エリアのそれぞれと対応付けて、当該エリアにおける人の流れ度の許容値を記憶する流れ度記憶手段、
    自身の現在地を示す現在地情報を取得する現在地取得手段、
    前記現在地取得手段によって取得した現在地情報に基づいて、前記現在地が含まれるエリアの現在の流れ度を取得する流れ度取得手段、および
    前記流れ度記憶手段を参照して、前記流れ度取得手段によって取得した前記現在地が含まれるエリアの現在の流れ度が当該エリアに対応する許容値以上か否かを判断する第3判断手段、
    前記第3判断手段の判断結果に従って、コミュニケーション行動の実行を制御する第2行動制御手段を備える、コミュニケーションロボット。
JP2011025976A 2011-02-09 2011-02-09 コミュニケーションロボット Active JP5732633B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011025976A JP5732633B2 (ja) 2011-02-09 2011-02-09 コミュニケーションロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011025976A JP5732633B2 (ja) 2011-02-09 2011-02-09 コミュニケーションロボット

Publications (2)

Publication Number Publication Date
JP2012161901A true JP2012161901A (ja) 2012-08-30
JP5732633B2 JP5732633B2 (ja) 2015-06-10

Family

ID=46841833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011025976A Active JP5732633B2 (ja) 2011-02-09 2011-02-09 コミュニケーションロボット

Country Status (1)

Country Link
JP (1) JP5732633B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109709947A (zh) * 2017-10-26 2019-05-03 株式会社日立大厦系统 机器人管理系统
KR20220058741A (ko) * 2020-10-30 2022-05-10 한국전자기술연구원 로봇 주행 방법 및 이를 지원하는 시스템
CN114516061A (zh) * 2022-02-25 2022-05-20 杭州萤石软件有限公司 一种机器人控制方法、机器人系统及一种机器人
US20220308590A1 (en) * 2021-03-24 2022-09-29 Toyota Jidosha Kabushiki Kaisha Traveling apparatus, control method, and non-transitory computer readable medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006263873A (ja) * 2005-03-24 2006-10-05 Advanced Telecommunication Research Institute International コミュニケーションロボットシステムおよびコミュニケーションロボット
JP2006263874A (ja) * 2005-03-24 2006-10-05 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2007196300A (ja) * 2006-01-24 2007-08-09 Advanced Telecommunication Research Institute International ロボット制御システム
JP2008055578A (ja) * 2006-09-01 2008-03-13 Fujitsu Ltd 情報提供ロボットおよびロボットを用いた情報提供方法
JP2008132568A (ja) * 2006-11-28 2008-06-12 Fujitsu Ltd 案内ロボットの制御方法、システム、制御装置、案内ロボット、および案内ロボット制御プログラム
JP2009168578A (ja) * 2008-01-15 2009-07-30 Advanced Telecommunication Research Institute International 計測装置および計測方法
US20100138038A1 (en) * 2008-11-28 2010-06-03 Samsung Electronics Co., Ltd. Robot and method of controlling the same
US20120061155A1 (en) * 2010-04-09 2012-03-15 Willow Garage, Inc. Humanoid robotics system and methods
JP2012139798A (ja) * 2011-01-05 2012-07-26 Advanced Telecommunication Research Institute International 移動ロボット、移動ロボット用の学習システムおよび移動ロボットの行動学習方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006263873A (ja) * 2005-03-24 2006-10-05 Advanced Telecommunication Research Institute International コミュニケーションロボットシステムおよびコミュニケーションロボット
JP2006263874A (ja) * 2005-03-24 2006-10-05 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2007196300A (ja) * 2006-01-24 2007-08-09 Advanced Telecommunication Research Institute International ロボット制御システム
JP2008055578A (ja) * 2006-09-01 2008-03-13 Fujitsu Ltd 情報提供ロボットおよびロボットを用いた情報提供方法
JP2008132568A (ja) * 2006-11-28 2008-06-12 Fujitsu Ltd 案内ロボットの制御方法、システム、制御装置、案内ロボット、および案内ロボット制御プログラム
JP2009168578A (ja) * 2008-01-15 2009-07-30 Advanced Telecommunication Research Institute International 計測装置および計測方法
US20100138038A1 (en) * 2008-11-28 2010-06-03 Samsung Electronics Co., Ltd. Robot and method of controlling the same
US20120061155A1 (en) * 2010-04-09 2012-03-15 Willow Garage, Inc. Humanoid robotics system and methods
JP2012139798A (ja) * 2011-01-05 2012-07-26 Advanced Telecommunication Research Institute International 移動ロボット、移動ロボット用の学習システムおよび移動ロボットの行動学習方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109709947A (zh) * 2017-10-26 2019-05-03 株式会社日立大厦系统 机器人管理系统
JP2019079419A (ja) * 2017-10-26 2019-05-23 株式会社日立ビルシステム ロボット管理システム
CN109709947B (zh) * 2017-10-26 2021-11-16 株式会社日立大厦系统 机器人管理系统
KR20220058741A (ko) * 2020-10-30 2022-05-10 한국전자기술연구원 로봇 주행 방법 및 이를 지원하는 시스템
KR102565568B1 (ko) * 2020-10-30 2023-08-14 한국전자기술연구원 로봇 주행 방법 및 이를 지원하는 시스템
US20220308590A1 (en) * 2021-03-24 2022-09-29 Toyota Jidosha Kabushiki Kaisha Traveling apparatus, control method, and non-transitory computer readable medium
US12050466B2 (en) * 2021-03-24 2024-07-30 Toyota Jidosha Kabushiki Kaisha Traveling apparatus, control method, and non-transitory computer readable medium
JP7533304B2 (ja) 2021-03-24 2024-08-14 トヨタ自動車株式会社 走行装置、制御方法及びプログラム
CN114516061A (zh) * 2022-02-25 2022-05-20 杭州萤石软件有限公司 一种机器人控制方法、机器人系统及一种机器人
CN114516061B (zh) * 2022-02-25 2024-03-05 杭州萤石软件有限公司 一种机器人控制方法、机器人系统及一种机器人

Also Published As

Publication number Publication date
JP5732633B2 (ja) 2015-06-10

Similar Documents

Publication Publication Date Title
JP5324286B2 (ja) ネットワークロボットシステム、ロボット制御装置、ロボット制御方法およびロボット制御プログラム
JP5617562B2 (ja) 移動ロボット
JP5764795B2 (ja) 移動ロボット、移動ロボット用の学習システムおよび移動ロボットの行動学習方法
JP5747191B2 (ja) 移動体遠隔操縦システムおよびそのための制御プログラム
JP4560078B2 (ja) コミュニケーションロボット
JP5366048B2 (ja) 情報提供システム
JP6069606B2 (ja) ロボット制御システムおよびロボット制御方法
JP6134895B2 (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP2007260822A (ja) 道案内ロボット
US20190184569A1 (en) Robot based on artificial intelligence, and control method thereof
JP2010231359A (ja) 遠隔操作装置
JP7095220B2 (ja) ロボット制御システム
JP2007222968A (ja) コミュニケーションロボット
JP6134894B2 (ja) ロボット制御システムおよびロボット
JP5732633B2 (ja) コミュニケーションロボット
JP2018173707A (ja) 人推定システムおよび推定プログラム
JP2015066621A (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP2020004182A (ja) ロボット、ロボット制御プログラムおよびロボット制御方法
JP2017170568A (ja) サービス提供ロボットシステム
JP2011000656A (ja) 案内ロボット
JP2012203646A (ja) 流れ状態判別装置、流れ状態判別方法、流れ状態判別プログラムおよびそれらを用いたロボット制御システム
JP5552710B2 (ja) ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法
JP6142307B2 (ja) 注目対象推定システムならびにロボットおよび制御プログラム
JP5115886B2 (ja) 道案内ロボット
JP6142306B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150302

R150 Certificate of patent or registration of utility model

Ref document number: 5732633

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250