Nothing Special   »   [go: up one dir, main page]

JP2017514709A - 自律的生活能力を備えた人型ロボット - Google Patents

自律的生活能力を備えた人型ロボット Download PDF

Info

Publication number
JP2017514709A
JP2017514709A JP2016562860A JP2016562860A JP2017514709A JP 2017514709 A JP2017514709 A JP 2017514709A JP 2016562860 A JP2016562860 A JP 2016562860A JP 2016562860 A JP2016562860 A JP 2016562860A JP 2017514709 A JP2017514709 A JP 2017514709A
Authority
JP
Japan
Prior art keywords
robot
activities
activity
person
humanoid robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016562860A
Other languages
English (en)
Other versions
JP6396495B2 (ja
Inventor
ベルトロップ,テイラー
メゾニエ,ブリュノ
モンソー,ジェローム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aldebaran SAS
Original Assignee
SoftBank Robotics Europe SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Robotics Europe SAS filed Critical SoftBank Robotics Europe SAS
Publication of JP2017514709A publication Critical patent/JP2017514709A/ja
Application granted granted Critical
Publication of JP6396495B2 publication Critical patent/JP6396495B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0006Exoskeletons, i.e. resembling a human figure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39254Behaviour controller, robot have feelings, learns behaviour
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明は、特に、人がいる場合を判定するために、且つ人の要望の評価に対応して前記人とのアクティビティに従事するために、自らの環境を調査できる人型ロボットに関する。ロボットのオペレーティングシステムは、エクストラクタ(センサ及び処理機能)によって受信された情報を処理するように、現在条件及び人との関与の履歴の関数として優先順位付けされるアクティビティ(ジェスチャ、ダイアログ等)をリストするように、どのアクティビティが開始されるべきかを決定するように、且つアクチュエータにアクティビティを実行させるように、ロボットにおいて構成される。ロボットのセーフガード条件もまた、実行されるアクティビティのリストにおいて考慮される。

Description

本発明は、ロボットプログラミングシステムの分野に関する。より具体的には、本発明は、関節肢で動き回るか又はそれらを用いるロボット、特に人又は動物の形態のロボットの振る舞い及び動きを編集及び制御することに適用される。
ロボットは、それが人の或る外観属性、即ち頭、胴体、2つの腕、2つの手等を有する瞬間から、人型としての資格を与えられ得る。しかしながら、人型ロボットは、多かれ少なかれ洗練され得る。その肢は、より多数又は少数の関節を有してもよい。それは、それ自体のバランスを静的又は動的に制御し、且つ恐らく三次元において二肢で歩くか又は単にベースで転がってもよい。それは、環境からの信号(「聞く」「見る」「触れる」「感じる」等)を拾い上げて、多かれ少なかれ洗練された振る舞いに従って反応し、スピーチ又はジェスチャによって他のロボット又は人と交流してもよい。現世代の人型ロボット用に、プログラマは、シナリオを作成することができ、シナリオは、ロボットによって対応され/実行されるイベント/行動のシーケンスとして多かれ少なかれ洗練させることができる。これらの行動は、ロボットと交流する人々の或る振る舞いを条件とする場合がある。しかし、第1世代のこれらの人型ロボットにおいて、アプリケーションプログラミングは、開発ツールキットにおいて行われ、各アプリケーションは、イベントを引き起こすことによって開始される必要があり、イベントの発生は、アプリケーションに含まれていた。
従って、ロボットが展開している環境に依存して、決定された方法で振る舞うことができる、人が行うような「自律的生活」を送り得る人型ロボットの必要性が存在する。本発明の目的は、プログラマのどんな介入もなしに、ロボットが展開している状況に適合された自らの生活シーケンスを自律的に決定できるロボットを提供することによって、先行技術のロボットの限界を克服することである。
この趣旨で、本発明は、ロボットにより実行するためのアクティビティを検索及び格納するための処理機能に接続されたメモリであって、アクティビティが、ロボットの予めプログラムされた振る舞い及び前記振る舞いの開始条件を備えたマニフェストファイルのペアから構成されたメモリと、状況、イベント、及びロボットを囲む場面にいる人との交流の1つ又は複数を特徴付ける画像、音声、接触及び慣性信号のエクストラクタと、光信号、表示される情報、音声、スピーチ、運動の1つ又は複数の行動のアクチュエータであって、前記1つ又は複数の行動が、振る舞いに属するアクチュエータと、を少なくとも含む人型ロボットであって、前記人型ロボットが、自動的にアクティビティの優先順位付けリストを作成するための、優先順位付けリストにおける少なくとも1つのアクティビティを選択するための、且つ前記アクティビティの実行を1つ又は複数のアクチュエータに命じるためのマインドモジュールを更に含むことを特徴とする人型ロボットを提供する。
有利なことに、メモリは、ロボットが一緒に交流する人の識別データ及び前記交流の所定のパラメータの照合を可能にするデータを格納するように更に構成される。
有利なことに、アクティビティの優先順位付けリストは、ロボットとコミュニケーションする状況における人の存在の判定、自律アクティビティを行う優先順位、及びいやしくもどんなアクティビティも実行できる能力の1つ又は複数に基づいて作成される。
有利なことに、ロボットとコミュニケーションする状況における人の存在の判定がなされた後で、複数の関与ゾーンが、ロボットのまわりで画定される。
有利なことに、複数の関与ゾーンは、人とロボットとの間の距離によって画定される。
有利なことに、複数の関与ゾーンは、人とロボットとの間の交流の文脈の発展に基づいて変化する。
有利なことに、ロボットとコミュニケーションする状況における人の存在の判定がなされた後で、エクストラクタサービスが、他のアクティビティの実行中に前記人を追跡し続ける。
有利なことに、アクティビティの優先順位付けリストは、ロボットが既に交流した人の好みのアクティビティの判定に基づいて作成される。
有利なことに、アクティビティの優先順位付けリストにおける順位は、第1にロボットをセーフガードする制約、第2に関与ゾーンの1つにおける1人又は複数の人の存在、及び第3にロボットによって自律的に実行できるアクティビティを考慮することによって設定される。
有利なことに、本発明のロボットは、優先順位付けアクティビティのリストの順位付けに寄与するリソースマネージャを更に含む。
有利なことに、アクティビティの優先順位付けリストは、優先順位付けリストにおける第1のアクティビティの実行の前にランダム化される。
本発明はまた、ロボットによって実行するためのアクティビティを検索及び格納することであって、アクティビティが、ロボットの予めプログラムされた振る舞い及び前記振る舞いの開始条件を備えたマニフェストファイルのペアから構成されることと、状況、イベント、及びロボットを囲む場面にいる人との交流の1つ又は複数を特徴付ける画像、音声、接触及び慣性信号の1つ又は複数のエクストラクタから検索することと、光信号、表示される情報、音声、スピーチ、運動の1つ又は複数の行動の1つ又は複数のアクチュエータを始動することあって、前記1つ又は複数の行動が振る舞いに属することと、を含む、人型ロボットを制御するための方法であって、前記方法が、自動的にアクティビティの優先順位付けリストをマインドモジュールに作成することと、優先順位付けリストにおける少なくとも1つのアクティビティを選択することと、前記アクティビティの実行を1つ又は複数のアクチュエータに命じることと、を更に含むことを特徴とする方法を提供する。
本発明はまた、本発明の方法をコンピュータ上で実行する場合に、実行に適したコンピュータコードを含むコンピュータプログラムを提供する。
本発明はまた、オペレーティングシステムの機能性を提供する。即ち、それは、ロボットのセンサの出力によって生成されたコマンドと、センサ読み取り値の異なる値用の振る舞いを定義するアプリケーションとの間の分離を可能にする。これは、コンピュータコードのモジュール方式及び従って協力的なプログラミングを可能にする。即ち、コミュニティのメンバは、たとえ低レベルのプログラミング機能へのアクセスが許されなくても働く異なるアプリケーションを提供することができる。本発明のソフトウェアアーキテクチャのおかげで、アプリケーションを開始できるために、ロボットに開発ツールキットを接続する必要がない。また、分離は、より容易なメンテナンスを可能にする。本発明のおかげで、ロボットが、1人又は複数の人と交流しなければならない状況にいるかどうか(交流モード)、ロボットの環境には人がいないかどうか(自律モード)、又はロボットが、特定の理由(セーフガードであり、低電圧、転倒又は他の理由)で危険な状態にあるかどうかに依存して、ロボットの振る舞いにおける優先順位を確立することがまた可能である。
多くの例示的な実施形態の以下の説明及びその添付の図から、本発明は、よりよく理解され、その様々な特徴及び利点が明らかになろう。
本発明の多くの実施形態における人型ロボットの物理的アーキテクチャを表示する。 本発明の多くの実施形態における人型ロボットのソフトウェアモジュールの機能的アーキテクチャを表示する。 図2のソフトウェアモジュールの機能的アーキテクチャの働きの流れ図を表示する。 本発明の多くの実施形態における優先順位付けアルゴリズムを示す。 本発明の多くの実施形態におけるロボットのまわりの関与ゾーンを決定する概略図を表示する。
図1は、本発明の多くの実施形態における人型ロボットの物理的アーキテクチャを表示する。
図における特定のロボット100は、本発明が実施され得る人型ロボットの単なる例として理解される。図におけるロボットの下肢は、歩行のためには機能できないが、それが置かれた表面上で回転するそのベース140で任意の方向に移動することができる。本発明は、歩行に適したロボットにおいて容易に実施することができる。例として、このロボットは、約120cmにできる高さ110、約65cmの奥行き120、及び約40cmの幅130を有する。特定の実施形態において、本発明のロボットは、それが、その環境にメッセージ(オーディオ、ビデオ、ウェブページ)を伝達できるか、又はタブレットの触覚インターフェースを介してユーザから入力を受信できるタブレット150を有する。タブレットのプロセッサに加えて、本発明のロボットはまた、それ自体のマザーボードのプロセッサを用い、そのプロセッサは、例えばIntel(商標)のATOM(商標)Z530とすることができる。本発明のロボットはまた、有利なことに、本発明の特定の実施形態において、マザーボードと特に磁気式ロータリエンコーダ(MRE)を担持する基板との間、及び肢における継ぎ目のモータを制御するセンサとロボットが車輪として用いるボールとの間のデータフローの処理専用のプロセッサを含む。モータは、明確な継ぎ目用に必要とされる最大トルクの大きさに依存して、異なるタイプにすることができる。例えば、e−minebea(商標)からのブラシDCコアレスモータ(例えばSE24P2CTCA)、又はMaxon(商標)からのブラシレスDCモータ(例えばEC45_70W)を用いることができる。MREは、12又は14ビットの精度を備え、ホール効果を用いるタイプが好ましい。
本発明の実施形態において、図1に表示されたロボットはまた、様々な種類のセンサを含む。それらの幾つかは、ロボットの位置及び運動を制御するために用いられる。これは、例えば、3軸ジャイロメータ及び3軸加速度計を含む、ロボットの胴体に位置する慣性ユニットの場合である。ロボットはまた、5フレーム/秒において5メガピクセルの分解能並びに約57°水平及び44°垂直の視野(FOV)を備えた、Shenzen V−Vision Technology(商標)からのカメラ(OV5640)など、システムオンチップ(SOC)タイプのロボットの額(上端及び底部)に2つの2DカラーRGBカメラを含むことができる。20フレーム/秒において0.3メガピクセルの分解能を備え、且つ2Dカメラとほぼ同じFOVを備えた、ASUS XTION(商標)のSOCセンサなどの1つの3Dセンサもまた、ロボットの目の後ろに含むことができる。本発明のロボットはまた、その環境における対象物/人に対するその相対的位置を感知できるように、例えば頭に3つ及びベースに3つなど、レーザラインジェネレータを装備することができる。本発明のロボットはまた、その環境において音声を感知できるマイクロホンを含むことができる。実施形態において、1kHz及び300Hz〜12kHzの周波数範囲において300mV/Pa+/−3dBの感度(1kHzに対して−10dB)を備えた4つのマイクロホンが、ロボットの頭に植え付けられ得る。本発明のロボットはまた、その環境における対象物/人への距離を測定するために、そのベースの前面及び背面に恐らく位置する2つのソナーセンサを含むことができる。ロボットはまた、人との交流を可能にするために、その頭及びその手の上に触覚センサを含むことができる。ロボットはまた、それがそのルート上で遭遇する障害物を感知するために、そのベースにバンパーを含むことができる。
ロボットの感情を翻訳し、且つその環境における人とコミュニケーションするために、本発明のロボットはまた、
− 例えば、その目、耳及び肩におけるLEDと、
− その耳に位置する、例えば2つのラウドスピーカと、
を含むことができる。
本発明のロボットは、イーサネットRJ45又はWiFi802.11接続を介して基地局又は他のロボットとコミュニケーションしてもよい。
本発明のロボットは、約400Whのエネルギを備えたリン酸鉄リチウムバッテリによって電力を供給することができる。ロボットは、それが含むバッテリのタイプに適した充電ステーションにアクセスすることができる。
ロボットの位置/運動は、センサの測定値を考慮して、各肢によって画定されたチェーン及び各肢の端部において画定されたエフェクタを始動するアルゴリズムを用いて、ロボットのモータによって制御される。
図2は、本発明の多くの実施形態における人型ロボットのソフトウェアモジュールの機能的アーキテクチャを表示する。
本発明の目的は、ロボットが直面する条件を予想するために、プログラマのどんな介入もなしに、人型ロボットが自律的な方法でアクティビティを実行できるようにする方法を提供することである。欧州特許出願公開第2435216号明細書、欧州特許出願公開第2451617号明細書、欧州特許出願公開第2588209号明細書の下で公開された欧州特許出願など、本出願人に付与されている多くの特許又は特許出願に開示されているような先行技術において、ロボットは、プログラムされ、且つそのマザーボードにアップロードされたシナリオを実行することができる。これらのシナリオは、その環境において変化する条件への反応を含むことができるが、しかしロボットは、予想されなかった、且つそのマザーボードにアップロードされたコードに含まれていないか又は遠隔でアクセスされない条件に反応することができない。対照的に、本発明の目的は、ロボットが、プログラマによって予想されていないイベント/条件を考慮さえして、自律的に振る舞うことができるようにすることである。この目的は、図2に表示されている機能的アーキテクチャによって達成される。
この機能的アーキテクチャは、本質的に4つの主なソフトウェアモジュールを含む。
サービスモジュール210は、少なくとも3つのタイプのサービスを含む。
− エクストラクタサービス211。それは、図1に関連して説明したタイプのロボットセンサからの読み取り値を入力として受信する。これらのセンサ読み取り値は、ロボットの位置、その環境における対象物/人の識別、前記対象物/人の距離、人によって発せられた言葉又は人の感情に関係する関連データを抽出するように前処理される。エクストラクタサービスの例は、ロボットの近くにおける人の存在を認知する人認知と、これらの人の運動を検出する運動検出と、音声の位置を特定する音源定位と、ロボット触覚センサに対する接触を解釈する接触検出と、スピーチ認識と、ロボットの近くの人によって表現された感情を、その言葉又はジェスチャを通じて識別する感情認識と、である。
− アクチュエータサービス212。それは、継ぎ目又はベースのモータを始動するモーションと、ロボットの環境における人の動きに従うトラッカと、感情を伝達するためのロボットLEDの点灯と、生気のあるスピーチ(スピーチ及びジェスチャの組み合わせ)と、振る舞い(ロボットの感情を表現できる、且つロボットが複雑な行動を実行できるようにする運動、言葉、点灯の組み合わせである)となど、ロボットの物理行動を制御する。
− システムサービス213。それは、データサービスを特に含む。データサービスは、一時的又は長期の格納データを提供する。データサービスの例は、次の通りである。
○ ユーザセクションサービス。それは、ユーザデータ及びユーザがロボットと行ったことのユーザ履歴を格納する。
○ パッケージマネージャサービス。それは、手順の高レベルの定義、始動条件及びタグと共に、ロボットによって実行された手順のスケーラブルな記憶装置を提供する。
アクティビティモジュール220は、予めプログラムされたロボットの振る舞い221を含む。振る舞いのプログラミングは、欧州特許出願公開第2435216号明細書(それは本特許出願の出願人に付与されている)の下で公開された欧州特許出願の目的であるグラフィカル統合開発環境(Choregaphe(商標))を用いて達成することができる。Choregaphe(商標)でプログラムされた振る舞いは、時間ベースの論理及びイベントベースの論理を組み合わせる。各振る舞いは、マニフェスト222のタグを付けられ、マニフェスト222は、振る舞いの開始条件を特に含むテキストファイルである。
マインドモジュール230は、アクティビティの選択を制御することによって、サービス及びアクティビティモジュールを一緒に結び付け、それは、エクストラクタの読み取り値に基づいて、且つセレクタと呼ばれる、マインドにおいて実行されるアルゴリズムに基づいてアクチュエータを始動する。セレクタの例は、次の通りである。
− アクティビティを実行する自律的生活231。状況の文脈に基づいて、マインドは、どのアクティビティに集中すべきかを自律的生活に語ることができる(下記の例を参照)。どんなアクティビティも、モジュールAPIの全ての呼び出し手順に対する十分なアクセスを有する。アクティビティは、明確なアクティビティに集中するように自律的生活に指示する制約を含むことができる。
− 基本意識232。それは、動くようにモーションサービスに命じるために、人認知、運動検出及び音源定位などのエクストラクタサービスを申し込む。マインドは、状況に基づいて基本意識の振る舞いを構成する。他の時間に、基本意識は、独力で行動するか、又は実行中のアクティビティによって構成されている。
− ダイアログ233。それは、話すために、スピーチ認識 エクストラクタを申し込み、且つ生気のあるスピーチアクチュエータサービスを用いる。状況の文脈に基づいて、マインドは、どのトピックに集中すべきかをダイアログに命じることができる。マニフェストにおけるメタデータは、この情報をマインドに結び付ける。ダイアログはまた、会話を管理するためのそれ自体のアルゴリズムを有し、且つ通常は独力で行動している。
実行エンジン240は、サービスを引き出すためにAPI呼び出しを開始する。
図3は、図2のソフトウェアモジュールの機能的アーキテクチャの働きの流れ図を表示する。
図2のアーキテクチャは、パラメータを一緒に働かせるようにパラメータを修正するためにプログラマが従事する必要のない基本サービス(エクストラクタ211、アクチュエータ212、データ213、アクティビティ220)をオペレーティングシステムが含むという意味で、(NAOqi(商標)OSと名付けられた)オペレーティングシステムの機能を実行する。
NAOqi(商標)OSは、最も適切なインストールされたアクティビティの自律的開始を可能にするための機構を提供する。このアクティビティは、その開始条件を含むマニフェストを含む。これらの開始条件は、OSエクストラクタが認知できるものに基づいている(例えば、ロボットのまわりに2人を超える人々がいるか、又はロボットの使用条件に適合すると判定されるであろう任意の他の条件がある場合は常に開始しようとする)。
マインドは、開始すべき1つ又は幾つかのアクティビティの選択を担当する。そうするために、マインドは、OSエクストラクタに申し込み、且つ全てのインストールされたアクティビティの開始条件を評価する。これらの条件の変数は、イベントに基づいている。イベント条件は、リストされたアクティビティが開始される前にシステムが待つ期間(即ち秒数)用のタイムラグの表示をイベントに追加することによって、時間に依存するようにすることができる。従って、効率的に、変更された変数を含む条件ステートメントだけが、再評価される必要がある。ソートアルゴリズム、その優先順位及びライフサイクル(以下を参照)の結果に基づいて、アクティビティは開始されてもよく、幾つかのアクティビティは、恐らく停止されてもよい。
実行されるアクティビティは、それが行うようにプログラムされたタスクを実行するためのOSサービス(エクストラクタ、アクチュエータ及びマインドサービスを含む)へのAPI呼び出しに依存する。実行中にアクティビティが、集中されるか開始されるか、又は停止される場合は常に、学習を容易にするために(更に下記の説明を参照)マインドは、これが起こった場合に関するデータ、次に条件の現在の状態、及びユーザの反応であると思われるものを収集する。
既存のエクストラクタイベントが、条件にとって十分でない場合に、開発者は、新しいイベントを生成するために追加のエクストラクタを作成し、且つそのアプリケーションと共にそれをパッケージに分配することができる。
生活アクティビティ及びダイアログトピック(即ち、例えば、ロボットが、人とコミュニケーションする状況にいる場合に、自律的に又はトリガ条件に基づいて実行できるアクティビティ)はまた、いつでも、異なるアクティビティ又はトピックに集中を切り替えるように、プログラムによってマインドに命じることができる。
開始されるアクティビティを決定する可能なアルゴリズムの一例が、以下で説明される。
− アクティビティの開始条件が、真又は偽になる瞬間に、その瞬間の全ての可能なアクティビティのリストが、マインドに送信される。
− リストは、(以下で更に説明されるように)アクティビティ優先順位付けに従ってフィルタリングされる。
− リスト順は、ランダム化される。
− リストは、「ユニークで」それほど始動されなかったアクティビティに優先権を与えるためにソートされる(又は得点を付けられる)。
− このリストにおけるトップのアクティビティが、実行された前のアクティビティと同じアクティビティではないことを確かめる特別のチェック。
− ユーザの好みに従って、リストは、再びソートされフィルタリングされる。
単に例として、微笑む人の検出は、ロボットが、共感できる振る舞い(微笑み、親切な言葉等)を示す場合に開始するための候補であるアクティビティをリストする基準として用いられる。これは、エクストラクタの1つである感情認識モジュールによって達成される。また、この感情認識モジュールは、判定された人の面前で、その人の反応の関数として実行されたアクティビティにタグを付けるために、且つ前記判定された人に関与するための優先順位リストを作成するために、フィードバックループにおいて用いられる。
ランダム化は、同じ優先順位を備えた2つ以上のアクティビティが、開始されるようにリストされている場合に、ちょうど前に既に実行されたアクティビティが、もう一方のリストされたアクティビティより多くの開始される確率を有しないように用いられる。ランダム化される振る舞いは、多くの理由でリストのトップに来る可能性がある一連のアクティビティほど「メカニカル」ではないように見える。
図3において、次の表記法は、以下の説明で更に提供される例のデータフローにおける異なるステップを表すために用いられる。
− A:パッケージマネージャ
− B:エクストラクタ
− C:アクティビティ提案
− D:ユーザ+履歴データ
− E:マインド優先順位付け
− F:集中される自律アクティビティ
− G:集中されるダイアログトピック
− H:他のマインドサービスを構成する
図4は、本発明の多くの実施形態における優先順位付けアルゴリズムを示す。
最初に、ロボットが電源を投入されると、マインドは、アクティビティもダイアログも実行されていない単純な自律状態にある。マインドは、人を発見するために最適化され方法で、音声及び運動を追跡するために、基本意識サービスを構成する。自律アクティビティ用の条件が真である場合に、マインドは、可能ならばアクティビティを開始する。アクティビティの優先順位付けは、可能性を判定する。好ましい実施形態において、以下の規則に従って、3つの主な優先順位、即ち自律、交流及びセーフガードが、昇順に定義される。
− アクティビティが実行されていない場合に、セーフガード430、交流420又は通常の自律410は、開始することができる。
−自律アクティビティが、既に集中されている場合に、交流又はセーフガード優先順位だけが開始され得、自律アクティビティは、中断及び停止される。
− 交流優先順位のアクティビティが集中されている場合に、セーフガードだけが開始され得、それは、現在の交流優先順位のアクティビティを中断する。
− セーフガードが集中されている場合に、より高いレベルのセーフガードだけが集中され得、それが、現在のセーフガードを中断する。
追加の優先順位は、受動自律、受動交流、及びP並列反応である。
− 受動自律アクティビティは、正常自律アクティビティによって中断され得、そうでなければ正常自律アクティビティと同じであるアクティビティである。
− 受動交流は、正常交流優先順位アクティビティによって中断され得、そうでなければ交流優先順位アクティビティと同じであるアクティビティである。
− 単一並列反応アクティビティは、(受動)自律又は交流優先順位アクティビティと並列に行われ得るが、しかしセーフガード優先順位アクティビティ中には行われ得ない。これらは、実行中のアクティビティと衝突しないように、リソースマネージャに依存する。本発明のOSと組み合わせて用いることができるリソースマネージャが、欧州特許出願第2651607号明細書の下で公開された欧州特許出願に開示されている。
新しい交流又は単独アクティビティが集中される前に、マインドは、パラメータをデフォルトするようにロボットを構成し、その結果、アプリケーションは、例えば、全ての自己衝突回避動作アニメーション機能がイネーブルにされることを保証する周知の状態から開始される。前のアクティビティの開発者が、これらの特徴をディスエーブルにした場合に、次のアクティビティが開始する前に、確実に常態に戻るように設定される。構成によって定義されるように、マインドは、より高いレベルで他のモジュールをパラメータ化する。マインドが、交流優先順位アクティビティにある場合に、それは、ユーザの安全性のためにロボットのセンサの盲点を縮小するために、時々動き回るように自律運動アクティビティを構成する。交流優先順位アクティビティにおいて、それはまた、会話のために最適化された方法で、人を追跡するように基本意識サービスを構成する。追加マインドサービスが、システムに追加され得、且つ条件及び状態に従って、実行時に動的に構成され得る。現在の自律優先順位に基づいて、マインドは、条件付きの状況を得るために、必要とされるエクストラクタを始動する。交流優先順位アクティビティである場合に、このサブセットは、人の会話のために縮小/最適化される。
図5は、本発明の多くの実施形態におけるロボットのまわりの関与ゾーンを決定する概略図を表示する。
本発明の多くの実施形態において、本発明のロボットの動作を示すために、様々なシナリオが以下で説明される。例は、この図において境界530、550によって範囲を定められた番号付き「関与ゾーン」540、560、570における、ロボット510に関連する人の位置520に依存する。これらの関与ゾーンの形状及び大きさは、実行時に動的に構成可能である。関与ゾーンは、エクストラクタサービスである。
再構成可能な関与ゾーンは、ロボットが、その環境における人と交流すべき場合を決定する効率的な方法である。その理由は、かかるプロセスを用いれば、全てのエクストラクタサービス、特に人認知のように著しい電力量(エネルギ及びコンピュータ)を用いるエクストラクタサービスを永続的に実行する必要がないからである。従って、このサービスが、ロボットの近くで人を「捕捉した」場合に、マインドは、上記の「関与ゾーン」概念に基づく、単純化された追跡モードを用いる。代替として、人認知サービスは、十分な追跡モードで実行し、従って、より長い範囲及びより正確な交流を可能にするように維持することができる。例えば、十分な追跡モードは、ロボットが、ロボットと直接又はコミュニケーションリンクを介してコミュニケーションする状況である場合に、始動することができる。
以下のアクティビティは、ロボットにインストールされる(図3の流れ図における項目B)。
Figure 2017514709
これは、バッテリが30秒間60パーセント未満で、人々が、600秒間見られない場合か、又はバッテリが30秒間30パーセント未満である場合に開始する。しかし、他のアクティビティが進んでいない場合に限る。
Figure 2017514709
これは、バッテリが、30秒間7パーセント未満であり、且つより高いセーフガードを経験していない場合に開始する。
Figure 2017514709
これは、バッテリが、10秒間2パーセント未満の場合に開始する。
Figure 2017514709
これは、ロボットが押された場合に開始する。それは、進行中のより低い優先順位のアクティビティを停止する。ロボットは、バランスを保つ。
Figure 2017514709
これは、ロボットが、何かに不意に衝突した場合に開始する。それは、進行中のより低い優先順位のアクティビティを停止する。
Figure 2017514709
これは、ロボットが過熱した場合に開始する。それは、進行中のより低い優先順位のアクティビティを停止する。ロボットは、涼しい場所に行き、それが冷えた後で、アクティビティは終わる。
Figure 2017514709
ロボットが追跡している人がゾーン1にいて、その背の高さが175センチメートルより高い場合に、このダイアログトピックに自律的に集中することが可能である。
Figure 2017514709
ロボットが追跡している人がゾーン1にいる場合に、このダイアログトピックに自律的に集中することが可能である。
Figure 2017514709
ロボットが追跡している人がゾーン1にいて、日付が12月〜2月である場合に、このダイアログトピックに自律的に集中することが可能である。これが、同様にもっぱら季節的にロボットにインストールされ得ることに留意されたい。
Figure 2017514709
ロボットが追跡している人がゾーン1にいる場合に、このダイアログトピックに自律的に集中することが可能である。
Figure 2017514709
少なくとも2人が、少なくとも5秒間ゾーン2にいて、ゾーン2における少なくとも1人が微笑んでいる場合に、このアクティビティに集中することが可能である。
Figure 2017514709
このダイアログトピックは、微笑む男を刺激するアクティビティからプログラムでのみ用いられ、それは、マインドからではなくその振る舞いから開始される。
Figure 2017514709
このアクティビティは、就寝時刻として定義された時間中でない場合、音楽が、少なくとも30秒間かけられている場合、且つ人々が、最後の600秒内にいつでも存在し、ロボットの平均温度が70度未満であり、バッテリが、50パーセントを超えて充電されている場合に、開始することができる。
Figure 2017514709
このアクティビティは、ロボットが、家庭として定義された場所にいる場合、ロボットの所有者の1人が、21600秒見えなかった後に見える場合(6時間、且つ最も遅れた所有者が、その条件キーに報告される)、夕方として定義された時間中である場合、且つ我々が、最後の1800秒(30分)内にこの同じアクティビティを(どんな人に対しても)始めなかつた場合に、開始される。
Figure 2017514709
このダイアログトピックは、家族へのお帰りなさいアクティビティからプログラムで用いられるだけであり、それは、マインドからではなくその振る舞いから開始される。
実施例1
人を文脈的に自律的に刺激する
2人の人が、ゾーン2にしばらくの間立っている。彼らの一人が、微笑んでいる。ロボットは、彼らに「向こうでは楽しそうですね」と言う。
A:インストール済みパッケージは、前にリストされた通りである。
B:エクストラクタによって提供されるメモリの状態は、次の通りである。
Figure 2017514709
C:それらの条件に基づいて、次のアクティビティが可能である。
Figure 2017514709
D:出席者は、ロボットとのどんな確立された履歴も有しない。「微笑む人を刺激する」は、その日に前に2度異なる人々と開始された。
E:ただ1つのアクティビティだけが提案されたので、最終的な優先順位付けされたリストは、このように見える。
Figure 2017514709
アクティビティが、現在集中されていないので、マインドは、「微笑む人を刺激する」を開始する。
F:自律アクティビティ「微笑む人を刺激する」が集中される。アクティビティは、そのプログラムを実行する。
− ロボットは、タブレットが人に面するように、人の方を向く。
− グラフィックが、タブレットに現れる。
− ロボットは、人に手を振る。
− 次に、にこやかな会話の一部は、アクティビティによって引き起こされる。ロボットは、「向こうでは楽しそうですね」と言い、応答を待つ。
− 身体で又は口頭の両方でユーザが行うことに基づいて、アクティビティは、それが望むことを行うことができる。アクティビティは、ロボットの制御を有する。アクティビティが、意見を述べた直後に終わることをまさに決定することが可能である。
G:そのダイアログは、この場合にはマインド(E)によって直接には制御されなかった。しかしアクティビティ(F)は、その或るプログラム制御を行った。
H:ロボットが、自律優先順位用に既に構成されていたので、マインド(E)は、アクティビティ(F)を開始する前に、基本意識又は他のマインドサービスにおけるどんな設定も変更する必要はなかった。しかしながら、アクティビティ(F)が、基本意識マインドサービスによって設定された追跡モードを変更した可能性がある。この場合に、自律優先順位においてマインドによって設定された追跡モードは、「Unengaged」あり、それは、ロボットが、今にも何にでもその注意を変更する可能性があることを意味する。アクティビティ開発者は、「SemiEngaged」の方がよいと決定する可能性があり、「SemiEngaged」は、次のことを意味する。即ち、基本意識が刺激された場合に、ロボットは、刺激を見るが、常に以前の人に注意を戻すことを意味する。環境における人とロボットの関与条件は、ロボットにおいて絶えず走行している基本意識機能によって決定される。
実施例2
文脈的アクティビティ及び交流優先順位
我々は、ロボットが、実施例1の「微笑む人を刺激する」アクティビティをまだ実行していると考える。ここで、以前には見えなかった新しい人が、横からゾーン1に入る。彼は、背が高い。ロボットは、「向こうの天気はどうですか」と彼に言う。
A:インストール済みパッケージは、前にリストされた通りである。
B:メモリの状態は、次の通りである。
Figure 2017514709
C:それらの条件に基づいて、次のアクティビティが可能である。
Figure 2017514709
D:ユーザの2人が、微笑む人を刺激するを経験したが、他のアクティビティを経験しなかつた。
3番目の(追跡された)ユーザは、これらのアクティビティのどれも経験しなかった。
微笑む人を刺激するは、今日3回開始した。
冬季を提案する及びスポーツを提案するは、それぞれ、今日1回実行された。
一般的な雑談は、今日5回実行された。
背の高い人を提案するは、今日実行されなかった。
E:ソートされたリストは、このように見える。背の高い人を提案するが、勝者である。
Figure 2017514709
微笑む人を刺激するは、全ての他のアクティビティがより高い優先順位だったので、除去される。
ソートの残りは、どのアクティビティが、今日、最小時間量だけ開始されたかによって決定される。
F:ここで行うことはない。
G:マインドは、ダイアログの「背の高い人を提案する」トピックに集中する。
これは、前のより低い優先順位のアクティビティ「微笑む人を刺激する」を停止する。
ロボットは、「あそこでは(up there)天気はどうですか」と言う。(単語「up」を処理する場合に、生気のあるスピーチは、見上げる動作を行う....)
これ以降、この天候トピックは、このトピックの内で始動され得る任意の他のトピックへと会話風に移行することができる。
又は、このトピックが、会話を切らした場合に、それは、終わることができる。次に、異なるアクティビティを開始する決定を下すために、どれがマインドを解放するかは、文脈に基づいている。
H:マインドがダイアログに集中する前に、それは、注意散漫のない人追跡モード(FullyEngagedモード)を用いるために、基本意識を再構成した。何故なら、これが、交流優先順位用のデフォルトであるからである。自律運動及び他のマインドサービスもまた、デフォルトの交流値に従って再構成される。
実施例3
ユーザ履歴を考慮する
これが、異なるロボット上で起こっていると仮定すると、前の2つの例は、接続されない。
1.人がゾーン1に入り、スポーツに関してロボットと会話し、ロボットに自分の名前を教え、人は去る。
2.その後、人は戻る。ロボットは、人が誰かを思い出し、それに言及し、今回は冬について話す。何故なら、スポーツは、既に話されたからである。
1A:インストール済みパッケージは、前にリストされた通りである。
1B:メモリの状態は、次の通りである。
Figure 2017514709
1C:それらの条件に基づいて、次のアクティビティが可能である。
Figure 2017514709
1D:我々は、このユーザ用のどんな履歴も有しない。
スポーツを提案する、冬季を提案する、及び一般的な雑談は、それぞれ今日1回集中された。
1E:各アクティビティは、ソート後に等しい重みを有する。順序は、ランダム化される。
スポーツを提案するが、勝者である。
Figure 2017514709
1F:何も行わない。
1G:マインドは、「スポーツを提案する」ダイアログトピックに集中する。
ロボット及び人は、スポーツに関する会話に従事する。
会話中に、人は、「名前はなんですか」と尋ねる。
これは、集中を「一般的な雑談」トピックに切り替えるように、ダイアログがマインドに直接言うようにさせる。
会話のこの部分において、ロボットは、人の名前が「Lindsay」(リンゼー)であることを知る。
Lindsayは、ロボットから離れ、ロボットは、ダイアログトピックを終了させる。
1H:ダイアログに集中する前に、他のマインドサービスが、それらの交流優先順位デフォルトで構成された。
2A:インストール済みパッケージは、前にリストされた通りである。
2B:メモリの状態は、1Bと同じである。
2C:それらの条件に基づいて、次のアクティビティが可能である。
Figure 2017514709
2D:追跡されたユーザは、「Lindsay」と認識され、彼女は、スポーツを提案する及び一般的な雑談を1回経験した。
スポーツを提案する、冬季を提案するは、それぞれ今日2回集中された。
一般的な雑談は、3回集中された。
2E:ソートされたリストは、以下の通りである。
冬季を提案するが、勝者である。
Figure 2017514709
今日のアクティビティに従って、スポーツを提案する及び冬季を提案するは、一般的な雑談の上にソートされる。その後、次のソートとしてLindsayの履歴を考慮した後で、冬季を提案するが、トップになる。
2F:何も行わない。
2G:マインドは、「冬季を提案する」ダイアログトピックに集中する。
トピックが集中されていることをダイアログが理解すると、それは、ユーザが前回と異なることを理解する。その結果、それは、最初に挨拶し、「やあLindsay」と言う。
次に、彼らは、冬に関して会話を継続する。
2H:ダイアログに集中する前に、他のマインドサービスは、それらの交流優先順位デフォルトで構成された。
実施例4
ユーザの好みを自律的に学習する
これが異なるロボット上で行われていると仮定すると、前の3つの例は、接続されない。
1.ロボットは、夕方に家にいる。ロボットの所有者として登録されている人が、部屋に入る。ロボットは、朝からこの人を見ていない。
ロボットは、人のところに来てその人を抱き締め、「お帰りなさい。会いたかったです」と言う。その人は、「そうするのを止めてほしいな!」と言う。
2.翌日、同じシナリオは発生するが、しかし今回、ロボットは、何もしない。
1A:インストール済みパッケージは、前にリストされた通りである。
1B:エクストラクタによって提供されるメモリの状態は、次の通りである。
Figure 2017514709
1C:それらの条件に基づいて、次のアクティビティが、可能である。
Figure 2017514709
1D:そのアクティビティは、このユーザのために前に1回実行されたので、今日は実行されなかった。
1E:同様に開始するのが可能である勝利のアクティビティは、「家族へのお帰りなさい」である。
Figure 2017514709
1F:自律アクティビティが集中される。ロボットは、ユーザの所へ行き、ユーザを抱き締める。次に、それは、「お帰りなさい会話」ダイアログトピックをプログラムで開始する。
1G:次に、ロボットは、「お帰りなさい、ジョン。会いたかったです」と言う。そのときその人は、「そうするのを止めてほしいな」と言う。
ダイアログは、ユーザが現在のアクティビティを好まないことをマインドに通知する。
1H:アクティビティに集中する前に、他のマインドサービスは、それらの交流優先順位デフォルトで構成された。
2A:インストール済みパッケージは、前にリストされた通りである。
2B:メモリの状態は、1Bと同じである。2C:それらの条件に基づいて、次のアクティビティが可能である。
Figure 2017514709
2D:この追跡されたユーザ用の履歴は、そのユーザが、前に2度このアクティビティを開始したこと、及びそれが、ユーザから否定的な反応を受けたことを示す。
このアクティビティは、今日は決して開始されなかった。
2E:ユーザからの否定的な反応故に、ソート後、マインドは、空リストを考え出す。
Figure 2017514709
2F:何もしない。
2G:何もしない。
2H:何もしない。
実施例5
自律的な充電及び優先順位
今や読者が、流れに精通していると予想されるので、この例は、より高いレベルの説明を提供される。
1.バッテリは、30秒を超えて30パーセント未満であった。
アクティビティは、集中されない。
a.マインドは、「何気なくバッテリを充電する」を開始する。
ロボットは、その充電ステーションに戻り始める。
2.そこへ行く途中で、ロボットは、ゾーン1にいる人に遭遇する。
a.マインドは、より高い(交流)優先順位である「一般的な雑談」を開始し、(通常の自律優先順位の)充電アクティビティを停止する。
3.会話中に、バッテリは、7%未満になる。
a.マインドは、より高い(セーフガード1)優先順位付けである「緊急にバッテリバッテリを充電する」を開始し、(交流優先順位の)一般的な雑談を停止する。
4.ロボットは、再び充電ステーションに戻り始める。
不運にも、ロボットは、それを見つけることも、遅れずにそこに到着こともできない。
バッテリは、3%未満になる。
a.マインドは、より高い(セーフガード10)優先順位である「低バッテリ停止」を開始し、(セーフガード1の)緊急バッテリ充電を停止する。
b.ロボットは、止まる。
実施例6
過熱セーフガード
今や読者が、流れに精通していると予想されるので、この例は、より高いレベルの説明を提供される。
1.日中であり、ロボットは、バッテリを十分に充電させており、高温ではない。人が部屋にいて、ロボットによって見られる。人は、或る音楽をかけ、次に去る。
a.ロボットが、30秒間続けて音楽を聴いた後で、マインドは、「自律ダンサー」を開始する。
ロボットは、ダンスをし始める。
2.このダンス中に、ロボットの平均体温が、1分を超えて90度を超える。
a.マインドは、より高い(セーフガード5)優先順位である「緊急冷却」を開始し、(通常の自律優先順位の)自律ダンサーを停止する。
3.しばらくこのアクティビティを実行した後で、ロボットは冷える。
a.「緊急冷却」は終了し、マインドは、低い優先順位のタスクに再び自由に集中する。
4.音楽がまだ鳴っており、人がまわりにいた場合に、ロボットは、再び自律ダンサーを開始することを決定することが可能である。
実施例7
押されたセーフガード
今や読者が、流れに精通していると予想されるので、この例は、より高いレベルの説明を提供される。
1.ロボットは、再び自律ダンサーを実行している。
2.今回は、誰かが、後ろからこっそり近づき、ロボットを押す。
3.「私は押された」アクティビティが集中される。
a.ロボットは、バランスアルゴリズムを行い、次に押された方を向き、その人に苦情を言う。
b.アクティビティは終了する。
4.ロボットは、次に再び自律ダンサーか、又は現在の条件に依存して、異なるアクティビティに集中してもよい。
上記の例は、本発明の実施形態の実例として提供される。それらは、以下の特許請求の範囲によって定義される本発明の範囲を決して限定しない。

Claims (13)

  1. − ロボットにより実行するためのアクティビティを検索及び格納するための処理機能に接続されたメモリ(213)であって、アクティビティが、前記ロボットの予めプログラムされた振る舞い及び前記振る舞いの開始条件を備えたマニフェストファイルのペアから構成されたメモリ(213)と、
    − 状況、イベント、及び前記ロボットを囲む場面にいる人との交流の1つ又は複数を特徴付ける画像、音声、接触及び慣性信号のエクストラクタ(211)と、
    − 光信号、表示される情報、音声、スピーチ、運動の1つ又は複数の行動のアクチュエータ(212)であって、前記1つ又は複数の行動が振る舞いに属するアクチュエータ(212)と、
    を少なくとも含む人型ロボット(110)であって、
    前記人型ロボットが、自動的にアクティビティの優先順位付けリストを作成するための、前記優先順位付けリストにおける少なくとも1つのアクティビティを選択するための、且つ前記アクティビティの実行を1つ又は複数のアクチュエータに命じるためのマインドモジュール(230)を更に含むことを特徴とする人型ロボット(110)。
  2. 前記メモリが、前記ロボットが一緒に交流する人の識別データ及び前記交流の所定のパラメータの照合を可能にするデータを格納するように更に構成される、請求項1に記載の人型ロボット。
  3. アクティビティの前記優先順位付けリストが、前記ロボットとコミュニケーションする状況における人の存在の判定、自律アクティビティを行う優先順位、及びどんなアクティビティも実行できる能力の1つ又は複数に基づいて作成される、請求項1又は2に記載の人型ロボット。
  4. 前記ロボットとコミュニケーションする状況における人の存在の判定がなされた後で、複数の関与ゾーンが、前記ロボットのまわりで画定される、請求項3に記載の人型ロボット。
  5. 前記複数の関与ゾーンが、前記人と前記ロボットとの間の距離によって画定される、請求項4に記載の人型ロボット。
  6. 前記複数の関与ゾーンが、前記人と前記ロボットとの間の交流の文脈の発展に基づいて変化する、請求項5に記載の人型ロボット。
  7. 前記ロボットとコミュニケーションする状況における人の存在の判定がなされた後で、エクストラクタサービスが、他のアクティビティの実行中に前記人を追跡し続ける、請求項3に記載の人型ロボット。
  8. アクティビティの前記優先順位付けリストが、前記ロボットが既に交流した人の好みのアクティビティの判定に基づいて作成される、請求項2〜7のいずれか一項に記載の人型ロボット。
  9. アクティビティの前記優先順位付けリストにおける順位が、第1に前記ロボットをセーフガードする制約、第2に前記関与ゾーンの1つにおける1人又は複数の人の存在、及び第3に前記ロボットによって自律的に実行できるアクティビティを考慮することによって設定される、請求項2〜8のいずれか一項に記載の人型ロボット。
  10. 優先順位付けアクティビティの前記リストの前記順位に寄与するリソースマネージャを更に含む、請求項9に記載の人型ロボット。
  11. アクティビティの前記優先順位付けリストが、前記優先順位付けリストにおける第1のアクティビティの実行の前にランダム化される、請求項1〜10のいずれか一項に記載の人型ロボット。
  12. − ロボットによって実行するためのアクティビティを検索及び格納することであって、アクティビティが、前記ロボットの予めプログラムされた振る舞い及び前記振る舞いの開始条件を備えたマニフェストファイルのペアから構成されることと、
    − 状況、イベント、及び前記ロボットを囲む場面にいる人との交流の1つ又は複数を特徴付ける画像、音声、接触及び慣性信号の1つ又は複数のエクストラクタから検索することと、
    − 光信号、表示される情報、音声、スピーチ、運動の1つ又は複数の行動の1つ又は複数のアクチュエータを始動することあって、前記1つ又は複数の行動が振る舞いに属することと、
    を含む、人型ロボットを制御するための方法であって、
    前記方法が、自動的にアクティビティの優先順位付けリストをマインドモジュールに作成することと、前記優先順位付けリストにおける少なくとも1つのアクティビティを選択することと、前記アクティビティの実行を前記1つ又は複数のアクチュエータに命じることと、を更に含むことを特徴とする方法。
  13. 請求項12に記載の方法をコンピュータ上で実行する場合に、実行に適したコンピュータコードを含むコンピュータプログラム。
JP2016562860A 2014-04-17 2015-04-17 自律的生活能力を備えた人型ロボット Expired - Fee Related JP6396495B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14305578.8 2014-04-17
EP14305578.8A EP2933065A1 (en) 2014-04-17 2014-04-17 Humanoid robot with an autonomous life capability
PCT/EP2015/058355 WO2015158877A1 (en) 2014-04-17 2015-04-17 Humanoid robot with an autonomous life capability

Publications (2)

Publication Number Publication Date
JP2017514709A true JP2017514709A (ja) 2017-06-08
JP6396495B2 JP6396495B2 (ja) 2018-09-26

Family

ID=50628737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016562860A Expired - Fee Related JP6396495B2 (ja) 2014-04-17 2015-04-17 自律的生活能力を備えた人型ロボット

Country Status (13)

Country Link
US (1) US10583559B2 (ja)
EP (1) EP2933065A1 (ja)
JP (1) JP6396495B2 (ja)
KR (1) KR102103624B1 (ja)
CN (1) CN106794579B (ja)
AU (1) AU2015248795B2 (ja)
BR (1) BR112016023927A2 (ja)
CA (1) CA2945885C (ja)
MX (1) MX2016013022A (ja)
NZ (1) NZ725016A (ja)
RU (1) RU2016144028A (ja)
SG (1) SG11201608200WA (ja)
WO (1) WO2015158877A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019087484A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN111300431A (zh) * 2020-03-31 2020-06-19 山东大学 面向跨场景的机器人视觉模仿学习方法及系统
WO2022009339A1 (ja) * 2020-07-08 2022-01-13 日本電気株式会社 会話監視装置、制御方法、及びコンピュータ可読媒体

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2952301B1 (en) 2014-06-05 2019-12-25 Softbank Robotics Europe Humanoid robot with collision avoidance and trajectory recovery capabilities
JP2017151517A (ja) * 2016-02-22 2017-08-31 富士ゼロックス株式会社 ロボット制御システム
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
DE112017001573B4 (de) 2016-03-28 2020-01-30 Groove X, Inc. Autonom agierender Roboter, der eine Begrüssungsaktion durchführt
KR102199608B1 (ko) 2016-04-29 2021-01-07 소프트뱅크 로보틱스 유럽 향상되고 균형 있는 모션과 행동 능력을 가진 모바일 로봇
GB2566881B (en) * 2016-07-11 2022-04-13 Groove X Inc Autonomously acting robot whose activity amount is controlled
JP6952453B2 (ja) * 2016-11-24 2021-10-20 田嶋 雅美 接客システム及び接客方法
JP6817152B2 (ja) * 2017-06-09 2021-01-20 本田技研工業株式会社 サービス提供システム及びデータベース
WO2018233858A1 (en) * 2017-06-19 2018-12-27 Zhongrui Funing Robotics (Shenyang) Co. Ltd METHOD FOR SOCIAL INTERACTION OF ROBOT
US11220008B2 (en) * 2017-07-18 2022-01-11 Panasonic Intellectual Property Management Co., Ltd. Apparatus, method, non-transitory computer-readable recording medium storing program, and robot
KR102108389B1 (ko) * 2017-12-27 2020-05-11 (주) 퓨처로봇 서비스 로봇의 제어 시나리오 생성 방법 및 그 장치
CN109968352B (zh) * 2017-12-28 2021-06-04 深圳市优必选科技有限公司 一种机器人控制方法及机器人、具有存储功能的装置
WO2019163279A1 (ja) * 2018-02-26 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US20190262990A1 (en) * 2018-02-28 2019-08-29 Misty Robotics, Inc. Robot skill management
US20200167631A1 (en) * 2018-09-19 2020-05-28 Az, Llc Human-Robots: The New Specie
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
KR102657884B1 (ko) * 2018-12-18 2024-04-17 삼성전자주식회사 서비스 로봇의 동작 제어 방법 및 장치
US11057236B2 (en) * 2019-01-09 2021-07-06 Disney Enterprises, Inc. Systems and methods for interactive responses by toys and other connected devices
CN110774287B (zh) * 2019-06-12 2023-12-05 酷智家机器人(广州)有限公司 一种青少年家教机器人
KR20190116190A (ko) * 2019-09-23 2019-10-14 엘지전자 주식회사 로봇
CN113359538A (zh) * 2020-03-05 2021-09-07 东元电机股份有限公司 语音控制机器人
US20210294303A1 (en) * 2020-03-17 2021-09-23 UiPath, Inc. In-process trigger management for robotic process automation (rpa)
US12124295B2 (en) * 2020-04-30 2024-10-22 Newpower, Inc. Mount for a computing device
US11875362B1 (en) 2020-07-14 2024-01-16 Cisco Technology, Inc. Humanoid system for automated customer support
US11907670B1 (en) 2020-07-14 2024-02-20 Cisco Technology, Inc. Modeling communication data streams for multi-party conversations involving a humanoid
US12118568B2 (en) 2021-01-27 2024-10-15 Cisco Technology, Inc. Self-provisioning humanoid for automated customer support
CN113977588B (zh) * 2021-12-23 2022-05-17 深圳市心流科技有限公司 一种智能仿生手的手势识别方法、装置、终端及存储介质
CN117251152A (zh) * 2022-12-12 2023-12-19 北京小米机器人技术有限公司 机器人图形化编程方法和装置、移动终端、存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003266353A (ja) * 2002-03-18 2003-09-24 Sony Corp ロボット装置及びその制御方法
JP2004283958A (ja) * 2003-03-20 2004-10-14 Sony Corp ロボット装置、その行動制御方法及びプログラム
JP2006110707A (ja) * 2004-09-14 2006-04-27 Sony Corp ロボット装置
JP2006205343A (ja) * 2005-01-31 2006-08-10 Advanced Telecommunication Research Institute International コミュニケーションロボットシステムおよびロボット制御装置
JP2007041204A (ja) * 2005-08-02 2007-02-15 Brother Ind Ltd 自立型実演ロボット
JP2007044825A (ja) * 2005-08-10 2007-02-22 Toshiba Corp 行動管理装置、行動管理方法および行動管理プログラム
JP2008238383A (ja) * 2007-03-29 2008-10-09 Honda Motor Co Ltd ロボット
JP2009061547A (ja) * 2007-09-06 2009-03-26 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
JP2009136967A (ja) * 2007-12-06 2009-06-25 Honda Motor Co Ltd コミュニケーションロボット
JP4396273B2 (ja) * 2001-10-22 2010-01-13 ソニー株式会社 ロボット装置及びその制御方法
JP2011177875A (ja) * 2010-03-04 2011-09-15 Toyota Motor Corp ロボット

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6604021B2 (en) * 2001-06-21 2003-08-05 Advanced Telecommunications Research Institute International Communication robot
WO2003078113A1 (fr) * 2002-03-15 2003-09-25 Sony Corporation Systeme de commande de robot, procede correspondant, et robot
JP3714268B2 (ja) * 2002-03-18 2005-11-09 ソニー株式会社 ロボット装置
KR100506533B1 (ko) * 2003-01-11 2005-08-05 삼성전자주식회사 이동로봇 및 그에 따른 자율주행 시스템 및 방법
US7171286B2 (en) * 2003-02-24 2007-01-30 Intouch Technologies, Inc. Healthcare tele-robotic system with a robot that also functions as a remote station
JP2004283956A (ja) 2003-03-20 2004-10-14 Sony Corp 充電システム、ロボット装置、充電装置、及び充電方法
JP2005103679A (ja) * 2003-09-29 2005-04-21 Toshiba Corp ロボット装置
JP4595436B2 (ja) * 2004-03-25 2010-12-08 日本電気株式会社 ロボット、その制御方法及び制御用プログラム
ATE524784T1 (de) * 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
US7783382B2 (en) * 2006-02-24 2010-08-24 Qisda Corporation Controlling machine actions based on luminance of environmental light and distance from user
JP4682217B2 (ja) * 2007-03-07 2011-05-11 パナソニック株式会社 行動制御装置、方法、プログラム
WO2009031486A1 (ja) * 2007-09-06 2009-03-12 Olympus Corporation ロボット制御システム、ロボット、プログラム及び情報記憶媒体
FR2946160B1 (fr) 2009-05-26 2014-05-09 Aldebaran Robotics Systeme et procede pour editer et commander des comportements d'un robot mobile.
FR2947923B1 (fr) 2009-07-10 2016-02-05 Aldebaran Robotics Systeme et procede pour generer des comportements contextuels d'un robot mobile
FR2962048A1 (fr) 2010-07-02 2012-01-06 Aldebaran Robotics S A Robot humanoide joueur, methode et systeme d'utilisation dudit robot
FR2969026B1 (fr) 2010-12-17 2013-02-01 Aldebaran Robotics Robot humanoide dote d'un gestionnaire de ses ressources physiques et virtuelles, procedes d'utilisation et de programmation

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4396273B2 (ja) * 2001-10-22 2010-01-13 ソニー株式会社 ロボット装置及びその制御方法
JP2003266353A (ja) * 2002-03-18 2003-09-24 Sony Corp ロボット装置及びその制御方法
JP2004283958A (ja) * 2003-03-20 2004-10-14 Sony Corp ロボット装置、その行動制御方法及びプログラム
JP2006110707A (ja) * 2004-09-14 2006-04-27 Sony Corp ロボット装置
JP2006205343A (ja) * 2005-01-31 2006-08-10 Advanced Telecommunication Research Institute International コミュニケーションロボットシステムおよびロボット制御装置
JP2007041204A (ja) * 2005-08-02 2007-02-15 Brother Ind Ltd 自立型実演ロボット
JP2007044825A (ja) * 2005-08-10 2007-02-22 Toshiba Corp 行動管理装置、行動管理方法および行動管理プログラム
JP2008238383A (ja) * 2007-03-29 2008-10-09 Honda Motor Co Ltd ロボット
JP2009061547A (ja) * 2007-09-06 2009-03-26 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
JP2009136967A (ja) * 2007-12-06 2009-06-25 Honda Motor Co Ltd コミュニケーションロボット
JP2011177875A (ja) * 2010-03-04 2011-09-15 Toyota Motor Corp ロボット

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019087484A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2019087484A1 (ja) * 2017-10-30 2020-11-26 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP7173031B2 (ja) 2017-10-30 2022-11-16 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP2023017880A (ja) * 2017-10-30 2023-02-07 ソニーグループ株式会社 情報処理装置および情報処理方法
US11709476B2 (en) 2017-10-30 2023-07-25 Sony Corporation Information processing apparatus, information processing method and program
JP7400923B2 (ja) 2017-10-30 2023-12-19 ソニーグループ株式会社 情報処理装置および情報処理方法
CN111300431A (zh) * 2020-03-31 2020-06-19 山东大学 面向跨场景的机器人视觉模仿学习方法及系统
CN111300431B (zh) * 2020-03-31 2021-04-23 山东大学 面向跨场景的机器人视觉模仿学习方法及系统
WO2022009339A1 (ja) * 2020-07-08 2022-01-13 日本電気株式会社 会話監視装置、制御方法、及びコンピュータ可読媒体

Also Published As

Publication number Publication date
RU2016144028A (ru) 2018-05-17
AU2015248795B2 (en) 2018-02-08
CA2945885A1 (en) 2015-10-22
AU2015248795A1 (en) 2016-10-27
CN106794579B (zh) 2019-12-06
EP2933065A1 (en) 2015-10-21
KR102103624B1 (ko) 2020-04-22
SG11201608200WA (en) 2016-10-28
BR112016023927A2 (pt) 2017-08-15
NZ725016A (en) 2018-02-23
JP6396495B2 (ja) 2018-09-26
US10583559B2 (en) 2020-03-10
MX2016013022A (es) 2017-05-23
KR20170027704A (ko) 2017-03-10
CA2945885C (en) 2019-01-08
CN106794579A (zh) 2017-05-31
US20170120446A1 (en) 2017-05-04
WO2015158877A1 (en) 2015-10-22
RU2016144028A3 (ja) 2018-05-17

Similar Documents

Publication Publication Date Title
JP6396495B2 (ja) 自律的生活能力を備えた人型ロボット
JP6495331B2 (ja) 人と人型ロボットの交流を処理するためのシステム、方法及びコンピュータプログラムプロダクト
KR101137205B1 (ko) 로봇의 행동 제어 시스템 및 행동 제어 방법, 및 로봇 장치
Gross et al. Further progress towards a home robot companion for people with mild cognitive impairment
US8818556B2 (en) Multi-state model for robot and user interaction
JP7243110B2 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに荷物受け取り支援システム
JPWO2003035334A1 (ja) ロボット装置及びその制御方法
US20230266767A1 (en) Information processing apparatus, information processing method, and program
JP7375770B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2020049648A (ja) 社会的合図をプログラム的に解釈するように構成された対話型自律ロボット
CN111613216A (zh) 意思沟通装置以及意思沟通方法
US11938625B2 (en) Information processing apparatus, information processing method, and program
JP7439826B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7559765B2 (ja) 自律移動体、情報処理方法、プログラム、及び、情報処理装置
JP4449372B2 (ja) ロボット装置及びその行動制御方法
KR20210037430A (ko) 로봇과 연결되는 장치, 이의 제어 방법, 및 로봇 시스템
Hendrich et al. User-driven software design for an elderly care service robot
JP2020017206A (ja) 情報処理装置、行動決定方法及びプログラム
Lee et al. Caller Identification Based on Cognitive Robotic Engine
JP7298861B2 (ja) 日常生活を記録する自律行動型ロボット
Dignum et al. Theory and Practice of Social Reasoning Experiences with the iCat

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180829

R150 Certificate of patent or registration of utility model

Ref document number: 6396495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees