JP7075935B2 - 自律型ロボットシステム - Google Patents
自律型ロボットシステム Download PDFInfo
- Publication number
- JP7075935B2 JP7075935B2 JP2019540008A JP2019540008A JP7075935B2 JP 7075935 B2 JP7075935 B2 JP 7075935B2 JP 2019540008 A JP2019540008 A JP 2019540008A JP 2019540008 A JP2019540008 A JP 2019540008A JP 7075935 B2 JP7075935 B2 JP 7075935B2
- Authority
- JP
- Japan
- Prior art keywords
- module
- robot system
- robot
- information
- dialogue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 70
- 238000000034 method Methods 0.000 claims description 35
- 230000008447 perception Effects 0.000 claims description 31
- 238000012544 monitoring process Methods 0.000 claims description 23
- 230000006854 communication Effects 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 22
- 239000003795 chemical substances by application Substances 0.000 claims description 19
- 230000010354 integration Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 8
- 230000006399 behavior Effects 0.000 claims description 7
- 230000009471 action Effects 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 claims description 4
- 230000007175 bidirectional communication Effects 0.000 claims description 4
- 230000000295 complement effect Effects 0.000 claims description 4
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 2
- 230000001953 sensory effect Effects 0.000 claims 1
- 239000000047 product Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002547 anomalous effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000007474 system interaction Effects 0.000 description 1
- 235000019640 taste Nutrition 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Optics & Photonics (AREA)
- Acoustics & Sound (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Description
本出願は、自律型ロボットシステム(自律型のロボットシステム)を開示する。
現在、産業およびサービス提供と同じくらい多様なアプリケーションに関し、ロボットシステムへの関心が高まっている。しかし、(i)経路および障害物迂回の計算などのタスクにおけるハードウェア概念化およびソフトウェアの開発から、(ii)最も抽象的かつ複雑なレベルのヒューマンマシン対話に至るまで、まだ解決されていない様々な課題がある。複数の重要な貢献がすでになされており、それらの一部を以下に要約する。
自立型ロボットシステムが開示されている。当該ロボットシステムは、
中央処理モジュールと、
表示システムと、前記ロボットシステムの外部から知覚情報を収集するための技術的手段と、を含む知覚モジュールと、
前記ロボットシステムの各モジュールに関連する状態およびパラメータを監視する監視モジュールと、
前記ロボットシステムと当該ロボットシステムのユーザと外部エージェントとの間の双方向通信を確立するための技術的手段を含む対話モジュールと、
少なくとも1つのバッテリと充電システムとを含む電源モジュールと、
前記ロボットシステムに搭載されたステアリングシステムに応じて動作する移動モジュールと、を備えており、
各モジュールは、共に接続されており、
各モジュールの動作は、前記中央処理モジュールによって制御され、
各モジュールは、データ処理動作を実行する少なくとも1つの処理ユニットを含んでおり、
前記少なくとも1つの処理ユニットは、各モジュール間の接続を確立する通信サブモジュールを含んでいる。
少なくとも1つの距離センサと、
少なくとも1つのRGBセンサと、
少なくとも1つのソナー(超音波範囲または赤外線範囲の動作周波数を有する)と、
LIDAR技術に関する少なくとも1つのセンサと、
少なくとも1つのレーザ距離計(LRF)センサと、を含んでおり、
各タイプのセンサは、前記知覚モジュールの前記処理ユニットとの通信に先立って知覚処理を実行する、関連する処理ユニットを有している。
少なくとも1つのマイクロフォンと、
少なくとも1つのモニタと、
少なくとも1つのスピーカと、
通信サブモジュールと、を含んでおり、
前記通信サブモジュールは、外部エージェントとの双方向ポイント・トゥ・ポイント通信を確立し、かつ、無線通信技術に応じて動作する。
知覚モジュールと監視モジュールと対話モジュールと移動モジュールとの間の双方向通信を確立するステップと、
知覚モジュールと監視モジュールと対話モジュールとからのデータをリアルタイムで統合する(リアルタイム統合する)ステップと、
追跡モード、案内モード、または2つの地点間のナビゲーションモードで動作するように、前記ロボットシステムの動作モードをプログラムするステップと、
3つのベクトル、すなわち速度、方向、および方位に応じて、前記移動モジュールに情報を送信するステップと、を含んでいる。
本出願は、ロボットシステムを、当該ロボットシステムの周囲の環境において完全な統合に有利な、より合理的かつ「意識的」にする必要性から生じている。
本モジュール(中央処理モジュール)は、ロボットシステムの他のすべてのモジュールを制御する主モジュール(メインモジュール)である。
知覚モジュールは、ロボットシステムが配される(inserted)環境から情報を収集する役割を果たす。知覚モジュールは、ロボットシステムが処理するデータ量ゆえに、計算的により複雑なモジュールである。知覚モジュールは、以下の範囲のセンサを含む:
-少なくとも1つの距離センサ;
-少なくとも1つのRGBセンサ;
-少なくとも1つのソナー(超音波範囲または赤外線範囲の動作周波数を有する);
-LIDAR技術に関する少なくとも1つのセンサ;
-少なくとも1つのレーザ距離計(レーザーレンジファインダ)(LRF)センサ。
-RGBDカメラ;
-RGBカメラ;
-サーマルカメラ;
-とりわけ、ステレオカメラ。
対話モジュールは、ロボットシステム、その(当該ロボットシステムの)ユーザ、および両方の外部エージェントとの間のインターフェースを確立する役割を担うモジュールである。
-少なくとも1つのマイクロフォン;
-少なくとも1つのモニタ;
-少なくとも1つのスピーカ;
によって処理される。これらは、例えば、ジェスチャーまたは音声によって対話を処理することを可能にする。前記ハードウェアを支援するために、画像処理アルゴリズム、すなわち、(a)深度情報および色情報(知覚モジュールは以下の技術的手段、すなわち、(i)深度情報を捕捉するための少なくとも1つのセンサ、例えば、RGBD型センサおよび/またはステレオカメラ、(ii)ならびに、例えば、色情報を収集するための少なくとも1つのRGBDカメラ、を有することを前提とする)(b)および単語認識がこのモジュールに関連付けられた処理ユニットにおいて処理(実行)される。これにより、ユーザとの対話が音声(マイクロフォンおよび/またはスピーカ)または視覚的態様(モニタを介して)によって行われることが可能となる。この例は、ロボットシステムを含むすべてのモジュールによって収集され、かつ、そのユーザまたは周囲環境との異なる種類のコンタクト(連絡)を提供する情報間の対話および統合を明らかにする。
-遠隔制御またはステーションによってシステムを遠隔操作(teleoperation)すること。これにより、外部装置から指令を受け付け、さらにセンサおよびアクチュエータの状態または処理の状態に関する監視情報を共有することが可能となる;
-異なるレベルのロボットシステム間の協働によるチームの操作(チームオペレーション)。この機能は、所与のシナリオで動作可能な様々なロボット間で情報を交換するために、前のポイントで説明した通信性能を使用することが主体にある。複数のロボットは、自身が有するすべての情報を共有し、かつ、他のロボットからの指令を受け付ける//他のロボットへの指令を与えることができる。一例として、使用されるロボットが、常に最も多くのバッテリを有するロボットであると考えることができる。この意味で、全てのロボットのバッテリ(電池)状態を認識していることが必要である。他の可能なアプリケーションは、作業の最適化である。この場合、各ロボットは他のロボットの経路(ルート)に応じた経路を生成する(例えば、2つのロボットがそれぞれ半分の負荷で同じ場所を通過する価値はない);
-中央コマンド・コンピュータへの相互接続によって、自動的なまたは管理されたソフトウェア更新を実行すること。
監視モジュールは、ロボットシステムの他のすべてのモジュールの状態を監視するように意図されている。監視モジュールは、ロボットシステムに関連する異なるパラメータ(例:プロセッサ温度、既存の処理ユニットの速度および負荷、使用されるRAMメモリおよびストレージスペース(記憶スペース)、移動モジュールのエンジンコントローラ温度、ロボットの速度および位置、バッテリの電力レベルなど)を制御する。
電源モジュール(パワーモジュール)は、少なくとも1つのバッテリと、有線および/または無線充電システムと、を備える。有線充電システムは、電源をロボットのバッテリに直接的に接続する接点プラグ(コンタクトプラグ)に基づく。一方、無線充電システムは、空気中において2点間でエネルギーを伝達するために、電磁気(無線信号、電磁波、または同等の事項)を使用することに基づいている。環境内には(複数の)固定された送信機が存在し、ロボットシステムの電源モジュールは、内蔵型の受信機を含む。受信機が送信機の近くに存在している場合(必ずしも接触している必要はない)、エネルギーの伝達が生じる。このシステムは、高い汚染環境(例えば、産業)、および、ロボットが自律的に充電ステーションに接続されなければならないアプリケーションにおいて、物理的接続に対する利点を有する(位置精度が必ずしも要求されないので、接続処理を簡単化できる)。送信機および受信機は、本質的には、コイルによって構成される。当該コイルの送信機側では、可変電場を発生させる時間内に、可変電流によって給電される。受信機側からは、発生した磁場に基づく励起によって、コイルに発生した電流が使用される。
移動モジュールは、ロボットを移動(変位)させる役割を担う。上述のように、当該移動モジュールは、3つのベクトル、すなわち、速度、方向(direction)、および方位(orientation)に従って、後の情報から受信する中央処理モジュールと通信する。処理ユニット内のソフトウェアレベルにおいて生成される抽象化層は、それぞれのハードウェア変更によって、すなわち、差動ステアリング、アッカーマンステアリング(ackermann steering)、および全方向ステアリング(omnidirectional steering)によって、異なる種類のステアリングシステムを適合させることを可能にする。
本出願のより良い理解のために、好ましい実施形態を表す図が本明細書に添付されている。但し、これらの図は本明細書に開示されている技術を限定することを意図するものではない。
図面を参照して、複数の実施形態をより詳細に説明する。但し、これらの実施形態は、本出願の範囲を限定することを意図するものではない。
Claims (18)
- 自律型のロボットシステムであって、
中央処理モジュールと、
ロバストな範囲のセンサと、複数のカメラを含んだ表示システムと、を含む知覚モジュールと、
前記ロボットシステムの各モジュールに関連する状態およびパラメータを監視する監視モジュールと、
前記ロボットシステムと当該ロボットシステムのユーザと外部エージェントとの間の双方向通信を確立するための技術的手段を含む対話モジュールと、
少なくとも1つのバッテリと充電システムとを含む電源モジュールと、
前記ロボットシステムに搭載されたステアリングシステムに応じて動作する移動モジュールと、を備えており、
各モジュールは、データ処理動作を実行する少なくとも1つの処理ユニットを含んでおり、
各モジュールの前記少なくとも1つの処理ユニットは、各モジュール間の接続を確立する通信サブモジュールを含んでおり、
各モジュールの動作は、前記中央処理モジュールによって制御され、
前記知覚モジュールは、
前記ロバストな範囲のセンサおよび前記表示システムに新たにインストールされたコンポーネントを自動的に設定する較正ブロックを含んでおり、
相補的かつ冗長な構成を有する異なるタイプのセンサおよびカメラから収集された情報を組み合わせることによって、ユーザによって実行されるアクションを認識するために、人工知能(AI)および学習アルゴリズムに基づいて、前記ロボットシステムが配置されている周囲環境から知覚情報を収集するように、時間の経過に伴い適合され、
AIアルゴリズムを実行する前記中央処理モジュールは、
前記ロボットシステムの各モジュールの全ての動作を制御し、
前記ロボットシステムが配置されている前記周囲環境から直接的に収集された、前記知覚モジュールからのデータのリアルタイム統合;
前記対話モジュールによって、ジェスチャーまたは音声を介してユーザから受信した指令に由来するデータのリアルタイム統合;
前記対話モジュールによって、外部エージェントから受信した指令に由来するデータのリアルタイム統合;
という3つの異なるタイプの情報源に基づいて、各モジュールにおいて実行すべき行動を決定し、
前記中央処理モジュールは、前記ロバストな範囲のセンサの状態と、処理の状態と、異なるレベルのロボットシステム間の協働による動作の状態と、についての情報を共有する、自立型のロボットシステム。 - 前記知覚モジュールの前記表示システムは、水平軸および垂直軸に応じた動的挙動を伴う、RGBDタイプ、RGBタイプ、サーマルタイプ、およびステレオタイプの複数のカメラを含んでいる、請求項1に記載のシステム。
- 前記知覚モジュールの前記ロバストな範囲のセンサは、
少なくとも1つの距離センサと、
少なくとも1つのRGBセンサと、
超音波周波数範囲または赤外線周波数範囲において動作する少なくとも1つのソナーと、
LIDAR技術に関する少なくとも1つのセンサと、
少なくとも1つのレーザ距離計(LRF)センサと、を含んでおり、
各センサは、前記知覚モジュールの前記処理ユニットとの通信に先立って知覚処理を実行する処理ユニットをさらに有している、請求項1に記載のシステム。 - 前記知覚モジュールの前記処理ユニットは、画像処理アルゴリズムを実行する、請求項1~3のいずれか1項に記載のシステム。
- 前記監視モジュールは、プロセッサ温度、速度および負荷、使用されるRAMメモリ、並びにストレージスペースなどのパラメータを監視するために、ハードウェア通信プロトコルによって、前記ロボットシステムの残りの各モジュールの前記処理ユニットと通信する、請求項1に記載のシステム。
- 前記監視モジュールは、前記ロボットシステムの前記移動モジュールと接続することによって、移動エンジンコントローラの温度と、前記ロボットシステムの速度と、を決定する、請求項5に記載のシステム。
- 前記監視モジュールは、前記ロボットシステムの前記電源モジュールと接続することによって、前記ロボットシステムのバッテリレベルを決定する、請求項5に記載のシステム。
- 前記対話モジュールは、
少なくとも1つのマイクロフォンと、
少なくとも1つのモニタと、
少なくとも1つのスピーカと、
通信サブモジュールと、を含んでおり、
前記通信サブモジュールは、外部エージェントとの双方向ポイント・トゥ・ポイント通信を確立し、かつ、無線通信技術に応じて動作する、請求項1に記載のシステム。 - 前記通信サブモジュールは、Wi-Fi、Bluetooth、LAN、およびIR技術に応じて動作する、請求項8に記載のシステム。
- 前記外部エージェントは、データサーバである、請求項8に記載のシステム。
- 前記移動モジュールは、アッカーマン型、差動型、または全方向型の前記ステアリングシステムに応じて動作する、請求項1に記載のシステム。
- 請求項1~11に記載の前記ロボットシステムの前記中央処理モジュールを動作させるための方法であって、
知覚モジュールと監視モジュールと対話モジュールと移動モジュールとの間の双方向通信を確立するステップと、
知覚モジュールと監視モジュールと対話モジュールとからのデータをリアルタイムで統合するステップと、
追跡モード、案内モード、または2つの地点間のナビゲーションモードで動作するように、前記ロボットシステムの動作モードをプログラムするステップと、
3つのベクトル、すなわち速度、方向、および方位に応じて、前記移動モジュールに情報を送信するステップと、を含んでいる、方法。 - 前記中央処理モジュールは、前記知覚モジュールと前記対話モジュールと前記監視モジュールとからの情報を、ステータスマシンまたはマルコフモデルアルゴリズムに応じて処理することにより、前記ロボットシステムの動作モードを設定する請求項12に記載の方法。
- 前記対話モジュールからの前記情報は、前記モニタ内における接触によって、または、マイクロフォンを介した音声情報によって、前記ユーザにより入力された入力パラメータである、請求項13に記載の方法。
- 前記対話モジュールからの前記情報は、外部エージェントによって前記ロボットシステムに送信される、請求項13または14に記載の方法。
- 前記追跡モードは、前記知覚モジュールにおいて実行されるユーザ識別ステージを含んでおり、
前記ユーザ識別ステージは、深度センサおよびRGBカメラからのデータの統合処理を含んでいる、請求項12に記載の方法。 - ユーザ識別に学習アルゴリズムが用いられる、請求項16に記載の方法。
- 2つの地点間の案内およびナビゲーションモードの設定は、地理的マップをダウンロードするために、前記対話モジュールと前記外部エージェントとを接続することを含んでいる、請求項12に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PT109871 | 2017-01-20 | ||
PT10987117 | 2017-01-20 | ||
PCT/IB2018/050317 WO2018134763A1 (en) | 2017-01-20 | 2018-01-18 | Autonomous robotic system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020507160A JP2020507160A (ja) | 2020-03-05 |
JP7075935B2 true JP7075935B2 (ja) | 2022-05-26 |
Family
ID=61258566
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019540008A Active JP7075935B2 (ja) | 2017-01-20 | 2018-01-18 | 自律型ロボットシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20190354102A1 (ja) |
EP (1) | EP3571560B1 (ja) |
JP (1) | JP7075935B2 (ja) |
CA (1) | CA3055445A1 (ja) |
MX (1) | MX2019008657A (ja) |
WO (1) | WO2018134763A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110471409B (zh) * | 2019-07-11 | 2022-12-02 | 深圳市优必选科技股份有限公司 | 机器人巡检方法、装置、计算机可读存储介质及机器人 |
CN111438678A (zh) * | 2020-05-22 | 2020-07-24 | 陕西科技大学 | 一种智能购物跟随机器人及方法 |
WO2024190308A1 (ja) * | 2023-03-10 | 2024-09-19 | ソニーグループ株式会社 | 情報処理装置、遠隔操作制御方法、遠隔操作制御システム、及び、自律移動体 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004054638A (ja) | 2002-07-19 | 2004-02-19 | Honda Motor Co Ltd | クロスモーダル学習装置及び認識処理方法 |
JP2009509673A (ja) | 2005-09-30 | 2009-03-12 | アイロボット コーポレーション | 個人の相互交流のためのコンパニオンロボット |
CN103926925A (zh) | 2014-04-22 | 2014-07-16 | 江苏久祥汽车电器集团有限公司 | 一种基于改进的vfh算法的定位与避障方法及机器人 |
JP2014176963A (ja) | 2013-03-14 | 2014-09-25 | Toyota Motor Engineering & Manufacturing North America Inc | ロボット装置/プラットフォームを使用して能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム |
JP2014195868A (ja) | 2010-05-20 | 2014-10-16 | アイロボット コーポレイション | 移動式ロボットを作動させて人について行くようにする方法 |
CN105204509A (zh) | 2015-10-09 | 2015-12-30 | 南京采薇且歌信息科技有限公司 | 通过远程控制实现园区巡检和野外勘察的履带机器人系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2581481B2 (ja) * | 1995-07-21 | 1997-02-12 | 株式会社日立製作所 | 制御装置 |
JP2005103678A (ja) * | 2003-09-29 | 2005-04-21 | Toshiba Corp | ロボット装置 |
ATE524783T1 (de) | 2004-03-27 | 2011-09-15 | Harvey Koselka | Autonomer persönlicher dienstroboter |
JP4316477B2 (ja) | 2004-11-18 | 2009-08-19 | パナソニック株式会社 | 移動ロボットの追従方法 |
EP1994753A2 (en) | 2005-09-26 | 2008-11-26 | Koninklijke Philips Electronics N.V. | Method and device for tracking a movement of an object or of a person |
US7974738B2 (en) * | 2006-07-05 | 2011-07-05 | Battelle Energy Alliance, Llc | Robotics virtual rail system and method |
US20110026770A1 (en) | 2009-07-31 | 2011-02-03 | Jonathan David Brookshire | Person Following Using Histograms of Oriented Gradients |
US8213680B2 (en) | 2010-03-19 | 2012-07-03 | Microsoft Corporation | Proxy training data for human body tracking |
US9321173B2 (en) | 2012-06-22 | 2016-04-26 | Microsoft Technology Licensing, Llc | Tracking and following people with a mobile robotic device |
US9948917B2 (en) | 2012-09-19 | 2018-04-17 | Follow Inspiration Unipessoal, Lda. | Self tracking system and its operation method |
-
2018
- 2018-01-18 JP JP2019540008A patent/JP7075935B2/ja active Active
- 2018-01-18 EP EP18706853.1A patent/EP3571560B1/en active Active
- 2018-01-18 CA CA3055445A patent/CA3055445A1/en active Pending
- 2018-01-18 US US16/478,020 patent/US20190354102A1/en not_active Abandoned
- 2018-01-18 MX MX2019008657A patent/MX2019008657A/es unknown
- 2018-01-18 WO PCT/IB2018/050317 patent/WO2018134763A1/en unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004054638A (ja) | 2002-07-19 | 2004-02-19 | Honda Motor Co Ltd | クロスモーダル学習装置及び認識処理方法 |
JP2009509673A (ja) | 2005-09-30 | 2009-03-12 | アイロボット コーポレーション | 個人の相互交流のためのコンパニオンロボット |
JP2014195868A (ja) | 2010-05-20 | 2014-10-16 | アイロボット コーポレイション | 移動式ロボットを作動させて人について行くようにする方法 |
JP2014176963A (ja) | 2013-03-14 | 2014-09-25 | Toyota Motor Engineering & Manufacturing North America Inc | ロボット装置/プラットフォームを使用して能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム |
CN103926925A (zh) | 2014-04-22 | 2014-07-16 | 江苏久祥汽车电器集团有限公司 | 一种基于改进的vfh算法的定位与避障方法及机器人 |
CN105204509A (zh) | 2015-10-09 | 2015-12-30 | 南京采薇且歌信息科技有限公司 | 通过远程控制实现园区巡检和野外勘察的履带机器人系统 |
Also Published As
Publication number | Publication date |
---|---|
JP2020507160A (ja) | 2020-03-05 |
EP3571560A1 (en) | 2019-11-27 |
MX2019008657A (es) | 2019-12-16 |
US20190354102A1 (en) | 2019-11-21 |
CA3055445A1 (en) | 2018-07-26 |
WO2018134763A1 (en) | 2018-07-26 |
EP3571560B1 (en) | 2022-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3525992B1 (en) | Mobile robot and robotic system comprising a server and the robot | |
US11673269B2 (en) | Method of identifying dynamic obstacle and robot implementing same | |
WO2019138834A1 (ja) | 情報処理装置、情報処理方法、プログラム、およびシステム | |
US20210362335A1 (en) | Robot and method for manage item using same | |
US20220035376A1 (en) | Systems and Methods for End-to-End Trajectory Prediction Using Radar, Lidar, and Maps | |
US11858148B2 (en) | Robot and method for controlling the same | |
CN106292657B (zh) | 可移动机器人及其巡逻路径设置方法 | |
US20210097852A1 (en) | Moving robot | |
JP6891753B2 (ja) | 情報処理装置、移動装置、および方法、並びにプログラム | |
US20200101974A1 (en) | Device and method for selecting optimal travel route based on driving situation | |
US11372418B2 (en) | Robot and controlling method thereof | |
US20220291685A1 (en) | Method and system to improve autonomous robotic systems responsive behavior | |
CN110858098A (zh) | 使用人-机器人交互的自驱动移动机器人 | |
JP7075935B2 (ja) | 自律型ロボットシステム | |
EP3753688A1 (en) | Mobile robot device and method for providing service to user | |
WO2021178513A1 (en) | Systems and methods for integrating radar data for improved object detection in autonomous vehicles | |
US11768490B2 (en) | System and methods for controlling state transitions using a vehicle controller | |
JP2020079997A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20240310860A1 (en) | Methods and apparatus for controlling automated vehicles in an environment using virtual approved pathways | |
KR102331672B1 (ko) | 사용자의 위치를 결정하는 인공 지능 장치 및 그 방법 | |
US11635759B2 (en) | Method of moving robot in administrator mode and robot of implementing method | |
KR20190104264A (ko) | 차량에 탑재되는 인공 지능 장치 및 그 방법 | |
WO2020213275A1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
Aarthi et al. | Smart alert and intimation system for VIP (visually impaired person) | |
TWI806429B (zh) | 控制自動導引車之模組化控制系統及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220419 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220516 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7075935 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |