Nothing Special   »   [go: up one dir, main page]

JP2013508183A - 移動ロボットのスリップ感知装置および方法 - Google Patents

移動ロボットのスリップ感知装置および方法 Download PDF

Info

Publication number
JP2013508183A
JP2013508183A JP2012536639A JP2012536639A JP2013508183A JP 2013508183 A JP2013508183 A JP 2013508183A JP 2012536639 A JP2012536639 A JP 2012536639A JP 2012536639 A JP2012536639 A JP 2012536639A JP 2013508183 A JP2013508183 A JP 2013508183A
Authority
JP
Japan
Prior art keywords
slip
mobile robot
angle
rotation angle
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012536639A
Other languages
English (en)
Other versions
JP5421461B2 (ja
Inventor
キョンチョル シン
ションジュ パク
ヒゴン イ
ジェヨン イ
ヒョンオ キム
ジェイムス ストニア ダニエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yujin Robot Co Ltd
Original Assignee
Yujin Robot Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yujin Robot Co Ltd filed Critical Yujin Robot Co Ltd
Publication of JP2013508183A publication Critical patent/JP2013508183A/ja
Application granted granted Critical
Publication of JP5421461B2 publication Critical patent/JP5421461B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本発明は、移動ロボットのスリップ感知装置および方法に関し、より詳しくは、複数の回転感知センサを利用して側面スリップ角および側面スリップ方向を感知するだけでなく、映像変化量を分析して映像入力部の遮蔽位を検出することにより、入力映像の品質を判断して正面スリップ可否を感知することができ、スリップの種類とスリップの方向および回転角を精密に感知することができ、これに基づいてスリップ領域を脱出および回避することができ、移動ロボットの正確な位置を復旧することができる、移動ロボットのスリップ感知装置および方法に関する。

Description

本発明は、移動ロボットの感知装置および方法に関し、より詳しくは、複数の方向センサと単一の映像センサを利用して移動ロボットの走行時に発生したスリップを正確に感知し、これに基づいて移動ロボットの走行を制御して危険地域を脱出し、スリップによって誤認識された移動ロボットの位置を復旧することができる移動ロボットの感知装置および方法に関する。
最近、ロボット技術の発展に伴い、自らが経路を設定して移動する移動ロボットが活用されている。移動ロボットの代表的な例としては、住宅や建物内部を掃除する掃除用ロボットや、位置を案内する案内ロボットなどを挙げることができる。特に、掃除ロボットの場合には各種センサと走行手段を備え、走行しながら内部に備えられた真空掃除ユニットを利用して室内フロアを掃除し、現在では多数の製品が実際に用いられている。
このような移動ロボットが空間で効果的に位置を判断しながら移動するためには、移動している空間に対する地図を生成し、空間上の自身の位置を認識することが求められる。移動ロボットが周辺空間に対して自らが位置を認識して地図を形成することを、同時位置認識および地図形成(SLAM:Simultaneous Localization And Mapping)という。
SLAM技法のうち、映像基盤のSLAMは、映像から抽出した視覚特徴点を利用して周辺環境に対する地図を生成し、ロボットの姿勢を推定する。通常の移動ロボットは、ジャイロスコープと駆動モータに備えられたエンコーダを利用して推測航法(dead reckoning)によって走行し、上部に設置されたカメラを利用して映像を分析して地図を生成する。このとき、ジャイロスコープとエンコーダからの走行情報による誤差が発生する場合、カメラから得られた映像情報を活用して累積する誤差が補正される。
上述した従来技術に係る移動ロボットは、走行時にスリップが発生した場合、効果的にスリップ領域を脱出することができなかったり、スリップ角と方向を正確に検出することができないという問題点があった。
上述したような問題点を解決するために、本発明は、側面スリップ時のスリップ角とスリップ方向を感知し、これと共に正面スリップを感知してスリップの種類を判断し、スリップの種類に応じて相違した方法によってスリップ領域を脱出し、発生したスリップ方向と時間を推定して累積した誤差を復旧することができる、移動ロボットの感知装置および方法を提供することを目的とする。
上述したような目的を達成するために、本発明に係る移動ロボットのスリップ感知装置は、移動ロボットが回転したと推定される第1回転角を推定する第1回転角推定部;前記移動ロボットの実際回転によって発生した第2回転角を測定する第2回転角測定部;映像獲得手段から得た少なくとも順次的な2つの映像の変化量を算出する映像変化量算出部;および前記第1、2回転角の誤差角および前記映像変化量に基づいて前記移動ロボットのスリップ方向とスリップ角を算出してスリップの種類を検出し、その検出されたスリップ種類に応じてスリップ領域の脱出のための相違した脱出制御信号を出力するスリップ感知部;を含む。
前記スリップ感知部は、前記スリップ方向、スリップ角、および映像変化量に基づき、前記スリップ時に発生した位置情報のエラーに対して移動ロボットの位置を復旧する復旧信号を出力することを特徴とする。
前記スリップ感知部は、前記誤差角が基準誤差角よりも大きい場合には、前記移動ロボットに第1スリップの発生を感知することを特徴とする。
前記スリップ感知部は、前記スリップ感知時に前記誤差角の符号が負の値を有する場合には、前記移動ロボットの右輪にスリップが発生したと判断し、前記移動ロボットが予め設定された距離または時間を後進した後に左側方向に前進する脱出制御信号を出力することを特徴とする。
前記スリップ感知部は、前記スリップ感知時に前記誤差角の符号が正の値を有する場合には、前記移動ロボットの左輪にスリップが発生したと判断し、前記移動ロボットが予め設定された距離または時間を後進した後に右側方向に前進する脱出制御信号を出力することを特徴とする。
前記スリップ感知部は、前記映像変化量と基準変化量を比較し、前記映像変化量が基準変化量よりも小さな場合には前記移動ロボットが停滞したと推定し、停滞回数を算出することを特徴とする。
前記スリップ感知部は、前記停滞回数が基準回数よりも大きく、これと共に前記誤差角に基づいた移動ロボットの速度が基準速度よりも大きい場合には、第2スリップの発生を感知することを特徴とする。
上述した目的を達成するために、本発明に係る移動ロボットのスリップ感知方法は、a)移動ロボットが回転したと推定される第1回転角を推定する段階;b)前記移動ロボットの実際回転によって発生した第2回転角を測定する段階;およびc)前記第1回転角と前記第2回転角の誤差角を求め、その誤差角に基づいて前記移動ロボットのスリップ方向とスリップ角を算出して第1スリップを感知する段階;を含む。
前記スリップ感知方法は、d)少なくとも順次的に入力された2つの映像の変化量を算出して第2スリップを感知する段階をさらに含むことを特徴とする。
前記スリップ感知方法は、e)前記感知された第1スリップと第2スリップに基づいてスリップの種類を検出し、その検出されたスリップの種類に応じて選択的にスリップ領域を脱出する段階をさらに含むことを特徴とする。
前記スリップ感知方法は、f)前記スリップ方向、スリップ角、および映像変化量に基づいて移動ロボットの位置を復旧する段階をさらに含むことを特徴とする。
前記第1回転角推定段階は、前記移動ロボットの左輪駆動部の回転速度である第1角速度と右輪駆動部の回転速度である第2角速度を検出する段階、および前記第1角速度と第2角速度の差および前記移動ロボットのタイヤの直径に基づいて前記第1回転角を算出する段階を含むことを特徴とする。
前記c)段階は、前記第1回転角と前記第2回転角の誤差角を求めて基準誤差角と比較する段階、および前記誤差角が前記基準誤差角よりも大きい場合には前記移動ロボットにスリップが発生したと判断し、スリップ領域を脱出する段階を含むことを特徴とする。
前記スリップ領域脱出段階は、前記移動ロボットが予め設定された距離または時間を後進した後に前記スリップ方向と反対方向に前進して前記スリップ領域を脱出することを特徴とする。
前記スリップ領域脱出段階は、前記誤差角の符号が負の値を有する場合には前記移動ロボットの右輪にスリップが発生したと判断し、予め設定された距離または時間を後進した後に左側方向に前進して前記スリップ領域を脱出することを特徴とする。
前記スリップ領域脱出段階は、前記誤差角の符号が正の値を有する場合には前記移動ロボットの左輪にスリップが発生したと判断し、予め設定された距離または時間を後進した後に右側方向に前進して前記スリップ領域を脱出することを特徴とする。
前記誤差角は、前記移動ロボットの初期位置を基準として+180と−180度の間の値を有することを特徴とする。
前記誤差角が前記移動ロボットの移動時間に対して不連続区間を有する場合に、前記不連続区間の誤差角をy軸方向に平行移動させ、前記不連続区間が連続区間になるように前記誤差角を前処理することを特徴とする。
前記d)段階は、前記入力された映像をN領域に分割し、移動ロボットの進行方向または反対方向を基準として対象領域を1/Nだけ増加させ、各増加した領域の平均と分散を算出する段階、および前記各領域の平均と分散値の変化量に基づき、前記映像が遮蔽されない場合に、前記映像変化量が基準変化量よりも小さい場合に入力映像が停滞したと推定して停滞回数を計算する段階を含むことを特徴とする。
前記d)段階では、前記停滞回数が基準回数よりも大きく、これと共に前記誤差角に基づいた移動ロボットの速度が基準速度よりも大きい場合に、前記第2スリップの発生を感知することを特徴とする。
前記第2スリップの発生が感知されれば、前記移動ロボットは、予め設定された距離または時間を後進した後に前記スリップ発生領域を回避して走行することを特徴とする。
本発明の実施形態に係る移動ロボットのスリップ感知装置および方法は、側面スリップ時のスリップ角とスリップ方向を感知し、これと共に正面スリップを感知することにより、スリップの種類を判断することができる。
また、本発明の実施形態に係る移動ロボットのスリップ感知装置および方法は、検出されたスリップの種類に応じて相違した方法によって効率的にスリップ領域を脱出することができる。
さらに、本発明の実施形態に係る移動ロボットのスリップ感知装置および方法は、スリップ方向と時間を推定してスリップ時に累積した移動ロボットの位置誤差を復旧することができる。
図1は本発明の好ましい実施形態が適用される移動ロボットの構成を示すブロック図である。 図2は本発明の好ましい実施形態に係る移動ロボットのスリップ感知装置の構成を示すブロック図である。 図3は本発明の好ましい実施形態に係る移動ロボットのスリップ感知方法を示すフローチャートである。 図4は移動ロボットの走行中の時間t1で左輪にスリップが発生した場合の推定回転角と測定回転角を示す図である。 図5は本発明の好ましい実施形態に係る移動ロボットのスリップ感知装置および方法によって感知された回転角データとこれを加工したデータを示す図である。 図6は時間t1でスリップが発生した場合において、加工された推定回転角と測定回転角を示す図である。 図7は本発明の好ましい実施形態に係る移動ロボットのスリップ方法によって感知された第1スリップ感知結果を示す図である。 図8は得た映像を移動ロボットの進行方向(d)を基準として4等分して映像獲得部の遮蔽可否を判断する過程を示す図である。
以下、本発明の好ましい実施形態について、添付の図面を参照しながら詳しく説明する。まず、各図面の構成要素に参照符号を付与するにおいて、同じ構成要素に対しては、たとえ他の図面上に表示されていても、可能な限り同じ符号を有するようにしていることに留意しなければならない。また、本発明を説明するにおいて、関連する公知構成または機能に対する具体的な説明が本発明の要旨を不明瞭にし得ると判断される場合には、その詳細な説明は省略する。さらに、以下で本発明の好ましい実施形態を説明するが、本発明の技術的思想はこれに限定されたり制限されるものではなく、当業者によって変形されて多様に実施されることができることは勿論である。
図1は、本発明の好ましい実施形態が適用される移動ロボットの構成を示すブロック図である。
図1を参照すれば、前記移動ロボット100は、映像を取得する映像獲得部110、映像獲得部110で得られた映像を処理して映像内の特徴点を抽出し、特徴点に対する記述子(descriptor)を生成する映像処理部120、移動ロボット100の移動方向情報と移動距離などをセンシングするセンサ部140、得られた映像に基づいて移動ロボットが移動する空間に対する地図を生成し、得られた映像から抽出した特徴点に関する情報とセンサ部140から得られた走行情報に基づいて移動ロボットの作動を制御する主制御部130、主制御部130の制御によってロボットを駆動するロボット駆動部150、および移動ロボットのスリップ角、スリップ方向、およびスリップ種類を感知し、感知されたスリップ種類に応じてスリップ領域の脱出のための相違した脱出制御信号を出力するスリップ感知装置200を含む。
映像獲得部110は、移動ロボットが位置した周辺環境に対する映像を取得する装置であって、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などのようなイメージセンサを含んで構成されることができる。本発明において、映像獲得部110は上を向くように配置され、天井映像を得るように配置されることが好ましい。より好ましくは、映像獲得部110は、魚眼レンズ(fisheye lens)のような広角(wide angle)レンズを備え、広い範囲の天井映像を得られるようにする。
映像処理部120は、映像歪曲補正部121および映像品質点検部122を含む。
映像歪曲補正部121は、映像獲得部110で得られた映像の歪曲を補正する機能を実行する。映像獲得部110が魚眼レンズまたは広角レンズを含む場合、映像獲得部110を通じて得られた映像は歪曲(radial distortion)を含む。これにより、映像獲得部110は、事前に得られたカメラパラメータを利用して映像の歪曲を除去する。
映像品質点検部122は、得られた映像の可用性を判断する機能を実行する。映像獲得部110に直射光線が照射されたり、映像獲得部110がテーブルのような障害物によって隠れる場合、映像獲得部110で得られた映像は、移動ロボットの位置認識に使用されるのに不適合となることがある。これにより、映像品質点検部122は得られた映像を点検し、得られた映像が不適合である場合、これを排除する機能を実行する。一例として、映像品質点検部122は、得られた映像の明度を基準とし、明度が極めて高かったり低かったりする場合には不適合な映像として処理することができる。得られた映像が排除される場合、主制御部130は、ジャイロスコープ44やエンコーダ142から得られた走行記録情報に基づいて移動ロボット100の移動を制御することができる。
地図管理部131は、移動ロボット100の映像獲得部110で得られた映像、移動ロボット100の移動方向と距離などの走行情報、特徴点の位置などに基づいて移動ロボット100が位置した空間に対する地図を生成して更新する機能を実行する。場合によっては、前記空間に対する地図が移動ロボット100に予め提供されることができ、この場合には、空間に位置した障害物などの情報と特徴点情報に基づき、地図管理部131は地図を継続して更新するようにできる。
走行制御部132は、移動ロボット100の現在位置および走行情報に基づいて移動ロボット100の走行を制御する機能を実行する。移動ロボット100の走行のための一実施形態として、移動ロボット100は左輪151と右輪152を備え、左輪と右輪の駆動のためのロボット駆動部150として左輪駆動モータ(図示せず)と右輪駆動モータ(図示せず)を備えることができる。走行制御部132は、左輪駆動モータと右輪駆動モータそれぞれの回転を制御することにより、移動ロボット100の前進、後進、左折、および右折などの走行が可能となるようにできる。この場合、左輪駆動モータと右輪駆動モータにはそれぞれエンコーダ142が備えられ、左輪駆動モータと右輪駆動モータの駆動情報を得る。
一方、前記走行制御部132は、拡張カルマンフィルタ(EKF:Extended Kalman Filter)を活用し、現在特徴点の位置と移動ロボットの位置に基づいて以後の特徴点の位置と移動ロボットの位置を予測することにより、移動ロボット100の走行を制御するように設計されることができる。
以下、図2を参照しながら、本発明の一実施形態に係る移動ロボットのスリップ感知装置200を詳しく説明する。
図2は、本発明の好ましい実施形態に係る移動ロボットのスリップ感知装置の構成を示すブロック図である。
図2を参照すれば、本発明の一実施形態に係る移動ロボットのスリップ感知装置200は、移動ロボットが回転したと推定される第1回転角を推定する第1回転角推定部220、前記移動ロボットの実際回転によって発生した第2回転角を測定する第2回転角測定部240、映像獲得手段から得た少なくとも順次的な2つの映像の変化量を算出する映像変化量算出部250、および前記第1、2回転角の誤差角および前記映像変化量に基づいて前記移動ロボットのスリップ方向とスリップ角を算出してスリップの種類を検出し、その検出されたスリップ種類に応じてスリップ領域の脱出のための相違した脱出制御信号を出力するスリップ感知部210を含む。
前記第1回転角推定部220は、ロボット駆動部150の回転軸の角速度を算出する駆動速度検出部230で検出した角速度の入力を受けて前記第1回転角を推定する。
ここで、前記駆動速度検出部230としてはホイールエンコーダが用いられることができ、前記第2回転角測定部240としてはジャイロスコープのような慣性センサが用いられることができる。また、前記駆動速度検出部230と第2回転角測定部240は、前記センサ部140のエンコーダ142と慣性センサ141がそのまま利用されることができる。この場合、前記推定された第1回転角は前記ホイールエンコーダが推定した回転角となり、前記第2回転角は前記慣性センサが測定した回転角となる。
前記スリップ感知部210は、前記スリップ方向、スリップ角、および映像変化量に基づき、前記スリップ時に発生した位置情報のエラーに対して移動ロボットの位置を復旧する信号を出力する。
前記スリップ感知部210は、前記誤差角が基準誤差角よりも大きい場合には、前記移動ロボットに側面スリップが発生したことを感知し、前記スリップがどの方向に発生したのかを知るために、前記誤差角の符号が正であるか負であるかを判断する。
前記スリップ感知部210は、スリップ感知時に前記誤差角の符号が負の値を有する場合には、前記移動ロボットの右輪152にスリップが発生したと判断する。前記スリップ感知部210は、上述したように右輪にスリップ発生した場合に、前記移動ロボットが予め設定された距離または時間を後進した後に左側方向に前進する脱出制御信号を出力する。
また、前記スリップ感知部210は、スリップ感知時に前記誤差角の符号が正の値を有する場合には、前記移動ロボットの左輪151にスリップが発生したと判断し、前記移動ロボットが予め設定された距離または時間を後進した後に右側方向に前進する脱出制御信号を出力する。
以下、図3〜図7を参照しながら、本発明の一実施形態に係る説明による移動ロボット100のスリップ感知方法について説明する。
図3は、本発明の好ましい実施形態に係る移動ロボットのスリップ感知方法を示すフローチャートである。図4は、移動ロボットの走行中の時間t1で左輪にスリップが発生した場合の推定回転角と測定回転角を示す図である。図5は、本発明の好ましい実施形態に係る移動ロボットのスリップ感知装置および方法によって感知された回転角データとこれを加工したデータを示す図である。図6は、時間t1でスリップが発生した場合において、加工された推定回転角と測定回転角を示す図である。図7は、本発明の好ましい実施形態に係る移動ロボットのスリップ方法によって感知された第1スリップ感知結果を示す図である。図8は、得た映像を移動ロボットの進行方向(d)を基準として4等分して映像獲得部の遮蔽可否を判断する過程を示す図である。
図3を参照すれば、移動ロボットのスリップ感知方法は、a)移動ロボットが回転したと推定される第1回転角を推定する段階(S210)、b)前記移動ロボットの実際回転によって発生した第2回転角を測定する段階(S210)、およびc)前記第1回転角と前記第2回転角の誤差角を求め、その誤差角に基づいて前記移動ロボットのスリップ方向とスリップ角を算出して第1スリップを感知する段階(S200)を含む。
前記スリップ感知方法は、d)少なくとも順次的に入力された2つの映像の変化量を算出して第2スリップを感知する段階(S300)をさらに含むことを特徴とする。
前記スリップ感知方法は、e)前記感知された第1スリップと第2スリップに基づいてスリップの種類を検出し(S400)、その検出されたスリップの種類に応じて選択的にスリップ領域を脱出する段階(S500)をさらに含むことを特徴とする。
前記スリップ感知方法は、f)前記スリップ方向、スリップ角、および映像変化量に基づいて移動ロボットの位置を復旧する段階(S600)をさらに含むことを特徴とする。
前記第1回転角推定段階(S120)は、前記移動ロボットの左輪駆動部の回転速度である第1角速度と右輪駆動部の回転速度である第2角速度を検出し、前記第1角速度と第2角速度の差および前記移動ロボットのタイヤの直径に基づいて前記第1回転角を算出する。
前記第1スリップを感知する段階(S200)では、前記第1回転角と前記第2回転角の誤差角を求めて基準誤差角と比較し、前記誤差角が前記基準誤差角よりも大きい場合には前記移動ロボットにスリップが発生したと判断し、スリップ領域を脱出する(S500)。
このとき、前記移動ロボット100は、予め設定された距離または時間を後進した後に、前記スリップ方向と反対方向に前進して前記スリップ領域を脱出するようになる。このとき、前記スリップ感知部210は、前記誤差角の符号が負の値を有する場合には前記移動ロボットの右輪にスリップが発生したと判断し、前記移動ロボット100は、前記スリップ感知部の脱出制御信号によって予め設定された距離または時間を後進した後に左側方向に前進して前記スリップ領域を脱出するようになる。しかし、前記スリップ感知部210は、前記誤差角の符号が正の値を有する場合には前記移動ロボットの左輪にスリップが発生したと判断し、前記移動ロボット100は、前記スリップ感知部の脱出制御信号によって予め設定された距離または時間を後進した後に右側方向に前進して前記スリップ領域を脱出するようになる。
図4〜図6を参照しながら、より詳細に前記第1スリップ感知段階について説明する。
まず、第1回転角推定部220は、駆動速度検出部230で測定したロボット駆動部の回転軸の角速度成分を積分し、移動ロボット100が回転したと推定される回転角であるθencoを出力する。前記駆動速度検出部230は、差等駆動方式によって左輪151と右輪152から駆動回転角速度wLとwRを測定する。移動ロボットの移動速度は、角速度の平均にタイヤの半径を掛けて求めることができる。また、回転角(θenco)は、両タイヤの角速度差にタイヤの半径を掛けて求めることができる。これを再び積分するようになれば、エンコーダのような駆動速度検出230による回転角(θenco)を求めることができる。
移動ロボット100の線速度(v)と回転角速度(w)は、下記の数式(1)および(2)を利用して求めることができる。
ここで、vとwのそれぞれは移動ロボットの線速度と回転角速度であり、rRは右側タイヤの半径であり、rLは左側タイヤの半径であり、wRは右側タイヤの回転速度であり、wLは左側タイヤの回転速度であり、Bは両タイヤ間の距離である。
図4に示すように、移動ロボット100が初期位置(t=0)で走行また清掃を開始した後、時間t=t1で右輪151にスリップが発生するようになれば、第1回転角推定部220に推定した回転角(θenco)と第2回転角測定部240で測定した回転角(θgyro)の間に誤差角が発生する。前記スリップ感知部210は、このような誤差角を累積するようになる。
しかし、発明に係る実施形態では、移動ロボットの回転角は−π〜+πで制限されているため、回転角の絶対値がπを超えれば符号が変わり、連続的な処理が不可能となる。これにより、これを再び前処理する過程が必要となる。
図5を参照しながら、前記前処理過程について詳しく説明する。
図5(a)に示すように、前記誤差角は−π〜+πの値を有するため、前記誤差角が+πを越す場合には−π〜0の値を有するようになる。これにより、前記誤差角は、+πと−πに該当する移動時間に対して不連続区間を有するようになる。したがって、前記スリップ感知部210は、図5(b)に示すように、前記不連続区間の誤差角をy軸方向に平行移動させ、前記不連続区間が連続区間となるように前記誤差角を前処理する。
移動ロボットの側面スリップは、一定時間内のθgyroとθencoのパターンの差によって判断されることができる。このようなスリップは、移動ロボットの走行または回転経路に障害物が存在することにより、回転または走行制御命令による角度と実際回転角度の間に誤差が発生したことを意味する。すなわち、図6に示すように、移動ロボット100が時間t=t1でスリップが発生した場合に、回転角(θgyro、θenco)のパターンはt=t1で異なる。
ただし、このような回転角パターンの誤差が移動ロボットのスリップと判断されるためには、一定時間だけスリップ状態が維持されなければならない。したがって、スリップを判断する場合に、回転角θgyro、θencoの出力データに一定のサンプリングウィンドウ区間で移動平均(moving average)を求めた後、その移動平均の差によってスリップ可否を判断する。前記誤差角は、下記の数式(3)によって求めることができる。
ここで、SlipAngle(n)は、側面方向のスリップに対する第1回転角測定部と第2回転角測定部で出力した回転角に対する誤差角である。
スリップを感知するためには、一定したサンプリング時間間隔による回転角θgyroとθencの差を詳察しなければならない。したがって、前記回転角の差を明確に区分するために、各回転角の微分値であるdθgyro/dt、dθenc/dtを求めることが必要であり、本実施形態ではガウス微分(Gaussian derivative)演算子を適用してノイズ成分を除去した微分値を取る。
前記スリップ感知部210は、測定したスリップ角(Slip Angle)の絶対値が定められた基準値よりも大きければスリップが発生したと判断し、スリップ角とする。SlipAngleの符号が正であれば、ロボットの進行方向の左側でスリップが発生したものとなり、負であれば右側でスリップが発生したものである。スリップが発生すれば、これ以上その方向に進行しないことによって位置誤差を減らすことができるため、後ろに少し下がった後に反対方向に回避する移動戦略を駆使することができる。
一方、スリップが発生した期間内のエンコーダに基づいたロボットの位置更新は、中止することによって実際位置を復旧することができる。このために、エンコーダ空間とジャイロ空間での方向角の差、すなわち、累積したスリップ角(SlipAngle)を利用してロボットの2次元平面座標を数式(4)および数式(5)のように修正する。
ここで、rはタイヤの半径であり、dx(n)とdy(n)はそれぞれX軸方向とY軸方向の位置誤差であり、(ωL+ω)×r/2は移動ロボットの移動速度であり、Wはデータ処理のためにローデータに適用されるウィンドウサイズである。
他の一側としては、前記スリップ感知部210は、前記映像変化量と基準変化量を比較し、前記映像変化量と基準変化量よりも小さい場合には前記移動ロボットが停滞したと推定して停滞回数をする。
前記スリップ感知部210は、前記停滞回数が基準回数よりも大きく、これと共に前記誤差角に基づいた移動ロボットの速度が基準速度よりも大きい場合には、第2スリップの発生を感知することを特徴とする。
前記映像変化量算出部250は、映像獲得部110によって得られた映像の明度変化を感知し、移動ロボット100がテーブルのような障害物の下部に移動することを感知することができる。例えば、得られた映像の明度平均および分散を利用し、移動ロボット100の映像獲得部110が障害物によって遮蔽されることを感知する。
映像獲得部110が障害物によって遮蔽される場合には、映像を基盤とした移動ロボット100の位置制御が不可能になるため、前記スリップ感知部210はジャイロスコープのような慣性センサ240およびホイールエンコーダ23から得た位置情報に基づいて移動ロボット100の移動を制御する信号を出力する。
上述した慣性センサ240は慣性を感知し、移動ロボット100のヘディング(heading)方向を確認するようにするが、慣性センサ240のセンシング情報とホイールエンコーダ230のセンシング情報は、移動ロボット100の走行情報(odometry)を構成する。
図7を参照しながら、本発明の好ましい実施形態に係る移動ロボットのスリップ方法によって感知された第1スリップ感知結果を説明する。
図7において、L1とL2のそれぞれはホイールエンコーダとジャイロセンサ空間上での方向角を微分した値であり、L3はL1とL2の差を一定時間ウィンドウ内に合わせた値である。L3は一定値よりも大きくなれば、スリップとして分類される。
図7に示すように、L3上で3つのピークが現われ、1番目のピークは底に若干の凹凸があって一時的なスリップが発生した場合であり、2番目のピークは180度回転の開始と終了時に同期が合わずにホイールエンコーダとジャイロセンサのヘディングがずれて発生した場合である。
しかし、3番目のピークは、本発明者が定義したスリップが発生した場合に該当し、ここでは1.2程度の閾値(threshold)を用いる。前記スリップは、一定時間に掃除ロボットが側面方向に押し合って発生したものである。
図8を参照しながら、より詳細に前記第2スリップ感知段階を説明する。
図8に示すように、前記第2スリップ感知段階(S300)では、前記スリップ感知部210は、前記入力された映像をN領域に分割し、移動ロボットの進行方向または反対方向を基準として対象領域を1/Nだけ増加させ、各増加した領域の平均と分散を算出し(S330)、前記各領域の平均と分散値の変化量に基づいて前記映像が遮蔽されない場合に、前記映像変化量が基準変化量よりも小さい場合には入力映像が停滞したと推定して停滞回数を計算する(S340)。
すなわち、前記スリップ感知部210は、前記停滞回数が基準回数よりも大きく、これと共に前記誤差角に基づいた移動ロボットの速度が基準速度よりも大きい場合に、前記第2スリップの発生を感知するようになる。
もし、移動ロボット100がテーブルの下部に入るようになる場合であれば、映像フレームの明度平均が次第に減少しながら、明度の分散値が大きくなった後に小さくなるであろう。本実施形態では、図7に示すように、上述したような場合に計算量を減少させる方法として、映像獲得部110で得られた映像を移動ロボット100の進行方向(d)を基準として4等分し、分割された各領域の明度平均値を利用して全体映像に対する平均と分散を求め、移動ロボット100の遮蔽可否を判断することができる。
本実施形態では、正面スリップを感知するために、カメラのようなビジョンセンサを用いたが、加速度計を利用したり従動タイヤを利用して駆動タイヤとの回転数差を利用する方法が適用されることができる。
映像獲得手段であるカメラが遮蔽しなければ、連続した映像シーケンス上で差を計算してロボットカメラポーズの変化を推定する。しかし、得た映像ごとに背景照明の差が発生することがあるため、映像の平均と分散を求めて数式(6)および数式(7)のように正規化された映像を求め、その差として映像情報の変化量を測定する。
このとき、定められた基準値が変化量よりも少なければ、カメラポーズの停滞が発生したと推定する。しかし、移動ロボットのポーズに停滞が発生するかを信頼性あるように判断するために、連続的な停滞可否を探索する。同時に、ロボットの駆動速度が一定程度以上なので、停止状態でなければ正面スリップが発生したか両側面に挟まったものと判断する。
前記スリップ感知部210は、正面スリップを感知すれば、前記移動ロボットが予め設定された距離または時間を後進した後に、前記スリップ発生領域を回避して走行するように制御信号を出力する。すなわち、正面スリップの場合、後ろに回転して出るようにしてスリップが起こり得る環境を回避することができ、停滞回数とロボットの移動速度を掛け、後ろに後退してロボットの推定位置を修正する。
すなわち、本発明に適用される単一のカメラを装着したSLAM方式の移動ロボットは、1秒あたり2−3フレームを処理するため、映像オドメタリー(Visual odometry)によって正面スリップが感知される間、EKF(Extended Kalman Filter)地図上に誤登録されたランドマーク(landmark)の座標情報を修正する必要がある。したがって、ランドマーク初期化バッファに登録されているランドマークに対して共分散(covariance)を増加させ、スリップで発生した誤差を以後の観測測定によって校正されることができるようにする。また、側面スリップ感知の場合には、比較的に短い時間に処理されることができるため、EKFの更新時に移動ロボットの現位置情報を補正する。
以上の説明は、本発明の技術思想を例示的に説明したものに過ぎず、本発明が属する技術分野において通常の知識を有する者であれば、本発明の本質的な特性から逸脱しない範囲内で多様な修正、変更、および置換が可能であろう。したがって、本発明に開示された実施形態および添付の図面は、本発明の技術思想を限定するためではなくて説明するためのものであり、このような実施形態および添付の図面によって本発明の技術思想の範囲が限定されることはない。本発明の保護範囲は添付の特許請求の範囲によって解釈されなければならず、それと同等な範囲内にあるすべての技術思想は、本発明の権利範囲に含まれるものと解釈されなければならない。

Claims (21)

  1. 移動ロボットが回転したと推定される第1回転角を推定する第1回転角推定部;
    前記移動ロボットの実際回転によって発生した第2回転角を測定する第2回転角測定部;
    映像獲得手段から得た少なくとも順次的な2つの映像の変化量を算出する映像変化量算出部;および
    前記第1、2回転角の誤差角および前記映像変化量に基づいて前記移動ロボットのスリップ方向とスリップ角を算出してスリップの種類を検出し、その検出されたスリップ種類に応じてスリップ領域の脱出のための相違した脱出制御信号を出力するスリップ感知部;
    を含む、移動ロボットのスリップ感知装置。
  2. 前記スリップ感知部は、前記スリップ方向、スリップ角、および映像変化量に基づき、前記スリップ時に発生した位置情報のエラーに対して移動ロボットの位置を復旧する復旧信号を出力することを特徴とする、請求項1に記載の移動ロボットのスリップ感知装置。
  3. 前記スリップ感知部は、前記誤差角が基準誤差角よりも大きい場合には、前記移動ロボットに第1スリップの発生を感知することを特徴とする、請求項1に記載の移動ロボットのスリップ感知装置。
  4. 前記スリップ感知部は、前記スリップ感知時に前記誤差角の符号が負の値を有する場合には、前記移動ロボットの右輪にスリップが発生したと判断し、前記移動ロボットが予め設定された距離または時間を後進した後に左側方向に前進する脱出制御信号を出力することを特徴とする、請求項3に記載の移動ロボットのスリップ感知装置。
  5. 前記スリップ感知部は、前記スリップ感知時に前記誤差角の符号が正の値を有する場合には、前記移動ロボットの左輪にスリップが発生したと判断し、前記移動ロボットが予め設定された距離または時間を後進した後に右側方向に前進する脱出制御信号を出力することを特徴とする、請求項3に記載の移動ロボットのスリップ感知装置。
  6. 前記スリップ感知部は、前記映像変化量と基準変化量を比較し、前記映像変化量と基準変化量よりも小さな場合には前記移動ロボットが停滞したと推定し、停滞回数を算出することを特徴とする、請求項1に記載のロボットのスリップ感知装置。
  7. 前記スリップ感知部は、
    前記停滞回数が基準回数よりも大きく、これと共に前記誤差角に基づいた移動ロボットの速度が基準速度よりも大きい場合には、第2スリップの発生を感知することを特徴とする、請求項6に記載のロボットのスリップ感知装置。
  8. a)移動ロボットが回転したと推定される第1回転角を推定する段階;
    b)前記移動ロボットの実際回転によって発生した第2回転角を測定する段階;および
    c)前記第1回転角と前記第2回転角の誤差角を求め、その誤差角に基づいて前記移動ロボットのスリップ方向とスリップ角を算出して第1スリップを感知する段階;
    を含む、移動ロボットのスリップ感知方法。
  9. 前記スリップ感知方法は、
    d)少なくとも順次的に入力された2つの映像の変化量を算出して第2スリップを感知する段階をさらに含むことを特徴とする、請求項7に記載の移動ロボットのスリップ感知方法。
  10. 前記スリップ感知方法は、
    e)前記感知された第1スリップと第2スリップに基づいてスリップの種類を検出し、その検出されたスリップの種類に応じて選択的にスリップ領域を脱出する段階をさらに含むことを特徴とする、請求項9に記載の移動ロボットのスリップ感知方法。
  11. 前記スリップ感知方法は、
    f)前記スリップ方向、スリップ角、および映像変化量に基づいて移動ロボットの位置を復旧する段階をさらに含むことを特徴とする、請求項10に記載の移動ロボットのスリップ感知方法。
  12. 前記第1回転角推定段階は、
    前記移動ロボットの左輪駆動部の回転速度である第1角速度と右輪駆動部の回転速度である第2角速度を検出する段階、および
    前記第1角速度と第2角速度の差および前記移動ロボットのタイヤの直径に基づいて前記第1回転角を算出する段階
    を含むことを特徴とする、 請求項8〜11のうちのいずれか一項に記載の移動ロボットのスリップ感知方法。
  13. 前記c)段階は、
    前記第1回転角と前記第2回転角の誤差角を求めて基準誤差角と比較する段階、および
    前記誤差角が前記基準誤差角よりも大きい場合には、前記移動ロボットにスリップが発生したと判断してスリップ領域を脱出する段階、
    を含むことを特徴とする、請求項12に記載の移動ロボットのスリップ感知方法。
  14. 前記スリップ領域脱出段階は、
    前記移動ロボットが予め設定された距離または時間を後進した後に前記スリップ方向と反対方向に前進して前記スリップ領域を脱出することを特徴とする、請求項13に記載の移動ロボットのスリップ感知方法。
  15. 前記スリップ領域脱出段階は、
    前記誤差角の符号が負の値を有する場合には、前記移動ロボットの右輪にスリップが発生したと判断し、予め設定された距離または時間を後進した後に左側方向に前進して前記スリップ領域を脱出することを特徴とする、請求項13に記載の移動ロボットのスリップ感知方法。
  16. 前記スリップ領域脱出段階は、
    前記誤差角の符号が正の値を有する場合には、前記移動ロボットの左輪にスリップが発生したと判断し、予め設定された距離または時間を後進した後に右側方向に前進して前記スリップ領域を脱出することを特徴とする、請求項13に記載の移動ロボットのスリップ感知方法。
  17. 前記誤差角は、前記移動ロボットの初期位置を基準として+180と−180度の間の値を有することを特徴とする、請求項13に記載の移動ロボットのスリップ感知方法。
  18. 前記誤差角が前記移動ロボットの移動時間に対して不連続区間を有する場合に、前記不連続区間の誤差角をy軸方向に平行移動させ、前記不連続区間が連続区間となるように前記誤差角を前処理することを特徴とする、請求項17に記載の移動ロボットのスリップ感知方法。
  19. 前記d)段階は、
    前記入力された映像をN領域に分割し、移動ロボットの進行方向または反対方向を基準として対象領域を1/Nだけ増加させ、各増加した領域の平均と分散を算出する段階、および
    前記各領域の平均と分散値の変化量に基づき、前記映像が遮蔽されない場合に、前記映像変化量が基準変化量より小さい場合には入力映像が停滞したと推定して停滞回数を計算する段階、
    を含むことを特徴とする、 請求項9〜11のうちのいずれか一項に記載の移動ロボットのスリップ感知方法。
  20. 前記d)段階では、
    前記停滞回数が基準回数よりも大きく、これと共に前記誤差角に基づいた移動ロボットの速度が基準速度よりも大きい場合に、前記第2スリップの発生を感知することを特徴とする、請求項19に記載の移動ロボットのスリップ感知方法。
  21. 前記第2スリップの発生が感知されれば、前記移動ロボットは、予め設定された距離または時間を後進した後に前記スリップ発生領域を回避して走行することを特徴とする、請求項20に記載のロボットのスリップ感知方法。
JP2012536639A 2009-10-30 2009-10-30 移動ロボットのスリップ感知装置および方法 Expired - Fee Related JP5421461B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2009-0104168 2009-10-30
KR1020090104168A KR101152720B1 (ko) 2009-10-30 2009-10-30 이동 로봇의 슬립 감지 장치 및 방법
PCT/KR2009/006367 WO2011052827A1 (ko) 2009-10-30 2009-10-30 이동 로봇의 슬립 감지 장치 및 방법

Publications (2)

Publication Number Publication Date
JP2013508183A true JP2013508183A (ja) 2013-03-07
JP5421461B2 JP5421461B2 (ja) 2014-02-19

Family

ID=43922245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012536639A Expired - Fee Related JP5421461B2 (ja) 2009-10-30 2009-10-30 移動ロボットのスリップ感知装置および方法

Country Status (6)

Country Link
US (1) US8873832B2 (ja)
EP (1) EP2495079B1 (ja)
JP (1) JP5421461B2 (ja)
KR (1) KR101152720B1 (ja)
CN (1) CN102666032B (ja)
WO (1) WO2011052827A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015052988A (ja) * 2013-09-09 2015-03-19 シャープ株式会社 自走式電子機器
JP2017121422A (ja) * 2016-01-08 2017-07-13 東芝ライフスタイル株式会社 自律走行体
WO2019111559A1 (ja) * 2017-12-05 2019-06-13 日本電産株式会社 移動ロボットの制御装置および移動ロボットシステム
WO2024057487A1 (ja) * 2022-09-15 2024-03-21 株式会社Fuji 移動体および移動体システム

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11835343B1 (en) * 2004-08-06 2023-12-05 AI Incorporated Method for constructing a map while performing work
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
KR20110021191A (ko) * 2009-08-25 2011-03-04 삼성전자주식회사 로봇의 슬립 감지 장치 및 방법
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
JP5913743B2 (ja) * 2012-06-08 2016-04-27 アイロボット コーポレイション 差動センサ又は視覚測定を用いたカーペットドリフトの推定
KR101938642B1 (ko) * 2012-06-12 2019-01-15 엘지전자 주식회사 유리창 청소 장치 및 그의 제어방법
KR20140062288A (ko) * 2012-11-14 2014-05-23 한국전자통신연구원 로봇 컴포넌트 오류 처리 장치 및 그 방법
KR101511992B1 (ko) * 2013-09-06 2015-04-14 현대모비스(주) 조향 휠 제어 방법 및 이를 위한 위한 시스템
CN103552091B (zh) * 2013-09-29 2015-09-16 江苏恒义汽配制造有限公司 机械手装置上的移送滚轮与轨道状态的检测装置
KR101523848B1 (ko) * 2013-11-28 2015-05-28 울산대학교 산학협력단 이동 로봇의 슬립 추정 장치 및 그 방법
JP6481347B2 (ja) * 2014-11-28 2019-03-13 村田機械株式会社 移動量推定装置、自律移動体、及び移動量の推定方法
KR101697857B1 (ko) * 2015-04-08 2017-01-18 엘지전자 주식회사 이동 로봇 및 그의 위치인식방법
WO2016165772A1 (en) 2015-04-17 2016-10-20 Aktiebolaget Electrolux Robotic cleaning device and a method of controlling the robotic cleaning device
KR101649665B1 (ko) * 2015-04-29 2016-08-30 엘지전자 주식회사 이동 로봇 및 그 제어방법
GB2538779B (en) * 2015-05-28 2017-08-30 Dyson Technology Ltd A method of controlling a mobile robot
KR102588486B1 (ko) 2016-03-15 2023-10-11 에이비 엘렉트로룩스 로봇 청소 장치 및 로봇 청소 장치에서의 절벽 검출 실시 방법
AU2017254430A1 (en) * 2016-04-17 2018-11-22 President And Fellows Of Harvard College Magnetic receptive sensor and optimized drawing and erasing for vertically driving robot
KR101854680B1 (ko) 2016-04-29 2018-06-14 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR101925965B1 (ko) * 2016-07-14 2019-02-26 엘지전자 주식회사 로봇 청소기 및 이를 관리하는 관리 기기
US10274325B2 (en) * 2016-11-01 2019-04-30 Brain Corporation Systems and methods for robotic mapping
KR20220025250A (ko) 2017-06-02 2022-03-03 에이비 엘렉트로룩스 로봇 청소 장치 전방의 표면의 레벨차를 검출하는 방법
KR102021828B1 (ko) 2017-08-07 2019-09-17 엘지전자 주식회사 청소기
KR102014141B1 (ko) 2017-08-07 2019-10-21 엘지전자 주식회사 로봇청소기
KR102011827B1 (ko) * 2017-08-07 2019-08-19 엘지전자 주식회사 로봇청소기 및 그 제어방법
KR102033936B1 (ko) 2017-08-07 2019-10-18 엘지전자 주식회사 로봇청소기
KR102000068B1 (ko) 2017-08-07 2019-07-15 엘지전자 주식회사 청소기
KR102014140B1 (ko) 2017-08-07 2019-08-26 엘지전자 주식회사 청소기
KR102014142B1 (ko) 2017-08-07 2019-08-26 엘지전자 주식회사 로봇 청소기
KR102024089B1 (ko) 2017-08-07 2019-09-23 엘지전자 주식회사 로봇 청소기
CN107348910B (zh) 2017-09-12 2019-10-08 珠海市一微半导体有限公司 机器人打滑的检测方法和建图方法及芯片
CN109669350B (zh) * 2017-10-13 2021-07-20 电子科技大学中山学院 一种三轮全向移动机器人车轮滑动定量估计方法
KR102478124B1 (ko) * 2017-12-05 2022-12-16 현대자동차주식회사 차량 구동휠 제어시스템 및 이를 이용한 차량 구동휠 제어방법
WO2019138640A1 (ja) * 2018-01-10 2019-07-18 ソニー株式会社 情報処理装置、情報処理方法、および、プログラム
KR102045003B1 (ko) 2018-01-25 2019-11-14 엘지전자 주식회사 로봇청소기의 제어방법
JP7047594B2 (ja) * 2018-05-23 2022-04-05 トヨタ自動車株式会社 自律移動体、その衝突位置検出方法、及びプログラム
CN109394095B (zh) * 2018-10-23 2020-09-15 珠海市一微半导体有限公司 一种机器人运动地毯偏移的控制方法、芯片及清洁机器人
CN111700543B (zh) * 2019-03-18 2022-12-02 北京奇虎科技有限公司 遇障处理方法、装置、设备及计算机可读存储介质
EP3941322A4 (en) 2019-03-21 2022-12-28 SharkNinja Operating LLC ADAPTIVE SENSOR NETWORK SYSTEM AND METHOD
AU2020321757B2 (en) * 2019-07-31 2023-10-26 Lg Electronics Inc. Mobile robot and method for calculating moving distance of mobile robot
KR102251550B1 (ko) * 2019-07-31 2021-05-12 엘지전자 주식회사 이동 로봇 및 그 제어방법
TWI735022B (zh) * 2019-08-08 2021-08-01 和碩聯合科技股份有限公司 語意地圖定向裝置、方法及機器人
CN112549072B (zh) * 2019-09-10 2024-08-13 苏州科瓴精密机械科技有限公司 机器人的打滑检测方法
CN110716551A (zh) * 2019-11-06 2020-01-21 小狗电器互联网科技(北京)股份有限公司 移动机器人行驶策略确定方法、装置以及移动机器人
CN114153197B (zh) * 2020-08-17 2023-08-18 速感科技(北京)有限公司 自主移动设备的脱困方法及装置
KR20230058652A (ko) * 2020-09-01 2023-05-03 세바 테크놀러지, 인크. 광학 흐름, 휠 인코더 및 관성 측정 유닛을 구비한 평면 로봇 추측 항법
CN113427485B (zh) * 2021-06-04 2022-08-12 北京旷视科技有限公司 移动机器人的打滑监控方法、装置及移动机器人
CN113551692B (zh) * 2021-07-19 2024-04-02 杭州迅蚁网络科技有限公司 无人机磁力计和相机安装角度校准方法、装置
CN113894843B (zh) * 2021-07-22 2024-05-31 深兰机器人产业发展(河南)有限公司 移动机器人的打滑检测方法及相关装置
CN114325744B (zh) * 2021-12-29 2022-08-19 广东工业大学 一种无人车打滑检测方法、系统、设备及介质
CN114659819B (zh) * 2022-04-14 2024-03-19 阳春新钢铁有限责任公司 一种变频控制下的打滑检测方法
KR20230158668A (ko) * 2022-05-11 2023-11-21 삼성전자주식회사 로봇 및 그 제어 방법
CN115793433B (zh) * 2023-01-06 2023-05-05 北京史河科技有限公司 一种机器人下滑纠偏控制方法和下滑纠偏底盘、机器人

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055215A (ja) * 1996-08-12 1998-02-24 Minolta Co Ltd 移動走行車
JP2005222226A (ja) * 2004-02-04 2005-08-18 Funai Electric Co Ltd 自律走行ロボットクリーナー
JP2005327238A (ja) * 2004-05-14 2005-11-24 Samsung Kwangju Electronics Co Ltd 移動ロボット、移動ロボットシステム及びその経路補正方法
JP2008189089A (ja) * 2007-02-02 2008-08-21 Toyota Motor Corp 移動体及び移動体の制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4480843B2 (ja) 2000-04-03 2010-06-16 ソニー株式会社 脚式移動ロボット及びその制御方法、並びに、脚式移動ロボット用相対移動測定センサ
KR100500842B1 (ko) * 2002-10-31 2005-07-12 삼성광주전자 주식회사 로봇청소기와, 그 시스템 및 제어방법
WO2004106009A1 (ja) * 2003-06-02 2004-12-09 Matsushita Electric Industrial Co., Ltd. 物品操作システムおよび方法、並びに物品管理システムおよび方法
JP2005022040A (ja) * 2003-07-03 2005-01-27 Toyota Motor Corp 位置ずれを修正する歩行ロボットとその制御方法
JP2006068884A (ja) * 2004-09-06 2006-03-16 Sony Corp ロボット装置及びその制御方法、並びに受動車輪装置
US7389166B2 (en) 2005-06-28 2008-06-17 S.C. Johnson & Son, Inc. Methods to prevent wheel slip in an autonomous floor cleaner
KR101297388B1 (ko) * 2006-06-16 2013-08-19 삼성전자주식회사 위치 보정 기능을 제공하는 이동 장치 및 위치 보정 방법
KR100855469B1 (ko) * 2006-09-13 2008-09-01 삼성전자주식회사 이동 로봇의 자세 추정 장치 및 방법
KR100843096B1 (ko) * 2006-12-21 2008-07-02 삼성전자주식회사 이동 로봇의 주행 상태 판별 장치 및 방법
KR101409987B1 (ko) * 2007-12-11 2014-06-23 삼성전자주식회사 이동 로봇의 자세 보정 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055215A (ja) * 1996-08-12 1998-02-24 Minolta Co Ltd 移動走行車
JP2005222226A (ja) * 2004-02-04 2005-08-18 Funai Electric Co Ltd 自律走行ロボットクリーナー
JP2005327238A (ja) * 2004-05-14 2005-11-24 Samsung Kwangju Electronics Co Ltd 移動ロボット、移動ロボットシステム及びその経路補正方法
JP2008189089A (ja) * 2007-02-02 2008-08-21 Toyota Motor Corp 移動体及び移動体の制御方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015052988A (ja) * 2013-09-09 2015-03-19 シャープ株式会社 自走式電子機器
JP2017121422A (ja) * 2016-01-08 2017-07-13 東芝ライフスタイル株式会社 自律走行体
WO2017119255A1 (ja) * 2016-01-08 2017-07-13 東芝ライフスタイル株式会社 自律走行体
US11013390B2 (en) 2016-01-08 2021-05-25 Toshiba Lifestyle Products & Services Corporation Autonomous traveler
JP7036531B2 (ja) 2016-01-08 2022-03-15 東芝ライフスタイル株式会社 自律走行体
WO2019111559A1 (ja) * 2017-12-05 2019-06-13 日本電産株式会社 移動ロボットの制御装置および移動ロボットシステム
CN111433699A (zh) * 2017-12-05 2020-07-17 日本电产株式会社 移动机器人的控制装置和移动机器人系统
JPWO2019111559A1 (ja) * 2017-12-05 2020-11-26 日本電産株式会社 移動ロボットの制御装置および移動ロボットシステム
JP7078057B2 (ja) 2017-12-05 2022-05-31 日本電産株式会社 移動ロボットの制御装置および移動ロボットシステム
WO2024057487A1 (ja) * 2022-09-15 2024-03-21 株式会社Fuji 移動体および移動体システム

Also Published As

Publication number Publication date
US20120219207A1 (en) 2012-08-30
EP2495079A1 (en) 2012-09-05
CN102666032A (zh) 2012-09-12
KR20110047505A (ko) 2011-05-09
CN102666032B (zh) 2015-01-07
JP5421461B2 (ja) 2014-02-19
EP2495079A4 (en) 2016-11-09
EP2495079B1 (en) 2018-09-05
US8873832B2 (en) 2014-10-28
KR101152720B1 (ko) 2012-06-18
WO2011052827A1 (ko) 2011-05-05

Similar Documents

Publication Publication Date Title
JP5421461B2 (ja) 移動ロボットのスリップ感知装置および方法
EP2495632B1 (en) Map generating and updating method for mobile robot position recognition
US20170153646A1 (en) Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US10399228B2 (en) Apparatus for recognizing position of mobile robot using edge based refinement and method thereof
US7507948B2 (en) Method of detecting object using structured light and robot using the same
KR100871114B1 (ko) 이동로봇 및 그 동작방법
KR20150144730A (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP6708730B2 (ja) 移動体
Hesch et al. Descending-stair detection, approach, and traversal with an autonomous tracked vehicle
JP5107154B2 (ja) 運動推定装置
JP2012517055A (ja) ビデオに基く車両の運転者援助システムの作動方法及び装置
JP2008160635A (ja) カメラ状態検出方法
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
KR100792852B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크 거리추출방법
EP3227827B1 (en) Driver assistance system, motor vehicle and method for classifying a flow vector
Fourre et al. Autonomous rgbd-based industrial staircase localization from tracked robots
KR20050011053A (ko) 천장 영상을 이용한 청소용 로봇의 자기위치 추정방법
KR101243133B1 (ko) 이동로봇의 위치추정 장치 및 방법
JP7581016B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20060134719A (ko) 차량의 주차 구획 인식방법
JP2022072863A (ja) 情報処理装置、情報処理方法、及びプログラム
KR20090119049A (ko) 자기 위치 인식을 위한 이동 로봇의 기본 움직임 결정 방법
Jang et al. Position and pose computation of a moving camera using geometric edge matching for visual SLAM

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130613

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130913

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131121

R150 Certificate of patent or registration of utility model

Ref document number: 5421461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees