Nothing Special   »   [go: up one dir, main page]

JP6927727B2 - ロボットの制御装置 - Google Patents

ロボットの制御装置 Download PDF

Info

Publication number
JP6927727B2
JP6927727B2 JP2017064459A JP2017064459A JP6927727B2 JP 6927727 B2 JP6927727 B2 JP 6927727B2 JP 2017064459 A JP2017064459 A JP 2017064459A JP 2017064459 A JP2017064459 A JP 2017064459A JP 6927727 B2 JP6927727 B2 JP 6927727B2
Authority
JP
Japan
Prior art keywords
coordinate system
hand
robot
limb
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017064459A
Other languages
English (en)
Other versions
JP2018167330A (ja
Inventor
聡 小室
聡 小室
五十志 奈良村
五十志 奈良村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2017064459A priority Critical patent/JP6927727B2/ja
Priority to US15/922,183 priority patent/US10633045B2/en
Publication of JP2018167330A publication Critical patent/JP2018167330A/ja
Application granted granted Critical
Publication of JP6927727B2 publication Critical patent/JP6927727B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D57/00Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
    • B62D57/02Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
    • B62D57/032Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Manipulator (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)

Description

本発明は、ロボットの制御技術に関する。
ロボットが構造物等と干渉する可能性がある領域を警戒領域として、移動容易度を判定する技術が提案されている(特許文献1参照)。ロボットを構造物と接触させながら移動させる技術が提案されている(特許文献2参照)。
特許公報第4276624号 国際特許公開公報 WO2015/087504
しかし、ロボットが複数の指機構を有するハンドで対象物を把持する際、ハンドに設けられている6軸力センサの出力が平衡状態であっても、当該対象物の把持状態が不明である。6軸力センサの出力が平衡状態である場合、当該出力を受けた制御装置は、例えば図6Aに示されているように、ロボットのハンド13がその一対の把持機構F1およびF2の接触面を対象物Wに対して全面的に当接させるように当該対象物Wを把持していると認識される。
その一方、実際には図6Bに示されているように、ロボットのハンド13がその一対の把持機構F1およびF2の接触面を対象物Wに対して部分的にのみ当接させるように当該対象物Wを把持している場合がある。このため、対象物座標系(XW,YW,ZW)に対するハンド座標系(X1,Y1,Z1)の相対的な位置および姿勢の認識結果にしたがって、世界座標系における基体座標系(X2,Y2,Z2)の位置・姿勢(位置および姿勢のうち少なくとも一方を意味する。以下同じ。)が変化するようにロボットの基体10が動かされると、基体10の動作が不安定になる可能性がある(図7B参照)。特に、対象物が手すりまたは梯子の一部などの構造物であり、ロボットがハンドで当該構造物を把持しながら、複数の脚体等の移動機構の動作により基体を移動させる場合、ロボットの全体的なバランスが崩れる可能性がある。
そこで、本発明は、対象物に対するハンド等の機能体の位置・姿勢の認識精度を向上させることにより、基体の位置・姿勢の変化を伴う動作の安定性向上を図り得るようにロボットを制御する装置を提供することを課題とする。
本発明のロボットの制御装置は、基体と、前記基体に対して可動に連結されている第1肢体と、所定の構造物を把持可能であり前記第1肢体に対して可動に連結されているハンドと、前記基体に対して可動に連結されている第2肢体と、前記第1肢体に固定されている撮像装置と、を備えているロボットの制御装置であって、前記ハンドによる前記構造物の所定の把持状態を検知する状態検知要素と、前記撮像装置により取得された撮像画像から、前記構造物の延在態様を表わす、直線成分対またはその延長線の交点である消失点を画像座標系において抽出し、撮像装置座標系において、前記画像座標系の前記消失点の位置を表わす第1基準ベクトルを計算するとともに、ハンド座標系に対する前記撮像装置座標系の位置および姿勢について記憶保持されている関係式に基づいて前記ハンド座標系において、前記画像座標系の前記消失点の位置を表わす第2基準ベクトルを計算する計算要素と、前記第1基準ベクトルおよび前記第2基準ベクトルのなす角度の基準角度に対する偏差の大きさが閾値を超えているときは、前記状態検知要素が検知した前記所定の把持状態が目標状態から乖離しているとして、前記偏差の大きさが前記閾値以下になるように、前記関係式を補正する補正要素と、前記関係式が補正されたときは補正後の前記関係式による前記ハンド座標系に基づく前記ハンドの姿勢制御により前記構造物に対して前記ハンドを把持させるような前記第1肢体および前記ハンドの動作、ならびに、前記基体の位置および姿勢のうち少なくとも一方を変化させるような前記第2肢体の動作を含む前記ロボットの動作を生成する動作生成要素と、を備えていることを特徴とする。
本発明のロボットの制御装置において、前記計算要素が、前記撮像装置により取得された撮像画像から、前記構造体の延在態様を表わす、直線成分対またはその延長線の交点である消失点の撮像装置座標系および機能体座標系のそれぞれにおける位置を表わす第1基準ベクトルおよび第2基準ベクトルを計算することが好ましい。
本発明のロボットの制御装置において、前記計算要素が、前記撮像画像における2つの直線成分の相互の間隔および角度が、前記環境情報により表わされている前記構造物の配置態様によって定まる閾値以下に収まることを要件として、前記2つの直線成分を、前記直線成分対として抽出することが好ましい。
本発明の制御装置によれば、2つの基準ベクトルのなす角度の基準角度に対する偏差の大きさが閾値を超えている場合、機能体と構造物との相互作用状態が目標とする状態から乖離している蓋然性が高い。このため、このような場合、当該偏差の大きさが閾値以下になるように、機能体と構造物との相互作用状態の検知結果から推定される、世界座標系における機能体座標系の姿勢が補正される。これにより、機能体と構造物との相互作用状態が目標とする状態に合致しているという誤った認識結果に基づき、機能体座標系に対して基体座標系の相対的な位置・姿勢が変化するようにロボットの動作が生成される事態が回避され、ロボットの動作の安定性向上が図られる。
本発明の一実施形態としてのロボットの構成に関する説明図。 本発明の一実施形態としての制御装置の構成に関する説明図。 ハンドの位置・姿勢の補正方法に関する説明図。 画像座標系における直線成分の抽出および消失点の算出方法に関する説明図。 基準ベクトルの算出方法に関する説明図。 ハンドによる対象物の第1把持状態に関する説明図。 ハンドによる対象物の第2把持状態に関する説明図。 第1把持状態に基づくロボットの動作態様に関する説明図。 第2把持状態に基づくロボットの動作態様に関する説明図。
(ロボットの構成)
図1に示されている本発明の移動装置の一実施形態としてのロボット1は脚式移動ロボットである。左右の区別のために適宜符号「L」および「R」が用いられる。人間と同様に基体10と、基体10の上部に設けられた頭部11と、基体10の上部左右両側から延設された左右の腕体12(第1肢体)と、腕体12の先端部に設けられたハンド13(手部(機能体))と、基体10の下部から下方に延設された左右の脚体14(第2肢体)と、脚体14の先端部に取り付けられている足平部15とを備えている。ロボット1は、アクチュエータMOT(図2参照)から伝達される力によって、人間の肩関節、肘関節、手首関節、股関節、膝関節、足首関節等の複数の関節に相当する複数の関節機構において腕体12および脚体14を屈伸運動させることができる。
腕体12は肩関節機構を介して基体10に連結された第1腕リンクと、一端が第1腕リンクの端部に肘関節機構を介して連結され、他端が手首関節を介してハンド13の付根部に連結されている第2腕リンクとを備えている。肩関節機構は、ヨー軸およびピッチ軸のそれぞれの回りの2つの回転自由度を有する。肘関節機構は、ピッチ軸回りの1つの回転自由度を有する。手首関節機構は、ロール軸およびピッチ軸のそれぞれの回りの2つの回転自由度を有する。
腕体12の先端部には、カメラCが固定されている。ハンド13は、手の平部および当該手の平部に対して可動な一または複数の指機構(可動部材)を備え、当該指機構の動作により一もしくは複数の指機構および手の平部の間で、または、複数の指機構の間で対象物を把持することができるように構成されている。
脚体14は股関節機構を介して基体10に連結された第1脚リンクと、一端が第1脚リンクの端部に膝関節機構を介して連結され、他端が足首関節を介して足平部15に連結されている第2脚リンクとを備えている。股関節機構は、ヨー軸、ピッチ軸およびロール軸のそれぞれの回りの3つの回転自由度を有する。膝関節機構は、ピッチ軸回りの1つの回転自由度を有する。足首関節機構は、ピッチ軸およびロール軸のそれぞれ回りの2つの回転自由度を有する。ロボット1は、左右の脚体14のそれぞれの離床および着床の繰り返しを伴う動きによって自律的に移動することができる。
(制御装置の構成)
図2に示されている制御装置2はロボット1に搭載されているプログラマブルコンピュータまたは電子制御ユニット(CPU,ROM,RAM,I/O回路等により構成されている。)により構成されている。制御装置2は内界センサ群S1および外界センサ群S2のそれぞれの出力信号に基づいて種々の状態変数の値を認識し、当該認識結果に基づいて各アクチュエータMOTの動作を制御するように構成されている。
内界センサ群S1にはロボット1の位置(重心位置)を測定するためのGPS測定装置または加速度センサのほか、基体10の姿勢を測定するためのジャイロセンサ、各関節機構の各軸回りの間接角度等を測定するロータリーエンコーダ、ハンド13に作用する外力を測定する6軸力センサ等が含まれている。
外界センサ群S2には、カメラCのほか、ロボット1とは別個独立のモーションキャプチャーシステム(図示略)、ボール等のタスク実行に関連する物体の位置軌道を測定するため、頭部11に搭載されているステレオイメージセンサ、および、基体10に搭載されている赤外光を用いたアクティブ型センサ等が含まれる。
制御装置2は、記憶装置20と、状態検知要素22と、計算要素24と、補正要素26と、動作生成要素28と、を備えている。記憶装置20は、世界座標系における構造物の配置態様を表わす「環境情報」など、ロボット1の動作生成に必要な情報を記憶保持する。状態検知要素22は、内界センサ群S1を構成する6軸力センサまたは接触センサ(指機構に配置されている。)の出力信号に基づき、ハンド13と構造物Wとの相互作用状態を検知する。計算要素24は、カメラCにより取得された撮像画像に基づき、カメラ座標系およびハンド座標系のそれぞれにおける構造体Wの延在態様を表わす第1基準ベクトルU1および第2基準ベクトルU2を計算する。補正要素26は、第1基準ベクトルU1および第2基準ベクトルU2のなす角度φの基準角度φ0に対する偏差Δφの大きさが閾値εを超えていることを要件として、世界座標系におけるハンド座標系の姿勢を補正するための補正量を計算する。動作生成要素28は、構造物Wに対してハンド13を相互作用させるような腕体12(第1肢体)およびハンド13(機能体)の動作、ならびに、基体10の位置・姿勢を変化させるような脚体14(第2肢体)の動作を含むロボット1の動作または歩容を生成する。
単一のプロセッサ(演算処理装置)が当該複数の要素22〜28として機能してもよいし、複数のプロセッサ(マルチコアプロセッサ)が相互通信により連携しながら当該複数の要素22〜28として機能してもよい。
(作用)
動作生成要素28により、ハンド13により手すり等の構造物Wを把持する動作が生成され、ロボット1の動作が当該生成動作にしたがって制御される。これにより、ハンド13が構造物Wを把持すると、内界センサ群S1を構成する6軸力センサまたは接触センサ(指機構F1,F2に配置されている。)の出力信号に基づき、ハンド13による構造物Wの把持状態(両者の相互作用状態)が検知される(図3/STEP01)。
当該出力信号が平衡状態にある(出力信号の最大、平均または累積時間変化量が判定値以下である)場合、ハンド13による構造物Wの把持状態が、図6Aに示されている目標の状態であると推定される。すなわち、ハンド13による構造物Wの把持状態の検知結果により、構造物Wに対する相対的なハンド13の位置および姿勢が図6Aに示されている関係にあると推察される。
外界センサ群S2を構成するカメラCを通じて撮像画像が取得される(図3/STEP02)。
撮像画像(またはこれがグレースケール化されることで生成されるグレースケール座像)からエッジ点が抽出される。その上で、当該撮像画像から直線状に並んでいるエッジ点群により構成される一または複数の直線成分が抽出される(図3/STEP04)。エッジ点は、画像座標系(x,y)においてx方向について輝度値等の画素の物理量が閾値を超えて変化する画素の座標値によりその位置が定まる。直線成分は、ハフ変換等の既知の手法にしたがって抽出される。これにより、例えば図4に示されているように、画像座標系(x,y)において、複数の直線成分L1、L2、‥Lk-1、Lk、‥が抽出される。
複数の直線成分が抽出された場合、直線成分対の有無が判定される(図3/STEP06)。2つの直線成分またはこれらのそれぞれの上端からの延長線が交わる場合、当該2つの直線成分が直線成分対として抽出される。記憶装置20に記憶保持されている環境情報により表わされている手すりなどの構造物Wの配置態様に鑑みて、当該構造物Wに該当しない蓋然性が高い直線成分は直線成分対を構成しないものとして取り扱われてもよい。2つの直線成分ρ1=xcosθ1+ysinθ1およびρ2=xcosθ2+ysinθ2について、Δρ=|ρ1−ρ2|がΔρth以下であり、かつ、Δθ=|θ1−θ2|がΔθth以下であることを要件として、当該2つの直線成分が直線成分対として抽出されてもよい。「Δρth」および「Δθth」は、環境情報により表わされている構造物Wの配置態様(実空間サイズも含む。)に応じて定められる閾値である。
直線成分対が抽出されなかった場合(図3/STEP06‥NO)、次のフレームの撮像画像の取得以降の処理が繰り返される(図3/STEP02参照)。
その一方、直線成分対が抽出された場合(図3/STEP06‥YES)、カメラCの光学中心を原点OCを基準とする、カメラ座標系(XC,YC,ZC)における消失点Qの位置を表わす第1基準ベクトルQ1が算出される(図3/STEP08)。
具体的には、画像座標系における直線成分対(ρ1=xcosθ1+ysinθ1およびρ2=xcosθ2+ysinθ2)の交点位置が消失点Qの座標値(xQ,yQ)として関係式(01)により表わされる。
Q=(ρ2sinθ1−ρ1sinθ2)/(sinθ1cosθ2−cosθ1sinθ2),
Q={(ρ1−cosθ1)/sinθ1}xq ‥(01)。
これにより、例えば図4に示されているように、一対の直線成分L1およびL2の交点Qが定まる。第1基準ベクトルU1t(u1X,u1Y,u1Z)、カメラCの焦点距離f、および、画像座標系(x,y)における消失点Q=(xQ,yQ)の関係は、一般的な透視投影モデルにしたがって関係式(02)により表現される(図5参照)。
Q=f(u1X/u1Z)、yQ=f(u1Y/u1Z) ‥(02)。
よって、カメラ座標系の原点OCを基準とした、画像座標系における消失点Qの位置を表わす第1基準ベクトルU1が関係式(03)にしたがって算出される。
1t(xq,yq,f)‥(03)。
続いて、ハンド座標系(X1,Y1,Z1)において、画像座標系における消失点Qの位置を表わす第2基準ベクトルU2が算出される(図3/STEP10)。ハンド座標系に対するカメラ座標系の位置および姿勢は、世界座標系における並進ベクトルTおよび回転行列Rを用いて関係式(04)にしたがって表現される。並進ベクトルTおよび回転行列Rは、カメラCの腕部12の先端部に対する取り付け態様のキャリブレーションにより既知であって制御装置2を構成する記憶装置20に記憶保持されている。
C=T+R・P1 ‥(04)。
第2基準ベクトルU2は関係式(05)にしたがって算出される。
2=T+R・P1+U1 ‥(05)。
さらに、第1基準ベクトルU1および第2基準ベクトルU2のなす角度φが計算される(図3/STEP12)。当該角度φは、関係式(06)により表わされる。
φ=arccos(U1・U2/|U1・U2|) ‥(06)。
角度φの基準角度φ0に対する偏差Δφ=φ−φ0の大きさが閾値εを超えているか否かが判定される(図3/STEP14)。閾値εは、当該偏差Δφの大きさがこれを超えると、ハンド座標系を基準として基体座標系(X2,Y2,Z2)の位置および姿勢が変化した場合に、ロボット1の動作が不安定になる可能性があるという観点から定められている。
偏差Δφの大きさが閾値ε以下であると判定された場合(図3/STEP14‥NO)、次のフレームの撮像画像の取得以降の処理が繰り返される(図3/STEP02参照)。
偏差Δφの大きさが閾値εを超えていると判定された場合(図3/STEP14‥YES)、世界座標系におけるハンド座標系の姿勢を表わす回転行列R1を定めるピッチ回転角度θ1xおよびヨー回転角度θ1zのうち少なくとも一方が、偏差Δφの大きさが閾値ε以下になるように決定される(図3/STEP16)。
世界座標系におけるハンド座標系の姿勢が当該補正量の分だけ補正される。この補正は、実空間におけるハンド13の姿勢が変更されずに、世界座標系におけるハンド座標系の姿勢が計算上補正されること、および、世界座標系におけるハンド座標系の姿勢が計算上補正され、世界座標系におけるハンド座標系の当該補正後の姿勢に合致するように実空間におけるハンド13の姿勢が変更されることの両方を包含する概念である。そして、世界座標系におけるハンド座標系の位置および姿勢を基準として、各関節機構の関節角度に基づき、ロボット1の運動学モデルにしたがって基体座標系の位置および姿勢も目標時間変化態様を含む、ロボット1の動作が生成される。
ロボット1とその環境との関係が未知である状態またはその認識精度が低い状態では、ハンド13による構造物Wの把持状態(両者の相互作用状態)が検知された場合、ハンド座標系の位置・姿勢を基準として、世界座標系における構造物の位置・姿勢を表わす「環境情報」が前記補正量の分だけ補正されてもよい。
(効果)
本発明の一実施形態としてのロボット1の制御装置2によれば、2つの基準ベクトルU1およびU2のなす角度φ(関係式(06)参照)の基準角度φ0に対する偏差Δφの大きさが閾値εを超えている場合、状態検知要素22により検知されたハンド13(機能体)と構造物Wとの相互作用状態が目標とする状態から乖離している蓋然性が高い(図6B参照)。このため、このような場合、当該偏差Δφの大きさが閾値ε以下になるように世界座標系におけるハンド座標系の姿勢が補正される(図3/STEP14‥YES→STEP16参照)。これにより、ハンド13と構造物Wとの相互作用状態が目標とする状態に合致しているという誤った認識結果に基づき、ハンド座標系に対して基体座標系の相対的な位置・姿勢が変化するようにロボット1の動作が生成される事態(図7B参照)が回避され、ロボット1の動作の安定性向上が図られる(図7A参照)。
(本発明の他の実施形態)
前記実施形態では、直線成分対の交点として消失点Qが定められたが(図4参照)、環境情報に鑑みて構造物Wの延在態様を表わす蓋然性(環境情報で表わされる世界座標系における直線または曲線との近似度)が基準値以上である直線成分または曲線成分と、地平線に相当する線分との交点が消失点Qとして定められてもよく、当該直線成分または曲線成分の画像座標系における上端点が消失点Qとして定められてもよい。近接するまたは一方の直線成分が共通する、異なる複数の直線成分対が存在する場合、各直線線分対の交点の重心が消失点Qとして定められてもよい。当該重心の算定に際して、各直線成分対が構造物Wの延在態様を表わしている尤度の高低に応じた重みが各交点に付けられてもよい。
1‥ロボット、2‥制御装置、10‥基体、12‥腕体(第1肢体)、13‥ハンド、14‥脚体(第2肢体)、20‥記憶装置、22‥状態検知要素、24‥計算要素、26‥補正要素、28‥動作生成要素、C‥カメラ(撮像装置)、F1‥第1指機構、F2‥第2指機構、S1‥内界センサ群、S2‥外界センサ群、W‥構造物。

Claims (2)

  1. 基体と、
    前記基体に対して可動に連結されている第1肢体と、
    所定の構造物を把持可能であり前記第1肢体に対して可動に連結されているハンドと、
    前記基体に対して可動に連結されている第2肢体と、
    前記第1肢体に固定されている撮像装置と、を備えているロボットの制御装置であって
    前記ハンドによる前記構造物の所定の把持状態を検知する状態検知要素と、
    前記撮像装置により取得された撮像画像から、前記構造物の延在態様を表わす、直線成分対またはその延長線の交点である消失点を画像座標系において抽出し、撮像装置座標系において、前記画像座標系の前記消失点の位置を表わす第1基準ベクトルを計算するとともに、ハンド座標系に対する前記撮像装置座標系の位置および姿勢について記憶保持されている関係式に基づいて前記ハンド座標系において、前記画像座標系の前記消失点の位置を表わす第2基準ベクトルを計算する計算要素と、
    前記第1基準ベクトルおよび前記第2基準ベクトルのなす角度の基準角度に対する偏差の大きさが閾値を超えているときは、前記状態検知要素が検知した前記所定の把持状態が目標状態から乖離しているとして、前記偏差の大きさが前記閾値以下になるように、前記関係式を補正する補正要素と、
    前記関係式が補正されたときは補正後の前記関係式による前記ハンド座標系に基づく前記ハンドの姿勢制御により前記構造物に対して前記ハンドを把持させるような前記第1肢体および前記ハンドの動作、ならびに、前記基体の位置および姿勢のうち少なくとも一方を変化させるような前記第2肢体の動作を含む前記ロボットの動作を生成する動作生成要素と、を備えていることを特徴とするロボットの制御装置。
  2. 請求項記載のロボットの制御装置において、
    さらに、世界座標系における構造物の配置態様を表わす環境情報を記憶する記憶装置を備え、
    前記計算要素が、前記撮像画像における2つの直線成分の相互の間隔および角度が、前記環境情報により表わされている前記構造物の配置態様によって定まる閾値以下に収まることを要件として、前記2つの直線成分を、前記直線成分対として抽出することを特徴とするロボットの制御装置。
JP2017064459A 2017-03-29 2017-03-29 ロボットの制御装置 Active JP6927727B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017064459A JP6927727B2 (ja) 2017-03-29 2017-03-29 ロボットの制御装置
US15/922,183 US10633045B2 (en) 2017-03-29 2018-03-15 Robot and control device of the robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017064459A JP6927727B2 (ja) 2017-03-29 2017-03-29 ロボットの制御装置

Publications (2)

Publication Number Publication Date
JP2018167330A JP2018167330A (ja) 2018-11-01
JP6927727B2 true JP6927727B2 (ja) 2021-09-01

Family

ID=63672942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017064459A Active JP6927727B2 (ja) 2017-03-29 2017-03-29 ロボットの制御装置

Country Status (2)

Country Link
US (1) US10633045B2 (ja)
JP (1) JP6927727B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6788537B2 (ja) * 2017-03-28 2020-11-25 本田技研工業株式会社 レーザ式測距装置を使用した物体エッジの検出方法
CN110866951B (zh) * 2019-10-08 2024-05-10 华南农业大学 一种单目摄像机光轴倾斜的校正方法
CN112991255B (zh) * 2019-12-16 2023-11-28 信扬科技(佛山)有限公司 机器人平衡判定装置及机器人平衡判定方法
CN111113430B (zh) * 2019-12-31 2021-07-27 深圳市优必选科技股份有限公司 一种机器人及其末端控制方法和装置
US11560192B2 (en) * 2020-04-24 2023-01-24 Ubtech Robotics Corp Ltd Stair climbing gait planning method and apparatus and robot using the same
CN112478015B (zh) * 2021-02-03 2021-04-16 德鲁动力科技(成都)有限公司 四足机器人足端触地检测方法及系统
CN113022733B (zh) * 2021-03-05 2022-03-08 南京信息工程大学 一种足端可更换的腿机构

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000153476A (ja) * 1998-09-14 2000-06-06 Honda Motor Co Ltd 脚式移動ロボット
JP2001150374A (ja) * 1999-11-25 2001-06-05 Sony Corp ロボットの故障診断システム
JP2001277163A (ja) * 2000-04-03 2001-10-09 Sony Corp ロボットの制御装置及び制御方法
TW499349B (en) * 2000-11-17 2002-08-21 Sony Corp Legged mobile robot, leg structure of legged mobile robot, and mobile leg unit for legged mobile robot
US7133070B2 (en) * 2001-09-20 2006-11-07 Eastman Kodak Company System and method for deciding when to correct image-specific defects based on camera, scene, display and demographic data
US6889118B2 (en) * 2001-11-28 2005-05-03 Evolution Robotics, Inc. Hardware abstraction layer for a robot
KR100977348B1 (ko) * 2002-03-15 2010-08-20 소니 주식회사 다리식 이동 로봇의 동작 제어 장치 및 동작 제어 방법 및 로봇 장치
JP3714268B2 (ja) * 2002-03-18 2005-11-09 ソニー株式会社 ロボット装置
CN101763118B (zh) * 2002-03-18 2015-09-02 索尼株式会社 机器人设备及其动作控制方法
JP2003274374A (ja) * 2002-03-18 2003-09-26 Sony Corp 画像伝送装置及び方法、送信装置及び方法、受信装置及び方法、並びにロボット装置
JP3833567B2 (ja) * 2002-05-01 2006-10-11 本田技研工業株式会社 移動ロボットの姿勢制御装置
US6999851B2 (en) * 2002-08-30 2006-02-14 Sony Corporation Robot apparatus and motion controlling method therefor
WO2004030870A1 (ja) * 2002-10-01 2004-04-15 Sony Corporation ロボット装置及びロボット装置の制御方法
US7054718B2 (en) * 2002-10-11 2006-05-30 Sony Corporation Motion editing apparatus and method for legged mobile robot and computer program
US7127326B2 (en) * 2002-11-15 2006-10-24 Iguana Robotics, Inc. Certain principles of biomorphic robots including foot placement selection using non-geometric visual properties
JP4276624B2 (ja) 2002-12-10 2009-06-10 本田技研工業株式会社 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
JP2005115654A (ja) * 2003-10-08 2005-04-28 Sony Corp 情報処理装置および方法、プログラム格納媒体、並びにプログラム
JP4592276B2 (ja) * 2003-10-24 2010-12-01 ソニー株式会社 ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム
JP4456560B2 (ja) * 2005-12-12 2010-04-28 本田技研工業株式会社 脚式移動ロボット制御装置および脚式移動ロボット、並びに、脚式移動ロボット制御方法
JP4751192B2 (ja) * 2005-12-12 2011-08-17 本田技研工業株式会社 移動ロボット
JP4481291B2 (ja) * 2006-12-01 2010-06-16 本田技研工業株式会社 ロボット、ならびにその制御方法および制御プログラム
JP4392037B2 (ja) * 2007-09-12 2009-12-24 トヨタ自動車株式会社 脚式ロボット、及びその制御方法
JP4440956B2 (ja) * 2007-09-12 2010-03-24 トヨタ自動車株式会社 脚式ロボット、及びその制御方法
JP5109573B2 (ja) * 2007-10-19 2012-12-26 ソニー株式会社 制御システム及び制御方法、並びにロボット装置
US20110060248A1 (en) * 2008-03-18 2011-03-10 Tomotoshi Ishida Physical configuration detector, physical configuration detecting program, and physical configuration detecting method
KR101985790B1 (ko) * 2012-02-21 2019-06-04 삼성전자주식회사 보행 로봇 및 그 제어 방법
WO2015087504A1 (ja) 2013-12-10 2015-06-18 トヨタ自動車株式会社 移動ロボットの移動制御方法、および、移動ロボット
JP6450279B2 (ja) * 2015-08-05 2019-01-09 本田技研工業株式会社 移動ロボットの目標zmp軌道の生成装置

Also Published As

Publication number Publication date
US20180281881A1 (en) 2018-10-04
US10633045B2 (en) 2020-04-28
JP2018167330A (ja) 2018-11-01

Similar Documents

Publication Publication Date Title
JP6927727B2 (ja) ロボットの制御装置
Koenemann et al. Real-time imitation of human whole-body motions by humanoids
JP4481291B2 (ja) ロボット、ならびにその制御方法および制御プログラム
JP4908020B2 (ja) ハンド制御システム
JP4645601B2 (ja) 環境地図の生成方法及び移動ロボット
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP6380828B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
Santaera et al. Low-cost, fast and accurate reconstruction of robotic and human postures via IMU measurements
JP6483014B2 (ja) 移動ロボットの制御装置
JP2009136992A (ja) ロボット
JP6498597B2 (ja) 移動ロボットの制御装置
US8768507B2 (en) Robot and behavior control system for the same
JP4910552B2 (ja) 動作データ作成装置及びその方法
US9815510B2 (en) Controller for mobile robot
JP6240590B2 (ja) 移動ロボットの制御装置
JP6663219B2 (ja) 姿勢動作検出装置
Kitano et al. Hand motion measurement using inertial sensor system and accurate improvement by extended Kalman filter
JP7540379B2 (ja) 二足歩行ロボットの動作データ生成システム、動作データ生成方法、及び動作データ生成プログラム
KR101568084B1 (ko) 이족보행로봇의 보행 모방 제어장치
Denei et al. Parallel force-position control mediated by tactile maps for robot contact tasks
송기욱 et al. IMU Based Walking Position Tracking Using Kinematic Model of Lower Body and Walking Cycle Analysis
JP6647143B2 (ja) 機能装置ならびにその制御装置および制御方法
CN110877335A (zh) 一种基于混合滤波器自适应无标记机械臂轨迹跟踪方法
Lu et al. Body-Segment Orientation Estimation in Rider-Bicycle Interactions With an Un-Calibrated Monocular Camera and Wearable Gyroscopes
Mileti et al. The assessment of inertial odometry system performance in tracking upper limb kinematics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210805

R150 Certificate of patent or registration of utility model

Ref document number: 6927727

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150