Nothing Special   »   [go: up one dir, main page]

JP2019063984A - 情報処理装置、方法及びロボットシステム - Google Patents

情報処理装置、方法及びロボットシステム Download PDF

Info

Publication number
JP2019063984A
JP2019063984A JP2018182214A JP2018182214A JP2019063984A JP 2019063984 A JP2019063984 A JP 2019063984A JP 2018182214 A JP2018182214 A JP 2018182214A JP 2018182214 A JP2018182214 A JP 2018182214A JP 2019063984 A JP2019063984 A JP 2019063984A
Authority
JP
Japan
Prior art keywords
gripping
unit
target object
image
image feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018182214A
Other languages
English (en)
Other versions
JP2019063984A5 (ja
Inventor
誠 冨岡
Makoto Tomioka
誠 冨岡
小林 一彦
Kazuhiko Kobayashi
一彦 小林
智昭 肥後
Tomoaki Higo
智昭 肥後
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2019063984A publication Critical patent/JP2019063984A/ja
Publication of JP2019063984A5 publication Critical patent/JP2019063984A5/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45056Handling cases, boxes

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

【課題】ロボットなどにより対象物体を把持する際の把持位置を速やかにかつ高い精度で求める。【解決手段】把持装置が対象物体を把持するための把持位置を求める情報処理装置が提供される。情報処理装置は、対象物体を撮像して得られる撮像画像を取得(S130)する画像取得部、撮像画像における画像特徴を複数検出する(S140)画像特徴検出部、複数の画像特徴が繰り返して現れるパターンを有する画像特徴群の単位を検出する(S150)単位検出部を有する。また、情報処理装置は、単位検出部が検出した単位を用いて、把持位置を決定する(S160)把持位置決定部を更に有する。【選択図】図4

Description

本発明は、把持装置が対象物体を把持する際の把持位置を求めるための情報処理装置、方法及びシステムに関する。
ロボットを用いた対象物体の把持においては、対象物体が乱雑にバラ積みされている場合には、対象物体を正常に把持することができる把持位置を求めることが必要となる。そのために、対象物体を撮像して得られた画像情報から対象物体の把持位置を求める手法が知られている。把持位置を求める手法の一つとして、対象物体を三次元計測した画像情報から教示モデルデータを利用してロボットが把持を行う把持位置を推定する手法が知られている。
特許文献1は、対象物体の把持を行う前に教示モデルデータを生成し、三次元計測した対象物体を含む画像情報から対象物体の教示モデルデータを利用して対象物体の位置姿勢を推定する技術を開示している。この技術では教示モデルを用いて把持位置を推定しているが、教示モデルを用いることなく対象物体の把持位置を求める技術も知られている。
特開2000−288974
教示モデルを用いる場合、把持位置の推定における精度を高くすることが可能であるが、教示モデルの準備及び把持位置を推定するための前処理等に長時間が必要となる。例えば、特許文献1では、作業前の準備に長時間を要するうえに、対象物体が変更されるとそれに合わせて教示モデルを新たに生成する必要がある。
また、教示モデルを用いずに把持位置を推定する方法では、教示モデルを生成するために時間が費やされることはないが、把持位置の推定精度を高くすることは難しい。
以上のことから、本発明は、ロボットなどにより対象物体を把持する際の把持位置を速やかにかつ高い精度で求めることを目的とする。
上記課題を解決するために、本発明の情報処理装置は、把持装置が対象物体を把持するための把持位置を求める情報処理装置であって、前記対象物体を撮像して得られる撮像画像を取得する画像取得手段と、前記撮像画像における画像特徴を複数検出する画像特徴検出手段と、前記複数の画像特徴が繰り返して現れるパターンを有する画像特徴群の単位を検出する単位検出手段と、前記単位検出手段が検出した単位を用いて、前記把持位置を決定する把持位置決定手段と、を有することを特徴とする。
本発明によれば、ロボットなどにより対象物体を把持する際の把持位置を速やかにかつ高い精度で求めることができる。
ロボットシステムの機能ブロック図。 情報処理装置のハードウェア構成図。 ロボットシステムと対象物体との説明図。 ロボットシステムで実行される処理を表すフローチャート。 類似構造(単位)検出処理の説明図。 変形例におけるロボットシステムの機能ブロック図。 ロボットシステムで実行される処理を表すフローチャート。 把持位置の検出結果を出力するGUIの説明図。 変形例におけるGUIの説明図。 第2実施形態におけるロボットシステムの機能ブロック図。 ロボットシステムで実行される処理を表すフローチャート。 第3実施形態におけるロボットシステムの機能ブロック図。 第3実施形態におけるロボットシステムで実行される処理を表すフローチャート。 第4実施形態におけるロボットシステムの機能ブロック図。 第4実施形態におけるロボットシステムで実行される処理を表すフローチャート。 変形例におけるロボットシステムの機能ブロック図。 変形例においてロボットシステムで実行される処理を表すフローチャート。
以下に、図面を参照しながら、本発明を実施するための形態について説明する。
(第1実施形態)
第1実施形態では、複数の同一物体が整列して配置されている環境において、ロボットが教示モデルを用いずに、把持の対象となる対象物体を把持する場合について説明する。第1実施形態において、対象物体とは、ロボットによる把持の対象となる物体であり、例えば箱形状の商品を含む。また、整列とは、対象物体が隙間なく同一の向きに並べられていることをいう。
ロボットは対象物体を把持する把持装置、把持装置を移動させるためのマニピュレータから構成されているものとする。第1実施形態においては、把持装置とは対象物体を空気圧で吸着する吸着ハンドのことであり、把持位置とは吸着ハンドで吸着する位置のことである。また、マニピュレータには対象物体を撮像するための撮像装置が取り付けられているものとし、マニピュレータを移動させることで把持装置、及び撮像装置を移動させることができる。
更に、ロボットには、撮像装置から取得した画像に対して画像特徴検出等の処理を行う情報処理装置及び情報処理装置から得られる処理結果からマニピュレータ及び把持装置を制御する制御部が設けられている。また、情報処理装置は必ずしもロボットシステム自体に設ける必要はない。例えば撮像装置及び制御部と無線または有線で接続されたコンピュータで、上述した画像特徴検出等の処理を行い、その処理結果を制御部に入力する構成とすることも可能である。
ロボットが対象物体を把持するためには把持位置を求めることが必要である。そのために、第1実施形態では、ロボットに設けられた撮像装置が撮像した画像から画像特徴を複数検出し、検出された複数の画像特徴から把持位置を算出した。また、第1実施形態では、画像特徴として二次元の特徴点を用いる。ここで「特徴点」とは、画像中の角などの幾何学的な構造を指し示す点のことである。
次に、検出した特徴点を、互いに特徴点に関して類似構造を有する複数の画像特徴群にクラスタリングする。クラスタリングされる構造の1つを単位と呼ぶ。本明細書では、画像特徴に関して、画像特徴同士の配置や特徴量などについての構造や関連性が類似していることを、「類似構造」として記載する。第1実施形態における類似構造とは、画像特徴の相対位置関係が繰り返して現れ、が類似している構造であることを指す。また、類似構造を有する複数の画像特徴群とは、クラスタリング後の各画像特徴の集合に含まれる画像特徴同士の相対位置関係が類似するようにクラスタリングした画像特徴の集合を指す。そして、クラスタリングした画像特徴群をもとにロボットが把持する位置を算出する。第1実施形態においては、各画像特徴群の重心位置を把持位置とする。
図1に、第1実施形態における情報処理装置10を備えるロボットシステム1の機能ブロック図を示す。情報処理装置10は、画像取得部110、画像特徴検出部120、類似構造(単位)検出部130、把持位置決定部140、三次元情報算出部150を有する。情報処理装置10は、ロボットに搭載されている撮像装置14及び制御部11と接続されている。制御部11は、マニピュレータ12及び把持装置13と接続され、それらを制御する。ただし、図1は、機器構成の一例であり、本発明の適用範囲を限定するものではない。
画像取得部110は、撮像装置14が撮像する対象物体を含む2次元画像の画像データを取得し、画像特徴検出部120に出力する。画像特徴検出部120は、画像取得部110から入力された入力画像に対して特徴検出処理を行うことで特徴点を検出して類似構造(単位)検出部130に出力する。単位検出手段としての類似構造検出部130は、画像特徴検出部120が検出した特徴点から類似構造を検出し、把持位置決定部140に出力する。
把持位置決定部140は、類似構造(単位)検出部130が検出した類似構造から、入力画像上でロボットが対象物体を把持する2次元位置を算出し、制御部11に出力する。三次元情報算出部150は、把持位置決定部140から入力される2次元位置から把持位置の三次元位置を算出してマニピュレータ12の位置及び姿勢を決定して把持位置決定部140に入力する。従って、把持位置決定部140は、これら三次元位置、マニピュレータ12の位置及び姿勢をも制御部11に入力する。なお、図1では三次元情報算出部150を把持位置決定部140とは別個に設けたが、把持位置決定部140が三次元情報算出部150の機能を有するものとしてもよい。
図2は、情報処理装置10のハードウェア構成を示す図である。CPU(Central Processing Unit)21は、システムバス28に接続された各種デバイスの制御を行う。ROM(Read Only Memory)22には、BIOS(Basic Input Output System)のプログラム及びブートプログラムが記憶される。RAM(Random Access Memory)23は、CPU21の主記憶装置として使用される。外部メモリ24には、情報処理装置10による情報処理や各種デバイスの制御に必要なプログラムが記憶される。
CPU21は、ROM22に記録されたプログラムをRAM23に展開し、図1に記載された画像取得部110、画像特徴検出部120、類似構造(単位)検出部130、把持位置決定部140をソフトウェアとして構築する。入力部25は、キーボードやマウス、ロボットコントローラーであり、ユーザからの情報等の入力処理を行う。表示部26は、CPU21からの指示に従って情報処理装置10における情報処理の演算結果やその他の必要な情報を表示装置29に表示するための表示制御を行う。
なお、表示装置29は、液晶表示装置やプロジェクタ、LED(Light Emitting Diode)インジケーターなど、任意のものを用いることができる。また、表示装置29は情報処理装置10に設けても、あるいは、情報処理装置10と有線または無線により接続された別個の装置としてもよい。通信インターフェイス27は、ネットワークなどを介して通信を行い、例えば情報処理装置10が算出したロボットシステム1の制御情報をロボットシステム1に出力する。通信インターフェイスは、イーサネット(登録商標)でもよく、USB(Universal Serial Bus)やシリアル通信等の任意のタイプのものを用いることができる。
図3は、第1実施形態におけるロボットシステム1の構成の一例の説明図である。第1実施形態においてロボットシステム1は、例えば多関節ロボットであり、ロボットアーム等のマニピュレータ12、吸着ハンド等の把持装置13、及びそれらを制御する制御部11を備える。また、マニピュレータ12の各関節の角度を変更することで把持装置13の位置姿勢を変更可能な位置姿勢変更機構16を備える。位置姿勢変更機構16は、電動モータによって駆動されてもよく、または、油圧や空気圧等の流体圧で作動するアクチュエータ等によって駆動されてもよい。この位置姿勢変更機構16は、制御部11から出力される動作指示情報に従って駆動される。制御部11は、情報処理装置10が出力した把持位置情報に従って、位置姿勢変更機構16を通じてマニピュレータ12を制御することでロボットを制御し、かつ、把持装置13を制御して対象物体15を把持する。第1実施形態において、撮像装置14はRGBカメラであり、対象物体15を含むシーンを撮像する。
次に、第1実施形態における処理手順について説明する。図4は、第1実施形態における情報処理装置10を備えるロボットシステム1で実行される処理の一例を表すフローチャートである。この処理手順において、初期化(S110)、画像撮像(S120)、画像取得(S130)、画像特徴検出(S140)、類似構造検出(S150)、把持位置決定(S160)、及びマニピュレータ及び把持装置制御(S170)が実行される。把持位置制御を実行した後に、把持した対象物体15の数が所定の把持数に到達したか否かの判定(S180)が実行される。
以下、上記処理手順を詳細に説明する。情報処理装置10のCPU21は、システムの初期化を行う(S110)。この初期化では、CPU21は、必要に応じてROM22からBIOSプログラム等の読み出し及び外部メモリ24からのプログラムの読み出しを行って、情報処理装置10を動作可能な状態にする。また、CPU21は、情報処理装置10に接続された各機器のパラメータの読み込みやロボットの初期位置への動作を行い、使用可能な状態にする。これらに加え、三次元情報算出部150(または把持位置決定部140)は、撮像装置14が対象物体15を撮像するために、マニピュレータ12が移動する位置姿勢を決定し、制御部11に入力する。
決定される位置姿勢は、対象物体15を撮像することができるのであれば乱数で決定する、設計者があらかじめ固定値で決める、あらかじめ設計者が決めた範囲内において乱数で決定するなどの任意の方法で決定できる。制御部11は、入力された撮像位置姿勢に基づいて制御情報をマニピュレータ12に入力し、その結果マニピュレータ12が動作する。その後、マニピュレータ12が撮像位置姿勢となった後に、撮像装置14が対象物体15の撮像を実行する(S120)。この撮像は、CPU21による制御の下で行ってもよい。
画像取得部110は、撮像装置14から、撮像した対象物体15を含む2次元画像の画像データを取得する(S130)。その後、画像特徴検出部120は、S130で取得した画像から複数の特徴点を検出する(S140)。第1実施形態では、特徴点として、平滑化画像の局所領域内の勾配方向のヒストグラムを特徴量とするSIFT特徴点を用いる。特徴点情報として、特徴点の画像上での位置、及び特徴量を算出する。第1実施形態において、特徴量は、SIFT特徴ベクトルのことである。類似構造(単位)検出部130は、S140で取得した特徴点情報をもとに、類似構造を構成する画像特徴群を算出する(S150)。
類似構造検出処理の説明図を図5(a)〜(g)に示す。類似構造(単位)検出部130は、ステップS140において算出した特徴ベクトルが類似している特徴点集合に特徴点を分類する。具体的には、図5(a)において、F0〜F3及びF0’〜F3’を特徴点として、F0とF0’、F1とF1’、F2とF2’、F3とF3’が、それぞれ特徴ベクトルが類似している特徴点とする。そして、図5(b)に示すように、それぞれ特徴点をC0からC3の集合に分類する。次に、異なる特徴点集合に含まれる特徴点間の二次元の相対位置関係を、ステップS140において算出した特徴点の画像上での位置をもとに算出する。
特徴点間の相対位置関係とは、特徴点間の画像上の距離、あるいは特徴点間の画像上の距離と方向との組のことである。そして、特徴点のクラスタリングは、特徴点集合内の特徴点が複数の画像特徴群それぞれに同程度の数が含まれ、特徴点同士の相対位置関係が各画像特徴群同士で類似するように行われる。具体的には、F0とF1の相対位置関係、及びF0’とF1’の相対位置関係が類似するときには、図5(c)に示すように、F0とF1を画像特徴群R10、F0’とF1’を画像特徴群R11に分類する。これらを複数の特徴点の組に適応して結合していくことで、類似構造を構成する画像特徴群として、図5(d)に示すような画像特徴群R20,R21を得る。
なお、対象物体15が整列している場合には複数の類似構造パターンが存在し得るので、図5(e)のように、画像特徴の分類において、画像特徴群同士が重複する領域が発生するように画像特徴が分類されてしまう場合がある。そこで、特徴点のクラスタリング時に、R30のような重複領域の存在の有無を確認し、重複領域が存在する場合には重複領域を生じさせる画像特徴を分類から除外して、重複領域が生じないようにクラスタリングする。
一方、図5(f)に示すように、画像特徴群を囲む領域が、対象物体15の境界を超えて複数の対象物体15にわたって存在する場合がある。ここで、物体の境界には、画像上にエッジが存在する。従って、画像特徴群内にエッジR40がある場合にはエッジをまたがないように特徴点をクラスタリングすることで、対象物体15の境界を越えてクラスタリングがなされることを防ぐことができる。
更に、図5(g)に示すように、対象物体15上で特徴点が均一に存在しない場合には、画像特徴群を囲む領域が対象物体15上で偏ることがある。この場合、画像特徴群を囲む各領域について、所定の方向において他の画像特徴群が存在するかを判定する。例えば、図5(g)において、画像特徴群R510から方向R501側に他の領域があるか否かを判定する。同様に、画像特徴群R511から方向R501側に他の領域があるか否かを判定する。この例では、方向R501側には他の画像特徴群は存在しない。方向R502等の他の方向についても、他の画像特徴群が存在するか否かを判定する。他の画像特徴群が存在しない各方向について、画像特徴群の各領域をその方向へと拡張する。
このとき、好ましくは対象物体15の画像上のエッジを検出して、拡張した画像特徴群の領域がエッジを超えないようにする。図5(g)の例では、R501,R502等のいずれの方向においても他の画像特徴群は存在していない。従って、画像特徴群R510の領域は、エッジを超えない範囲で拡張することができる。
把持位置決定部140は、ステップS150で導出した画像特徴群をもとに、ロボットシステム1の把持装置13が把持する入力画像上での二次元位置を把持位置として算出する(S160)。具体的には、この例ではそれぞれの画像特徴群に含まれる特徴点の重心位置を把持位置とする。なお、第1実施形態においては、複数算出した類似構造から求めた複数の把持位置の中から、ランダムに一つを選択して把持位置として決定する。
次に、制御部11は、ステップS160で把持位置決定部140によって算出された把持位置をもとに、把持動作のためのマニピュレータ12、及び把持装置13の制御を行う(S170)。なお、ステップS160で算出した把持位置は画像上での2次元位置である。しかし、ロボットが把持動作を実行するためにはロボットが把持する三次元位置を算出する必要がある。
三次元の把持位置を求めるには、任意の従来の手法を用いることができる。第1実施形態では、情報処理装置10のCPU21が、ロボットの動作中に撮像装置14を制御して複数の視点で対象物体15を撮像してそれぞれの画像上で把持位置を求める。そして、三次元情報算出部150(または把持位置決定部140)が、撮像時のロボットの姿勢情報をもとにモーションステレオ法を用いて把持位置の三次元位置を求める。得られた三次元の把持位置をもとに制御部11がマニピュレータ12を動作させ把持装置13を移動させる。目的とする三次元位置に把持装置13が到達すると、制御部11が把持装置13に把持動作の信号を送り、把持装置13が把持動作を実行する。
S170を実行した後、CPU21は、システムを終了するか判定する。具体的には、マニピュレータが把持した対象物体15の数が、入力部25を通じてユーザが入力した対象物体数の所定の把持数に到達したか否かを判定する。所定の把持数に達していなければ(S180:N)、ステップS160に戻り、複数算出した把持位置の中から別の把持位置を選択して把持動作を把持位置決定部140が繰り返す。ユーザが入力した所定の把持数に到達している場合(S180:Y)は、システムを終了する。なお、到達すべき把持数をユーザが入力する代わりに、情報処理装置10とは別個に設けられた対象物体管理システムから有線又は無線ネットワーク等を介して指定してもよい。
以上に述べたように、第1実施形態では類似する構造を有する複数の画像特徴群を類似構造(単位)検出部130が検出し、画像特徴群からロボットシステム1の把持装置13による対象物体15の把持位置を算出する。これにより、教示モデルやCADモデルを用意することなく把持位置を求めることができるので、ロボットシステム1による作業を、事前に手間をかけることなく効率的に開始できる。また、対象物体15が整列している状況、すなわち特徴が繰り返し現れる状況であっても、上述のように画像のエッジを検出して画像特徴群を囲む領域が対象物体15の境界を超えないようにすることで、対象物体15を把持することができる。
第1実施形態においては、画像を撮像する撮像装置14としてRGBカメラを用いた。しかしながら、撮像装置14は、RGBカメラに限るものではなく、現実空間の画像を撮像するカメラであれば特に制限はない。例えば濃淡画像を撮像するカメラでもあってもよく、奥行き情報や距離画像、三次元点群データを撮像できるカメラであってもよい。また、撮像装置14は単眼カメラであってもよいし、二台以上の複数のカメラやセンサを備えるカメラであってもよい。
特に、奥行き情報を撮像できるカメラを用いる場合には、ステップS160においてモーションステレオ法でロボットの三次元の把持位置を求める代わりに、奥行きカメラから得た奥行き値を用いて三次元の把持位置を求めてもよい。また、二台以上の複数のカメラを備える構成を用いることができる場合には、既知のカメラの相対位置情報を用いて複数のカメラ間でのステレオマッチングにより得られる奥行き値を用いて三次元の把持位置を求めてもよい。上述した第1実施形態では、CPU21の制御によりロボットの動作中に撮像装置14を制御して複数の視点で対象物体15を撮像することで、把持位置の三次元位置を求める。しかし、奥行き情報を撮像できるカメラや二台以上の複数のカメラを備える構成を採用した場合には、複数の視点で対象物体15を撮像する必要はない。
第1実施形態の上述した例においては、把持装置13は空気圧で対象物体15を吸着する吸着パッドを用いた吸着ハンドを用いている。しかしながら、把持装置13としては、ロボットにより対象物体15を把持できる任意の装置を用いることができる。また、各実施形態において、把持とは、保持(例えば真空吸着パッドや電磁力を利用して吸着すること)あるいは把握(例えば複数のフィンガーで掴むことや挟持すること)等の概念を含む。把持位置とは、対象物体15に対して把持力が及ぼされる位置のことである。第1実施形態においては、吸着ハンドで対象物体15を吸着することで対象物体15を把持しており、把持位置とは吸着位置を意味する。
複数のフィンガーで対象物体15を挟持する場合には、類似構造(単位)検出部130が算出した画像特徴群を囲む領域の境界付近から、エッジや微小な隙間を検出しフィンガーを差し込む位置を把持位置決定部140が把持位置として決定する。その後、制御部11がマニピュレータ12を動作させて把持装置13のフィンガーを隙間に差し込むことで対象物体15を把持してもよい。
把持装置13が保持機構と把握機構との双方を備えている場合、最初に保持機構を作動して所定の高さまで対象物体15を把持して持ち上げ、次に把握機構が対象物体15を挟み込むように把握してもよい。また、把持装置13は、マニピュレータ12に対して着脱可能に取り付けられ、ワークの種類に応じて交換可能な構成であってもよい。また、ロボットは多関節ロボットに限定されるものではなく、数値制御(Numerical Control:NC)可能な可動式の機械であってもよい。
第1実施形態では、画像特徴として、二次元の特徴点であるSIFTを用いていた。しかしながら、このような特徴点としては、2つの画像特徴の相対位置関係、及び特徴量の類似度を算出することができるものであれば任意のものを採用できる。例えば、二次元の特徴点として局所画像領域内におけるある2点の輝度の大小からバイナリコードを生成し特徴量とするORB特徴点を用いてもよい。
画像特徴の定義として、Harrisコーナー検出法によって画像中の角などの特徴的な位置を算出し、周囲の色情報を特徴量とした画像特徴、あるいは、周囲の小領域のテンプレートを特徴量とした画像特徴を用いることもできる。更に、文字認識によって検出した文字情報を画像特徴として用いてもよく、あるいは、複数種類の画像特徴を組み合わせて用いてもよい。また、画像特徴は二次元の特徴点に限らない。撮像装置14が奥行き情報を取得できる場合には、画像特徴として三次元特徴点を用いてもよい。例えば、三次元特徴点としてある法線を持った二点の三次元点群の相対位置を特徴量とする3次元位置姿勢認識手法であるPoint Pair Featureを用いてもよい。更に、三次元点の法線と周囲に位置する三次元点の法線との内積のヒストグラムを特徴量とするSHOT特徴、または、ある三次元点の法線ベクトルを軸とする円柱面に周囲の三次元点を投影したSpin Imageを用いた特徴を用いてもよい。
三次元特徴点を用いる場合には、ステップS150における特徴点の相対位置関係として三次元の相対位置関係を算出して用いてもよく、把持位置決定部140が算出する把持位置も画像上の二次元位置ではなくロボットが把持する三次元位置を直接求めてもよい。第1実施形態では、画像特徴の相対位置関係及び特徴量の類似度を用いて類似構造を有する画像特徴群を求めた。しかしながら、画像特徴の相対位置関係のみの類似度を用いて類似構造を有する画像特徴群を算出してもよい。また、ある特徴点と周囲の特徴点との配置関係をもとに、周囲に類似する配置をもつ特徴点の対応を見つけた後にステップS150による類似構造検出を行ってもよい。
第1実施形態における上述した例では、事前に教示モデルやCADモデルなどの対象物体15に関する事前知識がない場合に類似構造を算出した。しかしながら、事前知識を併用してもよい。例えば、事前知識として対象物体15が単独で写された事前画像(実写、あるいはCADモデルに基づく画像)を入力し、類似構造(単位)検出部130が事前画像と撮像画像との間での類似構造検出を行ってもよい。
また、対象物体15に付加されているバーコードを事前知識として与えてもよい。更に、事前知識として入力した画像特徴を用いてもよい。例えば、対象物体15に印字されている文字列をユーザが入力部25を用いて入力し、画像特徴検出部120が撮像画像から文字列を検出し、検出した文字列をもとに類似構造(単位)検出部130が類似構造を検出する構成としてもよい。事前知識は、入力部25により入力する、ROM22あるいは外部メモリ24等の記憶装置から読み出す、ネットワーク等を介してダウロードする等の手法により取得が可能である。事前知識が文字情報であれば音声で入力してもよい。このように、事前知識を併用することで、より安定してロボットによる作業を開始できる。
第1実施形態では、複数の同一物体が整列して配置されている環境において、ロボットが教示モデルを用いずに対象物体15を把持する作業を例にして説明を行った。しかしながら、第1実施形態は、複数の同一物体が整列されて配置されている環境に限定されるものではない。撮像画像中から撮像装置14が各対象物体15の類似構造を見つけることができる環境であれば、対象物体15が整列して配置されている必要はない。従って、各対象物体15の類似構造を見つけることができる限りにおいては、対象物体15が回転して配置されていても、あるいは撮像したカメラに対して対象物体15が前後にずれて配置されていてもよい。更に、類似構造を見つけることができる環境であれば、対象物体15は積み重ねられていてもよいし、箱詰めされていてもよい。
第1実施形態では、ステップS150で算出した画像特徴群の重心位置を把持位置とした。しかし、物体のテクスチャが偏っている場合には、画像特徴検出部120が検出する特徴点が物体中で偏った位置に算出され、把持位置決定部140が算出した把持位置が物体の端に位置してしまう場合がある。この場合、ロボットシステム1の把持装置13が対象物体15を把持する位置が、対象物体15の重心から大きく外れてしまい、対象物体15の把持あるいは搬送ができない場合もある。
このことから、把持位置決定部140は、ステップS160において、画像特徴群を囲む領域を算出し、領域の重心位置やその領域の内接円の中心を把持位置として求める。また、把持位置決定部140は、ステップS160において、物体同士の境界として画像上のエッジを検出し、エッジが囲む画像特徴群が含まれる領域を対象物体15として識別する。把持位置決定部140は、撮像画像内でその識別された対象物体15に対応する領域、あるいは、対象物体15が占有する領域から把持位置を求めることもできる。このとき、撮像画像内でその識別された対象物体画像に対応する領域の重心位置を把持位置として求める。あるいは、撮像画像内でその識別された対象物体画像に対応する領域の内接円の中心を把持位置として求める。
また、安定してロボットが物体を吸着するためには、吸着位置が平面であることが望ましい。このことから、撮像装置14が奥行き情報を取得できる場合には、領域内の平面度を求め、平面度が大きい位置を把持位置としてもよい。一般に、吸着により把持を行う場合、把持装置13の軸が平面に対して垂直に近いほど吸着力が強くなる。従って、平面の法線方向と把持装置13の軸方向の差が所定の閾値以下となるように把持姿勢を求めることで、平面に対して把持装置13の軸が垂直に近くなるようにして吸着力を確保することもできる。
第1実施形態では、把持位置決定部140において算出した把持位置のうちロボットが把持する位置及び把持する順序については特に優先順位は付けていない。しかしながら、類似構造の算出結果をもとに把持位置及び把持する順番に優先順位を付けることもできる。例えば、類似構造(単位)検出部130が検出した各画像特徴群の特徴点数が大きくなる把持位置に高い優先順位を与えてもよく、あるいは、類似構造を囲む領域の面積が大きい把持位置に高い優先順位を与えてもよい。撮像装置14が奥行き情報を取得できる場合には、把持位置周辺の平面度が大きい把持位置に高い優先順位を与えてもよい。把持位置の優先順位に従って、把持装置13が把持動作を実行してもよい。
<第1変形例>
図6に第1実施形態の第1変形例を示す。ロボットシステム1’は、マニピュレータ12の姿勢を検出する姿勢センサ17を更に有し、かつ、情報処理装置10’には姿勢情報取得部170が設けられている。更に、情報処理装置10’は、把持位置決定部140に代えて把持位置決定部140’を有する。第1変形例のロボットシステム1’は、これらの点で図1のロボットシステム1と異なっている。
なお、説明の簡素化のために、以下に説明する変形例及び各実施形態では、把持位置決定部140が三次元情報算出部150の機能を有するものとして、三次元情報算出部150を省略して説明する。これら姿勢情報取得部170及び把持位置決定部140’も、画像取得部110と同様に、CPU21によりソフトウェアとして構築されて制御される。なお、特に断わりのない限り、他の実施形態及び変形例も含めて、情報処理装置10、10’、20〜40及び40’に構築される機能は、いずれもCPU21によりソフトウェアとして構築されて制御される。
この例では、姿勢センサ17は撮像装置14に取り付けられる。情報処理装置10’では、姿勢情報取得部170が姿勢センサ17から姿勢情報を取得するとともに把持位置決定部140’に姿勢情報を入力する。また、把持位置決定部140’は、把持位置決定部140と同様に把持位置を求め、かつ、姿勢情報取得部170が取得した姿勢情報をもとに把持位置に対して優先順位を決定する。なお、図6におけるその他の構成はロボットシステム1と同様であるので説明は省略する。
第1変形例における具体的な処理のステップを図7に示す。ステップS110〜S150は、図4に示したフローチャートと同様であり、説明を省略する。S150を実行した後に、CPU21は、ステップS190において姿勢情報取得部170が姿勢センサの姿勢情報を取得し、画像取得部110の取得した画像内での重力方向を求める。CPU21は、ステップS160において把持位置決定部140’が重力方向の上位の把持位置から順に順序付けてもよい。図7のS170およびS180は、図4に示したロボットシステム1におけるフローチャートと同様のため説明を省略する。
また、姿勢センサ17は、撮像装置14に取り付けるのではなく、マニピュレータ12に取り付けてもよい。このとき、マニピュレータ12の位置姿勢をもとに撮像装置14の位置姿勢を算出し、撮像装置14に対する重力方向を求めることもできる。この場合、把持位置決定部140’は、重力方向の上側にある把持位置から順に優先順位を決定する。このように、重力方向上側の把持位置から優先的に対象物体15を把持することで、例えば対象物体15が垂直方向に積まれている場合に、一番上にある対象物体15から対象物体15を把持することができる。従って、他の対象物体15の下にある対象物体15を把持して積み上げられた対象物体15を崩してしまうことが避けられる。
<第2変形例>
第1実施形態では、撮像された画像上での類似構造を検出してロボットが対象物体15を把持する把持位置を算出し、ロボットの把持動作を実行する例を説明した。また、表示装置29には、情報処理装置10における情報処理の演算結果やその他の必要な情報が表示される。しかしながら、このような構成では、動作を監視するユーザは、ロボットが把持動作を実行するまではロボットがどこを把持するのかを確認することができない。そこで、第2変形例では、類似構造の検出結果または把持位置、把持順序のいずれか一つ、または複数を任意の提示部に提示する例を示す。
図8に、表示装置29としてディスプレイを用いて、表示部26がCPU21の制御により把持位置の検出結果をユーザに表示するGUI(Graphical User Interface)の説明図を示す。このGUIにおいては、撮像装置14が撮像した画像上に写る対象物体15の上に、ステップS150で算出した画像特徴群G1110、及び把持位置と把持順序G1120がCGで重畳されている。図示されるように、把持順序は丸囲みの数字で表わされている。
好ましくは、ユーザが状況を把握しやすくするように、画像特徴群毎に色を変えてもよく、把持位置や把持順序の色を画像特徴群の色に合わせてもよい。第2変形例では、画像特徴群G1110として、各画像特徴群を囲む領域を提示している。しかし、画像特徴群G1110として各画像特徴群に含まれる特徴点を提示してもよく、各画像特徴群を結ぶ線分を提示してもよい。更に、提示装置はディスプレイに限らない。例えば不図示のプロジェクタを用いて対象物体15に類似構造、把持位置、把持順序のいずれか一つ、または複数を投影してもよいし、不図示の印刷装置を用いて紙に印刷してもよい。
<第3変形例>
第1実施形態では、画像上での類似構造を検出してロボットが対象物体15を把持する把持位置を算出することでロボットの把持動作を実行していた。しかしながら、入力部25を通じてユーザから入力された入力情報をもとに画像特徴群の検出結果を修正したり、新たな画像特徴群を検出したりしてもよい。
図9は、ユーザが類似構造検出結果を修正するための入力を行う第3変形例におけるGUIの一例を示している。この例では、GUI1200には対象物体15が示され、また、G1240に示されるように、対象物体間の境界部G1240が視認できる。その一方で、画像特徴群G1110は、境界部G1240を包含し、複数の対象物体15にわたって形成されていることが示される。このことから、ユーザは、図9においては類似構造(単位)検出部130が誤って2個の対象物体15を一つの物体であると認識しており、その結果画像特徴群G1110が境界部G1240を包含して形成されていると判断できる。そこで、この例では、GUI1200が提示する任意の画像特徴群のうちの一つの検出結果である画像特徴群G1110に対して、ユーザがカーソルG1210を用いて対象物体15の境界線G1220を入力する。
ユーザは、マウス等の操作手段によってカーソルG1210を操作し、画像特徴群G1110内に境界線G1220を入力して画像特徴群を分割することができる。このとき、境界線G1220により分割した画像特徴群G1110をもとにして、情報処理装置10のCPU21が、画像認識等によって他の画像特徴群にも境界線G1230を自動的に挿入し分割してもよい。また、CPU21は、境界をまたぐ画像特徴群の相対位置関係の類似度が小さくなるように修正することで、類似構造(単位)検出部130による類似構造算出結果を修正してもよい。
なお、ユーザが入力するのは二つの物体の境界に限らない。例えば、新たな類似構造を入力してもよい。例えば、ユーザがカーソルG1210を用いて物体を一つ囲むような領域を入力してもよい。この場合、ユーザが入力した領域内の画像特徴と残りの領域の画像特徴とを用いて、類似構造(単位)検出部130が画像認識等によって新たに類似構造を検出してもよい。更に、ユーザが類似構造ではなく、直接把持位置を入力してもよい。
(第2実施形態)
第1実施形態では、類似構造を用いてロボットの把持位置を算出した。第2実施形態では、算出した把持位置が不適切でロボットが対象物体15の把持に失敗した場合に、別の把持位置を把持し直す例を示す。このように、最初に算出した把持位置が不適切で対象物体15の把持に失敗しても別の把持位置を求め、新たに求められた把持位置で対象物体15を把持することで、把持性能を向上させる。
図10は、第2実施形態における情報処理装置20を備えるロボットシステム2の機能ブロック図である。第2実施形態における画像取得部210〜把持位置決定部240は、情報処理装置10における画像取得部110〜把持位置決定部140と同一であるため説明を省略する。第2実施形態のロボットシステム2は、把持成否判定部250が追加された点で第1実施形態のロボットシステム1とは異なる。
第2実施形態において、把持成否判定部250は、把持装置13が対象物体15を把持したときに、把持装置13から入力される把持結果情報をもとに、把持に成功したか失敗したかの判定をする。ここで、把持結果情報とは、対象物体15の把持に成功したか否かを判定するために把持装置13で生成される情報である。把持装置13が吸着機構の場合、把持装置13は、吸着時の真空到達度を把持成否判定部250に入力する。以下、把持装置13が吸着機構を有する場合について説明するが、把持装置は吸着機構意外の手段で把持を行うものとしてもよい。
把持成否判定部250は、対象物体15の把持に成功したか否かを、真空到達度から判定する。吸着時に把持装置13が対象物体15と接触する部位における真空度が高い場合には、把持成否判定部250は、対象物体15が正常に把持されたと判定する。一方、上記接触部位における真空度が低い場合には、把持成否判定部250は、対象物体15が正常に把握されなかったと判定する。
把持に失敗したときには、把持成否判定部250は、把持に失敗したときにおける把持装置13の把持位置の位置情報を類似構造(単位)検出部230、及び把持位置決定部240に出力する。そして、把持位置決定部240は、把持に失敗した位置と異なる別の把持位置を決定する。
図11は、第2実施形態における処理手順を表すフローチャートである。第2実施形態におけるS210からS270は、第1実施形態におけるS110からS170と同様であるので、その説明は省略する。第2実施形態は、把持成功判定(S280)を行う点で、第1実施形態とは異なる。
S270が実行された後に、把持成否判定部250は、把持装置13による対象物体の把持に成功したか失敗したかを判定する(S280)。具体的には、把持装置13からの把持結果情報から得られる真空到達度に対して、予め吸着成功とする真空到達度の閾値を設定しておく。そして、把持装置13から得られた真空到達度が閾値に達している場合(S280:Y)、把持成否判定部250は吸着成功(把持成功)と判定して処理が完了する。閾値に達していなければ、把持成否判定部250は、吸着失敗(把持失敗)と判定し(S280:N)、処理はS250に戻る。その後、類似構造(単位)検出部230が他の類似構造パターンを算出する。具体的には、把持に失敗した把持位置は物体境界であるとみなし、前述の把持に失敗した把持位置を通る画像特徴群の相対位置関係の類似度を下げる。これにより、物体の境界が包含されないように新たに類似構造を算出する。
ステップS260では、失敗した把持位置と類似構造(単位)検出部230が新たに算出した類似構造とをもとに、把持位置決定部240が新たな把持位置を決定し、制御部11がマニピュレータ及び把持装置制御を行う。その後、再度S280に進み、S280の判定結果がYとなるまで上述した処理を繰り返す。
以上述べたように、第2実施形態では、ロボットシステム2がピッキングに失敗した場合に、新たな類似構造パターンを算出してロボットの把持位置を再算出する。これにより、ロボットが対象物体15の把持に失敗しても、把持が成功するまで別の把持位置で再度把持を行うことができ、把持性能を向上させることができる。
なお、第2実施形態では、ロボットが把持に失敗したときに、類似構造(単位)検出部230が新たに別の類似構造を検出し、ロボットの把持位置を算出している。しかしながら、あらかじめ類似構造(単位)検出部230が複数の類似構造パターンを算出し、把持位置決定部240があらかじめ複数の類似構造パターンに優先順位を付けてもよい。そして、把持に失敗した場合には類似構造パターンの優先順位に従って把持位置を選択してもよい。新たな類似構造の単位として、例えば、図8のように分離された2つをまとめて1つの類似構造の単位とすることなどが考えられる。2つの製品が1つの容器にパッキングされ、容器単位で把持する場合には、このような単位の類似構造パターンを用いると把持に成功しやすい。
類似構造パターンの優先順位付け手法として、例えば類似構造(単位)検出部230が算出した画像特徴群数の多いものから順に類似構造に優先順位を付けるようにしてもよい。また、各画像特徴群に含まれる特徴点数の平均が大きいものから順に類似構造に優先順位を付けてもよい。更に、各画像特徴群に含まれる特徴点同士の相対位置関係の類似度が大きいものから順に類似構造に優先順位を付けてもよい。また、把持位置の順序付けに従って、把持装置13が把持動作を実行してもよい。このように、あらかじめ複数の類似構造パターンを算出しておき、優先順位が付けられた把持位置を複数用意することで、把持に失敗するごとに把持位置を算出する処理を行う必要がなく、高速に把持位置を決定して処理時間を短縮できる。
第2実施形態では、ロボットが把持に失敗したときに新たに別の類似構造パターンを検出し、ロボットの把持位置を算出している。しかしながら、新たに別の類似構造パターンを算出するのではなく、別の画像特徴群から算出した把持位置を把持位置決定部240が決定するようにしてもよい。具体的には、1度目の把持試行では、類似構造(単位)検出部230が算出した画像特徴群のうち最も面積の大きいものから優先順位を付け、優先順位が最も高い画像特徴群に対して把持を試行する。把持が失敗した場合に、2度目の試行では、類似構造(単位)検出部230が算出した画像特徴群のうち面積が2番目に大きいものを把持位置として決定する。以下、順次、優先順位が高い画像特徴群から順に把持を試行する。
また、画像特徴群に含まれる特徴点数の平均が大きいものから順に把持位置に優先順位を付けてもよく、各画像特徴群に含まれる特徴点の同士の相対位置関係の類似度が大きい画像特徴群から順に把持位置に優先順位付けてもよい。また、把持位置の優先順位に従って、把持装置13が把持動作を実行してもよい。
このように、最初の試行において用いた画像特徴群とは別の画像特徴群から算出した把持位置を決定することで、最初に把持を試行した対象物体15とは別の対象物体15に対して把持を試行することができる。
把持位置は正しいものの対象物体15が密に隙間なく配置されていることにより把持の試行が失敗した場合には、同じ対象物体15における他の把持位置に対して把持の試行を行うよりも、別の対象物体15に対して把持の試行を行うことが好ましい。この場合、別の画像特徴群から把持位置を算出することで、他の対象物体15に対して把持を試行することができる。
第2実施形態では、把持装置13である吸着ハンドの真空到達度を計測することによって把持が成功したかの判定を行った。しかしながら、把持装置13が対象物体15の把持に成功したか失敗したかを判定できるものであれば判定方法は任意の手法を用いることができる。例えば、把持装置13に設置した不図示の力覚センサを用いて把持の成否を判定してもよいし、不図示の近接センサにより把持の成否を判定してもよい。また、把持動作実行時に撮像装置14が把持装置13を撮像した画像をもとに把持の成否を判定してもよい。更に、把持装置13が多指ハンドの場合にはハンドの開閉角をもとに把持の成否を判定してもよい。
(第3実施形態)
第1実施形態では、類似構造を用いてロボットの把持位置を算出した。第2実施形態では、算出した把持位置が誤っておりロボットが把持試行に失敗した場合には、別の把持位置を把持し直した。第3実施形態では、算出した把持位置が誤っておりロボットが把持試行に失敗した場合には、ロボットが対象物体15を動かしてその動きを観測することで、安定して把持できる把持位置を算出する。
図12に、第3実施形態における情報処理装置30を備えるロボットシステム3の機能ブロック図を示す。第3実施形態における画像取得部310〜把持位置決定部340及び把持成否判定部360は、第2実施形態における画像取得部210〜把持位置決定部240及び把持成否判定部250と同一であるので説明を省略する。
第3実施形態は、制御部350及び変位検出を行うための変位計測部370が新たに追加されている点で第2実施形態とは異なる。制御部350は、把持位置決定部340が決定した把持位置を入力として、把持動作のためのマニピュレータ12、及び把持装置13に制御情報を出力して制御する。これらの制御に加え、把持試行時に把持成否判定部360が把持に失敗したと判定した場合には、マニピュレータ12に制御情報を出力して動作させることで対象物体15を動かす。
変位計測部370には、画像取得部310が取得した、撮像装置14が撮像した把持動作実行前の対象物体15の画像と、マニピュレータ12が対象物体15を動かした後の対象物体15画像とが入力される。変位計測部370は、対象物体15の変位を計測して変位情報を生成して把持位置決定部340及び制御部350に出力する。
図13に第3実施形態におけるロボットシステム3で実行される処理の一例を表すフローチャートを示す。図13におけるS310〜S380は、第2実施形態におけるS210〜S280と同一であるので説明を省略する。第3実施形態は、仮把持位置設定及び把持装置移動(S371)を行い、かつ、変位計測(S390)を行う点で、第2実施形態とは異なる。
S370が実行された後、把持成否判定部360は、把持が成功したか否かを判定する(S380)。把持が成功した場合(S380:Y)、第2実施形態のS280と同様に、把持数に到達したか否かを判定し(S381)、到達してなければ(S381:N)、再度S360を実行し、到達していれば(S381:Y)、処理を終了する。一方、S380で把持が失敗したと判定した場合(S380:N)、制御部350は、マニピュレータ12を動作させて対象物体15を動かす(S371)。
具体的には、把持位置決定部340は、把持が失敗した位置の周囲に仮把持位置を設定する。この仮把持位置は任意の手法で設定でき、画像特徴等から設定してもよく、あるいは、把持が失敗した位置近傍のランダムな位置を選択してもよい。制御部350は、マニピュレータ12を制御して把持装置13を仮把持位置へと移動させる。その後、制御部350は、仮把持位置で把持装置13により吸着動作試行し、吸着に成功した場合には制御部350がマニピュレータ12を制御して対象物体15を所定の微小距離で変位させる。第3実施形態では、対象物体15を所定の微小な高さだけ持ち上げるものとした。その後撮像装置14が対象物体15を撮像する。撮像後、制御部350は、対象物体15を元の位置に戻して吸着動作を終える。
その後、変位計測部370は、変位前及び変位後の撮像画像を比較する。詳細には、撮像装置14が撮像した把持動作実行前の画像と、マニピュレータ12が対象物体15を吸着して持ち上げた状態での画像とから、対象物体15の変位領域を算出する(S390)。
具体的には、変位計測部370は、把持動作実行前の画像と、マニピュレータ12が対象物体15を吸着中の画像との間で、画像の差分が所定の閾値を超えている領域、すなわち対象物体15に対応する変位領域を求める。変位領域には、対象物体15の移動前の領域と対象物体15の移動後の領域とが含まれるので、正確には、変位領域は対象物体15よりも大きな領域となっている。しかし、上述のように、対象物体15の移動距離は微小であるので、変位領域を実質的に対象物体15に対応する領域とすることができる。その後、処理はS360に戻り、変位計測部370は、算出された対象物体15に対応する変位領域の重心位置を把持位置として把持位置決定部340に出力する。
また、変位計測部370は、対象物体15に対応する変位領域を求めた後に、把持位置候補を求めずに変位領域を把持位置決定部340に入力してもよい。この場合、把持位置決定部340は、変位領域を対象物体15の領域として把持位置を決定する。以上に述べたように、第3実施形態では、ロボットシステム3の把持装置13がピッキングに失敗した場合に、把持装置13により対象物体15を動かし、対象物体15の変位情報から対象物体15の領域を求め、把持装置13による把持位置を再算出する。これにより、類似構造の検出に失敗するなどしてロボットが対象物の把持に失敗しても、把持位置を算出することができ、把持性能を向上させることができる。
第3実施形態では、対象物体15を吸着して所定の高さで持ち上げることで、高さが変わる前後の撮像画像の差分から対象物体15の領域を算出した。しかしながら、対象物体15の領域の算出方法は撮像画像の差分に限らない。例えば、撮像装置14が三次元情報を計測できる場合は、対象物体15のそれぞれにおける奥行きを計測し、各対象物体15の計測された奥行きの差分から対象領域を算出してもよい。
対象物体15を動かす方法は、持ち上げることだけに限らない。例えば、ロボットにより対象物体15をスライドさせるように動かし、移動中の画像で検出した特徴点をKLT(Kanade−Lucas−Tomasi Feature Tracker)法で追跡し、追跡時の特徴点の変位量から対象領域を明らかにしてもよい。また、対象物体15のスライド前後の画像で特徴点を検出し、特徴点マッチングにより対応した特徴点の移動距離から対象領域を求めてもよい。
第3実施形態では、ロボットが対象物体15を動かし、対象物体15の変位情報から対象物体15の領域を求め、ロボットの把持位置を再算出していた。しかしながら、ロボットの把持位置の再算出だけでなく、類似構造や画像特徴群の更新を行ってもよい。具体的には、ロボットが対象物体15を動かすことで得た対象物体15の領域内に存在する画像特徴と、残りの領域中の画像特徴との間で類似構造を有する画像特徴群を類似構造(単位)検出部330が検出してもよい。
また、第3実施形態では、ロボットの把持動作失敗時に、ロボットが対象物体15を動かし、動かす前後撮像画像における対象物体15の変位から対象物体15の領域を求めている。しかしながら、類似構造検出を行う前に対象物体15を動かすことで、対象物体15の領域を明らかにしてもよい。このとき、どの位置にある対象物体15を動かすのかは、乱数によって決めてもよく、画像の中央位置にある対象物体15を動かすものとしてもよい。また、撮像画像から、対象物体15の模様や画像特徴が密集している位置を求め、求められた位置にある対象物体15を動かすものとしてもよい。
(第4実施形態)
第1実施形態〜第3実施形態では、類似構造を検出した後に1個目の対象物体15を把持する。第4実施形態では、1個目の対象物体15の把持に成功した後に、その結果を参照して再度類似構造の検出を実行することで、認識性能を向上させる。
図14は、第4実施形態における情報処理装置40を備えるロボットシステム4の機能ブロック図である。第4実施形態における画像取得部410〜把持成否判定部460は、第3実施形態で示した情報処理装置30の画像取得部310〜把持成否判定部360と同一であるため説明を省略する。第4実施形態では、画像特徴情報登録部470及び画像特徴情報保持部480を有するという点で第3実施形態とは異なる。
画像特徴情報登録部470には、把持成否判定部460が判定した把持成功情報が入力される。把持が成功した場合には、把持された対象物体15が撮像装置14によって再度撮像される。画像特徴検出部420は、再度撮像された撮像画像中から画像特徴を検出し、検出された画像特徴を画像特徴群として画像特徴情報保持部480に出力する。
画像特徴情報保持部480は、画像特徴情報登録部470から入力された画像特徴情報を保持する。第4実施形態においては、画像特徴情報として、特徴点の画像上での位置及び特徴量を保持する。また、保持した画像特徴情報を類似構造(単位)検出部430に出力する。
図15は、第4実施形態におけるロボットシステム4で実行される処理を表すフローチャートである。第4実施形態におけるS4110〜S4170は、第3実施形態の初期化S310〜S370の処理手順と同一であるため説明を省略する。第4実施形態は、画像特徴情報登録判定(S4190)及び画像特徴情報登録(S4200)を行う点で、第3実施形態とは異なる。
第4実施形態では、S4110〜S4170までは第3実施例と同様に処理が進められる。S4170が実行された後に、把持が成功したか否かを判定する(S4180)。把持が失敗した場合(S4180:N)、再度S4160を実行する。把持が成功した場合(S4180:Y)、第1実施形態のS180と同様に、把持数に到達したか否かを判定する(S4220)。把持数に到達している場合(S4220:Y)、処理を終了する。画像特徴情報保持部480には、把持を開始した最初の1回目に検出した、対象物体15の単位のサイズを保持しておく。把持数に到達するまで、改めて対象物体15の単位のサイズを決定することなく、保持している情報を使って、マニピュレータを制御し、対象物体15の把持を繰り返す。
把持数に到達していない場合(S4220:N)、画像特徴情報登録部470は、画像特徴情報保持部480に対象物体15の画像特徴情報が保持されているか否かを判定する(S4190)。画像特徴情報保持部480に画像特徴情報が保持されていない場合(S4190:N)には、画像特徴情報登録部470は画像特徴情報登録を行い(S4200)、S4150を再度実行する。既に画像特徴情報が保持されている場合(S4190:Y)は、S4150に進み、類似構造(単位)検出部430は、既に保持している情報を用いて新たな類似構造検出を行う。
ステップS4200の詳細を説明する。画像特徴情報登録部470は、画像特徴情報保持部480に対象物体15の画像特徴情報を登録する。この場合、情報処理装置40のCPU21の制御により、登録する画像特徴を計測し、把持成功した対象物体15を把持装置13により持ち上げて搬送先に搬送する。
搬送先において把持装置13が対象物体15を配置した後、撮像装置14が対象物体15を撮像する。そして、画像特徴検出部420が、撮像画像から対象物体15上の画像特徴を検出する。次に、検出した画像特徴情報を、画像特徴情報登録部470が画像特徴情報保持部480に登録する。
ステップS4150では、登録した画像特徴情報をもとに、再度類似構造を検出する。具体的には、類似構造(単位)検出部430が、対象物体15を撮像した画像のうちから、登録された画像特徴情報との間で類似構造を有する画像特徴群を検出する。そして、以前に算出した類似構造算出結果を修正及び追加する。類似構造(単位)検出部430は、算出した類似構造をもとに、ステップS4160において、把持位置決定部440が最初に検出した際の把持位置を修正し、かつ、新たな把持位置を検出する。
以上に述べたように、第4実施形態では、把持が成功した対象物体15から検出した画像特徴を登録する。そして、登録した画像特徴と、対象物体15を撮像した画像から登録した画像特徴との間で類似構造を有する画像特徴群を求めて把持位置の検出結果を修正及び新規検出する。このように、最初の検出時に画像を誤って検出したとしても把持位置の修正ができ、最初の検出時に検出できなかった対象物体15を新たに検出することができ、認識性能を向上させる。
第4実施形態は画像特徴としてSIFT特徴点を用いているが、画像特徴としてはその他の任意のものを用いることができる。第1実施形態で説明したように、画像特徴は2つの画像特徴の相対位置関係、及び特徴量の類似度を算出することができるものであればどんな画像特徴を保持してもよい。
画像特徴情報保持部480が保持するのは画像特徴に限られるわけではない。例えば、把持が成功した対象物体15の画像特徴群に対する把持成功位置の相対位置関係を保持してもよい。これにより、類似構造(単位)検出部430が検出した他の画像特徴群に対する把持位置を、把持位置決定部440が相対位置関係から決めてもよい。
また、把持に失敗したときには、対象物体15の画像特徴群に対する把持に失敗した相対位置関係を保持してもよい。このとき、把持位置決定部440は、把持位置を決定する際に、類似構造(単位)検出部430が検出した他の画像特徴群に対する把持が失敗した相対位置を避けるように、決定された把持位置を修正してもよい。さらには、把持に失敗した時には、第2実施形態で述べたように、再度類似構造を検出し直してもよい。
第4実施形態では、把持成功した対象物体15を搬送先で再度観測することで、画像特徴情報保持部480が保持する画像特徴情報を観測した。しかしながら、画像特徴情報保持部480が保持する画像特徴情報の観測は必ずしも搬送先で行う必要はない。例えば、対象物体15を搬送するためのマニピュレータ12の動作中に、把持装置13が把持している対象物体15を撮像装置14が複数回撮像する構成としてもよい。このように撮像を行うことで、把持装置13に対して相対位置関係が変化しない領域を対象物体15の領域として抽出し、この領域中の画像特徴群を画像特徴情報保持部480に保持してもよい。
また、撮像装置14が、対象物体15を把持する前、つまり対象物体15が存在する状態での画像と、対象物体15を把持して搬送した後、つまり対象物体15が存在しない状態での画像を撮像してもよい。この場合、2枚の画像は、対象物体15の領域は相異なるものの、他の領域は同一の画像となる。従って、これら2枚の画像において相異なる領域を、対象物体15に対応する領域とすることができる。このようにして搬送前の画像における対象物体15の領域を特定し、特定された領域中の画像特徴を画像特徴情報保持部480に保持することができる。
<変形例>
第4実施形態の変形例では、把持成功した対象物体15を観測することで画像特徴情報を保持していた。しかしながら、把持成功した対象物体15を観測してモデルを生成し、作成したモデルを用いて対象物体15を検出してもよい。なお、ここでいうモデルとは、対象物体15が写った画像から対象物体15を検出、及び位置姿勢算出するためのモデルである。モデルは、把持成功した対象物体15を切り出したテンプレート画像でもよく、切り出した画像から抽出した二次元の幾何特徴でもよい。三次元情報が使える場合には、三次元の幾何特徴でもよく、距離情報から再構成した三次元メッシュモデルでもよい。
図16は、モデル生成を行う変形例における情報処理装置40’を備えるロボットシステム4’の機能ブロック図である。情報処理装置40’では、第4実施形態の構成に加え、モデル生成部510、モデル保持部520、位置姿勢算出部530が追加されている。モデル生成部510には、把持成否判定部460が判定した把持成功情報が入力され、把持に成功した対象物体15を再度撮像装置14によって撮像し、撮像画像中からモデルを生成し、モデル保持部520に出力する。
モデル保持部520は、モデル生成部510が生成したモデルを入力して保持する記録装置であり、保持したモデルを位置姿勢算出部530に出力する。位置姿勢算出部530には、モデル保持部520が保持するモデルが入力され、画像取得部410が取得した画像から対象物体15を検出し対象物体15の位置姿勢を算出する。把持位置決定部440は、算出した位置姿勢をもとに対象物体15の把持位置を決定する。
図17は、変形例においてロボットシステム4’で実行される処理手順を示すフローチャート図である。この図では、第4実施形態の処理手順に加えて、モデル登録済み判定(S4310、S4320)、モデル生成(S4330)、モデル登録(S4340)、位置姿勢算出(S4350)が追加されている。なお、S4110〜S4180については,第4実施例の処理手順と同一であるので説明を省略する。
変形例では、S4110〜S4130までは第4実施形態と同様に処理が進められる。S4130が実行された後に、情報処理装置40’のCPU21は、モデル保持部520にモデルが登録済みであるか否かを判定する(S4310)。登録がなされていない場合(S4310:N)には、第4実施形態と同様にS4140〜S4220を実行する。登録済みである場合(S4310:Y)の処理は後述するS4350を実行し、第4実施形態と同様にS4160〜S4220を実行する。
S4220で把持数が処置の閾値に到達していると判定された場合(S4220:Y)、処理は終了する。所定のしきい値に到達していないと判定された場合(S4220:N)、モデルが登録済みであるか否かを判定する(S4220)。モデルが登録済みである場合(S4220:Y)、画像撮像ステップであるS4120を再度実行する。
モデルが登録済みではない場合(S4220:N)、モデル生成を行う(S4330)、S4330では、モデル生成部510が対象物体15のモデルを生成する。具体的には、画像取得部410が取得した撮像画像から、把持成功した対象物体15の領域をテンプレートとして切り出してモデルとする。ただし、モデル保持部520が保持するモデルは、テンプレートから二次元の特徴量を算出してモデルとしてもよい。また、把持成功した対象物体15を複数視点で撮像し、ステレオマッチングを用いて三次元復元を実行することで三次元モデル生成し、生成された三次元モデルをモデルとして用いてもよい。
撮像装置14からの距離情報が得られる場合には、得られた距離情報から三次元形状を再構成してもよい。また、距離情報を格子状に配置された対象までの距離値として、隣接する格子点を頂点とするメッシュを生成しモデルとしてもよい。ステップS4340では、モデル生成部510が生成したモデルをモデル保持部520に登録し、S4120を実行する。
第4実施形態と同様にS4120及びS4130が実行された後に、ステップS4310では、モデル保持部520がモデルを保持しているか判定する。保持していない場合(S4310:N)には、上述したように画像特徴検出ステップであるS4140を実行する。一方、モデルを保持している場合には、位置姿勢算出部530が、モデル保持部520の保持するモデルを用いて、画像取得部410が取得した画像中から対象物体15の検出、及び位置姿勢の算出を行う(S4350)。
対象物の検出及び位置姿勢の算出方法としては、具体的には、モデルがテンプレートの場合にはテンプレートマッチングを用いて対象物体15の位置姿勢を求める。また、二次元の特徴量をモデルとしている場合には、Line2D法や特徴点マッチングを用いて対象物体15の位置姿勢を求めてもよい。モデルが三次元である場合には、ICP(Iterative Closest Points)等のアルゴリズムを用いることで対象物体15の位置姿勢を算出してもよい。
変形例においては、類似構造をもとに把持成功した対象物体15を観察することでモデルを生成し、生成したモデルをもとに対象物体15を検出し、位置姿勢を算出して把持位置を決定した。しかしながら、第3実施形態で図13のS371について説明したように、ロボットの把持動作前に対象物体15を動かすことで算出した対象物体15の領域をもとにしてモデルを生成してもよい。そして、算出したモデルをもとに対象物体15を検出し、位置姿勢を算出して把持位置を決定してもよい。
以上説明したように、各実施形態では以下のような効果が得られる。第1実施形態では、教示モデルやCADモデル作成等の時間を要する作業を行わずに、ロボットなどにより対象物体15を把持する際の把持位置を速やかにかつ高い精度で求めることができる。また、対象物体15が整列している状況、すなわち特徴が繰り返し現れる状況であっても対象物体15を把持することができる。
第2実施形態では、対象物体15の把持に失敗した場合でも、新たな類似構造パターンを再度検出してロボットの把持位置を再算出することで、対象物体15を把持することを可能としている。
第3実施形態では、対象物体15の把持に失敗した場合に、把持位置を変えて対象物体15を微小距離動かして対象物体15に対応する変位領域を求めて把持位置を再算出している。これにより、把持位置をより正しく算出することができる。
第4実施形態では、把持成功した対象物体15から検出した画像特徴を登録し、登録した画像特徴を用いて類似構造の算出結果を修正して画像特徴群を求めている。この構成により、把持位置をより正しく算出することができる。
なお、本発明における画像取得部は、現実空間を撮像した画像が入力されるものであれば特に制限はない。例えば、単眼カメラが撮像した画像を画像取得部に入力してもよく、ステレオカメラなど複数台のカメラ画像を画像取得部に入力する構成としてもよい。また、カラー画像の入力に限るものではなく、濃淡画像を画像取得部に入力する構成としてもよく、奥行き情報を表す奥行き画像を画像取得部に入力してもよい。更に、カメラが撮像した画像を直接入力する構成としてもよいし、ネットワークを介して入力構成としてもよい。
各実施形態において、画像特徴検出部は、2つの画像特徴の相対位置関係、及び特徴量の類似度を算出することができるものであれば任意の画像特徴を用いることができる。類似構造(単位)検出部は、画像特徴を用いて類似構造を算出するものであれば任意の手法を用いて類似構造を検出することができる。例えば、二次元の画像特徴の特徴量と二次元の相対位置関係を用いて二次元の類似構造を検出してもよく、三次元の画像特徴の特徴量と三次元の相対位置関係を用いて三次元の類似構造を検出してもよい。また、画像特徴の相対位置関係のみを用いて類似構造を検出してもよい。また、過去に把持に失敗した把持位置を避けるように類似構造を検出してもよく、過去に把持に成功した対象物体15の画像特徴との間の類似構造を検出してもよい。
類似構造とは、画像特徴の相対位置関係が類似している構造であることを指す。画像特徴の相対位置関係とは、画像上の距離あるいは画像上の距離と方向の組のことである。類似構造を有する複数の画像特徴群とは、クラスタリング後の各画像特徴の集合に含まれる画像特徴同士の相対位置関係が類似するようにクラスタリングした画像特徴の集合を指す。把持位置決定部は、類似構造をもとにロボットが把持する位置を算出するものであれば任意の手法により把持位置を決定することができる。類似構造検出部が算出した類似構造を有する画像特徴群の重心位置でもよく、画像特徴群を囲む凸包囲領域の重心位置としてもよく、領域の内接円の中心としてもよい。また、領域内の平面度を求め、平面度が大きい位置を把持位置としてもよい。
また、類似構造の算出結果をもとに複数の把持位置に優先順位を付けてもよい。順序付けでは、画像特徴群の画像特徴数が大きいものから順に把持位置を順序付けてもよく、画像特徴群を囲む領域の面積の大きい順に把持位置を順序付けてもよく、把持位置周辺の平面度合が大きい位置から順に把持位置を順序付けてもよい。
把持とは、把握(例えば複数のフィンガーで掴むことや挟持すること)や、保持(例えば真空吸着パッドや電磁力を利用して吸着すること)という概念を含む。把持位置とは、ロボットが例えば把持装置13を介して対象物体15を把持するための位置であり、対象物体15上での、対象物体15に対して把持力が及ぼされる位置である。把持位置は、入力画像中における二次元の把持位置から求めてもよい。また、二台以上の複数のカメラを備えるカメラを用いることができる場合には、既知のカメラの相対位置情報を用いて複数のカメラ間でのステレオマッチングにより得られる奥行き値を用いて、把持位置を三次元位置として直接求めてもよい。
なお、本発明は上述した実施形態に限定されるものではなく、様々な形態で実施できる。例えば、実施形態で説明した画像取得部、画像特徴検出部等の機能の少なくとも一部は、MPU(Micro-Processing Unit)により実現可能である。また、ASIC(Application Specific Integrated Circuit)、SoC(System-on-a-Chip)等によっても実現可能である。

Claims (21)

  1. 把持装置が対象物体を把持するための把持位置を求める情報処理装置であって、
    前記対象物体を撮像して得られる撮像画像を取得する画像取得手段と、
    前記撮像画像における画像特徴を複数検出する画像特徴検出手段と、
    前記複数の画像特徴が繰り返して現れるパターンを有する画像特徴群の単位を検出する単位検出手段と、
    前記単位検出手段が検出した単位を用いて、前記把持位置を決定する把持位置決定手段と、
    を有する情報処理装置。
  2. 前記単位検出手段は、前記画像特徴の相対位置関係から前記複数の画像特徴をクラスタリングすることで、前記画像特徴群の単位を検出することを特徴とする、
    請求項1記載の情報処理装置。
  3. 前記単位検出手段は、前記画像特徴の特徴量をもとに画像特徴をクラスタリングすることで、前記画像特徴群の単位を検出することを特徴とする、
    請求項1または2に記載の情報処理装置。
  4. 前記把持位置決定手段は、前記画像特徴群から構成される前記単位に基づき把持位置を決定することを特徴とする、
    請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記把持位置決定手段は、複数の把持位置に対して、把持を行うための優先順位を付けることを特徴とする、
    請求項1乃至4のいずれか1項記載の情報処理装置。
  6. 前記把持装置は、マニピュレータを備えたロボットシステムの前記マニピュレータに設けられており、
    前記情報処理装置は、前記マニピュレータを制御する制御手段を更に有することを特徴とする、
    請求項5記載の情報処理装置。
  7. 前記マニピュレータには撮像装置が設けられており、前記マニピュレータまたは前記撮像装置の姿勢情報を取得する姿勢情報取得手段を更に備え、
    前記把持位置決定手段は、前記姿勢情報をもとに前記複数の把持位置に優先順位を付けることを特徴とする、
    請求項6記載の情報処理装置。
  8. 前記把持装置が前記対象物体の把持に成功したか否かを判定する把持成否判定手段を更に備え、
    前記把持位置決定手段は、前記把持成否判定手段が把持に失敗したと判定した場合に、前記把持位置とは異なる別の把持位置を決定することを特徴とする、
    請求項1乃至7のいずれか1項記載の情報処理装置。
  9. 前記把持位置決定手段は、複数の把持位置を決定し、
    前記把持装置が前記対象物体の把持に成功したか失敗したかを判定する把持成否判定手段を更に備え、
    前記把持位置決定手段は、前記把持成否判定手段で把持が失敗したと判定された場合に、前記複数の把持位置の中から、把持に失敗した前記把持位置とは異なる別の把持位置を選択することを特徴とする、
    請求項1乃至7のいずれか1項に記載の情報処理装置。
  10. 前記別の把持位置は、前記把持成否判定手段で把持が失敗したと判定された把持位置の決定に用いられた前記画像特徴群とは別の画像特徴群から前記別の把持位置を決定することを特徴とする、
    請求項8または9のいずれかに記載の情報処理装置。
  11. 前記単位検出手段は前記単位の候補を複数算出し、
    前記別の把持位置は、前記把持成否判定手段で把持が失敗と判定された把持位置の決定に用いられた前記単位とは別の単位から前記別の把持位置を決定することを特徴とする、
    請求項8または9のいずれか1項に記載の情報処理装置。
  12. 前記把持装置が前記対象物体の把持に成功したか失敗したかを判定する把持成否判定手段、および、
    前記画像取得手段により取得した複数の撮像画像から前記対象物体の変位を検出し、検出された変位から前記撮像画像における前記対象物体に対応する領域を求める変位検出手段を備え、
    前記把持成否判定手段で把持が失敗したと判定された場合に、
    前記把持位置決定手段は、仮把持位置を設定し、
    前記制御手段は、前記マニピュレータを制御して前記把持装置を前記仮把持位置に移動させて前記対象物体の把持を試行し、把持に成功した場合には、把持された対象物体を所定の微小距離で変位させ、
    前記変位検出手段は、前記画像取得手段により取得した前記変位の前後の画像から前記対象物体に対応する領域を求め、
    前記把持位置決定手段は、前記対象物体に対応する領域から前記把持位置を決定することを特徴とする、請求項6または7に記載の情報処理装置。
  13. 前記把持装置が前記対象物体の把持に成功したか否かを判定する把持成否判定手段、対象物体の画像特徴情報を保持する画像特徴情報保持手段、および前記単位検出手段が検出した前記画像特徴情報を画像特徴情報保持手段に登録する画像特徴情報登録手段を更に備え、
    前記画像特徴情報登録手段は、前記把持成否判定手段が前記対象物体の把持に成功したと判定した場合に、前記対象物体の前記画像特徴情報を前記画像特徴情報保持手段に保持し、
    前記単位検出手段は、前記画像特徴情報保持手段が保持する画像特徴情報をもとに単位を検出することを特徴とする、
    請求項1から12のいずれか1項に記載の情報処理装置。
  14. 前記画像特徴情報保持手段は、更に、前記対象物体の把持に成功した位置の位置情報と前記単位のサイズとを保持することを特徴とする、
    請求項13に記載の情報処理装置。
  15. 前記把持装置が前記対象物体の把持に成功したか否かを判定する把持成否判定手段、前記画像取得手段により取得した画像から前記対象物体のモデルを生成するモデル生成手段、前記モデルを保持するモデル保持手段、および、
    前記モデルを用いて前記対象物体の位置姿勢を算出する位置姿勢算出手段を更に有し、
    前記モデル生成手段は、前記把持成否判定手段が前記対象物体の把持に成功したと判定した場合に前記モデルを生成し、生成された前記モデルを前記モデル保持手段に入力して保持させ、
    前記位置姿勢算出手段は、前記モデル保持手段が保持する前記モデルをもとに前記対象物体の位置姿勢を算出することを特徴とする、
    請求項1乃至14のいずれか1項に記載の情報処理装置。
  16. 前記単位または前記把持位置をユーザに対して表示するための表示手段を更に備えることを特徴とする、
    請求項1乃至15のいずれか1項に記載の情報処理装置。
  17. ユーザが前記単位または把持位置を入力するための入力手段を更に備えることを特徴とする、
    請求項15項記載の情報処理装置。
  18. 把持装置が対象物体を把持するための把持位置を求める情報処理方法であって、
    前記対象物体を撮像して得られる撮像画像を取得し、
    前記撮像画像における画像特徴を複数検出し、
    前記複数の画像特徴が繰り返して現れるパターンを有する画像特徴群の単位を検出し、かつ、
    前記検出した単位を用いて前記把持位置を決定することを特徴とする、
    情報処理方法。
  19. 対象物体を撮像する撮像装置と、情報処理装置とを有するロボットシステムであって、前記情報処理装置は、
    前記撮像装置から、前記対象物体を撮像して得られた撮像画像を取得する画像取得手段、
    前記撮像画像における画像特徴を複数検出する画像特徴検出手段、
    前記複数の画像特徴が繰り返して現れるパターンを有する画像特徴群の単位を検出する単位検出手段、および、
    前記単位検出手段が検出した単位を用いて、把持装置が前記対象物体を把持するための把持位置を決定する把持位置決定手段を有することを特徴とする、
    ロボットシステム。
  20. 前記把持装置は、前記ロボットシステムに設けられている、
    請求項19に記載のロボットシステム。
  21. 前記ロボットシステムは、マニピュレータを更に有し、
    前記把持装置は前記マニピュレータに設けられており、
    前記情報処理装置は、前記マニピュレータの姿勢を制御するための制御手段を更に有することを特徴とする、
    請求項20に記載のロボットシステム。
JP2018182214A 2017-10-02 2018-09-27 情報処理装置、方法及びロボットシステム Pending JP2019063984A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017192626 2017-10-02
JP2017192626 2017-10-02

Publications (2)

Publication Number Publication Date
JP2019063984A true JP2019063984A (ja) 2019-04-25
JP2019063984A5 JP2019063984A5 (ja) 2021-11-04

Family

ID=65895850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018182214A Pending JP2019063984A (ja) 2017-10-02 2018-09-27 情報処理装置、方法及びロボットシステム

Country Status (2)

Country Link
US (1) US11400598B2 (ja)
JP (1) JP2019063984A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110329710A (zh) * 2019-05-31 2019-10-15 牧今科技 具有机器人臂吸附控制机制的机器人系统及其操作方法
KR20210069745A (ko) * 2019-12-03 2021-06-14 한국전자기술연구원 물체 파지 장치 및 방법
JP2021111354A (ja) * 2020-01-10 2021-08-02 株式会社Mujin 画像分類に基づく物体認識または物体登録のための方法および計算システム
JP2021111353A (ja) * 2020-01-10 2021-08-02 株式会社Mujin 物体認識のために画像分類を行う方法およびシステム
JP2022503406A (ja) * 2019-12-12 2022-01-12 株式会社Mujin カメラによって生成される画像情報に基づいて、動作計画を実行する方法および計算システム
US11538238B2 (en) 2020-01-10 2022-12-27 Mujin, Inc. Method and system for performing image classification for object recognition
WO2023084884A1 (ja) * 2021-11-15 2023-05-19 パナソニックIpマネジメント株式会社 把持装置、衣類処理装置、及び衣類処理方法
JP7555081B2 (ja) 2018-10-30 2024-09-24 株式会社Mujin 自動物体検出機構を備えたロボットシステム、および、その動作方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9393686B1 (en) * 2013-03-15 2016-07-19 Industrial Perception, Inc. Moveable apparatuses having robotic manipulators and conveyors to facilitate object movement
JP7044047B2 (ja) * 2018-12-14 2022-03-30 トヨタ自動車株式会社 ロボット
JP7204513B2 (ja) * 2019-02-13 2023-01-16 株式会社東芝 制御装置及びプログラム
JP7059968B2 (ja) * 2019-03-01 2022-04-26 オムロン株式会社 制御装置および位置合わせ装置
US11767181B2 (en) * 2019-03-14 2023-09-26 Mujin, Inc. Robotic system with handling mechanism and method of operation thereof
IT201900006836A1 (it) * 2019-05-14 2020-11-14 Gilli Walter Metodo, sistema e prodotto informatico per prelevare in maniera automatica un oggetto da un gruppo di oggetti accatastati
CN110202583B (zh) * 2019-07-09 2020-12-22 华南理工大学 一种基于深度学习的仿人机械手控制系统及其控制方法
EP3834998A1 (de) * 2019-12-11 2021-06-16 Siemens Aktiengesellschaft Verfahren, computer-programm-produkt und robotersteuerung zum konfigurieren einer roboter-objekt-systemumgebung sowie roboter
EP4114622A1 (en) * 2020-03-06 2023-01-11 Embodied Intelligence Inc. Imaging process for detecting failure modes
CN115461199A (zh) * 2020-04-06 2022-12-09 西门子股份公司 用于自主机器人操作的面向任务的3d重构
US12062182B2 (en) 2020-06-04 2024-08-13 Mujin, Inc. Method and computing system for performing or facilitating physical edge detection
CN114096331A (zh) * 2020-06-04 2022-02-25 牧今科技 用于执行或促进物理边缘检测的方法和计算系统
CN113478478B (zh) * 2021-06-16 2022-08-12 北京控制工程研究所 一种面向不确定对象的感知执行交互自然柔顺类人操控方法
US12030191B2 (en) * 2021-10-28 2024-07-09 Ubkang (Qingdao) Technology Co., Ltd. Vision-guided picking and placing method, mobile robot and computer-readable storage medium
CN114516045B (zh) * 2021-11-25 2023-01-20 苏州永固智能科技有限公司 一种基于物联网的无人库房机械臂的控制方法和系统
CN115599092B (zh) * 2022-09-07 2024-09-24 格力电器(武汉)有限公司 一种工件搬运控制方法、装置、设备及存储介质
CN116184892B (zh) * 2023-01-19 2024-02-06 盐城工学院 一种机器人取物的ai识别控制方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010012567A (ja) * 2008-07-04 2010-01-21 Fanuc Ltd 物品取り出し装置
JP2010247959A (ja) * 2009-04-16 2010-11-04 Ihi Corp 箱状ワーク認識装置および方法
WO2012066819A1 (ja) * 2010-11-17 2012-05-24 三菱電機株式会社 ワーク取り出し装置
JP2013217893A (ja) * 2012-03-13 2013-10-24 Canon Inc モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法
JP2015089589A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP2016203293A (ja) * 2015-04-21 2016-12-08 株式会社豊田自動織機 ピッキング装置およびピッキング方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993015376A1 (en) * 1992-01-30 1993-08-05 Fujitsu Limited System for recognizing and tracking target mark, and method therefor
JP3300682B2 (ja) 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
US8774504B1 (en) * 2011-10-26 2014-07-08 Hrl Laboratories, Llc System for three-dimensional object recognition and foreground extraction
US9393686B1 (en) * 2013-03-15 2016-07-19 Industrial Perception, Inc. Moveable apparatuses having robotic manipulators and conveyors to facilitate object movement
US9280827B2 (en) * 2013-07-03 2016-03-08 Mitsubishi Electric Research Laboratories, Inc. Method for determining object poses using weighted features
JP6740033B2 (ja) * 2016-06-28 2020-08-12 キヤノン株式会社 情報処理装置、計測システム、情報処理方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010012567A (ja) * 2008-07-04 2010-01-21 Fanuc Ltd 物品取り出し装置
JP2010247959A (ja) * 2009-04-16 2010-11-04 Ihi Corp 箱状ワーク認識装置および方法
WO2012066819A1 (ja) * 2010-11-17 2012-05-24 三菱電機株式会社 ワーク取り出し装置
JP2013217893A (ja) * 2012-03-13 2013-10-24 Canon Inc モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法
JP2015089589A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP2016203293A (ja) * 2015-04-21 2016-12-08 株式会社豊田自動織機 ピッキング装置およびピッキング方法

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7555081B2 (ja) 2018-10-30 2024-09-24 株式会社Mujin 自動物体検出機構を備えたロボットシステム、および、その動作方法
US11787047B2 (en) 2019-05-31 2023-10-17 Mujin, Inc. Robotic system with a robot arm suction control mechanism and method of operation thereof
US10576630B1 (en) 2019-05-31 2020-03-03 Mujin, Inc. Robotic system with a robot arm suction control mechanism and method of operation thereof
JP2020196113A (ja) * 2019-05-31 2020-12-10 株式会社Mujin ロボットシステムおよびその動作方法並びに非一時的なコンピュータ可読媒体
JP2020196120A (ja) * 2019-05-31 2020-12-10 株式会社Mujin ロボットアーム吸引制御機構を有するロボットシステムおよびその動作方法
JP7430319B2 (ja) 2019-05-31 2024-02-13 株式会社Mujin ロボットアーム吸引制御機構を有するロボットシステムおよびその動作方法
CN110329710A (zh) * 2019-05-31 2019-10-15 牧今科技 具有机器人臂吸附控制机制的机器人系统及其操作方法
KR20210069745A (ko) * 2019-12-03 2021-06-14 한국전자기술연구원 물체 파지 장치 및 방법
KR102317041B1 (ko) * 2019-12-03 2021-10-26 한국전자기술연구원 물체 파지 장치 및 방법
JP2022503406A (ja) * 2019-12-12 2022-01-12 株式会社Mujin カメラによって生成される画像情報に基づいて、動作計画を実行する方法および計算システム
US11717971B2 (en) 2019-12-12 2023-08-08 Mujin, Inc. Method and computing system for performing motion planning based on image information generated by a camera
JP7023450B2 (ja) 2019-12-12 2022-02-22 株式会社Mujin カメラによって生成される画像情報に基づいて、動作計画を実行する方法および計算システム
US11538238B2 (en) 2020-01-10 2022-12-27 Mujin, Inc. Method and system for performing image classification for object recognition
JP2021111353A (ja) * 2020-01-10 2021-08-02 株式会社Mujin 物体認識のために画像分類を行う方法およびシステム
US12080006B2 (en) 2020-01-10 2024-09-03 Mujin, Inc. Method and system for performing image classification for object recognition
JP2021111354A (ja) * 2020-01-10 2021-08-02 株式会社Mujin 画像分類に基づく物体認識または物体登録のための方法および計算システム
WO2023084884A1 (ja) * 2021-11-15 2023-05-19 パナソニックIpマネジメント株式会社 把持装置、衣類処理装置、及び衣類処理方法

Also Published As

Publication number Publication date
US20190099891A1 (en) 2019-04-04
US11400598B2 (en) 2022-08-02

Similar Documents

Publication Publication Date Title
JP2019063984A (ja) 情報処理装置、方法及びロボットシステム
CN109483573B (zh) 机器学习装置、机器人系统以及机器学习方法
US10839261B2 (en) Information processing apparatus, information processing method, and storage medium
JP5787642B2 (ja) 対象物保持装置、対象物保持装置の制御方法、およびプログラム
JP4004899B2 (ja) 物品の位置姿勢検出装置及び物品取出し装置
CN112276936B (zh) 三维数据生成装置以及机器人控制系统
US20170151672A1 (en) Workpiece position/posture calculation system and handling system
JP7377627B2 (ja) 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム
JP2016099257A (ja) 情報処理装置及び情報処理方法
JP2019188580A (ja) 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体
JP6677522B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2016196077A (ja) 情報処理装置、情報処理方法、およびプログラム
CN111483750A (zh) 机器人系统的控制方法以及控制装置
JP6054831B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2018136896A (ja) 情報処理装置、システム、情報処理方法、および物品の製造方法
JP7486986B2 (ja) 制御装置及びプログラム
JP7178803B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2010122777A (ja) ワーク識別方法およびワーク識別装置
JP7264247B2 (ja) 情報処理装置及び情報処理方法
JP2022160363A (ja) ロボットシステム、制御方法、画像処理装置、画像処理方法、物品の製造方法、プログラム、及び記録媒体
JP6666764B2 (ja) ワーク認識方法及びランダムピッキング方法
CN111275758A (zh) 混合型3d视觉定位方法、装置、计算机设备及存储介质
JP5476943B2 (ja) 姿勢認識方法およびこの方法を用いた3次元視覚センサ
JP2020021212A (ja) 情報処理装置、情報処理方法及びプログラム
JP2018146347A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221024

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230221