Nothing Special   »   [go: up one dir, main page]

JP2014240110A - ビンピッキング性能評価装置及び方法 - Google Patents

ビンピッキング性能評価装置及び方法 Download PDF

Info

Publication number
JP2014240110A
JP2014240110A JP2013123833A JP2013123833A JP2014240110A JP 2014240110 A JP2014240110 A JP 2014240110A JP 2013123833 A JP2013123833 A JP 2013123833A JP 2013123833 A JP2013123833 A JP 2013123833A JP 2014240110 A JP2014240110 A JP 2014240110A
Authority
JP
Japan
Prior art keywords
workpiece
rate
robot hand
bin picking
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013123833A
Other languages
English (en)
Other versions
JP2014240110A5 (ja
JP6016716B2 (ja
Inventor
幸康 堂前
Yukiyasu Domae
幸康 堂前
関 真規人
Makito Seki
真規人 関
清高 渡邊
Kiyotaka Watanabe
清高 渡邊
奥田 晴久
Haruhisa Okuda
晴久 奥田
隆史 平位
Takashi Hirai
隆史 平位
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013123833A priority Critical patent/JP6016716B2/ja
Publication of JP2014240110A publication Critical patent/JP2014240110A/ja
Publication of JP2014240110A5 publication Critical patent/JP2014240110A5/ja
Application granted granted Critical
Publication of JP6016716B2 publication Critical patent/JP6016716B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】膨大な計算時間がかかることなく、ビンピッキング装置の性能を模擬的に評価する。【解決手段】記憶装置11は、ワークの形状を表すワーク形状モデルWと、ロボットハンドの形状を表すロボットハンド形状モデルHと、1回の試行でワークの取り出しに成功するときの単位サイクルタイムT1とを格納する。演算装置12は、ワーク形状モデルWに基づいて、ワークを複数の方向から模擬的に撮影して複数のワーク画像を生成する画像生成器21と、複数のワーク画像及びロボットハンド形状モデルHに基づいて、ワークを取り出す成功率を評価する成功率評価器22と、成功率及び単位サイクルタイムT1に基づいて、ワークを取り出す推定サイクルタイムTを計算する推定サイクルタイム計算器23とを備える。【選択図】図1

Description

本発明は、視覚センサ及びロボットハンドを用いて、乱雑に積まれた物体(ワーク)を取り出す作業(バラ積み取り出しやビンピッキングと呼ばれる)の性能評価を、事前のシミュレーションにて行うビンピッキング性能評価装置及び方法に関する。
視覚センサ及びロボットハンドを用いて、乱雑に積まれた物体(ワーク)を取り出すビンピッキング装置が知られている(例えば特許文献1)。ビンピッキング装置の性能を評価するために、その動作を模擬的に実行するビンピッキング性能評価装置が知られている(例えば特許文献2)。
従来のビンピッキング性能評価装置は、仮想作業環境上において、実際の作業を行うのと同等の視覚センサ、ロボットハンド、及びワークを配置し、さらに、ワークを乱雑に積んだ状態を作成する。そして、その仮想作業環境上で実際の作業を模擬的に実行し、作業時間を推定する。
国際公開第WO2012/066819号 特許第4153528号公報
堂前、「一般物体把持のためのハンドモデル表現と距離画像へのフィッティング」、日本ロボット学会学術講演会予稿集、ROMBUNNO.2O3-2、2012
従来のビンピッキング性能評価装置では、実際の工程に基づき3次元の仮想作業環境上においてワークの取り出し作業を模擬的に実行するので、膨大な計算時間がかかるが、正確なシミュレーション結果を得ることができる。シミュレーションの正確さは、ロボット動作のオフライン教示など、実際のシステム構築の際の細かな課題解決に有効である。しかし、膨大な計算時間がかかるので、ビンピッキング装置を導入する顧客が技術セールスマンと打ち合わせする際に、ビンピッキング装置がどの程度の性能を有するのかを見積るような場合において、その場で見積り結果を出すことができない。
また、従来のビンピッキング性能評価装置は、システムインテグレータのような専門家でなければ扱うのが難しいという課題がある。ビンピッキング装置の性能を評価するために、技術セールスマンが商談時において簡易に実行可能なシミュレーション技術は未だ開発されていない。
本発明の目的は、以上の課題を解決し、膨大な計算時間がかかることなく、ビンピッキング装置の性能を模擬的に評価することができるビンピッキング性能評価装置及び方法を提供することにある。
本発明の態様に係るビンピッキング性能評価装置によれば、
視覚センサ及びロボットハンドを備えたビンピッキング装置がワークを取り出すサイクルタイムを模擬的に評価するビンピッキング性能評価装置において、
上記ビンピッキング性能評価装置は記憶手段及び演算手段を備え、
上記記憶手段は、
上記ワークの形状を表すワーク形状モデルと、
上記ロボットハンドの形状を表すロボットハンド形状モデルと、
1回の試行で上記ワークの取り出しに成功するときの単位サイクルタイムとを格納し、
上記演算手段は、
上記ワーク形状モデルに基づいて、上記ワークを複数の方向から模擬的に撮影して複数のワーク画像を生成する画像生成手段と、
上記複数のワーク画像及び上記ロボットハンド形状モデルに基づいて、上記ワークを取り出す成功率を評価する成功率評価手段と、
上記成功率及び上記単位サイクルタイムに基づいて、上記ワークを取り出す推定サイクルタイムを計算する推定サイクルタイム計算手段とを備えたことを特徴とする。
本発明のビンピッキング性能評価装置によれば、膨大な計算時間がかかることなく、ビンピッキング装置の性能を模擬的に評価することができる。
本発明の実施の形態1に係るビンピッキング性能評価装置1の基本構成を示す機能ブロック図である。 図1の演算装置12によって実行されるビンピッキング性能評価処理を示すフローチャートである。 図2の認識率評価処理のステップS4を示すサブルーチンである。 図2の把持率評価処理のステップS5を示すサブルーチンである。 図2の単離率評価処理のステップS6を示すサブルーチンである。 (a)は例示的なロボットハンド形状モデルの側面図を示し、(b)は(a)のロボットハンド形状モデルの投影図を示す図である。 (a)は例示的なワーク画像33を示し、(b)は(a)のワーク41の凹部42を示し、(c)は(a)のワーク41の内周43を示す図である。 (a)はワークW1を単離可能な配置を示し、(b)はワークW1を単離できない配置を示す図である。 本発明の実施の形態2に係るビンピッキング性能評価装置1Aの基本構成を示す機能ブロック図である。
以下、図面を参照して、本発明の実施の形態について説明する。各図面にわたって、同様の構成要素は、同じ符号により示す。
実施の形態1.
図1は、本発明の実施の形態1に係るビンピッキング性能評価装置の基本構成を示す機能ブロック図である。ビンピッキング性能評価装置1は、視覚センサ及びロボットハンドを備えたビンピッキング装置がワークを取り出すサイクルタイムを模擬的に評価する。ビンピッキング性能評価装置1は、記憶装置11及び演算装置12を備える。
記憶装置11には、ワーク形状モデルW、ロボットハンド形状モデルH、単位サイクルタイムT1が格納されている。ワーク形状モデルWは、ロボットが把持する対象物であるワークの形状を表す。ワーク形状モデルWは、顧客からCADデータとして受け取ってもよく、ワークの大まかな形状及び実寸法を取得し、その場で立方体及び球のようなプリミティブな形状を組み合わせて作成してもよく、又は、予め用意している多数の形状データからワークに似ているものを対話的に選択してもよく、視覚センサなどによりその場でワークの形状を取り込んで作成してもよい。ロボットハンド形状モデルHは、ワークを把持するロボットハンドの形状を表す。ロボットハンドは、例えば、ワークを挟んで持つタイプ、ワークに吸着するタイプ、あるいは、ワークの穴に2つ以上の指を挿し込み広げて持つタイプなどを含む(特許文献1及び非特許文献1を参照)。ロボットハンド形状モデルHもまた、顧客からCADデータとして受け取ってもよく、ワークの大まかな形状及び実寸法を取得し、その場で立方体や球のようなプリミティブな形状を組み合わせて作成してもよく、予め用意している多数の形状データからワークに似ているものを対話的に選択してもよく、視覚センサなどによりその場でワークの形状を取り込んで作成してもよい。ワーク形状モデルW及びロボットハンド形状モデルHを取得するために、ビンピッキング性能評価装置1には、表示装置、入力装置、及びカメラが接続されてもよい。単位サイクルタイムT1は、1回の試行でワークの取り出しに成功するときの時間を表す。
演算装置12は、画像生成器21、成功率評価器22、及び推定サイクルタイム計算器23を備える。画像生成器21は、ワーク形状モデルWに基づいて、ワークを複数の方向から模擬的に撮影して複数のワーク画像を生成する。成功率評価器22は、認識率評価器24、把持率評価器25、単離率評価器26、及び成功率計算器27を備え、複数のワーク画像及びロボットハンド形状モデルHに基づいて、ワークを取り出す成功率を評価する。認識率評価器24は、複数のワーク画像に基づいて、異なる姿勢のワークを区別する認識率を評価する。把持率評価器25は、複数のワーク画像及びロボットハンド形状モデルHに基づいて、ロボットハンドがワークを取り出す把持率を評価する。単離率評価器26は、複数のワーク画像に基づいて、ワークを取り出すときに他のワークと絡ませることなく1つのワークだけ取り出す単離率を評価する。認識率、把持率、及び単離率は、実際にビンピッキングを行うときにワークのタイプに応じて大きく変化するものであり、これらを推定することによりビンピッキングの成功率を評価することができる。成功率計算器27は、認識率、把持率、及び単離率に基づいて、後述するようにビンピッキングの成功率を計算する。推定サイクルタイム計算器23は、成功率及び単位サイクルタイムT1に基づいて、ワークを取り出す推定サイクルタイムTを計算する。計算された推定サイクルタイムTは、例えば、演算装置12に接続された表示装置に表示されてもよく、又は、演算装置に接続されたプリンタにより印字されてもよい。
この推定サイクルタイムTに応じて、技術セールスマンは、顧客に向けて、例えば「このワークですと、1台のロボットでは要求サイクルタイムに達しませんが、ロボットの台数を増やすことで達成できます。その場合、システムの金額や床面積がこうなります。いかがでしょうか」というような話ができるようになる。
図2は、図1の演算装置12によって実行されるビンピッキング性能評価処理を示すフローチャートである。
図2のステップS1〜S3は画像生成器21によって実行される。ステップS1において、画像生成器21は、記憶装置11からワーク形状モデルWを取得する。ステップS2において、画像生成器21は、ステップS3においてワークの画像を生成する際に用いる、互いに異なるN個の視点を決定する。視点を決めるのに必要なワーキングディスタンス及びカメラパラメタは、実際にビンピッキング装置を構築するときに使う視覚センサの仕様に基づいて設定する。ステップS3において、画像生成器21は、ステップS2で決定された各視点からワークを模擬的に撮影して、N個のワーク画像を生成する。ワーク画像は、視覚センサがカメラであればカメラ画像であり、視覚センサが3次元センサであれば距離画像(視覚センサからワークまでの距離を画素の明暗で表した画像)である。
次いでステップS4〜S6において、N個のワーク画像から、画像処理により認識率、把持率、及び単離率を計算する。
図3は、図2の認識率評価処理のステップS4を示すサブルーチンである。ステップS4は認識率評価器24によって実行され、認識率評価器24は、複数のワーク画像間の相関値を計算することにより、認識率を評価する。ステップS11において、認識率評価器24は、変数Rを0に初期化する。ステップS12において、認識率評価器24は、2つのワーク画像を選択し、それらの相関値を計算する。相関値は、正規化相互相関などのテンプレートマッチング、及び、Lucas-Kanade Tracker又はSIFT(Scale-Invariant Feature Transform)のように画像から抽出した特徴点をもとに画像どうしを照合する方法などを含む、一般的な画像処理方法を用いて計算することができる。この相関値が高ければ、相関値を計算したワーク画像どうしの区別がつかないので、実際のビンピッキングにおいてワークの位置及び姿勢の認識ミスが発生する可能性がある。そこで、0〜1の範囲の相関値に対して例えばΓ=0.9をしきい値として用い、それ以上の相関値をとるワーク画像は互いに区別できないと判断する一方、それ未満の相関値をとるワーク画像は互いに区別でき、ワークの位置及び姿勢を認識できると判断する。ステップS13において、認識率評価器24は、相関値がしきい値未満であるか否かを判断し、YESのときはステップS14に進み、NOのときはステップS15に進む。ステップS14において、認識率評価器24は、変数Rを1インクリメントする。変数Rは、相関値がしきい値未満であるワーク画像のペアの個数を示す。ステップS15において、認識率評価器24は、すべてのワーク画像の組み合わせで相関値を計算したか否かを判断し、YESのときはステップS16に進み、NOのときはステップS12に戻る。ステップS16において、認識率評価器24は、次式を用いて認識率を計算する。
Figure 2014240110
図4は、図2の把持率評価処理のステップS5を示すサブルーチンである。ステップS5は把持率評価器25によって実行され、把持率評価器25は、各ワーク画像において、当該ワーク画像のワークを把持可能な把持位置を特定し、ロボットハンドがワークの他の位置に干渉することなくワークを把持位置において把持できるか否かを判断することにより、把持率を評価する。ステップS21において、把持率評価器25は、変数Gを0に初期化する。ステップS22において、把持率評価器25は、記憶装置11からロボットハンド形状モデルHを取得する。ステップS23において、把持率評価器25は、1つのワーク画像を選択する。
ステップS24において、把持率評価器25は、ワーク画像中のワークにおいてロボットハンドにより把持可能な把持位置を探す。このとき、ロボットハンドがワークを挟んで持つタイプである場合、把持位置は、ワークのつまみやすい突起部分及びエッジなどである。ロボットハンドがワークに吸着するタイプである場合、把持位置は、一定面積以上の面である。ロボットハンドがワークの穴に2つ以上の指を挿し込み広げて持つタイプである場合、把持位置は、ワークの表面に生じている穴である。把持位置は、ワーク画像に対してエッジ、面、円などを当てはめることで抽出することが可能である。把持位置を抽出するために、例えば、キャニー演算子又はソーベル演算子などを利用したエッジ検出を行う方法、ハフ変換による円抽出を行う方法、エッジで囲まれた領域をラベリングして面を抽出する方法、輝度のエッジ勾配方向又は強度を利用してテクスチャ部分を突起部として検出する方法、などの基本的な画像処理方法を使用可能である。
ステップS25において、把持率評価器25は、ワーク画像中のワークがロボットハンドにより把持可能であるか否かを判断する。このとき、把持率評価器25は、ワーク画像中のワークにロボットハンド形状モデルHを当てはめ、ワークを把持できるようなロボットハンドの姿勢が存在するかを判断する。本明細書では、説明の簡単化のために、ワーク画像を生成したときに視覚センサからワークを見たときと同じ方向から、ロボットハンドがワークに接近してワークを把持すると仮定する。図6(a)は例示的なロボットハンド形状モデルの側面図を示し、図6(b)は図6(a)のロボットハンド形状モデルの投影図を示す図である。図6(a)のロボットハンド31が−Z方向に位置するワークに向かって接近する場合には、ロボットハンド31の指の先端32とワークとの接触のみを考慮すればよい。ワークは、ワーク画像33上に表示されている。図6(b)に示すように、ロボットハンド31の指の先端32(ワークに接触する部分)は、ワーク画像33に投影される。ワーク画像が距離画像である場合、把持率評価器25は、ワーク画像33上においてロボットハンド31の指の先端32を動かし、ロボットハンドがワークの他の位置に干渉することなくワークを把持位置において把持できるか否かを判断する。ワーク画像がカメラ画像である場合、把持率評価器25は、ワーク画像が距離画像である場合と同様に判断することに加えて、ワークの輪郭内に重なる領域は全て干渉する可能性のある部分であると判断する。ワーク画像中のワークがロボットハンドにより把持可能であるか否かについて、例えば0〜1又は0〜100に正規化された評価値を計算し、0のときは把持できず、それ以外のときは把持できると判断してもよい。
ワーク画像中のワークがロボットハンドにより把持可能であるか否かについて、例えば、特許文献1又は非特許文献1に開示された方法を用いてもよい。ロボットハンド形状モデルは、例えば、以下のパラメータを含む。ロボットハンドがワークを挟んで持つタイプである場合、ロボットハンド形状モデルは、ロボットハンドがワークを把持する直前の指の開き幅、進入深さ、及び指の縦横の寸法により定義することができる。ロボットハンドがワークに吸着するタイプである場合、ロボットハンド形状モデルは、吸着する部分の半径により定義することができる。ロボットハンドがワークの穴に2つ以上の指を挿し込み広げて持つタイプである場合、ロボットハンド形状モデルは、指を差し込める穴の半径、穴周辺のワーク面の半径、及び進入深さにより定義することができる。ロボットハンドがワークに吸着するタイプである場合、ロボットハンド形状モデルと把持位置とのマッチングが高い部分を把持位置候補とする。把持位置の面積が小さかったり、把持位置の面内に穴が開いていたりして、モデルとの一致度が低い場合には、把持位置候補の照合スコアを低くする。こうしたマッチングは、3DモデルであればICP(Iterative Closest Point)などの点群どうしの照合により、2Dモデルであれば、テンプレートマッチングによって、又は、モデルをフィルタと考えての畳みこみ処理によるマッチングによって、実現することができる。また、ロボットハンドがワークを挟んで持つタイプである場合、ロボットハンドがワークの穴に2つ以上の指を挿し込み広げて持つタイプである場合、さらに、ロボットハンドと周辺環境との干渉も同時に考慮することができる。すなわち、例えば、ロボットハンドがワークを挟んで持つタイプである場合、進入深さと指の縦幅の寸法とで定義される領域に計測データが含まれていた場合、照合スコアを下げることで実現する。把持率評価器25は、ワークの複数の把持位置ごとに、当該ワークをロボットハンドが把持するときにマッチングスコアが最も高い姿勢を計算し、各把持位置の各姿勢を把持姿勢候補としてもよい。あるいは、把持率評価器25は、ワークの単一の把持位置に対して、マッチングスコアが所定のしきい値よりも高い複数の姿勢を計算し、それら複数の姿勢を把持姿勢候補としてもよい。把持率評価器25は、複数の把持姿勢候補から、最も掴みやすい把持姿勢候補を選択する。これは、マッチングスコアが最も高かったものを選んでもよいし、さらに追加の優先度を考慮してもよい。例えば、把持位置の平均高さ又は重心位置を利用して、ワークの最も高い位置にある把持位置において把持するときの把持位置姿勢を選択するなどしてもよい。
ステップS25において、YESのときはステップS26に進み、NOのときはステップS27に進む。
ステップS26において、把持率評価器25は、変数Gを1インクリメントする。変数Gは、把持可能なワークを含むワーク画像の個数である。ステップS27において、把持率評価器25は、すべてのワーク画像を評価したか否かを判断し、YESのときはステップS28に進み、NOのときはステップS23に戻る。ステップS28において、把持率評価器25は、次式を用いて把持率を計算する。
Figure 2014240110
図5は、図2の単離率評価処理のステップS6を示すサブルーチンである。ステップS6は単離率評価器26によって実行され、単離率評価器26は、各ワーク画像において、当該ワーク画像のワークにおける凹部の面積及び凹部の内周の曲率の少なくとも一方を計算することにより、単離率を評価する。ステップS31において、単離率評価器26は、変数Iを0に初期化する。ステップS32において、単離率評価器26は、1つのワーク画像を選択する。ステップS33において、単離率評価器26は、ワーク画像中のワークにおいて他のワークと絡まる部分を探す。ワーク画像中のワークにおいて他のワークと絡まる部分を探すために、ワークにおける凹部の面積及び凹部の内周の曲率を計算する。
図7(a)は例示的なワーク画像33を示し、図7(b)は図7(a)のワーク41の凹部42を示し、図7(c)は図7(a)のワーク41の内周43を示す図である。図7(a)のように、例えば「U」字形(「コ」の字形)のワーク41のビンピッキングを行う場合、ワーク41の凹部42に他のワークが挟まり、ワークを個別に取り出せなくなる可能性がある。単離率評価器26は、ワーク41の輪郭に含まれる領域(ワーク領域)を抽出し、ワーク領域からワーク41の凹部42を抽出する。視覚センサがカメラであっても3次元センサであっても、ワーク41以外の背景には何も写っていない状態を仮定してワーク画像33を生成するので、ワーク41が写っている部分をワーク領域として抽出することは容易である。ワーク41の凹部42は、図7(b)のようにワーク領域内に含まれる任意の2点P1,P2のペアについて、これら2点P1,P2を端点とする線分を生成し、この線分のうち、ワーク領域と重ならない区間の論理和をとることによって抽出される。計算時間の削減のために、ワーク領域上の全ての2点のペアについてではなく、ワーク41の輪郭部分のみから2点のペアを抽出しても同様に、ワーク41の凹部42を抽出できる。ワーク41の凹部42の面積が大きければ、ワーク41は他のワークと絡まる可能性が高くなる。さらに、図7(c)に示すように、凹部42の内周43(ワーク41のワーク領域と凹部42とが接触する部分)を曲線とみなし、この曲線の各部分の曲率をワーク41の重心Gから計算する。最大曲率が大きい場所がある場合、ワーク41が他のワークと絡まる可能性が高くなる。
ステップS34において、単離率評価器26は、ワーク画像中のワークが単離可能であるか否かを判断し、YESのときはステップS35に進み、NOのときはステップS36に進む。ワークにおける凹部の面積のしきい値及び凹部の内周の曲率のしきい値を予め設定し、これらのしきい値を超える面積及び曲率を有する凹部を有するワークは他のワークと絡まる可能性があると判断する。面積及び曲率のどちらかがしきい値以下の場合、当該ワークが他のワークと絡まる可能性は0と判断する。ステップS35において、単離率評価器26は、変数Iを1インクリメントする。変数Iは、単離可能なワークを含むワーク画像の個数である。ステップS36において、単離率評価器26は、すべてのワーク画像を評価したか否かを判断し、YESのときはステップS37に進み、NOのときはステップS32に戻る。ステップS37において、単離率評価器26は、次式を用いて単離率を計算する。
Figure 2014240110
単離率評価処理の変形例について説明する。図8(a)はワークW1を単離可能な配置を示し、図8(b)はワークW1を単離できない配置を示す図である。ワークの単離率をより正確に判断するために、重力を考慮した物理シミュレータ環境下で、2つの同じワーク形状モデルW1,W2を姿勢を変えながら接触させる。このとき、互いに接触したワークW1,W2をロボットハンドで持ち上げる方向を、図8(a)及び図8(b)の矢印のように予め決めておく。図8(a)のようにワークW1,W2が互いに接触している場合、矢印の方向にワークW1(又はワークW2)を動かしても、他方のワークは一緒に動くことはない。一方、図8(b)のようにワークW1,W2が互いに接触している場合、矢印の方向にワークW1(又はワークW2)を動かすと、他方のワークも追従する。このように、物理シミュレータ環境下で、2つの同じワークW1,W2を互いに接触させ、一方のワークを動かしたときに他方のワークが移動するかどうかを評価する。この評価をワークW1,W2がそれぞれとりうる姿勢の個数だけ繰り返す。とりうる姿勢の個数がN個であり、一方のワークのみを動かすことができた試行がI個であるとすると、「I/N」を単離率として計算することができる。
図2では、ステップS4〜S6を並列に実行するように示したが、これらのステップS4〜S6を逐次に実行してもよい。
図2のステップS7において、成功率計算器27は、数1〜数3の認識率、把持率、及び単離率に基づいて、次式によりピッキング成功率pを計算する。
Figure 2014240110
ステップS8において、推定サイクルタイム計算器23は、ピッキング成功率p及び単位サイクルタイムT1に基づいて、推定サイクルタイムTを計算する。推定サイクルタイム計算器23は、まず、次式により、「k回目までの試行でビンピッキングに成功する確率p」を計算する。
Figure 2014240110
k回のビンピッキングを行う推定サイクルタイムTは、「k×T1」である。導入するビンピッキング装置の要件に応じて確率pを決定することにより試行の回数kが決まり、これに応じて、推定サイクルタイムTを得ることができる。
以上説明したように、認識率、把持率、及び単離率を画像処理のみで簡易に推定し、推定サイクルタイムTを計算することができる。
ビンピッキング装置に設けるロボットハンドのロボットハンド形状モデルHを予め準備しておけば、あとは、顧客からワーク形状モデルWを受け取るだけで、ビンピッキング性能評価装置1を用いて推定サイクルタイムTを得ることができる。
以上の形態により、簡易な画像処理を行うだけで、認識、把持、単離というビンピッキングが失敗する可能性の高い工程の成功率を推定し、それを考慮して推定サイクルタイムTを見積ることができる。
実施の形態2.
図9は、本発明の実施の形態2に係るビンピッキング性能評価装置1Aの基本構成を示す機能ブロック図である。ビンピッキング性能評価装置1Aにおいて、記憶装置11には、ワークの拡散反射率を表すワーク表面モデルSがさらに格納されている。画像生成器21は、ワーク形状モデル及びワーク表面モデルに基づいて複数のワーク画像を生成する。画像生成器21は、ワーク画像を生成するときに、ワーク表面モデルSを考慮することで、より正確なワーク画像を生成することができる。ワーク表面モデルSは、光がワークの表面に入射するときの拡散反射する割合を表し、残りの割合の光は鏡面反射をする。拡散反射率をもとにワークの表面で入射又は反射する光の状態をレンダリングすることで、カメラ画像のワーク画像を生成する場合にはワークの表面の質感及び鏡面反射状態を再現することができ、3次元センサのワーク画像を生成する場合には計測データのノイズ状態及び計測できる領域/できない領域を再現することができる。これにより、ビンピッキング装置の正確な性能評価を実現することができる。
ビンピッキング性能評価装置1Aは、ワーク表面モデルをユーザ入力に応じて対話的に決定するデータ編集装置13をさらに備える。ワーク表面モデルをユーザ入力に応じて対話的に決定するために、ビンピッキング性能評価装置1には、ディスプレイ2、キーボード3、及びポインティングデバイス4が接続される。ポインティングデバイス4は、例えば、マウス、又はディスプレイ2に一体化されたタッチパッドを含む。ワーク表面モデルSは目視で判断するのは困難な値であるので、表面状態(金属のように光沢があるか、光沢のないマットな状態か、その中間か)の違う複数のワーク表面モデルSをディスプレイ2上に表示し、いずれかのワーク表面モデルSをキーボード3又はポインティングデバイス4などを使って対話的に選択する。データ編集装置13は、顧客より受け取ったワーク形状モデルWを記憶装置11より抽出し、そのワークの拡散反射率を変えた複数のワーク候補画像を作成する。これらのワーク候補画像がディスプレイ2に表示される。これをユーザが対話的に選択し、選択されたワーク候補画像に対応するワーク表面モデルSを記憶装置11に格納する。このワーク表面モデルS及びワーク形状モデルWを使ってワーク画像を生成することで、ユーザ(顧客及び技術セールスマン)が直感的に正確なシミュレーションを行い、これにより、ビンピッキング装置の正確な性能評価及び見積りを実現することができる。
また、以上説明した実施の形態に係るビンピッキング性能評価装置に関連して説明したステップを含むビンピッキング性能評価方法を実行することで、ビンピッキング装置の性能を模擬的に評価することができる。また、図2〜図5に関連して説明したステップを含む機械可読プログラムを構成してもよい。
本発明のビンピッキング性能評価装置及び方法によれば、膨大な計算時間がかかることなく、ビンピッキング装置の性能を模擬的に評価することができる。
本発明のビンピッキング性能評価装置及び方法によれば、複数のワーク画像から、バラ積みされたワークの計測しやすさ、認識のしやすさ、把持のしやすさ、単離しやすさを推定する、ビンピッキング装置の性能評価を行うことができる。
本発明のビンピッキング性能評価装置及び方法によれば、3次元空間にワーク形状モデルを乱雑に積み重ねた状態を再現しなくとも、画像処理だけで、少ない計算時間で簡単にビンピッキングのサイクルタイムを推定することができる。
本発明のビンピッキング性能評価装置及び方法によれば、ワークの形状によってビンピッキングの性能が変化する、ワークの認識率、把持率、及び単離率の影響を、サイクルタイムの推定に加味し、ビンピッキング装置の正確な性能評価を簡易に実現することができる。
本発明のビンピッキング性能評価装置及び方法によれば、少ない計算時間で認識率を計算でき、少ない計算時間で認識率を計算でき、少ない計算時間で単離率を計算できる。
本発明のビンピッキング性能評価装置及び方法によれば、性能推定と見積りが正確になり、誰でも容易に正確な性能推定と見積りができる。
本発明のビンピッキング性能評価装置及び方法によれば、ビンピッキング装置の性能評価を行うことにより、3次元空間での複雑なシミュレーションをせずとも、2次元空間での簡易な計算により、ビンピッキング装置の推定サイクルタイムを推定することができるので、少ない計算時間で性能評価を行うことができる。また、専門的な調整を簡易に行うことも可能となる。例えば商談時に技術セールスマンが顧客からワーク形状モデルを受け取れば、その場でビンピッキング装置の大まかな性能見積りを出すことができるようになる。
本発明のビンピッキング性能評価装置及び方法によれば、膨大な計算時間がかかることなく、ビンピッキング装置の性能を模擬的に評価することができる。
1 ビンピッキング性能評価装置、2 ディスプレイ、3 キーボード、4 ポインティングデバイス、11 記憶装置、12 演算装置、13 データ編集装置、21 画像生成器、22 成功率評価器、23 推定サイクルタイム計算器、24 認識率評価器、25 把持率評価器、26 単離率評価器、27 成功率計算器、31 ロボットハンド形状モデル、32 ロボットハンドの指の先端、33 ワーク画像、41,W1,W2 ワーク、42 凹部、43 内周、W ワーク形状モデル、H ロボットハンド形状モデル、S ワーク表面モデル、T1 単位サイクルタイム、T 推定サイクルタイム、P1,P2 ワーク形状モデル上の点、G 重心。

Claims (14)

  1. 視覚センサ及びロボットハンドを備えたビンピッキング装置がワークを取り出すサイクルタイムを模擬的に評価するビンピッキング性能評価装置において、
    上記ビンピッキング性能評価装置は記憶手段及び演算手段を備え、
    上記記憶手段は、
    上記ワークの形状を表すワーク形状モデルと、
    上記ロボットハンドの形状を表すロボットハンド形状モデルと、
    1回の試行で上記ワークの取り出しに成功するときの単位サイクルタイムとを格納し、
    上記演算手段は、
    上記ワーク形状モデルに基づいて、上記ワークを複数の方向から模擬的に撮影して複数のワーク画像を生成する画像生成手段と、
    上記複数のワーク画像及び上記ロボットハンド形状モデルに基づいて、上記ワークを取り出す成功率を評価する成功率評価手段と、
    上記成功率及び上記単位サイクルタイムに基づいて、上記ワークを取り出す推定サイクルタイムを計算する推定サイクルタイム計算手段とを備えたことを特徴とするビンピッキング性能評価装置。
  2. 上記成功率評価手段は、
    上記複数のワーク画像に基づいて、異なる姿勢のワークを区別する認識率を評価する認識率評価手段と、
    上記複数のワーク画像及び上記ロボットハンド形状モデルに基づいて、上記ロボットハンドが上記ワークを取り出す把持率を評価する把持率評価手段と、
    上記複数のワーク画像に基づいて、上記ワークを取り出すときの単離率を評価する単離率評価手段とのうち、少なくとも1つを備えたことを特徴とする請求項1記載のビンピッキング性能評価装置。
  3. 上記認識率評価手段は、上記複数のワーク画像間の相関値を計算することにより、上記認識率を評価することを特徴とする請求項2記載のビンピッキング評価装置。
  4. 上記把持率評価手段は、上記各ワーク画像において、当該ワーク画像のワークを把持可能な把持位置を特定し、上記ロボットハンドが上記ワークの他の位置に干渉することなく上記ワークを上記把持位置において把持できるか否かを判断することにより、上記把持率を評価することを特徴とする請求項2又は3記載のビンピッキング評価装置。
  5. 上記単離率評価手段は、上記各ワーク画像において、当該ワーク画像のワークにおける凹部の面積及び上記凹部の内周の曲率の少なくとも一方を計算することにより、上記単離率を評価することを特徴とする請求項2から4のうちのいずれか1つに記載のビンピッキング評価装置。
  6. 上記記憶手段は、上記ワークの拡散反射率を表すワーク表面モデルをさらに格納し、
    上記画像生成手段は、上記ワーク形状モデル及び上記ワーク表面モデルに基づいて上記複数のワーク画像を生成することを特徴とした請求項1から5のうちのいずれか1つに記載のビンピッキング評価装置。
  7. 上記ワーク表面モデルをユーザ入力に応じて対話的に決定する手段を備えたことを特徴とした請求項6記載のビンピッキング評価装置。
  8. 視覚センサ及びロボットハンドを備えたビンピッキング装置がワークを取り出すサイクルタイムを模擬的に評価するビンピッキング性能評価方法において、
    上記ワークの形状を表すワーク形状モデルと、上記ロボットハンドの形状を表すロボットハンド形状モデルと、1回の試行で上記ワークの取り出しに成功するときの単位サイクルタイムとを記憶手段に格納するステップと、
    上記ワーク形状モデルに基づいて、上記ワークを複数の方向から模擬的に撮影して複数のワーク画像を生成する画像生成ステップと、
    上記複数のワーク画像及び上記ロボットハンド形状モデルに基づいて、上記ワークを取り出す成功率を評価する成功率評価ステップと、
    上記成功率及び上記単位サイクルタイムに基づいて、上記ワークを取り出す推定サイクルタイムを計算する推定サイクルタイム計算ステップとを含むことを特徴とするビンピッキング性能評価方法。
  9. 上記成功率評価ステップは、
    上記複数のワーク画像に基づいて、異なる姿勢のワークを区別する認識率を評価する認識率評価ステップと、
    上記複数のワーク画像及び上記ロボットハンド形状モデルに基づいて、上記ロボットハンドが上記ワークを取り出す把持率を評価する把持率評価ステップと、
    上記複数のワーク画像に基づいて、上記ワークを取り出すときの単離率を評価する単離率評価ステップとのうち、少なくとも1つを含むことを特徴とする請求項8記載のビンピッキング性能評価方法。
  10. 上記認識率評価ステップは、上記複数のワーク画像間の相関値を計算することにより、上記認識率を評価するステップを含むことを特徴とする請求項9記載のビンピッキング評価方法。
  11. 上記把持率評価ステップは、上記各ワーク画像において、当該ワーク画像のワークを把持可能な把持位置を特定し、上記ロボットハンドが上記ワークの他の位置に干渉することなく上記ワークを上記把持位置において把持できるか否かを判断することにより、上記把持率を評価するステップを含むことを特徴とする請求項9又は10記載のビンピッキング評価方法。
  12. 上記単離率評価ステップは、上記各ワーク画像において、当該ワーク画像のワークにおける凹部の面積及び上記凹部の内周の曲率の少なくとも一方を計算することにより、上記単離率を評価するステップを含むことを特徴とする請求項9から11のうちのいずれか1つに記載のビンピッキング評価方法。
  13. 上記ビンピッキング性能評価方法は、上記ワークの拡散反射率を表すワーク表面モデルを上記記憶手段にさらに格納するステップを含み、
    上記画像生成ステップは、上記ワーク形状モデル及び上記ワーク表面モデルに基づいて上記複数のワーク画像を生成するステップを含むことを特徴とした請求項8から12のうちのいずれか1つに記載のビンピッキング評価方法。
  14. 上記ワーク表面モデルをユーザ入力に応じて対話的に決定するステップを含むことを特徴とした請求項13記載のビンピッキング評価方法。
JP2013123833A 2013-06-12 2013-06-12 ビンピッキング性能評価装置及び方法 Expired - Fee Related JP6016716B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013123833A JP6016716B2 (ja) 2013-06-12 2013-06-12 ビンピッキング性能評価装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013123833A JP6016716B2 (ja) 2013-06-12 2013-06-12 ビンピッキング性能評価装置及び方法

Publications (3)

Publication Number Publication Date
JP2014240110A true JP2014240110A (ja) 2014-12-25
JP2014240110A5 JP2014240110A5 (ja) 2015-12-24
JP6016716B2 JP6016716B2 (ja) 2016-10-26

Family

ID=52139649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013123833A Expired - Fee Related JP6016716B2 (ja) 2013-06-12 2013-06-12 ビンピッキング性能評価装置及び方法

Country Status (1)

Country Link
JP (1) JP6016716B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017107432A (ja) * 2015-12-10 2017-06-15 学校法人立命館 機械システムの生産性能評価装置及び機械システムの生産性能評価方法
CN109227531A (zh) * 2017-07-11 2019-01-18 发那科株式会社 生成动作程序的编程装置以及程序生成方法
JP2019028775A (ja) * 2017-07-31 2019-02-21 株式会社キーエンス 画像処理装置
JP2019028770A (ja) * 2017-07-31 2019-02-21 株式会社キーエンス ロボットシミュレーション装置及びロボットシミュレーション方法
JP2019056966A (ja) * 2017-09-19 2019-04-11 株式会社東芝 情報処理装置、画像認識方法および画像認識プログラム
CN109791393A (zh) * 2016-11-23 2019-05-21 Abb瑞士股份有限公司 用于优化目标工作线的方法和装置
WO2019176478A1 (ja) * 2018-03-15 2019-09-19 オムロン株式会社 ロボットの動作制御装置
JP2020011340A (ja) * 2018-07-19 2020-01-23 オムロン株式会社 シミュレーション装置、シミュレーションプログラムおよびシミュレーション方法
WO2020188646A1 (ja) * 2019-03-15 2020-09-24 オムロン株式会社 パラメータ調整装置、パラメータ調整方法及びプログラム
JPWO2021038842A1 (ja) * 2019-08-30 2021-03-04
WO2021038844A1 (ja) * 2019-08-30 2021-03-04 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
JP2022109904A (ja) * 2017-11-17 2022-07-28 オカド・イノベーション・リミテッド 物体を位置特定し、各々の物体に適した把持点を計算するためのロボットシステムのための制御デバイスおよび方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127723A (ja) * 1991-10-30 1993-05-25 Nippondenso Co Ltd 山積み部品の高速ピツキング装置
JPH1021393A (ja) * 1996-06-28 1998-01-23 Mitsubishi Electric Corp 画像処理装置
JP2006026790A (ja) * 2004-07-15 2006-02-02 Fanuc Ltd 教示モデル生成装置
JP2007241857A (ja) * 2006-03-10 2007-09-20 Fanuc Ltd ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
JP2010089238A (ja) * 2008-10-10 2010-04-22 Honda Motor Co Ltd ワーク取り出し方法
JP2012125871A (ja) * 2010-12-15 2012-07-05 Mitsubishi Electric Corp ロボット制御設定支援装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127723A (ja) * 1991-10-30 1993-05-25 Nippondenso Co Ltd 山積み部品の高速ピツキング装置
JPH1021393A (ja) * 1996-06-28 1998-01-23 Mitsubishi Electric Corp 画像処理装置
JP2006026790A (ja) * 2004-07-15 2006-02-02 Fanuc Ltd 教示モデル生成装置
JP2007241857A (ja) * 2006-03-10 2007-09-20 Fanuc Ltd ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
JP2010089238A (ja) * 2008-10-10 2010-04-22 Honda Motor Co Ltd ワーク取り出し方法
JP2012125871A (ja) * 2010-12-15 2012-07-05 Mitsubishi Electric Corp ロボット制御設定支援装置

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017107432A (ja) * 2015-12-10 2017-06-15 学校法人立命館 機械システムの生産性能評価装置及び機械システムの生産性能評価方法
CN109791393A (zh) * 2016-11-23 2019-05-21 Abb瑞士股份有限公司 用于优化目标工作线的方法和装置
US10434650B2 (en) 2017-07-11 2019-10-08 Fanuc Corporation Programming device which generates operation program and method for generating program
CN109227531A (zh) * 2017-07-11 2019-01-18 发那科株式会社 生成动作程序的编程装置以及程序生成方法
JP2019018250A (ja) * 2017-07-11 2019-02-07 ファナック株式会社 動作プログラムを生成するプログラミング装置、及びプログラム生成方法
JP2019028775A (ja) * 2017-07-31 2019-02-21 株式会社キーエンス 画像処理装置
JP2019028770A (ja) * 2017-07-31 2019-02-21 株式会社キーエンス ロボットシミュレーション装置及びロボットシミュレーション方法
JP2019056966A (ja) * 2017-09-19 2019-04-11 株式会社東芝 情報処理装置、画像認識方法および画像認識プログラム
JP2022109904A (ja) * 2017-11-17 2022-07-28 オカド・イノベーション・リミテッド 物体を位置特定し、各々の物体に適した把持点を計算するためのロボットシステムのための制御デバイスおよび方法
JP7395631B2 (ja) 2017-11-17 2023-12-11 オカド・イノベーション・リミテッド ロボットシステムのための制御デバイス、システム、食料雑貨ショッピング包装システム、格納システムおよびロボットシステムを制御する方法
US11787631B2 (en) 2017-11-17 2023-10-17 Ocado Innovation Limited Control device and method for a robot system
US11478926B2 (en) 2018-03-15 2022-10-25 Omron Corporation Operation control device for robot, robot control system, operation control method, control device, processing device and recording medium
JP2019155561A (ja) * 2018-03-15 2019-09-19 オムロン株式会社 ロボットの動作制御装置
WO2019176478A1 (ja) * 2018-03-15 2019-09-19 オムロン株式会社 ロボットの動作制御装置
JP2020011340A (ja) * 2018-07-19 2020-01-23 オムロン株式会社 シミュレーション装置、シミュレーションプログラムおよびシミュレーション方法
WO2020188646A1 (ja) * 2019-03-15 2020-09-24 オムロン株式会社 パラメータ調整装置、パラメータ調整方法及びプログラム
US11945113B2 (en) 2019-03-15 2024-04-02 Omron Corporation Parameter adjustment device, parameter adjustment method, and program
JPWO2020188646A1 (ja) * 2019-03-15 2021-10-21 オムロン株式会社 パラメータ調整装置、パラメータ調整方法及びプログラム
JP7044204B2 (ja) 2019-03-15 2022-03-30 オムロン株式会社 パラメータ調整装置、パラメータ調整方法及びプログラム
WO2021038844A1 (ja) * 2019-08-30 2021-03-04 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
JP7264253B2 (ja) 2019-08-30 2023-04-25 日本電気株式会社 情報処理装置、制御方法及びプログラム
JP7276466B2 (ja) 2019-08-30 2023-05-18 日本電気株式会社 情報処理装置、制御方法及びプログラム
WO2021038842A1 (ja) * 2019-08-30 2021-03-04 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
JPWO2021038844A1 (ja) * 2019-08-30 2021-03-04
JPWO2021038842A1 (ja) * 2019-08-30 2021-03-04

Also Published As

Publication number Publication date
JP6016716B2 (ja) 2016-10-26

Similar Documents

Publication Publication Date Title
JP6016716B2 (ja) ビンピッキング性能評価装置及び方法
CN108369643B (zh) 用于3d手部骨架跟踪的方法和系统
US9836645B2 (en) Depth mapping with enhanced resolution
Wen et al. A robust method of detecting hand gestures using depth sensors
JP2021522591A (ja) 三次元実物体を実物体の二次元のスプーフと区別するための方法
JP5561384B2 (ja) 認識プログラム評価装置および認識プログラム評価方法
CN108292362A (zh) 用于光标控制的手势识别
WO2022042304A1 (zh) 识别场景轮廓的方法、装置、计算机可读介质及电子设备
CN102317977A (zh) 用于姿势识别的方法和系统
CN114952809A (zh) 工件识别和位姿检测方法、系统及机械臂的抓取控制方法
CN111428731A (zh) 基于机器视觉的多类目标识别定位方法、装置和设备
CN111178170B (zh) 一种手势识别方法和一种电子设备
JP2020197978A (ja) 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム
Blank et al. 6DoF pose-estimation pipeline for texture-less industrial components in bin picking applications
JP2016014954A (ja) 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。
CN104067295B (zh) 姿势识别方法、用于该方法的装置和计算机程序
CN109508707B (zh) 基于单目视觉的机器人稳定抓取物体的抓取点获取方法
Bohg et al. Grasping familiar objects using shape context
Cerlinca et al. Robust 3D hand detection for gestures recognition
JP2022046210A (ja) 学習装置、処理装置、学習方法、姿勢検出モデル、プログラム、及び記憶媒体
Lin et al. Robot vision to recognize both object and rotation for robot pick-and-place operation
Grieve et al. Fingernail image registration using active appearance models
Frank et al. Stereo-vision for autonomous industrial inspection robots
Yang et al. Early childhood education by hand gesture recognition using a smartphone based robot
CN110728222B (zh) 一种用于机械臂抓取系统中目标物体的位姿估计方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160927

R150 Certificate of patent or registration of utility model

Ref document number: 6016716

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees