Nothing Special   »   [go: up one dir, main page]

JP7377627B2 - 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム - Google Patents

物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム Download PDF

Info

Publication number
JP7377627B2
JP7377627B2 JP2019104518A JP2019104518A JP7377627B2 JP 7377627 B2 JP7377627 B2 JP 7377627B2 JP 2019104518 A JP2019104518 A JP 2019104518A JP 2019104518 A JP2019104518 A JP 2019104518A JP 7377627 B2 JP7377627 B2 JP 7377627B2
Authority
JP
Japan
Prior art keywords
workpiece
picking point
image
object detection
picking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019104518A
Other languages
English (en)
Other versions
JP2020197978A (ja
Inventor
秀法 善本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2019104518A priority Critical patent/JP7377627B2/ja
Publication of JP2020197978A publication Critical patent/JP2020197978A/ja
Application granted granted Critical
Publication of JP7377627B2 publication Critical patent/JP7377627B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体検出装置、物体把持システム、物体検出方法及び物体検出プログラムに関する。
工場等において、ロボットの把持部によりワークを把持し、これによりワークを移動することが行われているが、この場合、ワークを撮像した画像に基づいてワークの位置を適切に検出する必要がある。
このように画像上における物体の位置検出に関する技術としては、近年、機械学習による学習済みモデルである推論モデルを用いて、二次元画像から当該物体の位置を検出する手法が開示されている。
例えば、非特許文献1には、画像中の物体を単一のニューラルネットワークを使用して検出する手法であるSingle Shot Multibox Detector(SSD)が開示されている。
また、特許文献1には、フレーム間の差分画像に基づいて車両の輪郭を抽出する手法が開示されている。
特開2013-96092号公報
Liu, Wei, et al. "SSD: Single shot multibox detector." European Conference on Computer Vision. Springer International Publishing, 2016年10月, p.21-37
積み重なったワークをロボットの把持部により1つずつ把持する際には、ワークを撮像した二次元画像において、各ワークの外周や回転角度、ワークを掴むための位置であるピッキングポイント等をできるだけ正確に把握する必要がある。しかしながら、非特許文献1に記載の手法では、x軸とy軸に沿った矩形のバウンディングボックスで物体を囲むため、矩形状の物体の場合、物体の回転角度によってはバウンディングボックス中の余白が多くなり、また、物体の回転角度に応じてバウンディングボックスの大きさも変化しやすい。したがって、非特許文献1に記載の手法を利用した場合、ワークが大体どこにあるかまでは分かるが、ワークのより正確な外周を検出することや、ピッキングポイントを検出することは困難であった。また、図9に示すように、実際にワークWは重なっていない場合であっても、検出したバウンディングボックスBBには重なりがあることが多いため、ワークWの重なりを正確に検知することが困難であった。図9の場合、実際のワークWは重なり合っていないが、対応するバウンディングボックスBBが重なり合うため、ロボットの制御装置は両ワークWが重なり合っていると判断してしまう。
本発明は、上記現状に鑑みてなされたものであり、1つ1つの物体が存在する領域をより正確に検出することが可能な物体検出装置、物体把持システム、物体検出方法及び物体検出プログラムを提供することを目的とするものである。
上述した課題を解決し、目的を達成するために、本発明は、物体検出装置であって、検出対象の物体の画像に対して、少なくとも当該物体の位置及び回転角度がラベル情報として付されたデータセットにより機械学習された推論モデルを用いて、検出対象の物体の画像から当該物体の位置及び回転角度を出力する推定部を備えることを特徴とする。
また、本発明は、上記発明において、前記ラベル情報には、前記物体の種類が更に含まれ、前記推定部は、前記物体の種類を更に出力することを特徴とする。
また、本発明は、上記発明において、前記物体は、表面と、前記表面と外観が異なる裏面とを有し、前記ラベル情報には、前記物体の前記表面及び前記裏面のうちのいずれかの面が撮像されているかを示す表裏情報が更に含まれ、前記推定部は、前記物体の表裏情報を更に出力することを特徴とする。
また、本発明は、上記発明において、前記物体は、側面を有し、前記ラベル情報には、前記物体の前記側面が撮像されているかを示す側面情報が更に含まれ、前記推定部は、前記物体の側面情報を更に出力することを特徴とする。
また、本発明は、上記発明において、前記ラベル情報には、前記物体を掴むための位置であるピッキングポイントが更に含まれ、前記推定部は、前記物体のピッキングポイントを更に出力することを特徴とする。
また、本発明は、上記発明において、前記物体検出装置は、前記物体の深度画像から、前記推定部により出力された前記ピッキングポイントにおける前記物体の傾きと面の荒れ具合とを算出する算出部を更に備えることを特徴とする。
また、本発明は、上記発明において、前記推論モデルは、深層学習を適用した学習用プログラムにより機械学習されたものであることを特徴とする。
また、本発明は、上記発明において、前記推論モデルは、Single Shot Multibox Detectorを利用した学習用プログラムにより機械学習されたものであることを特徴とする。
また、本発明は、物体把持システムであって、前記物体検出装置と、前記物体としてのワークの画像を撮像する撮像部と、ワークを把持するための把持部と、前記推定部から出力されたワークの位置及び回転角度に基づいて、前記把持部によりワークを把持させるように前記把持部を制御する制御部と、を備えることを特徴とする。
また、本発明は、上記発明において、前記ラベル情報には、ワークを掴むための位置である複数のピッキングポイントが更に含まれ、前記推定部は、ワークのピッキングポイントを更に出力し、前記制御部は、前記ピッキングポイントに基づいて、前記把持部により把持させるワークの位置を決定することを特徴とする。
また、本発明は、上記発明において、前記推定部は、前記ピッキングポイントの信頼度を更に出力することを特徴とする。
また、本発明は、上記発明において、ワークが複数存在し、前記推定部は、各ワークのピッキングポイントを出力し、前記制御部は、前記複数のワークのうち、前記推定部により出力されたピッキングポイントの数が相対的に多いワークを優先して前記把持部により把持させることを特徴とする。
また、本発明は、物体検出方法であって、検出対象の物体の画像に対して、少なくとも当該物体の位置及び回転角度がラベル情報として付されたデータセットにより機械学習された推論モデルを用いて、検出対象の物体の画像から当該物体の位置及び回転角度を出力する推定ステップを含むことを特徴とする。
また、本発明は、物体検出プログラムであって、検出対象の物体の画像に対して、少なくとも当該物体の位置及び回転角度がラベル情報として付されたデータセットにより機械学習された推論モデルを用いて、検出対象の物体の画像から当該物体の位置及び回転角度を出力する推定処理をコンピュータに実行させることを特徴とする。
また、本発明は、物体検出装置であって、検出対象の物体の画像に対して、少なくとも当該物体の位置と当該物体を掴むための位置であるピッキングポイントとがラベル情報として付されたデータセットにより機械学習された推論モデルを用いて、検出対象の物体の画像から当該物体の位置及びピッキングポイントを出力する推定部を備えることを特徴とする。
本発明の物体検出装置、物体把持システム、物体検出方法及び物体検出プログラムによれば、1つ1つの物体が存在する領域をより正確に検出することができる。
実施形態1におけるワークの検出手法の概要を説明するための模式図であり、機械学習用のデータセットの生成段階におけるワークに対する矩形のバウンディングボックス及びピッキングポイントの設定方法を示す。 実施形態1におけるワークの検出手法の概要を説明するための別の模式図であり、学習済みモデルである推論モデルによって検出された矩形のバウンディングボックス(ワークの位置及び回転角度)及びピッキングポイントを示す。 実施形態1におけるバウンディングボックスの位置と回転角度を説明するための別の模式図である。 実施形態1に係る物体把持システムの全体構成を説明する図である。 実施形態1においてバラ積みされたワークの二次元画像を示す模式図である。 実施形態1においてバラ積みされたワークの二次元画像に基づいて推論モデルによって出力された矩形のバウンディングボックス(ワークの位置及び回転角度)及びピッキングポイントを示す模式図である。 実施形態1に係る物体検出装置の構成を説明するブロック図である。 実施形態1に係る物体把持システムで行われる物体検出処理及びピッキング処理の手順の一例を示すフローチャートである。 非特許文献1に記載の手法によって検出された矩形のバウンディングボックス(ワークの位置)を示す。
以下、本発明に係る物体検出装置、物体把持システム、物体検出方法及び物体検出プログラムの好適な実施形態を、図面を参照しながら説明する。本発明において、物体検出装置が検出する具体的な物体は、特に限定されないが、以下では、物体として、物体把持システムで把持されるワークを検出する場合について説明する。
<ワークの検出手法の概要>
まず、図1及び2を用いて、実施形態1におけるワークの検出手法の概要について説明する。本実施形態では、検出対象であるワークの二次元画像に対して、少なくとも当該ワークの位置及び回転角度がラベル情報(正解データ)として付されたデータセットにより機械学習された推論モデルを用いる。すなわち、図1に示すように、ワークWの外周に沿うように、バウンディングボックスBBの中心に対して適宜回転させた矩形のバウンディングボックスBBを設定し、このバウンディングボックスBBの位置及び回転角度を学習用プログラムに学習させる。このとき、回転角度の基準となる方向(0°方向)も同時に学習させる。そして、このように機械学習させた推論モデルを用いて、ワークWの二次元画像から当該ワークWの位置及び回転角度を出力する。すなわち、図2に示すように、ワークWの外周に沿うように、バウンディングボックスBBの中心に対して適宜回転した矩形のバウンディングボックスBBの位置及び回転角度が、当該ワークWの位置及び回転角度として、推論モデルによって推定されることとなる。したがって、ワークWの回転角度によらず、バウンディングボックスBB中の余白を小さくすることができる。すなわち、非特許文献1に記載の手法に比べて、ワークWが存在する領域にバウンディングボックスBBをより一致させることができるため、ワークWが存在する領域をより正確に検出することが可能となる。また、実際にはワークWが重なっていない場合において、検出したバウンディングボックスBBが重なり合ってしまう可能性を低減できることから、ワークWの重なりをより正確に検知することが可能となる。もちろん、二次元画像に写っているワークWの数も検出可能である。
なお、バウンディングボックスBBの位置、すなわち推定されるワークWの位置は、図3に示すように、バウンディングボックスBBが回転角度θで回転する前のx軸とy軸に沿った状態での左上の座標(x,y)及び右下の座標(x,y)で表される。
また、本実施形態では、学習用プログラムに、ワークWの種類(クラス)と、ワークWの表裏及び側面と、物体把持システムでワークWを掴むための位置であるピッキングポイントPPとを学習させる。そして、推論モデルにより、ワークWの二次元画像から、当該ワークWの種類(クラス)と、当該ワークWがどの程度その種類であるかを示すワーク全体の信頼度と、当該ワークWが表面、裏面又は側面のいずれが撮像されているを示す向き情報と、当該ワークWのピッキングポイントPPと、ピッキングポイントPPが二次元画像上にどの程度写っているかを示すピッキングポイントPPの信頼度とを更に出力する。
なお、向き情報は、ワークWの表面又は裏面のいずれかが撮像されているかを示す表裏情報と、ワークWの側面が撮像されているかを示す側面情報とを包含するものである。
<物体把持システムの全体構成>
次に、図4を用いて、本実施形態の物体把持システムの全体構成について説明する。図4に示すように、本実施形態の物体把持システム1は、ワークWを撮像する撮像部2と、撮像部2で取得されたワークWの画像に基づいてワークWの位置、回転角度等を検出する物体検出装置3と、物体検出装置3の検出結果に基づいてロボット5を制御する制御部としての制御装置4と、制御装置4の制御信号に基づいて動作し、ワークWを把持する把持部51を備えるロボット5と、を備えている。撮像部2は、物体検出装置3と通信可能に接続され、物体検出装置3は、制御装置4と通信可能に接続され、制御装置4は、ロボット5と通信可能に接続されている。本実施形態では、図4に示すように、一方のかご6a内にバラ積みされた複数の種類を含む複数のワークWを一つずつ把持部51で掴んで取り出し、他方のかご6b内に移し替える。
撮像部2は、2つのかご6a及び6bの上方に固定されており、かご6a及び6bを含む所定エリアの画像、ここでは動画像(映像)を取得する。これにより、移動する前後と移動中のワークWを同一画像内に収めることができる。また、撮像部2は、RGBのカラーの二次元画像を取得可能なカメラ(ビデオカメラ、図示せず)と、対象物までの距離情報を各画素が有する深度画像を取得可能なDepthカメラ(図示せず)とを備えており、ワークWの二次元画像及び深度画像をそれぞれ取得するとともに、取得した二次元画像及び深度画像を物体検出装置3に出力する。なお、本実施形態では、二次元画像として、RGBのカラー画像の代わりにグレースケール画像を使用してもよい。
物体検出装置3は、データセットの機械学習により作成された推論モデルを備え、撮像部2によって取得されたワークWの二次元画像に基づいて、ワークWの位置、回転角度等を検出するための装置である。物体検出装置3は、上述のように、推論モデルを用いて、図5に示すようなワークWの二次元画像に基づいて、図6に示すようにかご6a内のワークWの位置及び回転角度を出力する。また、推論モデルを用いて、ワークWの種類と、ワーク全体の信頼度と、ワークWの向き情報(表裏情報及び側面情報)と、ワークWのピッキングポイントPPの座標と、ピッキングポイントPPの信頼度とを更に出力する。
また、物体検出装置3は、撮像部2によって取得されたワークWの深度画像に基づいて、各ピッキングポイントPPにおけるワークWの傾き及び面の荒れ具合と、各ピッキングポイントPPまでの距離とを算出する。
制御装置4は、ロボット5の動作を制御する装置であり、ワークWの位置、回転角度等の物体検出装置3の検出結果に基づいて、ロボット5の動作を制御するための制御信号を生成し、ロボット5に出力する。制御装置4は、一般的なパーソナルコンピューター相当の機能を有する情報処理装置から構成されている。
ロボット5は、制御装置4の制御に基づいて動作するロボットであり、ワークWを把持するための把持部51と、把持部51が装着され、回転及び移動可能なアーム部52と、アーム部52が装着され、水平面内で回転可能な土台部53とを備えている。ロボット5は、制御装置4から出力された制御信号に従い、把持部51やアーム部52等を駆動し、把持部51をかご6a内にバラ積みされたワークWのうちの把持すべき一つのワークWまで移動させ、そのワークWを把持部51で把持してかご6aから取り出し、取り出したワークWをかご6b内に移動させ、そして、そのワークWを離してかご6b内に収容する。
把持部51は、ワークを吸着することにより把持する吸着パッド51aを備えている。吸着パッド51aにはゴムチューブ等のエアー吸引管(図示せず)が取り付けられており、エアー吸引管の基端部分にはエアー吸引部(図示せず)が取り付けられている。そして、エアー吸引部によってエアー吸引管を介して吸着パッド51aからエアーが吸引されることにより、吸着パッド51aはワークWを吸着する。本実施形態では、吸着パッド51a、エアー吸引管及びエアー吸引部を組み合わせることにより、ワークWを把持するための把持部51が構成されている。
ワークWは、ロボット5の把持部51によって把持可能なものであれば特に限定されず、その形状や材質等も特に限定されないが、本実施形態では、ワークWとして、袋状の容器に包装された複数種の菓子を扱う場合について説明する。各ワークWは、平面視矩形状であるが、その外周は、中身の菓子の厚みや、外からの圧力に応じて、変形し得るものである。また、各ワークWは、表面と裏面と側面とでそれぞれ異なる外観を有しており、ワークWのサイズは、菓子の種類によって異なっている。
<物体検出装置の構成>
次に、図7を用いて、物体検出装置3の構成について更に説明する。図7に示すように、物体検出装置3は、一般的なパーソナルコンピューター相当の機能を有する情報処理装置から構成され、制御部10及び記憶部20を備えている。
制御部10は、画像入力部11と、推定部12と、算出部13と、出力部14との機能を備えている。制御部10は、例えば、各種の処理を実現するためのソフトウェアプログラムと、該ソフトウェアプログラムを実行するCPU(Central Processing Unit)と、該CPUによって制御される各種ハードウェア等によって構成されている。制御部10の動作に必要なソフトウェアプログラムやデータは記憶部20に記憶される。
なお、制御部10の図7に示した各部は、制御部10のCPUで物体検出プログラムを実行させることによって実現される。物体検出プログラムは、物体検出装置3に予め導入されてもよいし、汎用OS上で動作可能なアプリケーションプログラムとして、コンピュータ読み取り可能な記録媒体に記録して、又は、ネットワークを介して、操作者に提供されてもよい。
記憶部20は、ハードディスク装置や不揮発性メモリ等の記憶装置から構成され、推論モデル21を記憶している。
画像入力部11は、撮像部2から二次元画像及び深度画像をそれぞれ取得する処理を行い、二次元画像を推定部12に、深度画像を算出部13に、それぞれ出力する。
推定部12は、記憶部20に記憶された推論モデル21を用いて、画像入力部11から出力されたワークの二次元画像に基づいて、ワークの位置と、ワークの回転角度と、ワークの種類と、ワーク全体の信頼度と、ワークの向き情報(表裏情報及び側面情報)と、ワークのピッキングポイントの座標と、ピッキングポイントの信頼度とを出力(推定)する。
なお、物体検出装置3は、撮像部2で撮影された画像を表示するモニタ(表示装置)を更に備えてもよく、推定部12による出力結果をモニタに表示可能なように構成されていてもよい。例えば、図6に示したように、モニタにおいて、ワークWの二次元画像上に、ワークWを囲むバウンディングボックスBBと、ピッキングポイントPPとがオーバーレイ表示されてもよい。
ここで、推論モデル21について説明する。推論モデル21は、ラベル情報(正解データ)が付されたデータセット(教師データ)の教師あり機械学習により作成される。より具体的には、推論モデル21は、ワークの二次元画像を入力データとし、そのワークに付与された位置や回転角度等の情報をラベルとして、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を利用した学習用プログラムにより深層学習(ディープラーニング)を行うことによって作成される。本実施形態では、畳み込みニューラルネットワークとして、Single Shot Multibox Detector(SSD)のネットワークに対して、ワークの回転角度を出力するためのネットワークと、ワークのピッキングポイントを出力するためのネットワークとをそれぞれ追加したニューラルネットワークを利用する。
教師あり機械学習により作成された推論モデル21は、学習済みパラメータが組み込まれた推論プログラム(学習済みモデル)として機能する。なお、学習済みパラメータは、データセットを用いた学習の結果、得られたパラメータ(係数)である。また。推論プログラムは、物体検出用プログラムであって、入力として与えられたワークの二次元画像に対して、学習の結果として取得された学習済みパラメータを適用し、当該画像に対する結果(具体的には、上述したようなワークの位置や回転角度等)を出力するための一連の演算手順を規定したプログラムである。
機械学習に用いるデータセットは、例えば、以下のようにして生成することができる。まず、各種のワークの表面、裏面及び側面それぞれの二次元画像を取得する。このとき、回転角度や形状等を適宜変更して様々な状態のワークの二次元画像を取得する。また、ワークの二次元画像は、一つのワークのみが撮像されたものでもよいし、二つ以上のワークが撮像されたものでもよい。二つ以上のワークを撮像する場合は、少なくとも二つのワークが重なり合っていてもよい。そして、取得した各二次元画像において、各ワークの外周に沿うように、バウンディングボックスの中心に対して適宜回転させた矩形のバウンディングボックスを設定することによって、バウンディングボックスの左上及び右下の座標をワークWの位置に指定し、また、バウンディングボックスBBの回転角度をワークの回転角度に指定する。また、各ワークについて、種類と、表面、裏面又は側面のいずれかを示す向き情報と、ピッキングポイントの座標とを設定する。ピッキングポイントについては、把持部51による把持に適した場所が選択され、基本的には、各ワークの中心部と、各ワークの四隅近傍との計5箇所を設定するが、ワークが重なり合っている場合やワークが大きく変形している場合、ワークの側面が撮像されている場合等は、ピッキングポイントの位置及び数は、適宜変更してもよい。以上の結果、各二次元画像に対して、各ワークの位置、回転角度、種類、向き情報(表裏情報及び側面情報)及びピッキングポイントがラベル情報として付されたデータが生成される。これにより、各ワークの画像と、そのワークの位置、回転角度、種類、向き情報及びピッキングポイントとが対応付けられることとなる。最後に、データオーギュメンテーションにより見かけ上のデータ数を増やすことによってデータセットを生成する。より具体的には、生成した上記データから各ワークの部分のみを切り出した部分画像と、ワークを把持する環境のみを別途撮像した背景画像とを乱数を利用して様々な状態で合成し、データセットを生成する。
なお、作成された推論モデル21は、その後、追加学習されてもよい。すなわち、推論モデル21に異なるデータセットを適用し、更なる学習を行うことによって、新たに学習済みパラメータを生成し、この新たな学習済みパラメータが組み込まれた推論プログラムを推論モデル21として利用してもよい。
また、機械学習は、物体検出装置3が備えるプロセッサにより実行してもよいが、専用のサーバやクラウド上のサーバといった演算処理能力に優れたコンピュータにより実行することが好ましい。
算出部13は、撮像部2によって取得されたワークの深度画像に基づいて、推論モデルによって出力された各ピッキングポイントにおけるワークの傾き及び面の荒れ具合を算出し、出力する。
ピッキングポイントにおけるワークの傾きは、ピッキングポイントにおけるワークの面の法線の向きであり、ピッキングポイントに該当する画素の距離情報と、その周辺の画素の距離情報とから算出される。
ピッキングポイントにおけるワークの面の荒れ具合は、ピッキングポイントを含む所定領域内においてワークの表面がどの程度平坦であるかを示すパラメータである。より具体的には、ピッキングポイントと、その付近の3D点群データを最小二乗法で面に近似したときの外れ値の割合で表される。外れ値の計算にはロバスト推定を用いる。
また、算出部13は、ワークの深度画像に含まれる各画素の距離情報に基づいて、各ピッキングポイントまでの距離(各ピッキングポイントの深度)を出力する。
出力部14は、推定部12から出力されたワークの位置、回転角度等の情報と、算出部13から出力された各ピッキングポイントにおけるワークの傾き等の情報とをそれぞれ取得する処理を行い、取得した情報を制御装置4に出力する。
<ワークの把持及び移動方法>
次に、物体把持システム1におけるワークの把持及び移動方法について説明する。まず、図6に示したように、物体検出装置3によって検出されたかご6a内の1以上のワークWの中から、制御装置4が、ロボット5の把持部51で把持する一つのワークWを決定する。より具体的には、制御装置4は、推定部12によって出力された、ワーク全体の信頼度と、ワークWのピッキングポイントPP及びその信頼度と、算出部13によって出力された、各ピッキングポイントPPにおけるワークWの傾き及び面の荒れ具合と、各ピッキングポイントまでの距離とに基づいて、物体検出装置3によって検出された1以上のワークWの中から、把持対象となる一つのワークWを決定する。把持対象となるワークWとしては、ワーク全体の信頼度が高く、ピッキングポイントPPの数が多く、ピッキングポイントPPの信頼度が高く、各ピッキングポイントPPにおけるワークWの傾き及び面の荒れ具合が小さく、各ピッキングポイントまでの距離が近いものが好ましい。特に、より上方に位置するワークWの方が把持しやすいことから、制御装置4は、検出されたピッキングポイントPPの数が多いワークWを優先的に把持対象とする。同様の観点から、制御装置4は、検出されたピッキングポイントPPまでの距離の平均が小さいワークWを優先的に把持対象としてもよい。また、把持部51の具体的な構成や、ピッキングポイントPPの場所や信頼度、その他の情報から、各ピッキングポイントPPに優先順位をあらかじめ設定してもよく、その場合、制御装置4が、優先順位が高いピッキングポイントPPが検出されたワークWを優先的に把持対象としてもよい。
次いで、制御装置4は、把持対象となったワークWの1以上のピッキングポイントPPに基づいて、把持部51により把持させる位置に決定する。より具体的には、信頼度が低いピッキングポイントPPは隠れている場合が多いため、制御装置4は、信頼度が所定の値以下のピッキングポイントPPを除くピッキングポイントPPの中から、最も信頼度が高いピッキングポイントPPを把持部51により把持させる位置に決定する。
次いで、制御装置4は、決定した位置(最も信頼度が高いピッキングポイントPP)上に吸着パッド51aが到達するようにロボット5を移動させ、その後、エアー吸引部を制御し、エアー吸引部によってエアー吸引管を介して吸着パッド51aからエアーを吸引する。この結果、ワークWが吸着パッド51aに吸着される。すなわち、ワークWは、吸着パッド51aにより把持される。
そして、制御装置4は、ロボット5を移動させ、かご6aから取り出されたワークWがかご6b内に到達すると、エアー吸引部による吸着パッド51aからのエアーの吸引を停止する。この結果、吸着パッド51aにより把持されていたワークWが吸着パッド51aから離れ、かご6b内に収容される。ワークWをロボット5で移動する際、制御装置4は、推定部12によって出力されたワークWの回転角度に基づいて、必要に応じてワークWを水平面内で回転させ、ワークWの向きを所定の方向に一致させる。これにより、かご6b内でワークWを整列させることができる。また、ワークWをロボット5で移動する際、制御装置4は、推定部12によって出力されたワークWの向き情報(表裏情報及び側面情報)に基づいて、当該ワークWが表面と裏面と側面とのいずれの面が上方に向いているかを判定し、表面が上方に向いている場合は、ワークWがそのままかご6b内に載置されるようにロボット5を制御する。他方、裏面が上方に向いている場合は、ワークWが上下反転するようにロボット5を制御し、側面が上方に向いている場合は、ワークWの表面が上方に向くようにロボット5を制御する。これにより、表面が上方を向いた状態でワークWをかご6b内に収容することができる。
なお、制御装置4による把持対象のワークW及びその把持すべき位置の決定方法は、上述の方法に特に限定されず、例えば、制御装置4は、物体全体の信頼度が所定値以上のワークWのうち、中心部のピッキングポイントPPの信頼度が最も高いワークWを把持対象とし、そのワークWの中心部のピッキングポイントPPを把持部51によって把持する位置に決定してもよい。
また、制御装置4は、推定部12によって出力されたワークWの位置及び回転角度に基づいて、把持部51によりワークWを把持させるように把持部51を制御してもよい。この場合、例えば、制御装置4は、把持対象となったワークWの位置及び回転角度に基づいて、ワークWが存在する領域を推定し、その領域内に把持部51により把持させる位置を設定してもよい。
<物体検出処理及びピッキング処理の手順>
次に、図8を用いて、物体把持システム1で行われる物体検出処理及びピッキング処理の手順について説明する。
図8に示すように、まず、画像入力部11に、撮像部2から複数のワークの二次元画像及び深度画像がそれぞれ入力される(画像入力ステップS11)。
次に、推定部12が、推論モデル21を用いて、入力された二次元画像から、ワークの位置と、ワークの回転角度と、ワークの種類と、ワーク全体の信頼度と、ワークの向き情報(表裏情報及び側面情報)と、ワークのピッキングポイントと、ピッキングポイントの信頼度とを出力する(推定ステップS12)。
次に、算出部13が、入力された深度画像から、各ピッキングポイントにおけるワークの傾き及び面の荒れ具合を算出し、出力するとともに、各ピッキングポイントまでの距離を出力する(算出ステップS13)。
次に、制御装置4が、かご6a内の複数のワークの中から把持対象となる一つのワークを決定するとともに、そのワーク上において把持部51により把持させる位置を決定する(把持対象及び把持位置の決定ステップS14)。
そして、制御装置4が、把持対象としたワークを把持部51により把持させるようにロボット5を制御し、その後、そのワークWをかご6b内に移動して収容させるようにロボット5を制御し(把持及び移動ステップS15)、物体検出処理及びピッキング処理を終了する。
以上説明したように、本実施形態では、検出対象のワークの画像(二次元画像)に対して、少なくとも当該ワークの位置及び回転角度がラベル情報として付されたデータセットにより機械学習された推論モデルを用いて、推定部12が、検出対象のワークの画像(二次元画像)から当該ワークの位置及び回転角度を出力することから、検出対象のワークの位置のみならず回転角度を推測することができる。したがって、1つ1つのワークが存在する領域をより正確に検出することができる。
また、本実施形態では、ラベル情報には、ワークの種類が更に含まれ、推定部12が、ワークの種類を更に出力することから、検出対象のワークの種類を推測することができる。したがって、1つ1つのワークが存在する領域を種類ごとに検出することができる。
また、本実施形態では、ワークは、表面と、表面と外観が異なる側面及び裏面とを有し、ラベル情報には、ワークの表面、側面及び裏面のうちのいずれの面が撮像されているかを示す向き情報(表裏情報及び側面情報)が更に含まれ、推定部12が、ワークの向き情報(表裏情報及び側面情報)を更に出力することから、検出対象のワークの表裏及び側面を推測することができる。
また、本実施形態では、ラベル情報には、ワークを掴むための位置であるピッキングポイントが更に含まれ、推定部12が、ワークのピッキングポイントを更に出力することから、検出対象のワークのピッキングポイントを推測することができる。
また、本実施形態の物体検出装置3は、ワークの深度画像から、推定部12により出力されたピッキングポイントにおけるワークの傾きと面の荒れ具合とを算出する算出部13を更に備えることから、検出対象のワークのピッキングポイントにおける当該ワークの傾きと面の荒れ具合とに基づいて、当該ピッキングポイントを把持しやすいか否かを判定することができる。
また、本実施形態では、推論モデルが、SSDを利用した学習用プログラムにより機械学習されたものであることから、ワークの位置検出の処理を高速化することができる。
また、本実施形態では、物体検出装置3の推定部12から出力されたワークの位置及び回転角度に基づいて、制御装置4が、把持部51によりワークを把持させるように把持部51を制御することから、ワークWをより確実に把持部51によって把持することができる。物体検出装置3によって1つ1つのワークが存在する領域をより正確に検出できるためである。
また、本実施形態では、ラベル情報には、ワークを掴むための位置である複数のピッキングポイントが更に含まれ、推定部12が、ワークのピッキングポイントを更に出力し、制御装置4が、ピッキングポイントに基づいて、把持部51により把持させるワークの位置を決定することから、推定部12によって出力されるピッキングポイントの数を増やすことができる、すなわちピッキングポイントの選択肢を増やすことができる。したがって、ワークを更に確実に把持部51によって把持することができる。
また、本実施形態では、推定部12が、ピッキングポイントの信頼度を更に出力することから、物体検出装置3によって検出されたピッキングポイントとその信頼度に基づいてワークを把持する位置を決定することができる。したがって、ワークを更に確実に把持部51によって把持することができる。
また、本実施形態では、ワークが複数存在し、推定部12が、各ワークのピッキングポイントを出力し、制御装置4が、複数のワークのうち、推定部12により出力されたピッキングポイントの数が相対的に多いワークを優先して把持部推定部12により把持させることから、ピッキングポイントの数が相対的に多い、すなわち、より上方にあるワークを優先的に把持部51により把持させることできる。したがって、ワークを更に確実に把持部51によって把持することができる。
なお、上記実施形態では、把持部51が、吸着パッド51aを備え、エアーを吸引することによってワークを把持する場合について説明したが、把持部51の具体的な構成は、特に限定されず、例えば、把持部51は、複数の挟持部材を備え、これらの挟持部材によりワークを挟持するものであってもよい。また、把持部51の具体的な構成に応じて、把持対象として優先すべきピッキングポイントを変更してよい。例えば、吸着パッド51aを備える場合は、ワークの中心部のピッキングポイントを優先し、挟持部材を備える場合は、ワークの隅部のピッキングポイントを優先してもよい。
また、上記実施形態では、ワークの表裏情報及び側面情報を含む向き情報を出力する場合について説明したが、ワークの側面を学習用プログラムに学習させずにワークの表面及び裏面を学習用プログラムに学習させてもよい。すなわち、ワークは、表面と、表面と外観が異なる裏面とを有し、ラベル情報には、ワークの表面及び裏面のうちのいずれかの面が撮像されているかを示す表裏情報が更に含まれ、推定部12が、ワークの表裏情報を更に出力してもよい。この場合は、検出対象のワークの表裏を推測することができる。他方、ワークの表面及び裏面を学習用プログラムに学習させずにワークの側面を学習用プログラムに学習させてもよい。すなわち、ワークは、側面を有し、ラベル情報には、ワークの側面が撮像されているかを示す側面情報が更に含まれ、推定部12が、ワークの側面情報を更に出力してもよい。この場合は、検出対象のワークの側面が撮像されているかを推測することができる。
また、上記実施形態では、推論モデル21が畳み込みニューラルネットワークを利用した深層学習により構築された場合について説明したが、推論モデル21は、機械学習により作成されたものであれば特に限定されず、推論モデル21は、深層学習以外の機械学習により作成されたものであってもよい。ただし、ワークの位置検出処理の高速化の観点からは、上述のSSDや、You Only Look Once(YOLO)といった、畳み込みニューラルネットワークを利用した深層学習により構築されることが好ましい。特に、SSDが好ましい。
また、上記実施形態では、ワークの位置及び回転角度を推論モデルによって出力する場合について説明したが、少なくともワークの位置及びピッキングポイントを推論モデルによって出力してもよい。このように、回転角度を推論モデルによって出力しない場合であっても、ワークWの回転角度によらず、ワークWが存在する領域をより正確に検出することができる。ピッキングポイントは、ワークW上に検出されるためである。
また、上記実施形態では、物体検出装置3と制御装置4とを別々の装置とする場合について説明したが、これらの装置を一体の装置により実現してもよい。また反対に、各装置3、4の各機能を適宜複数の装置に分散した分散処理システムにより実現してもよい。
上記実施形態で説明したように、機械学習に用いられるワークの画像、及び学習済みの推論モデルに入力されるワークの画像としては、二次元画像が好適であるが、検出対象のワークの画像、すなわちワークの検出(認識)に用いられる画像の種類は、二次元画像に特に限定されない。
以上、図面を参照しながら本発明の実施形態を説明したが、本発明は、上記実施形態に限定されるものではない。また、各実施形態の構成は、本発明の要旨を逸脱しない範囲において適宜組み合わされてもよいし、変更されてもよい。
以上のように、本発明は、物体を撮影した二次元映像に基づいて、1つ1つの物体が存在する領域を検出するのに有用な技術である。
1:物体把持システム
2:撮像部
3:物体検出装置
4:制御装置(制御部)
5:ロボット
6a、6b:かご
10:制御部
11:画像入力部
12:推定部
13:算出部
14:出力部
20:記憶部
21:推論モデル
51:把持部
51a:吸着パッド
52:アーム部
53:土台部
W:ワーク
BB:バウンディングボックス
PP:ピッキングポイント

Claims (11)

  1. 検出対象の物体の画像に対して、少なくとも当該物体の位置及び回転角度並びに当該物体を掴むための位置であるピッキングポイントがラベル情報として付されたデータセットにより機械学習された推論モデルを用いて、検出対象の物体の画像から当該物体の位置、回転角度及びピッキングポイントを出力する推定部と、
    前記物体の深度画像から、前記推定部により出力された前記ピッキングポイントにおける前記物体の傾きと前記ピッキングポイントを含む所定領域内において3D点群データを最小二乗法で面に近似したときの外れ値の割合を算出する算出部と、
    を備えることを特徴とする物体検出装置。
  2. 前記ラベル情報には、前記物体の種類が更に含まれ、
    前記推定部は、前記物体の種類を更に出力する
    ことを特徴とする請求項記載の物体検出装置。
  3. 前記物体は、表面と、前記表面と外観が異なる裏面とを有し、
    前記ラベル情報には、前記物体の前記表面及び前記裏面のうちのいずれかの面が撮像されているかを示す表裏情報が更に含まれ、
    前記推定部は、前記物体の表裏情報を更に出力する
    ことを特徴とする請求項1又は2記載の物体検出装置。
  4. 前記物体は、側面を有し、
    前記ラベル情報には、前記物体の前記側面が撮像されているかを示す側面情報が更に含まれ、
    前記推定部は、前記物体の側面情報を更に出力する
    ことを特徴とする請求項1~のいずれかに記載の物体検出装置。
  5. 前記推論モデルは、深層学習を適用した学習用プログラムにより機械学習されたものであることを特徴とする請求項1~のいずれかに記載の物体検出装置。
  6. 前記推論モデルは、Single Shot Multibox Detectorを利用した学習用プログラムにより機械学習されたものである
    ことを特徴とする請求項記載の物体検出装置。
  7. 請求項1~のいずれかに記載の物体検出装置と、
    前記物体としてのワークの画像を撮像する撮像部と、
    ワークを把持するための把持部と、
    前記推定部から出力されたワークの位置、回転角度及びピッキングポイントに基づいて、前記把持部によりワークを把持させるように前記把持部を制御する制御部と、
    を備えることを特徴とする物体把持システム。
  8. 前記推定部は、前記ピッキングポイントの信頼度を更に出力する
    ことを特徴とする請求項記載の物体把持システム。
  9. ワークが複数存在し、
    前記推定部は、各ワークのピッキングポイントを出力し、
    前記制御部は、前記複数のワークのうち、前記推定部により出力されたピッキングポイントの数が相対的に多いワークを優先して前記把持部により把持させる
    ことを特徴とする請求項又は記載の物体把持システム。
  10. 検出対象の物体の画像に対して、少なくとも当該物体の位置及び回転角度並びに当該物体を掴むための位置であるピッキングポイントがラベル情報として付されたデータセットにより機械学習された推論モデルを用いて、検出対象の物体の画像から当該物体の位置、回転角度及びピッキングポイントを出力する推定ステップと、
    前記物体の深度画像から、前記推定ステップにより出力された前記ピッキングポイントにおける前記物体の傾きと前記ピッキングポイントを含む所定領域内において3D点群データを最小二乗法で面に近似したときの外れ値の割合を算出する算出ステップと、
    を含むことを特徴とする物体検出方法。
  11. 検出対象の物体の画像に対して、少なくとも当該物体の位置及び回転角度並びに当該物体を掴むための位置であるピッキングポイントがラベル情報として付されたデータセットにより機械学習された推論モデルを用いて、検出対象の物体の画像から当該物体の位置、回転角度及びピッキングポイントを出力する推定処理と、
    前記物体の深度画像から、前記推定処理により出力された前記ピッキングポイントにおける前記物体の傾きと前記ピッキングポイントを含む所定領域内において3D点群データを最小二乗法で面に近似したときの外れ値の割合を算出する算出処理と、
    をコンピュータに実行させることを特徴とする物体検出プログラム。
JP2019104518A 2019-06-04 2019-06-04 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム Active JP7377627B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019104518A JP7377627B2 (ja) 2019-06-04 2019-06-04 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019104518A JP7377627B2 (ja) 2019-06-04 2019-06-04 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム

Publications (2)

Publication Number Publication Date
JP2020197978A JP2020197978A (ja) 2020-12-10
JP7377627B2 true JP7377627B2 (ja) 2023-11-10

Family

ID=73649196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019104518A Active JP7377627B2 (ja) 2019-06-04 2019-06-04 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム

Country Status (1)

Country Link
JP (1) JP7377627B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112975985B (zh) * 2021-03-22 2022-09-27 梅卡曼德(北京)机器人科技有限公司 抓取机器人及其控制方法和定位模型训练方法
CN117836101A (zh) * 2021-08-27 2024-04-05 京瓷株式会社 训练模型生成方法、训练模型生成设备、训练模型和握持模式推理设备
CN116175541B (zh) * 2021-11-28 2023-11-10 梅卡曼德(北京)机器人科技有限公司 抓取控制方法、装置、电子设备和存储介质
JP2023098304A (ja) 2021-12-28 2023-07-10 川崎重工業株式会社 教師データ生成装置および教師データ生成プログラム
JP2024094664A (ja) * 2022-12-28 2024-07-10 川崎重工業株式会社 物体検出装置、ロボットシステム及び物体検出方法
CN115841571B (zh) * 2023-02-23 2023-05-23 青岛创新奇智科技集团股份有限公司 物品陈列图像方向识别方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018158439A (ja) 2018-03-15 2018-10-11 株式会社東芝 物体ハンドリング装置、制御装置、および較正方法
JP2018202550A (ja) 2017-06-05 2018-12-27 株式会社日立製作所 機械学習装置、機械学習方法、および機械学習プログラム
JP2019057250A (ja) 2017-09-22 2019-04-11 Ntn株式会社 ワーク情報処理装置およびワークの認識方法
US20190126471A1 (en) 2017-11-02 2019-05-02 Canon Kabushiki Kaisha Information processing apparatus, grasping system, and information processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018202550A (ja) 2017-06-05 2018-12-27 株式会社日立製作所 機械学習装置、機械学習方法、および機械学習プログラム
JP2019057250A (ja) 2017-09-22 2019-04-11 Ntn株式会社 ワーク情報処理装置およびワークの認識方法
US20190126471A1 (en) 2017-11-02 2019-05-02 Canon Kabushiki Kaisha Information processing apparatus, grasping system, and information processing method
JP2018158439A (ja) 2018-03-15 2018-10-11 株式会社東芝 物体ハンドリング装置、制御装置、および較正方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
川西 亮輔,複腕ロボットシステムによる多品種商品のばら積みピッキング,画像ラボ 第29巻 第5号,日本,日本工業出版株式会社,2018年,第29巻 第5号,p.9-p.17

Also Published As

Publication number Publication date
JP2020197978A (ja) 2020-12-10

Similar Documents

Publication Publication Date Title
JP7377627B2 (ja) 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム
US11724400B2 (en) Information processing apparatus for determining interference between object and grasping unit, information processing method, and storage medium
US10124489B2 (en) Locating, separating, and picking boxes with a sensor-guided robot
US11400598B2 (en) Information processing apparatus, method, and robot system
US11794343B2 (en) System and method for height-map-based grasp execution
JP5282717B2 (ja) ロボットシステム
JP4004899B2 (ja) 物品の位置姿勢検出装置及び物品取出し装置
JP2011175477A (ja) 3次元計測装置、処理方法及びプログラム
JP2019155535A (ja) ワークピッキング装置及びワークピッキング方法
JP6632656B2 (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
WO2023092519A1 (zh) 抓取控制方法、装置、电子设备和存储介质
WO2022021156A1 (zh) 用于机器人抓取三维物体的方法和装置
JP2016196077A (ja) 情報処理装置、情報処理方法、およびプログラム
JP7264247B2 (ja) 情報処理装置及び情報処理方法
JP6040264B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP7066671B2 (ja) 干渉判定装置、干渉判定方法、プログラム及びシステム
JP2014053018A (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
US20230286165A1 (en) Systems and methods for robotic system with object handling
Luo et al. Vision-based 3-D object pick-and-place tasks of industrial manipulator
CN116188559A (zh) 图像数据处理方法、装置、电子设备和存储介质
CN116175542A (zh) 抓取控制方法、装置、电子设备和存储介质
JP7395451B2 (ja) ハンドリング装置、処理装置、コントローラ及びプログラム
CN115194751A (zh) 机器人系统、控制方法、图像处理装置及方法和产品制造方法
JP7556983B2 (ja) 機械学習装置、及び機械学習方法
US20230415349A1 (en) Method for controlling a robot for manipulating, in particular picking up, an object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231030

R150 Certificate of patent or registration of utility model

Ref document number: 7377627

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150