Nothing Special   »   [go: up one dir, main page]

JP7353948B2 - ロボットシステム及びロボットシステムの制御方法 - Google Patents

ロボットシステム及びロボットシステムの制御方法 Download PDF

Info

Publication number
JP7353948B2
JP7353948B2 JP2019218696A JP2019218696A JP7353948B2 JP 7353948 B2 JP7353948 B2 JP 7353948B2 JP 2019218696 A JP2019218696 A JP 2019218696A JP 2019218696 A JP2019218696 A JP 2019218696A JP 7353948 B2 JP7353948 B2 JP 7353948B2
Authority
JP
Japan
Prior art keywords
coordinates
gripping
placement
robot
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019218696A
Other languages
English (en)
Other versions
JP2021088019A (ja
Inventor
敦丈 小菅
俊 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019218696A priority Critical patent/JP7353948B2/ja
Publication of JP2021088019A publication Critical patent/JP2021088019A/ja
Application granted granted Critical
Publication of JP7353948B2 publication Critical patent/JP7353948B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボットシステム及びロボットシステムの制御方法に関する。
労働力不足を背景に、ロボット導入による人手作業の自動化が進んでいる。これまでも、工場における部品切削や溶接作業など定型的な作業の自動化が進んできた。今後さらに拡大し、建設現場、物流倉庫、食品、化粧品、医療品など多種の産業分野への応用が期待されている。
一例として、物流倉庫における物品のピッキング作業自動化があげられる。ピッキング作業自動化ロボットでは、3次元カメラにより物品棚の3次元画像を取得し、目標商品の有無を画像認識により検出し、画像認識や予め登録された物品の3次元モデルデータと比較しながら把持座標を算出する。得られた把持座標に対して軌道を計算し、ピッキングを実行する。
ピッキング作業自動化における課題は、ロボットによるピッキング作業スループットが遅いことである。例えば、最先端の物流倉庫向けピッキングロボットにおいても、スループットは人間の熟練作業者に比べ半分程度に留まる。
ロボットの動作スループットが遅い要因の1つに、ロボット自体の動作速度が遅いことが挙げられる。3次元にばら積みされた任意姿勢の物品を把持するため、これまで垂直多関節型のロボットが多く用いられてきた。
垂直多関節型ロボットは多数の関節を備え、3次元空間で任意の姿勢になることが可能であり、3次元バラ積みピッキング用途で垂直多関節型のロボットが広く採用されてきた。一方、垂直多関節型ロボットは直列に接続された関節及び関節を制御するモータを1つずつ駆動し、最終的な座標に到達するように制御を行うため、関節数が多いほど制御に時間を要する。
また、垂直多関節ロボットでは、各関節が直列に接続されるため相互に作用するため、各関節の相互作用も含めて各関節モータの制御値を計算する必要があった。一般にこれらのモータ制御計算では解が複数存在し、それらの中から最もロボットにとって安全な姿勢になる解を選択する必要がある。こうした複数解の計算及び複数解を評価し最も安全姿勢の解を選択する計算に時間を要するため、ロボットの動作スループットは遅かった。
垂直多関節ロボットに代わり、特許文献1のように、ロボットの腕を1本から複数の並列接続型に増やし、代わりに関節数を腕1本当たり1関節に減らしたリンク構造による高速ピッキング作業自動化技術が開発されている。
こうした複数腕のロボットをリンクして並列に動作させるパラレルリンク型ロボットでは関節が並列に並ぶため、関節を並列に制御でき、各関節モータの制御を独立に行うことが出来る。関節間の相互作用の計算することなく計算できるため、ロボット単体の動作速度を垂直多関節型ロボットと比較して数倍高速化することができる。
特開2019-058979号公報
特許文献1に記載されている複数腕を有するリンク構造ロボットによるピッキング作業自動化の課題は、動作可能な姿勢が限定されている点にある。垂直多関節型ロボットは3次元位置X、Y、Zの3方向と、3軸それぞれについての回転姿勢RX、RY、RZに動くことが出来る。
一方パラレルリンク型ロボットは並列に関節モータが接続されている機構上の制約により、X、Y、Zの3方向と、Z軸を中心とした回転姿勢であるRZしか動くことができない。そのため、3次元空間上で任意にばら積みされた物品を把持することができず、平積みされた箱形状の物品といったように応用範囲が限定されていた。
特許文献1の手法では、物体を把持する把持座標は動的に抽出されるものの、物体を解除する配置座標は固定的であった。このため、比較的大きな物体が斜めに配置された場合を想定して配置座標を固定的に設定した場合、平置きされた薄い物体に対しては、上空から物体の把持を解除してしまうことになる。この結果、物体を配置側の作業台に対してぶつけてしまうことになり、物体を破損してしまう恐れがあった。
本発明の目的は、パラレルリンク型ロボットにおいて、物体を破損させないで3次元空間上で任意にばら積みされた物体を把持することが可能なロボットシステム及びロボットシステムの制御方法を提供することにある。
本発明の一態様のロボットシステムは、撮像部と制御部とを有するパラレルリンクロボットを用いたロボットシステムであって、前記パラレルリンクロボットは、回転可能なジョイント機構を備えたロボットハンドにより3次元的にばら積みされた物体を把持して把持側から配置側に移動させ、前記把持側では把持点において前記物体を把持し、前記配置側では配置点において前記物体を解除し、前記撮像部は、ばら積みされた前記物体の3次元画像を取得し、前記制御部は、前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、前記物体の前記姿勢と前記大きさの推定結果に基づき、前記把持点の把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御することを特徴とする。
本発明の一態様のロボットシステムの制御方法は、回転可能なジョイント機構を備えたロボットハンドにより3次元的にばら積みされた物体を把持して把持側から配置側に移動させるパラレルリンクロボットを用いたロボットシステムの制御方法であって、ばら積みされた前記物体の3次元画像を取得し、前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、前記把持側では、把持点において前記物体を把持し、前記配置側では、配置点において前記物体を解除し、前記物体の姿勢と大きさの推定結果に基づき、前記把持点の把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御することを特徴とする。
本発明の一態様によれば、パラレルリンク型ロボットにおいて、物体を破損させないで3次元空間上で任意にばら積みされた物体を把持することができる。
関連技術のロボットシステムを示す図である。 実施例1のロボットシステムを示す図である。 認識制御部の認識及び制御処理を示す図である。 3次元カメラの画角と物体把持座標候補点を示した図である。 パラレルリンクロボットの目標座標及び動作軌道を示した図である。 パラレルリンクロボットの中間座標及び動作軌道を示した図である。 実施例1のロボットシステムの制御方法を示すフローチャート図である。 実施例2のロボットシステムを示す図である。
最初に、図1を参照して、関連技術のロボットシステムの制御方法について説明する。
図1は、関連技術の固定配置座標によるパラレルリンクロボットの3次元バラ積み物体の自律把持・配置システムの動作を示した図である。
図1に示すように、関連技術のパラレルリンクロボット101によるピッキング作業自動化システムは、パラレルリンクロボット本体101、ジョイント機構102を備えたロボットハンド103、3次元カメラ部109、3次元カメラデータに基づきロボット動作を計画し制御する把持座標推定部110を有する。
パラレルリンクロボット101のような動作方向が限定されたロボットにおいて、3次元的にばら積みされた物体111、112を把持及び整列配置可能にする。このため、3次元的に回転可能なジョイント機構102を備えたロボットハンド103を導入する。
パラレルリンクロボット101は、架台106に取り付けられ、自律移動することが出来ない。そのため、物体111、112は把持側コンベア107により配置側作業台108に搬送される。
しかし、関連技術の認識・制御方法では、把持座標104は把持座標推定部110において動的に抽出されるものの、配置座標105は固定的であった。従って、図1(a)に示すように、比較的大きな物体112が斜めに配置された場合を想定し配置座標105を固定的に設定した場合、平置きされた薄い物体111に対しては、図1(b)のように上空から把持を解除してしまうことになる。この結果、物体111を配置側作業台108に対してぶつけてしまうことになり、物体11が破損してしまう恐れがあった。
そこで、実施形態では、パラレルリンク型ロボットにおいて、物体を破損させないで3次元空間上で任意にばら積みされた物体を把持することが可能なロボットシステム及びロボットシステムの制御方法を提供する。
このため、実施形態は、自律制御機能及び回転可能なジョイント機構を備えたパラレルリンク型ロボットにおいて、3次元カメラによって撮像された3次元画像に基づき、物体把持位置及び配置位置の推定を行い、推定された把持位置に基づきロボット動作を制御する。
以下、図面を用いて実施例について説明する。
図2を参照して、実施例1のロボットシステムについて説明する。
図2に示すように、実施例1のパラレルリンクロボット101によるピッキング作業自動化システムは、パラレルリンクロボット本体101、ジョイント機構102を備えたロボットハンド103、撮像部を構成する3次元カメラ部109、3次元カメラデータに基づきロボット動作を計画し制御する認識制御部204を有する。
ジョイント機構102は、例えば、モータが内蔵され認識制御部204の指示により能動的に動作するモータ式ジョイント機構で構成される。尚、ジョイント機構102は、ゴムなどの柔軟性を有する機構や金属や樹脂製のボールを備え、外力に応じて受動的に変形するジョイント機構で構成しても良い。
パラレルリンクロボット101は、架台106に取り付けられ、自律移動することが出来ない。そのため、物体209は把持側コンベア107により配置側作業台108に搬送される。
認識制御部204は、3次元物体姿勢推定部205、3次元物体大きさ推定部206、把持点/配置点座標算出部207及び中間座標/動作速度算出部208を有する。
3次元物体姿勢推定部205は、3次元カメラ109から取得した3次元画像に基づいて、物体の姿勢を推定する。3次元物体大きさ推定部206は、物体の大きさを推定する。把持点/配置点座標算出部207は、推定された物体の姿勢と大きさに基づいて、物体の把持点の把持座標201と配置点の配置座標202を算出する。
把持点/配置点座標算出部207は、把持側では、予め規定された複数の物体把持候補点の内、最も上面にありかつ把持可能領域が最も広い候補点を把持点の把持座標201として算出する。配置側では、物体209の姿勢と大きさに基づいて、物体209が破損しないような配置点の配置座標202を算出する。
中間座標/動作速度算出部208は、中間座標算出部として機能し、物体209の姿勢と大きさに基づいて、把持点の把持座標201と配置点の配置座標202とを結ぶ中継点である中間座標203を動的に制御する。
また、中間座標/動作速度算出部208は、動作速度算出部として機能し、推定された物体209の姿勢と大きさに基づいて、物体209を把持して把持側から配置側に移動させる移動速度を動的に制御する。
このように、認識制御部204は、把持するべき物体209を認識し、物体姿勢を推定することで、ロボットハンド(吸着パッド)103の把持座標201、吸着を解除し物体を整列配置する配置座標202及び把持座標201から配置座標202に到達するまでのロボット軌道210と動作速度を動的に制御する。
上述のように、実施例1のロボットシステムは、3次元カメラ109(撮像部)と認識制御部204(制御部)とを有するパラレルリンクロボット101を用いたロボットシステムである。パラレルリンクロボット101は、回転可能なジョイント機構102を備えたロボットハンド103により3次元的にばら積みされた物体209を把持して把持側から配置側に移動させる。
把持側では把持点の把持座標201において物体209を把持し、配置側では配置点の配置座標202において物体209を解除する。
3次元カメラ109(撮像部)は、ばら積みされた物体209の3次元画像を取得する。認識制御部204(制御部)は、3次元画像に基づいて、物体209の姿勢と大きさを推定し、物体209の姿勢と大きさの推定結果に基づき、把持点の把持座標201から配置点の配置座標202に向かう物体209の軌道210を動的に制御する。
ここで、認識制御部204(制御部)は、物体209の姿勢と大きさの推定結果に基づき、配置点の配置座標を可変に制御することにより、物体209の軌道210を動的に制御する。
認識制御部204は、3次元カメラ109から3次元画像データを取得し、3次元物体姿勢推定部205に伝送する。3次元カメラ109には、カラーカメラ2台で視差から深度を推定するステレオカメラ、赤外光などの特定波長の信号を照射し、物体表面で反射してセンサまで帰ってくる往復時間を計測し深度を推定するTime of Flightカメラあるいは深層学習などの手法により深度推定する単眼カメラ方式が挙げられる。
3次元カメラ109の出力である3次元画像データは2つのデータから成り、1つは画角内に写った物体表面とセンサ間の深度を集計した深度画像及びもう1つは特定波長で取得された画像データ(通常は可視広域で取得されたRGB画像)である。
パラレルリンクロボット101は、架台106に取り付けられ、自律移動することが出来ない。そのため、物体209は把持側コンベア107により配置側作業台108に搬送される。従って、把持座標決定時には、3次元画像データを撮影したタイミングを取得し、認識及び制御処理による経過時間内にコンベア107による物体移動距離を加味したうえで目標座標を決定している。
例えば、認識制御部204から3次元カメラ109に向かって撮影タイミングを規定するトリガ信号を送信する。あるいは、3次元カメラ109から常に3次元画像データを認識制御部204に伝送し続け、認識制御部204で既定されたタイミングと同じタイミングで撮影された3次元画像データを選択し取得する。このようにして、撮像されたタイミングと認識処理終了時の時間差を推定し、搬送後の座標を推定することが出来る。
このように、実施例1のロボットシステムでは、3次元カメラ109によりばら積み物体209の3次元データを取得し、認識制御部204にデータ伝送する。認識制御部204では、把持座標201のみを推定するだけに留まらず、物体の大きさを推定し配置座標202、中間座標203及び動作速度を算出する。
そして、3次元カメラ109から得られた3次元画像データに基づき、まず対象物体の3次元位置・姿勢を推定する。同時に、3次元物体モデルを記憶領域から呼び出し、3次元物体の大きさを推定する。そして、3次元物体モデルに予め規定された複数の物体把持候補点の内、最も上面にあり把持可能領域が広い候補点を把持座標201として算出する。
次に、3次元物体の大きさ情報と、3次元位置及び姿勢情報から、物体が配置面に対して緩やかに接触するような配置座標202の高さを算出する。そして、把持座標201と配置座標202を結ぶ中間座標203を算出し、物体の大きさ情報と属性情報から、把持物体を壊さない最上限のロボットの動作速度を算出して出力する。
図3を参照して、認識制御部204の認識及び制御処理について説明する。
3次元カメラ109から3次元画像データの内、2次元画像のみが入力され、2次元画像解析により物体識別を行う(ステップ301)。取得した画像内の把持物体を認識し、それぞれの物体の種別を推定する。
複数の物体が存在する場合は、ベルトコンベア107の最も進行方向に対して下流に存在する物体を把持対象として選定する。把持対象として選別されたワークの種別情報から、物体の3次元物体モデルを記憶領域から呼び出し、3次元位置姿勢推定を行う(ステップ302)。これにより、把持対象物体がベルトコンベア107上でどのような位置姿勢で存在するかを推定する。
把持点算ステップ303では、複数候補の把持座標の内、把持候補点と把持可能領域を比較し、最も把持しやすい候補点では把持可能領域が広い候補点を把持点の把持座標201として算出する。
図4に示すように、画角内401の把持対象物体に対して、複数の把持候補点402~405が算出され、最も下流の物体の把持点である402、403同士を最終的な候補点選定のために比較する。
図4に示したように、把持点402と把持点403とでは、把持点402の方がより把持可能領域が広くフラットであるため、最終的な把持点の把持座標201として把持点402の座標を出力する。把持可能領域は、予め物体の3次元モデルに情報として入れ込んでおく。もしくは、2次元画像を用いた機械学習により帰納的に求めてもよい。
把持点の把持座標201に対してさらに、3次元位置姿勢推定ステップ302にて物体の回転姿勢が求まっているので、Z軸の回転姿勢(RZ)も付与してパラレルリンクロボット101に出力する。
物体配置座標推定ステップ304では、物体識別ステップ301で得られた物体識別情報、3次元位置姿勢推定ステップ302及び把持点算出ステップ303で得られた物体の把持座標201と物体の回転姿勢を用いて、配置座標202を計算する。
例として、図5に示すように、物体識別情報により、物体209の大きさL1(503)、物体の大きさL2(502)と把持した把持座標(501:点A)とを用いることで、剛体であれば物体209のうち最もコンベアに近い点である点C(507)を計算することが出来る。
把持座標点A(501)は事前に物体209の3次元モデルに対して既定された点であることから、物体209の把持からの距離L3(504)を求めることができる。通常は、物体209の重心になるように、L3=L1/2となるように設定される。物体209の把持の座標点である点B(506)の座標は、L3(504)及び3次元回転角θ(505)を用いることで、(X+L3cosθ,Y,Z-L3sinθ)として計算できる(510)。
物体209の中で最もコンベア面に近い点C(507)の座標も同様に計算することができ、(X+L3cosθ-L2sinθ,Y,Z-L3sinθ-L2cosθ)として算出できる。
よって、物体209のコンベア面までの高さH(508)はH=Z-L3sinθ-L2cosθである。従って配置座標(点D:509)は基準座標(X’、Y’、Z’)に対して、算出した高さH(508)を用いることで、配置座標(509)は(X’、Y’、Z’-H)として求めることができる。
このようにすることで、物体の姿勢や大きさに合わせて配置座標が動的に制御されるため、物体を壊すことなく安全に配置することが出来る。なお、配置座標の算出方法は特に上述の手法に限定されるものではなく、深層学習等の機能的な機械学習手法と組み合わせて計算しても良い。
中継点算出ステップ305では、把持座標201と配置座標202を入力として、中間座標203を計算する。図6に示すように、中間座標203は把持座標201と配置座標202の中間になるように設定される。
図6(b)に示すように、低い把持座標601及び配置座標603に対しては、低い中間座標602が設定される。また、中間座標203、602は常にパラレルリンクロボット101が3次元カメラ109の視界を遮らないように設定される。
また、障害物と干渉を避ける目的で座標の最大値及び最小値の範囲を予め制限する。また、中間座標203、602は1点とは限らず複数の座標点が存在しても良い。
このように、中継点算出ステップ305では、推定された物体の姿勢と大きさに基づいて、把持座標201、601と配置座標202、603とを結ぶ中継点である中間座標203、602を動的に制御する。
ロボット動作速度算出ステップ306では、パラレルリンクロボット101の搬送速度を制御する。物体識別結果及び姿勢推定結果を入力とし、予め登録された吸着し辛いものや重いもの、あるいは姿勢が急こう配な物体や、中間座標203がコンベア面に対して高い位置にある点については、搬送速度を遅くすることで搬送精度を高める処理を行う。
このように、ロボット動作速度算出ステップ306は、推定された物体の姿勢と大きさに基づいて、物体を把持して把持側のコンベア107から配置側作業台108に移動させる移動速度を動的に制御する。
ロボット制御ステップ307では、これまで計算された把持座標201と姿勢(RZ)、配置座標202、中間座標203、602及び搬送速度を入力変数として受け取り、予め規定されたロボット制御プログラム内の各種変数に代入することでロボット制御プログラムを完成させて処理を実行する。
図7を参照して、実施例1のロボットシステムの制御方法について説明する。
最初に、3次元カメラ109によりばら積み物体を撮像して3次元データを取得する(S1)。
次に、CNNなどの2次元画像解析を行う(S2)。そして、物体の種別を出力する(S3)。このように、2次元画像解析(S2)では物体の種別を認識し、物体種別を出力しバッファに記憶する(S3)。画像認識技術としては、Convolutional Neural Network(CNN)やテンプレートマッチングなどの手法が一般的である。
次に、最も下流の物体を把持対象物体として選定する(S4)。そして、3次元物体モデルを取得する(S5)。そして、3次元データ解析(例:ICP法)を行う(S6)。このように、予め作成され記憶領域に保存されたモデルデータを呼び出し(S5)、3次元データ解析(S6)を実施する。
モデルデータを移動及び回転させながら3次元画像データ内との相関度を繰り返し求め、最も相関度の高い位置座標・回転姿勢を求めるIterative Closest Point(ICP)法や、最近では3次元データから把持候補座標点を深層学習により直接算出する方式により、把持対象物体の回転姿勢を求める。
次に、物体の姿勢を出力する(S7)。そして、把持候補点を出力する(S8)。次に、把持領域の最も広い把持点を選択する(S9)。そして、把持点の座標201を出力する(S10)。この時、物体に予め規定された把持候補点も出力(S8)し、把持可能領域を比較し(S9)、最も把持領域の広い把持点を出力する(S0)。そして、配置点の配置座標202を算出する(S11)
次に、中継点203を算出(S12)。そして、ロボット動作速度を算出する(S13)。そして、算出した座標とロボット指令を出力する(S14)。次に、ロボット動作と物体の把持及び配置を行う(S15)。
最後に、物体の把持及び配置が完了したかどうかを判定する(S16)。判定の結果、物体の把持及び配置が完了した場合は終了となる。一方、判定の結果、物体の把持及び配置が完了していない場合は、S1に戻る。
図8を参照して、実施例2のロボットシステムについて説明する。
実施例2のロボットシステムは、図2に示す実施例1のロボットシステムの認識制御部204を、認識演算処理装置801とロボット制御コントローラ802とに分離したシステムである。その他の構成は、図2に示す実施例1のロボットシステムの構成と同じなのでその説明は省略する。
ロボット制御コントローラ802として分離した場合、3次元カメラ109の撮像タイミングはパラレルリンクロボット101からインタフェース(図示せず)を介して認識演算処理装置801に送信される。インタフェースのリアルタイム性が保証されない場合、トリガ信号到達時間のバラつきも見込んで把持座標201を決定する必要がある。
上記実施例によれば、パラレルリンクロボットにおいても3次元的にバラ積みされた物品を把持及び整列配置出来るようになる。この結果、従来困難であったパラレルリンクロボットによるばら積みピッキングを実現可能とすることができる。さらに、垂直多関節型ロボットによる自動化と比較し、作業スループットを高速化することができる。
101 パラレルリンクロボット
102 回転ジョイント
103 ロボットハンド
107 把持側ベルトコンベア
108 配置側作業台
109 3次元カメラ
204 認識制御部
205 3次元物体姿勢推定部
206 3次元物体大きさ推定部
207 把持点/配置点座標算出部
208 中間座標/動作速度算出部
209 物体
801 認識演算処理装置
802 ロボット制御コントローラ

Claims (11)

  1. 撮像部と制御部とを有するパラレルリンクロボットを用いたロボットシステムであって、
    前記パラレルリンクロボットは、
    回転可能なジョイント機構を備えたロボットハンドにより3次元的にばら積みされた物体を把持して把持側から配置側に移動させ、
    前記把持側では把持点において前記物体を把持し、前記配置側では配置点において前記物体を解除し、
    前記撮像部は、
    ばら積みされた前記物体の3次元画像を取得し、
    前記制御部は、
    前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、
    前記物体の前記姿勢と前記大きさの推定結果に基づき、前記把持点の把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御し、
    前記撮像部は、3次元カメラで構成され、
    前記制御部は、
    前記3次元カメラから取得した前記3次元画像に基づいて、前記物体の前記姿勢を推定する3次元物体姿勢推定部と、
    前記物体の前記大きさを推定する3次元物体大きさ推定部と、
    推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体の前記把持座標と前記配置座標を算出する把持点/配置点座標算出部と、
    を有し、
    前記把持点/配置点座標算出部は、
    前記把持側では、予め規定された複数の物体把持候補点の内、最も上面にありかつ把持可能領域が最も広い候補点を前記把持座標として算出し、
    前記配置側では、推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体が破損しないような前記配置座標を算出することを特徴とするロボットシステム。
  2. 前記制御部は、
    前記物体の前記姿勢と前記大きさの推定結果に基づき、前記配置座標を可変に制御することにより、前記物体の軌道を動的に制御することを特徴とする請求項1に記載のロボットシステム。
  3. 前記制御部は、
    推定された前記物体の前記姿勢と前記大きさに基づいて、前記把持座標と前記配置座標とを結ぶ中継点である中間座標を動的に制御する中間座標算出部を更に有することを特徴とする請求項1に記載のロボットシステム。
  4. 前記制御部は、
    推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体を把持して前記把持側から前記配置側に移動させる移動速度を動的に制御する動作速度算出部を更に有することを特徴とする請求項1に記載のロボットシステム。
  5. 前記ジョイント機構は、
    前記制御部の指示により能動的に動作するモータ式ジョイント機構で構成されることを特徴とする請求項1に記載のロボットシステム。
  6. 前記ジョイント機構は、
    外力に応じて受動的に変形するソフトジョイント機構で構成されることを特徴とする請求項1に記載のロボットシステム。
  7. 前記パラレルリンクロボットは、架台に取り付けられ、
    前記物体はコンベアにより搬送されることを特徴とする請求項1に記載のロボットシステム。
  8. 回転可能なジョイント機構を備えたロボットハンドにより3次元的にばら積みされた物体を把持して把持側から配置側に移動させるパラレルリンクロボットを用いたロボットシステムの制御方法であって、
    ばら積みされた前記物体の3次元画像を取得し、
    前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、
    前記把持側では、把持点において前記物体を把持し、
    前記配置側では、配置点において前記物体を解除し、
    前記物体の姿勢と大きさの推定結果に基づき、前記把持点把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御し、
    前記把持側では、予め規定された複数の物体把持候補点の内、最も上面にありかつ把持可能領域が最も広い候補点を前記把持座標として算出し、
    前記配置側では、推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体が破損しないような前記配置座標を算出することを特徴とするロボットシステムの制御方法。
  9. 前記物体の前記姿勢と前記大きさの推定結果に基づき、前記配置座標を可変に制御することにより、前記物体の軌道を動的に制御することを特徴とする請求項に記載のロボットシステムの制御方法。
  10. 推定された前記物体の前記姿勢と前記大きさに基づいて、前記把持座標と前記配置座標とを結ぶ中継点である中間座標を動的に制御することを特徴とする請求項に記載のロボットシステムの制御方法。
  11. 推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体を把持して前記把持側から前記配置側に移動させる移動速度を動的に制御することを特徴とする請求項に記載のロボットシステムの制御方法。
JP2019218696A 2019-12-03 2019-12-03 ロボットシステム及びロボットシステムの制御方法 Active JP7353948B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019218696A JP7353948B2 (ja) 2019-12-03 2019-12-03 ロボットシステム及びロボットシステムの制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019218696A JP7353948B2 (ja) 2019-12-03 2019-12-03 ロボットシステム及びロボットシステムの制御方法

Publications (2)

Publication Number Publication Date
JP2021088019A JP2021088019A (ja) 2021-06-10
JP7353948B2 true JP7353948B2 (ja) 2023-10-02

Family

ID=76218888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019218696A Active JP7353948B2 (ja) 2019-12-03 2019-12-03 ロボットシステム及びロボットシステムの制御方法

Country Status (1)

Country Link
JP (1) JP7353948B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022181143A (ja) 2021-05-25 2022-12-07 株式会社ミツトヨ 顕微鏡ユニット
WO2023209827A1 (ja) * 2022-04-26 2023-11-02 ファナック株式会社 ロボット、ロボットの制御装置、および作業ロボットシステム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012171039A (ja) 2011-02-21 2012-09-10 Fanuc Ltd 棒状部材の搬送装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012171039A (ja) 2011-02-21 2012-09-10 Fanuc Ltd 棒状部材の搬送装置

Also Published As

Publication number Publication date
JP2021088019A (ja) 2021-06-10

Similar Documents

Publication Publication Date Title
JP6823008B2 (ja) バラ積みされたワークを取り出すロボットシステムおよびロボットシステムの制御方法
JP5778311B1 (ja) ピッキング装置およびピッキング方法
US11396101B2 (en) Operating system, control device, and computer program product
US11701777B2 (en) Adaptive grasp planning for bin picking
EP3222393B1 (en) Automated guidance system and method for a coordinated movement machine
Rolley-Parnell et al. Bi-manual articulated robot teleoperation using an external RGB-D range sensor
JP6697204B1 (ja) ロボットシステムの制御方法、非一過性のコンピュータ読取可能な記録媒体及びロボットシステムの制御装置
JP6444499B1 (ja) 制御装置、ピッキングシステム、物流システム、プログラム、及び、制御方法
JP2020121352A (ja) 物体把持システム
JP7353948B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP5618067B2 (ja) バラ積みピッキング装置および方法
JP2021024002A (ja) 複数の可動部を有する物品搬送システム
US20230158676A1 (en) Controlling multiple robots to cooperatively pick and place items
Watanabe et al. Cooking behavior with handling general cooking tools based on a system integration for a life-sized humanoid robot
WO2022014133A1 (ja) モバイルマニピュレータ及びその制御方法及びプログラム
JP7034971B2 (ja) 作動システム、制御装置、およびプログラム
Rastegarpanah et al. Autonomous vision-guided bi-manual grasping and manipulation
TWI851310B (zh) 自主移動抓取物件之機器人與方法
Timmermann et al. AI4Assembly A Human-Robot Collaboration Assembly Application with AI Support
TWI854340B (zh) 機器人系統、用以控制機器人系統之方法、及用以控制機器人系統之電腦程式產品
CN115837985B (zh) 一种基于机器视觉的无序抓取方法
US20240109181A1 (en) Grasp teach by human demonstration
CN114683299B (zh) 机器人工具及其操作方法
TWI859620B (zh) 控制多個機器人協同執行任務的機器人系統、用以控制機器人系統之方法、及電腦程式產品
JP7415013B2 (ja) ロボットの構成部材の干渉を検出するロボット装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230920

R150 Certificate of patent or registration of utility model

Ref document number: 7353948

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150