Nothing Special   »   [go: up one dir, main page]

JP6886620B2 - キャリブレーション方法、キャリブレーションシステム及びプログラム - Google Patents

キャリブレーション方法、キャリブレーションシステム及びプログラム Download PDF

Info

Publication number
JP6886620B2
JP6886620B2 JP2017154016A JP2017154016A JP6886620B2 JP 6886620 B2 JP6886620 B2 JP 6886620B2 JP 2017154016 A JP2017154016 A JP 2017154016A JP 2017154016 A JP2017154016 A JP 2017154016A JP 6886620 B2 JP6886620 B2 JP 6886620B2
Authority
JP
Japan
Prior art keywords
image
data
display device
displayed
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017154016A
Other languages
English (en)
Other versions
JP2019030943A (ja
Inventor
徳和 殿谷
徳和 殿谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2017154016A priority Critical patent/JP6886620B2/ja
Priority to CN201810768081.8A priority patent/CN109382821B/zh
Priority to EP18183152.0A priority patent/EP3446838A1/en
Priority to US16/038,554 priority patent/US10940591B2/en
Publication of JP2019030943A publication Critical patent/JP2019030943A/ja
Application granted granted Critical
Publication of JP6886620B2 publication Critical patent/JP6886620B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39008Fixed camera detects reference pattern held by end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39024Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、キャリブレーション方法、キャリブレーションシステム及びプログラムに関する。
従来より、ロボットの座標系と画像センサの座標系との間の相対的な位置姿勢のキャリブレーションを行う方法として、点(ドット)や多角形状のマークマーカが印刷された平板(キャリブレーション・オブジェクト)を画像センサにより撮像して、撮像画像に基づいてキャリブレーション演算を行う方法が知られている。
例えば、特許文献1には、動作にヒステリシス特性を有する多関節ロボットのキャリブレーション誤差を低減することを目的とした、キャリブレーション方法が記載されている。具体的には、ロボットの座標系と画像センサの座標系とをキャリブレーション・オブジェクトを用いてキャリブレーションする方法であって、第1の測定点で撮像装置による撮像を行い、ロボットの姿勢が異なる第2の測定点にロボットの姿勢を移行するとき、予め定められた特定の点を経由して第2の測定点に到達させるというものである。
特開2015−182144号公報
キャリブレーション・オブジェクトを用いてロボットの座標系と撮像装置の座標系との位置関係のキャリブレーションを行うとき、キャリブレーションの演算は、各測定点において撮像装置が取得するキャリブレーション・オブジェクトの撮像画像に基づいて行われる。したがって、キャリブレーション・オブジェクトの態様は、測定条件に応じて適切に選択されることが好ましい。
しかしながら、特許文献1に開示されているキャリブレーション方法は、予め定められた複数のドット及びマークマーカが印字された単一のキャリブレーション・オブジェクト(印刷物)を用いているため、撮像画像によっては、キャリブレーションの精度を担保できない場合があった。また、キャリブレーションの精度を担保するためには、複数のパターンで印字されたキャリブレーション・オブジェクトの印刷物を用意する必要がありキャリブレーションの工数が増大していた。
そこで本発明は、複数のパターンで印刷されたキャリブレーション・オブジェクトを準備することなく、撮像装置とロボットアームとの相対的位置関係のキャリブレーションを可能とするキャリブレーション方法、システム及びプログラムを提供することを目的とする。
本発明の一態様に係るキャリブレーション方法は、表示装置と、撮像装置と、表示装置または撮像装置のいずれか一方が固定され、駆動軸を有するロボットアームと、を備えたロボットシステムにおいて、撮像装置の座標系とロボットアームの座標系とをキャリブレーションする。そして、このキャリブレーション方法は、第1の画像データに基づいて、表示装置に第1の画像を表示させるステップと、撮像装置を用いて、表示装置に表示された第1の画像を撮像して、第1の撮像データを取得するステップと、第1の画像データとは異なる第2の画像データに基づいて、表示装置に第2の画像を表示させるステップと、撮像装置を用いて、表示装置に表示された第2の画像を撮像して、第2の撮像データを取得するステップと、第1の撮像データ及び第2の撮像データを用いて、撮像装置の座標系とロボットアームの座標系とをキャリブレーションするステップと、を含む。
この態様によれば、複数のパターンが印刷されたキャリブレーション・オブジェクトを準備することなく、撮像装置とロボットアームとの相対的位置関係のキャリブレーションを実行することができる。また、表示形式が異なる複数の撮像画像を用いてキャリブレーションを行うことができるので、キャリブレーションの精度を向上させることが可能になる。
上記態様において、第1の画像データと第2の画像データとは、表示される画像のパターンを示すデータ、または、表示される画像の明るさを示すデータ、が異なっていてもよい。
この態様によれば、周囲の明るさ等に応じて、キャリブレーションに適切な明るさの画像パターンを表示することが可能になる。例えば、撮像装置を用いて画像を測定するための測定点毎に、照明の角度や照度等に応じて、明るさの条件が異なる場合や、同一の測定点であっても、明るさの条件が変化する場合がある。したがって、本態様によれば、異なる明るさの条件に応じて適切な画像パターンを表示することができるので、キャリブレーションの精度を向上させることができる。
さらに、この態様によれば、表示する画像のパターンを異ならせることができるから、キャリブレーションの精度を向上することが可能になる。すなわち、パターンが異なる複数の撮像画像を用いてキャリブレーションを行うことができるので、キャリブレーションの精度を向上させることが可能になる。また、撮像を行う環境に応じてパターンを異ならせることができるので、キャリブレーションの精度を向上させることが可能になる。
上記態様において、第1の画像データと第2の画像データとは、表示される画像のパターンを示すデータであって、表示装置に表示する画像の少なくとも1つの画素の色に関するデータ、が異なっていてもよい。
この態様によれば、撮像データの情報を増やすことができ、キャリブレーションの精度が向上させることができる。
上記態様において、第1の撮像データを取得した後に、ロボットアームを用いて、表示装置と撮像装置との相対位置を変更するステップを更に含み、相対位置を変更するステップの後に、第2の撮像データを取得するステップを実行してもよい。
この態様によれば、相対位置が異なる位置において、異なる画像データに基づいて表示される画像をそれぞれ撮像して、撮像データを取得するように構成したから、キャリブレーションの精度を向上することができる。例えば、表示装置と撮像装置との相対位置が異なる測定点に、ロボットアームの動作させた前後において、異なる撮像データを取得してキャリブレーションの演算を行うように構成しているから、表示装置と撮像装置との相対的位置関係等の測定条件に応じた適切な画像を選択することができ、キャリブレーションの精度を向上させることができる。
上記態様において、第1の画像を表示させるステップと、第2の画像を表示させるステップと、において、第1の画像データまたは第2の画像データは、表示される第1の画像または第2の画像のパターンの大きさが、ロボットアームの先端の座標に応じて変更されるように構成してもよい。
この態様によれば、ロボットアームの先端の座標に応じて、画像パターンの大きさが異なるように画像データを変更するから、表示装置と撮像装置との相対位置関係に応じて、キャリブレーションに適切な大きさの画像パターンを表示することが可能になる。撮像装置の座標系とロボットアームの座標系とのキャリブレーションは、ロボットアームを用いた対象物に対する所定の処理(例えば、対象物の把持、吸着、嵌め合い、巻き付け、等)の精度を向上させるために行われる。したがって、対象物に作用するロボットアームの先端の座標に応じて、画像パターンの大きさが異なるように画像データを変更し、異なる画像パターンに基づく複数種類の撮像画像を用いてキャリブレーションを行うことで、キャリブレーションの精度を向上させることができる。
上記態様において、第1の画像を表示させるステップと、第2の画像を表示させるステップと、において、第1の画像データまたは第2の画像データは、表示される第1の画像または第2の画像のパターンの大きさが、撮像装置と表示装置との距離に応じて変更されるように構成されてもよい。
この態様によれば、表示装置と撮像装置との相対距離に応じて、キャリブレーションに適切な大きさの画像パターンを表示することが可能になる。撮像画像に基づく撮像装置の座標系とロボットアームの座標系とのキャリブレーションの精度は、撮像装置が、画像パターンの大きさをどの程度正確に識別できるか否かによって左右される。ここで、例えば、撮像装置から表示装置までの距離が短い場合よりも長い場合の方が、撮像画像に含まれる画像パターンは小さくなる。よって、撮像装置から表示装置までの距離に応じて、適切な大きさの画像パターンが選択されることが好ましい。したがって、本態様によれば、撮像装置と表示装置との間の相対距離に応じて、撮像装置による識別精度の高い画像パターンに基づいて画像が表示されるので、キャリブレーションの精度を向上させることができる。
上記態様において、表示装置と撮像装置との相対位置を変更するステップは、表示装置と撮像装置との相対角度を変更するステップを含み、第1の画像データと第2の画像データとは、少なくとも表示される画像の明るさを示すデータが異なっていてもよい。
この態様によれば、表示装置と撮像装置との相対角度に応じて変化する明るさに等に応じて、キャリブレーションに適切な明るさの画像パターンを表示することが可能になる。例えば、表示装置に画像パターンを表示させる場合には、表示装置と撮像装置との角度が違う測定点毎に、明るさの条件が異なる場合がある。これにより、撮像装置が、表示装置に表示された画像を識別できない状況が発生し得る。この状況は、表示装置と照明との相対的角度が所定の範囲にある場合に多く生じる。しかしながら、本態様によれば、表示装置と撮像装置との相対角度を変更するステップの前後で、画像データの明るさ条件を異ならせる。したがって、測定点毎に異なる明るさ条件に対応し、適切な明るさの画像パターンを表示することができるので、撮像装置によって表示装置に表示された画像をより確実に撮像して、キャリブレーションの精度を向上させることができる。なお、表示装置と撮像装置との相対角度を変更するステップは、表示装置と撮像装置との相対位置を変更するステップと同時に行われてもよい。
上記態様において、第1の撮像データを取得するステップにおける、表示装置に対する撮像装置の相対的位置姿勢と、第2の撮像データを取得するステップにおける、表示装置に対する撮像装置の相対的位置姿勢は、同一であってもよい。
この態様によれば、同一測定点における撮像データの情報量を増やすことができ、キャリブレーションの精度が上がる。具体的には、キャリブレーション演算式の各項に代入する数値情報が複数になる。複数の数値情報で演算を行って、例えば、算出された複数の変換行列(パターンを異ならせているので変換行列の値には微差が生じる)について、加重平均等を行うことで、誤差をより低減した変換行列を得ることができる)
上記態様において、表示装置は、明るさを計測するためのセンサと、センサの検出値に基づいて、第1の画像データまたは第2の画像データを変更する演算部と、を備えており、第1の画像を表示させるステップと、第2の画像を表示させるステップと、において、第1の画像データまたは第2の画像データは、表示される第1の画像または第2の画像の明るさが、明るさを計測するためのセンサの検出値に応じて変更されるように構成されてもよい。
この態様によれば、表示装置が備えるセンサの検出値に基づいて、適切な明るさの画像パターンを表示させることが可能になる。例えば、測定点毎に異なる適切な明るさの画像パターンの設定には、撮像装置によって撮像される被撮像物に対して、どのような条件で光が照射されているか、を検出することが好ましい。したがって、本態様によれば、当照明、自然光等が照射される被撮像物(表示装置)が備えるセンサの検出値に基づいて適切な明るさの画像パターンが選択されるので、測定点毎に異なる明るさ条件に対して適切な明るさの画像パターンを表示することができ、キャリブレーションの精度を向上させることができる。 上記態様において、表示装置は、情報を入力するための入力部と、入力された情報に基づいて第1の画像データまたは第2の画像データを変更する演算部と、を備えており、第1の画像を表示させるステップと、第2の画像を表示させるステップと、において、第1の画像データまたは第2の画像データは、表示される第1の画像または第2の画像のパターンの大きさ及び明るさが、入力された情報に応じて変更されるように構成されていてもよい。
この態様によれば、表示装置が備える入力部から入力された情報に基づいて、キャリブレーションに適切な大きさ及び明るさの画像パターンを表示することが可能になる。すなわち、表示装置の入力部に対して予め、又は、画像を撮像する毎に入力される情報に基づき画像パターンが適切に変更されるので、画像パターンの選択を簡易に実現し、作業工数の削減を図りながら、キャリブレーションの精度を向上させることができる。
上記態様において、表示装置とロボットアームとは固定されており、表示装置は、移動量を計測するためのセンサを備え、第1の画像データまたは第2の画像データは、表示される第1の画像または第2の画像のパターンの大きさが、センサにより計測された移動量に基づいて決定されていてもよい。
この態様によれば、表示装置が備えるセンサを用いて、キャリブレーションに適切な大きさの画像パターンを表示させることが可能になる。すなわち、表示装置が、その移動量に応じて、表示する画像パターンを変更することが可能になるので、簡易な構成で画像パターンの変更が可能になり、作業工数の削減を図りながら、キャリブレーションの精度を向上させることができる。
上記態様において、表示装置とロボットアームとは固定されており、表示装置は、傾きを計測するためのセンサを備え、第1の画像データ及び第2の画像データの少なくともいずれか一方に基づいて表示される画像の明るさを示すデータは、センサにより計測された傾きの大きさに基づいて決定されてもよい。 この態様によれば、表示装置が備えるセンサを用いて、キャリブレーションに適切な大きさの画像パターンを表示させることが可能になる。すなわち、表示装置が、その傾きに応じて、表示する画像パターンを変更することが可能になるので、簡易な構成で画像パターンの変更が可能になり、作業工数の削減を図りながら、キャリブレーションの精度を向上させることができる。
本発明の一態様に係るキャリブレーション方法は、表示装置と、撮像装置と、表示装置または撮像装置のいずれか一方に固定され、表示装置と撮像装置との相対位置を変更可能なロボットアームを用いて、撮像装置とロボットアームとの相対的位置関係をキャリブレーションする方法であって、第1の画像データに基づいて、表示装置に第1の画像を表示させるステップと、撮像装置を用いて、表示装置に表示された第1の画像を撮像して、第1の撮像データを取得するステップと、第1の撮像データを用いて、撮像装置とロボットアームとの相対的位置関係をキャリブレーションするステップと、を含む。
この態様によれば、複数のパターンが印刷されたキャリブレーション・オブジェクトを準備することなく、撮像装置とロボットアームとの相対的位置関係のキャリブレーションを実行することができる。
上記態様において、第1の画像データは、表示される画像のパターンを示すデータ、または、表示される画像の明るさを示すデータ、が撮像環境に応じて決定されるように構成されていてもよい。
この態様によれば、測定点における撮像環境に応じて、適切な画像パターンを使用してキャリブレーションを行うことができるので、キャリブレーションの精度を向上させることができる。
本発明の一態様に係るプログラムは、表示装置と、撮像装置と、表示装置または撮像装置のいずれか一方に固定され、駆動軸を有するロボットアームと、を備えたロボットシステムにおいて、撮像装置の座標系とロボットアームの座標系とをキャリブレーションする方法を実行するためのプログラムであって、コンピュータに、第1の画像データに基づいて、表示装置に第1の画像を表示させるステップと、表示装置に表示された第1の画像を撮像装置に撮像させて第1の撮像データを取得させるステップと、第1の画像データとは異なる第2の画像データに基づいて、表示装置に第2の画像を表示させるステップと、表示装置に表示された第2の画像を撮像装置に撮像させて第2の撮像データを取得させるステップと、第1の撮像データ及び第2の撮像データを用いて、撮像装置の座標系とロボットアームの座標系とをキャリブレーションさせるステップと、を実行させる。
この態様によれば、複数のパターンが印刷されたキャリブレーション・オブジェクトを準備することなく、撮像装置とロボットアームとの相対的位置関係のキャリブレーションをコンピュータに実行させるためのプログラムを提供することができる。また、表示形式が異なる複数の撮像画像を用いてキャリブレーションを行うことができるので、キャリブレーションの精度を向上させることが可能になる。
上記態様において、第1の画像データと第2の画像データとは、表示される画像のパターンを示すデータ、または、表示される画像の明るさを示すデータ、が異なっていてもよい。
この態様によれば、周囲の明るさ等に応じて、キャリブレーションに適切な明るさの画像パターンを表示することが可能になる。例えば、撮像装置を用いて画像を測定するための測定点毎に、照明の角度や照度等に応じて、明るさの条件が異なる場合や、同一の測定点であっても、明るさの条件が変化する場合がある。したがって、本態様によれば、異なる明るさの条件に応じて適切な画像パターンを表示することができるので、キャリブレーションの精度を向上させることができる。
さらに、この態様によれば、表示する画像のパターンを異ならせることができるから、キャリブレーションの精度を向上することが可能になる。すなわち、パターンが異なる複数の撮像画像を用いてキャリブレーションを行うことができるので、キャリブレーションの精度を向上させることが可能になる。また、撮像を行う環境に応じてパターンを異ならせることができるので、キャリブレーションの精度を向上させることが可能になる。
上記態様において、前記第1の画像データと前記第2の画像データとは、表示される画像のパターンを示すデータであって、前記表示装置に表示する画像の少なくとも1つの画素の色に関するデータ、が異なっていてもよい。
この態様によれば、撮像データの情報を増やすことができ、キャリブレーションの精度が向上させることができる。
本発明の一態様に係るキャリブレーションシステムは、第1の画像データに基づいて第1の画像を表示し、かつ、第1の画像データとは異なる第2の画像データに基づいて第2の画像を表示するための表示装置と、第1の画像及び第2の画像をそれぞれ撮像して、第1の撮像データ及び第2の撮像データをそれぞれ取得するための撮像装置と、表示装置または撮像装置のいずれか一方が固定され、駆動軸を有するロボットアームと、第1の撮像データ及び第2の撮像データを用いて、撮像装置の座標系とロボットアームの座標系とをキャリブレーションするための演算を行う演算部と、を備える。
この態様によれば、複数のパターンが印刷されたキャリブレーション・オブジェクトを準備することなく、撮像装置とロボットアームとの相対的位置関係のキャリブレーションを実行することができる。また、表示形式が異なる複数の撮像画像を用いてキャリブレーションを行うことができるので、キャリブレーションの精度を向上させることが可能になる。
上記態様において、第1の画像データと第2の画像データとは、表示される画像のパターンを示すデータ、または、表示される画像の明るさを示すデータ、が異なるように構成されてもよい。
この態様によれば、周囲の明るさ等に応じて、キャリブレーションに適切な明るさの画像パターンを表示することが可能になる。例えば、撮像装置を用いて画像を測定するための測定点毎に、照明の角度や照度等に応じて、明るさの条件が異なる場合や、同一の測定点であっても、明るさの条件が変化する場合がある。したがって、本態様によれば、異なる明るさの条件に応じて適切な画像パターンを表示することができるので、キャリブレーションの精度を向上させることができる。
さらに、この態様によれば、表示する画像のパターンを異ならせることができるから、キャリブレーションの精度を向上することが可能になる。すなわち、パターンが異なる複数の撮像画像を用いてキャリブレーションを行うことができるので、キャリブレーションの精度を向上させることが可能になる。また、撮像を行う環境に応じてパターンを異ならせることができるので、キャリブレーションの精度を向上させることが可能になる。
上記態様において、第1の画像データと第2の画像データとは、表示される画像のパターンを示すデータであって、表示装置に表示する画像の少なくとも1つの画素の色に関するデータ、が異なるように構成されてもよい。
この態様によれば、撮像データの情報を増やすことができ、キャリブレーションの精度が向上させることができる。
本発明によれば、複数のパターンが印刷されたキャリブレーション・オブジェクトを準備することなく、撮像装置とロボットアームとの相対的位置関係のキャリブレーションを可能とするキャリブレーション方法、システム及びプログラムを提供することができる。
キャリブレーションシステム10の機能ブロック図。 表示器22とロボットRが固定された場合のキャリブレーション方法の模式図。 表示装置Dの初期設定手順。 キャリブレーション・オブジェクトの例示。 キャリブレーションの方法を示すフローチャート。 画像センサSとロボットRが固定された場合のキャリブレーション方法の模式図。 画像センサとロボットの相対位置姿勢の入力画面。
以下、添付図面を参照して、本発明の好適な実施形態について説明する(なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する)。以下、実施の形態において説明するキャリブレーションの方法は、表示装置と、撮像装置と、表示装置または撮像装置のいずれか一方が固定されるロボットアームと、を備えたロボットシステムにおいて、撮像装置の座標系とロボットアームの座標系とをキャリブレーションするものである。表示装置には、画像データに基づくキャリブレーションパターンが表示される。
以下の実施の形態のいずれかで説明するキャリブレーション方法において、表示装置は、キャリブレーションパターン、及び、当該キャリブレーションパターンを表示するときの画像の明るさ、の少なくともいずれか一方が異なる複数の画像パターンを表示する表示器を有している。
以下の実施の形態のいずれかで説明するキャリブレーション方法において、表示装置は、撮像環境に応じて、画像パターンを変更して、表示器に表示させる画像の表示形式を変更するように構成されている。撮像環境とは、ロボットシステムの構成に起因した環境であり、例えば、表示器と撮像装置との関係性として、撮像装置と表示器との間の相対距離、相対姿勢、が挙げられる。また、撮像環境とは、ロボットシステムの周囲の環境であり、例えば、撮像装置が表示器に表示された画像パターンを撮像するときの、周囲の明るさである。これによれば、撮像環境の変動に応じて、適切な画像パターンを用いてキャリブレーションを行うことができるので、キャリブレーションの精度を向上させることができる。
また、以下の実施の形態のいずれかで説明するキャリブレーション方法において、表示装置は、撮像装置が表示器の撮像を行う一の測定点で、表示器に表示する画像パターンを、撮像環境に応じて決定してもよい。これによれば、測定点における撮像環境に応じて、適切な画像パターンを使用してキャリブレーションを行うことができるので、キャリブレーションの精度を向上させることができる。
また、以下の実施の形態のいずれかで説明するキャリブレーション方法において、表示装置は、撮像装置が表示器の撮像を行う一の測定点で、表示器に表示する画像パターンを変更して、表示形式の異なる複数の画像を表示器に表示するように構成されている。これによれば、一の測定点において取得される撮像データの情報量を増大させることができるので、キャリブレーションの精度を向上させることができる。
[第1実施形態]
図1は、第1実施形態にかかるキャリブレーションシステム10の機能ブロック図を示している。このキャリブレーションシステム10は、ロボットRと、ロボットRを制御するためのロボット制御部12を有するロボットコントローラ1を有する。また、キャリブレーションシステム10は、撮像装置としての画像センサSを備える。ロボットコントローラ1は、画像センサSの撮像画像に基づいて、ロボットRの動作を制御するように構成されている。本実施形態において、ロボットR、ロボットコントローラ1、画像センサS、を含むシステムを、ロボットシステムという。キャリブレーションシステム10は、この画像センサSを制御するためのセンサ制御部14、画像センサSにより撮像された画像を処理するための画像処理部16、ロボットRと画像センサS間のキャリブレーションパラメータを算出するためのパラメータ算出部18(演算部)、を有する画像センサ用コントローラ2を備える。さらに、キャリブレーションシステム10は、表示器22と、この表示器22に画像を表示するための表示制御部20とを有する表示装置Dを備える。また、各制御部、各処理部、及び算出部のそれぞれは、後述するハードウェアプロセッサが、所定のプログラムを実行することにより実現される。各制御部、各処理部、及び算出部の間は、有線又は無線通信により互いにデータを送受信可能に構成されている。
ロボットRは、多軸多関節型のロボットアームRであり、床面に固定されたベースと、可動軸として機能する複数のジョイントと、ジョイントに伴って回転動作する複数のリンクを備え、各リンクが、各ジョイントを介して可動自在に接続される構成となっている。ロボットアームRの先端のリンクは、エンドエフェクタEと連結することができる。本実施の形態において、ロボットアームRは、ベースと複数のリンクとがジョイントを介して直列に接続された、6つの自由度を有する垂直多関節ロボットである。
ロボット制御部12は、ロボットRを制御するための制御プログラムを格納する記憶装置と、この制御プログラムに従ってロボットRの各ジョイントに設けられた各サーボモータを回転駆動させるための制御信号を出力するためのプロセッサとを有するロボットコントローラに配置されている。
画像センサSは、画像を撮像して撮像データを取得するための撮像装置であり、例えば、CCDカメラにより構成される。
センサ制御部14は、画像センサSを制御するための制御信号を出力する。また、画像処理部16は、画像センサSにより取得された撮像データを画像処理して、パラメータ算出部18に出力する。センサ制御部14は、画像センサSを制御するための制御信号を演算し、出力するためのプログラムを記憶する記憶装置、及び、プログラムに従って各演算処理を実行するためのプロセッサ、を有する。また、画像処理部16は、撮像データの画像処理を実行して、当該処理結果をパラメータ算出部18に出力するためのプログラムを格納する記憶装置、プログラムに従って各演算処理を実行するためのプロセッサ、を有する。なお、センサ制御部14と画像処理部16とは、一体に構成されて、共通の記憶装置、及び、プロセッサを有していてもよい。また、センサ制御部14と画像処理部16とは、後述のパラメータ算出部18と一体に構成されて、共通の記憶装置、及び、プロセッサを有していてもよい。
パラメータ算出部18は、本実施形態に係るキャリブレーション方法を実行するためのコンピュータプログラムと、このコンピュータプログラムならびに処理中のデータ及び後述する画像データ等を記憶する記憶装置と、コンピュータプログラムに従って各種演算処理を実行するプロセッサから構成される。
ロボット制御部12、センサ制御部14、画像処理部16、パラメータ算出部18、後述する表示制御部20のそれぞれ、又は、これらから選択された少なくともいずれか2つの演算処理に共通して利用されるプロセッサは、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)をCPUと共に、あるいは、単独で用いてもよい。また、ロボット制御部12、センサ制御部14、画像処理部16、パラメータ算出部18、後述する表示制御部20のそれぞれに、又は、これらから選択された少なくともいずれか2つの演算処理に共通して利用される記憶装置は、HDD、SSD等の不揮発性記憶装置と、DRAM、SRAM等の揮発性記憶装置とを有する。
本実施形態では、画像センサコントローラ2(画像センサS側)にパラメータ算出部18を設け、このパラメータ算出部18が備えるプロセッサにより本実施形態に係るキャリブレーション方法に必要な演算処理を実行する構成とした。このように、ロボット制御部12のプロセッサとは別のプロセッサを用いることによって、ロボットRを制御するためのコマンド処理と、キャリブレーションのパラメータ算出に必要な演算処理の負荷を分散させることが可能になる。
別の実施形態では、ロボット制御部12、画像処理部16及びパラメータ算出部18の少なくとも一部を共通のハードウェアを用いて実現するように構成してもよい。たとえば、ロボットコントローラのプロセッサを用いてキャリブレーションを実行するようにしてもよいし、ロボットRを制御するための制御プログラムと、キャリブレーションを実行するためのプログラムを、共通の記憶装置に格納してもよい。その点で、ロボットコントローラ1、画像センサコントローラ2、表示装置D、のうちの少なくともいずれか2つを一体に構成し、プログラムの記憶装置、及び、各演算処理を実行するプロセッサ、を共用してもよい。
表示制御部20は、表示器22に様々なキャリブレーションパターンを表示するための画像データを生成するとともに、生成された画像データを表示器22に出力する。表示器22は、例えば、液晶ディスプレイなどから構成され、表示制御部20から受け取った画像データに基づいて画像を表示する。表示制御部20及び表示器22から構成される表示装置Dは、たとえば、市販されているタブレットやスマートホンなどをハードウェアとして用いることができるが、これに限られるものではなく、それ以外の液晶表示装置や有機EL表示装置でもよい。また、本実施の形態において、表示制御部20と表示器22とを一体として表示装置Dとして表現しているが、表示制御部20と表示器22を表示装置Dとして一体化せず、表示制御部20と表示器22とを分けて設けてもよい。このとき、表示器22は、表示処理等を実行するためのコンピュータプログラムならびに処理中のデータ等を記憶する記憶装置と、コンピュータプログラムに従って各種演算処理を実行するプロセッサとを備えていてよい。
なお、本実施の形態において、画像データは、表示制御部20が有する記憶装置に記憶される。また、画像データは、表示装置Dに表示される画像を形成する画像パターンの情報を含む。画像パターンは、表示装置Dに表示する画像の模様であるキャリブレーションパターンと、表示装置Dに表示する画像の明るさを決定するための情報と、を含む。キャリブレーションパターンの態様については後述する。
図2は、表示装置D(表示器22)をロボットRに固定しながらキャリブレーションを実行する例を示す模式図である。表示装置Dを把持しながらロボットRのロボットアームを動かすことにより、撮像装置Sに対して様々な相対角度及び相対位置で画像パターンを表示することが可能になる。表示装置Dは、ロボットRの先端に連結されたエンドエフェクタEで把持固定される。一方で、撮像装置Sは、たとえば工場の天井などに固定される。なお、表示装置DのロボットRへの固定方法は、エンドエフェクタEによる把持には限定されない。例えば、表示装置Dを、固定治具等の接続構造を介して、ロボットアームRの先端のリンクに固定してもよく、また、所定の接続構造を介してロボットアームRを構成するリンクに固定してもよい。なお、表示装置Dを、ロボットアームRを構成するリンクに固定する場合には、ロボットアームRのうち、最も先端に位置するリンクに固定されていることが好ましい。
図3は、表示装置Dの初期設定手順の一例を示している。まず、表示器22に表示させるキャリブレーションパターンの種類が決定される(S31)。図4には、キャリブレーションパターンの一例が示されている。図4(a)は、正方形の枠線と、この枠線内に等間隔で配列された合計49個(7行7列)の黒点からなる点模様の画像パターンである。ただし正方形の方向を特定するために、角の一つが三角形になるように塗りつぶされている。すなわち、図4(a)に示すキャリブレーションパターンは、枠線内に所定の間隔で配置される黒点(ドット)と、当該パターンの方向を特定するための多角形状のマークマーカと、を含むパターンである。同図(b)には、ARマーカ(左)や二次元バーコード(右)の画像パターンが示されている。同図(c)には、チェッカーボード(黒色の四角形と白色の四角形が互い違いに配列された画像パターン)、同図(d)には、三角形の画像パターンの例が示されている。画像パターンは、ロボットRと画像センサSの位置関係や、キャリブレーションの目的や必要とする精度などに応じて、様々なパターンのものを用いることができる。たとえば、上記した点模様の黒点の個数や、大きさは、任意に設定可能である。本実施形態では、点模様の画像パターンが選択される。表示制御部20は、選択された画像パターンを表示するための画像データを表示器22に出力するように構成されている。
なお、画像パターンに含まれるキャリブレーションパターンは、表示器22に表示される色情報の最小単位である画素(ピクセル)を構成要素とする。そして、少なくとも一つの画素の白黒が反転している場合は、異なる画像パターンとして扱われる。このため、相似形だが大きさが異なる二つの画像パターンは、異なる画像パターンである。
次いで、キャリブレーションパターンの大きさが決定される(S32)。本実施形態においては、以下のように計算される表示器22と画像センサSとの相対距離に基づいてパターンの大きさが決定される。
まず、画像センサSは、ロボットRが設置される工場の天井等に固定されている。このため、画像センサSの位置座標は既知である。同様に、ロボットRのベースを基準とする原点座標(根元座標)も既知である。以上より、これら座標間の相対位置及び相対距離は、設置設計図面や実測等の手段により、数センチメートル単位の誤差で予めもとめられている。
次いで、ロボットアームRの先端座標が求められる。具体的には、ロボットアームの原点座標を基準として、各可動軸の回転角度及び各リンクの長さデータ(形状データ)に基づいて、運動学計算により先端座標が求められる。まず、ロボット制御部12が、各可動軸の回転角度情報を取得し、パラメータ算出部18に出力する。パラメータ算出部18は、受信した回転角度情報と、既知である各リンクの長さデータ及びロボットRの原点座標に基づいて先端座標を算出する。
次いで、表示器22(キャリブレーション・オブジェクト)の座標が求められる。具体的には、ロボットアームRの先端座標を基準として、既知の表示器22の形状データ(長さデータ)に基づいて、ロボットアームRの先端座標を基準とした、表示器22の座標が求められる。なお、ロボットアームRの先端座標系に対する表示器22(キャリブレーション・オブジェクト)の位置及び姿勢が変動自在な場合は、表示器22の形状データに加え、変化した位置及び姿勢に基づいて、表示器22の座標が求められる。次いで、ロボットアームRの先端座標系に対する表示器22の座標に基づき、ロボットアームRの原点座標を基準とした、表示器22の座標が求められる。
そして、算出された表示器22の座標と画像センサSの位置座標とに基づいて、表示器22と画像センサSとの間の相対距離を算出する。
なお、表示器22と画像センサSとの相対距離(第1の相対距離)の代わりに、ロボットアームRの先端座標と画像センサSとの相対距離(第2の相対距離)を用いて、後述する画像パターンの大きさを変更してもよい。表示器22(キャリブレーション・オブジェクト)は、ロボットアームRと比較して小さいこと、また、表示器22の位置姿勢は、ロボットアームRの先端座標の動作に伴って変化すること、から、第1の相対距離に代えて第2の相対距離を用いても、表示器22と画像センサSとの距離の変動に対応でき、かつ、演算量を少なくすることができる。
表示制御部20は、パラメータ算出部18により算出された相対距離に基づいて、ステップS31で選択された画像パターンの大きさを調整した画像データを生成し、表示器22に出力する。表示器22は、受信した画像データに基づき所定の画像パターンを表示する。
なお、表示器22と画像センサSとの間の相対距離を算出する方法は、上述の方法に限られない。例えば、画像センサSによって撮像されたキャリブレーションパターンの画像に含まれる模様の大きさの変動に基づいて、相対距離を算出してもよい。例えば、予め定められ、キャリブレーションパターンに含まれる第1の模様と第2の模様との間隔(第1の間隔)を求めておき、当該第1の間隔の情報と、撮像画像から抽出される第1の模様と第2の模様との間隔(第2の間隔)を示す情報と、画像センサSのセンサパラメータと、に基づいて、相対距離(第3の相対距離)を算出することができる。これによれば、表示器22と画像センサSとの間の距離に応じて変化する撮像画像中のキャリブレーションパターンの大きさに基づいて、画像センサSと表示器22との相対距離を算出し、当該相対距離に応じて、表示する画像パターンの大きさを変動させることができる。
以上のように、第1の相対距離、第2の相対距離、第3の相対距離のいずれを用いても、ロボットアームの先端の座標の変動に応じて、後述の画像パターンの大きさを変更するようにすることができる。
このように、本実施形態におけるキャリブレーション方法では、表示器22と画像センサSとの相対距離に応じて、表示器22に表示される画像パターンの大きさが決定されるように構成されている。本実施形態においては、表示される画像パターンの大きさ(正方形の枠線で囲まれる領域の面積)は、概ね画像センサSの撮像領域の半分程度の大きさを占めるように、予め定められている。
ここで、画像パターンの大きさとは、画像パターンの輪郭で囲まれる部分の面積を意味し、たとえば表示器22のピクセル数で表現することができる。なお、画像パターンの大きさとは、画像パターンの輪郭の内側に存在する模様の大きさ(面積)を意味していてもよい。例えば、図4(a)に示すキャリブレーションパターンにおいて、画像パターンの大きさとは、キャリブレーションパターンの枠線の内側に存在する黒点(ドット)の大きさ、及び、多角形状のマークマーカの大きさを示してよい。また、例えば、同図(b)〜(d)に示すキャリブレーションパターンにおいて、画像パターンの大きさとは、当該キャリブレーションパターンの枠線の内側に存在する模様の大きさを示してよい。これら画像パターンの輪郭の内側に存在する模様の大きさ、画像パターンの輪郭の大きさの変更に応じて変更されてもよく、また、画像パターンの輪郭の大きさの変更によらずに変更されてもよい。
以下、キャリブレーションの具体的な方法について、図面を用いて説明する。本実施形態においては、ロボットアームRが取る様々な姿勢に応じて、表示器22にキャリブレーションパターンとして表示される画像パターンが変化する。
図5は、本実施形態に係るキャリブレーション方法のフローチャートである。
まず、ロボット制御部12からの制御信号に基づいて、ロボットアームRが、撮像を行う測定点に対応した所定の姿勢を取る(S41)。この際、画像センサSにより撮像できる撮像領域内に表示装置Dの表示画面が収まるように、ロボットアームRの姿勢は予め定められている。
次に、上述した方法で、その姿勢におけるロボットアームRの先端座標(表示器22の座標)と、画像センサSとの相対距離がパラメータ算出部18により算出され、算出された相対距離が表示制御部20に対して出力される。続いて、相対距離に基づいた大きさの点模様パターンを表示するための画像データが、表示制御部20により生成され、表示器22に出力される。同時に、センサ制御部14は、表示器22に表示される画像パターンを画像センサSに撮像させ、撮像データを取得する(S42)。
次いで、パラメータ算出部18により、撮像回数が所定の回数(N回)に到達したか否かが判断される(S43)。到達していない場合は、S42〜S43が繰り返される。具体的には、前回と異なる姿勢をロボットアームRに取らせることで前回の測定点とは異なる測定点へ移動する処理と、その際の先端座標(表示器22の座標)と画像センサSとの相対距離を算出する処理と、それに応じた大きさの点模様パターンを表示するための画像データを生成する処理と、表示器22に表示された画像パターンを画像センサSに撮像して撮像データを取得する処理が繰り返し実行される。
ここで、算出された相対距離が短い場合の方が、相対距離が長い場合よりも小さい画像パターンが表示され、相対距離が長い場合の方が、相対距離が短い場合よりも大きい画像パターンが表示される。たとえば、前回の測定点と比較して相対距離が1.2倍大きくなった場合は、前回よりも点模様パターンの正方形の外枠の一辺、ならびに外枠内の各点の直径が、それぞれ1.2倍大きくなるように画像データが生成され、表示器Dに表示される。一方で、前回の測定点と比較して相対距離が0.8倍になった場合は、前回よりも、外枠の一辺、ならびに外枠内の各点の直径が、それぞれ0.8倍小さくなるように画像データが生成され、表示器22に表示される。このような構成とすることにより、画像センサSの撮像領域に対する画像パターンの大きさを所定値以上に維持することが可能になり、ひいては、キャリブレーション精度の向上を図ることが可能になる。
なお、大きさが異なる点模様の画像パターンのみならず、異なる形状の画像パターンを表示させ、撮像してもよい。たとえば、白黒を反転させた画像パターンを表示して、それぞれの撮像データを取得することで、キャリブレーションの精度を向上させることが可能になる。すなわち、表示する少なくとも2つの画像パターンについて、第1の画像パターンと第2の画像パターンとで、表示装置Dに対応した少なくとも1つの画素の色情報を異ならせてもよい。より具体的には、第1の画像パターンと第2の画像パターンとで、表示装置Dに対応した少なくとも1つの画素の白黒を反転させてよい。これによれば、取得できる撮像画像の情報量を増大させて、キャリブレーションの精度を向上させることできる。
また、ロボットアームRを動かしながら、表示器22に表示される画像パターンの大きさを連続的に変化させ、各画像パターンの撮像データを取得するようにしてもよい。たとえば、表示器22が一定の速度で画像センサSに近づくように(あるいは、遠ざかるように)ロボットアームRを制御させながら、一定の大きさで表示器22に表示される画像パターンを小さくするように(あるいは、大きくするように)してもよい。
撮像回数が、所定の回数(N回)に到達し、N個の姿勢に対して表示されたN個の画像パターンが撮像されると、パラメータ算出部18により、N個の撮像データに基づいてキャリブレーション・オブジェクト(キャリブレーションパターンが表示された表示器22)の位置姿勢が算出される(S44)。
次いで、パラメータ算出部18により、算出されたキャリブレーション・オブジェクトの位置姿勢と、ツールの位置姿勢に基づいてロボットとセンサの相対位置姿勢が求められる(S45)。具体的には、下記の計算式に基づいてロボットとセンサの相対的位置関係が取得される。
camcal = cambase * basetool * toolcal
ここで、左辺のcamcalは、撮像装置(カメラ)の座標系に基づくキャリブレーション・オブジェクトの位置姿勢を示す変換行列(回転行列と並進ベクトルを含む)であり、上記ステップのとおり、撮像データに基づいて算出される。
また、basetoolは、ロボットアームRの原点座標系に基づく先端の位置姿勢を示す変換行列であり、上述のとおり、その撮像データが取得された際のロボットアームRの姿勢を構成する各可動軸の回転角度及び既知の各リンクの長さデータに基づいて運動学計算により算出される。
また、toolcalは、ロボットアームRの先端座標系に基づくキャリブレーション・オブジェクトの位置姿勢を示す変換行列であり、エンドエフェクタE及び表示装置Dの大きさ等に基づいて予め取得することができる。なお、ロボットアームRの先端座標系に対する、キャリブレーション・オブジェクトの位置及び姿勢が、少なくとも2回の撮像において変化しない場合には、toolcalで表現される変換行列の演算を省略することができる。toolcalで表現される変換行列の演算を省略することができる場合とは、例えば、ロボットアームRの先端にキャリブレーション・オブジェクトが固定されている条件で、少なくとも2回の撮像が行われた場合である。これによれば、各回の撮像に対応して取得された2組の撮像データを用いてキャリブレーションのための演算を行うときに、ロボットアームRの先端座標系に対するキャリブレーション・オブジェクトの位置姿勢が変化しないという条件を使用することができるので、toolcalで表現される変換行列の演算を省略することができる。
したがって、ロボットRと画像センサSとの相対的位置関係を示す情報として、画像センサSの座標系からみたロボットRの原点座標の位置姿勢を示す変換行列cambaseまたはその逆行列basecamを取得することが可能になる。
以上のステップにより、撮像装置である画像センサSと、ロボットであるロボットアームRとの相対的位置関係を取得するキャリブレーションが完了する。
[変形例]
以下では、上述した第1実施形態の変形例について説明する。重複する記述を省略し、異なる点について説明する。
第1実施形態では、ロボットアームRと表示装置Dを固定して、ロボットアームRを用いて表示装置Dを移動させながら、キャリブレーションに必要な撮像データを取得した。本変形例では、ロボットアームRと画像センサSを固定して、ロボットアームRを用いて画像センサSを移動させながら、キャリブレーションに必要な撮像データを取得する方法について説明する。
まずに、ロボットアームRに画像センサSを固定する。流通しているロボットアームRの中には、画像センサSが予め備え付けられているものもある。このようなロボットアームRであれば、備え付けの画像センサSを用いてキャリブレーションを実行することができる。そうでないロボットアームRについては、画像センサSを、治具等を用いて先端のリンク等に固定する必要がある。一方で、表示器22は、所定の位置に固定される。
図6は、画像センサSが固定されたロボットアームRを用いて、表示器22に表示される画像パターンを撮像する様子を示す模式図である。
以下、キャリブレーションの具体的な方法について、図面を用いて説明する。本変形例においても、ロボットアームRが取る様々な姿勢に応じて、表示器22に表示される画像パターンに含まれるキャリブレーションパターンが変化する。また、図5を本変形例に係るキャリブレーション方法のフローチャートとして用いることができ、画像センサSにより撮像できる撮像領域内に表示器22の表示画面が収まるように、ロボットアームRが所定の姿勢を取る(S41)。
次に、センサ制御部14は、表示器22に表示される画像パターンを画像センサSに撮像させ、撮像データを取得する(S42)。ただし、画像パターンの大きさは、第1実施形態と異なる方法で決定することができる。たとえば、ロボットアームRの先端座標と、固定されている表示器22の位置座標の相対距離に基づいて、画像パターンの大きさを決定することができる。
次いで、パラメータ算出部18により、撮像回数が、所定の回数(N回)に到達したか否かが判断される(S43)。到達していない場合は、S42〜S43が繰り返される。具体的には、ロボットアームRが様々な姿勢を取りながら、画像センサSが、表示器22に表示される様々な画像パターンを撮像して撮像データを取得する。
撮像回数が、所定の回数(N回)に到達すると、パラメータ算出部18により、撮像データに基づいてキャリブレーション・オブジェクト(キャリブレーションパターンが表示された表示器22)の位置姿勢が算出される(S44)。
そして、パラメータ算出部18により、算出されたキャリブレーション・オブジェクトの位置姿勢と、ツールの位置姿勢に基づいてロボットとセンサの相対位置姿勢が求められる(S45)。具体的には、下記の計算式に基づいてロボットとセンサの相対的位置関係が取得される。
camcal = camtool * toolbase * basecal
ここで、左辺のcamcalは、カメラの位置座標系に基づくキャリブレーション・オブジェクトの位置姿勢を示す変換行列(回転行列と並進ベクトルを含む)であり、上記ステップのとおり、撮像データに基づいて算出される。
また、toolbaseは、第1実施形態におけるロボットアームRの原点座標系に基づく先端の位置姿勢を示す変換行列の逆行列であり、その撮像データが取得された際のロボットアームRの姿勢を構成する各可動軸の回転角度及び既知の各リンクの長さデータに基づいて運動学計算により算出される。
また、basecalは、ロボットアームRの原点座標系に基づくキャリブレーション・オブジェクトの位置姿勢を示す変換行列であり、表示器22の位置座標及び表示装置Dの大きさ等に基づいて予め取得することができる。なお、ロボットアームRの原点座標系に対して、キャリブレーション・オブジェクトの位置及び姿勢が、少なくとも2回の撮像において変化しない場合には、basecalで表現される変換行列の演算を省略することができる。basecalで表現される変換行列の演算を省略することができる場合とは、例えば、ロボットアームRを動作させて、その姿勢を変更した前後において、画像センサSによってキャリブレーション・オブジェクトを撮像することができ、キャリブレーション・オブジェクトを固定する場所を変更しなくてもよい場合である。
したがって、ロボットRと画像センサSとの相対的位置関係を示す情報として、画像センサSの座標系からみたロボットRの先端座標の位置姿勢を示す変換行列camtoolまたはその逆行列toolcamを取得することが可能になる。
以上のステップにより、撮像装置である画像センサSと、ロボットアームRの先端座標との相対的位置関係を取得するキャリブレーションが完了する。
以上述べたとおり、本実施形態及びその変形例に基づくキャリブレーション装置によれば、複数のパターンが印刷されたキャリブレーション・オブジェクトを準備することなく、撮像装置である画像センサSと、ロボットアームRとの相対的位置関係を取得することが可能になる。
なお、点模様の画像パターンの正方形枠の大きさ、点の個数、点の間隔は任意に設定することができる。また、キャリブレーションの目的等に応じて様々な画像パターンを組み合わせてキャリブレーションに用いてもよい。
また、キャリブレーションシステム10は、ロボットRと、画像センサS間の相対的な位置関係を出力するための出力部を備えてもよい。
また、表示器22とロボットアームRの先端座標との相対距離に基づかず、それ以外の指標に基づいて画像パターンの大きさを決定するように構成してもよい。たとえば、所定点と、ロボットRの先端座標の距離に応じて画像パターンの大きさを決定してもよい。
また、先端の座標とは、ロボットアームRを構成するリンクのうち、最も先端のリンクの先端の座標のほか、ツール(エンドエフェクタ)の先端または中間の座標等、ロボットアームの最も先端のリンクのみならず、その先(末端)の座標を含む趣旨である。
[第2実施形態]
第2実施形態では第1実施形態と共通の事柄についての記述を省略し、異なる点について説明する。
第1実施形態は、画像センサSとロボットアームRの先端との相対距離に基づいて画像パターンの大きさが変化するようにした。本実施形態は、画像センサSにより撮像されるキャリブレーションパターンのぼけ量に基づいて、キャリブレーションパターン(画像パターン)の大きさが変更される。
まず、ぼけ量に基づく距離の推定方法について説明する。画像センサSの撮像面レンズの焦点距離をfとし、画像センサSと光源Aの距離をuとする場合、ピントが合う距離vは、f-1=u-1+v-1の関係を満足する。したがって、撮像面レンズから撮像面までの距離rが、r=vであれば、ピントの合った画像を得ることができる。一方で、r≠vの場合は、画像センサS(カメラ)の絞りをpとしたときに、q=p*|v−r|/vの直径を有する円として光源Aが撮像面に投影されることとなり、ぼけ量qのぼけが発生する。
したがって、画像パターンとして、点を含む画像データを準備しておき、その点がどの程度の直径を持つ円として撮像されるか撮像データを画像認識することにより、ぼけ量qを得ることができる。そして、既知のp、r及びfならびに上式に基づいて、画像センサSとキャリブレーション・オブジェクトの距離uを推定することが可能になる。
そして、距離uに基づいて、画像パターンの大きさを変更するようにすることで、画像センサSと表示器22が離れても、表示されるキャリブレーションパターンの大きさを大きくすることができる。また、画像センサSと表示器22が近付いても、表示されるキャリブレーションパターンの大きさを小さくして、画像センサSの撮像領域内に、キャリブレーションパターンが収まるようにすることができる。
さらに、ロボットRの先端座標等を計算するための演算処理を省略することが可能になるため、プロセッサへの負荷を軽減することが可能になる。
なお、ぼけ量に基づく距離推定に替えて、画像センサに表示される画像パターンとして、マーカを表示させ、マーカの複数の特徴点間の距離を画像認識により算出するような構成とし、その距離(あるいは姿勢の変化に応じた特徴点間の距離の変化量)に基づいて、画像パターンの大きさを変更するように構成してもよい。
[第3実施形態](ハレーション)
第3実施形態では、上述した各実施形態と共通の事柄についての記述を省略し、異なる点について説明する。
本実施形態に係るキャリブレーションシステムは、照度センサを備える。そして、照度センサによる周辺照度の大きさに応じて、表示器22に表示される画像パターンの明るさを異ならせる。なお、照度センサは、表示器22と一体に設けられていることが好ましい。具体的には、照度が大きい場合(たとえば、表示器22の表示面が天井の照明と対向しているため、表示面で反射した光が画像センサSに受光される場合)は、照度が小さい場合と比較して、相対的に画像パターンが暗く表示されるような画像データに基づき画像パターンを表示器22に表示させ、照度が小さい場合(たとえば、表示器22の表示面が床側を向いているため、天井の照明がほとんど画像センサSに受光されないような場合)は、照度が大きい場合と比較して、相対的に画像パターンが明るく表示されるような画像データに基づき画像パターンを表示器22に表示させることで、天井に設置された照明等が原因となって発生するハレーション(光線が強すぎるために被写体の周辺が白くぼやけて不鮮明になる現象)の影響を軽減してキャリブレーションを実行することが可能になる。
たとえば、画像センサSと表示器22の相対距離を変更することなく、画像センサSに対する表示器22の相対角度を変更するようにロボットアームRを制御し、表示させる画像の明るさを照度計の出力に応じて変更することで、ハレーションに伴うキャリブレーション精度の劣化を抑制することが可能になる。
なお、照明の位置が既知であるような場合は、ロボットアームRの位置姿勢や推定される表示器22の表示面の床面に対する角度などに基づいて、明るさを示す画像データを調整するような構成としてもよい。
また、照度センサは、表示装置Dとして、タブレット型の携帯情報処理端末やスマートホンを利用する場合は、これら端末に予め備わっている照度センサを用いてもよい。
また、本実施形態において、画像データとは、表示される画像の形状のみならず明るさを異ならせるものも含む趣旨であり、ピクセルごとに指定される明度を示すデータのみならず、表示器22のバックライトの出力を規定する制御データや、明るさの度合いを示すデータも含む。
[第4実施形態](表示装置の機能の利用、入力部やセンサなど)
第4実施形態では上述した実施形態と共通の事柄についての記述を省略し、異なる点について説明する。
上述した実施形態は、プロセッサを用いて画像センサSとロボットアームRの先端との相対距離等を算出した。しかしながら、表示装置Dに多様な機能を持たせることで、プロセッサ等を用いた複雑な演算処理に代用させることが可能になる。
たとえば、図7に示されるように、表示装置Dに入力I/F(入力手段)を設け、ロボットRと画像センサSとの相対位置姿勢の概算値、画像センサSの計測レンジ及び視野範囲の入力(あるいは、これらを規定する画像センサSの型番などの入力)を受け付ける構成とし、入力された値に応じて自動的に適切な大きさ、形状及び明るさの画像パターンを表示させるような構成とすることができる。また、複数のキャリブレーション・オブジェクトの形状を表示器22にスクロールさせて表示させながら、選択できるような構成としてもよい。なお、入力I/Fは、図7に示す態様には特に限定されない。例えば、表示装置Dが有し、外部機器との有線又は無線による電気通信が行われる通信I/Fを介して、画像パターンの内容を決定する情報を入力してもよい。
また、表示装置DまたはロボットアームRに加速度センサ、速度センサまたは傾き(ジャイロ)センサを設け、ロボットアームRの移動量や傾きをこれらセンサの計測データに基づいて、自動的に適切な大きさ、形状及び明るさの画像パターンを表示させるような構成とすることもできる。
このような構成とすることにより、適切な形状や大きさ等の画像パターンを客観的に選択することが可能になる。また、ロボットアームRから相対距離等を算出するためのデータを受け取るための送受信の物理的な構成等が不要となり、表示装置Dのみにより画像パターンを表示するための画像データを決定することが可能になる。さらに、表示装置Dとして、携帯端末(タブレットやスマートホン)を用いる場合は、もともと備わっている入力手段や、各種センサを利用することが可能になる。
なお、全ての実施形態において、同一の測定点において、異なる画像パターンに基づいて画像を表示し、同一の測定点について取得した複数の撮像画像に基づいて、キャリブレーションの演算を行うようにしてもよい。ここで、異なる画像パターンとは、表示装置Dに対応した少なくとも1つの画素の色情報が異なること画像パターンであることが好ましく、特に、表示装置の少なくとも1つの画素の白黒が反転している画像パターンであることが好ましい。これによれば、各測定点において、取得できる撮像画像の情報量を増大させて、キャリブレーションの精度を向上させることできる。すなわち、同一測定点においても、異なる態様の複数種類の画像パターンを表示して、キャリブレーション演算の根拠となる数値情報を増大させることができる。したがって、これによれば、同一測定点において取得した複数種類の画像パターンを用いてキャリブレーションの演算処理を行うことができるから、キャリブレーションの精度を向上させることができる。
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
なお、本明細書において、「部」や「手段」、「手順」とは、単に物理的構成を意味するものではなく、その「部」等が行う処理をソフトウェアによって実現する場合も含む。また、1つの「部」等や、装置が行う処理が2つ以上の物理的構成や装置により実行されても、2つ以上の「部」等や、装置が行う処理が1つの物理的手段や装置により実行されてもよい。
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
表示装置と、撮像装置と、前記表示装置または前記撮像装置のいずれか一方が固定され、駆動軸を有するロボットアームと、を備えたロボットシステムにおいて、前記撮像装置の座標系と前記ロボットアームの座標系とをキャリブレーションする方法であって、
第1の画像データに基づいて、前記表示装置に第1の画像を表示させるステップと、
前記撮像装置を用いて、前記表示装置に表示された前記第1の画像を撮像して、第1の撮像データを取得するステップと、
前記第1の画像データとは異なる第2の画像データに基づいて、前記表示装置に第2の画像を表示させるステップと、
前記撮像装置を用いて、前記表示装置に表示された前記第2の画像を撮像して、第2の撮像データを取得するステップと、
前記第1の撮像データ及び前記第2の撮像データを用いて、前記撮像装置の座標系と前記ロボットアームの座標系とをキャリブレーションするステップと、を含むキャリブレーション方法。
(付記2)
表示装置と、撮像装置と、前記表示装置または前記撮像装置のいずれか一方が固定され、駆動軸を有するロボットアームと、を備えたロボットシステムにおいて、前記撮像装置の座標系と前記ロボットアームの座標系とをキャリブレーションする方法であって、
第1の画像データに基づいて、前記表示装置に第1の画像を表示させるステップと、
前記撮像装置を用いて、前記表示装置に表示された前記第1の画像を撮像して、第1の撮像データを取得するステップと、
前記第1の撮像データを用いて、前記撮像装置の座標系と前記ロボットアームの座標系とをキャリブレーションするステップと、を含むキャリブレーション方法。
(付記3)
表示装置と、撮像装置と、前記表示装置または前記撮像装置のいずれか一方が固定され、駆動軸を有するロボットアームと、を備えたロボットシステムにおいて、前記撮像装置の座標系と前記ロボットアームの座標系とをキャリブレーションする方法を実行するためのプログラムであって、
コンピュータに、
第1の画像データに基づいて、前記表示装置に第1の画像を表示させるステップと、
前記表示装置に表示された前記第1の画像を前記撮像装置に撮像させて第1の撮像データを取得させるステップと、
前記第1の画像データとは異なる第2の画像データに基づいて、前記表示装置に第2の画像を表示させるステップと、
前記表示装置に表示された前記第2の画像を前記撮像装置に撮像させて第2の撮像データを取得させるステップと、
前記第1の撮像データ及び前記第2の撮像データを用いて、前記撮像装置の座標系と前記ロボットアームの座標系とをキャリブレーションさせるステップと、を実行させるためのプログラム。
(付記4)
第1の画像データに基づいて第1の画像を表示し、かつ、前記第1の画像データとは異なる第2の画像データに基づいて第2の画像を表示するための表示装置と、
前記第1の画像及び前記第2の画像をそれぞれ撮像して、第1の撮像データ及び第2の撮像データをそれぞれ取得するための撮像装置と、
前記表示装置または前記撮像装置のいずれか一方が固定され、前記表示装置と前記撮像装置との相対位置を変更するためのロボットアームと、
前記第1の撮像データ及び前記第2の撮像データを用いて、前記撮像装置の座標系と前記ロボットアームの座標系とをキャリブレーションするための演算を行う演算部と、を備えるキャリブレーションシステム。
10…キャリブレーションシステム、12…ロボット制御部、14…センサ制御部、16…画像処理部、18…パラメータ算出部、20…表示制御部、22…表示器、D…表示装置、R…ロボット、S…画像センサ。

Claims (19)

  1. 表示装置と、撮像装置と、前記表示装置または前記撮像装置のいずれか一方が固定され、駆動軸を有するロボットアームと、を備えたロボットシステムにおいて、前記撮像装置の座標系と前記ロボットアームの座標系とをキャリブレーションする方法であって、
    第1の画像データに基づいて、前記表示装置に第1の画像を表示させるステップと、
    前記撮像装置を用いて、前記表示装置に表示された前記第1の画像を撮像して、第1の撮像データを取得するステップと、
    前記第1の画像データとは異なる第2の画像データに基づいて、前記表示装置に第2の画像を表示させるステップと、
    前記撮像装置を用いて、前記表示装置に表示された前記第2の画像を撮像して、第2の撮像データを取得するステップと、
    前記第1の撮像データ及び前記第2の撮像データを用いて、前記撮像装置の座標系と前記ロボットアームの座標系とをキャリブレーションするステップと、を含み、
    前記第1の画像を表示させるステップと、前記第2の画像を表示させるステップと、において、
    前記第1の画像データまたは前記第2の画像データは、表示される前記第1の画像または前記第2の画像のパターンの大きさが、前記撮像装置と前記表示装置との距離に応じて変更されるように構成されるキャリブレーション方法。
  2. 前記第1の画像データと前記第2の画像データとは、表示される画像のパターンを示すデータ、または、表示される画像の明るさを示すデータ、が異なることを特徴とする請求項1に記載のキャリブレーション方法。
  3. 前記第1の画像データと前記第2の画像データとは、表示される画像のパターンを示すデータであって、前記表示装置に表示する画像の少なくとも1つの画素の色に関するデータ、が異なることを特徴とする、請求項1または2に記載のキャリブレーション方法。
  4. 前記第1の撮像データを取得した後に、前記ロボットアームを用いて、前記表示装置と前記撮像装置との相対位置を変更するステップを更に含み、
    前記相対位置を変更するステップの後に、前記第2の撮像データを取得するステップを実行する請求項1から3のいずれか一項に記載のキャリブレーション方法。
  5. 前記第1の画像を表示させるステップと、前記第2の画像を表示させるステップと、において、
    前記第1の画像データまたは前記第2の画像データは、表示される前記第1の画像または前記第2の画像のパターンの大きさが、前記ロボットアームの先端の座標に応じて変更されるように構成される請求項1から4のいずれか一項に記載のキャリブレーション方法。
  6. 前記第1の撮像データを取得した後に、前記ロボットアームを用いて、前記表示装置と前記撮像装置との相対角度を変更するステップを更に含み、
    前記第1の画像データと前記第2の画像データとは、少なくとも表示される画像の明るさを示すデータが異なる請求項1からのいずれか一項に記載のキャリブレーション方法。
  7. 前記第1の撮像データを取得するステップにおける、前記表示装置に対する前記撮像装置の相対的位置姿勢と、前記第2の撮像データを取得するステップにおける、前記表示装置に対する前記撮像装置の相対的位置姿勢は、同一であることを特徴とする、請求項1から3のいずれか一項に記載のキャリブレーション方法。
  8. 前記表示装置は、明るさを計測するためのセンサと、前記センサの検出値に基づいて、前記第1の画像データまたは前記第2の画像データを変更する演算部と、を備えており、
    前記第1の画像を表示させるステップと、前記第2の画像を表示させるステップと、において、
    前記第1の画像データまたは前記第2の画像データは、表示される前記第1の画像または第2の画像の明るさが、前記明るさを計測するためのセンサの検出値に応じて変更されるように構成される請求項1からのいずれか一項に記載のキャリブレーション方法。
  9. 前記表示装置は、情報を入力するための入力部と、前記入力された情報に基づいて前記第1の画像データまたは前記第2の画像データを変更する演算部と、を備えており、
    前記第1の画像を表示させるステップと、前記第2の画像を表示させるステップと、において、
    前記第1の画像データまたは前記第2の画像データは、表示される前記第1の画像または前記第2の画像のパターンの大きさ及び明るさが、前記入力された情報に応じて変更されるように構成される請求項1からのいずれか一項に記載のキャリブレーション方法。
  10. 前記表示装置と前記ロボットアームとは固定されており、
    前記表示装置は、前記ロボットアームの移動量を計測するためのセンサを備え、
    前記第1の画像データまたは前記第2の画像データは、表示される前記第1の画像または前記第2の画像のパターンの大きさが、前記移動量に基づいて算出される前記表示装置と前記撮像装置との距離に基づいて決定される請求項1〜4、6、8のいずれか一項に記載のキャリブレーション方法。
  11. 前記表示装置と前記ロボットアームとは固定されており、
    前記表示装置は、前記ロボットアームの傾きを計測するためのセンサを備え、
    前記第1の画像データ及び前記第2の画像データの少なくともいずれか一方に基づいて表示される画像の明るさを示すデータは、前記傾きに基づいて算出される前記表示装置と前記撮像装置との相対角度に基づいて決定される請求項1から及び10のいずれか一項に記載のキャリブレーション方法。
  12. 表示装置と、撮像装置と、前記表示装置または前記撮像装置のいずれか一方が固定され、駆動軸を有するロボットアームと、を備えたロボットシステムにおいて、前記撮像装置の座標系と前記ロボットアームの座標系とのをキャリブレーションする方法であって、
    第1の画像データに基づいて、前記表示装置に第1の画像を表示させるステップと、
    前記撮像装置を用いて、前記表示装置に表示された前記第1の画像を撮像して、第1の撮像データを取得するステップと、
    前記第1の撮像データを用いて、前記撮像装置と前記ロボットアームとの相対的位置関係をキャリブレーションするステップと、を含み、
    前記第1の画像を表示させるステップにおいて、
    前記第1の画像データは、表示される前記第1の画像のパターンの大きさが、前記撮像装置と前記表示装置との距離に応じて変更されるように構成されるキャリブレーション方法。
  13. 前記第1の画像データは、表示される画像のパターンを示すデータ、または、表示される画像の明るさを示すデータ、が撮像環境に応じて決定されることを特徴とする請求項12に記載のキャリブレーション方法。
  14. 表示装置と、撮像装置と、前記表示装置または前記撮像装置のいずれか一方が固定され、駆動軸を有するロボットアームと、を備えたロボットシステムにおいて、前記撮像装置の座標系と前記ロボットアームの座標系とをキャリブレーションする方法を実行するためのプログラムであって、
    コンピュータに、
    第1の画像データに基づいて、前記表示装置に第1の画像を表示させるステップと、
    前記表示装置に表示された前記第1の画像を前記撮像装置に撮像させて第1の撮像データを取得させるステップと、
    前記第1の画像データとは異なる第2の画像データに基づいて、前記表示装置に第2の画像を表示させるステップと、
    前記表示装置に表示された前記第2の画像を前記撮像装置に撮像させて第2の撮像データを取得させるステップと、
    前記第1の撮像データ及び前記第2の撮像データを用いて、前記撮像装置の座標系と前記ロボットアームの座標系とをキャリブレーションさせるステップと、を実行させ、
    前記第1の画像を表示させるステップと、前記第2の画像を表示させるステップと、において、
    前記第1の画像データまたは前記第2の画像データは、表示される前記第1の画像または前記第2の画像のパターンの大きさが、前記撮像装置と前記表示装置との距離に応じて変更されるように構成されるプログラム。
  15. 前記第1の画像データと前記第2の画像データとは、表示される画像のパターンを示すデータ、または、表示される画像の明るさを示すデータ、が異なることを特徴とする請求項請求項14に記載のプログラム。
  16. 前記第1の画像データと前記第2の画像データとは、表示される画像のパターンを示すデータであって、前記表示装置に表示する画像の少なくとも1つの画素の色に関するデータ、が異なることを特徴とする、請求項14又は15に記載のプログラム。
  17. 第1の画像データに基づいて第1の画像を表示し、かつ、前記第1の画像データとは異なる第2の画像データに基づいて第2の画像を表示するための表示装置と、
    前記第1の画像及び前記第2の画像をそれぞれ撮像して、第1の撮像データ及び第2の撮像データをそれぞれ取得するための撮像装置と、
    前記表示装置または前記撮像装置のいずれか一方が固定され、駆動軸を有するロボットアームと、
    前記第1の撮像データ及び前記第2の撮像データを用いて、前記撮像装置の座標系と前記ロボットアームの座標系とをキャリブレーションするための演算を行う演算部と、を備え、
    前記第1の画像データまたは前記第2の画像データは、表示される前記第1の画像または前記第2の画像のパターンの大きさが、前記撮像装置と前記表示装置との距離に応じて変更されるように構成されるキャリブレーションシステム。
  18. 前記第1の画像データと前記第2の画像データとは、表示される画像のパターンを示すデータ、または、表示される画像の明るさを示すデータ、が異なることを特徴とする請求項17に記載のキャリブレーションシステム。
  19. 前記第1の画像データと前記第2の画像データとは、表示される画像のパターンを示すデータであって、前記表示装置に表示する画像の少なくとも1つの画素の色に関するデータ、が異なることを特徴とする、請求項17又は18に記載のキャリブレーションシステム。
JP2017154016A 2017-08-09 2017-08-09 キャリブレーション方法、キャリブレーションシステム及びプログラム Active JP6886620B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017154016A JP6886620B2 (ja) 2017-08-09 2017-08-09 キャリブレーション方法、キャリブレーションシステム及びプログラム
CN201810768081.8A CN109382821B (zh) 2017-08-09 2018-07-12 校准方法、校准系统及程序
EP18183152.0A EP3446838A1 (en) 2017-08-09 2018-07-12 Calibration method, calibration system, and program
US16/038,554 US10940591B2 (en) 2017-08-09 2018-07-18 Calibration method, calibration system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017154016A JP6886620B2 (ja) 2017-08-09 2017-08-09 キャリブレーション方法、キャリブレーションシステム及びプログラム

Publications (2)

Publication Number Publication Date
JP2019030943A JP2019030943A (ja) 2019-02-28
JP6886620B2 true JP6886620B2 (ja) 2021-06-16

Family

ID=63103746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017154016A Active JP6886620B2 (ja) 2017-08-09 2017-08-09 キャリブレーション方法、キャリブレーションシステム及びプログラム

Country Status (4)

Country Link
US (1) US10940591B2 (ja)
EP (1) EP3446838A1 (ja)
JP (1) JP6886620B2 (ja)
CN (1) CN109382821B (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112423943B (zh) * 2018-07-13 2024-08-13 Abb瑞士股份有限公司 诊断方法和设备
GB2582139B (en) * 2019-03-11 2021-07-21 Arrival Ltd A method for determining positional error within a robotic cell environment
US10906184B2 (en) * 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
JP7443014B2 (ja) * 2019-10-08 2024-03-05 大豊精機株式会社 ロボットアーム試験装置
CN114945450B (zh) * 2020-01-14 2024-10-01 发那科株式会社 机器人系统
CA3170703A1 (en) 2020-02-06 2021-08-12 Berkshire Grey Operating Company, Inc. Systems and methods for camera calibration with a fiducial of unknown position on an articulated arm of a programmable motion device
CN115211097A (zh) * 2020-03-03 2022-10-18 索尼集团公司 信息处理设备、信息处理方法及信息处理系统
JP7547994B2 (ja) * 2020-12-22 2024-09-10 トヨタ自動車株式会社 撮影システム、その撮影方法及びプログラム
CN117529270A (zh) * 2021-06-07 2024-02-06 爱尔康公司 机器人相机系统的光轴校准
JP2023175167A (ja) * 2022-05-30 2023-12-12 セイコーエプソン株式会社 キャリブレーション方法およびロボットシステム
CN115042175B (zh) * 2022-06-10 2024-07-16 合肥工业大学 一种机器人机械臂末端姿态的调整方法
WO2024068477A1 (en) * 2022-09-30 2024-04-04 Admv Sas A modular system of configurable devices for adjustable robotic production lines
US12094171B2 (en) * 2022-11-16 2024-09-17 Google Llc Calibrating camera in electronic device
DE102023105674A1 (de) 2023-03-07 2024-09-12 Isios Gmbh Verfahren und Anordnung zur Kompensation nicht-geometrischer Fehlereinflüsse auf eine Roboterabsolutgenauigkeit mittels eines Laser-Sensor-Systems

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3512092B2 (ja) * 1994-07-29 2004-03-29 マツダ株式会社 キャリブレーション装置
JP2008014940A (ja) * 2006-06-08 2008-01-24 Fast:Kk 平面状被撮像物のカメラ計測のためのカメラキャリブレーション方法、および応用計測装置
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
CN102294695A (zh) * 2010-06-25 2011-12-28 鸿富锦精密工业(深圳)有限公司 机器人标定方法及标定系统
US8872897B2 (en) * 2011-05-11 2014-10-28 Intel Corporation Camera calibration using an easily produced 3D calibration pattern
US8743214B2 (en) * 2011-05-11 2014-06-03 Intel Corporation Display screen for camera calibration
JP5928114B2 (ja) * 2012-04-12 2016-06-01 セイコーエプソン株式会社 ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット
US9330606B2 (en) * 2012-06-08 2016-05-03 Apple Inc. Electronic device with display brightness control
JP6108860B2 (ja) * 2013-02-14 2017-04-05 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法
JP6429473B2 (ja) 2014-03-20 2018-11-28 キヤノン株式会社 ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
US20150268748A1 (en) * 2014-03-20 2015-09-24 Shenzhen Lexyz Technology Co., Ltd. Interactive control and display method and system
US9193073B1 (en) * 2014-10-15 2015-11-24 Quanta Storage Inc. Robot calibration apparatus for calibrating a robot arm
JP6121063B1 (ja) * 2014-11-04 2017-04-26 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd カメラ較正方法、デバイス及びシステム
GB2541884A (en) * 2015-08-28 2017-03-08 Imp College Of Science Tech And Medicine Mapping a space using a multi-directional camera
DE102016116702B4 (de) * 2015-09-14 2019-01-24 Fanuc Corporation Messsystem zum Kalibrieren der mechanischen Parameter eines Roboters
JP2018012184A (ja) * 2016-07-22 2018-01-25 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP6527178B2 (ja) * 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
JP6396516B2 (ja) * 2017-01-12 2018-09-26 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
CN106887023A (zh) * 2017-02-21 2017-06-23 成都通甲优博科技有限责任公司 用于双目摄像机标定的标定板及其标定方法和标定系统
CN106920261B (zh) * 2017-03-02 2019-09-03 江南大学 一种机器人手眼静态标定方法
JP6897396B2 (ja) * 2017-07-28 2021-06-30 セイコーエプソン株式会社 制御装置、ロボットシステムおよび制御方法
TWI668541B (zh) * 2017-09-29 2019-08-11 財團法人工業技術研究院 機器人工具中心點校正系統及其方法
WO2019071133A1 (en) * 2017-10-06 2019-04-11 Advanced Solutions Life Sciences, Llc END EFFECTOR CALIBRATION ASSEMBLIES, SYSTEMS, AND METHODS
JP7062911B2 (ja) * 2017-10-11 2022-05-09 セイコーエプソン株式会社 ロボットシステム
US10399227B1 (en) * 2019-03-29 2019-09-03 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control

Also Published As

Publication number Publication date
JP2019030943A (ja) 2019-02-28
US20190047152A1 (en) 2019-02-14
CN109382821B (zh) 2022-02-11
US10940591B2 (en) 2021-03-09
EP3446838A1 (en) 2019-02-27
CN109382821A (zh) 2019-02-26

Similar Documents

Publication Publication Date Title
JP6886620B2 (ja) キャリブレーション方法、キャリブレーションシステム及びプログラム
KR102532072B1 (ko) 로봇 모션 용 비전 시스템의 자동 핸드-아이 캘리브레이션을 위한 시스템 및 방법
CN108297096B (zh) 校准装置、校准方法以及计算机能够读取的介质
JP5850962B2 (ja) ビジュアルフィードバックを利用したロボットシステム
CN106767393B (zh) 机器人的手眼标定装置与方法
JP5233601B2 (ja) ロボットシステム、ロボット制御装置およびロボット制御方法
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP5612916B2 (ja) 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
EP3421930B1 (en) Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method
JP6489776B2 (ja) 座標系校正方法、ロボットシステム、プログラム及び記録媒体
JP2019113895A (ja) ワークを撮像する視覚センサを備える撮像装置
US10724963B2 (en) Device and method for calculating area to be out of inspection target of inspection system
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
JP2020012669A (ja) 物体検査装置、物体検査システム、及び検査位置を調整する方法
CN112767479B (zh) 位置信息检测方法、装置、系统及计算机可读存储介质
JP6180158B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法、およびプログラム
KR20130075712A (ko) 레이저비전 센서 및 그 보정방법
JP2009175012A (ja) 計測装置および計測方法
JP2019045989A (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP5573537B2 (ja) ロボットのティーチングシステム
JP2014144516A (ja) ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム
JP2014238687A (ja) 画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム
EP4129584A1 (en) Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device
CN110900606B (zh) 一种基于小型机械臂手眼联动系统及其控制方法
TWI704473B (zh) 視線向量偵測方向與裝置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210428

R150 Certificate of patent or registration of utility model

Ref document number: 6886620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250