Nothing Special   »   [go: up one dir, main page]

JP6180087B2 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP6180087B2
JP6180087B2 JP2012153961A JP2012153961A JP6180087B2 JP 6180087 B2 JP6180087 B2 JP 6180087B2 JP 2012153961 A JP2012153961 A JP 2012153961A JP 2012153961 A JP2012153961 A JP 2012153961A JP 6180087 B2 JP6180087 B2 JP 6180087B2
Authority
JP
Japan
Prior art keywords
orientation
distance image
information
estimation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012153961A
Other languages
English (en)
Other versions
JP2013036988A (ja
Inventor
圭祐 立野
圭祐 立野
内山 晋二
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012153961A priority Critical patent/JP6180087B2/ja
Publication of JP2013036988A publication Critical patent/JP2013036988A/ja
Application granted granted Critical
Publication of JP6180087B2 publication Critical patent/JP6180087B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37425Distance, range
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40548Compare measured distances to obstacle with model of environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30141Printed circuit board [PCB]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は情報処理装置及び情報処理方法に関し、特に、3次元形状が既知である物体の位置及び姿勢を計測するために用いて好適な技術に関する。
近年、これまで人間が行なっていた工業製品の組立のような複雑なタスクをロボットが代わりに行うようになりつつある。ロボットによる工業製品の組立では、ハンドなどのエンドエフェクタによって部品を把持するために、部品とロボット(ハンド)との間の相対的な位置及び姿勢を高精度に計測する必要がある。
物体の位置及び姿勢を高精度に計測できる技術として、カメラから得られる2次元画像(濃淡画像・カラー画像)と距離センサから得られる距離画像を同時に利用して位置姿勢を推定する技術が、以下に示す文献で開示されている。非特許文献1では、距離画像中の3次元点群とともに、2次元画像上の特徴を奥行きが不定な3次元の点として扱い、物体の位置及び姿勢を計測する手法が開示されている。
また、非特許文献2では、2次元の濃淡画像上で計量される誤差と距離画像空間内で計量される誤差とを、最尤推定に基づく定式化により同時に最適化することで、高精度に位置及び姿勢を計測する手法が開示されている。
特開2005−201824号公報
Y. Hel‐Or and M. Werman, "Pose estimation by fusing noisy data of different dimensions, " IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.17,no.2, pp.195−201, 1995. 立野,小竹,内山,"実部品のビンピッキングのための距離・濃淡画像を最尤に統合する高精度高安定なモデルフィッティング手法",第13回画像の認識・理解シンポジウム(MIRU2010),OS5−1,2010.
従来技術である2次元画像と距離画像を併用した位置姿勢推定手法では、2次元画像撮像時と、距離画像撮像時とで、撮像装置と計測対象物体との間の相対的な位置関係が変化しないことが前提である。
一方、パターン投影法などで距離画像を撮影する場合、2次元画像と距離画像とで、異なる照明パターンを当てなければならず、原理的に同時刻に濃淡画像と距離画像を撮影することが出来ない。したがって、例えば、ロボットアーム上に撮像装置を設置して当該装置を移動させながら物体の位置及び姿勢を計測する場合。或いは、ベルトコンベアーによって移動している物体の位置及び姿勢を計測する場合では、2次元画像撮像時と距離画像撮像時で撮像装置と計測対象物体との間の位置関係が異なってしまう。このため、従来技術により物体位置姿勢の推定を行った場合、精度の低下や処理の破綻が発生してしまう。
一方、ロボットアームなどによって撮像装置または計測対象物体が移動する場合は、ロボットのモーション情報を参照することで、撮像時刻間における撮像装置または計測対象物体の移動量を取得することが可能である。このような撮像時刻間に移動する位置姿勢差分量を利用して、撮像時刻と撮像位置姿勢とが異なる複数の画像から計測対象物体の位置姿勢を推定する技術として、例えば特許文献1に記述されるような、モーションステレオと呼ばれる技術が公知としてある。
しかし、これまで提案されているロボットモーション情報を用いたモーションステレオは、2次元画像のみを利用することを前提としたものである。このため、距離画像を用いて、または、2次元画像と距離画像を併用して用いて位置姿勢を推定する場合に適用できない問題点があった。
本発明は前述の問題点に鑑み、撮像装置と計測対象物体との間の位置または/及び姿勢の関係が高速に変化している場合であっても、2次元画像及び距離画像を用いて、当該物体の位置及び姿勢の計測を精度良く行えるようにすることを目的とする。
本発明の情報処理装置は、2次元画像及び距離画像が撮像可能な撮像装置により、被測定物体の3次元的な位置姿勢を推定する情報処理装置であって、被測定物体の位置姿勢推定用照合データを保存する位置姿勢推定用照合データ保存手段と、第1の位置姿勢の前記撮像装置により第1の時刻に撮影された2次元画像を入力する2次元画像入力手段と、第2の位置姿勢の前記撮像装置により前記第1の時刻と異なる第2の時刻に撮像された距離画像を入力する距離画像入力手段と、前記第1の位置姿勢と前記第2の位置姿勢の相対位置姿勢情報である位置姿勢差分情報を取得する相対位置姿勢情報入力手段と、前記位置姿勢差分情報に基づき、前記2次元画像及び前記距離画像に対して、前記位置姿勢推定用照合データが当てはまるように被測定物体の位置姿勢を算出する位置姿勢推定手段と、を有することを特徴とする。
本発明によれば、2次元画像または距離画像の撮像間において計測対象物体または計測装置が移動する場合においても、2次元画像と距離画像を併用した高精度な対象物体の位置姿勢推定処理を行うことが可能となる。また、計測対象物体または計測装置が移動しながら距離画像のみを撮像する場合においても、複数の視点から撮像された距離画像を併用して位置姿勢推定処理を行うことで、高精度な推定が可能となる。
本発明の実施形態における情報処理装置の構成例を示す図である。 ロボットアームと撮像装置、計測対象部品との関係を説明する図である。 時刻間に撮像装置が移動している場合撮像装置の状態を説明する図である。 位置姿勢推定方法の処理手順を示すフローチャートである。 位置姿勢算出の詳細な処理手順を説明するフローチャートである。
以下、添付図面を参照して本発明の好適な実施形態について詳細に説明する。
[ハンドアイロボット系による実施形態]
本実施形態では、情報処理装置を、図2(a)に示すような撮像装置が先端に装着されたロボットアームが移動しながら、固定された計測対象物体50を撮像するシーンにおける、物体位置姿勢推定手法に適用した場合について説明する。
本実施形態では、1回の画像の取得は、濃淡画像を撮影した後、距離画像を撮影するという順番で行う。濃淡画像の撮影と距離画像の計測は、基本的に異なる時刻において実行されるため、時刻間に撮像装置が移動している場合は、図3中310及び320に示すように、2種の画像の撮像時における物体と撮像装置との相対的な位置姿勢は異なる。この撮像時刻間に移動する撮像装置の位置姿勢差分量を、ロボットアームのモーション情報から取得し、2次元画像及び距離画像と合わせて利用することで、撮像装置と計測対象物体50の相対的な位置及び姿勢を高精度に推定する。
図1は、本発明の一実施の形態に係わる情報処理装置1の構成の一例を示す図である。情報処理装置1は、2次元画像及び距離画像が撮像可能な撮像装置により、被測定物体の3次元的な位置姿勢を推定する。情報処理装置1は、位置姿勢推定用照合データ保存部110と、2次元画像入力部120と、距離画像入力部130と、概略位置姿勢入力部140と、相対位置姿勢情報入力部150と、位置姿勢算出部160とを具備して構成される。
また、位置姿勢推定用照合データ保存部110は、位置姿勢推定用照合データ10を保存し、位置姿勢算出部160に接続されている。2次元画像撮像装置20は、2次元画像入力部120に接続されている。距離画像撮像装置30は、距離画像入力部130に接続されている。ロボット40は、相対位置姿勢情報入力部150に接続されている。なお、本実施形態では、位置姿勢推定用照合データ保存部110に保存された位置姿勢推定用照合データ10が、現実に撮像される観察対象物体の形状に即していることが情報処理装置1を適用できる条件となる。
次に、情報処理装置1を構成する各部について説明する。
位置姿勢推定用照合データ10は、計測対象となる物体(以下、計測対象物体、又は単に物体と呼ぶ場合もある)の形状を表す3次元幾何情報である。以下、位置姿勢推定用照合データ10を3次元形状モデルと呼称する。3次元形状モデルは、点の集合や各点を結んで構成される面の情報、面を構成する線分の情報によって定義される。3次元形状モデルは、位置姿勢推定用照合データ保存部110に保存され、位置姿勢算出部160に入力される。
2次元画像撮像装置20は、通常の2次元画像を撮影するカメラである。撮影される2次元画像は濃淡画像であってもよいしカラー画像であってもよい。本実施形態では2次元画像撮像装置20は濃淡画像を出力する。2次元画像撮像装置20が第1の位置姿勢において撮影した2次元画像は、2次元画像入力部120を介して、情報処理装置1に入力される。
カメラの焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータは、使用する機器の仕様を参照するか、または、[R. Y. Tsai、 "A versatile camera calibration technique for high−accuracy 3D machine vision metrology using off−the−shelf TV cameras and lenses、 " IEEE Journal of Robotics and Automation、 vol.RA−3、 no.4、 1987.]、で開示される方法により事前にキャリブレーションしておく。
距離画像撮像装置30は、計測対象である被測定物体の表面上の点の3次元情報を計測するために、第2の位置姿勢において距離画像を撮像する。撮像した距離画像は、距離画像入力部130を介して、情報処理装置1に入力される。距離画像撮像装置30として距離画像を出力する距離センサを用いる。距離画像は、各画素が奥行きの情報を持つ画像である。本実施形態では、距離センサとしては、波長の異なる色IDを付与したマルチスリットラインを対象に照射し、その反射光をカメラで撮像して三角測量によって距離計測を行うワンショットアクティブ式のものを利用する。しかしながら、距離センサはこれに限るものではなく、光の飛行時間を利用するTime−of−flight方式であってもよい。また、ステレオカメラが撮影する画像から三角測量によって各画素の奥行きを計算するパッシブ式であってもよい。
その他、距離画像を計測するものであればいかなるものであっても本発明の本質を損なうものではない。距離画像撮像装置30が計測した距離画像は、距離画像入力部130を介して情報処理装置1に入力される。また、距離画像撮像装置30と2次元画像撮像装置20の光軸は一致しており、2次元画像撮像装置20が出力する濃淡画像の各画素と、距離画像撮像装置が出力する距離画像の各画素の対応は既知であるとする。
ロボット40は、回転または並進移動軸からなる可動軸を複数有し、2次元画像撮像装置20及び距離画像撮像装置30からなる撮像装置の位置姿勢を変更するための可動機器である。以下、2次元画像撮像装置20と距離画像撮像装置30を合わせた機器を撮像装置230と称する。本実施形態では、アーム先端に撮像装置230を装着した、6軸の回転可動軸により構成される6自由度ロボットアームを用いる。ロボットの6軸可動軸の情報は、相対位置姿勢情報入力部150を介して、情報処理装置1に入力される。
アーム先端に装着された撮像装置230の、アーム先端から撮像装置230までの位置姿勢は、撮像装置230のオフセット位置姿勢としてあらかじめ算出しておき、以後変化しないものとして保持する。撮像装置230の位置姿勢は、アーム先端の位置姿勢からオフセット位置姿勢をかけることで算出できる。
なお、ロボット40として用いる機器はこれに限るものではく、例えば、7軸回転軸を有する垂直多関節型ロボットであってもよいし、スカラ型ロボットやパラレルリンクロボットであってもよい。その他、回転または並進移動軸からなる可動軸を複数有し、モーション情報が取得できる限り、いかなる形式のロボットであってもよい。
概略位置姿勢入力部140は、2次元画像撮像装置20と距離画像撮像装置30からなる撮像装置230に対する物体の位置及び姿勢の概略値を入力する。本実施形態では、情報処理装置1は時間軸方向に連続して計測を行うものとして、前回(前時刻)の計測値を概略の位置及び姿勢として用いる。
しかしながら、位置及び姿勢の概略値の入力方法はこれに限るものではない。例えば、過去の位置及び姿勢の計測をもとに物体の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢と推定された速度・加速度から現在の位置及び姿勢を予測したものでもよい。
また、様々な姿勢で撮像した対象物体の画像をテンプレートとして保持しておき、入力する画像に対してテンプレートマッチングを行うことによって、対象物体の大まかな位置と姿勢を推定してもよい。あるいは、他のセンサによる物体の位置及び姿勢の計測が可能である場合には、該センサによる出力値を位置及び姿勢の概略値として用いてもよい。センサは、例えばトランスミッタが発する磁界を物体に装着するレシーバで検出することにより位置及び姿勢を計測する磁気式センサであってもよい。
また、物体上に配置されたマーカをシーンに固定されたカメラによって撮影することにより位置及び姿勢を計測する光学式センサであってもよい。その他、6自由度の位置及び姿勢を計測するセンサであればいかなるセンサであってもよい。また、物体の置かれているおおよその位置や姿勢があらかじめ分かっている場合にはその値を概略値として用いる。
相対位置姿勢情報入力部150は、2次元画像の撮像時刻から距離画像の撮像時刻の間に、ロボット40が移動した位置姿勢差分量を入力する。本実施形態では、ロボット40内の制御モジュールからアーム先端の位置及び姿勢が直接取得できる場合を前提として、撮像時刻間のアーム先端位置姿勢の差分から位置姿勢差分量を算出する。
しかしながら、撮像時刻間の撮像装置230の移動量を算出する方法は、これに限るものでなく、例えば、ロボット40の可動軸に合わせて装着されたロータリーエンコーダから各軸回転量を取得する。そして、各軸回転量とロボットのリンク長さから、順運動学計算によりアーム先端位置の位置及び姿勢を算出することにより、アーム先端に設置された撮像装置230の位置姿勢差分量を計算してもよい。撮像時刻間に移動するアーム先端の位置姿勢差分量が算出できる限り、いずれの手法でもよい。
位置姿勢算出部160では、2次元画像撮像装置20及び距離画像撮像装置30により撮像された濃淡画像及び距離画像に対して、位置姿勢推定用照合データ保存部110に保存された3次元形状モデルを当てはめて、計測対象物体50の位置及び姿勢を計測する。位置姿勢算出処理の詳細については後述する。
以上が、情報処理装置1の構成の一例についての説明である。なお、情報処理装置1には、コンピュータが内蔵されている。コンピュータには、CPU等の主制御手段、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶手段が具備される。また、コンピュータにはその他、ボタンやディスプレイ又はタッチパネル等の入出力手段、ネットワークカード等の通信手段等も具備されていてもよい。なお、これら各構成部は、バス等により接続され、主制御手段が記憶手段に記憶されたプログラムを実行することで制御される。
次に、本実施形態における位置姿勢推定方法の処理手順について説明する。
図4は、本実施形態における位置姿勢推定方法の処理手順を示すフローチャートである。
まず、S401では濃淡画像の撮影と概略位置姿勢の取得を行う。本実施形態では、2次元画像撮像装置20から濃淡画像を撮像する。そして、濃淡画像撮像時刻における撮像装置230と物体との相対的な位置姿勢の概略値(図3:310)を、概略位置姿勢入力部140により、位置姿勢算出部160に入力する。本実施形態では、前述したように、前の時刻において計測された位置及び姿勢を、物体の概略位置姿勢として用いる。
次に、S402では、距離画像撮像装置30からの距離画像の取得を行う。本実施形態では、距離画像は撮像装置230から計測対象物体50の表面までの距離が格納されているものとする。前述のように、2次元画像撮像装置20と距離画像撮像装置30の光軸は一致しているため、濃淡画像の各画素と距離画像の各画素の対応は既知である。
次に、S403では、相対位置姿勢情報入力部150から、撮像時刻間に移動した撮像装置230の位置姿勢差分量の算出を行う。まず、相対位置姿勢情報入力部150を介し、ロボット40内の制御モジュールからロボットアーム先端の位置姿勢を取得する。そして、ロボットアーム先端から撮像装置230までの位置姿勢オフセットをかけることで、濃淡画像と距離画像各々の撮像時刻における撮像装置230の位置姿勢を計算する。
そして、両時刻における撮像装置230の位置姿勢の差分を求めることで、撮像時刻間に撮像装置230が移動した位置姿勢差分量(図3:330)を算出する。この位置姿勢差分量を、濃淡画像撮像時刻における概略位置姿勢(図3:310)にかけることで、距離画像撮像時刻における概略位置姿勢(図3:320)が算出できる。
S404では、S401及びS402において入力された濃淡画像及び距離画像と3次元形状モデルとの対応を算出し、対応付けた結果に基づいて計測対象物体50の位置及び姿勢を算出する。ここで、本実施形態では、S403で算出した距離画像撮像時における撮像装置230と計測対象物体との相対位置姿勢の概略値(図3:320)を基準にして、計測対象物体50の位置及び姿勢の算出処理を行う。
以下、図5を用いて、S404における位置姿勢算出処理について詳細な処理を詳述する。
まず、距離画像撮像時の対象物体の概略位置姿勢に基づいて、S402において計測された距離画像中の3次元点群と、3次元形状モデルとの対応付けを行う。距離画像撮像時の概略位置姿勢と校正済みの距離画像撮像装置30の内部パラメータを用いて、3次元形状モデルを構成する各面を、距離画像上に投影する。そして、投影した各面に対応する距離画像上の距離点群を、各面に対応する3次元点として保持する。
次に、濃淡画像上のエッジと3次元形状モデルとの対応付けを行う。まず、距離画像撮像時の概略位置姿勢(図3:320)を基準に、S403で算出した撮像時刻間の撮像装置230の位置姿勢差分量(図3:330)を引くことで、濃淡画像撮像時の概略位置姿勢(図3:310)を算出する。そして、算出した概略位置姿勢と校正済みの2次元画像撮像装置20の内部パラメータを用いて、3次元形状モデルの各線分を画像へ投影し、画像上で検出されたエッジと、3次元形状モデルとを対応付けする。エッジが、各制御点に対応して複数検出された場合には、複数検出されたエッジのうち、投影された線分に対して画像上で最も近いエッジを対応付ける(S501)。
次に、S502において、S501で検出した、3次元形状モデル中の各線分に対応する濃淡画像上のエッジと、3次元形状モデル中の各面に対応する距離画像中の3次元点との対応データに基づいて、計測対象物体50の位置及び姿勢を算出する。本ステップでは、算出した対応データに基づいて、計測データと3次元形状モデルとの間の誤差が最小になるように、線形連立方程式を解くことで、位置姿勢の更新を行う。
ここで、画像上の距離と3次元空間中での距離は尺度が異なるため、単純に連立方程式を解くだけでは計測データのどちらか一方に寄与率が偏ってしまう。そのため、本実施形態では、非特許文献2に示すような、最尤推定に基づく最適化を行うことで、尺度を合わせた位置姿勢推定処理を行う。最尤推定に基づく位置姿勢推定処理を行う方法に関しては、本発明の本質に関わる話ではないため、詳細な処理の記述は省略する。詳細は非特許文献2を参照されたい。
なお、計測対象物体50の位置及び姿勢の算出方法は、非特許文献2の手法に限るものでなく、例えば、Levenberg-Marquardt法による繰り返し演算を行ってもよいし、よりシンプルな方法である最急降下法によって行ってもよい。また、共役勾配法やICCG法など、他の非線形最適化計算手法を用いてもよい。
次に、S503において、S502で更新した位置姿勢が、収束しているか否か(すなわち、さらに反復計算を必要とするか否か)の判定を行う。収束していなければ、再度、更新した位置姿勢を用いて、S501の対応付け処理を行う。なお、収束しているか否かは、補正値がほぼ0である場合や、誤差ベクトルの二乗和の補正前と補正後の差がほぼ0である場合に収束したと判定する。収束していると判断した場合は、この処理は終了し、撮像装置230と計測対象物体50間の相対的な位置姿勢の最終的な推定値が決定される。
図4のフローチャートの説明に戻る。
S405では、S404で推定された位置姿勢に基づいて、ロボット40に制御指令値を出力する。本実施形態では、S404において推定する前の計測対象物体50の位置姿勢と、推定後の計測対象物体50の位置姿勢との差分を、ロボット座標系に変換することによって、ロボット40に出力する制御指令値を計算する。そして、制御指令値をロボット40の制御モジュールに出力することで、ロボット40のアーム先端を計測対象物体50へと移動させるべく、位置姿勢操作を行う。ロボット40への制御指令値を出力したら、S405の処理を終了し、S406に進む。
S406では、本位置姿勢推定処理の動作を終了する入力がなされたかどうかを判定する。入力された場合には終了し、入力されなかった場合にはS401に戻り、新たな画像を取得して再度位置姿勢算出を行う。
前述したように、本実施形態では、2次元画像及び距離画像の撮像間において撮像装置230が移動する場合においても、撮像装置230の位置姿勢移動差分情報をロボットの可動軸情報から取得するようにした。これにより、2次元画像と距離画像を併用した高精度な位置姿勢推定処理を行うことが可能となる。
次に、前述した実施形態の変形例を説明する。
[第1の変形例(距離画像と濃淡画像を撮像する順番は問わない例)]
前述した実施形態では、画像の取得順として、濃淡画像を撮影した後、距離画像を撮影する事例について説明していた。しかしながら、画像撮影順は、特に制限があるものではなく、濃淡画像と距離画像が正常に撮影できる限り、どちらが先でもよい。
例えば、距離画像を先に撮像し、濃淡画像を後に撮像してもよい。この場合、S401では距離画像を撮像し、S402で濃淡画像を撮像するという、前述の実施形態とは逆の手順となる。同様に、S404においても、相対位置姿勢情報入力部150から取得した撮像装置230の位置姿勢移動差分を、距離画像撮像時の概略位置姿勢にかけることで、濃淡画像撮像時の概略位置姿勢を求めるというように、前述の実施形態とは逆の手順になる。以上に示すように、濃淡画像と距離画像を撮像する順番は、どちらかに制限されることは特になく、いずれの順番でもよい。
[第2の変形例(距離画像のみでもよい例)]
前述の実施形態では、濃淡画像と距離画像を撮像する場合について説明していた。しかし、前述の情報処理装置1は、濃淡画像と距離画像を両方撮影する場合に限るものではない。例えば、時刻を変えて距離画像のみが撮像される場合でも、適用できる。この場合、ロボットのモーション情報を利用し、撮像時の位置姿勢が異なる複数の距離画像(第1の距離画像及び第2の距離画像)の情報を併用して、計測対象物体50の位置姿勢を推定することになる。本変形例における情報処理装置は、図1の構成から2次元画像撮像装置20と2次元画像入力部120を抜いた構成となる。
また、位置姿勢推定処理に関しては、同様に、S401における濃淡画像の撮像が、距離画像の撮像に置き換わる。また、S404における濃淡画像からのエッジ検出処理も、距離画像中の点と3次元形状モデルとの対応付け処理に置き換わる。これ以外は、前述の実施形態と変更はない。距離画像のみを撮像する場合においても、撮像装置230が移動しながら撮像した複数の距離画像と、ロボットの可動軸情報から取得した撮像装置230の位置姿勢移動差分情報を用いる。この場合も、複数の視点から撮像した距離画像を併用した高精度な位置姿勢推定処理を行うことが可能となる。
[第3の変形例(撮像装置は固定、対象物体がロボットアームにより把持されて移動する場合の例)]
前述の実施形態では、図2(a)に示すように、撮像装置230がロボットアーム先端に装着されて、ロボットアームの移動により撮像装置230の位置姿勢が変化する場面において、本発明の情報処理装置を適用する場合について説明した。しかし、本発明の情報処理装置は、前述のケースに限るものでなく、例えば、図2(b)に示すように、撮像装置230は固定されており、ロボットアームによって把持された対象物体がアームの稼働に伴って移動する場合においても、同様に適用可能である。
この場合、S403において、相対位置姿勢情報入力部150から取得する位置姿勢移動差分情報は、前述の実施形態においては撮像時刻間の撮像装置230の位置姿勢移動差分情報であった。これに対し、本ケースでは、撮像時刻間の計測対象物体50の位置姿勢差分情報となる。ただし、S404において、算出している位置姿勢は、撮像装置230と計測対象物体50との相対的な位置姿勢であるため、処理自体は、前述の実施形態と変わりは無い。
以上のように、本発明による情報処理装置は、撮像装置230が移動し計測対象物体50が固定される場合でも、撮像装置230が固定され計測対象物体50が移動する場合でも、いずれの場合においても適用することは可能であり、特に制限は無い。
[第4の変形例(距離画像を幾何的に補正してから、位置姿勢推定処理を行ってもよい例)]
前述の実施形態では、S404の位置姿勢算出処理の中で撮像時刻間の位置姿勢差分量に基づく補正を行っていた。具体的には、撮像時刻間に移動する撮像装置230の位置姿勢差分量に基づいた位置姿勢の補正を行うことで、濃淡画像撮像時と距離画像撮像時における撮像装置230と計測対象物体50との相対位置姿勢の違いを補正していた。しかし、撮像時刻間の位置姿勢差分量に基づく補正は、この方法に限るものではない。
例えば、距離画像を先に撮像し、濃淡画像を後に撮像する場合において、撮像時刻間の位置姿勢差分量に基づいて、距離画像から求めた計測対象物体50表面上の3次元点群の座標を、濃淡画像撮像時の撮像装置230の位置姿勢を基準とする座標系に変換する。そして、非特許文献2の手法を適用して対応付け・計測対象物体50の位置姿勢の算出を行ってもよい。
以上のように、濃淡画像撮像時と距離画像撮像時における撮像装置230と計測対象物体50との相対位置姿勢の違いの補正は、位置姿勢情報を補正してもよいし、計測データの座標自体を補正してもよい。位置姿勢差分量に基づいて補正を行う方法である限り、方法の選択に特に制限はない。
[第5の変形例(位置姿勢推定の方法は、誤差最小化の枠組みによる方法でなくてもよい例)]
前述の実施形態では、位置姿勢を推定する方法として、濃淡画像中のエッジ及び距離画像中の3次元点と、3次元形状モデルとの誤差最小化の枠組みとして行っていた。しかし、位置姿勢を推定する方式はこれに限るものではない。例えば、あらかじめ対象物体を様々な方向から撮影し、各観察姿勢に対する濃淡画像のテンプレートと距離画像のテンプレートを抽出しておく。そして、ランタイム時にそれらのテンプレートを用いて、実際に撮像された濃淡画像と距離画像に対してテンプレートマッチングすることで、対象物体の位置及び姿勢を推定する方式をとってもよい。
この場合、テンプレートマッチングの類似度算出において、濃淡画像に対する類似度と距離画像に対する類似度を足すことで、濃淡・距離画像を併用したテンプレートマッチングを行う。このとき、濃淡画像に対してマッチングするときは、濃淡画像撮像時の位置姿勢 (図3:310) になるように概略位置姿勢を補正して、テンプレートマッチング処理を行う。また、距離画像に対してマッチングするときは、距離画像撮像時の位置姿勢(図3:320)になるように、撮像時刻間に移動した位置姿勢差分量(図3:330)を用いて概略位置姿勢を補正して、テンプレートマッチング処理を行う。位置姿勢を推定する手法は、以上に挙げた方法に限るもので無く、濃淡画像と距離画像に基づいて、対象物体または撮像装置の位置姿勢を推定できれば、いずれの手法を用いてもよい。
[第6の変形例(撮像装置移動量の取得はロボットのモーション情報に限らない例)]
前述の実施形態では、2次元画像の撮像時刻から距離画像の撮像時刻の間に、撮像装置230が移動した位置姿勢差分量を算出する方法として、撮像時刻間のロボット40のアーム先端位置姿勢の差分から位置姿勢差分量を算出する方法を述べた。しかし、撮像装置230の移動量を算出する手段はロボットのモーション情報を用いる方法に限るものでない。
例えば、撮像装置230に、磁気センサや超音波センサなど、6自由度の位置及び姿勢を計測する物理センサを取り付け、それらより撮像時刻間の位置姿勢差分量を算出してもよい。また、撮像間における撮像装置230の移動が、回転運動のみに限定できる場面であれば、撮像装置230にジャイロセンサを取り付け、その回転差分量のみを計測してもよい。撮像時刻間の撮像装置230の位置姿勢差分量が算出できる限り、いずれの方法を用いてもよく、手段・機器の選択に特に制限はない。
[第7の変形例(ロボットによる対象物体操作を行う例)]
前述の実施形態では、ロボット40のアーム先端に装着された撮像装置により、固定された計測対象物体50の3次元位置姿勢の算出する方法について説明した。しかし、情報処理装置1は、対象物体の3次元位置姿勢の算出に限るものでなく、算出した位置姿勢を用いて、ロボット40により対象物体に対して作業を行ってもよい。
例えば、ロボット40のアーム先端に対象物体を把持することが可能なエンドエフェクタを装着し、対象物体に対して把持作業を行ってもよい。この場合、エンドエフェクタとしては、モータ駆動可能なハンドを用いてもよいし、空気圧で対象物体を吸着する吸着パッドを用いてもよく、対象物体に対する作業に応じて適切に選択する限り、選択に制限は特にない。ロボットアームとエンドエフェクタとの相対位置姿勢のキャリブレーション作業は本実施形態の実施に先立って公知の技術によって予め行われているものとする。
これによって、位置姿勢算出部160で算出する位置姿勢をパレットが置かれた空間に固定されたワークスペース座標系に変換することが可能になる。さらに、ワークスペース座標系で指定した位置姿勢にハンドが設定されるようにロボットを制御することが可能になる。エンドエフェクタによる対象物体に対する作業としては、先にあげた把持・吸着に限らず、計測対象物体50を他の物体へ組み付ける組付作業や対象物体の外観検査など、他の作業を行ってもよく、ロボット40による計測対象物体50への作業内容には、特に制限はない。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
1 情報処理装置、10 位置姿勢推定用照合データ(3次元形状モデル)、20 2次元画像撮像装置、30 距離画像撮像装置、40 ロボット、110 位置姿勢推定用照合データ保存部、120 2次元画像入力部、130 距離画像入力部、140 概略位置姿勢入力部、150 相対位置姿勢情報入力部、160 位置姿勢算出部

Claims (13)

  1. 2次元画像及び距離画像が撮像可能な撮像装置により、被測定物体の3次元的な位置姿勢を推定する情報処理装置であって、
    被測定物体の位置姿勢推定用照合データを保存する位置姿勢推定用照合データ保存手段と、
    第1の位置姿勢の前記撮像装置により第1の時刻に撮影された2次元画像を入力する2次元画像入力手段と、
    第2の位置姿勢の前記撮像装置により前記第1の時刻と異なる第2の時刻に撮像された距離画像を入力する距離画像入力手段と、
    前記第1の位置姿勢と前記第2の位置姿勢の相対位置姿勢情報である位置姿勢差分情報を取得する相対位置姿勢情報入力手段と、
    前記位置姿勢差分情報に基づき、前記2次元画像及び前記距離画像に対して、前記位置姿勢推定用照合データが当てはまるように被測定物体の位置姿勢を算出する位置姿勢推定手段と、
    を有することを特徴とする情報処理装置。
  2. 2次元画像及び距離画像が撮像可能な撮像装置により、被測定物体の3次元的な位置姿勢を推定する情報処理装置であって、
    被測定物体の位置姿勢推定用照合データを保存する位置姿勢推定用照合データ保存手段と、
    第1の時刻に撮影された第1の位置姿勢の被測定物体の2次元画像を入力する2次元画像入力手段と、
    前記第1の時刻と異なる第2の時刻に撮影された第2の位置姿勢の被測定物体の距離画像を入力する距離画像入力手段と、
    前記第1の位置姿勢と前記第2の位置姿勢の相対位置姿勢情報である位置姿勢差分情報を取得する相対位置姿勢情報入力手段と、
    前記相対位置姿勢情報に基づき、前記2次元画像及び前記距離画像に対して、前記位置姿勢推定用照合データが当てはまるように被測定物体の位置姿勢を算出する位置姿勢推定手段と、
    を有することを特徴とする情報処理装置。
  3. 距離画像が撮像可能な撮像装置により、被測定物体の3次元的な位置姿勢を推定する情報処理装置であって、
    被測定物体の位置姿勢推定用照合データを保存する位置姿勢推定用照合データ保存手段と、
    第1の位置姿勢の前記撮像装置により第1の時刻に撮像された距離画像を第1の距離画像として入力し、第2の位置姿勢の前記撮像装置により前記第1の時刻と異なる第2の時刻に撮像された距離画像を第2の距離画像として入力する距離画像入力手段と、
    前記第1の位置姿勢と第2の位置姿勢の相対的な位置姿勢情報を取得する相対位置姿勢情報入力手段と、
    前記相対位置姿勢情報に基づき、前記第1の位置姿勢及び第2の位置姿勢において撮像した距離画像に対して、前記位置姿勢推定用照合データが当てはまるように被測定物体の位置姿勢を算出する位置姿勢推定手段と、
    を有することを特徴とする情報処理装置。
  4. 距離画像が撮像可能な撮像装置により、被測定物体の3次元的な位置姿勢を推定する情報処理装置であって、
    被測定物体の位置姿勢推定用照合データを保存する位置姿勢推定用照合データ保存手段と、
    第1の時刻に撮影された第1の位置姿勢の被測定物体の距離画像を第1の距離画像として入力し、前記第1の時刻と異なる第2の時刻に撮影された第2の位置姿勢の被測定物体の距離画像を第2の距離画像として入力する距離画像入力手段と、
    前記第1の位置姿勢と第2の位置姿勢の相対的な位置姿勢情報を取得する相対位置姿勢情報入力手段と、
    前記相対位置姿勢情報に基づき、前記第1の位置姿勢及び第2の位置姿勢において撮像した距離画像に対して、前記位置姿勢推定用照合データが当てはまるように被測定物体の位置姿勢を算出する位置姿勢推定手段と、
    を有することを特徴とする情報処理装置。
  5. 前記位置姿勢推定手段は、第1の位置姿勢における被測定物体の概略位置姿勢を入力する概略位置姿勢入力手段をさらに有し、
    前記概略位置姿勢入力手段により入力される前記第1の位置姿勢における概略位置姿勢と、前記相対位置姿勢情報とに基づいて、前記第2の位置姿勢における概略位置姿勢を求めることで、濃淡画像及び/または前記距離画像を用いた位置姿勢推定を行うことを特徴とする請求項1〜4の何れか1項に記載の情報処理装置。
  6. 前記位置姿勢推定手段は、前記相対位置姿勢情報に基づいて、第1の位置姿勢または第2の位置姿勢における距離画像を、おのおの第2の位置姿勢または第1の位置姿勢で撮像した場合とほぼ同じ位置から撮像した距離画像になるように変換することで、濃淡画像及び/または前記距離画像を用いた位置姿勢推定処理を行うことを特徴とする請求項1〜4の何れか1項に記載の情報処理装置。
  7. 前記相対位置姿勢情報入力手段は、位置及び/または姿勢を取得するセンサを有し、前記センサは、回転及び/または並進移動軸からなる可動軸を有するロボットの可動軸情報より前記位置姿勢差分情報を取得することを特徴とする請求項1〜6の何れか1項に記載の情報処理装置。
  8. 前記位置姿勢推定手段により算出した被測定物体の位置姿勢に基づいて、回転及び/または並進移動軸からなる可動軸を複数有するロボットによって、前記被測定物体または前記撮像装置の位置姿勢を変更する位置姿勢操作手段をさらに有することを特徴とする請求項1〜7の何れか1項に記載の情報処理装置。
  9. 2次元画像及び距離画像が撮像可能な撮像装置により、被測定物体の3次元的な位置姿勢を推定する情報処理方法であって、
    被測定物体の位置姿勢推定用照合データを保存する位置姿勢推定用照合データ保存工程と、
    第1の位置姿勢の前記撮像装置により第1の時刻に撮影された2次元画像を入力する2次元画像入力工程と、
    第2の位置姿勢の前記撮像装置により前記第1の時刻と異なる第2の時刻に撮像された距離画像を入力する距離画像入力工程と、
    前記第1の位置姿勢と前記第2の位置姿勢の相対位置姿勢情報である位置姿勢差分情報を取得する相対位置姿勢情報入力工程と、
    前記位置姿勢差分情報に基づき、前記2次元画像及び前記距離画像に対して、前記位置姿勢推定用照合データが当てはまるように被測定物体の位置姿勢を算出する位置姿勢推定工程と、
    を有することを特徴とする情報処理方法。
  10. 2次元画像及び距離画像が撮像可能な撮像装置により、被測定物体の3次元的な位置姿勢を推定する情報処理方法であって、
    被測定物体の位置姿勢推定用照合データを保存する位置姿勢推定用照合データ保存工程と、
    第1の時刻に撮影された第1の位置姿勢の被測定物体の2次元画像を入力する2次元画像入力工程と、
    前記第1の時刻と異なる第2の時刻に撮影された第2の位置姿勢の被測定物体の距離画像を入力する距離画像入力工程と、
    前記第1の位置姿勢と前記第2の位置姿勢の相対位置姿勢情報である位置姿勢差分情報を取得する相対位置姿勢情報入力工程と、
    前記相対位置姿勢情報に基づき、前記2次元画像及び前記距離画像に対して、前記位置姿勢推定用照合データが当てはまるように被測定物体の位置姿勢を算出する位置姿勢推定工程と、
    を有することを特徴とする情報処理方法。
  11. 距離画像が撮像可能な撮像装置により、被測定物体の3次元的な位置姿勢を推定する情報処理方法であって、
    被測定物体の位置姿勢推定用照合データを保存する位置姿勢推定用照合データ保存工程と、
    第1の位置姿勢の前記撮像装置により第1の時刻に撮像された距離画像を第1の距離画像として入力し、第2の位置姿勢の前記撮像装置により前記第1の時刻と異なる第2の時刻に撮像された距離画像を第2の距離画像として入力する距離画像入力工程と、
    前記第1の位置姿勢と第2の位置姿勢の相対的な位置姿勢情報を取得する相対位置姿勢情報入力工程と、
    前記相対位置姿勢情報に基づき、前記第1の位置姿勢及び第2の位置姿勢において撮像
    した距離画像に対して、前記位置姿勢推定用照合データが当てはまるように被測定物体の
    位置姿勢を算出する位置姿勢推定工程と、
    を有することを特徴とする情報処理方法。
  12. 距離画像が撮像可能な撮像装置により、被測定物体の3次元的な位置姿勢を推定する情報処理方法であって、
    被測定物体の位置姿勢推定用照合データを保存する位置姿勢推定用照合データ保存工程と、
    第1の時刻に撮影された第1の位置姿勢の被測定物体の距離画像を第1の距離画像として入力し、前記第1の時刻と異なる第2の時刻に撮影された第2の位置姿勢の被測定物体の距離画像を第2の距離画像として入力する距離画像入力工程と、
    前記第1の位置姿勢と第2の位置姿勢の相対的な位置姿勢情報を取得する相対位置姿勢情報入力工程と、
    前記相対位置姿勢情報に基づき、前記第1の位置姿勢及び第2の位置姿勢において撮像した距離画像に対して、前記位置姿勢推定用照合データが当てはまるように被測定物体の位置姿勢を算出する位置姿勢推定工程と、
    を有することを特徴とする情報処理方法。
  13. コンピュータを、請求項1〜8の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2012153961A 2011-07-08 2012-07-09 情報処理装置及び情報処理方法 Active JP6180087B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012153961A JP6180087B2 (ja) 2011-07-08 2012-07-09 情報処理装置及び情報処理方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011152031 2011-07-08
JP2011152031 2011-07-08
JP2012153961A JP6180087B2 (ja) 2011-07-08 2012-07-09 情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2013036988A JP2013036988A (ja) 2013-02-21
JP6180087B2 true JP6180087B2 (ja) 2017-08-16

Family

ID=46851282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012153961A Active JP6180087B2 (ja) 2011-07-08 2012-07-09 情報処理装置及び情報処理方法

Country Status (4)

Country Link
US (1) US9279661B2 (ja)
EP (1) EP2543483B1 (ja)
JP (1) JP6180087B2 (ja)
CN (1) CN103020952B (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5496008B2 (ja) * 2010-08-06 2014-05-21 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP5839971B2 (ja) * 2010-12-14 2016-01-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US9437005B2 (en) * 2011-07-08 2016-09-06 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP5673716B2 (ja) * 2013-03-19 2015-02-18 株式会社安川電機 ロボットシステム及び被加工物の製造方法
JP6188440B2 (ja) * 2013-06-17 2017-08-30 キヤノン株式会社 ロボット装置及びロボット制御方法
JP6429466B2 (ja) * 2013-11-19 2018-11-28 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、プログラム
JP6351243B2 (ja) * 2013-11-28 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法
CN105091807B (zh) * 2014-04-30 2017-12-01 鸿富锦精密工业(深圳)有限公司 机器人工具坐标系的校正方法
JP6317618B2 (ja) * 2014-05-01 2018-04-25 キヤノン株式会社 情報処理装置およびその方法、計測装置、並びに、作業装置
US9727776B2 (en) * 2014-05-27 2017-08-08 Microsoft Technology Licensing, Llc Object orientation estimation
KR102358548B1 (ko) * 2014-10-15 2022-02-04 삼성전자주식회사 디바이스를 이용한 화면 처리 방법 및 장치
JP2016170122A (ja) * 2015-03-13 2016-09-23 キヤノン株式会社 計測装置
US9836069B1 (en) * 2015-03-31 2017-12-05 Google Inc. Devices and methods for protecting unattended children in the home
US9889566B2 (en) * 2015-05-01 2018-02-13 General Electric Company Systems and methods for control of robotic manipulation
CN106272487B (zh) * 2015-06-03 2019-03-15 广明光电股份有限公司 机器手臂阶段移动方法
EP3115742B1 (en) 2015-07-10 2020-04-15 Hexagon Technology Center GmbH 3d measuring machine
JP6455474B2 (ja) * 2016-03-25 2019-01-23 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP6744747B2 (ja) * 2016-04-01 2020-08-19 キヤノン株式会社 情報処理装置およびその制御方法
AU2017294796B2 (en) 2016-07-15 2019-05-30 Fastbrick Ip Pty Ltd Brick/block laying machine incorporated in a vehicle
WO2018009980A1 (en) 2016-07-15 2018-01-18 Fastbrick Ip Pty Ltd Boom for material transport
JP6809245B2 (ja) * 2017-01-20 2021-01-06 セイコーエプソン株式会社 ロボット
CN106971406B (zh) * 2017-03-06 2019-10-29 广州视源电子科技股份有限公司 物体位姿的检测方法和装置
US11230015B2 (en) * 2017-03-23 2022-01-25 Fuji Corporation Robot system
JP2018161700A (ja) * 2017-03-24 2018-10-18 キヤノン株式会社 情報処理装置、システム、情報処理方法、製造方法
JP6420404B1 (ja) 2017-04-26 2018-11-07 ファナック株式会社 物体認識装置
US11441899B2 (en) 2017-07-05 2022-09-13 Fastbrick Ip Pty Ltd Real time position and orientation tracker
AU2018317941B2 (en) 2017-08-17 2023-11-09 Fastbrick Ip Pty Ltd Laser tracker with improved roll angle measurement
AU2018317936B2 (en) 2017-08-17 2024-09-12 Fastbrick Ip Pty Ltd Interaction system configuration
JP6853156B2 (ja) * 2017-09-29 2021-03-31 株式会社日立製作所 姿勢推定システム、姿勢推定装置、及び距離画像カメラ
CN111212799B (zh) 2017-10-11 2023-04-14 快砖知识产权私人有限公司 用于传送物体的机器以及与其一起使用的多隔间转盘
JP6936974B2 (ja) * 2017-12-19 2021-09-22 オムロン株式会社 位置姿勢推定装置、位置姿勢推定方法及びプログラム
CN108254395B (zh) * 2017-12-28 2023-10-13 清华大学 扫描图像校正装置、方法和移动式扫描设备
JP7133926B2 (ja) 2018-01-15 2022-09-09 キヤノン株式会社 情報処理装置、システム、情報処理方法
TWI711910B (zh) * 2018-03-19 2020-12-01 達明機器人股份有限公司 機器手臂校正臂外相機的方法
JP7052564B2 (ja) * 2018-05-29 2022-04-12 オムロン株式会社 視覚センサシステム、制御方法およびプログラム
JP7258516B2 (ja) * 2018-10-30 2023-04-17 Thk株式会社 キャリブレーション方法および把持システム
CN209224071U (zh) * 2018-11-19 2019-08-09 炬星科技(深圳)有限公司 机器人的传感器布局系统
TWI696529B (zh) * 2018-11-30 2020-06-21 財團法人金屬工業研究發展中心 自動定位方法以及自動控制裝置
CN110355754B (zh) * 2018-12-15 2023-09-22 深圳铭杰医疗科技有限公司 机器人手眼系统、控制方法、设备及存储介质
CN113260941B (zh) * 2019-01-09 2023-10-24 三菱电机株式会社 控制装置及控制方法
JP6892461B2 (ja) * 2019-02-05 2021-06-23 ファナック株式会社 機械制御装置
US11123867B2 (en) * 2019-05-13 2021-09-21 Raytheon Company Automated radar assembly system
US11478936B2 (en) * 2019-10-09 2022-10-25 Canon Kabushiki Kaisha Image processing apparatus that processes image picked up by image pickup apparatus attached to robot, control method therefor, and storage medium storing control program therefor
CN110773357A (zh) * 2019-11-25 2020-02-11 广州市贝云科技有限公司 喷胶设备
EP4128748A1 (en) * 2020-03-23 2023-02-08 Ricoh Company, Ltd. Information processing apparatus and method of processing information
JP7568721B2 (ja) * 2020-06-18 2024-10-16 ファナック株式会社 ワークの表面の3次元情報およびワークの2次元画像を取得する撮像装置および制御装置
DE112020007606B4 (de) * 2020-09-14 2024-06-13 Mitsubishi Electric Corporation Robotersteuervorrichtung
WO2022091290A1 (ja) * 2020-10-29 2022-05-05 株式会社ニコン はんだ付け装置及びはんだ付けシステム、並びに、加工装置
JP7516219B2 (ja) * 2020-11-19 2024-07-16 株式会社ミツトヨ 測定装置、制御装置、制御方法及びプログラム
JP2022138329A (ja) * 2021-03-10 2022-09-26 オムロン株式会社 認識装置、ロボット制御システム、認識方法、およびプログラム
CN113510697B (zh) * 2021-04-23 2023-02-14 知守科技(杭州)有限公司 机械手定位方法、装置、系统、电子装置和存储介质
WO2024108305A1 (en) * 2022-11-22 2024-05-30 Novarc Technologies Inc. Welding torch assemblies with integrated vision systems
WO2024224751A1 (ja) * 2023-04-27 2024-10-31 パナソニックIpマネジメント株式会社 画像処理方法および画像処理装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3173042B2 (ja) * 1991-05-21 2001-06-04 ソニー株式会社 ロボットの数値制御装置
US5499306A (en) * 1993-03-08 1996-03-12 Nippondenso Co., Ltd. Position-and-attitude recognition method and apparatus by use of image pickup means
JPH07266272A (ja) * 1994-03-29 1995-10-17 Nippon Telegr & Teleph Corp <Ntt> マニピュレータ用追従方法及び装置
JP3079186B2 (ja) * 1995-09-28 2000-08-21 株式会社小松製作所 構造物計測システム
US5729475A (en) * 1995-12-27 1998-03-17 Romanik, Jr.; Carl J. Optical system for accurate monitoring of the position and orientation of an object
JPH10118975A (ja) * 1996-10-18 1998-05-12 Komatsu Ltd ハンドリング位置認識方法および認識装置
CA2369845A1 (en) * 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
JP3842233B2 (ja) * 2003-03-25 2006-11-08 ファナック株式会社 画像処理装置及びロボットシステム
JP3834297B2 (ja) * 2003-05-12 2006-10-18 ファナック株式会社 画像処理装置
JP2005031045A (ja) 2003-07-11 2005-02-03 Olympus Corp 情報呈示装置及び情報呈示システム
JP4021413B2 (ja) 2004-01-16 2007-12-12 ファナック株式会社 計測装置
JPWO2008047872A1 (ja) * 2006-10-20 2010-02-25 株式会社日立製作所 マニピュレータ
JP2009136987A (ja) * 2007-12-10 2009-06-25 Toyota Motor Corp 移動ロボット、及び床面形状データの補正方法
KR101169533B1 (ko) 2008-01-16 2012-07-30 아사히 가세이 가부시키가이샤 얼굴 자세 추정 장치, 얼굴 자세 추정 방법 및 얼굴 자세 추정 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체
JP2009241247A (ja) * 2008-03-10 2009-10-22 Kyokko Denki Kk ステレオ画像型検出移動装置
JP5567908B2 (ja) * 2009-06-24 2014-08-06 キヤノン株式会社 3次元計測装置、その計測方法及びプログラム
JP5602392B2 (ja) 2009-06-25 2014-10-08 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP5460341B2 (ja) * 2010-01-06 2014-04-02 キヤノン株式会社 3次元計測装置及びその制御方法

Also Published As

Publication number Publication date
EP2543483B1 (en) 2015-10-21
JP2013036988A (ja) 2013-02-21
US9279661B2 (en) 2016-03-08
US20130011018A1 (en) 2013-01-10
CN103020952A (zh) 2013-04-03
CN103020952B (zh) 2015-11-18
EP2543483A1 (en) 2013-01-09

Similar Documents

Publication Publication Date Title
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP6180086B2 (ja) 情報処理装置及び情報処理方法
JP5839929B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP6280525B2 (ja) カメラのミスキャリブレーションの実行時決定のためのシステムと方法
JP2023052266A (ja) 案内された組立環境におけるマシンビジョン座標空間を結合するためのシステム及び方法
JP5567908B2 (ja) 3次元計測装置、その計測方法及びプログラム
EP2636493B1 (en) Information processing apparatus and information processing method
JP6444027B2 (ja) 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム
JP6370038B2 (ja) 位置姿勢計測装置及び方法
JP6317618B2 (ja) 情報処理装置およびその方法、計測装置、並びに、作業装置
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2011175477A (ja) 3次元計測装置、処理方法及びプログラム
JP2007319938A (ja) ロボット装置及び物体の三次元形状の取得方法
JP6626338B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP6180158B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法、およびプログラム
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP6040264B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
Limoyo et al. Self-calibration of mobile manipulator kinematic and sensor extrinsic parameters through contact-based interaction
JP2015132523A (ja) 位置姿勢計測装置、位置姿勢計測方法及びプログラム
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
JP7583942B2 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
CN117769483A (zh) 机器人控制设备、机器人控制系统以及机器人控制方法
JP2018159719A (ja) 位置姿勢計測装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170718

R151 Written notification of patent or utility model registration

Ref document number: 6180087

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151