JP2022039906A - Multi-sensor combined calibration device and method - Google Patents
Multi-sensor combined calibration device and method Download PDFInfo
- Publication number
- JP2022039906A JP2022039906A JP2021003139A JP2021003139A JP2022039906A JP 2022039906 A JP2022039906 A JP 2022039906A JP 2021003139 A JP2021003139 A JP 2021003139A JP 2021003139 A JP2021003139 A JP 2021003139A JP 2022039906 A JP2022039906 A JP 2022039906A
- Authority
- JP
- Japan
- Prior art keywords
- calibration
- camera
- laser radar
- calibration plate
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 93
- 230000004927 fusion Effects 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 9
- 239000011159 matrix material Substances 0.000 claims description 77
- 230000009466 transformation Effects 0.000 claims description 34
- 239000002131 composite material Substances 0.000 claims description 30
- 230000033001 locomotion Effects 0.000 claims description 24
- 230000036544 posture Effects 0.000 claims description 23
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 238000005457 optimization Methods 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 13
- 238000005259 measurement Methods 0.000 claims description 12
- 238000013519 translation Methods 0.000 claims description 8
- 238000012795 verification Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 7
- 230000001133 acceleration Effects 0.000 claims description 5
- 230000002159 abnormal effect Effects 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 230000001144 postural effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 239000002184 metal Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 206010034719 Personality change Diseases 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
- G01C25/005—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Manufacturing & Machinery (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、センサ技術分野に関するものである。特に、マルチセンサによるキャリブレーション技術に関するものである。 The present invention relates to the field of sensor technology. In particular, it relates to a calibration technique using a multi-sensor.
リアルタイム位置特定と地図構築(Simultaneous Localization and Mapping、SLAMと称する)技術は、無人運転のための環境認識情報を提供しており、従来のSLAM技術は、レーザーSLAMと視覚SLAMに分けられる。レーザーレーダは測距精度が高く、光の影響を受けない等の利点があり、カメラはコストが低く、画像情報が豊富である等の利点がある。しかしながら、単一センサSLAMには、大きな局限性がある。例えば、レーザーレーダの場合、更新頻度が遅く、モーション歪みがあって、雨や雪等の過酷な環境下では正確な測定値を提供できない。カメラの場合、正確な三次元情報を取得できなく、周囲光による制限が比較的に大きい。 Real-time localization and mapping (referred to as Simultaneous Localization and Mapping) technology provides environmental awareness information for unmanned driving, and conventional SLAM technology is divided into laser SLAM and visual SLAM. Laser radar has advantages such as high distance measurement accuracy and is not affected by light, and cameras have advantages such as low cost and abundant image information. However, the single sensor SLAM has great localization. For example, in the case of a laser radar, the update frequency is slow, there is motion distortion, and it is not possible to provide accurate measured values in a harsh environment such as rain or snow. In the case of a camera, accurate three-dimensional information cannot be obtained, and the limitation due to ambient light is relatively large.
慣性ナビゲーションシステムは、姿勢推定補助ツールとして、正確な角速度と加速度を提供できる。そのため、レーザーレーダ、視覚センサ、慣性ナビゲーションシステム等のマルチセンサデータを融合することにより、SLAMの環境知覚能力を向上させることができる。 Inertial navigation systems can provide accurate angular velocities and accelerations as attitude estimation aids. Therefore, the environmental perception ability of SLAM can be improved by fusing multi-sensor data such as a laser radar, a visual sensor, and an inertial navigation system.
SLAMシステム中のセンサのキャリブレーションは、内部パラメータキャリブレーションと外部パラメータキャリブレーションに分けられる。センサの内部パラメータキャリブレーションは、主に、センサ測定データの正確さを確保するためのカメラの内部パラメータ行列の計算と慣性ナビゲーションシステムの誤差係数の計算を指す。センサ間の外部パラメータキャリブレーションは、マルチセンサ情報の融合を正確に行うための前提条件であり、センサ間の外部パラメータキャリブレーションは、各センサの座標系間の姿勢変換関係を決定することである。 Calibration of the sensors in the SLAM system is divided into internal parameter calibration and external parameter calibration. Sensor internal parameter calibration mainly refers to the calculation of the camera's internal parameter matrix and the error coefficient of the inertial navigation system to ensure the accuracy of the sensor measurement data. External parameter calibration between sensors is a prerequisite for accurate fusion of multi-sensor information, and external parameter calibration between sensors determines the attitude conversion relationship between the coordinate systems of each sensor. ..
従来の外部パラメータキャリブレーション方法は、車体座標系を基準として、レーザーレーダの座標系、カメラ座標系、慣性ナビゲーションシステムの座標系から車体座標系への姿勢変換関係を求める。ただし、従来の外部パラメータキャリブレーションでは、すべてのセンサが車体内に固定され、車体は運動次元の制限を受けるため、キャリブレーション過程は複雑であり、ヨー角とロール角の正確なキャリブレーションを実現することは困難である。 In the conventional external parameter calibration method, the attitude conversion relationship from the coordinate system of the laser radar, the coordinate system of the camera, and the coordinate system of the inertial navigation system to the coordinate system of the vehicle body is obtained with reference to the coordinate system of the vehicle body. However, in the conventional external parameter calibration, all the sensors are fixed in the car body and the car body is limited in the motion dimension, so the calibration process is complicated and accurate calibration of yaw angle and roll angle is realized. It's difficult to do.
レーザーレーダは測距精度が高く、キャリブレーション参照物に対して特別な要件はないが、カメラは二次元画像特性に基づくため、キャリブレーションするためには特定のキャリブレーション参照物が必要である。現在、既存のレーザーレーダとカメラの外部パラメータキャリブレーション方法には、単一の碁盤目キャリブレーションプレートに基づくキャリブレーション方法、「L」字の形状のキャリブレーションプレートに基づくキャリブレーション方法、及び三次元碁盤目ターゲットに基づくキャリブレーション方法が含まれる。これらの方法は類似しており、すべてレーザーの三次元特徴点とカメラの二次元特徴点をマッチングすることにより、外部パラメータ行列の求解を行うことである。 Laser radar has high ranging accuracy and has no special requirements for calibration reference, but since the camera is based on 2D image characteristics, a specific calibration reference is required for calibration. Currently, existing laser radar and camera external parameter calibration methods include a single grid calibration plate-based calibration method, an "L" -shaped calibration plate-based calibration method, and three-dimensional calibration methods. A calibration method based on a grid target is included. These methods are similar, all of which are to solve the external parameter matrix by matching the 3D feature points of the laser with the 2D feature points of the camera.
レーザーレーダと慣性ナビゲーションシステムのキャリブレーションは、運動条件下で行う必要があり、慣性ナビゲーションシステムは、正確な加速度測定値と角速度測定値を提供することができる。従来のキャリブレーション方法は、ハンドアイキャリブレーション方法であるが、そのキャリブレーションの精度を保証することは困難である。中国百度(バイドゥ)のApollo(アポロ)キャリブレーションツールは、「8」字の形状の回りを運動するように車両を制御することにより、センサのデータ採集と外部パラメータキャリブレーションを実現する。 The laser radar and inertial navigation system must be calibrated under motion conditions, and the inertial navigation system can provide accurate acceleration and angular velocity measurements. The conventional calibration method is a hand-eye calibration method, but it is difficult to guarantee the accuracy of the calibration. Baidu's Apollo calibration tool in China enables sensor data collection and external parameter calibration by controlling the vehicle to move around an "8" shape.
マルチセンサによる複合キャリブレーションは、現在無人運転の分野で最もホットなトピックの一つである。既存のキャリブレーション技術は、自動化の程度が低く、操作が複雑であり、精度が低い等のデメリットがある。 Combined calibration with multiple sensors is currently one of the hottest topics in the field of unmanned driving. The existing calibration technology has disadvantages such as low degree of automation, complicated operation, and low accuracy.
本発明は従来技術に存在する上記の課題を解決するためになされたものであり、操作が簡単であり、精度が高いマルチセンサによる複合キャリブレーション装置及び方法を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems existing in the prior art, and an object of the present invention is to provide a composite calibration device and method using a multi-sensor, which is easy to operate and has high accuracy.
本発明の目的は、以下の技術的解決策を通じて達成することができる。 The object of the present invention can be achieved through the following technical solutions.
ロボットアームを含み、前記ロボットアーム上にはセンサ融合フレームが設置され、センサ融合フレーム上にはレーザーレーダ、単眼カメラ、及びデータ処理のためのコンピュータが設置され、レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲットをさらに含み、前記レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲットは、一号キャリブレーションプレート、二号キャリブレーションプレート、三号キャリブレーションプレート、四号キャリブレーションプレートを含み、一号キャリブレーションプレート、二号キャリブレーションプレート、三号キャリブレーションプレートの中心位置はドットでマークされ、外部パラメータキャリブレーションの特徴点を提供するために使用され、四号キャリブレーションプレート上には、カメラの内部パラメータキャリブレーションのために黒白の碁盤目模様が配列され、4つのキャリブレーションプレートは、「田」字の形状に配置され、一号キャリブレーションプレートと二号キャリブレーションプレートは並列に配置され、三号キャリブレーションプレートと四号キャリブレーションプレートは一号キャリブレーションと二号キャリブレーションプレートの前方に並列に配置され、三号キャリブレーションプレートと四号キャリブレーションプレートは一号キャリブレーションプレートと二号キャリブレーションプレートより低く、三号キャリブレーションプレート表面の法線ベクトルn3と四号キャリブレーションプレート表面の法線ベクトルn4との間の角度差は30°より大きく、一号キャリブレーションプレート表面の法線ベクトルn1と二号キャリブレーションプレート表面の法線ベクトルn2との間の角度差は30°より大きい、マルチセンサによる複合キャリブレーション装置を提供する。 A sensor fusion frame is installed on the robot arm including the robot arm, a laser radar, a monocular camera, and a computer for data processing are installed on the sensor fusion frame, and a four calibration plate by a laser radar-camera is installed. Further including a composite calibration target, said laser radar-camera four calibration plate composite calibration target includes a No. 1 calibration plate, a No. 2 calibration plate, a No. 3 calibration plate, and a No. 4 calibration plate. The center positions of the No. 1 calibration plate, No. 2 calibration plate, and No. 3 calibration plate are marked with dots and are used to provide the feature points of the external parameter calibration. Black and white grid patterns are arranged for internal parameter calibration of the camera, four calibration plates are arranged in the shape of "ta", and No. 1 calibration plate and No. 2 calibration plate are arranged in parallel. The No. 3 calibration plate and the No. 4 calibration plate are placed in parallel in front of the No. 1 calibration and the No. 2 calibration plate, and the No. 3 calibration plate and the No. 4 calibration plate are the No. 1 calibration plate. Lower than the No. 2 calibration plate, the angle difference between the normal vector n3 on the surface of the No. 3 calibration plate and the normal vector n4 on the surface of the No. 4 calibration plate is larger than 30 °, and the surface of the No. 1 calibration plate Provided is a multi-sensor composite calibration device in which the angle difference between the normal vector n1 and the normal vector n2 on the surface of the No. 2 calibration plate is larger than 30 °.
カメラの内部パラメータキャリブレーションと、レーザーレーダ-カメラの外部パラメータキャリブレーションとを含むマルチセンサによる複合キャリブレーション方法を提供する。カメラの内部パラメータキャリブレーションの場合、異なる姿勢下でカメラが碁盤目キャリブレーションプレートに対して撮影を行うように、コンピュータユニットがロボットアーム及びカメラを制御し、張正友(ZhangZhengyou)キャリブレーション方法を採用してカメラの内部パラメータKを計算する。レーザーレーダ-カメラの外部パラメータキャリブレーションの場合、以下のステップを含む。 Provided is a multi-sensor composite calibration method including internal parameter calibration of a camera and external parameter calibration of a laser radar-camera. In the case of camera internal parameter calibration, the computer unit controls the robot arm and camera so that the camera shoots against the grid calibration plate under different postures, and Zhang Zhengyou calibration method is adopted. The internal parameter K of the camera is calculated. For laser radar-camera external parameter calibration, it involves the following steps:
ステップ1、キャリブレーションプレートモジュールがレーザーレーダ及びカメラの視野範囲に現れるように、コンピュータユニットがロボットアームの姿勢を調整するとともに、ロボットアームを制御して静止状態を維持し、レーザーレーダ及びカメラはデータ採集を行う。
ステップ2、レーザーレーダデータに対して分析及び処理を行い、点群特徴点を抽出し、各点群の座標情報を記録し、異常点をフィルタリングし、点群分割法を採用して点群データを分割し、4つのキャリブレーションプレートの点群データを4つの異なるグループ{L1}、{L2}、{L3},{L4}へ分け、K-means方法を利用して点群のクラスタリング中心点を抽出し、
は、第i番目のキャリブレーションプレートの中心点位置のレーザーレーダの座標系における三次元座標値であり、
をマッチングのためのレーザー特徴点として選定する。
Is the three-dimensional coordinate value in the laser radar coordinate system at the center point position of the i-th calibration plate.
Is selected as a laser feature point for matching.
ステップ3、カメラデータに対して分析及び処理を行い、視覚特徴点を抽出し、各ピクセルのグレー値を記録し、FASTキーポイント抽出アルゴリズムを採用し、キャリブレーションプレートのローカルピクセルのグレー値が明らかに変化された箇所を検出することにより、各キャリブレーションプレートの中心点位置を抽出し、一号キャリブレーションプレート、二号キャリブレーションプレート、三号キャリブレーションプレートのドット中心点位置を抽出し、その座標値C1、C2、C3を記録し、碁盤目間の関係を分析することにより、四号キャリブレーションプレートの中心点座標値C4を求め、Ciは、第i番目のキャリブレーションプレートの中心点位置のカメラ座標系Cにおける二次元座標値であり、Ciをマッチングのための視覚特徴点として選定する。
ステップ4、レーザーレーダの特徴点
及びカメラの特徴点
によってマッチング関係
を確立し、特徴点のマッチング関係によって最小再投影誤差を確立し、誤差方程式を構築し、誤差方程式によって最小二乗法による求解を行い、最適な外部パラメータ行列TLCを取得する。
And camera features
Matching relationship by
Is established, the minimum reprojection error is established by the matching relationship of the feature points, the error equation is constructed, the solution is performed by the least squares method by the error equation, and the optimum external parameter matrix TLC is obtained.
いくつかの実施形態では、キャリブレーションプレートの中心位置特徴点に基づいて、キャリブレーションプレートのエッジ位置を採集して特徴点とする。 In some embodiments, the edge positions of the calibration plate are collected and used as feature points based on the center position feature points of the calibration plate.
いくつかの実施形態では、前記カメラの内部パラメータキャリブレーションは、碁盤目キャリブレーション方法を採用しており、前記碁盤目キャリブレーション方法は、異なる姿勢下でカメラが碁盤目キャリブレーションプレートに対して撮影を行うように、コンピュータユニットがロボットアーム及びカメラを制御し、20~30枚の画像のエッジ情報を抽出し、張正友(ZhangZhengyou)キャリブレーション方法を採用してカメラの内部パラメータKを計算することである。 In some embodiments, the internal parameter calibration of the camera employs a grid calibration method, in which the camera captures the grid calibration plate under different postures. The computer unit controls the robot arm and the camera, extracts the edge information of 20 to 30 images, and uses the ZhangZhengyou calibration method to calculate the internal parameter K of the camera. be.
いくつかの実施形態では、センサ融合フレーム上に配置された慣性ナビゲーションシステムをさらに含む。複合キャリブレーション方法には、レーザーレーダ及び慣性ナビゲーションシステムによる複合キャリブレーション方法を含む。ロボットアームの初期運動時刻をt0として定義し、ロボットアームの運動終了時刻をtnとして定義し、tn時刻に走査されたレーザー点群をPnとして定義し、t0時刻でのレーザーレーダの座標系をL0として定義し、t0時刻での慣性ナビゲーションシステムの座標系をI0として定義し、tn時刻でのレーザーレーダの座標系をLnとして定義し、tn時刻での慣性ナビゲーションシステムの座標系をInとして定義し、レーザーレーダのt0時刻からtn時刻までの間の姿勢変換行列をTLとして定義し、慣性ナビゲーションシステムのt0時刻からtn時刻までの間の姿勢変換行列をTIとして定義し、レーザーレーダと慣性ナビゲーションシステムとの間の外部パラメータ行列をTLIとして定義する。 Some embodiments further include an inertial navigation system located on the sensor fusion frame. The combined calibration method includes a combined calibration method using a laser radar and an inertial navigation system. The initial motion time of the robot arm is defined as t 0 , the motion end time of the robot arm is defined as t n , the laser point group scanned at t n time is defined as P n , and the laser radar at t 0 time. The coordinate system of is defined as L 0 , the coordinate system of the inertial navigation system at t 0 time is defined as I 0 , the coordinate system of the laser radar at t n time is defined as L n , and at t n time. The coordinate system of the inertial navigation system is defined as In, the attitude conversion matrix between t 0 time and t n time of the laser radar is defined as T L , and the inertial navigation system is defined from t 0 time to t n time. The attitude conversion matrix between is defined as TI, and the external parameter matrix between the laser radar and the inertial navigation system is defined as TLI .
前記複合キャリブレーション方法は、以下のステップを含む。
ステップ1、ロボットアームは指定された軌跡に従って運動を行い、ロボットアームの運動過程中に、レーザーレーダ及び慣性ナビゲーションシステムがデータ採集を行う。
ステップ2、ロボットアームを制御して運動を停止し、センサによって採集されたデータに対して処理を行う。レーザーレーダの場合、均一運動モデルに従ってフレーム毎のレーザー点群に対して歪み除去処理を行う。点群フィルタリングアルゴリズムを採用し、点群データ中の外れ値を除去する。計算の複雑さを軽減するために、ボクセルグリッド方法を使用してフレーム毎のレーザー点群データに対してダウンサンプリング処理を行う。
ステップ3、レーザーレーダの座標系
の初期時刻t0での座標系L0と運動終了時刻での座標系Lnとの間の姿勢変換行列TLを計算する。姿勢変換行列TLの計算方法は、下記の通りである。反復最近傍法を採用して第iフレーム点群と第i+1フレーム点群をマッチングし、第iフレーム点群
と第i+1フレーム点群
のマッチング関係を取得する。第i時刻から第i+1時刻までのレーザーレーダの姿勢変換は、回転行列Riと並進ベクトルtiから構成されており、2フレーム点群の姿勢変換関係を示す。さらに、誤差方程式を構築し、誤差方程式を最小二乗問題に変換し、SVD法を採用してRi、tiを計算する。Ri、tiによって第i時刻から第i+1時刻までのレーザーレーダの姿勢変換行列を
として取得する。さらに、nフレームのレーザーレーダの姿勢変換行列Tiを累積的に乗算し、レーザーレーダのt0時刻からtn時刻までの姿勢変換行列TLを取得する。
ステップ4、慣性ナビゲーションシステムの座標系
の初期時刻t0での座標系I0と運動終了時刻tnでの座標系Inとの間の姿勢変換行列TIを計算する。姿勢変換行列TIの計算方法は、下記の通りである。慣性ナビゲーションシステムの加速度測定データ及び角速度測定データに対して積分を行い、変位データtI及び回転データRIを取得すると、慣性ナビゲーションシステムのt0時刻からtn時刻までの姿勢変換行列
に表される。
ステップ5、TLによってtn時刻でのレーザー点群Pnをt0時刻でのL0座標系に投影し、点群PnLを取得する。
ステップ6、TI及びキャリブレーション待ちパラメータTLIによってtn時刻でのレーザー点群Pnをt0時刻でのL0座標系に投影し、PnIを取得する。
ステップ7、2グループの点群PnL及びPnIをマッチングする。2グループの点群を整列し、外部パラメータ行列TLIに対して最適化を行う。反復最近傍法を採用してPnL及びPnIが記述された同一点群領域をレジストレーションし、最近傍誤差Terrorを構築及び最適化し、Terror、TL、TIによって外部パラメータ行列TLIを求解する。
The combined calibration method includes the following steps.
The posture transformation matrix TL between the coordinate system L 0 at the initial time t 0 and the coordinate system L n at the end time of the exercise is calculated. The calculation method of the attitude transformation matrix TL is as follows. The iterative nearest neighbor method is used to match the i-frame point cloud and the i + 1 frame point cloud, and the i-frame point cloud is used.
And i + 1 frame point cloud
Get the matching relationship of. The attitude conversion of the laser radar from the i-th time to the i + 1-th time is composed of the rotation matrix R i and the translation vector ti, and shows the attitude conversion relationship of the two-frame point cloud. Furthermore, an error equation is constructed, the error equation is converted into a least squares problem, and the SVD method is adopted to calculate Ri and ti . The attitude transformation matrix of the laser radar from the i -th time to the i + 1-time by R i and ti
Get as. Further, the attitude transformation matrix Ti of the n -frame laser radar is cumulatively multiplied to obtain the attitude transformation matrix TL from the t 0 time to the t n time of the laser radar.
The posture transformation matrix TI between the coordinate system I 0 at the initial time t 0 and the coordinate system In n at the exercise end time t n is calculated. The calculation method of the attitude transformation matrix TI is as follows. When the acceleration measurement data and the angular velocity measurement data of the inertial navigation system are integrated and the displacement data t I and the rotation data RI are acquired, the attitude transformation matrix from the t 0 time to the t n time of the inertial navigation system is obtained.
It is represented by.
Step 5, the laser point cloud P n at t n time is projected onto the L 0 coordinate system at t 0 time by TL, and the point cloud P n L is acquired.
Step 6, TI and the calibration waiting parameter T LI project the laser point cloud P n at t n time onto the L 0 coordinate system at t 0 time, and acquire P n I.
いくつかの実施形態では、視覚条件が十分である場合、単眼カメラの観測データを記録し、視覚-IMUキャリブレーションツールを採用し、単眼カメラと慣性ナビゲーションシステムとの間の外部パラメータ行列TCIを計算する。決定された3つの外部パラメータ行列TLC、TLI、TCI間の姿勢一貫性に基づいて複合検証を行い、外部パラメータ行列中の変換パラメータに対して調整を行い、マルチセンサによる複合キャリブレーションの精度を向上する。前記パラメータ最適化は、オンライン調整方法を採用し、レーザーレーダ、単眼カメラ、慣性ナビゲーションシステムのデータを融合し、TLI、TCIに対して調整を行う。 In some embodiments, if the visual conditions are sufficient, the observation data of the monocular camera is recorded, a visual-IMU calibration tool is employed, and an external parameter matrix TCI between the monocular camera and the inertial navigation system is provided. calculate. Combined verification is performed based on the attitude consistency between the determined three external parameter matrices TLC , TLI , and TCI , adjustments are made to the conversion parameters in the external parameter matrix, and combined calibration by the multi-sensor is performed. Improve accuracy. The parameter optimization employs an online adjustment method, fuses data from a laser radar, a monocular camera, and an inertial navigation system, and makes adjustments for TLI and TCI .
従来技術と比較して、本発明のマルチセンサによる複合キャリブレーション装置及び方法には、以下の利点がある。 Compared with the prior art, the multi-sensor composite calibration device and method of the present invention has the following advantages.
本発明は、16ライン、32ライン、64ライン等のマルチラインレーザーレーダ、単眼カメラ、双眼カメラ、RGBDカメラ等の視覚センサに適用される。本発明の実施形態は、キャリブレーション及び二次開発に便利な携帯型マルチセンサ融合フレーを構築する。本発明の実施形態は、ロボットアームによる補助キャリブレーション方法を使用することにより、インテリジェントキャリブレーション及びバッチキャリブレーションを実現することができる。 The present invention is applied to visual sensors such as multi-line laser radars such as 16 lines, 32 lines and 64 lines, monocular cameras, binocular cameras and RGBD cameras. An embodiment of the present invention constructs a portable multi-sensor fusion flare that is convenient for calibration and secondary development. In the embodiment of the present invention, intelligent calibration and batch calibration can be realized by using the auxiliary calibration method using a robot arm.
図面(必ずしも一定の縮尺で描かれているわけではない)で、同様の参照番号は異なる図で同様の構成要素を記載する場合がある。異なる文字接尾辞を持つ同様の参照番号は、同様な構成要素の異なる例を表すことができる。図面は、限定ではなく例として、本明細書で論じられる各実施形態を示している。
以下は、本発明の具体的な実施例であり、図面を結合しながら本発明の技術的解決策をさらに説明するが、本発明は、これらの実施例によって限定されず、以下の実施形態は、請求の範囲に係る本発明を限定するものではない。また、実施形態に記載されている特徴のすべての組み合わせは、本発明の解決に必ずしも必須ではない。 The following are specific examples of the present invention, further describing the technical solutions of the present invention while combining the drawings, but the present invention is not limited to these examples, and the following embodiments are: , The present invention according to the claims is not limited. Also, all combinations of features described in the embodiments are not necessarily essential to the solution of the present invention.
実施例
マルチセンサ融合フレーム101、ロボットアーム102、連結機構103、コンピュータユニット104、及び操作プラットフォームを含むマルチセンサによる複合キャリブレーション装置であって、前記マルチセンサ融合フレーム101は、マルチセンサによる複合構築法によってレーザーレーダ201、単眼カメラ202、及び慣性ナビゲーションシステム203を自由的に運動可能な金属フレーム204に固定され、このフレームは治具206を介して無人車両、無人航空機等の環境感知の場合に搭載され、二次開発に適用されるとともに、外部パラメータキャリブレーションの実施に便利である。前記金属フレームは、長さ18cm、幅6cm、高さ8cmである。マルチセンサによる複合構築法を採用して各センサは同じ座標系指向に従って設置される。そのうち、レーザーレーダ201は、金属フレーム204の上部の中央位置に設置され、固定装置205は金属フレームの内部に設置される。単眼カメラ202は、固定装置205の左側5cmの位置に設置され、慣性ナビゲーションシステム203は固定装置205の右側5cmの位置に設置される。所述ロボットアーム102は、操作プラットフォーム105の上方に設置され、三軸方向の並進及び回転運動を提供する。ロボットアームの末端は連結機構103を介して固定装置205に連接され、初期状態下に、マルチセンサ融合フレーム101の地面からの高さは140cmである。前記コンピュータユニット103は、ボットアーム102の運動の制御、センサによるデータ採集の制御、センサデータの処理、外部パラメータ行列の計算を行う機能を有する。
Example A multi-sensor composite calibration device including a
レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲットをさらに含み、レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲットは、4つの同じサイズのキャリブレーションプレートから構成されている。前記レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲット104は、4つの30cm×30cmのキャリブレーションプレートから構成されている。図3に示すように、一~三号キャリブレーションプレートの中央位置はドットでマークされ、外部パラメータキャリブレーションのための特徴点を提供する。四号キャリブレーションプレート上には、カメラの内部パラメータキャリブレーションのために黒白の碁盤目模様が配列される。4つのキャリブレーションプレートは、「田」字の形状で空中に配置される。4つのキャリブレーションプレートをより正確に分割するために、それらは異なる距離及び角度で環境中に配置される。図4に示すように、三号キャリブレーションプレート及び四号キャリブレーションプレートは高さ120cmのベースを採用して固定し、ベースは水平線一上に配置され、マルチセンサ融合フレームとの距離はD1=130cmであり、三号キャリブレーションプレートの法線ベクトルn 3 と四号キャリブレーションプレートの法線ベクトルn 4 との間の角度差は30°以上である。一号キャリブレーションプレート及び二号キャリブレーションプレートがカバーされないように確保するために、一号キャリブレーションプレート及び二号キャリブレーションプレートは高さ160cmのベースを採用して固定し、ベースは水平線二上に配置され、マルチセンサ融合フレームとの距離はD2=180cmである。一号キャリブレーションプレートの法線ベクトルn1と二号キャリブレーションプレートの法線ベクトルn2との間の角度差は30°以上である。
A laser radar-camera four calibration plate composite calibration target is further included, and a laser radar camera four calibration plate composite calibration target is composed of four calibration plates of the same size. Four calibration plates by the laser radar-camera The
前記カメラの内部パラメータキャリブレーションは、異なる姿勢下でカメラが碁盤目キャリブレーションプレートに対して撮影を行うように、コンピュータユニットがロボットアーム及びカメラを制御し、20~30枚の画像のエッジ情報を抽出し、張正友(ZhangZhengyou)キャリブレーション方法を採用してカメラの内部パラメータKを計算する。 In the internal parameter calibration of the camera, the computer unit controls the robot arm and the camera so that the camera shoots against the grid calibration plate under different postures, and edge information of 20 to 30 images is obtained. It is extracted and the internal parameter K of the camera is calculated by adopting the Zhang Zhengyou calibration method.
前記レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲットは、単眼カメラの内部パラメータキャリブレーション及びレーザーレーダ-カメラの外部パラメータキャリブレーションに採用される。前記レーザーレーダと単眼カメラによる複合キャリブレーション方法は、以下のステップを含む。 The four calibration plate composite calibration target by the laser radar camera is adopted for the internal parameter calibration of the monocular camera and the external parameter calibration of the laser radar camera. The combined calibration method using the laser radar and the monocular camera includes the following steps.
まず、図5に示すように、複合キャリブレーションターゲットがレーザーレーダ及びカメラの視野範囲に現れるように、コンピュータユニットがロボットアームの姿勢を調整する。ロボットアームを制御して静止状態を維持し、レーザーレーダとカメラを採用してデータ採集を行った後、コンピュータユニットが測定データを処理する。最後に、最小二乗問題を構築し、外部パラメータ行列TLCを求解する。 First, as shown in FIG. 5, the computer unit adjusts the posture of the robot arm so that the composite calibration target appears in the field of view of the laser radar and the camera. After controlling the robot arm to keep it stationary and using a laser radar and camera to collect data, the computer unit processes the measurement data. Finally, we construct the least squares problem and solve the external parameter matrix TLC .
前記データ採集によってレーザーレーダデータ及びカメラデータに対してそれぞれ処理を行う。 Laser radar data and camera data are processed by collecting the data.
レーザーレーダデータの場合、各点群の座標情報を記録し、異常点をフィルタリングし、点群分割法を採用して点群データを分割し、4つのキャリブレーションプレートの点群データを4つの異なるグループ{L1}、{L2}、{L3},{L4}に分ける。K-means法を利用して点群のクラスタリング中心点を抽出する。
は、第i番目のキャリブレーションプレートの中心点位置のレーザーレーダの座標系Lにおける三次元座標値である。
をマッチングのためのレーザー特徴点として選定する。
In the case of laser radar data, the coordinate information of each point cloud is recorded, the abnormal points are filtered, the point cloud data is divided by adopting the point cloud division method, and the point cloud data of 4 calibration plates are 4 different. Divide into groups {L 1 }, {L 2 }, {L 3 }, {L 4 }. The clustering center point of the point cloud is extracted using the K-means method.
Is a three-dimensional coordinate value in the coordinate system L of the laser radar at the center point position of the i-th calibration plate.
Is selected as a laser feature point for matching.
カメラデータの場合、各ピクセルのグレー値を記録し、FASTキーポイント抽出アルゴリズムを採用し、キャリブレーションプレートのローカルピクセルのグレー値が明らかに変化された箇所を検出することにより、各キャリブレーションプレートの中心点位置を抽出する。一~三号キャリブレーションプレートのドットの中心位置を抽出し、その座標値C1、C2、C3を記録する。四号キャリブレーションプレートの場合、碁盤目間の関係を分析することにより、キャリブレーションプレートの中心点座標値C4を求める。
は、第i番目のキャリブレーションプレートの中心点位置のカメラ座標系Cにおける二次元座標値である。Ciをマッチングのための視覚特徴点として選定する。
レーザーレーダの三次元特徴点
及び単眼カメラの二次元特徴点
によってマッチング関係
を確立する。
図7に示すように、レーザーレーダ座標
及び単眼カメラ座標
の特徴点Piに基づくマッチング関係を定義することにより、最小再投影誤差を確立し、最小二乗問題を構築する。レーザーレーダ及びカメラの外部パラメータ行列を次のように定義する。
Is a two-dimensional coordinate value in the camera coordinate system C at the center point position of the i-th calibration plate. Select Ci as a visual feature point for matching.
3D feature points of laser radar
And 2D feature points of monocular cameras
Matching relationship by
To establish.
As shown in FIG. 7, laser radar coordinates
And monocular camera coordinates
By defining the matching relationship based on the feature point Pi, the minimum reprojection error is established and the least squares problem is constructed. The external parameter matrix of the laser radar and camera is defined as follows.
ここで、Rが回転行列であり、tが並進ベクトルである。マッチング関係及び外部パラメータ行列を結合すると、誤差方程式は次のように表すことができる。
ここで、siは視覚特徴点の深さ値であり、誤差が最小化になるように、誤差方程式に従って最小二乗最適化関数を構築し、最適な外部パラメータ行列を取得する。
さらに、必要に応じて、より多くの特徴点を採集してマッチングを行い、キャリブレーションプレートの中心位置特徴点に基づいて、キャリブレーションプレートのエッジ位置を採集して特徴点とする。図6に示すように、キャリブレーションプレート毎の5つの位置を選択して特徴点とし、上記方法に従って最小二乗最適化関数を構築し、外部パラメータ行列を求解する。実験によって特性点の数が多いほど、外部パラメータ行列の計算がより正確であることが証明されている。 Further, if necessary, more feature points are collected and matched, and the edge positions of the calibration plate are collected and used as feature points based on the center position feature points of the calibration plate. As shown in FIG. 6, five positions for each calibration plate are selected as feature points, a least squares optimization function is constructed according to the above method, and an external parameter matrix is solved. Experiments have shown that the larger the number of characteristic points, the more accurate the calculation of the external parameter matrix.
さらに、キャリブレーションプレートの角度を調整し、異なる角度の状態下で複数グループのキャリブレーションプレートのセンサデータを採集し、グループ毎のデータのキャリブレーションプレートの中心点座標値
をそれぞれ計算し、偏差の大きい中心点座標値を削除し、平均値策略を採用して次のように残りの中心点座標を計算する。
Are calculated respectively, the center point coordinates with a large deviation are deleted, and the mean value strategy is adopted to calculate the remaining center point coordinates as follows.
既存のキャリブレーション技術では、キャリブレーションプレートの位置及び角度は固定である。レーザーレーダの縦方向点群のスパース性によってレーザーレーダによる走査がキャリブレーションプレートのすべての領域を完全にカバーすることを保証することは困難である。レーザーレーダによる走査ラインがキャリブレーションプレートの完全な輪郭を完全に走査できなかった場合、点群特徴点(キャリブレーションプレートの中心点)の座標は、実際の位置と差異が大きくなってしまう。 With existing calibration techniques, the position and angle of the calibration plate is fixed. Due to the sparseness of the laser radar's vertical point cloud, it is difficult to ensure that scanning by the laser radar completely covers the entire area of the calibration plate. If the scanning line by the laser radar cannot completely scan the complete contour of the calibration plate, the coordinates of the point cloud feature point (center point of the calibration plate) will be significantly different from the actual position.
本方法は、レーザーレーダ及びカメラが複数グループのキャリブレーションプレートデータを採集するように、キャリブレーションプレートの角度を調整する。キャリブレーションプレートの中心点を角度調整の回転中心として採用するため、キャリブレーションプレートの調整に関係なく、その中心点座標は常に変わらない。本方法は、キャリブレーションプレートの中心点位置の不変性を利用して、異なる角度下で複数グループの点群データによって複数グループの中心点座標をフィッティングし、誤差が大きい中心点座標を除去し、残りの中心点座標の平均値をキャリブレーションプレートの点群特徴点とする。既存技術と比較して、本方法で抽出された特徴点の精度は大幅に向上されている。 The method adjusts the angle of the calibration plate so that the laser radar and camera collect multiple groups of calibration plate data. Since the center point of the calibration plate is adopted as the rotation center of the angle adjustment, the center point coordinates do not always change regardless of the adjustment of the calibration plate. This method uses the invariance of the center point position of the calibration plate to fit the center point coordinates of multiple groups with the point cloud data of multiple groups under different angles, and removes the center point coordinates with a large error. The average value of the remaining center point coordinates is used as the point cloud feature point of the calibration plate. Compared with the existing technology, the accuracy of the feature points extracted by this method is greatly improved.
レーザーレーダ及び慣性ナビゲーションシステムの複合キャリブレーション方法は、次のステップで構成される。 The combined calibration method of the laser radar and the inertial navigation system consists of the following steps.
ロボットアームの支援下で、点群マッチングに基づくレーザーレーダ-慣性ナビゲーションシステムによる外部パラメータキャリブレーションを採用する。具体的なステップは下記の通りである。 With the support of the robot arm, we adopt external parameter calibration by laser radar-inertial navigation system based on point cloud matching. The specific steps are as follows.
まず、ロボットアームを制御して運動し、センサが空間内で運動しながらデータを採集する。 First, the robot arm is controlled to move, and the sensor moves in space to collect data.
次に、ロボットアームの運動が停止され、センサによって採集されたデータに対して処理を行う。 Next, the movement of the robot arm is stopped, and processing is performed on the data collected by the sensor.
その後、レーザーレーダの初期時刻t0での座標系L0と運動終了時刻tnでの座標系Lnとの間の姿勢変換行列TLを計算する。慣性ナビゲーションシステムの初期時刻t0での座標系I0と運動終了時刻tnでの座標系Inとの間の姿勢変換行列TIを計算する。 After that, the attitude transformation matrix TL between the coordinate system L 0 at the initial time t 0 of the laser radar and the coordinate system L n at the motion end time t n is calculated. The attitude transformation matrix TI between the coordinate system I 0 at the initial time t 0 of the inertial navigation system and the coordinate system I n at the motion end time t n is calculated.
再び、TLによってtn時刻でのレーザー点群Pnをt0時刻でのL0座標系に投影し、点群PnLを取得する。TI及びキャリブレーション待ちパラメータTLIによってtn時刻でのレーザー点群Pnをt0時刻でのL0座標系に投影し、PnIを取得する。最後に、2グループの点群PnLとPnIをマッチングし、2グループの点群を整列することにより、外部パラメータ行列TLIを計算する。 Again, the laser point cloud P n at t n time is projected onto the L 0 coordinate system at t 0 time by TL, and the point cloud P n L is acquired. The laser point cloud P n at t n time is projected onto the L 0 coordinate system at t 0 time by TI and the calibration waiting parameter T LI , and P n I is acquired. Finally, the external parameter matrix TLI is calculated by matching the two groups of point clouds P nL and P nI and aligning the two groups of point clouds.
前記ロボットアームの運動は、指定された軌跡内を運動するようにロボットアームを制御することである。ロボットアームの座標軸を基準として、X軸の正方向に沿って100cm移動し、X軸の負方向に沿って100cm移動し、Y軸の正方向に沿って100cm移動し、Y軸の負方向に沿って100cm移動し、Z軸の正方向に沿って100cm移動し、Z軸の負方向に沿って100cm移動する。X軸を中心に時計回りに180°回転し、X軸を中心に反時計回りに180°回転し、Y軸を中心に時計回りに180°回転し、Y軸を中心に反時計回りに180°回転し、Z軸を中心に時計回りに180°回転し、Z軸を中心に反時計回りに180°回転する。ロボットアームの運動過程中に、レーザーレーダ及び慣性ナビゲーションシステムがデータ採集を行う。 The movement of the robot arm is to control the robot arm so as to move within a designated locus. With respect to the coordinate axis of the robot arm, it moves 100 cm along the positive direction of the X axis, moves 100 cm along the negative direction of the X axis, moves 100 cm along the positive direction of the Y axis, and moves in the negative direction of the Y axis. It moves 100 cm along the positive direction of the Z axis, 100 cm along the negative direction of the Z axis, and 100 cm along the negative direction of the Z axis. Rotate 180 ° clockwise around the X axis, 180 ° counterclockwise around the X axis, 180 ° clockwise around the Y axis, 180 ° counterclockwise around the Y axis ° Rotate, rotate 180 ° clockwise around the Z axis, and 180 ° counterclockwise around the Z axis. A laser radar and an inertial navigation system collect data during the movement of the robot arm.
前記センサのデータ処理は、レーザーレーダの場合、均一運動モデルに従ってフレーム毎のレーザー点群に対して歪み除去処理を行い、点群フィルタリングアルゴリズムを採用し、点群データの外れ値を除去する。計算の複雑さを軽減するために、フレーム毎のレーザー点群データに対して、ボクセルグリッド方法を使用してダウンサンプリング処理を行うことである。 In the case of a laser radar, the sensor data processing is performed by performing distortion removal processing on the laser point cloud for each frame according to a uniform motion model, adopting a point cloud filtering algorithm, and removing outliers of the point cloud data. In order to reduce the complexity of the calculation, the laser point cloud data for each frame is downsampled using the voxel grid method.
前記姿勢変換行列TLの計算方法は、次の通りである。反復最近傍法を採用して第iフレーム点群と第i+1フレーム点群をマッチングし、第iフレーム点群
と第i+1フレーム点群
とのマッチング関係を取得する。第i時刻から第i+1時刻までのレーザーレーダの姿勢変換が回転行列Riと並進ベクトルtiから構成されると定義すると、2フレーム間の対応する関係は次のように表される。
And i + 1 frame point cloud
Get the matching relationship with. If we define that the attitude transformation of the laser radar from the i-th time to the i + 1-time is composed of the rotation matrix R i and the translation vector ti, the corresponding relationship between the two frames is expressed as follows.
誤差方程式は、次のように表される。
最小二乗問題を構築することにより、SVD法を採用してRi、tiを計算する。
第i時刻から第i+1時刻までのレーザーレーダの姿勢変換行列は次の通りである。
TLはレーザーレーダのt0時刻からtn時刻までの姿勢変換行列であり、次のように表される。
前記姿勢変換行列TIの計算方法は、下記の通りである。慣性ナビゲーションシステムの加速度測定データ及び角速度測定データに対して積分を行い、変位データtI及び回転データRIを取得する。t0時刻からtn時刻までの慣性ナビゲーションシステムの姿勢変換行列は、次のように表される。
前記tn時刻でのレーザー点群Pnをt0時刻でのL0座標系に投影するとは、レーザーレーダの場合、図8に示すように、直接に姿勢変換行列TLによってPnのL0座標系における座標表示PnLを取得することができる。
慣性ナビゲーションシステムの場合、図9に示すように、姿勢変換行列TI及び外部パラメータ行列TLIによってPnのL0座標系における座標表示PnIを取得することができる。
前記外部パラメータ行列TLIの計算とは、点群PnLと点群PnIを整列することである。理論的に、PnL及び点群PnIは同一領域の点群データを記述しており、それらは空間上でオーバーラップする。即ち、次の通りである。
外部パラメータ誤差が存在するため、PnL及びPnIは完全にオーバーラップしているわけではない。反復最近傍法を採用して、PnL及びPnIが記載している同一領域の点群領域をレジストレーションし、最近傍誤差を構築して最適化する。
Terror、TL,TIによって外部パラメータ行列TLIを求解する。
ここまで、上記キャリブレーション方法によって外部パラメータ行列TLC及びTLIを取得する。 Up to this point, the external parameter matrices TLC and TLI are acquired by the above calibration method.
本発明は、点群レジストレーションに基づくレーザーレーダ-慣性ナビゲーションキャリブレーションであって、既存技術(点群マッチングに基づくレーザーレーダ/IMU複合キャリブレーション方法)は小車にレーザーレーダ及びIMUを搭載する方法を採用しているが、小車は平面内でしか運動できないため、完全な六自由度の運動を提供することはできない。本方法では、キャリブレーションシステムの運動装置としてロボットアームを採用しているため、豊富な空間運動を提供できる。従来技術と比較して、キャリブレーションの精度が向上されている。 The present invention is a laser radar-inertial navigation calibration based on point group registration, and the existing technology (laser radar / IMU combined calibration method based on point group matching) is a method of mounting a laser radar and an IMU on a small vehicle. However, since small vehicles can only move in a plane, they cannot provide full six-degree-of-freedom movement. In this method, since the robot arm is adopted as the motion device of the calibration system, abundant spatial motion can be provided. The accuracy of calibration is improved as compared with the prior art.
さらに、必要に応じて、視覚条件が十分である場合、単眼カメラの観測データを記録し、視覚-IMUキャリブレーションツールを採用し、単眼カメラと慣性ナビゲーションシステムとの間の外部パラメータ行列TCIを計算する。決定された3つの外部パラメータ行列TLC、TLI、TCI間の姿勢一貫性に基づいて複合検証を行い、検証が失敗された場合、外部パラメータ行列中の変換パラメータを検証に成功するまで調整する。そのため、検証が失敗された場合、本発明の実施形態は、TLC、TLI、TCIに対してパラメータの最適化を行い、マルチセンサによる複合キャリブレーションの精度を向上する。前記パラメータ最適化は、オンライン調整方法を採用し、レーザーレーダ、単眼カメラ、慣性ナビゲーションシステムのデータを融合し、TLI、TCIに対して調整を行う。 In addition, if necessary, if the visual conditions are sufficient, the observation data of the monocular camera is recorded, a visual-IMU calibration tool is adopted, and an external parameter matrix TCI between the monocular camera and the inertial navigation system is obtained. calculate. Combined verification is performed based on the attitude consistency between the determined three external parameter matrices TLC , TLI , and TCI , and if the verification fails, the conversion parameters in the external parameter matrix are adjusted until the verification is successful. do. Therefore, if the verification fails, the embodiment of the present invention optimizes the parameters for TLC, TLI , and TCI to improve the accuracy of the combined calibration by the multi-sensor. The parameter optimization employs an online adjustment method, fuses data from a laser radar, a monocular camera, and an inertial navigation system, and makes adjustments for TLI and TCI .
さらに、必要に応じて、視覚条件が十分である場合、キャリブレーションターゲットがカメラの視野範囲内に現れるように、ロボットアームを制御する。カメラが常にキャリブレーションターゲットを観測できる条件下で、ロボットアームを制御して空間内で六自由度の運動をする。単眼カメラの観測データを記録し、キャリブレーションツールを採用して視覚-慣性ナビゲーションシステムの外部パラメータ行列TCIをキャリブレーションする。
さらに、レーザーレーダ、単眼カメラ、慣性測定ユニット間の姿勢変換行列に対して複合最適化を行う。決定された3つの外部パラメータ行列TLC、TLI、TCI間の姿勢一貫性に基づいて複合検証を行う。原則的に、3つの外部パラメータ行列間には、次の数学的関係が存在する。
ただし、キャリブレーションの過程に誤差が存在するため、実際に姿勢一貫性を完全に達成することはできない。そのため、外部パラメータ行列中の変換パラメータに対して最適化を行い、マルチセンサによる複合キャリブレーションの精度を向上する必要がある。姿勢変換総誤差を最小化することにより、TLC、TLI、TCIを調整する。 However, due to the error in the calibration process, it is not possible to actually achieve complete posture consistency. Therefore, it is necessary to optimize the conversion parameters in the external parameter matrix and improve the accuracy of the combined calibration by the multi-sensor. TLC, TLI , and TCI are adjusted by minimizing the attitude conversion total error.
前記パラメータの最適化の具体的なステップは、次の通りである。 The specific steps of optimizing the parameters are as follows.
各姿勢変換誤差を計算する。
がすべて誤差閾値errorthrより小さい場合、TLC、TLI、及びTCI間は既に姿勢一貫性を満たしていると見なされ、調整不要となる。 If are all smaller than the error threshold error thr , it is considered that the posture consistency is already satisfied between TLC , TLI , and TCI , and no adjustment is required.
その後、各姿勢変換行列誤差がすべて誤差閾値より小さいという制約を満たす条件下で、総誤差errorTが最小になるように、各姿勢変換行列に対して調整を行う。
の大きさを判断し、3つの誤差の大きさから主な誤差由来を初歩的に特定し、誤差の正負から調整する方向を初歩的に決定する。 Judging the magnitude of the error, the main error origin is elementaryly identified from the magnitudes of the three errors, and the direction of adjustment is elementaryly determined from the positive and negative of the error.
並進ベクトル及び回転行列中の各ベクトル成分を分析し、並進ベクトルに対して次の調整を行う。
ここで、Δx、Δy、及びΔzの大きさ及び正負は、
の具体的なベクトル成分を分析することによって取得する。回転行列に対して、次のような調整を行う。
Obtained by analyzing the specific vector components of. Make the following adjustments to the rotation matrix.
ここで、Δrの大きさと正負は、
の具体的なベクトル成分を分析することによって取得する。
Here, the magnitude and positive / negative of Δr are
Obtained by analyzing the specific vector components of.
例を挙げて説明する。 An example will be given.
まず、主な誤差由来を特定する。誤差の大きさの順序が
である場合、TLCが最大の誤差由来と見なされる。TLCの誤差項目
及び
を分析する。
First, identify the origin of the main error. The order of the magnitude of the error is
If, the TLC is considered to be from the largest error. Error item of TL C
as well as
To analyze.
しかし、誤差由來はTLCだけではない。TLI及びTCIの場合、上記と同様なステップを採用して調整を行う。相違点は、TLC、TLI、及びTCIに対して、それぞれα、β、及びγのステップサイズの調整(α>β>γ)を行うとともに、最大調整範囲を制限することである。
最適化過程中で、TLC、TLI、TCIを順番に調整し、errorTの変化を観察することにより、α、β、γのステップサイズを適切に変更する。調整過程中で、errorTが明らかに低下されることが観察されると、ステップサイズを適切に増やし、調整過程中で、errorTの緩やかな減少又は増加傾向が見られると、ステップサイズを適切に減らすか又はステップサイズの正負を変更する。 During the optimization process, the step sizes of α, β, and γ are appropriately changed by adjusting T LC , T LI , and T CI in order and observing the change of error T. If it is observed that the error T is clearly decreased during the adjustment process, the step size is appropriately increased, and if the error T is gradually decreasing or increasing during the adjustment process, the step size is appropriately increased. Or change the positive or negative of the step size.
errorTが最小になるまで、上記のステップに従って外部パラメータ行列を調整する。 Adjust the external parameter matrix according to the above steps until error T is minimized.
調整過程中で、計算結果が局所的な最適化になることを防ぐために、TLC、TLI、TCIの調整順番を変更するとともに、最小のerrorTが見つかるまで最適化結果を上記方法と比較する。 In order to prevent the calculation result from becoming a local optimization during the adjustment process, the adjustment order of TLC, TLI , and TCI is changed, and the optimization result is used as the above method until the minimum eraser T is found. Compare.
既存技術と比較して、本発明のマルチセンサによる姿勢変換行列の複合最適化方法は、オフライン最適化方法を採用しており、TLC、TLI、及びTCI間の姿勢一貫性に基づいて姿勢変換行列総誤差の最適化関数を構築し、各外部パラメータに対してパラメータの調整を行う。この最適化方法は、各外部パラメータ行列の誤差を最小化し、精度を最大化する効果を達成する。 Compared with the existing technology, the composite optimization method of the attitude transformation matrix by the multi-sensor of the present invention adopts the offline optimization method, and is based on the attitude consistency between TLC, TLI , and TCI . Posture transformation matrix Constructs an optimization function for the total error and adjusts the parameters for each external parameter. This optimization method achieves the effect of minimizing the error of each external parameter matrix and maximizing the accuracy.
本明細書では、いくつかの用語が多く使用されているが、他の用語を使用する可能性を排除することではない。これらの用語は、本発明の本質をより便利に記載及び説明するためにのみ使用される。それらをあらゆる追加の制限として解釈することは、本発明の精神に反することである。明細書及び図面に示される装置及び方法における動作、ステップ等の実行順序は、特に明記されていない限り、前の処理の出力が後の処理で使用されていない限り、任意の順序で実施することができる。説明の便宜上、「まず」、「次に」等を採用した説明は、必ずこの順序で実行すべきであることを意味するわけではない。 Although some terms are often used herein, it does not preclude the possibility of using other terms. These terms are used only to more conveniently describe and explain the essence of the invention. Interpreting them as any additional limitation is contrary to the spirit of the invention. Unless otherwise specified, the order of execution of operations, steps, etc. in the apparatus and method shown in the specification and drawings shall be in any order unless the output of the previous process is used in the subsequent process. Can be done. For convenience of explanation, explanations using "first", "next", etc. do not necessarily mean that they should be executed in this order.
本明細書に記載された特定の実施形態は、単に本発明の精神を例示するものである。当業者は、記載された特定の実施形態に対して様々な変更又は補足又は類似な方法への置き換えを行うことができるが、それは本発明の精神から逸脱したり、添付の特許請求の範囲によって定義された範囲を超えたりすることはない。 The particular embodiments described herein are merely exemplary of the spirit of the invention. One of ordinary skill in the art may make various modifications or supplements or replacements with similar methods for the particular embodiments described, which deviate from the spirit of the invention or, by the claims of the attachment. It does not exceed the defined range.
101、センサ融合フレーム;102、ロボットアーム;103、連結機構;104、コンピュータユニット;105、操作プラットフォーム;201、レーザーレーダ;202、単眼カメラ;203、慣性ナビゲーションシステム;204、金属フレーム;205、固定装置;206、治具。
101, sensor fusion frame; 102, robot arm; 103, coupling mechanism; 104, computer unit; 105, operation platform; 201, laser radar; 202, monocular camera; 203, inertial navigation system; 204, metal frame; 205, fixed Equipment; 206, jig.
Claims (9)
レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲットをさらに含み、前記レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲットは、一号キャリブレーションプレート、二号キャリブレーションプレート、三号キャリブレーションプレート、四号キャリブレーションプレートを含み、
一号キャリブレーションプレート、二号キャリブレーションプレート、三号キャリブレーションプレートの中心位置はドットでマークされ、外部パラメータキャリブレーションの特徴点を提供するために使用され、
四号キャリブレーションプレート上には、カメラの内部パラメータキャリブレーションのために黒白の碁盤目模様が配列され、
4つのキャリブレーションプレートは、「田」字の形状に配置され、一号キャリブレーションプレートと二号キャリブレーションプレートは並列に配置され、三号キャリブレーションプレートと四号キャリブレーションプレートは一号キャリブレーションと二号キャリブレーションプレートの前方に並列に配置され、三号キャリブレーションプレートと四号キャリブレーションプレートは一号キャリブレーションプレートと二号キャリブレーションプレートより低く、
三号キャリブレーションプレート表面の法線ベクトルn3と四号キャリブレーションプレート表面の法線ベクトルn4との間の角度差は30°より大きく、
一号キャリブレーションプレート表面の法線ベクトルn1と二号キャリブレーションプレート表面の法線ベクトルn2との間の角度差は30°より大きい、
マルチセンサによる複合キャリブレーション装置。 It is a multi-sensor composite calibration device that includes a robot arm, a sensor fusion frame is installed on the robot arm, and a laser radar, a monocular camera, and a computer for data processing are installed on the sensor fusion frame. hand,
The four calibration plate composite calibration target by the laser radar-camera further includes the four calibration plate composite calibration target by the laser radar camera, and the four calibration plate composite calibration target is the No. 1 calibration plate, the No. 2 calibration plate, and the No. 3 calibration plate. , Including No. 4 calibration plate,
The center positions of the No. 1 calibration plate, No. 2 calibration plate, and No. 3 calibration plate are marked with dots and are used to provide features for external parameter calibration.
On the No. 4 calibration plate, black and white grid patterns are arranged for internal parameter calibration of the camera.
The four calibration plates are arranged in the shape of a "field", the No. 1 calibration plate and the No. 2 calibration plate are arranged in parallel, and the No. 3 calibration plate and the No. 4 calibration plate are the No. 1 calibration. And placed in parallel in front of the No. 2 calibration plate, the No. 3 and No. 4 calibration plates are lower than the No. 1 and No. 2 calibration plates.
The angle difference between the normal vector n3 on the surface of the No. 3 calibration plate and the normal vector n4 on the surface of the No. 4 calibration plate is larger than 30 °.
The angular difference between the normal vector n1 on the surface of the No. 1 calibration plate and the normal vector n2 on the surface of the No. 2 calibration plate is greater than 30 °.
Composite calibration device with multiple sensors.
カメラの内部パラメータキャリブレーションと、レーザーレーダ-カメラの外部パラメータキャリブレーションとを含み、
カメラの内部パラメータキャリブレーションの場合、異なる姿勢下でカメラが碁盤目キャリブレーションプレートに対して撮影を行うように、コンピュータユニットがロボットアームとカメラを制御し、張正友キャリブレーション方法を採用してカメラの内部パラメータKを計算し、
レーザーレーダ-カメラの外部パラメータキャリブレーションの場合、以下のステップを含む、
a)キャリブレーションプレートモジュールがレーザーレーダ及びカメラの視野範囲に現れるように、コンピュータユニットがロボットアームの姿勢を調整するとともに、
ロボットアームを制御して静止状態を維持し、レーザーレーダ及びカメラはデータ採集を行う、
b)レーザーレーダデータに対して分析及び処理を行い、点群特徴点を抽出し、
各点群の座標情報を記録し、異常点をフィルタリングし、点群分割法を採用して点群データを分割し、4つのキャリブレーションプレートの点群データを4つの異なるグループ{L1}、{L2}、{L3},{L4}へ分け、K-means方法を採用して点群のクラスタリング中心点を抽出し、
は、第i番目のキャリブレーションプレートの中心点位置のレーザーレーダの座標系における三次元座標値であり、
をマッチングのためのレーザー特徴点として選定する、
c)カメラデータに対して分析及び処理を行い、視覚特徴点を抽出し、
各ピクセルのグレー値を記録し、FASTキーポイント抽出アルゴリズムを採用し、キャリブレーションプレートのローカルピクセルのグレー値が明らかに変化された箇所を検出することにより、各キャリブレーションプレートの中心点位置を抽出し、
一号キャリブレーションプレート、二号キャリブレーションプレート、三号キャリブレーションプレートのドット中心点位置を抽出し、その座標値C1、C2、C3を記録し、
碁盤目間の関係を分析することにより、四号キャリブレーションプレートの中心点座標値C4を求め、
Ciは、第i番目のキャリブレーションプレートの中心点位置のカメラ座標系Cにおける二次元座標値であり、Ciをマッチングのための視覚特徴点として選定する、
d)レーザーレーダの特徴点
及びカメラの特徴点
によってマッチング関係
を確立し、
特徴点のマッチング関係によって最小再投影誤差を確立し、誤差方程式を構築し、誤差方程式によって最小二乗法による求解を行い、最適な外部パラメータ行列TLCを取得する、
ことを特徴とするマルチセンサによる複合キャリブレーション方法。 The composite calibration method of the composite calibration device using the multi-sensor according to claim 1.
Includes camera internal parameter calibration and laser radar-camera external parameter calibration,
In the case of camera internal parameter calibration, the computer unit controls the robot arm and camera so that the camera shoots against the grid calibration plate under different postures, and the camera adopts the Zhang Masatomo calibration method. Calculate the internal parameter K and
Laser Radar-For external parameter calibration of the camera, including the following steps,
a) The computer unit adjusts the posture of the robot arm so that the calibration plate module appears in the field of view of the laser radar and the camera.
The robot arm is controlled to keep it stationary, and the laser radar and camera collect data.
b) The laser radar data is analyzed and processed to extract point cloud feature points.
The coordinate information of each point cloud is recorded, the abnormal points are filtered, the point cloud data is divided by the point cloud division method, and the point cloud data of the four calibration plates are divided into four different groups {L 1 }, Divide into {L 2 }, {L 3 }, and {L 4 }, and use the K-means method to extract the clustering center point of the point cloud.
Is the three-dimensional coordinate value in the laser radar coordinate system at the center point position of the i-th calibration plate.
Is selected as a laser feature point for matching,
c) The camera data is analyzed and processed to extract visual feature points.
Extract the center point position of each calibration plate by recording the gray value of each pixel and using the FAST keypoint extraction algorithm to detect where the gray value of the local pixel of the calibration plate has changed significantly. death,
Extract the dot center point positions of the No. 1 calibration plate, No. 2 calibration plate, and No. 3 calibration plate, and record the coordinate values C 1 , C 2 , and C 3 .
By analyzing the relationship between the grids, the center point coordinate value C4 of the No. 4 calibration plate was obtained.
C i is a two-dimensional coordinate value in the camera coordinate system C at the center point position of the i-th calibration plate, and C i is selected as a visual feature point for matching.
d) Features of laser radar
And camera features
Matching relationship by
Established,
The minimum reprojection error is established by the matching relationship of the feature points, the error equation is constructed, the solution is performed by the least squares method by the error equation, and the optimum external parameter matrix TLC is obtained.
A multi-sensor composite calibration method characterized by this.
ことを特徴とする請求項2に記載のマルチセンサによる複合キャリブレーション方法。 Based on the center position feature point of the calibration plate, the edge position of the calibration plate is collected and used as the feature point.
The combined calibration method using a multi-sensor according to claim 2.
をそれぞれ計算し、偏差の大きい中心点座標値を削除し、平均値策略を採用して残りの中心点座標を計算する、
ことを特徴とする請求項2に記載のマルチセンサによる複合キャリブレーション方法。 Adjust the angle of the calibration plate, collect the sensor data of the calibration plates of multiple groups under the condition of different angles, and the center point coordinate value of the calibration plate of the data for each group.
, Delete the center point coordinates with large deviations, and use the mean strategy to calculate the remaining center point coordinates.
The combined calibration method using a multi-sensor according to claim 2.
前記碁盤目キャリブレーション方法は、異なる姿勢下でカメラが碁盤目キャリブレーションプレートに対して撮影を行うように、コンピュータユニットがロボットアーム及びカメラを制御し、20~30枚の画像のエッジ情報を抽出し、張正友キャリブレーション方法を採用してカメラの内部パラメータKを計算することである、
ことを特徴とする請求項2に記載のマルチセンサによる複合キャリブレーション方法。 The internal parameter calibration of the camera uses a grid calibration method.
In the grid calibration method, the computer unit controls the robot arm and the camera so that the camera shoots at the grid calibration plate under different postures, and the edge information of 20 to 30 images is extracted. Then, the internal parameter K of the camera is calculated by adopting the calibration method of Masatomo Zhang.
The combined calibration method using a multi-sensor according to claim 2.
センサ融合フレーム上に配置された慣性ナビゲーションシステムをさらに含み、
複合キャリブレーション方法には、レーザーレーダ及び慣性ナビゲーションシステムによる複合キャリブレーション方法を含んでおり、
ロボットアームの初期運動時刻をt0として定義し、ロボットアームの運動終了時刻をtnとして定義し、tn時刻に走査されたレーザー点群をPnとして定義し、t0時刻でのレーザーレーダの座標系をL0として定義し、t0時刻での慣性ナビゲーションシステムの座標系をI0として定義し、tn時刻でのレーザーレーダの座標系をLnとして定義し、tn時刻での慣性ナビゲーションシステムの座標系をInとして定義し、レーザーレーダのt0時刻からtn時刻までの間の姿勢変換行列をTLとして定義し、慣性ナビゲーションシステムのt0時刻からtn時刻までの間の姿勢変換行列をTIとして定義し、レーザーレーダと慣性ナビゲーションシステムとの間の外部パラメータ行列をTLIとして定義すると、
前記複合キャリブレーション方法は、以下のステップを含む、
a)ロボットアームは指定された軌跡に従って運動を行い、ロボットアームの運動過程中に、レーザーレーダ及び慣性ナビゲーションシステムがデータ採集を行う、
b)ロボットアームを制御して運動を停止し、センサによって採集されたデータに対して処理を行い、
レーザーレーダの場合、均一運動モデルに従ってフレーム毎のレーザー点群に対して歪み除去処理を行い、
点群フィルタリングアルゴリズムを採用し、点群データ中の外れ値を除去し、
計算の複雑さを軽減するために、ボクセルグリッド方法を使用してフレーム毎のレーザー点群データに対してダウンサンプリング処理を行う、
c)レーザーレーダの座標系
の初期時刻t0での座標系L0と運動終了時刻での座標系Lnとの間の姿勢変換行列TLを計算する、
姿勢変換行列TLの計算方法は、以下の通りである、
反復最近傍法を採用して第iフレーム点群と第i+1フレーム点群をマッチングし、第iフレーム点群
と第i+1フレーム点群
のマッチング関係を取得し、
第i時刻から第i+1時刻までのレーザーレーダの姿勢変換は、回転行列Riと並進ベクトルtiから構成されており、2フレーム点群の姿勢変換関係を示し、さらに、誤差方程式を構築し、誤差方程式を最小二乗問題に変換し、SVD法を採用してRi、tiを計算し、Ri、tiによって第i時刻から第i+1時刻までのレーザーレーダの姿勢変換行列を
として取得し、nフレームのレーザーレーダの姿勢変換行列Tiを累積的に乗算し、レーザーレーダのt0時刻からtn時刻までの姿勢変換行列TLを取得する、
d)慣性ナビゲーションシステムの座標系
の初期時刻t0での座標系I0と運動終了時刻tnでの座標系Inとの間の姿勢変換行列TIを計算する、
姿勢変換行列TIの計算方法は、以下の通りである、
慣性ナビゲーションシステムの加速度測定データ及び角速度測定データに対して積分を行い、変位データtI及び回転データRIを取得すると、慣性ナビゲーションシステムのt0時刻からtn時刻までの姿勢変換行列
に表される、
e)TLによってtn時刻でのレーザー点群Pnをt0時刻でのL0座標系に投影し、点群PnLを取得する、
f)TI及びキャリブレーション待ちパラメータTLIによってtn時刻でのレーザー点群Pnをt0時刻でのL0座標系に投影し、PnIを取得する、
g)2グループの点群PnL及びPnIをマッチングし、2グループの点群を整列し、外部パラメータ行列TLIに対して最適化を行い、反復最近傍法を採用してPnL及びPnIが記述された同一領域の点群領域をレジストレーションし、最近傍誤差Terrorを構築及び最適化し、Terror、TL、TIによって外部パラメータ行列TLIを求解する、
ことを特徴とするマルチセンサによる複合キャリブレーション方法。 The composite calibration method of the composite calibration device using the multi-sensor according to claim 1.
Further includes an inertial navigation system located on the sensor fusion frame,
The combined calibration method includes a combined calibration method using a laser radar and an inertial navigation system.
The initial motion time of the robot arm is defined as t 0 , the motion end time of the robot arm is defined as t n , the laser point group scanned at t n time is defined as P n , and the laser radar at t 0 time. The coordinate system of is defined as L 0 , the coordinate system of the inertial navigation system at t 0 time is defined as I 0 , the coordinate system of the laser radar at t n time is defined as L n , and at t n time. The coordinate system of the inertial navigation system is defined as In, the attitude conversion matrix between t 0 time and t n time of the laser radar is defined as T L , and the inertial navigation system is defined from t 0 time to t n time. If the attitude conversion matrix between is defined as TI and the external parameter matrix between the laser radar and the inertial navigation system is defined as TLI ,
The combined calibration method comprises the following steps:
a) The robot arm moves according to a specified trajectory, and the laser radar and inertial navigation system collect data during the movement process of the robot arm.
b) Control the robot arm to stop the movement, process the data collected by the sensor, and
In the case of laser radar, distortion removal processing is performed on the laser point cloud for each frame according to the uniform motion model.
Uses a point cloud filtering algorithm to remove outliers in point cloud data.
To reduce the complexity of the calculation, the voxel grid method is used to downsample the laser point cloud data for each frame.
c) Laser radar coordinate system
Calculate the posture transformation matrix TL between the coordinate system L 0 at the initial time t 0 and the coordinate system L n at the end time of the exercise.
The calculation method of the attitude transformation matrix TL is as follows.
The iterative nearest neighbor method is used to match the i-frame point cloud and the i + 1 frame point cloud, and the i-frame point cloud is used.
And i + 1 frame point cloud
Get the matching relationship of
The attitude transformation of the laser radar from the i-th time to the i + 1th time is composed of the rotation matrix R i and the translation vector ti, shows the attitude transformation relationship of the two-frame point group, and further constructs the error equation. The error equation is converted into the least squared problem, the SVD method is used to calculate R i and ti, and the attitude conversion matrix of the laser radar from the i time to the i + 1 time is calculated by R i and ti .
And the attitude transformation matrix Ti of the laser radar of n frames is cumulatively multiplied to acquire the attitude transformation matrix TL from t 0 time to t n time of the laser radar.
d) Coordinate system of inertial navigation system
Calculate the posture transformation matrix TI between the coordinate system I 0 at the initial time t 0 and the coordinate system In n at the exercise end time t n .
The calculation method of the attitude transformation matrix TI is as follows.
When the acceleration measurement data and the angular velocity measurement data of the inertial navigation system are integrated and the displacement data t I and the rotation data RI are acquired, the attitude transformation matrix from the t 0 time to the t n time of the inertial navigation system is obtained.
Represented in
e) The laser point cloud P n at t n time is projected onto the L 0 coordinate system at t 0 time by TL, and the point cloud P n L is acquired.
f) The laser point cloud P n at t n time is projected onto the L 0 coordinate system at t 0 time by TI and the calibration waiting parameter T LI , and P n I is acquired.
g) Matching the two groups of point clouds P nL and P nI , aligning the two groups of point clouds, optimizing for the external parameter matrix TLI , and adopting the iterative nearest neighbor method, P nL and P. The point cloud region of the same region in which nI is described is registered, the nearest neighbor error Terror is constructed and optimized, and the external parameter matrix TLI is solved by Terror, TL , and TI .
A multi-sensor composite calibration method characterized by this.
決定された3つの外部パラメータ行列TLC、TLI、TCI間の姿勢一貫性に基づいて複合検証を行い、外部パラメータ行列中の変換パラメータを調整し、マルチセンサによる複合キャリブレーションの精度を向上し、
前記パラメータ最適化は、オンライン調整方法を採用し、レーザーレーダ、単眼カメラ、慣性ナビゲーションシステムのデータを融合し、TLI、TCIに対して調整を行う、
ことを特徴とする請求項6に記載のマルチセンサによる複合キャリブレーション方法。 If the visual conditions are sufficient, the observation data of the monocular camera is recorded, the visual-IMU calibration tool is adopted, and the external parameter matrix TCI between the monocular camera and the inertial navigation system is calculated.
Combined verification is performed based on the attitude consistency between the determined three external parameter matrices TLC , TLI , and TCI , and the conversion parameters in the external parameter matrix are adjusted to improve the accuracy of the combined calibration by the multi-sensor. death,
The parameter optimization employs an online adjustment method, fuses data from a laser radar, a monocular camera, and an inertial navigation system, and makes adjustments for TLI and TCI .
The combined calibration method using a multi-sensor according to claim 6.
単眼カメラの観測データを記録し、キャリブレーションツールを採用して視覚-慣性ナビゲーションシステムの外部パラメータ行列TCIを次のようにキャリブレーションする、
ことを特徴とする請求項7に記載のマルチセンサによる複合キャリブレーション方法。 If the visual conditions are sufficient, control the robot arm so that the calibration target appears within the field of view of the camera, and control the robot arm in space under conditions where the camera can always observe the calibration target. Exercise with six degrees of freedom,
Record the observation data of the monocular camera and use a calibration tool to calibrate the external parameter matrix TCI of the visual-inertial navigation system as follows:
The combined calibration method using a multi-sensor according to claim 7.
決定された3つの外部パラメータ行列TLC、TLI、TCI間の姿勢一貫性に基づいて複合検証を行う、
具体的なステップは、以下の通りである、
各姿勢変換誤差を計算する、
その後、各姿勢変換行列誤差がすべて誤差閾値より小さいという制約を満たす条件下で、総誤差errorTが最小になるように、各姿勢変換行列に対して調整を行う、
並進ベクトル及び回転行列中の各ベクトル成分を分析し、並進ベクトルに対して、次の調整を行う、
の具体的なベクトル成分を分析することによって取得し、
回転行列に対して、次のような調整を行う、
ここで、Δrの大きさと正負は、
の具体的なベクトル成分を分析することによって取得する、
ことを特徴とする請求項7に記載のマルチセンサによる複合キャリブレーション方法。
Composite optimization is performed for the attitude transformation matrix between the laser radar, monocular camera, and inertial measurement unit.
Perform composite verification based on postural consistency between the determined three external parameter matrices TLC, TLI , and TCI .
The specific steps are as follows:
Calculate each posture conversion error,
Then, adjustments are made to each posture transformation matrix so that the total error error T is minimized under the condition that all the posture transformation matrix errors are smaller than the error threshold.
Analyze each vector component in the translation vector and rotation matrix, and make the following adjustments to the translation vector.
Obtained by analyzing the concrete vector components of
Make the following adjustments to the rotation matrix,
Here, the magnitude and positive / negative of Δr are
Obtained by analyzing the concrete vector components of,
The combined calibration method using a multi-sensor according to claim 7.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010881818.4A CN111735479B (en) | 2020-08-28 | 2020-08-28 | Multi-sensor combined calibration device and method |
CN202010881818.4 | 2020-08-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022039906A true JP2022039906A (en) | 2022-03-10 |
JP7072759B2 JP7072759B2 (en) | 2022-05-23 |
Family
ID=72658909
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021003139A Active JP7072759B2 (en) | 2020-08-28 | 2021-01-12 | Composite calibration device and method using multiple sensors |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7072759B2 (en) |
CN (1) | CN111735479B (en) |
Cited By (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114770517A (en) * | 2022-05-19 | 2022-07-22 | 梅卡曼德(北京)机器人科技有限公司 | Method for calibrating robot through point cloud acquisition device and calibration system |
CN114993245A (en) * | 2022-05-31 | 2022-09-02 | 山西支点科技有限公司 | High-precision target calibration method of target calibration equipment under movable base platform and external field vibration environment |
CN115026814A (en) * | 2022-06-01 | 2022-09-09 | 中科苏州智能计算技术研究院 | Camera automatic calibration method for mechanical arm motion space reconstruction |
CN115092671A (en) * | 2022-06-08 | 2022-09-23 | 深圳市南科佳安机器人科技有限公司 | Feeding and discharging composite robot and corresponding feeding and discharging control method |
CN115122331A (en) * | 2022-07-04 | 2022-09-30 | 中冶赛迪工程技术股份有限公司 | Workpiece grabbing method and device |
CN115159149A (en) * | 2022-07-28 | 2022-10-11 | 深圳市罗宾汉智能装备有限公司 | Material taking and unloading method and device based on visual positioning |
CN115153925A (en) * | 2022-07-18 | 2022-10-11 | 杭州键嘉机器人有限公司 | Automatic drill positioning device and method for oral dental implant surgery |
CN115241110A (en) * | 2022-08-15 | 2022-10-25 | 魅杰光电科技(上海)有限公司 | Wafer motion control method and wafer motion control system |
CN115284289A (en) * | 2022-08-13 | 2022-11-04 | 上海由格医疗技术有限公司 | Full-automatic hand-eye calibration system and method for mechanical arm, computer equipment and medium |
CN115442584A (en) * | 2022-08-30 | 2022-12-06 | 中国传媒大学 | Multi-sensor fusion irregular surface dynamic projection method |
CN115597624A (en) * | 2022-08-31 | 2023-01-13 | 广州文远知行科技有限公司(Cn) | Performance detection method, device and equipment of inertial navigation unit and storage medium |
CN115712111A (en) * | 2022-11-07 | 2023-02-24 | 北京斯年智驾科技有限公司 | Camera and radar combined calibration method and system, electronic device, computer equipment and storage medium |
CN115778445A (en) * | 2022-12-07 | 2023-03-14 | 佗道医疗科技有限公司 | Laser guidance verification method for tail end of mechanical arm |
CN115793261A (en) * | 2023-01-31 | 2023-03-14 | 北京东方瑞丰航空技术有限公司 | Vision compensation method, system and equipment for VR glasses |
CN115855042A (en) * | 2022-12-12 | 2023-03-28 | 北京自动化控制设备研究所 | Pedestrian visual navigation method based on laser radar cooperative assistance |
CN115890677A (en) * | 2022-11-29 | 2023-04-04 | 中国农业大学 | Dead chicken picking robot for standardized cage chicken house and method thereof |
CN115908121A (en) * | 2023-02-23 | 2023-04-04 | 深圳市精锋医疗科技股份有限公司 | Endoscope registration method and device and calibration system |
CN115965760A (en) * | 2023-03-15 | 2023-04-14 | 成都理工大学 | Debris flow alluvial accumulation simulation experiment accumulation body surface reconstruction system |
CN116000927A (en) * | 2022-12-29 | 2023-04-25 | 中国工程物理研究院机械制造工艺研究所 | Measuring device and method for spatial position guiding precision of robot vision system |
CN116358517A (en) * | 2023-02-24 | 2023-06-30 | 杭州宇树科技有限公司 | Height map construction method, system and storage medium for robot |
CN116366522A (en) * | 2023-01-10 | 2023-06-30 | 中通服创立信息科技有限责任公司 | Cable facility position correction method and system, cable route correction method and system |
CN116423505A (en) * | 2023-03-30 | 2023-07-14 | 杭州邦杰星医疗科技有限公司 | Error calibration method for mechanical arm registration module in mechanical arm navigation operation |
CN116449387A (en) * | 2023-06-15 | 2023-07-18 | 南京师范大学 | Multi-dimensional environment information acquisition platform and calibration method thereof |
CN116512286A (en) * | 2023-04-23 | 2023-08-01 | 九众九机器人有限公司 | Six-degree-of-freedom stamping robot and stamping method thereof |
CN116563297A (en) * | 2023-07-12 | 2023-08-08 | 中国科学院自动化研究所 | Craniocerebral target positioning method, device and storage medium |
CN116687386A (en) * | 2023-08-07 | 2023-09-05 | 青岛市畜牧工作站(青岛市畜牧兽医研究所) | Radar detection system and method for comprehensive calibration of cattle body shape data |
CN116862999A (en) * | 2023-09-04 | 2023-10-10 | 华东交通大学 | Calibration method, system, equipment and medium for three-dimensional measurement of double cameras |
CN116883516A (en) * | 2023-09-07 | 2023-10-13 | 西南科技大学 | Camera parameter calibration method and device |
CN117008122A (en) * | 2023-08-04 | 2023-11-07 | 江苏苏港智能装备产业创新中心有限公司 | Method and system for positioning surrounding objects of engineering mechanical equipment based on multi-radar fusion |
CN117092625A (en) * | 2023-10-10 | 2023-11-21 | 北京斯年智驾科技有限公司 | External parameter calibration method and system of radar and combined inertial navigation system |
CN117086500A (en) * | 2023-08-17 | 2023-11-21 | 深圳市大德激光技术有限公司 | Electrical control system of laser etching equipment |
CN117109505A (en) * | 2023-10-24 | 2023-11-24 | 中国飞机强度研究所 | Method for measuring blocking hook posture and determining space deformation data of carrier-based aircraft |
CN117140536A (en) * | 2023-10-30 | 2023-12-01 | 北京航空航天大学 | Robot control method and device and robot |
CN117257459A (en) * | 2023-11-22 | 2023-12-22 | 杭州先奥科技有限公司 | Map expansion method and system in electromagnetic navigation bronchoscopy with respiratory disturbance resistance |
CN117284499A (en) * | 2023-11-24 | 2023-12-26 | 北京航空航天大学 | Monocular vision-laser-based pose measurement method for spatial unfolding mechanism |
CN117433511A (en) * | 2023-12-20 | 2024-01-23 | 绘见科技(深圳)有限公司 | Multi-sensor fusion positioning method |
CN117646828A (en) * | 2024-01-29 | 2024-03-05 | 中国市政工程西南设计研究总院有限公司 | Device and method for detecting relative displacement and water leakage of pipe jacking interface |
CN117968680A (en) * | 2024-03-29 | 2024-05-03 | 西安现代控制技术研究所 | Inertial-radar integrated navigation limited frame measurement variable weight updating method |
CN117974766A (en) * | 2024-03-28 | 2024-05-03 | 西北工业大学 | Multi-target identity judging method of distributed double infrared sensors based on space-time basis |
CN117994359A (en) * | 2024-04-07 | 2024-05-07 | 广东工业大学 | Linear array camera calibration method and related device based on auxiliary camera |
WO2024096087A1 (en) * | 2022-11-02 | 2024-05-10 | 京セラ株式会社 | Electronic apparatus, electronic apparatus control method, and program |
CN118135034A (en) * | 2024-03-20 | 2024-06-04 | 南京理工大学 | Combined calibration method for three-dimensional point cloud sensor and two-dimensional image sensor of engineering machinery with operation device |
CN118154700A (en) * | 2024-05-10 | 2024-06-07 | 常州星宇车灯股份有限公司 | On-line monitoring method for accuracy of external parameters of vehicle sensor |
CN118205907A (en) * | 2024-03-22 | 2024-06-18 | 浙江公链信息科技有限公司 | Method and system for supplying bags by mechanical arm |
CN118288282A (en) * | 2024-04-09 | 2024-07-05 | 湖南师范大学 | Three-dimensional point cloud positioning measurement method and system for special robot installed on upright post |
WO2024161453A1 (en) * | 2023-01-30 | 2024-08-08 | 三菱電機株式会社 | Image point group data processing device, image point group data processing method, and image point group data processing program |
CN118464069A (en) * | 2024-07-12 | 2024-08-09 | 中南大学 | Static external parameter calibration method |
CN118544551A (en) * | 2024-07-30 | 2024-08-27 | 江苏鸣动智能设备有限公司 | Demolding control method and system for controlling mechanical arm through machine vision |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112577517A (en) * | 2020-11-13 | 2021-03-30 | 上汽大众汽车有限公司 | Multi-element positioning sensor combined calibration method and system |
CN112444798B (en) * | 2020-11-27 | 2024-04-09 | 杭州易现先进科技有限公司 | Method and device for calibrating space-time external parameters of multi-sensor equipment and computer equipment |
CN114643599B (en) * | 2020-12-18 | 2023-07-21 | 沈阳新松机器人自动化股份有限公司 | Three-dimensional machine vision system and method based on point laser and area array camera |
CN112790786A (en) * | 2020-12-30 | 2021-05-14 | 无锡祥生医疗科技股份有限公司 | Point cloud data registration method and device, ultrasonic equipment and storage medium |
CN112881999B (en) * | 2021-01-25 | 2024-02-02 | 上海西虹桥导航技术有限公司 | Semi-automatic calibration method for multi-line laser radar and vision sensor |
CN112509067B (en) * | 2021-02-02 | 2021-04-27 | 中智行科技有限公司 | Multi-sensor combined calibration method and device, electronic equipment and storage medium |
CN112882000B (en) * | 2021-02-05 | 2023-02-03 | 北京科技大学 | Automatic calibration method for laser radar |
CN112927302B (en) * | 2021-02-22 | 2023-08-15 | 山东大学 | Calibration plate and calibration method for combined calibration of multi-line laser radar and camera |
CN113192174B (en) * | 2021-04-06 | 2024-03-26 | 中国计量大学 | Picture construction method and device and computer storage medium |
CN113218435B (en) * | 2021-05-07 | 2023-01-17 | 复旦大学 | Multi-sensor time synchronization method |
CN113298881B (en) * | 2021-05-27 | 2023-09-12 | 中国科学院沈阳自动化研究所 | Spatial joint calibration method for monocular camera-IMU-mechanical arm |
CN113269107A (en) * | 2021-06-01 | 2021-08-17 | 航天智造(上海)科技有限责任公司 | Interactive intelligent disassembling and assembling system based on deep learning |
CN113376618B (en) * | 2021-06-22 | 2024-03-01 | 昆明理工大学 | Multi-path side laser radar point cloud registration device and use method |
CN114252099B (en) * | 2021-12-03 | 2024-02-23 | 武汉科技大学 | Multi-sensor fusion self-calibration method and system for intelligent vehicle |
CN114332240B (en) * | 2021-12-23 | 2024-10-18 | 赛可智能科技(上海)有限公司 | Multi-sensor combined calibration method and calibration device |
CN114894116B (en) * | 2022-04-08 | 2024-02-23 | 苏州瀚华智造智能技术有限公司 | Measurement data fusion method and non-contact measurement equipment |
CN114995497A (en) * | 2022-06-08 | 2022-09-02 | 南京航空航天大学 | Multi-body three-dimensional collaborative inertial SLAM method and device based on formation common map |
CN114879153A (en) * | 2022-06-08 | 2022-08-09 | 中国第一汽车股份有限公司 | Radar parameter calibration method and device and vehicle |
CN114882115B (en) * | 2022-06-10 | 2023-08-25 | 国汽智控(北京)科技有限公司 | Vehicle pose prediction method and device, electronic equipment and storage medium |
CN115674186A (en) * | 2022-08-13 | 2023-02-03 | 苏州深浅优视智能科技有限公司 | Calibration method and system for mechanical arm and 3D camera, electronic device and storage medium |
CN115097427B (en) * | 2022-08-24 | 2023-02-10 | 北原科技(深圳)有限公司 | Automatic calibration method based on time-of-flight method |
CN116038719B (en) * | 2023-04-03 | 2023-07-18 | 广东工业大学 | Method, device and equipment for tracking and measuring pose of tail end of mechanical arm |
CN116630444B (en) * | 2023-07-24 | 2023-09-29 | 中国矿业大学 | Optimization method for fusion calibration of camera and laser radar |
CN117554937B (en) * | 2024-01-08 | 2024-04-26 | 安徽中科星驰自动驾驶技术有限公司 | Error-controllable laser radar and combined inertial navigation external parameter calibration method and system |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103983961A (en) * | 2014-05-20 | 2014-08-13 | 南京理工大学 | Three-dimensional calibration target for joint calibration of 3D laser radar and camera |
JP2018526641A (en) * | 2015-08-24 | 2018-09-13 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | System and method for laser depth map sampling |
CN109828262A (en) * | 2019-03-15 | 2019-05-31 | 苏州天准科技股份有限公司 | Laser radar and the automatic combined calibrating method of camera based on plane and space characteristics |
CN110322519A (en) * | 2019-07-18 | 2019-10-11 | 天津大学 | A kind of caliberating device and scaling method for laser radar and camera combined calibrating |
CN110599541A (en) * | 2019-08-28 | 2019-12-20 | 贝壳技术有限公司 | Method and device for calibrating multiple sensors and storage medium |
JP2020516883A (en) * | 2017-04-17 | 2020-06-11 | コグネックス・コーポレイション | High precision calibration system and method |
US10726579B1 (en) * | 2019-11-13 | 2020-07-28 | Honda Motor Co., Ltd. | LiDAR-camera calibration |
CN111627072A (en) * | 2020-04-30 | 2020-09-04 | 贝壳技术有限公司 | Method and device for calibrating multiple sensors and storage medium |
JP2022514912A (en) * | 2019-11-19 | 2022-02-16 | 浙江商▲湯▼科技▲開▼▲発▼有限公司 | Sensor calibration methods, devices, systems, vehicles, equipment and storage media |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107194983B (en) * | 2017-05-16 | 2018-03-09 | 华中科技大学 | A kind of three-dimensional visualization method and system based on a cloud and image data |
CN109118547A (en) * | 2018-11-01 | 2019-01-01 | 百度在线网络技术(北京)有限公司 | Multi-cam combined calibrating system and method |
CN109712189B (en) * | 2019-03-26 | 2019-06-18 | 深兰人工智能芯片研究院(江苏)有限公司 | A kind of method and apparatus of sensor combined calibrating |
CN110599546A (en) * | 2019-08-28 | 2019-12-20 | 贝壳技术有限公司 | Method, system, device and storage medium for acquiring three-dimensional space data |
CN110686704A (en) * | 2019-10-18 | 2020-01-14 | 深圳市镭神智能系统有限公司 | Pose calibration method, system and medium for laser radar and combined inertial navigation |
CN111127563A (en) * | 2019-12-18 | 2020-05-08 | 北京万集科技股份有限公司 | Combined calibration method and device, electronic equipment and storage medium |
-
2020
- 2020-08-28 CN CN202010881818.4A patent/CN111735479B/en active Active
-
2021
- 2021-01-12 JP JP2021003139A patent/JP7072759B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103983961A (en) * | 2014-05-20 | 2014-08-13 | 南京理工大学 | Three-dimensional calibration target for joint calibration of 3D laser radar and camera |
JP2018526641A (en) * | 2015-08-24 | 2018-09-13 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | System and method for laser depth map sampling |
JP2020516883A (en) * | 2017-04-17 | 2020-06-11 | コグネックス・コーポレイション | High precision calibration system and method |
CN109828262A (en) * | 2019-03-15 | 2019-05-31 | 苏州天准科技股份有限公司 | Laser radar and the automatic combined calibrating method of camera based on plane and space characteristics |
CN110322519A (en) * | 2019-07-18 | 2019-10-11 | 天津大学 | A kind of caliberating device and scaling method for laser radar and camera combined calibrating |
CN110599541A (en) * | 2019-08-28 | 2019-12-20 | 贝壳技术有限公司 | Method and device for calibrating multiple sensors and storage medium |
US10726579B1 (en) * | 2019-11-13 | 2020-07-28 | Honda Motor Co., Ltd. | LiDAR-camera calibration |
JP2022514912A (en) * | 2019-11-19 | 2022-02-16 | 浙江商▲湯▼科技▲開▼▲発▼有限公司 | Sensor calibration methods, devices, systems, vehicles, equipment and storage media |
CN111627072A (en) * | 2020-04-30 | 2020-09-04 | 贝壳技术有限公司 | Method and device for calibrating multiple sensors and storage medium |
Cited By (74)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114770517A (en) * | 2022-05-19 | 2022-07-22 | 梅卡曼德(北京)机器人科技有限公司 | Method for calibrating robot through point cloud acquisition device and calibration system |
CN114770517B (en) * | 2022-05-19 | 2023-08-15 | 梅卡曼德(北京)机器人科技有限公司 | Method for calibrating robot through point cloud acquisition device and calibration system |
CN114993245A (en) * | 2022-05-31 | 2022-09-02 | 山西支点科技有限公司 | High-precision target calibration method of target calibration equipment under movable base platform and external field vibration environment |
CN114993245B (en) * | 2022-05-31 | 2024-04-05 | 山西支点科技有限公司 | High-precision target calibrating method of target calibrating equipment in movable base platform and external field vibration environment |
CN115026814A (en) * | 2022-06-01 | 2022-09-09 | 中科苏州智能计算技术研究院 | Camera automatic calibration method for mechanical arm motion space reconstruction |
CN115026814B (en) * | 2022-06-01 | 2024-04-12 | 中科苏州智能计算技术研究院 | Camera automatic calibration method for mechanical arm movement space reconstruction |
CN115092671A (en) * | 2022-06-08 | 2022-09-23 | 深圳市南科佳安机器人科技有限公司 | Feeding and discharging composite robot and corresponding feeding and discharging control method |
CN115092671B (en) * | 2022-06-08 | 2023-09-26 | 深圳市南科佳安机器人科技有限公司 | Feeding and discharging control method |
CN115122331A (en) * | 2022-07-04 | 2022-09-30 | 中冶赛迪工程技术股份有限公司 | Workpiece grabbing method and device |
CN115153925B (en) * | 2022-07-18 | 2024-04-23 | 杭州键嘉医疗科技股份有限公司 | Automatic drill bit positioning device and method for dental implant operation |
CN115153925A (en) * | 2022-07-18 | 2022-10-11 | 杭州键嘉机器人有限公司 | Automatic drill positioning device and method for oral dental implant surgery |
CN115159149B (en) * | 2022-07-28 | 2024-05-24 | 深圳市罗宾汉智能装备有限公司 | Visual positioning-based material taking and unloading method and device |
CN115159149A (en) * | 2022-07-28 | 2022-10-11 | 深圳市罗宾汉智能装备有限公司 | Material taking and unloading method and device based on visual positioning |
CN115284289A (en) * | 2022-08-13 | 2022-11-04 | 上海由格医疗技术有限公司 | Full-automatic hand-eye calibration system and method for mechanical arm, computer equipment and medium |
CN115241110A (en) * | 2022-08-15 | 2022-10-25 | 魅杰光电科技(上海)有限公司 | Wafer motion control method and wafer motion control system |
CN115241110B (en) * | 2022-08-15 | 2023-12-08 | 魅杰光电科技(上海)有限公司 | Wafer motion control method and wafer motion control system |
CN115442584A (en) * | 2022-08-30 | 2022-12-06 | 中国传媒大学 | Multi-sensor fusion irregular surface dynamic projection method |
CN115442584B (en) * | 2022-08-30 | 2023-08-18 | 中国传媒大学 | Multi-sensor fusion type special-shaped surface dynamic projection method |
CN115597624A (en) * | 2022-08-31 | 2023-01-13 | 广州文远知行科技有限公司(Cn) | Performance detection method, device and equipment of inertial navigation unit and storage medium |
WO2024096087A1 (en) * | 2022-11-02 | 2024-05-10 | 京セラ株式会社 | Electronic apparatus, electronic apparatus control method, and program |
CN115712111A (en) * | 2022-11-07 | 2023-02-24 | 北京斯年智驾科技有限公司 | Camera and radar combined calibration method and system, electronic device, computer equipment and storage medium |
CN115890677B (en) * | 2022-11-29 | 2024-06-11 | 中国农业大学 | Dead chicken picking robot for standardized cage chicken house and method thereof |
CN115890677A (en) * | 2022-11-29 | 2023-04-04 | 中国农业大学 | Dead chicken picking robot for standardized cage chicken house and method thereof |
CN115778445A (en) * | 2022-12-07 | 2023-03-14 | 佗道医疗科技有限公司 | Laser guidance verification method for tail end of mechanical arm |
CN115855042A (en) * | 2022-12-12 | 2023-03-28 | 北京自动化控制设备研究所 | Pedestrian visual navigation method based on laser radar cooperative assistance |
CN116000927A (en) * | 2022-12-29 | 2023-04-25 | 中国工程物理研究院机械制造工艺研究所 | Measuring device and method for spatial position guiding precision of robot vision system |
CN116366522A (en) * | 2023-01-10 | 2023-06-30 | 中通服创立信息科技有限责任公司 | Cable facility position correction method and system, cable route correction method and system |
WO2024161453A1 (en) * | 2023-01-30 | 2024-08-08 | 三菱電機株式会社 | Image point group data processing device, image point group data processing method, and image point group data processing program |
CN115793261A (en) * | 2023-01-31 | 2023-03-14 | 北京东方瑞丰航空技术有限公司 | Vision compensation method, system and equipment for VR glasses |
CN115908121A (en) * | 2023-02-23 | 2023-04-04 | 深圳市精锋医疗科技股份有限公司 | Endoscope registration method and device and calibration system |
CN116358517B (en) * | 2023-02-24 | 2024-02-23 | 杭州宇树科技有限公司 | Height map construction method, system and storage medium for robot |
CN116358517A (en) * | 2023-02-24 | 2023-06-30 | 杭州宇树科技有限公司 | Height map construction method, system and storage medium for robot |
CN115965760A (en) * | 2023-03-15 | 2023-04-14 | 成都理工大学 | Debris flow alluvial accumulation simulation experiment accumulation body surface reconstruction system |
CN116423505B (en) * | 2023-03-30 | 2024-04-23 | 杭州邦杰星医疗科技有限公司 | Error calibration method for mechanical arm registration module in mechanical arm navigation operation |
CN116423505A (en) * | 2023-03-30 | 2023-07-14 | 杭州邦杰星医疗科技有限公司 | Error calibration method for mechanical arm registration module in mechanical arm navigation operation |
CN116512286A (en) * | 2023-04-23 | 2023-08-01 | 九众九机器人有限公司 | Six-degree-of-freedom stamping robot and stamping method thereof |
CN116512286B (en) * | 2023-04-23 | 2023-11-14 | 九众九机器人有限公司 | Six-degree-of-freedom stamping robot and stamping method thereof |
CN116449387A (en) * | 2023-06-15 | 2023-07-18 | 南京师范大学 | Multi-dimensional environment information acquisition platform and calibration method thereof |
CN116449387B (en) * | 2023-06-15 | 2023-09-12 | 南京师范大学 | Multi-dimensional environment information acquisition platform and calibration method thereof |
CN116563297B (en) * | 2023-07-12 | 2023-10-31 | 中国科学院自动化研究所 | Craniocerebral target positioning method, device and storage medium |
CN116563297A (en) * | 2023-07-12 | 2023-08-08 | 中国科学院自动化研究所 | Craniocerebral target positioning method, device and storage medium |
CN117008122A (en) * | 2023-08-04 | 2023-11-07 | 江苏苏港智能装备产业创新中心有限公司 | Method and system for positioning surrounding objects of engineering mechanical equipment based on multi-radar fusion |
CN116687386B (en) * | 2023-08-07 | 2023-10-31 | 青岛市畜牧工作站(青岛市畜牧兽医研究所) | Radar detection system and method for comprehensive calibration of cattle body shape data |
CN116687386A (en) * | 2023-08-07 | 2023-09-05 | 青岛市畜牧工作站(青岛市畜牧兽医研究所) | Radar detection system and method for comprehensive calibration of cattle body shape data |
CN117086500A (en) * | 2023-08-17 | 2023-11-21 | 深圳市大德激光技术有限公司 | Electrical control system of laser etching equipment |
CN116862999A (en) * | 2023-09-04 | 2023-10-10 | 华东交通大学 | Calibration method, system, equipment and medium for three-dimensional measurement of double cameras |
CN116862999B (en) * | 2023-09-04 | 2023-12-08 | 华东交通大学 | Calibration method, system, equipment and medium for three-dimensional measurement of double cameras |
CN116883516A (en) * | 2023-09-07 | 2023-10-13 | 西南科技大学 | Camera parameter calibration method and device |
CN116883516B (en) * | 2023-09-07 | 2023-11-24 | 西南科技大学 | Camera parameter calibration method and device |
CN117092625A (en) * | 2023-10-10 | 2023-11-21 | 北京斯年智驾科技有限公司 | External parameter calibration method and system of radar and combined inertial navigation system |
CN117092625B (en) * | 2023-10-10 | 2024-01-02 | 北京斯年智驾科技有限公司 | External parameter calibration method and system of radar and combined inertial navigation system |
CN117109505A (en) * | 2023-10-24 | 2023-11-24 | 中国飞机强度研究所 | Method for measuring blocking hook posture and determining space deformation data of carrier-based aircraft |
CN117109505B (en) * | 2023-10-24 | 2024-01-30 | 中国飞机强度研究所 | Method for measuring blocking hook posture and determining space deformation data of carrier-based aircraft |
CN117140536A (en) * | 2023-10-30 | 2023-12-01 | 北京航空航天大学 | Robot control method and device and robot |
CN117140536B (en) * | 2023-10-30 | 2024-01-09 | 北京航空航天大学 | Robot control method and device and robot |
CN117257459B (en) * | 2023-11-22 | 2024-03-12 | 杭州先奥科技有限公司 | Map expansion method and system in electromagnetic navigation bronchoscopy with respiratory disturbance resistance |
CN117257459A (en) * | 2023-11-22 | 2023-12-22 | 杭州先奥科技有限公司 | Map expansion method and system in electromagnetic navigation bronchoscopy with respiratory disturbance resistance |
CN117284499A (en) * | 2023-11-24 | 2023-12-26 | 北京航空航天大学 | Monocular vision-laser-based pose measurement method for spatial unfolding mechanism |
CN117284499B (en) * | 2023-11-24 | 2024-01-19 | 北京航空航天大学 | Monocular vision-laser-based pose measurement method for spatial unfolding mechanism |
CN117433511B (en) * | 2023-12-20 | 2024-03-12 | 绘见科技(深圳)有限公司 | Multi-sensor fusion positioning method |
CN117433511A (en) * | 2023-12-20 | 2024-01-23 | 绘见科技(深圳)有限公司 | Multi-sensor fusion positioning method |
CN117646828B (en) * | 2024-01-29 | 2024-04-05 | 中国市政工程西南设计研究总院有限公司 | Device and method for detecting relative displacement and water leakage of pipe jacking interface |
CN117646828A (en) * | 2024-01-29 | 2024-03-05 | 中国市政工程西南设计研究总院有限公司 | Device and method for detecting relative displacement and water leakage of pipe jacking interface |
CN118135034A (en) * | 2024-03-20 | 2024-06-04 | 南京理工大学 | Combined calibration method for three-dimensional point cloud sensor and two-dimensional image sensor of engineering machinery with operation device |
CN118205907A (en) * | 2024-03-22 | 2024-06-18 | 浙江公链信息科技有限公司 | Method and system for supplying bags by mechanical arm |
CN117974766B (en) * | 2024-03-28 | 2024-06-07 | 西北工业大学 | Multi-target identity judging method of distributed double infrared sensors based on space-time basis |
CN117974766A (en) * | 2024-03-28 | 2024-05-03 | 西北工业大学 | Multi-target identity judging method of distributed double infrared sensors based on space-time basis |
CN117968680A (en) * | 2024-03-29 | 2024-05-03 | 西安现代控制技术研究所 | Inertial-radar integrated navigation limited frame measurement variable weight updating method |
CN117994359A (en) * | 2024-04-07 | 2024-05-07 | 广东工业大学 | Linear array camera calibration method and related device based on auxiliary camera |
CN117994359B (en) * | 2024-04-07 | 2024-06-11 | 广东工业大学 | Linear array camera calibration method and related device based on auxiliary camera |
CN118288282A (en) * | 2024-04-09 | 2024-07-05 | 湖南师范大学 | Three-dimensional point cloud positioning measurement method and system for special robot installed on upright post |
CN118154700A (en) * | 2024-05-10 | 2024-06-07 | 常州星宇车灯股份有限公司 | On-line monitoring method for accuracy of external parameters of vehicle sensor |
CN118464069A (en) * | 2024-07-12 | 2024-08-09 | 中南大学 | Static external parameter calibration method |
CN118544551A (en) * | 2024-07-30 | 2024-08-27 | 江苏鸣动智能设备有限公司 | Demolding control method and system for controlling mechanical arm through machine vision |
Also Published As
Publication number | Publication date |
---|---|
JP7072759B2 (en) | 2022-05-23 |
CN111735479B (en) | 2021-03-23 |
CN111735479A (en) | 2020-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7072759B2 (en) | Composite calibration device and method using multiple sensors | |
CN110555889B (en) | CALTag and point cloud information-based depth camera hand-eye calibration method | |
CN108932736B (en) | Two-dimensional laser radar point cloud data processing method and dynamic robot pose calibration method | |
CN109035200B (en) | Bolt positioning and pose detection method based on single-eye and double-eye vision cooperation | |
CN112396664B (en) | Monocular camera and three-dimensional laser radar combined calibration and online optimization method | |
CN110728715B (en) | Intelligent inspection robot camera angle self-adaptive adjustment method | |
CN110146038B (en) | Distributed monocular camera laser measuring device and method for assembly corner of cylindrical part | |
CN111775146A (en) | Visual alignment method under industrial mechanical arm multi-station operation | |
CN110456330B (en) | Method and system for automatically calibrating external parameter without target between camera and laser radar | |
CN103727927B (en) | The high-speed moving object pose vision measuring method of structure based light | |
CN113627473A (en) | Water surface unmanned ship environment information fusion sensing method based on multi-mode sensor | |
Mi et al. | A vision-based displacement measurement system for foundation pit | |
CN103065323A (en) | Subsection space aligning method based on homography transformational matrix | |
CN109597086A (en) | A kind of motion measuring method of the outer hanging object of contactless helicopter | |
CN114608554B (en) | Handheld SLAM equipment and robot instant positioning and mapping method | |
CN115371665B (en) | Mobile robot positioning method based on depth camera and inertial fusion | |
CN110720113A (en) | Parameter processing method and device, camera equipment and aircraft | |
CN118135526B (en) | Visual target recognition and positioning method for four-rotor unmanned aerial vehicle based on binocular camera | |
CN114067210A (en) | Mobile robot intelligent grabbing method based on monocular vision guidance | |
CN117621103A (en) | Nursing robot ranging and obstacle avoidance method based on pose self-adaptive inverse perspective transformation | |
CN114777768A (en) | High-precision positioning method and system for satellite rejection environment and electronic equipment | |
CN114554030B (en) | Device detection system and device detection method | |
CN112837314A (en) | Fruit tree canopy parameter detection system and method based on 2D-LiDAR and Kinect | |
CN114998444B (en) | Robot high-precision pose measurement system based on two-channel network | |
CN110136168B (en) | Multi-rotor speed measuring method based on feature point matching and optical flow method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210312 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220411 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7072759 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |