Nothing Special   »   [go: up one dir, main page]

JP2022039906A - Multi-sensor combined calibration device and method - Google Patents

Multi-sensor combined calibration device and method Download PDF

Info

Publication number
JP2022039906A
JP2022039906A JP2021003139A JP2021003139A JP2022039906A JP 2022039906 A JP2022039906 A JP 2022039906A JP 2021003139 A JP2021003139 A JP 2021003139A JP 2021003139 A JP2021003139 A JP 2021003139A JP 2022039906 A JP2022039906 A JP 2022039906A
Authority
JP
Japan
Prior art keywords
calibration
camera
laser radar
calibration plate
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021003139A
Other languages
Japanese (ja)
Other versions
JP7072759B2 (en
Inventor
哉 ▲羅▼
Zai Luo
文松 江
Wensong Jiang
志▲遠▼ 朱
Zhiyuan Zhu
洪楠 ▲趙▼
Hongnan Zhao
▲げい▼文 ▲陳▼
Yiwen Chen
杰伊 黄
Jieyi Huang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Jiliang University
Original Assignee
China Jiliang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Jiliang University filed Critical China Jiliang University
Publication of JP2022039906A publication Critical patent/JP2022039906A/en
Application granted granted Critical
Publication of JP7072759B2 publication Critical patent/JP7072759B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • G01C25/005Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

To provide a multi-sensor combined calibration device and method.SOLUTION: The multi-sensor combined calibration device comprises a robot arm; a sensor fusion frame is arranged on the robot arm; a laser radar, a monocular camera and a computer for processing data are arranged on the sensor fusion frame; it further comprises a laser radar-camera four-calibration-plate combined calibration target; the laser radar-camera four-calibration-plate combined calibration target comprises a first calibration plate, a second calibration plate, a third calibration plate and a fourth calibration plate; the central positions of the first calibration plate, the second calibration plate and the third calibration plate are marked by dots, which are used for providing feature points for external parameter calibration.SELECTED DRAWING: Figure 1

Description

本発明は、センサ技術分野に関するものである。特に、マルチセンサによるキャリブレーション技術に関するものである。 The present invention relates to the field of sensor technology. In particular, it relates to a calibration technique using a multi-sensor.

リアルタイム位置特定と地図構築(Simultaneous Localization and Mapping、SLAMと称する)技術は、無人運転のための環境認識情報を提供しており、従来のSLAM技術は、レーザーSLAMと視覚SLAMに分けられる。レーザーレーダは測距精度が高く、光の影響を受けない等の利点があり、カメラはコストが低く、画像情報が豊富である等の利点がある。しかしながら、単一センサSLAMには、大きな局限性がある。例えば、レーザーレーダの場合、更新頻度が遅く、モーション歪みがあって、雨や雪等の過酷な環境下では正確な測定値を提供できない。カメラの場合、正確な三次元情報を取得できなく、周囲光による制限が比較的に大きい。 Real-time localization and mapping (referred to as Simultaneous Localization and Mapping) technology provides environmental awareness information for unmanned driving, and conventional SLAM technology is divided into laser SLAM and visual SLAM. Laser radar has advantages such as high distance measurement accuracy and is not affected by light, and cameras have advantages such as low cost and abundant image information. However, the single sensor SLAM has great localization. For example, in the case of a laser radar, the update frequency is slow, there is motion distortion, and it is not possible to provide accurate measured values in a harsh environment such as rain or snow. In the case of a camera, accurate three-dimensional information cannot be obtained, and the limitation due to ambient light is relatively large.

慣性ナビゲーションシステムは、姿勢推定補助ツールとして、正確な角速度と加速度を提供できる。そのため、レーザーレーダ、視覚センサ、慣性ナビゲーションシステム等のマルチセンサデータを融合することにより、SLAMの環境知覚能力を向上させることができる。 Inertial navigation systems can provide accurate angular velocities and accelerations as attitude estimation aids. Therefore, the environmental perception ability of SLAM can be improved by fusing multi-sensor data such as a laser radar, a visual sensor, and an inertial navigation system.

SLAMシステム中のセンサのキャリブレーションは、内部パラメータキャリブレーションと外部パラメータキャリブレーションに分けられる。センサの内部パラメータキャリブレーションは、主に、センサ測定データの正確さを確保するためのカメラの内部パラメータ行列の計算と慣性ナビゲーションシステムの誤差係数の計算を指す。センサ間の外部パラメータキャリブレーションは、マルチセンサ情報の融合を正確に行うための前提条件であり、センサ間の外部パラメータキャリブレーションは、各センサの座標系間の姿勢変換関係を決定することである。 Calibration of the sensors in the SLAM system is divided into internal parameter calibration and external parameter calibration. Sensor internal parameter calibration mainly refers to the calculation of the camera's internal parameter matrix and the error coefficient of the inertial navigation system to ensure the accuracy of the sensor measurement data. External parameter calibration between sensors is a prerequisite for accurate fusion of multi-sensor information, and external parameter calibration between sensors determines the attitude conversion relationship between the coordinate systems of each sensor. ..

従来の外部パラメータキャリブレーション方法は、車体座標系を基準として、レーザーレーダの座標系、カメラ座標系、慣性ナビゲーションシステムの座標系から車体座標系への姿勢変換関係を求める。ただし、従来の外部パラメータキャリブレーションでは、すべてのセンサが車体内に固定され、車体は運動次元の制限を受けるため、キャリブレーション過程は複雑であり、ヨー角とロール角の正確なキャリブレーションを実現することは困難である。 In the conventional external parameter calibration method, the attitude conversion relationship from the coordinate system of the laser radar, the coordinate system of the camera, and the coordinate system of the inertial navigation system to the coordinate system of the vehicle body is obtained with reference to the coordinate system of the vehicle body. However, in the conventional external parameter calibration, all the sensors are fixed in the car body and the car body is limited in the motion dimension, so the calibration process is complicated and accurate calibration of yaw angle and roll angle is realized. It's difficult to do.

レーザーレーダは測距精度が高く、キャリブレーション参照物に対して特別な要件はないが、カメラは二次元画像特性に基づくため、キャリブレーションするためには特定のキャリブレーション参照物が必要である。現在、既存のレーザーレーダとカメラの外部パラメータキャリブレーション方法には、単一の碁盤目キャリブレーションプレートに基づくキャリブレーション方法、「L」字の形状のキャリブレーションプレートに基づくキャリブレーション方法、及び三次元碁盤目ターゲットに基づくキャリブレーション方法が含まれる。これらの方法は類似しており、すべてレーザーの三次元特徴点とカメラの二次元特徴点をマッチングすることにより、外部パラメータ行列の求解を行うことである。 Laser radar has high ranging accuracy and has no special requirements for calibration reference, but since the camera is based on 2D image characteristics, a specific calibration reference is required for calibration. Currently, existing laser radar and camera external parameter calibration methods include a single grid calibration plate-based calibration method, an "L" -shaped calibration plate-based calibration method, and three-dimensional calibration methods. A calibration method based on a grid target is included. These methods are similar, all of which are to solve the external parameter matrix by matching the 3D feature points of the laser with the 2D feature points of the camera.

レーザーレーダと慣性ナビゲーションシステムのキャリブレーションは、運動条件下で行う必要があり、慣性ナビゲーションシステムは、正確な加速度測定値と角速度測定値を提供することができる。従来のキャリブレーション方法は、ハンドアイキャリブレーション方法であるが、そのキャリブレーションの精度を保証することは困難である。中国百度(バイドゥ)のApollo(アポロ)キャリブレーションツールは、「8」字の形状の回りを運動するように車両を制御することにより、センサのデータ採集と外部パラメータキャリブレーションを実現する。 The laser radar and inertial navigation system must be calibrated under motion conditions, and the inertial navigation system can provide accurate acceleration and angular velocity measurements. The conventional calibration method is a hand-eye calibration method, but it is difficult to guarantee the accuracy of the calibration. Baidu's Apollo calibration tool in China enables sensor data collection and external parameter calibration by controlling the vehicle to move around an "8" shape.

マルチセンサによる複合キャリブレーションは、現在無人運転の分野で最もホットなトピックの一つである。既存のキャリブレーション技術は、自動化の程度が低く、操作が複雑であり、精度が低い等のデメリットがある。 Combined calibration with multiple sensors is currently one of the hottest topics in the field of unmanned driving. The existing calibration technology has disadvantages such as low degree of automation, complicated operation, and low accuracy.

本発明は従来技術に存在する上記の課題を解決するためになされたものであり、操作が簡単であり、精度が高いマルチセンサによる複合キャリブレーション装置及び方法を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems existing in the prior art, and an object of the present invention is to provide a composite calibration device and method using a multi-sensor, which is easy to operate and has high accuracy.

本発明の目的は、以下の技術的解決策を通じて達成することができる。 The object of the present invention can be achieved through the following technical solutions.

ロボットアームを含み、前記ロボットアーム上にはセンサ融合フレームが設置され、センサ融合フレーム上にはレーザーレーダ、単眼カメラ、及びデータ処理のためのコンピュータが設置され、レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲットをさらに含み、前記レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲットは、一号キャリブレーションプレート、二号キャリブレーションプレート、三号キャリブレーションプレート、四号キャリブレーションプレートを含み、一号キャリブレーションプレート、二号キャリブレーションプレート、三号キャリブレーションプレートの中心位置はドットでマークされ、外部パラメータキャリブレーションの特徴点を提供するために使用され、四号キャリブレーションプレート上には、カメラの内部パラメータキャリブレーションのために黒白の碁盤目模様が配列され、4つのキャリブレーションプレートは、「田」字の形状に配置され、一号キャリブレーションプレートと二号キャリブレーションプレートは並列に配置され、三号キャリブレーションプレートと四号キャリブレーションプレートは一号キャリブレーションと二号キャリブレーションプレートの前方に並列に配置され、三号キャリブレーションプレートと四号キャリブレーションプレートは一号キャリブレーションプレートと二号キャリブレーションプレートより低く、三号キャリブレーションプレート表面の法線ベクトルn3と四号キャリブレーションプレート表面の法線ベクトルn4との間の角度差は30°より大きく、一号キャリブレーションプレート表面の法線ベクトルn1と二号キャリブレーションプレート表面の法線ベクトルn2との間の角度差は30°より大きい、マルチセンサによる複合キャリブレーション装置を提供する。 A sensor fusion frame is installed on the robot arm including the robot arm, a laser radar, a monocular camera, and a computer for data processing are installed on the sensor fusion frame, and a four calibration plate by a laser radar-camera is installed. Further including a composite calibration target, said laser radar-camera four calibration plate composite calibration target includes a No. 1 calibration plate, a No. 2 calibration plate, a No. 3 calibration plate, and a No. 4 calibration plate. The center positions of the No. 1 calibration plate, No. 2 calibration plate, and No. 3 calibration plate are marked with dots and are used to provide the feature points of the external parameter calibration. Black and white grid patterns are arranged for internal parameter calibration of the camera, four calibration plates are arranged in the shape of "ta", and No. 1 calibration plate and No. 2 calibration plate are arranged in parallel. The No. 3 calibration plate and the No. 4 calibration plate are placed in parallel in front of the No. 1 calibration and the No. 2 calibration plate, and the No. 3 calibration plate and the No. 4 calibration plate are the No. 1 calibration plate. Lower than the No. 2 calibration plate, the angle difference between the normal vector n3 on the surface of the No. 3 calibration plate and the normal vector n4 on the surface of the No. 4 calibration plate is larger than 30 °, and the surface of the No. 1 calibration plate Provided is a multi-sensor composite calibration device in which the angle difference between the normal vector n1 and the normal vector n2 on the surface of the No. 2 calibration plate is larger than 30 °.

カメラの内部パラメータキャリブレーションと、レーザーレーダ-カメラの外部パラメータキャリブレーションとを含むマルチセンサによる複合キャリブレーション方法を提供する。カメラの内部パラメータキャリブレーションの場合、異なる姿勢下でカメラが碁盤目キャリブレーションプレートに対して撮影を行うように、コンピュータユニットがロボットアーム及びカメラを制御し、張正友(ZhangZhengyou)キャリブレーション方法を採用してカメラの内部パラメータKを計算する。レーザーレーダ-カメラの外部パラメータキャリブレーションの場合、以下のステップを含む。 Provided is a multi-sensor composite calibration method including internal parameter calibration of a camera and external parameter calibration of a laser radar-camera. In the case of camera internal parameter calibration, the computer unit controls the robot arm and camera so that the camera shoots against the grid calibration plate under different postures, and Zhang Zhengyou calibration method is adopted. The internal parameter K of the camera is calculated. For laser radar-camera external parameter calibration, it involves the following steps:

ステップ1、キャリブレーションプレートモジュールがレーザーレーダ及びカメラの視野範囲に現れるように、コンピュータユニットがロボットアームの姿勢を調整するとともに、ロボットアームを制御して静止状態を維持し、レーザーレーダ及びカメラはデータ採集を行う。 Step 1. The computer unit adjusts the posture of the robot arm so that the calibration plate module appears in the field of view of the laser radar and the camera, and controls the robot arm to keep it stationary. Collect.

ステップ2、レーザーレーダデータに対して分析及び処理を行い、点群特徴点を抽出し、各点群の座標情報を記録し、異常点をフィルタリングし、点群分割法を採用して点群データを分割し、4つのキャリブレーションプレートの点群データを4つの異なるグループ{L}、{L}、{L},{L}へ分け、K-means方法を利用して点群のクラスタリング中心点を抽出し、

Figure 2022039906000002
は、第i番目のキャリブレーションプレートの中心点位置のレーザーレーダの座標系における三次元座標値であり、
Figure 2022039906000003
をマッチングのためのレーザー特徴点として選定する。 Step 2. Analyze and process the laser radar data, extract the point cloud feature points, record the coordinate information of each point cloud, filter the abnormal points, and adopt the point cloud division method to obtain the point cloud data. Is divided into four different groups {L 1 }, {L 2 }, {L 3 }, {L 4 }, and the point cloud data of the four calibration plates is divided into four different groups {L 1}, {L 3}, {L 4}, and the point cloud is used by the K-means method. Extract the clustering center point of
Figure 2022039906000002
Is the three-dimensional coordinate value in the laser radar coordinate system at the center point position of the i-th calibration plate.
Figure 2022039906000003
Is selected as a laser feature point for matching.

ステップ3、カメラデータに対して分析及び処理を行い、視覚特徴点を抽出し、各ピクセルのグレー値を記録し、FASTキーポイント抽出アルゴリズムを採用し、キャリブレーションプレートのローカルピクセルのグレー値が明らかに変化された箇所を検出することにより、各キャリブレーションプレートの中心点位置を抽出し、一号キャリブレーションプレート、二号キャリブレーションプレート、三号キャリブレーションプレートのドット中心点位置を抽出し、その座標値C、C、Cを記録し、碁盤目間の関係を分析することにより、四号キャリブレーションプレートの中心点座標値Cを求め、Cは、第i番目のキャリブレーションプレートの中心点位置のカメラ座標系Cにおける二次元座標値であり、Cをマッチングのための視覚特徴点として選定する。 Step 3, analyze and process the camera data, extract visual feature points, record the gray value of each pixel, adopt the FAST keypoint extraction algorithm, and reveal the gray value of the local pixel of the calibration plate. By detecting the location changed to, the center point position of each calibration plate is extracted, and the dot center point positions of the No. 1 calibration plate, No. 2 calibration plate, and No. 3 calibration plate are extracted, and the dot center point positions are extracted. By recording the coordinate values C 1 , C 2 , and C 3 and analyzing the relationship between the grids, the center point coordinate value C 4 of the No. 4 calibration plate is obtained, and C i is the i-th calibration. It is a two-dimensional coordinate value in the camera coordinate system C at the center point position of the plate, and Ci is selected as a visual feature point for matching.

ステップ4、レーザーレーダの特徴点

Figure 2022039906000004
及びカメラの特徴点
Figure 2022039906000005
によってマッチング関係
Figure 2022039906000006
を確立し、特徴点のマッチング関係によって最小再投影誤差を確立し、誤差方程式を構築し、誤差方程式によって最小二乗法による求解を行い、最適な外部パラメータ行列TLCを取得する。 Step 4, features of laser radar
Figure 2022039906000004
And camera features
Figure 2022039906000005
Matching relationship by
Figure 2022039906000006
Is established, the minimum reprojection error is established by the matching relationship of the feature points, the error equation is constructed, the solution is performed by the least squares method by the error equation, and the optimum external parameter matrix TLC is obtained.

いくつかの実施形態では、キャリブレーションプレートの中心位置特徴点に基づいて、キャリブレーションプレートのエッジ位置を採集して特徴点とする。 In some embodiments, the edge positions of the calibration plate are collected and used as feature points based on the center position feature points of the calibration plate.

いくつかの実施形態では、前記カメラの内部パラメータキャリブレーションは、碁盤目キャリブレーション方法を採用しており、前記碁盤目キャリブレーション方法は、異なる姿勢下でカメラが碁盤目キャリブレーションプレートに対して撮影を行うように、コンピュータユニットがロボットアーム及びカメラを制御し、20~30枚の画像のエッジ情報を抽出し、張正友(ZhangZhengyou)キャリブレーション方法を採用してカメラの内部パラメータKを計算することである。 In some embodiments, the internal parameter calibration of the camera employs a grid calibration method, in which the camera captures the grid calibration plate under different postures. The computer unit controls the robot arm and the camera, extracts the edge information of 20 to 30 images, and uses the ZhangZhengyou calibration method to calculate the internal parameter K of the camera. be.

いくつかの実施形態では、センサ融合フレーム上に配置された慣性ナビゲーションシステムをさらに含む。複合キャリブレーション方法には、レーザーレーダ及び慣性ナビゲーションシステムによる複合キャリブレーション方法を含む。ロボットアームの初期運動時刻をtとして定義し、ロボットアームの運動終了時刻をtとして定義し、t時刻に走査されたレーザー点群をPとして定義し、t時刻でのレーザーレーダの座標系をLとして定義し、t時刻での慣性ナビゲーションシステムの座標系をIとして定義し、t時刻でのレーザーレーダの座標系をLとして定義し、t時刻での慣性ナビゲーションシステムの座標系をIとして定義し、レーザーレーダのt時刻からt時刻までの間の姿勢変換行列をTとして定義し、慣性ナビゲーションシステムのt時刻からt時刻までの間の姿勢変換行列をTとして定義し、レーザーレーダと慣性ナビゲーションシステムとの間の外部パラメータ行列をTLIとして定義する。 Some embodiments further include an inertial navigation system located on the sensor fusion frame. The combined calibration method includes a combined calibration method using a laser radar and an inertial navigation system. The initial motion time of the robot arm is defined as t 0 , the motion end time of the robot arm is defined as t n , the laser point group scanned at t n time is defined as P n , and the laser radar at t 0 time. The coordinate system of is defined as L 0 , the coordinate system of the inertial navigation system at t 0 time is defined as I 0 , the coordinate system of the laser radar at t n time is defined as L n , and at t n time. The coordinate system of the inertial navigation system is defined as In, the attitude conversion matrix between t 0 time and t n time of the laser radar is defined as T L , and the inertial navigation system is defined from t 0 time to t n time. The attitude conversion matrix between is defined as TI, and the external parameter matrix between the laser radar and the inertial navigation system is defined as TLI .

前記複合キャリブレーション方法は、以下のステップを含む。
ステップ1、ロボットアームは指定された軌跡に従って運動を行い、ロボットアームの運動過程中に、レーザーレーダ及び慣性ナビゲーションシステムがデータ採集を行う。
ステップ2、ロボットアームを制御して運動を停止し、センサによって採集されたデータに対して処理を行う。レーザーレーダの場合、均一運動モデルに従ってフレーム毎のレーザー点群に対して歪み除去処理を行う。点群フィルタリングアルゴリズムを採用し、点群データ中の外れ値を除去する。計算の複雑さを軽減するために、ボクセルグリッド方法を使用してフレーム毎のレーザー点群データに対してダウンサンプリング処理を行う。
ステップ3、レーザーレーダの座標系

Figure 2022039906000007
の初期時刻tでの座標系Lと運動終了時刻での座標系Lとの間の姿勢変換行列Tを計算する。姿勢変換行列Tの計算方法は、下記の通りである。反復最近傍法を採用して第iフレーム点群と第i+1フレーム点群をマッチングし、第iフレーム点群
Figure 2022039906000008
と第i+1フレーム点群
Figure 2022039906000009
のマッチング関係を取得する。第i時刻から第i+1時刻までのレーザーレーダの姿勢変換は、回転行列Rと並進ベクトルtから構成されており、2フレーム点群の姿勢変換関係を示す。さらに、誤差方程式を構築し、誤差方程式を最小二乗問題に変換し、SVD法を採用してR、tを計算する。R、tによって第i時刻から第i+1時刻までのレーザーレーダの姿勢変換行列を
Figure 2022039906000010
として取得する。さらに、nフレームのレーザーレーダの姿勢変換行列Tを累積的に乗算し、レーザーレーダのt時刻からt時刻までの姿勢変換行列Tを取得する。
ステップ4、慣性ナビゲーションシステムの座標系
Figure 2022039906000011
の初期時刻tでの座標系Iと運動終了時刻tでの座標系Iとの間の姿勢変換行列Tを計算する。姿勢変換行列Tの計算方法は、下記の通りである。慣性ナビゲーションシステムの加速度測定データ及び角速度測定データに対して積分を行い、変位データt及び回転データRを取得すると、慣性ナビゲーションシステムのt時刻からt時刻までの姿勢変換行列
Figure 2022039906000012
Figure 2022039906000013
に表される。
ステップ5、Tによってt時刻でのレーザー点群Pをt時刻でのL座標系に投影し、点群PnLを取得する。
ステップ6、T及びキャリブレーション待ちパラメータTLIによってt時刻でのレーザー点群Pをt時刻でのL座標系に投影し、PnIを取得する。
ステップ7、2グループの点群PnL及びPnIをマッチングする。2グループの点群を整列し、外部パラメータ行列TLIに対して最適化を行う。反復最近傍法を採用してPnL及びPnIが記述された同一点群領域をレジストレーションし、最近傍誤差Terrorを構築及び最適化し、Terror、T、Tによって外部パラメータ行列TLIを求解する。 The combined calibration method includes the following steps.
Step 1. The robot arm moves according to a designated trajectory, and the laser radar and the inertial navigation system collect data during the movement process of the robot arm.
Step 2. The robot arm is controlled to stop the movement, and the data collected by the sensor is processed. In the case of laser radar, distortion removal processing is performed on the laser point cloud for each frame according to the uniform motion model. A point cloud filtering algorithm is used to remove outliers in the point cloud data. To reduce the complexity of the calculation, the voxel grid method is used to downsample the laser point cloud data for each frame.
Step 3, laser radar coordinate system
Figure 2022039906000007
The posture transformation matrix TL between the coordinate system L 0 at the initial time t 0 and the coordinate system L n at the end time of the exercise is calculated. The calculation method of the attitude transformation matrix TL is as follows. The iterative nearest neighbor method is used to match the i-frame point cloud and the i + 1 frame point cloud, and the i-frame point cloud is used.
Figure 2022039906000008
And i + 1 frame point cloud
Figure 2022039906000009
Get the matching relationship of. The attitude conversion of the laser radar from the i-th time to the i + 1-th time is composed of the rotation matrix R i and the translation vector ti, and shows the attitude conversion relationship of the two-frame point cloud. Furthermore, an error equation is constructed, the error equation is converted into a least squares problem, and the SVD method is adopted to calculate Ri and ti . The attitude transformation matrix of the laser radar from the i -th time to the i + 1-time by R i and ti
Figure 2022039906000010
Get as. Further, the attitude transformation matrix Ti of the n -frame laser radar is cumulatively multiplied to obtain the attitude transformation matrix TL from the t 0 time to the t n time of the laser radar.
Step 4, Coordinate system of inertial navigation system
Figure 2022039906000011
The posture transformation matrix TI between the coordinate system I 0 at the initial time t 0 and the coordinate system In n at the exercise end time t n is calculated. The calculation method of the attitude transformation matrix TI is as follows. When the acceleration measurement data and the angular velocity measurement data of the inertial navigation system are integrated and the displacement data t I and the rotation data RI are acquired, the attitude transformation matrix from the t 0 time to the t n time of the inertial navigation system is obtained.
Figure 2022039906000012
Figure 2022039906000013
It is represented by.
Step 5, the laser point cloud P n at t n time is projected onto the L 0 coordinate system at t 0 time by TL, and the point cloud P n L is acquired.
Step 6, TI and the calibration waiting parameter T LI project the laser point cloud P n at t n time onto the L 0 coordinate system at t 0 time, and acquire P n I.
Steps 7 and 2 are matched with the point clouds P nL and P nI . Two groups of point clouds are aligned and optimized for the external parameter matrix TLI . The iterative nearest neighbor method is used to resist the same point group region in which P nL and P nI are described, to construct and optimize the nearest neighbor error Terrar , and to use the Terrar , T L , and TI to construct and optimize the external parameter matrix T. Solve LI .

いくつかの実施形態では、視覚条件が十分である場合、単眼カメラの観測データを記録し、視覚-IMUキャリブレーションツールを採用し、単眼カメラと慣性ナビゲーションシステムとの間の外部パラメータ行列TCIを計算する。決定された3つの外部パラメータ行列TLC、TLI、TCI間の姿勢一貫性に基づいて複合検証を行い、外部パラメータ行列中の変換パラメータに対して調整を行い、マルチセンサによる複合キャリブレーションの精度を向上する。前記パラメータ最適化は、オンライン調整方法を採用し、レーザーレーダ、単眼カメラ、慣性ナビゲーションシステムのデータを融合し、TLI、TCIに対して調整を行う。 In some embodiments, if the visual conditions are sufficient, the observation data of the monocular camera is recorded, a visual-IMU calibration tool is employed, and an external parameter matrix TCI between the monocular camera and the inertial navigation system is provided. calculate. Combined verification is performed based on the attitude consistency between the determined three external parameter matrices TLC , TLI , and TCI , adjustments are made to the conversion parameters in the external parameter matrix, and combined calibration by the multi-sensor is performed. Improve accuracy. The parameter optimization employs an online adjustment method, fuses data from a laser radar, a monocular camera, and an inertial navigation system, and makes adjustments for TLI and TCI .

従来技術と比較して、本発明のマルチセンサによる複合キャリブレーション装置及び方法には、以下の利点がある。 Compared with the prior art, the multi-sensor composite calibration device and method of the present invention has the following advantages.

本発明は、16ライン、32ライン、64ライン等のマルチラインレーザーレーダ、単眼カメラ、双眼カメラ、RGBDカメラ等の視覚センサに適用される。本発明の実施形態は、キャリブレーション及び二次開発に便利な携帯型マルチセンサ融合フレーを構築する。本発明の実施形態は、ロボットアームによる補助キャリブレーション方法を使用することにより、インテリジェントキャリブレーション及びバッチキャリブレーションを実現することができる。 The present invention is applied to visual sensors such as multi-line laser radars such as 16 lines, 32 lines and 64 lines, monocular cameras, binocular cameras and RGBD cameras. An embodiment of the present invention constructs a portable multi-sensor fusion flare that is convenient for calibration and secondary development. In the embodiment of the present invention, intelligent calibration and batch calibration can be realized by using the auxiliary calibration method using a robot arm.

図面(必ずしも一定の縮尺で描かれているわけではない)で、同様の参照番号は異なる図で同様の構成要素を記載する場合がある。異なる文字接尾辞を持つ同様の参照番号は、同様な構成要素の異なる例を表すことができる。図面は、限定ではなく例として、本明細書で論じられる各実施形態を示している。
センサ融合フレームが設置されているロボットアームの概略図である。 マルチセンサ融合フレームの概略図である。 レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲットの位置関係の概略図である。 キャリブレーションターゲットの空間配置の概略図である。 レーザーレーダ-カメラの複合キャリブレーションの原理概略図である。 特徴点の分布概略図である。 レーザー-視覚特徴マッチングの概略図である。 レーザーレーダの姿勢変換の概略図である。 慣性ナビゲーションシステムの姿勢変換の概略図である。 キャリブレーションのフローチャートである。
In drawings (not necessarily drawn to a certain scale), similar reference numbers may describe similar components in different figures. Similar reference numbers with different letter suffixes can represent different examples of similar components. The drawings show, by way of example, each embodiment discussed herein.
It is a schematic diagram of the robot arm in which the sensor fusion frame is installed. It is a schematic diagram of a multi-sensor fusion frame. It is a schematic diagram of the positional relationship of the four calibration plates composite calibration target by the laser radar-camera. It is a schematic diagram of the spatial arrangement of a calibration target. It is a schematic diagram of the principle of the combined calibration of the laser radar-camera. It is a distribution schematic diagram of a feature point. It is a schematic diagram of a laser-visual feature matching. It is a schematic diagram of the attitude change of a laser radar. It is a schematic diagram of the attitude change of an inertial navigation system. It is a flowchart of calibration.

以下は、本発明の具体的な実施例であり、図面を結合しながら本発明の技術的解決策をさらに説明するが、本発明は、これらの実施例によって限定されず、以下の実施形態は、請求の範囲に係る本発明を限定するものではない。また、実施形態に記載されている特徴のすべての組み合わせは、本発明の解決に必ずしも必須ではない。 The following are specific examples of the present invention, further describing the technical solutions of the present invention while combining the drawings, but the present invention is not limited to these examples, and the following embodiments are: , The present invention according to the claims is not limited. Also, all combinations of features described in the embodiments are not necessarily essential to the solution of the present invention.

実施例
マルチセンサ融合フレーム101、ロボットアーム102、連結機構103、コンピュータユニット104、及び操作プラットフォームを含むマルチセンサによる複合キャリブレーション装置であって、前記マルチセンサ融合フレーム101は、マルチセンサによる複合構築法によってレーザーレーダ201、単眼カメラ202、及び慣性ナビゲーションシステム203を自由的に運動可能な金属フレーム204に固定され、このフレームは治具206を介して無人車両、無人航空機等の環境感知の場合に搭載され、二次開発に適用されるとともに、外部パラメータキャリブレーションの実施に便利である。前記金属フレームは、長さ18cm、幅6cm、高さ8cmである。マルチセンサによる複合構築法を採用して各センサは同じ座標系指向に従って設置される。そのうち、レーザーレーダ201は、金属フレーム204の上部の中央位置に設置され、固定装置205は金属フレームの内部に設置される。単眼カメラ202は、固定装置205の左側5cmの位置に設置され、慣性ナビゲーションシステム203は固定装置205の右側5cmの位置に設置される。所述ロボットアーム102は、操作プラットフォーム105の上方に設置され、三軸方向の並進及び回転運動を提供する。ロボットアームの末端は連結機構103を介して固定装置205に連接され、初期状態下に、マルチセンサ融合フレーム101の地面からの高さは140cmである。前記コンピュータユニット103は、ボットアーム102の運動の制御、センサによるデータ採集の制御、センサデータの処理、外部パラメータ行列の計算を行う機能を有する。
Example A multi-sensor composite calibration device including a multi-sensor fusion frame 101, a robot arm 102, a coupling mechanism 103, a computer unit 104, and an operation platform, wherein the multi-sensor fusion frame 101 is a multi-sensor composite construction method. The laser radar 201, monocular camera 202, and inertial navigation system 203 are fixed to a freely movable metal frame 204, which is mounted via a jig 206 for environmental sensing of unmanned vehicles, unmanned aircraft, etc. It is useful for performing external parameter calibration as well as being applied to secondary development. The metal frame has a length of 18 cm, a width of 6 cm, and a height of 8 cm. Each sensor is installed according to the same coordinate system orientation by adopting a multi-sensor composite construction method. Among them, the laser radar 201 is installed at the center position of the upper part of the metal frame 204, and the fixing device 205 is installed inside the metal frame. The monocular camera 202 is installed at a position 5 cm to the left of the fixing device 205, and the inertial navigation system 203 is installed at a position 5 cm to the right of the fixing device 205. The robot arm 102 is installed above the operating platform 105 to provide triaxial translational and rotational movements. The end of the robot arm is connected to the fixing device 205 via the connecting mechanism 103, and the height of the multi-sensor fusion frame 101 from the ground is 140 cm under the initial state. The computer unit 103 has a function of controlling the motion of the bot arm 102, controlling data collection by a sensor, processing sensor data, and calculating an external parameter matrix.

レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲットをさらに含み、レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲットは、4つの同じサイズのキャリブレーションプレートから構成されている。前記レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲット104は、4つの30cm×30cmのキャリブレーションプレートから構成されている。図3に示すように、一~三号キャリブレーションプレートの中央位置はドットでマークされ、外部パラメータキャリブレーションのための特徴点を提供する。四号キャリブレーションプレート上には、カメラの内部パラメータキャリブレーションのために黒白の碁盤目模様が配列される。4つのキャリブレーションプレートは、「田」字の形状で空中に配置される。4つのキャリブレーションプレートをより正確に分割するために、それらは異なる距離及び角度で環境中に配置される。図4に示すように、三号キャリブレーションプレート及び四号キャリブレーションプレートは高さ120cmのベースを採用して固定し、ベースは水平線一上に配置され、マルチセンサ融合フレームとの距離はD=130cmであり、三号キャリブレーションプレートの法線ベクトルn と四号キャリブレーションプレートの法線ベクトルn との間の角度差は30°以上である。一号キャリブレーションプレート及び二号キャリブレーションプレートがカバーされないように確保するために、一号キャリブレーションプレート及び二号キャリブレーションプレートは高さ160cmのベースを採用して固定し、ベースは水平線二上に配置され、マルチセンサ融合フレームとの距離はD=180cmである。一号キャリブレーションプレートの法線ベクトルnと二号キャリブレーションプレートの法線ベクトルnとの間の角度差は30°以上である。 A laser radar-camera four calibration plate composite calibration target is further included, and a laser radar camera four calibration plate composite calibration target is composed of four calibration plates of the same size. Four calibration plates by the laser radar-camera The composite calibration target 104 is composed of four 30 cm × 30 cm calibration plates. As shown in FIG. 3, the central position of the Nos. 1 to 3 calibration plates is marked with dots to provide feature points for external parameter calibration. On the No. 4 calibration plate, black and white grid patterns are arranged for internal parameter calibration of the camera. The four calibration plates are placed in the air in the shape of a "field". In order to divide the four calibration plates more accurately, they are placed in the environment at different distances and angles. As shown in FIG. 4, the No. 3 calibration plate and the No. 4 calibration plate adopt and fix a base having a height of 120 cm, the base is arranged on the horizon, and the distance from the multi-sensor fusion frame is D 1 . = 130 cm, and the angle difference between the normal vector n 3 of the No. 3 calibration plate and the normal vector n 4 of the No. 4 calibration plate is 30 ° or more. To ensure that the No. 1 and No. 2 calibration plates are not covered, the No. 1 and No. 2 calibration plates are fixed by adopting a base with a height of 160 cm, and the base is on the horizon. The distance from the multi-sensor fusion frame is D 2 = 180 cm. The angle difference between the normal vector n 1 of the No. 1 calibration plate and the normal vector n 2 of the No. 2 calibration plate is 30 ° or more.

前記カメラの内部パラメータキャリブレーションは、異なる姿勢下でカメラが碁盤目キャリブレーションプレートに対して撮影を行うように、コンピュータユニットがロボットアーム及びカメラを制御し、20~30枚の画像のエッジ情報を抽出し、張正友(ZhangZhengyou)キャリブレーション方法を採用してカメラの内部パラメータKを計算する。 In the internal parameter calibration of the camera, the computer unit controls the robot arm and the camera so that the camera shoots against the grid calibration plate under different postures, and edge information of 20 to 30 images is obtained. It is extracted and the internal parameter K of the camera is calculated by adopting the Zhang Zhengyou calibration method.

前記レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲットは、単眼カメラの内部パラメータキャリブレーション及びレーザーレーダ-カメラの外部パラメータキャリブレーションに採用される。前記レーザーレーダと単眼カメラによる複合キャリブレーション方法は、以下のステップを含む。 The four calibration plate composite calibration target by the laser radar camera is adopted for the internal parameter calibration of the monocular camera and the external parameter calibration of the laser radar camera. The combined calibration method using the laser radar and the monocular camera includes the following steps.

まず、図5に示すように、複合キャリブレーションターゲットがレーザーレーダ及びカメラの視野範囲に現れるように、コンピュータユニットがロボットアームの姿勢を調整する。ロボットアームを制御して静止状態を維持し、レーザーレーダとカメラを採用してデータ採集を行った後、コンピュータユニットが測定データを処理する。最後に、最小二乗問題を構築し、外部パラメータ行列TLCを求解する。 First, as shown in FIG. 5, the computer unit adjusts the posture of the robot arm so that the composite calibration target appears in the field of view of the laser radar and the camera. After controlling the robot arm to keep it stationary and using a laser radar and camera to collect data, the computer unit processes the measurement data. Finally, we construct the least squares problem and solve the external parameter matrix TLC .

前記データ採集によってレーザーレーダデータ及びカメラデータに対してそれぞれ処理を行う。 Laser radar data and camera data are processed by collecting the data.

レーザーレーダデータの場合、各点群の座標情報を記録し、異常点をフィルタリングし、点群分割法を採用して点群データを分割し、4つのキャリブレーションプレートの点群データを4つの異なるグループ{L}、{L}、{L},{L}に分ける。K-means法を利用して点群のクラスタリング中心点を抽出する。

Figure 2022039906000014
は、第i番目のキャリブレーションプレートの中心点位置のレーザーレーダの座標系Lにおける三次元座標値である。
Figure 2022039906000015
をマッチングのためのレーザー特徴点として選定する。 In the case of laser radar data, the coordinate information of each point cloud is recorded, the abnormal points are filtered, the point cloud data is divided by adopting the point cloud division method, and the point cloud data of 4 calibration plates are 4 different. Divide into groups {L 1 }, {L 2 }, {L 3 }, {L 4 }. The clustering center point of the point cloud is extracted using the K-means method.
Figure 2022039906000014
Is a three-dimensional coordinate value in the coordinate system L of the laser radar at the center point position of the i-th calibration plate.
Figure 2022039906000015
Is selected as a laser feature point for matching.

カメラデータの場合、各ピクセルのグレー値を記録し、FASTキーポイント抽出アルゴリズムを採用し、キャリブレーションプレートのローカルピクセルのグレー値が明らかに変化された箇所を検出することにより、各キャリブレーションプレートの中心点位置を抽出する。一~三号キャリブレーションプレートのドットの中心位置を抽出し、その座標値C、C、Cを記録する。四号キャリブレーションプレートの場合、碁盤目間の関係を分析することにより、キャリブレーションプレートの中心点座標値Cを求める。

Figure 2022039906000016
は、第i番目のキャリブレーションプレートの中心点位置のカメラ座標系Cにおける二次元座標値である。Cをマッチングのための視覚特徴点として選定する。
レーザーレーダの三次元特徴点
Figure 2022039906000017
及び単眼カメラの二次元特徴点
Figure 2022039906000018
によってマッチング関係
Figure 2022039906000019
を確立する。
図7に示すように、レーザーレーダ座標
Figure 2022039906000020
及び単眼カメラ座標
Figure 2022039906000021
の特徴点Piに基づくマッチング関係を定義することにより、最小再投影誤差を確立し、最小二乗問題を構築する。レーザーレーダ及びカメラの外部パラメータ行列を次のように定義する。
Figure 2022039906000022
For camera data, the gray value of each pixel is recorded, the FAST keypoint extraction algorithm is adopted, and the location where the gray value of the local pixel of the calibration plate is clearly changed is detected, so that the gray value of each calibration plate is recorded. Extract the center point position. The center positions of the dots on the No. 1 to No. 3 calibration plates are extracted, and the coordinate values C 1 , C 2 , and C 3 are recorded. In the case of the No. 4 calibration plate, the center point coordinate value C 4 of the calibration plate is obtained by analyzing the relationship between the grids.
Figure 2022039906000016
Is a two-dimensional coordinate value in the camera coordinate system C at the center point position of the i-th calibration plate. Select Ci as a visual feature point for matching.
3D feature points of laser radar
Figure 2022039906000017
And 2D feature points of monocular cameras
Figure 2022039906000018
Matching relationship by
Figure 2022039906000019
To establish.
As shown in FIG. 7, laser radar coordinates
Figure 2022039906000020
And monocular camera coordinates
Figure 2022039906000021
By defining the matching relationship based on the feature point Pi, the minimum reprojection error is established and the least squares problem is constructed. The external parameter matrix of the laser radar and camera is defined as follows.
Figure 2022039906000022

ここで、Rが回転行列であり、tが並進ベクトルである。マッチング関係及び外部パラメータ行列を結合すると、誤差方程式は次のように表すことができる。

Figure 2022039906000023
Here, R is a rotation matrix and t is a translation vector. Combining the matching relation and the external parameter matrix, the error equation can be expressed as follows.
Figure 2022039906000023

ここで、sは視覚特徴点の深さ値であり、誤差が最小化になるように、誤差方程式に従って最小二乗最適化関数を構築し、最適な外部パラメータ行列を取得する。

Figure 2022039906000024
Here, si is the depth value of the visual feature point, and the least squares optimization function is constructed according to the error equation so that the error is minimized, and the optimum external parameter matrix is obtained.
Figure 2022039906000024

さらに、必要に応じて、より多くの特徴点を採集してマッチングを行い、キャリブレーションプレートの中心位置特徴点に基づいて、キャリブレーションプレートのエッジ位置を採集して特徴点とする。図6に示すように、キャリブレーションプレート毎の5つの位置を選択して特徴点とし、上記方法に従って最小二乗最適化関数を構築し、外部パラメータ行列を求解する。実験によって特性点の数が多いほど、外部パラメータ行列の計算がより正確であることが証明されている。 Further, if necessary, more feature points are collected and matched, and the edge positions of the calibration plate are collected and used as feature points based on the center position feature points of the calibration plate. As shown in FIG. 6, five positions for each calibration plate are selected as feature points, a least squares optimization function is constructed according to the above method, and an external parameter matrix is solved. Experiments have shown that the larger the number of characteristic points, the more accurate the calculation of the external parameter matrix.

さらに、キャリブレーションプレートの角度を調整し、異なる角度の状態下で複数グループのキャリブレーションプレートのセンサデータを採集し、グループ毎のデータのキャリブレーションプレートの中心点座標値

Figure 2022039906000025
をそれぞれ計算し、偏差の大きい中心点座標値を削除し、平均値策略を採用して次のように残りの中心点座標を計算する。
Figure 2022039906000026
Furthermore, the angle of the calibration plate is adjusted, the sensor data of the calibration plates of multiple groups are collected under the state of different angles, and the center point coordinate value of the calibration plate of the data for each group is collected.
Figure 2022039906000025
Are calculated respectively, the center point coordinates with a large deviation are deleted, and the mean value strategy is adopted to calculate the remaining center point coordinates as follows.
Figure 2022039906000026

既存のキャリブレーション技術では、キャリブレーションプレートの位置及び角度は固定である。レーザーレーダの縦方向点群のスパース性によってレーザーレーダによる走査がキャリブレーションプレートのすべての領域を完全にカバーすることを保証することは困難である。レーザーレーダによる走査ラインがキャリブレーションプレートの完全な輪郭を完全に走査できなかった場合、点群特徴点(キャリブレーションプレートの中心点)の座標は、実際の位置と差異が大きくなってしまう。 With existing calibration techniques, the position and angle of the calibration plate is fixed. Due to the sparseness of the laser radar's vertical point cloud, it is difficult to ensure that scanning by the laser radar completely covers the entire area of the calibration plate. If the scanning line by the laser radar cannot completely scan the complete contour of the calibration plate, the coordinates of the point cloud feature point (center point of the calibration plate) will be significantly different from the actual position.

本方法は、レーザーレーダ及びカメラが複数グループのキャリブレーションプレートデータを採集するように、キャリブレーションプレートの角度を調整する。キャリブレーションプレートの中心点を角度調整の回転中心として採用するため、キャリブレーションプレートの調整に関係なく、その中心点座標は常に変わらない。本方法は、キャリブレーションプレートの中心点位置の不変性を利用して、異なる角度下で複数グループの点群データによって複数グループの中心点座標をフィッティングし、誤差が大きい中心点座標を除去し、残りの中心点座標の平均値をキャリブレーションプレートの点群特徴点とする。既存技術と比較して、本方法で抽出された特徴点の精度は大幅に向上されている。 The method adjusts the angle of the calibration plate so that the laser radar and camera collect multiple groups of calibration plate data. Since the center point of the calibration plate is adopted as the rotation center of the angle adjustment, the center point coordinates do not always change regardless of the adjustment of the calibration plate. This method uses the invariance of the center point position of the calibration plate to fit the center point coordinates of multiple groups with the point cloud data of multiple groups under different angles, and removes the center point coordinates with a large error. The average value of the remaining center point coordinates is used as the point cloud feature point of the calibration plate. Compared with the existing technology, the accuracy of the feature points extracted by this method is greatly improved.

レーザーレーダ及び慣性ナビゲーションシステムの複合キャリブレーション方法は、次のステップで構成される。 The combined calibration method of the laser radar and the inertial navigation system consists of the following steps.

ロボットアームの支援下で、点群マッチングに基づくレーザーレーダ-慣性ナビゲーションシステムによる外部パラメータキャリブレーションを採用する。具体的なステップは下記の通りである。 With the support of the robot arm, we adopt external parameter calibration by laser radar-inertial navigation system based on point cloud matching. The specific steps are as follows.

まず、ロボットアームを制御して運動し、センサが空間内で運動しながらデータを採集する。 First, the robot arm is controlled to move, and the sensor moves in space to collect data.

次に、ロボットアームの運動が停止され、センサによって採集されたデータに対して処理を行う。 Next, the movement of the robot arm is stopped, and processing is performed on the data collected by the sensor.

その後、レーザーレーダの初期時刻tでの座標系Lと運動終了時刻tでの座標系Lとの間の姿勢変換行列Tを計算する。慣性ナビゲーションシステムの初期時刻tでの座標系Iと運動終了時刻tでの座標系Iとの間の姿勢変換行列Tを計算する。 After that, the attitude transformation matrix TL between the coordinate system L 0 at the initial time t 0 of the laser radar and the coordinate system L n at the motion end time t n is calculated. The attitude transformation matrix TI between the coordinate system I 0 at the initial time t 0 of the inertial navigation system and the coordinate system I n at the motion end time t n is calculated.

再び、Tによってt時刻でのレーザー点群Pをt時刻でのL座標系に投影し、点群PnLを取得する。T及びキャリブレーション待ちパラメータTLIによってt時刻でのレーザー点群Pをt時刻でのL座標系に投影し、PnIを取得する。最後に、2グループの点群PnLとPnIをマッチングし、2グループの点群を整列することにより、外部パラメータ行列TLIを計算する。 Again, the laser point cloud P n at t n time is projected onto the L 0 coordinate system at t 0 time by TL, and the point cloud P n L is acquired. The laser point cloud P n at t n time is projected onto the L 0 coordinate system at t 0 time by TI and the calibration waiting parameter T LI , and P n I is acquired. Finally, the external parameter matrix TLI is calculated by matching the two groups of point clouds P nL and P nI and aligning the two groups of point clouds.

前記ロボットアームの運動は、指定された軌跡内を運動するようにロボットアームを制御することである。ロボットアームの座標軸を基準として、X軸の正方向に沿って100cm移動し、X軸の負方向に沿って100cm移動し、Y軸の正方向に沿って100cm移動し、Y軸の負方向に沿って100cm移動し、Z軸の正方向に沿って100cm移動し、Z軸の負方向に沿って100cm移動する。X軸を中心に時計回りに180°回転し、X軸を中心に反時計回りに180°回転し、Y軸を中心に時計回りに180°回転し、Y軸を中心に反時計回りに180°回転し、Z軸を中心に時計回りに180°回転し、Z軸を中心に反時計回りに180°回転する。ロボットアームの運動過程中に、レーザーレーダ及び慣性ナビゲーションシステムがデータ採集を行う。 The movement of the robot arm is to control the robot arm so as to move within a designated locus. With respect to the coordinate axis of the robot arm, it moves 100 cm along the positive direction of the X axis, moves 100 cm along the negative direction of the X axis, moves 100 cm along the positive direction of the Y axis, and moves in the negative direction of the Y axis. It moves 100 cm along the positive direction of the Z axis, 100 cm along the negative direction of the Z axis, and 100 cm along the negative direction of the Z axis. Rotate 180 ° clockwise around the X axis, 180 ° counterclockwise around the X axis, 180 ° clockwise around the Y axis, 180 ° counterclockwise around the Y axis ° Rotate, rotate 180 ° clockwise around the Z axis, and 180 ° counterclockwise around the Z axis. A laser radar and an inertial navigation system collect data during the movement of the robot arm.

前記センサのデータ処理は、レーザーレーダの場合、均一運動モデルに従ってフレーム毎のレーザー点群に対して歪み除去処理を行い、点群フィルタリングアルゴリズムを採用し、点群データの外れ値を除去する。計算の複雑さを軽減するために、フレーム毎のレーザー点群データに対して、ボクセルグリッド方法を使用してダウンサンプリング処理を行うことである。 In the case of a laser radar, the sensor data processing is performed by performing distortion removal processing on the laser point cloud for each frame according to a uniform motion model, adopting a point cloud filtering algorithm, and removing outliers of the point cloud data. In order to reduce the complexity of the calculation, the laser point cloud data for each frame is downsampled using the voxel grid method.

前記姿勢変換行列Tの計算方法は、次の通りである。反復最近傍法を採用して第iフレーム点群と第i+1フレーム点群をマッチングし、第iフレーム点群

Figure 2022039906000027
と第i+1フレーム点群
Figure 2022039906000028
とのマッチング関係を取得する。第i時刻から第i+1時刻までのレーザーレーダの姿勢変換が回転行列Rと並進ベクトルtから構成されると定義すると、2フレーム間の対応する関係は次のように表される。
Figure 2022039906000029
The calculation method of the posture transformation matrix TL is as follows. The iterative nearest neighbor method is used to match the i-frame point cloud and the i + 1 frame point cloud, and the i-frame point cloud is used.
Figure 2022039906000027
And i + 1 frame point cloud
Figure 2022039906000028
Get the matching relationship with. If we define that the attitude transformation of the laser radar from the i-th time to the i + 1-time is composed of the rotation matrix R i and the translation vector ti, the corresponding relationship between the two frames is expressed as follows.
Figure 2022039906000029

誤差方程式は、次のように表される。

Figure 2022039906000030
The error equation is expressed as follows.
Figure 2022039906000030

最小二乗問題を構築することにより、SVD法を採用してR、tを計算する。

Figure 2022039906000031
By constructing the least squares problem, the SVD method is adopted to calculate Ri and ti .
Figure 2022039906000031

第i時刻から第i+1時刻までのレーザーレーダの姿勢変換行列は次の通りである。

Figure 2022039906000032
The attitude conversion matrix of the laser radar from the i-th time to the i + 1 time is as follows.
Figure 2022039906000032

はレーザーレーダのt時刻からt時刻までの姿勢変換行列であり、次のように表される。

Figure 2022039906000033
TL is a posture transformation matrix from the t 0 time to the t n time of the laser radar, and is expressed as follows.
Figure 2022039906000033

前記姿勢変換行列Tの計算方法は、下記の通りである。慣性ナビゲーションシステムの加速度測定データ及び角速度測定データに対して積分を行い、変位データt及び回転データRを取得する。t時刻からt時刻までの慣性ナビゲーションシステムの姿勢変換行列は、次のように表される。

Figure 2022039906000034
The calculation method of the attitude transformation matrix TI is as follows. The acceleration measurement data and the angular velocity measurement data of the inertial navigation system are integrated, and the displacement data t I and the rotation data RI are acquired. The attitude transformation matrix of the inertial navigation system from t 0 time to t n time is expressed as follows.
Figure 2022039906000034

前記t時刻でのレーザー点群Pをt時刻でのL座標系に投影するとは、レーザーレーダの場合、図8に示すように、直接に姿勢変換行列TによってPのL座標系における座標表示PnLを取得することができる。

Figure 2022039906000035
Projecting the laser point cloud P n at the t n time onto the L 0 coordinate system at the t 0 time means that in the case of a laser radar, as shown in FIG. 8, the L of P n is directly measured by the attitude transformation matrix TL. The coordinate display P nL in the 0 coordinate system can be acquired.
Figure 2022039906000035

慣性ナビゲーションシステムの場合、図9に示すように、姿勢変換行列T及び外部パラメータ行列TLIによってPのL座標系における座標表示PnIを取得することができる。

Figure 2022039906000036
In the case of the inertial navigation system, as shown in FIG. 9, the coordinate display P n I in the L 0 coordinate system of P n can be acquired by the attitude transformation matrix TI and the external parameter matrix T LI .
Figure 2022039906000036

前記外部パラメータ行列TLIの計算とは、点群PnLと点群PnIを整列することである。理論的に、PnL及び点群PnIは同一領域の点群データを記述しており、それらは空間上でオーバーラップする。即ち、次の通りである。

Figure 2022039906000037
The calculation of the external parameter matrix TLI is to align the point cloud P nL and the point cloud P nI . Theoretically, P nL and point cloud P nI describe point cloud data in the same region, and they overlap in space. That is, it is as follows.
Figure 2022039906000037

外部パラメータ誤差が存在するため、PnL及びPnIは完全にオーバーラップしているわけではない。反復最近傍法を採用して、PnL及びPnIが記載している同一領域の点群領域をレジストレーションし、最近傍誤差を構築して最適化する。

Figure 2022039906000038
Due to the existence of external parameter errors, P nL and P nI do not completely overlap. The iterative nearest neighbor method is adopted to resist the point cloud region of the same region described by P nL and P nI , and to construct and optimize the nearest neighbor error.
Figure 2022039906000038

error、T,TIによって外部パラメータ行列TLIを求解する。

Figure 2022039906000039
The external parameter matrix TLI is solved by Terror , T L , and TI.
Figure 2022039906000039

ここまで、上記キャリブレーション方法によって外部パラメータ行列TLC及びTLIを取得する。 Up to this point, the external parameter matrices TLC and TLI are acquired by the above calibration method.

本発明は、点群レジストレーションに基づくレーザーレーダ-慣性ナビゲーションキャリブレーションであって、既存技術(点群マッチングに基づくレーザーレーダ/IMU複合キャリブレーション方法)は小車にレーザーレーダ及びIMUを搭載する方法を採用しているが、小車は平面内でしか運動できないため、完全な六自由度の運動を提供することはできない。本方法では、キャリブレーションシステムの運動装置としてロボットアームを採用しているため、豊富な空間運動を提供できる。従来技術と比較して、キャリブレーションの精度が向上されている。 The present invention is a laser radar-inertial navigation calibration based on point group registration, and the existing technology (laser radar / IMU combined calibration method based on point group matching) is a method of mounting a laser radar and an IMU on a small vehicle. However, since small vehicles can only move in a plane, they cannot provide full six-degree-of-freedom movement. In this method, since the robot arm is adopted as the motion device of the calibration system, abundant spatial motion can be provided. The accuracy of calibration is improved as compared with the prior art.

さらに、必要に応じて、視覚条件が十分である場合、単眼カメラの観測データを記録し、視覚-IMUキャリブレーションツールを採用し、単眼カメラと慣性ナビゲーションシステムとの間の外部パラメータ行列TCIを計算する。決定された3つの外部パラメータ行列TLC、TLI、TCI間の姿勢一貫性に基づいて複合検証を行い、検証が失敗された場合、外部パラメータ行列中の変換パラメータを検証に成功するまで調整する。そのため、検証が失敗された場合、本発明の実施形態は、TLC、TLI、TCIに対してパラメータの最適化を行い、マルチセンサによる複合キャリブレーションの精度を向上する。前記パラメータ最適化は、オンライン調整方法を採用し、レーザーレーダ、単眼カメラ、慣性ナビゲーションシステムのデータを融合し、TLI、TCIに対して調整を行う。 In addition, if necessary, if the visual conditions are sufficient, the observation data of the monocular camera is recorded, a visual-IMU calibration tool is adopted, and an external parameter matrix TCI between the monocular camera and the inertial navigation system is obtained. calculate. Combined verification is performed based on the attitude consistency between the determined three external parameter matrices TLC , TLI , and TCI , and if the verification fails, the conversion parameters in the external parameter matrix are adjusted until the verification is successful. do. Therefore, if the verification fails, the embodiment of the present invention optimizes the parameters for TLC, TLI , and TCI to improve the accuracy of the combined calibration by the multi-sensor. The parameter optimization employs an online adjustment method, fuses data from a laser radar, a monocular camera, and an inertial navigation system, and makes adjustments for TLI and TCI .

さらに、必要に応じて、視覚条件が十分である場合、キャリブレーションターゲットがカメラの視野範囲内に現れるように、ロボットアームを制御する。カメラが常にキャリブレーションターゲットを観測できる条件下で、ロボットアームを制御して空間内で六自由度の運動をする。単眼カメラの観測データを記録し、キャリブレーションツールを採用して視覚-慣性ナビゲーションシステムの外部パラメータ行列TCIをキャリブレーションする。

Figure 2022039906000040
In addition, if necessary, the robot arm is controlled so that the calibration target appears within the field of view of the camera if the visual conditions are sufficient. The robot arm is controlled to move in six degrees of freedom in space under the condition that the camera can always observe the calibration target. The observation data of the monocular camera is recorded and a calibration tool is used to calibrate the external parameter matrix TCI of the visual-inertial navigation system.
Figure 2022039906000040

さらに、レーザーレーダ、単眼カメラ、慣性測定ユニット間の姿勢変換行列に対して複合最適化を行う。決定された3つの外部パラメータ行列TLC、TLI、TCI間の姿勢一貫性に基づいて複合検証を行う。原則的に、3つの外部パラメータ行列間には、次の数学的関係が存在する。

Figure 2022039906000041
Furthermore, compound optimization is performed for the attitude transformation matrix between the laser radar, the monocular camera, and the inertial measurement unit. A composite verification is performed based on the attitude consistency between the determined three external parameter matrices TLC , TLI , and TCI . In principle, the following mathematical relationship exists between the three external parameter matrices.
Figure 2022039906000041

ただし、キャリブレーションの過程に誤差が存在するため、実際に姿勢一貫性を完全に達成することはできない。そのため、外部パラメータ行列中の変換パラメータに対して最適化を行い、マルチセンサによる複合キャリブレーションの精度を向上する必要がある。姿勢変換総誤差を最小化することにより、TLC、TLI、TCIを調整する。 However, due to the error in the calibration process, it is not possible to actually achieve complete posture consistency. Therefore, it is necessary to optimize the conversion parameters in the external parameter matrix and improve the accuracy of the combined calibration by the multi-sensor. TLC, TLI , and TCI are adjusted by minimizing the attitude conversion total error.

前記パラメータの最適化の具体的なステップは、次の通りである。 The specific steps of optimizing the parameters are as follows.

各姿勢変換誤差を計算する。

Figure 2022039906000042
Calculate each attitude conversion error.
Figure 2022039906000042

Figure 2022039906000043
がすべて誤差閾値errorthrより小さい場合、TLC、TLI、及びTCI間は既に姿勢一貫性を満たしていると見なされ、調整不要となる。
Figure 2022039906000043
If are all smaller than the error threshold error thr , it is considered that the posture consistency is already satisfied between TLC , TLI , and TCI , and no adjustment is required.

その後、各姿勢変換行列誤差がすべて誤差閾値より小さいという制約を満たす条件下で、総誤差errorが最小になるように、各姿勢変換行列に対して調整を行う。

Figure 2022039906000044
After that, adjustments are made to each posture transformation matrix so that the total error error T is minimized under the condition that all the posture transformation matrix errors are smaller than the error threshold.
Figure 2022039906000044

Figure 2022039906000045
の大きさを判断し、3つの誤差の大きさから主な誤差由来を初歩的に特定し、誤差の正負から調整する方向を初歩的に決定する。
Figure 2022039906000045
Judging the magnitude of the error, the main error origin is elementaryly identified from the magnitudes of the three errors, and the direction of adjustment is elementaryly determined from the positive and negative of the error.

並進ベクトル及び回転行列中の各ベクトル成分を分析し、並進ベクトルに対して次の調整を行う。

Figure 2022039906000046
The translation vector and each vector component in the rotation matrix are analyzed, and the following adjustments are made to the translation vector.
Figure 2022039906000046

ここで、Δx、Δy、及びΔzの大きさ及び正負は、

Figure 2022039906000047
の具体的なベクトル成分を分析することによって取得する。回転行列に対して、次のような調整を行う。
Figure 2022039906000048
Here, the magnitudes and positive / negative of Δx, Δy, and Δz are
Figure 2022039906000047
Obtained by analyzing the specific vector components of. Make the following adjustments to the rotation matrix.
Figure 2022039906000048

ここで、Δrの大きさと正負は、

Figure 2022039906000049
の具体的なベクトル成分を分析することによって取得する。 Here, the magnitude and positive / negative of Δr are
Figure 2022039906000049
Obtained by analyzing the specific vector components of.

例を挙げて説明する。 An example will be given.

まず、主な誤差由来を特定する。誤差の大きさの順序が

Figure 2022039906000050
である場合、TLCが最大の誤差由来と見なされる。TLCの誤差項目
Figure 2022039906000051
及び
Figure 2022039906000052
を分析する。 First, identify the origin of the main error. The order of the magnitude of the error is
Figure 2022039906000050
If, the TLC is considered to be from the largest error. Error item of TL C
Figure 2022039906000051
as well as
Figure 2022039906000052
To analyze.

しかし、誤差由來はTLCだけではない。TLI及びTCIの場合、上記と同様なステップを採用して調整を行う。相違点は、TLC、TLI、及びTCIに対して、それぞれα、β、及びγのステップサイズの調整(α>β>γ)を行うとともに、最大調整範囲を制限することである。

Figure 2022039906000053
However, the cause of error is not limited to TLC . In the case of T LI and T CI , adjustments are made by adopting the same steps as above. The difference is that the step sizes of α, β, and γ are adjusted (α>β> γ) for T LC , T LI , and T CI , respectively, and the maximum adjustment range is limited.
Figure 2022039906000053

最適化過程中で、TLC、TLI、TCIを順番に調整し、errorの変化を観察することにより、α、β、γのステップサイズを適切に変更する。調整過程中で、errorが明らかに低下されることが観察されると、ステップサイズを適切に増やし、調整過程中で、errorの緩やかな減少又は増加傾向が見られると、ステップサイズを適切に減らすか又はステップサイズの正負を変更する。 During the optimization process, the step sizes of α, β, and γ are appropriately changed by adjusting T LC , T LI , and T CI in order and observing the change of error T. If it is observed that the error T is clearly decreased during the adjustment process, the step size is appropriately increased, and if the error T is gradually decreasing or increasing during the adjustment process, the step size is appropriately increased. Or change the positive or negative of the step size.

errorが最小になるまで、上記のステップに従って外部パラメータ行列を調整する。 Adjust the external parameter matrix according to the above steps until error T is minimized.

調整過程中で、計算結果が局所的な最適化になることを防ぐために、TLC、TLI、TCIの調整順番を変更するとともに、最小のerrorが見つかるまで最適化結果を上記方法と比較する。 In order to prevent the calculation result from becoming a local optimization during the adjustment process, the adjustment order of TLC, TLI , and TCI is changed, and the optimization result is used as the above method until the minimum eraser T is found. Compare.

既存技術と比較して、本発明のマルチセンサによる姿勢変換行列の複合最適化方法は、オフライン最適化方法を採用しており、TLC、TLI、及びTCI間の姿勢一貫性に基づいて姿勢変換行列総誤差の最適化関数を構築し、各外部パラメータに対してパラメータの調整を行う。この最適化方法は、各外部パラメータ行列の誤差を最小化し、精度を最大化する効果を達成する。 Compared with the existing technology, the composite optimization method of the attitude transformation matrix by the multi-sensor of the present invention adopts the offline optimization method, and is based on the attitude consistency between TLC, TLI , and TCI . Posture transformation matrix Constructs an optimization function for the total error and adjusts the parameters for each external parameter. This optimization method achieves the effect of minimizing the error of each external parameter matrix and maximizing the accuracy.

本明細書では、いくつかの用語が多く使用されているが、他の用語を使用する可能性を排除することではない。これらの用語は、本発明の本質をより便利に記載及び説明するためにのみ使用される。それらをあらゆる追加の制限として解釈することは、本発明の精神に反することである。明細書及び図面に示される装置及び方法における動作、ステップ等の実行順序は、特に明記されていない限り、前の処理の出力が後の処理で使用されていない限り、任意の順序で実施することができる。説明の便宜上、「まず」、「次に」等を採用した説明は、必ずこの順序で実行すべきであることを意味するわけではない。 Although some terms are often used herein, it does not preclude the possibility of using other terms. These terms are used only to more conveniently describe and explain the essence of the invention. Interpreting them as any additional limitation is contrary to the spirit of the invention. Unless otherwise specified, the order of execution of operations, steps, etc. in the apparatus and method shown in the specification and drawings shall be in any order unless the output of the previous process is used in the subsequent process. Can be done. For convenience of explanation, explanations using "first", "next", etc. do not necessarily mean that they should be executed in this order.

本明細書に記載された特定の実施形態は、単に本発明の精神を例示するものである。当業者は、記載された特定の実施形態に対して様々な変更又は補足又は類似な方法への置き換えを行うことができるが、それは本発明の精神から逸脱したり、添付の特許請求の範囲によって定義された範囲を超えたりすることはない。 The particular embodiments described herein are merely exemplary of the spirit of the invention. One of ordinary skill in the art may make various modifications or supplements or replacements with similar methods for the particular embodiments described, which deviate from the spirit of the invention or, by the claims of the attachment. It does not exceed the defined range.

101、センサ融合フレーム;102、ロボットアーム;103、連結機構;104、コンピュータユニット;105、操作プラットフォーム;201、レーザーレーダ;202、単眼カメラ;203、慣性ナビゲーションシステム;204、金属フレーム;205、固定装置;206、治具。

101, sensor fusion frame; 102, robot arm; 103, coupling mechanism; 104, computer unit; 105, operation platform; 201, laser radar; 202, monocular camera; 203, inertial navigation system; 204, metal frame; 205, fixed Equipment; 206, jig.

Claims (9)

ロボットアームを含み、前記ロボットアーム上にはセンサ融合フレームが設置され、センサ融合フレーム上にはレーザーレーダ、単眼カメラ、及びデータ処理のためのコンピュータが設置されるマルチセンサによる複合キャリブレーション装置であって、
レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲットをさらに含み、前記レーザーレーダ-カメラによる四キャリブレーションプレート複合キャリブレーションターゲットは、一号キャリブレーションプレート、二号キャリブレーションプレート、三号キャリブレーションプレート、四号キャリブレーションプレートを含み、
一号キャリブレーションプレート、二号キャリブレーションプレート、三号キャリブレーションプレートの中心位置はドットでマークされ、外部パラメータキャリブレーションの特徴点を提供するために使用され、
四号キャリブレーションプレート上には、カメラの内部パラメータキャリブレーションのために黒白の碁盤目模様が配列され、
4つのキャリブレーションプレートは、「田」字の形状に配置され、一号キャリブレーションプレートと二号キャリブレーションプレートは並列に配置され、三号キャリブレーションプレートと四号キャリブレーションプレートは一号キャリブレーションと二号キャリブレーションプレートの前方に並列に配置され、三号キャリブレーションプレートと四号キャリブレーションプレートは一号キャリブレーションプレートと二号キャリブレーションプレートより低く、
三号キャリブレーションプレート表面の法線ベクトルn3と四号キャリブレーションプレート表面の法線ベクトルn4との間の角度差は30°より大きく、
一号キャリブレーションプレート表面の法線ベクトルn1と二号キャリブレーションプレート表面の法線ベクトルn2との間の角度差は30°より大きい、
マルチセンサによる複合キャリブレーション装置。
It is a multi-sensor composite calibration device that includes a robot arm, a sensor fusion frame is installed on the robot arm, and a laser radar, a monocular camera, and a computer for data processing are installed on the sensor fusion frame. hand,
The four calibration plate composite calibration target by the laser radar-camera further includes the four calibration plate composite calibration target by the laser radar camera, and the four calibration plate composite calibration target is the No. 1 calibration plate, the No. 2 calibration plate, and the No. 3 calibration plate. , Including No. 4 calibration plate,
The center positions of the No. 1 calibration plate, No. 2 calibration plate, and No. 3 calibration plate are marked with dots and are used to provide features for external parameter calibration.
On the No. 4 calibration plate, black and white grid patterns are arranged for internal parameter calibration of the camera.
The four calibration plates are arranged in the shape of a "field", the No. 1 calibration plate and the No. 2 calibration plate are arranged in parallel, and the No. 3 calibration plate and the No. 4 calibration plate are the No. 1 calibration. And placed in parallel in front of the No. 2 calibration plate, the No. 3 and No. 4 calibration plates are lower than the No. 1 and No. 2 calibration plates.
The angle difference between the normal vector n3 on the surface of the No. 3 calibration plate and the normal vector n4 on the surface of the No. 4 calibration plate is larger than 30 °.
The angular difference between the normal vector n1 on the surface of the No. 1 calibration plate and the normal vector n2 on the surface of the No. 2 calibration plate is greater than 30 °.
Composite calibration device with multiple sensors.
請求項1に記載のマルチセンサによる複合キャリブレーション装置の複合キャリブレーション方法であって、
カメラの内部パラメータキャリブレーションと、レーザーレーダ-カメラの外部パラメータキャリブレーションとを含み、
カメラの内部パラメータキャリブレーションの場合、異なる姿勢下でカメラが碁盤目キャリブレーションプレートに対して撮影を行うように、コンピュータユニットがロボットアームとカメラを制御し、張正友キャリブレーション方法を採用してカメラの内部パラメータKを計算し、
レーザーレーダ-カメラの外部パラメータキャリブレーションの場合、以下のステップを含む、
a)キャリブレーションプレートモジュールがレーザーレーダ及びカメラの視野範囲に現れるように、コンピュータユニットがロボットアームの姿勢を調整するとともに、
ロボットアームを制御して静止状態を維持し、レーザーレーダ及びカメラはデータ採集を行う、
b)レーザーレーダデータに対して分析及び処理を行い、点群特徴点を抽出し、
各点群の座標情報を記録し、異常点をフィルタリングし、点群分割法を採用して点群データを分割し、4つのキャリブレーションプレートの点群データを4つの異なるグループ{L}、{L}、{L},{L}へ分け、K-means方法を採用して点群のクラスタリング中心点を抽出し、
Figure 2022039906000054
は、第i番目のキャリブレーションプレートの中心点位置のレーザーレーダの座標系における三次元座標値であり、
Figure 2022039906000055
をマッチングのためのレーザー特徴点として選定する、
c)カメラデータに対して分析及び処理を行い、視覚特徴点を抽出し、
各ピクセルのグレー値を記録し、FASTキーポイント抽出アルゴリズムを採用し、キャリブレーションプレートのローカルピクセルのグレー値が明らかに変化された箇所を検出することにより、各キャリブレーションプレートの中心点位置を抽出し、
一号キャリブレーションプレート、二号キャリブレーションプレート、三号キャリブレーションプレートのドット中心点位置を抽出し、その座標値C、C、Cを記録し、
碁盤目間の関係を分析することにより、四号キャリブレーションプレートの中心点座標値Cを求め、
は、第i番目のキャリブレーションプレートの中心点位置のカメラ座標系Cにおける二次元座標値であり、Cをマッチングのための視覚特徴点として選定する、
d)レーザーレーダの特徴点
Figure 2022039906000056
及びカメラの特徴点
Figure 2022039906000057
によってマッチング関係
Figure 2022039906000058
を確立し、
特徴点のマッチング関係によって最小再投影誤差を確立し、誤差方程式を構築し、誤差方程式によって最小二乗法による求解を行い、最適な外部パラメータ行列TLCを取得する、
ことを特徴とするマルチセンサによる複合キャリブレーション方法。
The composite calibration method of the composite calibration device using the multi-sensor according to claim 1.
Includes camera internal parameter calibration and laser radar-camera external parameter calibration,
In the case of camera internal parameter calibration, the computer unit controls the robot arm and camera so that the camera shoots against the grid calibration plate under different postures, and the camera adopts the Zhang Masatomo calibration method. Calculate the internal parameter K and
Laser Radar-For external parameter calibration of the camera, including the following steps,
a) The computer unit adjusts the posture of the robot arm so that the calibration plate module appears in the field of view of the laser radar and the camera.
The robot arm is controlled to keep it stationary, and the laser radar and camera collect data.
b) The laser radar data is analyzed and processed to extract point cloud feature points.
The coordinate information of each point cloud is recorded, the abnormal points are filtered, the point cloud data is divided by the point cloud division method, and the point cloud data of the four calibration plates are divided into four different groups {L 1 }, Divide into {L 2 }, {L 3 }, and {L 4 }, and use the K-means method to extract the clustering center point of the point cloud.
Figure 2022039906000054
Is the three-dimensional coordinate value in the laser radar coordinate system at the center point position of the i-th calibration plate.
Figure 2022039906000055
Is selected as a laser feature point for matching,
c) The camera data is analyzed and processed to extract visual feature points.
Extract the center point position of each calibration plate by recording the gray value of each pixel and using the FAST keypoint extraction algorithm to detect where the gray value of the local pixel of the calibration plate has changed significantly. death,
Extract the dot center point positions of the No. 1 calibration plate, No. 2 calibration plate, and No. 3 calibration plate, and record the coordinate values C 1 , C 2 , and C 3 .
By analyzing the relationship between the grids, the center point coordinate value C4 of the No. 4 calibration plate was obtained.
C i is a two-dimensional coordinate value in the camera coordinate system C at the center point position of the i-th calibration plate, and C i is selected as a visual feature point for matching.
d) Features of laser radar
Figure 2022039906000056
And camera features
Figure 2022039906000057
Matching relationship by
Figure 2022039906000058
Established,
The minimum reprojection error is established by the matching relationship of the feature points, the error equation is constructed, the solution is performed by the least squares method by the error equation, and the optimum external parameter matrix TLC is obtained.
A multi-sensor composite calibration method characterized by this.
キャリブレーションプレートの中心位置特徴点に基づいて、キャリブレーションプレートのエッジ位置を採集して特徴点とする、
ことを特徴とする請求項2に記載のマルチセンサによる複合キャリブレーション方法。
Based on the center position feature point of the calibration plate, the edge position of the calibration plate is collected and used as the feature point.
The combined calibration method using a multi-sensor according to claim 2.
キャリブレーションプレートの角度を調整し、異なる角度の状態下で複数グループのキャリブレーションプレートのセンサデータを採集し、グループ毎のデータのキャリブレーションプレートの中心点座標値
Figure 2022039906000059
をそれぞれ計算し、偏差の大きい中心点座標値を削除し、平均値策略を採用して残りの中心点座標を計算する、
ことを特徴とする請求項2に記載のマルチセンサによる複合キャリブレーション方法。
Adjust the angle of the calibration plate, collect the sensor data of the calibration plates of multiple groups under the condition of different angles, and the center point coordinate value of the calibration plate of the data for each group.
Figure 2022039906000059
, Delete the center point coordinates with large deviations, and use the mean strategy to calculate the remaining center point coordinates.
The combined calibration method using a multi-sensor according to claim 2.
前記カメラの内部パラメータキャリブレーションは、碁盤目キャリブレーション方法を採用しており、
前記碁盤目キャリブレーション方法は、異なる姿勢下でカメラが碁盤目キャリブレーションプレートに対して撮影を行うように、コンピュータユニットがロボットアーム及びカメラを制御し、20~30枚の画像のエッジ情報を抽出し、張正友キャリブレーション方法を採用してカメラの内部パラメータKを計算することである、
ことを特徴とする請求項2に記載のマルチセンサによる複合キャリブレーション方法。
The internal parameter calibration of the camera uses a grid calibration method.
In the grid calibration method, the computer unit controls the robot arm and the camera so that the camera shoots at the grid calibration plate under different postures, and the edge information of 20 to 30 images is extracted. Then, the internal parameter K of the camera is calculated by adopting the calibration method of Masatomo Zhang.
The combined calibration method using a multi-sensor according to claim 2.
請求項1に記載のマルチセンサによる複合キャリブレーション装置の複合キャリブレーション方法であって、
センサ融合フレーム上に配置された慣性ナビゲーションシステムをさらに含み、
複合キャリブレーション方法には、レーザーレーダ及び慣性ナビゲーションシステムによる複合キャリブレーション方法を含んでおり、
ロボットアームの初期運動時刻をtとして定義し、ロボットアームの運動終了時刻をtとして定義し、t時刻に走査されたレーザー点群をPとして定義し、t時刻でのレーザーレーダの座標系をLとして定義し、t時刻での慣性ナビゲーションシステムの座標系をIとして定義し、t時刻でのレーザーレーダの座標系をLとして定義し、t時刻での慣性ナビゲーションシステムの座標系をIとして定義し、レーザーレーダのt時刻からt時刻までの間の姿勢変換行列をTとして定義し、慣性ナビゲーションシステムのt時刻からt時刻までの間の姿勢変換行列をTとして定義し、レーザーレーダと慣性ナビゲーションシステムとの間の外部パラメータ行列をTLIとして定義すると、
前記複合キャリブレーション方法は、以下のステップを含む、
a)ロボットアームは指定された軌跡に従って運動を行い、ロボットアームの運動過程中に、レーザーレーダ及び慣性ナビゲーションシステムがデータ採集を行う、
b)ロボットアームを制御して運動を停止し、センサによって採集されたデータに対して処理を行い、
レーザーレーダの場合、均一運動モデルに従ってフレーム毎のレーザー点群に対して歪み除去処理を行い、
点群フィルタリングアルゴリズムを採用し、点群データ中の外れ値を除去し、
計算の複雑さを軽減するために、ボクセルグリッド方法を使用してフレーム毎のレーザー点群データに対してダウンサンプリング処理を行う、
c)レーザーレーダの座標系
Figure 2022039906000060
の初期時刻tでの座標系Lと運動終了時刻での座標系Lとの間の姿勢変換行列Tを計算する、
姿勢変換行列Tの計算方法は、以下の通りである、
反復最近傍法を採用して第iフレーム点群と第i+1フレーム点群をマッチングし、第iフレーム点群
Figure 2022039906000061
と第i+1フレーム点群
Figure 2022039906000062
のマッチング関係を取得し、
第i時刻から第i+1時刻までのレーザーレーダの姿勢変換は、回転行列Rと並進ベクトルtから構成されており、2フレーム点群の姿勢変換関係を示し、さらに、誤差方程式を構築し、誤差方程式を最小二乗問題に変換し、SVD法を採用してR、tを計算し、R、tによって第i時刻から第i+1時刻までのレーザーレーダの姿勢変換行列を
Figure 2022039906000063
として取得し、nフレームのレーザーレーダの姿勢変換行列Tを累積的に乗算し、レーザーレーダのt時刻からt時刻までの姿勢変換行列Tを取得する、
d)慣性ナビゲーションシステムの座標系
Figure 2022039906000064
の初期時刻tでの座標系Iと運動終了時刻tでの座標系Iとの間の姿勢変換行列Tを計算する、
姿勢変換行列Tの計算方法は、以下の通りである、
慣性ナビゲーションシステムの加速度測定データ及び角速度測定データに対して積分を行い、変位データt及び回転データRを取得すると、慣性ナビゲーションシステムのt時刻からt時刻までの姿勢変換行列
Figure 2022039906000065
Figure 2022039906000066
に表される、
e)Tによってt時刻でのレーザー点群Pをt時刻でのL座標系に投影し、点群PnLを取得する、
f)T及びキャリブレーション待ちパラメータTLIによってt時刻でのレーザー点群Pをt時刻でのL座標系に投影し、PnIを取得する、
g)2グループの点群PnL及びPnIをマッチングし、2グループの点群を整列し、外部パラメータ行列TLIに対して最適化を行い、反復最近傍法を採用してPnL及びPnIが記述された同一領域の点群領域をレジストレーションし、最近傍誤差Terrorを構築及び最適化し、Terror、T、Tによって外部パラメータ行列TLIを求解する、
ことを特徴とするマルチセンサによる複合キャリブレーション方法。
The composite calibration method of the composite calibration device using the multi-sensor according to claim 1.
Further includes an inertial navigation system located on the sensor fusion frame,
The combined calibration method includes a combined calibration method using a laser radar and an inertial navigation system.
The initial motion time of the robot arm is defined as t 0 , the motion end time of the robot arm is defined as t n , the laser point group scanned at t n time is defined as P n , and the laser radar at t 0 time. The coordinate system of is defined as L 0 , the coordinate system of the inertial navigation system at t 0 time is defined as I 0 , the coordinate system of the laser radar at t n time is defined as L n , and at t n time. The coordinate system of the inertial navigation system is defined as In, the attitude conversion matrix between t 0 time and t n time of the laser radar is defined as T L , and the inertial navigation system is defined from t 0 time to t n time. If the attitude conversion matrix between is defined as TI and the external parameter matrix between the laser radar and the inertial navigation system is defined as TLI ,
The combined calibration method comprises the following steps:
a) The robot arm moves according to a specified trajectory, and the laser radar and inertial navigation system collect data during the movement process of the robot arm.
b) Control the robot arm to stop the movement, process the data collected by the sensor, and
In the case of laser radar, distortion removal processing is performed on the laser point cloud for each frame according to the uniform motion model.
Uses a point cloud filtering algorithm to remove outliers in point cloud data.
To reduce the complexity of the calculation, the voxel grid method is used to downsample the laser point cloud data for each frame.
c) Laser radar coordinate system
Figure 2022039906000060
Calculate the posture transformation matrix TL between the coordinate system L 0 at the initial time t 0 and the coordinate system L n at the end time of the exercise.
The calculation method of the attitude transformation matrix TL is as follows.
The iterative nearest neighbor method is used to match the i-frame point cloud and the i + 1 frame point cloud, and the i-frame point cloud is used.
Figure 2022039906000061
And i + 1 frame point cloud
Figure 2022039906000062
Get the matching relationship of
The attitude transformation of the laser radar from the i-th time to the i + 1th time is composed of the rotation matrix R i and the translation vector ti, shows the attitude transformation relationship of the two-frame point group, and further constructs the error equation. The error equation is converted into the least squared problem, the SVD method is used to calculate R i and ti, and the attitude conversion matrix of the laser radar from the i time to the i + 1 time is calculated by R i and ti .
Figure 2022039906000063
And the attitude transformation matrix Ti of the laser radar of n frames is cumulatively multiplied to acquire the attitude transformation matrix TL from t 0 time to t n time of the laser radar.
d) Coordinate system of inertial navigation system
Figure 2022039906000064
Calculate the posture transformation matrix TI between the coordinate system I 0 at the initial time t 0 and the coordinate system In n at the exercise end time t n .
The calculation method of the attitude transformation matrix TI is as follows.
When the acceleration measurement data and the angular velocity measurement data of the inertial navigation system are integrated and the displacement data t I and the rotation data RI are acquired, the attitude transformation matrix from the t 0 time to the t n time of the inertial navigation system is obtained.
Figure 2022039906000065
Figure 2022039906000066
Represented in
e) The laser point cloud P n at t n time is projected onto the L 0 coordinate system at t 0 time by TL, and the point cloud P n L is acquired.
f) The laser point cloud P n at t n time is projected onto the L 0 coordinate system at t 0 time by TI and the calibration waiting parameter T LI , and P n I is acquired.
g) Matching the two groups of point clouds P nL and P nI , aligning the two groups of point clouds, optimizing for the external parameter matrix TLI , and adopting the iterative nearest neighbor method, P nL and P. The point cloud region of the same region in which nI is described is registered, the nearest neighbor error Terror is constructed and optimized, and the external parameter matrix TLI is solved by Terror, TL , and TI .
A multi-sensor composite calibration method characterized by this.
視覚条件が十分である場合、単眼カメラの観測データを記録し、視覚-IMUキャリブレーションツールを採用し、単眼カメラと慣性ナビゲーションシステムとの間の外部パラメータ行列TCIを計算し、
決定された3つの外部パラメータ行列TLC、TLI、TCI間の姿勢一貫性に基づいて複合検証を行い、外部パラメータ行列中の変換パラメータを調整し、マルチセンサによる複合キャリブレーションの精度を向上し、
前記パラメータ最適化は、オンライン調整方法を採用し、レーザーレーダ、単眼カメラ、慣性ナビゲーションシステムのデータを融合し、TLI、TCIに対して調整を行う、
ことを特徴とする請求項6に記載のマルチセンサによる複合キャリブレーション方法。
If the visual conditions are sufficient, the observation data of the monocular camera is recorded, the visual-IMU calibration tool is adopted, and the external parameter matrix TCI between the monocular camera and the inertial navigation system is calculated.
Combined verification is performed based on the attitude consistency between the determined three external parameter matrices TLC , TLI , and TCI , and the conversion parameters in the external parameter matrix are adjusted to improve the accuracy of the combined calibration by the multi-sensor. death,
The parameter optimization employs an online adjustment method, fuses data from a laser radar, a monocular camera, and an inertial navigation system, and makes adjustments for TLI and TCI .
The combined calibration method using a multi-sensor according to claim 6.
視覚条件が十分である場合、キャリブレーションターゲットがカメラの視野範囲内に現れるように、ロボットアームを制御し、カメラが常にキャリブレーションターゲットを観測できる条件下で、ロボットアームを制御して空間内で六自由度の運動をし、
単眼カメラの観測データを記録し、キャリブレーションツールを採用して視覚-慣性ナビゲーションシステムの外部パラメータ行列TCIを次のようにキャリブレーションする、
Figure 2022039906000067
ことを特徴とする請求項7に記載のマルチセンサによる複合キャリブレーション方法。
If the visual conditions are sufficient, control the robot arm so that the calibration target appears within the field of view of the camera, and control the robot arm in space under conditions where the camera can always observe the calibration target. Exercise with six degrees of freedom,
Record the observation data of the monocular camera and use a calibration tool to calibrate the external parameter matrix TCI of the visual-inertial navigation system as follows:
Figure 2022039906000067
The combined calibration method using a multi-sensor according to claim 7.
レーザーレーダ、単眼カメラ、慣性測定ユニット間の姿勢変換行列に対して複合最適化を行い、
決定された3つの外部パラメータ行列TLC、TLI、TCI間の姿勢一貫性に基づいて複合検証を行う、
具体的なステップは、以下の通りである、
各姿勢変換誤差を計算する、
Figure 2022039906000068
Figure 2022039906000069
がすべて誤差閾値errorthrより小さい場合、TLC、TLI、及びTCI間は既に姿勢一貫性を満たしていると見なされ、調整不要となる、
その後、各姿勢変換行列誤差がすべて誤差閾値より小さいという制約を満たす条件下で、総誤差errorが最小になるように、各姿勢変換行列に対して調整を行う、
Figure 2022039906000070
Figure 2022039906000071
の大きさを判断し、3つの誤差の大きさから主な誤差由来を初歩的に特定し、誤差の正負から調整する方向を初歩的に決定する、
並進ベクトル及び回転行列中の各ベクトル成分を分析し、並進ベクトルに対して、次の調整を行う、
Figure 2022039906000072
ここで、Δx、Δy、及びΔzの大きさ及び正負は、
Figure 2022039906000073
の具体的なベクトル成分を分析することによって取得し、
回転行列に対して、次のような調整を行う、
Figure 2022039906000074

ここで、Δrの大きさと正負は、
Figure 2022039906000075
の具体的なベクトル成分を分析することによって取得する、
ことを特徴とする請求項7に記載のマルチセンサによる複合キャリブレーション方法。

Composite optimization is performed for the attitude transformation matrix between the laser radar, monocular camera, and inertial measurement unit.
Perform composite verification based on postural consistency between the determined three external parameter matrices TLC, TLI , and TCI .
The specific steps are as follows:
Calculate each posture conversion error,
Figure 2022039906000068
Figure 2022039906000069
If are all less than the error threshold error thr , it is considered that the posture consistency is already satisfied between TLC , TLI , and TCI , and no adjustment is required.
Then, adjustments are made to each posture transformation matrix so that the total error error T is minimized under the condition that all the posture transformation matrix errors are smaller than the error threshold.
Figure 2022039906000070
Figure 2022039906000071
Judging the magnitude of the error, the main error origin is elementaryly identified from the magnitudes of the three errors, and the direction of adjustment is elementaryly determined from the positive and negative of the error.
Analyze each vector component in the translation vector and rotation matrix, and make the following adjustments to the translation vector.
Figure 2022039906000072
Here, the magnitudes and positive / negative of Δx, Δy, and Δz are
Figure 2022039906000073
Obtained by analyzing the concrete vector components of
Make the following adjustments to the rotation matrix,
Figure 2022039906000074

Here, the magnitude and positive / negative of Δr are
Figure 2022039906000075
Obtained by analyzing the concrete vector components of,
The combined calibration method using a multi-sensor according to claim 7.

JP2021003139A 2020-08-28 2021-01-12 Composite calibration device and method using multiple sensors Active JP7072759B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010881818.4A CN111735479B (en) 2020-08-28 2020-08-28 Multi-sensor combined calibration device and method
CN202010881818.4 2020-08-28

Publications (2)

Publication Number Publication Date
JP2022039906A true JP2022039906A (en) 2022-03-10
JP7072759B2 JP7072759B2 (en) 2022-05-23

Family

ID=72658909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021003139A Active JP7072759B2 (en) 2020-08-28 2021-01-12 Composite calibration device and method using multiple sensors

Country Status (2)

Country Link
JP (1) JP7072759B2 (en)
CN (1) CN111735479B (en)

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114770517A (en) * 2022-05-19 2022-07-22 梅卡曼德(北京)机器人科技有限公司 Method for calibrating robot through point cloud acquisition device and calibration system
CN114993245A (en) * 2022-05-31 2022-09-02 山西支点科技有限公司 High-precision target calibration method of target calibration equipment under movable base platform and external field vibration environment
CN115026814A (en) * 2022-06-01 2022-09-09 中科苏州智能计算技术研究院 Camera automatic calibration method for mechanical arm motion space reconstruction
CN115092671A (en) * 2022-06-08 2022-09-23 深圳市南科佳安机器人科技有限公司 Feeding and discharging composite robot and corresponding feeding and discharging control method
CN115122331A (en) * 2022-07-04 2022-09-30 中冶赛迪工程技术股份有限公司 Workpiece grabbing method and device
CN115159149A (en) * 2022-07-28 2022-10-11 深圳市罗宾汉智能装备有限公司 Material taking and unloading method and device based on visual positioning
CN115153925A (en) * 2022-07-18 2022-10-11 杭州键嘉机器人有限公司 Automatic drill positioning device and method for oral dental implant surgery
CN115241110A (en) * 2022-08-15 2022-10-25 魅杰光电科技(上海)有限公司 Wafer motion control method and wafer motion control system
CN115284289A (en) * 2022-08-13 2022-11-04 上海由格医疗技术有限公司 Full-automatic hand-eye calibration system and method for mechanical arm, computer equipment and medium
CN115442584A (en) * 2022-08-30 2022-12-06 中国传媒大学 Multi-sensor fusion irregular surface dynamic projection method
CN115597624A (en) * 2022-08-31 2023-01-13 广州文远知行科技有限公司(Cn) Performance detection method, device and equipment of inertial navigation unit and storage medium
CN115712111A (en) * 2022-11-07 2023-02-24 北京斯年智驾科技有限公司 Camera and radar combined calibration method and system, electronic device, computer equipment and storage medium
CN115778445A (en) * 2022-12-07 2023-03-14 佗道医疗科技有限公司 Laser guidance verification method for tail end of mechanical arm
CN115793261A (en) * 2023-01-31 2023-03-14 北京东方瑞丰航空技术有限公司 Vision compensation method, system and equipment for VR glasses
CN115855042A (en) * 2022-12-12 2023-03-28 北京自动化控制设备研究所 Pedestrian visual navigation method based on laser radar cooperative assistance
CN115890677A (en) * 2022-11-29 2023-04-04 中国农业大学 Dead chicken picking robot for standardized cage chicken house and method thereof
CN115908121A (en) * 2023-02-23 2023-04-04 深圳市精锋医疗科技股份有限公司 Endoscope registration method and device and calibration system
CN115965760A (en) * 2023-03-15 2023-04-14 成都理工大学 Debris flow alluvial accumulation simulation experiment accumulation body surface reconstruction system
CN116000927A (en) * 2022-12-29 2023-04-25 中国工程物理研究院机械制造工艺研究所 Measuring device and method for spatial position guiding precision of robot vision system
CN116358517A (en) * 2023-02-24 2023-06-30 杭州宇树科技有限公司 Height map construction method, system and storage medium for robot
CN116366522A (en) * 2023-01-10 2023-06-30 中通服创立信息科技有限责任公司 Cable facility position correction method and system, cable route correction method and system
CN116423505A (en) * 2023-03-30 2023-07-14 杭州邦杰星医疗科技有限公司 Error calibration method for mechanical arm registration module in mechanical arm navigation operation
CN116449387A (en) * 2023-06-15 2023-07-18 南京师范大学 Multi-dimensional environment information acquisition platform and calibration method thereof
CN116512286A (en) * 2023-04-23 2023-08-01 九众九机器人有限公司 Six-degree-of-freedom stamping robot and stamping method thereof
CN116563297A (en) * 2023-07-12 2023-08-08 中国科学院自动化研究所 Craniocerebral target positioning method, device and storage medium
CN116687386A (en) * 2023-08-07 2023-09-05 青岛市畜牧工作站(青岛市畜牧兽医研究所) Radar detection system and method for comprehensive calibration of cattle body shape data
CN116862999A (en) * 2023-09-04 2023-10-10 华东交通大学 Calibration method, system, equipment and medium for three-dimensional measurement of double cameras
CN116883516A (en) * 2023-09-07 2023-10-13 西南科技大学 Camera parameter calibration method and device
CN117008122A (en) * 2023-08-04 2023-11-07 江苏苏港智能装备产业创新中心有限公司 Method and system for positioning surrounding objects of engineering mechanical equipment based on multi-radar fusion
CN117092625A (en) * 2023-10-10 2023-11-21 北京斯年智驾科技有限公司 External parameter calibration method and system of radar and combined inertial navigation system
CN117086500A (en) * 2023-08-17 2023-11-21 深圳市大德激光技术有限公司 Electrical control system of laser etching equipment
CN117109505A (en) * 2023-10-24 2023-11-24 中国飞机强度研究所 Method for measuring blocking hook posture and determining space deformation data of carrier-based aircraft
CN117140536A (en) * 2023-10-30 2023-12-01 北京航空航天大学 Robot control method and device and robot
CN117257459A (en) * 2023-11-22 2023-12-22 杭州先奥科技有限公司 Map expansion method and system in electromagnetic navigation bronchoscopy with respiratory disturbance resistance
CN117284499A (en) * 2023-11-24 2023-12-26 北京航空航天大学 Monocular vision-laser-based pose measurement method for spatial unfolding mechanism
CN117433511A (en) * 2023-12-20 2024-01-23 绘见科技(深圳)有限公司 Multi-sensor fusion positioning method
CN117646828A (en) * 2024-01-29 2024-03-05 中国市政工程西南设计研究总院有限公司 Device and method for detecting relative displacement and water leakage of pipe jacking interface
CN117968680A (en) * 2024-03-29 2024-05-03 西安现代控制技术研究所 Inertial-radar integrated navigation limited frame measurement variable weight updating method
CN117974766A (en) * 2024-03-28 2024-05-03 西北工业大学 Multi-target identity judging method of distributed double infrared sensors based on space-time basis
CN117994359A (en) * 2024-04-07 2024-05-07 广东工业大学 Linear array camera calibration method and related device based on auxiliary camera
WO2024096087A1 (en) * 2022-11-02 2024-05-10 京セラ株式会社 Electronic apparatus, electronic apparatus control method, and program
CN118135034A (en) * 2024-03-20 2024-06-04 南京理工大学 Combined calibration method for three-dimensional point cloud sensor and two-dimensional image sensor of engineering machinery with operation device
CN118154700A (en) * 2024-05-10 2024-06-07 常州星宇车灯股份有限公司 On-line monitoring method for accuracy of external parameters of vehicle sensor
CN118205907A (en) * 2024-03-22 2024-06-18 浙江公链信息科技有限公司 Method and system for supplying bags by mechanical arm
CN118288282A (en) * 2024-04-09 2024-07-05 湖南师范大学 Three-dimensional point cloud positioning measurement method and system for special robot installed on upright post
WO2024161453A1 (en) * 2023-01-30 2024-08-08 三菱電機株式会社 Image point group data processing device, image point group data processing method, and image point group data processing program
CN118464069A (en) * 2024-07-12 2024-08-09 中南大学 Static external parameter calibration method
CN118544551A (en) * 2024-07-30 2024-08-27 江苏鸣动智能设备有限公司 Demolding control method and system for controlling mechanical arm through machine vision

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112577517A (en) * 2020-11-13 2021-03-30 上汽大众汽车有限公司 Multi-element positioning sensor combined calibration method and system
CN112444798B (en) * 2020-11-27 2024-04-09 杭州易现先进科技有限公司 Method and device for calibrating space-time external parameters of multi-sensor equipment and computer equipment
CN114643599B (en) * 2020-12-18 2023-07-21 沈阳新松机器人自动化股份有限公司 Three-dimensional machine vision system and method based on point laser and area array camera
CN112790786A (en) * 2020-12-30 2021-05-14 无锡祥生医疗科技股份有限公司 Point cloud data registration method and device, ultrasonic equipment and storage medium
CN112881999B (en) * 2021-01-25 2024-02-02 上海西虹桥导航技术有限公司 Semi-automatic calibration method for multi-line laser radar and vision sensor
CN112509067B (en) * 2021-02-02 2021-04-27 中智行科技有限公司 Multi-sensor combined calibration method and device, electronic equipment and storage medium
CN112882000B (en) * 2021-02-05 2023-02-03 北京科技大学 Automatic calibration method for laser radar
CN112927302B (en) * 2021-02-22 2023-08-15 山东大学 Calibration plate and calibration method for combined calibration of multi-line laser radar and camera
CN113192174B (en) * 2021-04-06 2024-03-26 中国计量大学 Picture construction method and device and computer storage medium
CN113218435B (en) * 2021-05-07 2023-01-17 复旦大学 Multi-sensor time synchronization method
CN113298881B (en) * 2021-05-27 2023-09-12 中国科学院沈阳自动化研究所 Spatial joint calibration method for monocular camera-IMU-mechanical arm
CN113269107A (en) * 2021-06-01 2021-08-17 航天智造(上海)科技有限责任公司 Interactive intelligent disassembling and assembling system based on deep learning
CN113376618B (en) * 2021-06-22 2024-03-01 昆明理工大学 Multi-path side laser radar point cloud registration device and use method
CN114252099B (en) * 2021-12-03 2024-02-23 武汉科技大学 Multi-sensor fusion self-calibration method and system for intelligent vehicle
CN114332240B (en) * 2021-12-23 2024-10-18 赛可智能科技(上海)有限公司 Multi-sensor combined calibration method and calibration device
CN114894116B (en) * 2022-04-08 2024-02-23 苏州瀚华智造智能技术有限公司 Measurement data fusion method and non-contact measurement equipment
CN114995497A (en) * 2022-06-08 2022-09-02 南京航空航天大学 Multi-body three-dimensional collaborative inertial SLAM method and device based on formation common map
CN114879153A (en) * 2022-06-08 2022-08-09 中国第一汽车股份有限公司 Radar parameter calibration method and device and vehicle
CN114882115B (en) * 2022-06-10 2023-08-25 国汽智控(北京)科技有限公司 Vehicle pose prediction method and device, electronic equipment and storage medium
CN115674186A (en) * 2022-08-13 2023-02-03 苏州深浅优视智能科技有限公司 Calibration method and system for mechanical arm and 3D camera, electronic device and storage medium
CN115097427B (en) * 2022-08-24 2023-02-10 北原科技(深圳)有限公司 Automatic calibration method based on time-of-flight method
CN116038719B (en) * 2023-04-03 2023-07-18 广东工业大学 Method, device and equipment for tracking and measuring pose of tail end of mechanical arm
CN116630444B (en) * 2023-07-24 2023-09-29 中国矿业大学 Optimization method for fusion calibration of camera and laser radar
CN117554937B (en) * 2024-01-08 2024-04-26 安徽中科星驰自动驾驶技术有限公司 Error-controllable laser radar and combined inertial navigation external parameter calibration method and system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103983961A (en) * 2014-05-20 2014-08-13 南京理工大学 Three-dimensional calibration target for joint calibration of 3D laser radar and camera
JP2018526641A (en) * 2015-08-24 2018-09-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated System and method for laser depth map sampling
CN109828262A (en) * 2019-03-15 2019-05-31 苏州天准科技股份有限公司 Laser radar and the automatic combined calibrating method of camera based on plane and space characteristics
CN110322519A (en) * 2019-07-18 2019-10-11 天津大学 A kind of caliberating device and scaling method for laser radar and camera combined calibrating
CN110599541A (en) * 2019-08-28 2019-12-20 贝壳技术有限公司 Method and device for calibrating multiple sensors and storage medium
JP2020516883A (en) * 2017-04-17 2020-06-11 コグネックス・コーポレイション High precision calibration system and method
US10726579B1 (en) * 2019-11-13 2020-07-28 Honda Motor Co., Ltd. LiDAR-camera calibration
CN111627072A (en) * 2020-04-30 2020-09-04 贝壳技术有限公司 Method and device for calibrating multiple sensors and storage medium
JP2022514912A (en) * 2019-11-19 2022-02-16 浙江商▲湯▼科技▲開▼▲発▼有限公司 Sensor calibration methods, devices, systems, vehicles, equipment and storage media

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107194983B (en) * 2017-05-16 2018-03-09 华中科技大学 A kind of three-dimensional visualization method and system based on a cloud and image data
CN109118547A (en) * 2018-11-01 2019-01-01 百度在线网络技术(北京)有限公司 Multi-cam combined calibrating system and method
CN109712189B (en) * 2019-03-26 2019-06-18 深兰人工智能芯片研究院(江苏)有限公司 A kind of method and apparatus of sensor combined calibrating
CN110599546A (en) * 2019-08-28 2019-12-20 贝壳技术有限公司 Method, system, device and storage medium for acquiring three-dimensional space data
CN110686704A (en) * 2019-10-18 2020-01-14 深圳市镭神智能系统有限公司 Pose calibration method, system and medium for laser radar and combined inertial navigation
CN111127563A (en) * 2019-12-18 2020-05-08 北京万集科技股份有限公司 Combined calibration method and device, electronic equipment and storage medium

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103983961A (en) * 2014-05-20 2014-08-13 南京理工大学 Three-dimensional calibration target for joint calibration of 3D laser radar and camera
JP2018526641A (en) * 2015-08-24 2018-09-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated System and method for laser depth map sampling
JP2020516883A (en) * 2017-04-17 2020-06-11 コグネックス・コーポレイション High precision calibration system and method
CN109828262A (en) * 2019-03-15 2019-05-31 苏州天准科技股份有限公司 Laser radar and the automatic combined calibrating method of camera based on plane and space characteristics
CN110322519A (en) * 2019-07-18 2019-10-11 天津大学 A kind of caliberating device and scaling method for laser radar and camera combined calibrating
CN110599541A (en) * 2019-08-28 2019-12-20 贝壳技术有限公司 Method and device for calibrating multiple sensors and storage medium
US10726579B1 (en) * 2019-11-13 2020-07-28 Honda Motor Co., Ltd. LiDAR-camera calibration
JP2022514912A (en) * 2019-11-19 2022-02-16 浙江商▲湯▼科技▲開▼▲発▼有限公司 Sensor calibration methods, devices, systems, vehicles, equipment and storage media
CN111627072A (en) * 2020-04-30 2020-09-04 贝壳技术有限公司 Method and device for calibrating multiple sensors and storage medium

Cited By (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114770517A (en) * 2022-05-19 2022-07-22 梅卡曼德(北京)机器人科技有限公司 Method for calibrating robot through point cloud acquisition device and calibration system
CN114770517B (en) * 2022-05-19 2023-08-15 梅卡曼德(北京)机器人科技有限公司 Method for calibrating robot through point cloud acquisition device and calibration system
CN114993245A (en) * 2022-05-31 2022-09-02 山西支点科技有限公司 High-precision target calibration method of target calibration equipment under movable base platform and external field vibration environment
CN114993245B (en) * 2022-05-31 2024-04-05 山西支点科技有限公司 High-precision target calibrating method of target calibrating equipment in movable base platform and external field vibration environment
CN115026814A (en) * 2022-06-01 2022-09-09 中科苏州智能计算技术研究院 Camera automatic calibration method for mechanical arm motion space reconstruction
CN115026814B (en) * 2022-06-01 2024-04-12 中科苏州智能计算技术研究院 Camera automatic calibration method for mechanical arm movement space reconstruction
CN115092671A (en) * 2022-06-08 2022-09-23 深圳市南科佳安机器人科技有限公司 Feeding and discharging composite robot and corresponding feeding and discharging control method
CN115092671B (en) * 2022-06-08 2023-09-26 深圳市南科佳安机器人科技有限公司 Feeding and discharging control method
CN115122331A (en) * 2022-07-04 2022-09-30 中冶赛迪工程技术股份有限公司 Workpiece grabbing method and device
CN115153925B (en) * 2022-07-18 2024-04-23 杭州键嘉医疗科技股份有限公司 Automatic drill bit positioning device and method for dental implant operation
CN115153925A (en) * 2022-07-18 2022-10-11 杭州键嘉机器人有限公司 Automatic drill positioning device and method for oral dental implant surgery
CN115159149B (en) * 2022-07-28 2024-05-24 深圳市罗宾汉智能装备有限公司 Visual positioning-based material taking and unloading method and device
CN115159149A (en) * 2022-07-28 2022-10-11 深圳市罗宾汉智能装备有限公司 Material taking and unloading method and device based on visual positioning
CN115284289A (en) * 2022-08-13 2022-11-04 上海由格医疗技术有限公司 Full-automatic hand-eye calibration system and method for mechanical arm, computer equipment and medium
CN115241110A (en) * 2022-08-15 2022-10-25 魅杰光电科技(上海)有限公司 Wafer motion control method and wafer motion control system
CN115241110B (en) * 2022-08-15 2023-12-08 魅杰光电科技(上海)有限公司 Wafer motion control method and wafer motion control system
CN115442584A (en) * 2022-08-30 2022-12-06 中国传媒大学 Multi-sensor fusion irregular surface dynamic projection method
CN115442584B (en) * 2022-08-30 2023-08-18 中国传媒大学 Multi-sensor fusion type special-shaped surface dynamic projection method
CN115597624A (en) * 2022-08-31 2023-01-13 广州文远知行科技有限公司(Cn) Performance detection method, device and equipment of inertial navigation unit and storage medium
WO2024096087A1 (en) * 2022-11-02 2024-05-10 京セラ株式会社 Electronic apparatus, electronic apparatus control method, and program
CN115712111A (en) * 2022-11-07 2023-02-24 北京斯年智驾科技有限公司 Camera and radar combined calibration method and system, electronic device, computer equipment and storage medium
CN115890677B (en) * 2022-11-29 2024-06-11 中国农业大学 Dead chicken picking robot for standardized cage chicken house and method thereof
CN115890677A (en) * 2022-11-29 2023-04-04 中国农业大学 Dead chicken picking robot for standardized cage chicken house and method thereof
CN115778445A (en) * 2022-12-07 2023-03-14 佗道医疗科技有限公司 Laser guidance verification method for tail end of mechanical arm
CN115855042A (en) * 2022-12-12 2023-03-28 北京自动化控制设备研究所 Pedestrian visual navigation method based on laser radar cooperative assistance
CN116000927A (en) * 2022-12-29 2023-04-25 中国工程物理研究院机械制造工艺研究所 Measuring device and method for spatial position guiding precision of robot vision system
CN116366522A (en) * 2023-01-10 2023-06-30 中通服创立信息科技有限责任公司 Cable facility position correction method and system, cable route correction method and system
WO2024161453A1 (en) * 2023-01-30 2024-08-08 三菱電機株式会社 Image point group data processing device, image point group data processing method, and image point group data processing program
CN115793261A (en) * 2023-01-31 2023-03-14 北京东方瑞丰航空技术有限公司 Vision compensation method, system and equipment for VR glasses
CN115908121A (en) * 2023-02-23 2023-04-04 深圳市精锋医疗科技股份有限公司 Endoscope registration method and device and calibration system
CN116358517B (en) * 2023-02-24 2024-02-23 杭州宇树科技有限公司 Height map construction method, system and storage medium for robot
CN116358517A (en) * 2023-02-24 2023-06-30 杭州宇树科技有限公司 Height map construction method, system and storage medium for robot
CN115965760A (en) * 2023-03-15 2023-04-14 成都理工大学 Debris flow alluvial accumulation simulation experiment accumulation body surface reconstruction system
CN116423505B (en) * 2023-03-30 2024-04-23 杭州邦杰星医疗科技有限公司 Error calibration method for mechanical arm registration module in mechanical arm navigation operation
CN116423505A (en) * 2023-03-30 2023-07-14 杭州邦杰星医疗科技有限公司 Error calibration method for mechanical arm registration module in mechanical arm navigation operation
CN116512286A (en) * 2023-04-23 2023-08-01 九众九机器人有限公司 Six-degree-of-freedom stamping robot and stamping method thereof
CN116512286B (en) * 2023-04-23 2023-11-14 九众九机器人有限公司 Six-degree-of-freedom stamping robot and stamping method thereof
CN116449387A (en) * 2023-06-15 2023-07-18 南京师范大学 Multi-dimensional environment information acquisition platform and calibration method thereof
CN116449387B (en) * 2023-06-15 2023-09-12 南京师范大学 Multi-dimensional environment information acquisition platform and calibration method thereof
CN116563297B (en) * 2023-07-12 2023-10-31 中国科学院自动化研究所 Craniocerebral target positioning method, device and storage medium
CN116563297A (en) * 2023-07-12 2023-08-08 中国科学院自动化研究所 Craniocerebral target positioning method, device and storage medium
CN117008122A (en) * 2023-08-04 2023-11-07 江苏苏港智能装备产业创新中心有限公司 Method and system for positioning surrounding objects of engineering mechanical equipment based on multi-radar fusion
CN116687386B (en) * 2023-08-07 2023-10-31 青岛市畜牧工作站(青岛市畜牧兽医研究所) Radar detection system and method for comprehensive calibration of cattle body shape data
CN116687386A (en) * 2023-08-07 2023-09-05 青岛市畜牧工作站(青岛市畜牧兽医研究所) Radar detection system and method for comprehensive calibration of cattle body shape data
CN117086500A (en) * 2023-08-17 2023-11-21 深圳市大德激光技术有限公司 Electrical control system of laser etching equipment
CN116862999A (en) * 2023-09-04 2023-10-10 华东交通大学 Calibration method, system, equipment and medium for three-dimensional measurement of double cameras
CN116862999B (en) * 2023-09-04 2023-12-08 华东交通大学 Calibration method, system, equipment and medium for three-dimensional measurement of double cameras
CN116883516A (en) * 2023-09-07 2023-10-13 西南科技大学 Camera parameter calibration method and device
CN116883516B (en) * 2023-09-07 2023-11-24 西南科技大学 Camera parameter calibration method and device
CN117092625A (en) * 2023-10-10 2023-11-21 北京斯年智驾科技有限公司 External parameter calibration method and system of radar and combined inertial navigation system
CN117092625B (en) * 2023-10-10 2024-01-02 北京斯年智驾科技有限公司 External parameter calibration method and system of radar and combined inertial navigation system
CN117109505A (en) * 2023-10-24 2023-11-24 中国飞机强度研究所 Method for measuring blocking hook posture and determining space deformation data of carrier-based aircraft
CN117109505B (en) * 2023-10-24 2024-01-30 中国飞机强度研究所 Method for measuring blocking hook posture and determining space deformation data of carrier-based aircraft
CN117140536A (en) * 2023-10-30 2023-12-01 北京航空航天大学 Robot control method and device and robot
CN117140536B (en) * 2023-10-30 2024-01-09 北京航空航天大学 Robot control method and device and robot
CN117257459B (en) * 2023-11-22 2024-03-12 杭州先奥科技有限公司 Map expansion method and system in electromagnetic navigation bronchoscopy with respiratory disturbance resistance
CN117257459A (en) * 2023-11-22 2023-12-22 杭州先奥科技有限公司 Map expansion method and system in electromagnetic navigation bronchoscopy with respiratory disturbance resistance
CN117284499A (en) * 2023-11-24 2023-12-26 北京航空航天大学 Monocular vision-laser-based pose measurement method for spatial unfolding mechanism
CN117284499B (en) * 2023-11-24 2024-01-19 北京航空航天大学 Monocular vision-laser-based pose measurement method for spatial unfolding mechanism
CN117433511B (en) * 2023-12-20 2024-03-12 绘见科技(深圳)有限公司 Multi-sensor fusion positioning method
CN117433511A (en) * 2023-12-20 2024-01-23 绘见科技(深圳)有限公司 Multi-sensor fusion positioning method
CN117646828B (en) * 2024-01-29 2024-04-05 中国市政工程西南设计研究总院有限公司 Device and method for detecting relative displacement and water leakage of pipe jacking interface
CN117646828A (en) * 2024-01-29 2024-03-05 中国市政工程西南设计研究总院有限公司 Device and method for detecting relative displacement and water leakage of pipe jacking interface
CN118135034A (en) * 2024-03-20 2024-06-04 南京理工大学 Combined calibration method for three-dimensional point cloud sensor and two-dimensional image sensor of engineering machinery with operation device
CN118205907A (en) * 2024-03-22 2024-06-18 浙江公链信息科技有限公司 Method and system for supplying bags by mechanical arm
CN117974766B (en) * 2024-03-28 2024-06-07 西北工业大学 Multi-target identity judging method of distributed double infrared sensors based on space-time basis
CN117974766A (en) * 2024-03-28 2024-05-03 西北工业大学 Multi-target identity judging method of distributed double infrared sensors based on space-time basis
CN117968680A (en) * 2024-03-29 2024-05-03 西安现代控制技术研究所 Inertial-radar integrated navigation limited frame measurement variable weight updating method
CN117994359A (en) * 2024-04-07 2024-05-07 广东工业大学 Linear array camera calibration method and related device based on auxiliary camera
CN117994359B (en) * 2024-04-07 2024-06-11 广东工业大学 Linear array camera calibration method and related device based on auxiliary camera
CN118288282A (en) * 2024-04-09 2024-07-05 湖南师范大学 Three-dimensional point cloud positioning measurement method and system for special robot installed on upright post
CN118154700A (en) * 2024-05-10 2024-06-07 常州星宇车灯股份有限公司 On-line monitoring method for accuracy of external parameters of vehicle sensor
CN118464069A (en) * 2024-07-12 2024-08-09 中南大学 Static external parameter calibration method
CN118544551A (en) * 2024-07-30 2024-08-27 江苏鸣动智能设备有限公司 Demolding control method and system for controlling mechanical arm through machine vision

Also Published As

Publication number Publication date
JP7072759B2 (en) 2022-05-23
CN111735479B (en) 2021-03-23
CN111735479A (en) 2020-10-02

Similar Documents

Publication Publication Date Title
JP7072759B2 (en) Composite calibration device and method using multiple sensors
CN110555889B (en) CALTag and point cloud information-based depth camera hand-eye calibration method
CN108932736B (en) Two-dimensional laser radar point cloud data processing method and dynamic robot pose calibration method
CN109035200B (en) Bolt positioning and pose detection method based on single-eye and double-eye vision cooperation
CN112396664B (en) Monocular camera and three-dimensional laser radar combined calibration and online optimization method
CN110728715B (en) Intelligent inspection robot camera angle self-adaptive adjustment method
CN110146038B (en) Distributed monocular camera laser measuring device and method for assembly corner of cylindrical part
CN111775146A (en) Visual alignment method under industrial mechanical arm multi-station operation
CN110456330B (en) Method and system for automatically calibrating external parameter without target between camera and laser radar
CN103727927B (en) The high-speed moving object pose vision measuring method of structure based light
CN113627473A (en) Water surface unmanned ship environment information fusion sensing method based on multi-mode sensor
Mi et al. A vision-based displacement measurement system for foundation pit
CN103065323A (en) Subsection space aligning method based on homography transformational matrix
CN109597086A (en) A kind of motion measuring method of the outer hanging object of contactless helicopter
CN114608554B (en) Handheld SLAM equipment and robot instant positioning and mapping method
CN115371665B (en) Mobile robot positioning method based on depth camera and inertial fusion
CN110720113A (en) Parameter processing method and device, camera equipment and aircraft
CN118135526B (en) Visual target recognition and positioning method for four-rotor unmanned aerial vehicle based on binocular camera
CN114067210A (en) Mobile robot intelligent grabbing method based on monocular vision guidance
CN117621103A (en) Nursing robot ranging and obstacle avoidance method based on pose self-adaptive inverse perspective transformation
CN114777768A (en) High-precision positioning method and system for satellite rejection environment and electronic equipment
CN114554030B (en) Device detection system and device detection method
CN112837314A (en) Fruit tree canopy parameter detection system and method based on 2D-LiDAR and Kinect
CN114998444B (en) Robot high-precision pose measurement system based on two-channel network
CN110136168B (en) Multi-rotor speed measuring method based on feature point matching and optical flow method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220411

R150 Certificate of patent or registration of utility model

Ref document number: 7072759

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150