JP2018136739A - Calibration device - Google Patents
Calibration device Download PDFInfo
- Publication number
- JP2018136739A JP2018136739A JP2017030791A JP2017030791A JP2018136739A JP 2018136739 A JP2018136739 A JP 2018136739A JP 2017030791 A JP2017030791 A JP 2017030791A JP 2017030791 A JP2017030791 A JP 2017030791A JP 2018136739 A JP2018136739 A JP 2018136739A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- feature point
- calibration
- camera
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、キャリブレーション装置に関する。 The present invention relates to a calibration apparatus.
近年、車両に設置されたカメラで撮像された画像を利用して運転手を補助するシステムが多数提案されている。その一例として、車両周囲確認用の俯瞰画像表示システム、車両後進時の予想進路線表示システム、自動駐車システム等がある。 In recent years, many systems have been proposed for assisting a driver using images captured by a camera installed in a vehicle. As an example, there are a bird's-eye view image display system for confirming the surroundings of the vehicle, an expected route line display system when the vehicle moves backward, an automatic parking system, and the like.
上記カメラは設計値に準じた位置・角度で車両に取り付けられるが、その際、位置・角度に誤差が生じ得る。このような誤差を抑制するため、キャリブレーションと呼ばれる校正処理が、カメラの位置・角度等のカメラパラメータに対して行われる。 The camera is attached to the vehicle at a position / angle according to a design value, but at that time, an error may occur in the position / angle. In order to suppress such an error, a calibration process called calibration is performed on camera parameters such as the position and angle of the camera.
車両の出荷時におけるキャリブレーションは、人が誰も乗っていない空車状態で実施されるのが一般的である。従って、キャリブレーション後の車両の状態が、実際にキャリブレーションを行った空車状態にあるときは、カメラの画像にズレは生じない。 In general, calibration at the time of shipment of a vehicle is performed in an empty state where no one is on board. Therefore, when the state of the vehicle after calibration is in an empty state where calibration has actually been performed, no deviation occurs in the image of the camera.
しかし、実際にユーザーが車両を使用する際には、乗車する人数や座る場所、荷物の積載状態等が種々に変化する。そして、車両の積載状態が変化すると、車両の姿勢も変化し、それに伴って、地面に対するカメラの据え付け状態も変化する。また、経年劣化によってカメラ姿勢が変化することがある。すなわち、カメラパラメータが変化して誤差が生じる。そのカメラパラメータの誤差によって、カメラで撮像された画像にズレが生じるといった問題があった。 However, when the user actually uses the vehicle, the number of passengers, the seating location, the loading state of the luggage, and the like change variously. When the loading state of the vehicle changes, the posture of the vehicle also changes, and accordingly, the camera installation state with respect to the ground also changes. Also, the camera posture may change due to aging. That is, the camera parameter changes and an error occurs. There has been a problem that the image captured by the camera is shifted due to the error of the camera parameter.
このような問題に対し、下記の特許文献1〜3には、車両の走行中にカメラパラメータを校正する方法が開示されている。その方法とは、車両に設置したカメラで撮像された画像から特徴点の抽出及び追跡を行うものである。その方法の基本原理は、フレーム間で特徴点が二次元的に動いたことによる直線状の特徴点系列(校正指標)を用いて、カメラパラメータを補正するものである。 In order to solve such a problem, Patent Documents 1 to 3 below disclose a method of calibrating camera parameters while a vehicle is traveling. In this method, feature points are extracted and tracked from an image captured by a camera installed in a vehicle. The basic principle of this method is to correct camera parameters using a linear feature point series (calibration index) resulting from two-dimensional movement of feature points between frames.
ところで、カメラの光軸に垂直な撮像面内の一軸回りの回転角のパラメータを校正する場合を考える。上記の特許文献1〜3に開示された方法で一軸回りの回転角のパラメータを校正する場合には、車両走行中でのカメラの撮像で得られたフレームのうち、時系列に相前後する一組のフレームを用いて、二本の特徴点系列の長さを求める必要がある。すなわち、一組のフレーム間で、2つの特徴点を同時に抽出し、且つ、その抽出した2つの特徴点を同時に追跡する必要がある。 By the way, consider a case where the rotation angle parameter about one axis in the imaging plane perpendicular to the optical axis of the camera is calibrated. When the rotation angle parameter about one axis is calibrated by the method disclosed in Patent Documents 1 to 3 above, one of the frames obtained by the imaging of the camera while the vehicle is traveling is one that is in chronological order. It is necessary to obtain the length of two feature point series using a set of frames. In other words, it is necessary to simultaneously extract two feature points between a set of frames and simultaneously track the two extracted feature points.
このため、特徴点の抽出及び追跡に要する時間が長くなる結果、一軸回りの回転角のパラメータの校正処理に要する時間が長くなるという問題があった。また、2つの特徴点を同時に抽出し且つ追跡するまでの成功率が極めて低くなる結果、一軸回りの回転角のパラメータの校正処理の精度が低下するという問題があった。 For this reason, there is a problem that the time required for the calibration processing of the parameter of the rotation angle about one axis becomes longer as a result of the longer time required to extract and track the feature points. In addition, the success rate until two feature points are extracted and tracked at the same time becomes extremely low, resulting in a problem that the accuracy of calibration processing of a parameter of a rotation angle around one axis is lowered.
本発明は、上記課題に鑑みてなされたもので、撮像面内の一軸回りの回転角のパラメータの校正処理を短時間且つ高精度に実現することができるキャリブレーション装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a calibration device that can realize a calibration process of a rotation angle parameter about one axis in an imaging surface in a short time and with high accuracy. To do.
本発明に係るキャリブレーション装置は、撮像面内の一軸回りの回転角のパラメータの校正指標となる特徴点系列の長さと、車両の走行距離との比を用いて、撮像面内の一軸回りの回転角のパラメータを校正するものである。 The calibration device according to the present invention uses a ratio of the length of a feature point series serving as a calibration index of a rotation angle parameter about one axis in the imaging surface and the travel distance of the vehicle, This is to calibrate the rotation angle parameter.
すなわち、本発明に係るキャリブレーション装置は、車両に搭載されて前記車両の周辺を撮像するカメラの校正を実施するキャリブレーション装置であって、前記撮像により時系列的に得られる複数のフレームから、前記撮像された画像の特徴点を抽出する特徴点抽出部と、前記車両の舵角を取得する舵角取得部と、前記舵角取得部で取得された舵角に基づき、前記車両が直進走行していると判断されるときに、時系列に相前後する一組のフレーム間で前記特徴点が変位した直線である特徴点系列の長さを算出する特徴点系列算出部と、前記一組のフレーム間で前記車両が走行した走行距離と、前記特徴点系列算出部で算出された特徴点系列の長さとの比が、異なる組のフレーム間で一致するように、撮像面内の一軸回りの回転角のパラメータを校正する回転角校正部と、を有することを特徴とする。 That is, the calibration device according to the present invention is a calibration device that performs calibration of a camera that is mounted on a vehicle and images the periphery of the vehicle, and from a plurality of frames obtained in time series by the imaging, The vehicle travels straight on the basis of the feature point extraction unit that extracts the feature point of the captured image, the steering angle acquisition unit that acquires the steering angle of the vehicle, and the steering angle acquired by the steering angle acquisition unit. A feature point sequence calculating unit that calculates a length of a feature point sequence that is a straight line in which the feature points are displaced between a set of frames that are in series with each other when determined to be, and the set Around one axis in the imaging plane so that the ratio between the distance traveled by the vehicle between the frames and the length of the feature point series calculated by the feature point series calculation unit matches between different sets of frames. Rotation angle parameter It characterized by having a a rotation angle correction unit for calibrating.
このように構成された本発明に係るキャリブレーション装置によれば、撮像面内の一軸回りの回転角の校正処理を短時間且つ高精度に実現することができる。 According to the calibration device according to the present invention configured as described above, the calibration processing of the rotation angle around one axis in the imaging surface can be realized in a short time and with high accuracy.
以下、本発明に係るキャリブレーション装置の具体的な実施形態について、図面を参照して説明する。なお、以下では、4台のカメラ111〜114を使用する場合について説明する。 Hereinafter, specific embodiments of a calibration device according to the present invention will be described with reference to the drawings. In the following, a case where four cameras 111 to 114 are used will be described.
<キャリブレーションシステムの概略構成>
図1は、本発明の一実施形態に係るキャリブレーション装置を搭載したキャリブレーションシステムの概略構成を示す。キャリブレーションシステム100は、前輪が操舵輪である車両1に設置されている。
<Schematic configuration of calibration system>
FIG. 1 shows a schematic configuration of a calibration system equipped with a calibration apparatus according to an embodiment of the present invention. The calibration system 100 is installed in a vehicle 1 whose front wheels are steering wheels.
キャリブレーションシステム100は、主に、4台のカメラ111〜114と、演算装置101と、RAM(Random Access Memory)102と、ROM(Read Only Memory)103と、表示装置104と、車速センサ105と、舵角センサ106と、ヨーレートセンサ107と、入力装置108と、通信装置109とを備えている。 The calibration system 100 mainly includes four cameras 111 to 114, a calculation device 101, a RAM (Random Access Memory) 102, a ROM (Read Only Memory) 103, a display device 104, a vehicle speed sensor 105, and the like. A steering angle sensor 106, a yaw rate sensor 107, an input device 108, and a communication device 109.
各カメラ111〜114は、車両1に搭載され、例えば当該車両1の前後左右に設置される。例えば、前後に設置されるカメラは、ナンバープレート付近の車体に取り付けられ、左右に設置されるカメラは、サイドミラーの下部等に取り付けられる。ここでは、カメラ111を車両1の前方、カメラ112を車両1の後方、カメラ113を車両1の左方、カメラ114を車両1の右方に取り付けるものとする。 Each camera 111-114 is mounted in the vehicle 1, for example, is installed in the front, back, left, and right of the vehicle 1. For example, the front and rear cameras are attached to the vehicle body near the license plate, and the left and right cameras are attached to the lower part of the side mirror. Here, the camera 111 is attached to the front of the vehicle 1, the camera 112 is attached to the rear of the vehicle 1, the camera 113 is attached to the left of the vehicle 1, and the camera 114 is attached to the right of the vehicle 1.
前方カメラ111及び後方カメラ112は、光軸方向が車両1の前後方向と一致するように取り付けられる。左方カメラ113及び右方カメラ114は、光軸方向が車両1の上下方向と一致するように取り付けられる。各カメラ111〜114は、事前に取り決めた既知の設計情報に従って取り付けられるが、実際には取り付け誤差が発生しており、この誤差は未知である。また、各カメラ111〜114には、車両1の全周囲の画像を取得できるように、広角の魚眼レンズを備えたカメラが採用される。魚眼カメラは広角の画像を取得するために、既知の歪み関数に基づいて画像を歪ませている。各カメラ111〜114で撮像された4つの画像は、演算装置101に出力される。 The front camera 111 and the rear camera 112 are attached such that the optical axis direction coincides with the front-rear direction of the vehicle 1. The left camera 113 and the right camera 114 are attached so that the optical axis direction coincides with the vertical direction of the vehicle 1. Each of the cameras 111 to 114 is attached according to known design information decided in advance, but an attachment error has actually occurred, and this error is unknown. Moreover, the camera provided with the wide-angle fish-eye lens is employ | adopted for each camera 111-114 so that the image of the perimeter of the vehicle 1 can be acquired. In order to acquire a wide-angle image, the fish-eye camera distorts the image based on a known distortion function. Four images captured by the cameras 111 to 114 are output to the arithmetic device 101.
車速センサ105と舵角センサ106とヨーレートセンサ107は、それぞれ、車速、舵角、ヨーレートを検出するセンサであり、各センサで検出されたセンサ情報は演算装置101に出力され、演算装置101における演算処理で利用される。舵角センサ106では、前輪のタイヤ角が舵角として検出される。 The vehicle speed sensor 105, the rudder angle sensor 106, and the yaw rate sensor 107 are sensors for detecting the vehicle speed, the rudder angle, and the yaw rate, respectively. Sensor information detected by each sensor is output to the arithmetic unit 101, and the arithmetic unit 101 calculates Used in processing. The steering angle sensor 106 detects the tire angle of the front wheels as the steering angle.
入力装置108は、例えばスイッチやボタン等といった、ユーザーの操作を受け付ける装置である。入力装置108は、キャリブレーション機能のオン/オフ、キャリブレーション結果の初期化、キャリブレーション方法の変更等に利用される。ユーザーの操作を介して当該入力装置108に入力された各種情報は、演算装置101に出力される。 The input device 108 is a device that accepts user operations such as switches and buttons. The input device 108 is used for turning on / off a calibration function, initializing a calibration result, changing a calibration method, and the like. Various types of information input to the input device 108 through user operations are output to the arithmetic device 101.
通信装置109は、不図示の外部機器との通信に使用される装置である。演算装置101は、当該通信装置109を介して外部機器から各種情報を受信すると共に、演算装置101で演算された各種情報を外部機器へ出力する。 The communication device 109 is a device used for communication with an external device (not shown). The arithmetic device 101 receives various information from an external device via the communication device 109 and outputs various information calculated by the arithmetic device 101 to the external device.
RAM102には、演算装置101における演算処理過程で必要となる数値データ、演算処理途中の処理結果に対するプログラムの変数等が書き込まれる。その書き込まれたデータは、演算装置101の演算処理過程で適宜必要に応じて読み出されて演算処理に使用される。また、RAM102には、各カメラ111〜114によって撮像された画像データ等も格納される。 In the RAM 102, numerical data required in the arithmetic processing process in the arithmetic device 101, program variables for processing results during the arithmetic processing, and the like are written. The written data is read out as necessary in the arithmetic processing process of the arithmetic unit 101 and used for arithmetic processing. The RAM 102 also stores image data captured by the cameras 111 to 114.
ROM103には、例えば、キャリブレーションを実行するプログラムや、プログラムで必要となる情報のうちで書き換えをせずに利用される情報が事前に格納される。例えば、各カメラ111〜114の設置位置や角度(ピッチ角、ヨー角、ロール角、カメラ高さ)の設計値(外部パラメータ)、各カメラ111〜114の焦点距離、画素サイズ、光軸中心、歪み関数等(内部パラメータ)のカメラパラメータが格納される。 In the ROM 103, for example, a program for executing calibration and information used without rewriting among information necessary for the program are stored in advance. For example, design values (external parameters) of installation positions and angles (pitch angle, yaw angle, roll angle, camera height) of the cameras 111 to 114, focal lengths, pixel sizes, optical axis centers of the cameras 111 to 114, Stores camera parameters such as distortion functions (internal parameters).
演算装置101は、各カメラ111〜114、車速センサ105、舵角センサ106、ヨーレートセンサ107、入力装置108、通信装置109等から送信される種々の情報を受け取る。その受け取った情報を用いて、演算装置101は、プログラム等に基づき計算処理を実施する。 The arithmetic device 101 receives various information transmitted from the cameras 111 to 114, the vehicle speed sensor 105, the rudder angle sensor 106, the yaw rate sensor 107, the input device 108, the communication device 109, and the like. Using the received information, the arithmetic unit 101 performs a calculation process based on a program or the like.
演算装置101は、例えば、各カメラ111〜114から入力された画像を視点変換し、上方から地面を見下ろしたような俯瞰画像を生成する。詳細には、魚眼カメラからなる各カメラ111〜114で撮像された画像について、ROM103等に事前に格納された既知の歪み関数を用いて画像の歪みを除去した画像を生成する。 For example, the arithmetic device 101 converts the viewpoints of the images input from the cameras 111 to 114 and generates an overhead image as if looking down at the ground from above. More specifically, an image obtained by removing image distortion is generated using a known distortion function stored in advance in the ROM 103 or the like for images captured by the respective cameras 111 to 114 including fisheye cameras.
その歪みを除去した各画像を、ROM103等に事前に格納された既知のカメラ取り付けに関する設計値等に基づいて、俯瞰視点から見た画像に視点変換する(画像生成装置115)。このような視点変換処理は、周知のカメラの幾何変換式を使って、俯瞰画像の特定の画素とそれに対応する各カメラ111〜114の特定の画素を計算し、その画素の輝度値を俯瞰画像の画素に割り当てることによって実現できる。 Each image from which the distortion has been removed is converted into an image viewed from an overhead viewpoint based on a known design value relating to camera attachment stored in advance in the ROM 103 or the like (image generation device 115). In such viewpoint conversion processing, a specific pixel of the overhead image and specific pixels of each camera 111 to 114 corresponding thereto are calculated using a well-known camera geometric conversion formula, and the luminance value of the pixel is calculated as the overhead image. This can be realized by assigning to the pixels.
対応する画素が小数点を含み、該当する画素がない場合は、周知の輝度の補間処理によって周辺画素の中間輝度を割り当てる処理が行われる。また、演算装置101は、車速センサ105、舵角センサ106、ヨーレートセンサ107、通信装置109の出力結果を用いて演算処理を実行したり、入力装置108の入力結果に従って動作プログラムの切り替え処理を実行したりする。 When the corresponding pixel includes a decimal point and there is no corresponding pixel, a process of assigning an intermediate luminance of peripheral pixels is performed by a known luminance interpolation process. The arithmetic device 101 executes arithmetic processing using the output results of the vehicle speed sensor 105, the steering angle sensor 106, the yaw rate sensor 107, and the communication device 109, and executes operation program switching processing according to the input results of the input device 108. To do.
また、演算装置101には、視点変換された俯瞰画像が車両1を真上から見下ろした画像となるように、各カメラ111〜114のキャリブレーションを実施するキャリブレーション装置116が搭載される。キャリブレーション装置116の構成については後述する。 Further, the arithmetic device 101 is equipped with a calibration device 116 that calibrates each of the cameras 111 to 114 so that the bird's-eye view image that has undergone viewpoint conversion becomes an image that looks down on the vehicle 1 from directly above. The configuration of the calibration device 116 will be described later.
表示装置104は、演算装置101の処理結果を受け取り、ディスプレイ等を用いてその処理結果をユーザーに提示する。例えば、ユーザーに対して各カメラ111〜114の4つの画像を視点変換した俯瞰画像を表示する。また、表示装置104は、車両1の後方を撮像するカメラ112の画像だけを表示する等、演算装置101の出力に従って表示内容を切り替えることもできる。 The display device 104 receives the processing result of the arithmetic device 101 and presents the processing result to the user using a display or the like. For example, a bird's-eye view image obtained by converting viewpoints of four images of the cameras 111 to 114 is displayed to the user. The display device 104 can also switch display contents according to the output of the arithmetic device 101, such as displaying only the image of the camera 112 that captures the rear of the vehicle 1.
<キャリブレーション装置の構成>
図2は、本発明の一実施形態に係るキャリブレーション装置の概略構成を示す。キャリブレーション装置116は、車両1に搭載されて車両の周辺を撮像する各カメラ111〜114の校正を実施する。キャリブレーション装置116は、特徴点抽出部117と、速度取得部118と、舵角取得部119と、特徴点系列算出部120と、特徴点系列累積部121と、カメラパラメータ校正部122(回転角校正部)と、を有する。
<Configuration of calibration device>
FIG. 2 shows a schematic configuration of a calibration apparatus according to an embodiment of the present invention. The calibration device 116 is mounted on the vehicle 1 and calibrates each of the cameras 111 to 114 that images the periphery of the vehicle. The calibration device 116 includes a feature point extraction unit 117, a speed acquisition unit 118, a steering angle acquisition unit 119, a feature point series calculation unit 120, a feature point series accumulation unit 121, and a camera parameter calibration unit 122 (rotation angle). Calibration unit).
特徴点抽出部117は、各カメラ111〜114の撮像により時系列的に得られる複数のフレームから、その撮像された画像の特徴点を抽出する。速度取得部118は、車速センサ105で検出された走行速度の検出結果を取得する。舵角取得部119は、舵角センサ106で検出された舵角の検出結果を取得する。なお、特徴点系列算出部120、特徴点系列累積部121、カメラパラメータ校正部122の詳細は後述する。 The feature point extraction unit 117 extracts feature points of the captured image from a plurality of frames obtained in time series by the imaging of the cameras 111 to 114. The speed acquisition unit 118 acquires the detection result of the traveling speed detected by the vehicle speed sensor 105. The steering angle acquisition unit 119 acquires the detection result of the steering angle detected by the steering angle sensor 106. Details of the feature point series calculation unit 120, the feature point series accumulation unit 121, and the camera parameter calibration unit 122 will be described later.
<カメラ座標系>
図3は、カメラ座標系の一例を示す説明図である。以下では、図3を用いて、カメラ座標系(X,Y,Z)の一例について説明する。このカメラ座標系(X,Y,Z)では、カメラの光軸方向をZ軸方向と定義する。図中に網掛けで示した面ISは、カメラの光軸(Z軸)に対して垂直となる撮像面ISを示す。このカメラ座標系(X,Y,Z)では、その撮像面ISと平行にX軸及びY軸をとるものとする。
<Camera coordinate system>
FIG. 3 is an explanatory diagram illustrating an example of a camera coordinate system. Hereinafter, an example of the camera coordinate system (X, Y, Z) will be described with reference to FIG. In this camera coordinate system (X, Y, Z), the optical axis direction of the camera is defined as the Z-axis direction. A surface IS indicated by shading in the drawing indicates an imaging surface IS that is perpendicular to the optical axis (Z-axis) of the camera. In this camera coordinate system (X, Y, Z), the X axis and the Y axis are taken in parallel with the imaging surface IS.
図中のピッチングとは、X軸回りの回転のことをいい、ヨーイングとは、Y軸回りの回転のことをいい、ローリングとは、Z軸回りの回転のことをいう。X,Y,Z軸の回りの回転角のパラメータを、それぞれ、ピッチ角、ヨー角、ロール角という。 Pitching in the figure refers to rotation around the X axis, yawing refers to rotation around the Y axis, and rolling refers to rotation around the Z axis. Parameters of rotation angles around the X, Y, and Z axes are referred to as a pitch angle, a yaw angle, and a roll angle, respectively.
前方カメラ111及び後方カメラ112のように、その光軸方向が車両1の前後方向と一致する場合、その前後方向をZ軸方向と定義し、その前後方向(Z軸方向)と垂直な車両1の上下方向に延びる軸をY軸と定義する。 Like the front camera 111 and the rear camera 112, when the optical axis direction coincides with the front-rear direction of the vehicle 1, the front-rear direction is defined as the Z-axis direction, and the vehicle 1 is perpendicular to the front-rear direction (Z-axis direction). The axis extending in the vertical direction is defined as the Y axis.
一方、左方カメラ113及び右方カメラ114のように、その光軸方向が車両1の上下方向と一致する場合、その上下方向をZ軸方向と定義し、その上下方向(Z軸方向)と垂直な車両1の左右方向に延びる軸をX軸と定義する。 On the other hand, when the optical axis direction coincides with the vertical direction of the vehicle 1 like the left camera 113 and the right camera 114, the vertical direction is defined as the Z-axis direction, and the vertical direction (Z-axis direction) An axis extending in the left-right direction of the vertical vehicle 1 is defined as an X axis.
<キャリブレーション装置で行われる一連の校正処理の流れ>
以下、図4に示すフローチャート及び図5〜図7を用いて、キャリブレーション装置で行われる一連の校正処理の流れを説明する。以下では、前方カメラ111のカメラパラメータ(ピッチ角、ヨー角、ロール角、カメラ高さ)の校正を前提として記述する。
<Flow of a series of calibration processes performed by the calibration device>
Hereinafter, the flow of a series of calibration processes performed by the calibration apparatus will be described with reference to the flowchart shown in FIG. 4 and FIGS. The following description is based on the premise that the camera parameters (pitch angle, yaw angle, roll angle, camera height) of the front camera 111 are calibrated.
まず、ステップS101では、カメラパラメータの校正指標となる特徴点系列の長さを取得するために、前方カメラ111において、直進走行中の車両1の周辺が撮像される。その撮像により得られたフレームFは、特徴点抽出部117に出力される。特徴点系列とは、車両1が直進走行しているときに、時系列に相前後する一組のフレーム間で特徴点が変位して形成された直線のことをいう。車両1が走行する道路は、特徴点の多い白線や道路標示が存在することが望ましい。 First, in step S101, the front camera 111 captures an image of the periphery of the vehicle 1 traveling straight ahead in order to obtain the length of the feature point series serving as a camera parameter calibration index. The frame F obtained by the imaging is output to the feature point extraction unit 117. The feature point series refers to a straight line formed by displacing feature points between a pair of frames that follow each other in time series when the vehicle 1 is traveling straight ahead. The road on which the vehicle 1 travels preferably has white lines and road markings with many characteristic points.
ステップS102では、車速センサ105及び舵角センサ106において、それぞれ、車速及び舵角が検出される。その検出により得られた車速情報及び舵角情報は、それぞれ、通信プロトコルとしてのCAN(Controller Area Network)等の車載ネットワークを介して、速度取得部118及び舵角取得部119に出力される。 In step S102, the vehicle speed sensor 105 and the steering angle sensor 106 detect the vehicle speed and the steering angle, respectively. The vehicle speed information and the steering angle information obtained by the detection are output to the speed acquisition unit 118 and the steering angle acquisition unit 119 via an in-vehicle network such as CAN (Controller Area Network) as a communication protocol.
ステップS103では、特徴点系列算出部120において、車両1の走行状態が特徴点系列の長さを得るに適切な走行状態か否かの判断が行われる。車両1の走行速度が安定していない場合、特徴点の追跡が困難なケースが発生し得る。例えば、車両1が急加速や急減速を行った場合、車両1の姿勢が大きく変動する。その変動の影響を受け、前方カメラ111の撮像により得られる画像は、特徴点系列の長さを得るに不適切な画像となってしまう。そのため、カメラパラメータ校正部122は、舵角取得部119で取得された舵角情報に基づいて、車両1が直進走行しているか否かを判断する。 In step S103, the feature point series calculation unit 120 determines whether or not the running state of the vehicle 1 is an appropriate running state for obtaining the length of the feature point series. When the traveling speed of the vehicle 1 is not stable, it may be difficult to track feature points. For example, when the vehicle 1 suddenly accelerates or decelerates, the attitude of the vehicle 1 varies greatly. Under the influence of the fluctuation, an image obtained by imaging with the front camera 111 becomes an image inappropriate for obtaining the length of the feature point series. Therefore, the camera parameter calibration unit 122 determines whether or not the vehicle 1 is traveling straight on the basis of the steering angle information acquired by the steering angle acquisition unit 119.
車両1が直進走行していると判断されたときは(ステップS103におけるYES)、車両1の走行状態が特徴点系列の長さを得るに適切な走行状態にあるので、ステップS104に進む。一方、車両1が直進走行していないと判断されたときは(ステップS103におけるNO)、車両1の走行状態が特徴点系列の長さを得るに不適切な走行状態にあるので、処理はステップS101に戻る。 When it is determined that the vehicle 1 is traveling straight (YES in step S103), the traveling state of the vehicle 1 is in an appropriate traveling state for obtaining the length of the feature point series, and the process proceeds to step S104. On the other hand, when it is determined that the vehicle 1 is not traveling straight (NO in step S103), since the traveling state of the vehicle 1 is in an unsuitable traveling state for obtaining the length of the feature point series, the process is step. Return to S101.
ステップS104では、特徴点系列算出部120において、第1番目に取得されるフレームF1のうち、エッジ強度の高い点が特徴点として抽出される。なお、このような特徴点の抽出技術については、例えばHarrisオペレータを用いた手法で提案されている等、既に周知であるため、詳細な説明は省略する。 In step S104, the feature point series calculation unit 120 extracts a point with a high edge strength from the first acquired frame F1 as a feature point. Such a feature point extraction technique has already been well-known, for example, proposed by a technique using a Harris operator, and will not be described in detail.
ステップS105では、特徴点系列算出部120において、特徴点系列の長さが算出される。特徴点系列の長さの算出は、一組のフレームF1,F2間で撮像面IS上を特徴点がどの地点からどの地点に移動したのかを追跡することで実現される。このような特徴点の追跡技術については、LK(Lucas-Kanade)法で提案されている等、既に周知である。そのため、詳細な説明は省略するが、本実施形態では可能な限り特徴点の追跡が継続される。 In step S105, the feature point series calculation unit 120 calculates the length of the feature point series. The length of the feature point series is calculated by tracking from which point the feature point has moved to which point on the imaging surface IS between the pair of frames F1 and F2. Such a feature point tracking technique is already well known, such as proposed by the LK (Lucas-Kanade) method. Therefore, although detailed description is omitted, in this embodiment, tracking of feature points is continued as much as possible.
例えば、第1番目のフレームF1から抽出した特徴点が、第2番目のフレームF2のどの地点に移動したかを追跡する処理が行われた後も、そのフレームF2に後続するフレームFX(X=3〜N)において同地点を示す座標値が算出される。勿論、特徴点の追跡の成功率を高めるうえで、特徴点系列の本数はより多いことが望ましい。 For example, even after the process of tracking where the feature point extracted from the first frame F1 has moved to the point in the second frame F2, the frame FX (X = 3 to N), a coordinate value indicating the same point is calculated. Of course, in order to increase the success rate of feature point tracking, it is desirable that the number of feature point series is larger.
そのため、ステップS106では、特徴点系列累積部121において、特徴点系列が累積される。前方カメラ111の校正は、特徴点系列を2本取得出来れば実現可能である。以下、図5及び図6に基づいて、2本の特徴点系列を取得する例を説明する。 Therefore, in step S106, the feature point series accumulation unit 121 accumulates the feature point series. The calibration of the front camera 111 can be realized if two feature point series can be acquired. Hereinafter, an example of acquiring two feature point series will be described with reference to FIGS. 5 and 6.
図5(A),(B)に示すように、時系列に相前後する、第300番目のフレームF300と、第301番目のフレームF301との間で特徴点P1(道路に描かれている白線WL1のコーナー)が変位した直線である特徴点系列の長さD1(世界座標系におけるユークリッド距離D1)が1本目の特徴点系列の長さとして取得される。続いて、図6(A),(B)に示すように、時系列に相前後する、第600番目のフレームF600と、第601番目のフレームF601との間で特徴点P2(道路に描かれている白線WL1のコーナー)が変位した直線である特徴点系列の長さD2(世界座標系におけるユークリッド距離D2)が2本目の特徴点系列の長さとして取得される。 As shown in FIGS. 5A and 5B, a feature point P1 (white line drawn on the road) between the 300th frame F300 and the 301st frame F301, which are in chronological order. The feature point series length D1 (Euclidean distance D1 in the world coordinate system), which is a straight line displaced at the corner of WL1, is acquired as the length of the first feature point series. Subsequently, as shown in FIGS. 6A and 6B, a feature point P2 (drawn on the road) between the 600th frame F600 and the 601st frame F601, which are in chronological order. The feature point series length D2 (Euclidean distance D2 in the world coordinate system) that is a straight line in which the corner of the white line WL1 is displaced is acquired as the length of the second feature point series.
ただし、特徴点の抽出結果、特徴点の追跡処理、車速センサ又は舵角センサから取得した情報には誤差が発生する可能性が多分にある。そのため、特徴点、走行速度、舵角を示す情報を多量に累積した方が、誤差を軽減するうえで望ましい。 However, there is a possibility that an error may occur in the information acquired from the feature point extraction result, the feature point tracking process, the vehicle speed sensor or the steering angle sensor. For this reason, it is desirable to accumulate a large amount of information indicating feature points, travel speeds, and steering angles in order to reduce errors.
例えば、舗装が不十分で車両1に対して水平ではない道路を車両1が走行中に、特徴点の抽出処理が行われた場合、ピッチ角、ヨー角、ロール角の校正指標としては不十分である。そのため、最終的に算出されるカメラパラメータ(ピッチ角、ヨー角、ロール角、カメラ高さ)に多量の誤差が生じてしまう虞がある。仮に、校正指標として不十分な特徴点系列の長さが算出されたとしても、校正指標として正しい特徴点系列が多量に累積されていれば、校正指標として不十分な特徴点系列に起因して、カメラパラメータ(ピッチ角、ヨー角、ロール角、カメラ高さ)に生じる誤差の緩和が可能となる。 For example, when the feature point extraction process is performed while the vehicle 1 is traveling on a road that is not sufficiently paved and is not horizontal with respect to the vehicle 1, it is not sufficient as a calibration index for pitch angle, yaw angle, and roll angle. It is. Therefore, there is a possibility that a large amount of error may occur in the finally calculated camera parameters (pitch angle, yaw angle, roll angle, camera height). Even if the length of a feature point series that is insufficient as a calibration index is calculated, if a large amount of correct feature point series is accumulated as a calibration index, it is caused by a feature point series that is insufficient as a calibration index. It is possible to mitigate errors that occur in camera parameters (pitch angle, yaw angle, roll angle, camera height).
ステップS107では、カメラパラメータ校正部122において、特徴点系列の本数が予め定められた必要本数に到達したか否かの判定が行われる。特徴点系列の本数が必要本数に到達したと判定されたときは(ステップS107におけるYES)、必要な本数分の特徴点系列の累積が完了したので、ステップS108に進む。一方、特徴点系列の本数が必要本数に未到達と判定されたときは(ステップS107におけるNO)、必要な本数分の特徴点系列の累積が完了していないので、処理はステップS101に戻る。 In step S107, the camera parameter calibration unit 122 determines whether or not the number of feature point series has reached a predetermined number. If it is determined that the number of feature point series has reached the required number (YES in step S107), the accumulation of feature point series for the required number is completed, and the process proceeds to step S108. On the other hand, when it is determined that the number of feature point series has not reached the required number (NO in step S107), accumulation of the necessary number of feature point series has not been completed, and the process returns to step S101.
ステップS108では、カメラパラメータ校正部122において、ROM103に格納されているカメラ取り付け位置・角度の設計値を用いて、ピッチ角(図3に示すX軸回りの回転角のパラメータ)の校正が行われる。ピッチ角の校正方法は種々の方法が紹介されており、そのいずれの方法を用いてもよいが、本実施形態ではステップS107で累積した特徴点系列を用いることとする。 In step S108, the camera parameter calibration unit 122 calibrates the pitch angle (the rotation angle parameter about the X axis shown in FIG. 3) using the design values of the camera mounting position and angle stored in the ROM 103. . Various methods for correcting the pitch angle have been introduced, and any of these methods may be used. In this embodiment, the feature point series accumulated in step S107 is used.
特徴点系列を用いたピッチ角の校正方法については、例えば国際公開第2012/139636号等で提案されている等、既に周知である。そのため、詳細な説明は省略するが、本実施形態では、俯瞰変換した2本以上の特徴点系列が平行になるように、ピッチ角の校正が行われる。 The pitch angle calibration method using the feature point series is already known, for example, as proposed in International Publication No. 2012/139636. Therefore, although detailed description is omitted, in the present embodiment, the pitch angle is calibrated so that two or more feature point series subjected to overhead conversion are parallel.
ステップS109では、カメラパラメータ校正部122において、ヨー角(図3に示すY軸回りの回転角のパラメータ)の校正が行われる。 In step S109, the camera parameter calibration unit 122 calibrates the yaw angle (the parameter of the rotation angle around the Y axis shown in FIG. 3).
まず、カメラパラメータ校正部122において、第N番目のフレームFNと、第N+1番目のフレームFN+1の同地点を指す特徴点系列が画像座標系から世界座標系に変換される。この変換方法は既に周知である。そのため、詳細な説明は省略するが、本実施形態では、例えば、フレームFNの世界座標における特徴座標を(PX1、PY1)とし、フレームFN+1の世界座標における特徴座標を(PX2、PY2)として、フレームFNとフレームFN+1との間の世界座標系におけるユークリッド距離Dが特徴点系列の長さとして以下の式(1)を用いて算出される。
・・・(1)
First, in the camera parameter calibration unit 122, a feature point series indicating the same point of the Nth frame FN and the (N + 1) th frame FN + 1 is converted from the image coordinate system to the world coordinate system. This conversion method is already well known. Therefore, although detailed description is omitted, in this embodiment, for example, the feature coordinates in the world coordinates of the frame FN are (P X1 , P Y1 ), and the feature coordinates in the world coordinates of the frame FN + 1 are (P X2 , P Y2). ), The Euclidean distance D in the world coordinate system between the frame FN and the frame FN + 1 is calculated as the length of the feature point series using the following equation (1).
... (1)
次に、カメラパラメータ校正部122において、車両1の走行速度を示す情報を基に、フレームFNとフレームFN+1との間で車両1が走行した走行距離d[km]が算出される。フレームFNとフレームFN+1との間の走行距離d[km]は、それぞれのフレーム間の走行速度をvk[km/]とし、1秒間のフレーム数をfとすると、以下の式(2)を用いて算出される。なお、走行速度vkは、速度取得部118からカメラパラメータ校正部122に出力される。
・・・(2)
Next, the camera parameter calibration unit 122 calculates a travel distance d [km] traveled by the vehicle 1 between the frame FN and the frame FN + 1 based on information indicating the travel speed of the vehicle 1. The travel distance d [km] between the frame FN and the frame FN + 1 uses the following formula (2), where the travel speed between the frames is vk [km /] and the number of frames per second is f. Is calculated. The traveling speed vk is output from the speed acquisition unit 118 to the camera parameter calibration unit 122.
... (2)
上記式(2)に示すように、フレームFNからフレームFN+1へ移動する際の車両1の走行速度は、それぞれのフレームで取得した走行速度の相加平均値が採用される。 As shown in the above equation (2), as the traveling speed of the vehicle 1 when moving from the frame FN to the frame FN + 1, an arithmetic average value of the traveling speeds acquired in the respective frames is employed.
例えば、図5に示すように、フレームF300(図5(A))からフレームF301(図5(B))へ移動する際の車両1の走行速度は、フレームF300及びフレームF301のそれぞれで取得した走行速度の相加平均値が採用される。 For example, as shown in FIG. 5, the traveling speed of the vehicle 1 when moving from the frame F300 (FIG. 5A) to the frame F301 (FIG. 5B) was acquired in each of the frames F300 and F301. An arithmetic average value of travel speed is adopted.
次に、カメラパラメータ校正部122において、以下の式(3)に示すように、ユークリッド距離Dが走行距離dで除算されることにより、累積した全ての特徴点系列を正規化した正規化長さRが算出される。式(3)に示すように、正規化長さRは、車両1の走行距離に依存する値となる。
・・・(3)
Next, the camera parameter calibration unit 122 normalizes the accumulated feature point series by dividing the Euclidean distance D by the travel distance d as shown in the following equation (3). R is calculated. As shown in Expression (3), the normalized length R is a value that depends on the travel distance of the vehicle 1.
... (3)
次に、カメラパラメータ校正部122において、正規化長さRが異なる組のフレーム間で一致するように、ヨー角の校正が行われる。具体的には、図5に示す一組のフレームF300,F301間での走行距離をd1[km]とし、図6に示すフレームF600,F601間での走行距離をd2[km]とした場合、正規化長さR1(=D1/d1)と正規化長さR2(=D2/d2)とが一致するように、ヨー角の校正が行われる。 Next, the camera parameter calibration unit 122 calibrates the yaw angle so that the normalized length R matches between different sets of frames. Specifically, when the travel distance between the pair of frames F300 and F301 shown in FIG. 5 is d1 [km] and the travel distance between the frames F600 and F601 shown in FIG. 6 is d2 [km], The yaw angle is calibrated so that the normalized length R1 (= D1 / d1) matches the normalized length R2 (= D2 / d2).
このようなヨー角の校正技術については、LM法(Levenberg-Marquardt Method)で、提案されている等、既に周知である。そのため、詳細な説明は省略するが、本実施形態では、まず、フレームFNとフレームFN+1との間で特徴点系列のX座標の相加平均XCENTERが算出される。次に、その相加平均XCENTERと、正規化長さRとが、図7に示すような二次元投票空間へ投票される。次に、その投票した主成分が分析され、図7に破線で示すような近似直線が算出される。次に、その算出した近似曲線の傾きが0°に最も近づくときのヨー角が、校正後のヨー角として推定される。 Such a yaw angle calibration technique is already well known, such as proposed by the LM method (Levenberg-Marquardt Method). Therefore, although detailed description is omitted, in the present embodiment, first, an arithmetic average X CENTER of the X coordinate of the feature point series is calculated between the frame FN and the frame FN + 1. Next, the arithmetic mean X CENTER and the normalized length R are voted into a two-dimensional voting space as shown in FIG. Next, the voted principal components are analyzed, and an approximate straight line as shown by a broken line in FIG. 7 is calculated. Next, the yaw angle at which the calculated slope of the approximate curve is closest to 0 ° is estimated as the corrected yaw angle.
ステップS110では、カメラパラメータ校正部122において、ROM103に格納されているカメラ取り付け位置・角度の設計値を用いて、ロール角(図3に示すZ軸回りの回転角のパラメータ)の校正が行われる。ロール角の校正方法は種々の方法が紹介されており、そのいずれの方法を用いてもよいが、本実施形態では、国際公開第2012/139636号で提案されている手法でロール角の校正が行われる。具体的には、ステップS107で累積した特徴点系列の角度が車両1の進行方向と平行になるときのロール角が前方カメラ111のロール角として校正される。 In step S110, the camera parameter calibration unit 122 calibrates the roll angle (the rotation angle parameter about the Z axis shown in FIG. 3) using the design values of the camera mounting position and angle stored in the ROM 103. . Various methods for calibrating the roll angle have been introduced, and any of these methods may be used. In this embodiment, the roll angle is calibrated by the method proposed in International Publication No. 2012/139636. Done. Specifically, the roll angle when the angle of the feature point series accumulated in step S107 is parallel to the traveling direction of the vehicle 1 is calibrated as the roll angle of the front camera 111.
ステップS111では、カメラパラメータ校正部122において、ROM103に格納されているカメラ取り付け位置・角度の設計値を用いて、前方カメラ111のカメラ高さの校正が行われる。カメラ高さの校正方法は種々の方法が紹介されており、そのいずれの方法を用いてもよいが、本実施形態では、国際公開第2012/139636号で提案されている手法でカメラ高さの校正が行われる。具体的には、ステップS109で算出したユークリッド距離Dと走行距離dとが等しくなるときのカメラ高さが前方カメラ111の高さとして算出される。 In step S <b> 111, the camera parameter calibration unit 122 calibrates the camera height of the front camera 111 using the design values of the camera attachment position and angle stored in the ROM 103. Various methods for calibrating the camera height have been introduced, and any of these methods may be used. In this embodiment, the camera height can be adjusted by the method proposed in International Publication No. 2012/139636. Calibration is performed. Specifically, the camera height when the Euclidean distance D calculated in step S109 is equal to the travel distance d is calculated as the height of the front camera 111.
以上説明したように、本実施形態のキャリブレーション装置によれば、一組のフレーム間(フレームF300,F301間又はフレームF600,F601間)で1つの特徴点(特徴点P1又は特徴点P2)の抽出及び追跡が行われる。このため、一組のフレーム間(フレームF300,F301間、又は、フレームF600,F601間)で、2つの特徴点P1,P2を同時に抽出したり、その抽出した2つの特徴点P1,P2を同時に追跡したりする必要がない。 As described above, according to the calibration device of the present embodiment, one feature point (feature point P1 or feature point P2) between a pair of frames (between frames F300 and F301 or between frames F600 and F601). Extraction and tracking are performed. Therefore, two feature points P1 and P2 are extracted simultaneously between a set of frames (between frames F300 and F301 or between frames F600 and F601), or the two extracted feature points P1 and P2 are simultaneously extracted. There is no need to track.
つまり、一組のフレーム間で抽出し且つ追跡する特徴点の数は1つで済む。これにより、一組のフレーム間で2つの特徴点を同時に抽出し且つ追跡する場合と比べて、特徴点の抽出及び追跡に要する時間を短くすることができる。従って、ヨー角の校正処理に要する時間を短くすることができる。 That is, only one feature point is extracted and tracked between a set of frames. As a result, it is possible to shorten the time required for extracting and tracking feature points compared to the case where two feature points are extracted and tracked simultaneously between a set of frames. Therefore, the time required for the yaw angle calibration process can be shortened.
また、上述のように、一組のフレーム間で抽出し且つ追跡する特徴点の数は1つで済むので、一組のフレーム間で2つの特徴点を同時に抽出し且つ追跡する場合と比べて、抽出及び追跡の成功率を向上できる。このため、ヨー角の校正処理を高精度に実現できる。 In addition, as described above, the number of feature points to be extracted and tracked between a set of frames is one, so that compared to the case where two feature points are simultaneously extracted and tracked between a set of frames. , Improve the success rate of extraction and tracking. For this reason, the yaw angle calibration process can be realized with high accuracy.
従って、ヨー角の校正処理を短時間且つ高精度に実現することができる。 Therefore, the yaw angle calibration process can be realized in a short time with high accuracy.
また、本実施形態のキャリブレーション装置によれば、工場出荷時に行う規定のマーカを使ったキャリブレーションが不要になる。 In addition, according to the calibration apparatus of the present embodiment, calibration using a specified marker that is performed at the time of factory shipment becomes unnecessary.
なお、上記の実施形態では、前方カメラ111のカメラパラメータ(ピッチ角、ヨー角、ロール角、カメラ高さ)の校正を前提とした。しかし、これに限らない。勿論、後方カメラ112、左方カメラ113、右方カメラ114のカメラパラメータ(ピッチ角、ヨー角、ロール角、カメラ高さ)を校正しても良い。 In the above embodiment, it is assumed that the camera parameters (pitch angle, yaw angle, roll angle, camera height) of the front camera 111 are calibrated. However, it is not limited to this. Of course, the camera parameters (pitch angle, yaw angle, roll angle, camera height) of the rear camera 112, the left camera 113, and the right camera 114 may be calibrated.
後方カメラ112は、前方カメラ111同様、光軸方向(Z軸方向)が車両1の前後方向(走行方向)と一致する。その前後方向(走行方向)と垂直な上下方向(Y軸)の回りの回転角のパラメータ(ヨー角)の校正は、前方カメラ111と同様に、車両1の走行距離dに依存する正規化長さRを用いて実現可能である。 Similar to the front camera 111, the rear camera 112 has an optical axis direction (Z-axis direction) that coincides with the front-rear direction (traveling direction) of the vehicle 1. The calibration of the parameter (yaw angle) of the rotation angle about the vertical direction (Y axis) perpendicular to the front-rear direction (travel direction) is the normalized length depending on the travel distance d of the vehicle 1, as with the front camera 111. This can be realized using the length R.
一方、左方カメラ113及び右方カメラ114は、前方カメラ111及び後方カメラ112と異なり、光軸方向(Z軸方向)が車両1の上下方向と一致する。そのため、ピッチ角、ヨー角、ロール角のうち、車両1の走行距離dに依存する回転角は、車両1の上下方向と垂直な左右方向(X軸)の回りのピッチ角となる。従って、そのピッチ角の校正は、前方カメラ111におけるヨー角の校正と同様に、特徴点系列の長さDと、車両1の走行距離dとの比を用いて実現可能である。 On the other hand, the left camera 113 and the right camera 114 differ from the front camera 111 and the rear camera 112 in that the optical axis direction (Z-axis direction) coincides with the vertical direction of the vehicle 1. Therefore, among the pitch angle, yaw angle, and roll angle, the rotation angle that depends on the travel distance d of the vehicle 1 is a pitch angle around the left-right direction (X axis) perpendicular to the up-down direction of the vehicle 1. Therefore, the calibration of the pitch angle can be realized by using the ratio between the length D of the feature point series and the travel distance d of the vehicle 1, as in the calibration of the yaw angle in the front camera 111.
なお、上記の実施形態では、特徴点系列の長さdを走行距離Dで除した正規化長さRを用いて、ヨー角の校正を行う例を示した。しかし、これに限らない。例えば、特徴点系列の長さdを車両1の走行速度vkで除した正規化速度を用いて、ヨー角の校正を行っても良い。 In the above embodiment, an example is shown in which the yaw angle is calibrated using the normalized length R obtained by dividing the length d of the feature point series by the travel distance D. However, it is not limited to this. For example, the yaw angle may be calibrated using a normalized speed obtained by dividing the length d of the feature point series by the traveling speed vk of the vehicle 1.
なお、上記の実施形態では、キャリブレーションシステム100を、前輪が操舵輪である車両1に設置する例を示した。しかし、これに限らない。例えば、キャリブレーションシステム100を、後輪が操舵輪である車両に設置しても良い。 In the above embodiment, an example in which the calibration system 100 is installed in the vehicle 1 whose front wheels are steering wheels has been described. However, it is not limited to this. For example, the calibration system 100 may be installed in a vehicle whose rear wheels are steering wheels.
なお、上記の実施形態では、4台のカメラ111〜114を使用する例を示した。しかし、これに限らない。カメラの台数は、使用者等の要請に応じて適宜変更できる。 In the above embodiment, an example in which four cameras 111 to 114 are used has been described. However, it is not limited to this. The number of cameras can be appropriately changed according to a request from a user or the like.
なお、上記の実施形態では、車速情報及び舵角情報が、それぞれ、通信プロトコルとしてのCANを介して、速度取得部118及び舵角取得部119に出力される例を示した。しかし、これに限らない。例えば、車速情報及び舵角情報は、それぞれ、OSI(Open Systems Interconnection)参照モデルの物理層がCANと互換性のあるCAN FD(Controller Area Network With Flexible Data Rate)等を介して、速度取得部118及び舵角取得部119に出力されても良い。 In the above embodiment, the vehicle speed information and the steering angle information are output to the speed acquisition unit 118 and the steering angle acquisition unit 119 via CAN as a communication protocol, respectively. However, it is not limited to this. For example, the vehicle speed information and the rudder angle information are respectively obtained through a speed acquisition unit 118 via a CAN FD (Controller Area Network With Flexible Data Rate) in which the physical layer of the OSI (Open Systems Interconnection) reference model is compatible with CAN. And the steering angle acquisition unit 119.
以上、本発明の実施例を図面により詳述したが、実施例は本発明の例示にしか過ぎないものであるため、本発明は実施例の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。 As mentioned above, although the Example of this invention was explained in full detail with drawing, since an Example is only an illustration of this invention, this invention is not limited only to the structure of an Example. Of course, changes in design and the like within a range not departing from the gist are included in the present invention.
1・・・車両
111、112、113、114・・・カメラ
116・・・キャリブレーション装置
117・・・特徴点抽出部
118・・・速度取得部
119・・・舵角取得部
120・・・特徴点系列算出部
121・・・特徴点系列累積部
122・・・カメラパラメータ校正部(回転角校正部)
D、D1、D2・・・ユークリッド距離(特徴点系列の長さ)
d、d1、d2・・・走行距離
F、F1、F2、F300、F301、F600、F601・・・フレーム
P1、P2・・・特徴点
R、R1、R2・・・正規化長さ
vk・・・走行速度
DESCRIPTION OF SYMBOLS 1 ... Vehicle 111, 112, 113, 114 ... Camera 116 ... Calibration apparatus 117 ... Feature point extraction part 118 ... Speed acquisition part 119 ... Steering angle acquisition part 120 ... Feature point series calculation unit 121... Feature point series accumulation unit 122... Camera parameter calibration unit (rotation angle calibration unit)
D, D1, D2 ... Euclidean distance (length of feature point series)
d, d1, d2 ... travel distances F, F1, F2, F300, F301, F600, F601 ... frames P1, P2 ... feature points R, R1, R2 ... normalized length vk ...・ Running speed
Claims (5)
前記撮像により時系列的に得られる複数のフレームから、前記撮像された画像の特徴点を抽出する特徴点抽出部と、
前記車両の舵角を取得する舵角取得部と、
前記舵角取得部で取得された舵角に基づき、前記車両が直進走行していると判断されるときに、時系列に相前後する一組のフレーム間で前記特徴点が変位した直線である特徴点系列の長さを算出する特徴点系列算出部と、
前記一組のフレーム間で前記車両が走行した走行距離と、前記特徴点系列算出部で算出された特徴点系列の長さとの比が、異なる組のフレーム間で一致するように、撮像面内の一軸回りの回転角のパラメータを校正する回転角校正部と、
を有することを特徴とするキャリブレーション装置。 A calibration device for carrying out calibration of a camera mounted on a vehicle and imaging the periphery of the vehicle,
A feature point extraction unit that extracts feature points of the captured image from a plurality of frames obtained in time series by the imaging;
A rudder angle obtaining unit for obtaining a rudder angle of the vehicle;
Based on the rudder angle acquired by the rudder angle acquisition unit, when the vehicle is determined to travel straight, the feature point is a straight line displaced between a pair of frames that are in tandem with each other. A feature point series calculation unit for calculating the length of the feature point series;
In the imaging plane, the ratio of the travel distance traveled by the vehicle between the set of frames and the length of the feature point series calculated by the feature point series calculation unit is the same between different sets of frames. A rotation angle calibration unit that calibrates the parameters of the rotation angle around one axis,
A calibration apparatus comprising:
前記回転角校正部は、前記カメラの光軸方向が前記車両の前後方向と一致するときに、前記車両の前後方向と垂直な前記車両の上下方向に延びる軸回りの回転角のパラメータを前記一軸回りの回転角のパラメータとして校正することを特徴とするキャリブレーション装置。 The calibration device according to claim 1,
The rotation angle calibration unit sets a parameter of a rotation angle about an axis extending in the vertical direction of the vehicle perpendicular to the front-rear direction of the vehicle when the optical axis direction of the camera coincides with the front-rear direction of the vehicle. A calibration device characterized by calibrating as a parameter of a rotation angle of rotation.
前記回転角校正部は、前記カメラの光軸方向が前記車両の上下方向と一致するときに、前記車両の上下方向と垂直な前記車両の左右方向に延びる軸回りの回転角のパラメータを前記一軸回りの回転角のパラメータとして校正することを特徴とするキャリブレーション装置。 The calibration device according to claim 1,
The rotation angle calibration unit sets a parameter of a rotation angle around an axis extending in the left-right direction of the vehicle perpendicular to the vertical direction of the vehicle when the optical axis direction of the camera coincides with the vertical direction of the vehicle. A calibration device characterized by calibrating as a parameter of a rotation angle of rotation.
前記車両の走行速度を取得する速度取得部を備え、
前記回転角校正部は、前記速度取得部で取得された走行速度に基づいて、前記走行距離を算出することを特徴とするキャリブレーション装置。 In the calibration apparatus according to any one of claims 1 to 3,
A speed acquisition unit for acquiring the traveling speed of the vehicle;
The rotation angle calibration unit calculates the travel distance based on the travel speed acquired by the speed acquisition unit.
前記特徴点系列算出部で算出された特徴点系列の数を累積する特徴点系列累積部を備え、
前記回転角校正部は、前記特徴点系列累積部で累積した数が予め定められた必要本数に到達した場合に、前記回転角のパラメータを校正することを特徴とするキャリブレーション装置。 The calibration device according to any one of claims 1 to 4,
A feature point series accumulation unit for accumulating the number of feature point series calculated by the feature point series calculation unit;
The rotation angle calibration unit calibrates the parameter of the rotation angle when the number accumulated by the feature point series accumulation unit reaches a predetermined required number.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017030791A JP6768554B2 (en) | 2017-02-22 | 2017-02-22 | Calibration device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017030791A JP6768554B2 (en) | 2017-02-22 | 2017-02-22 | Calibration device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018136739A true JP2018136739A (en) | 2018-08-30 |
JP6768554B2 JP6768554B2 (en) | 2020-10-14 |
Family
ID=63366859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017030791A Active JP6768554B2 (en) | 2017-02-22 | 2017-02-22 | Calibration device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6768554B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021118435A (en) * | 2020-01-24 | 2021-08-10 | 株式会社デンソーテン | Image processing device and image processing method |
EP3902250A1 (en) * | 2020-04-20 | 2021-10-27 | Faurecia Clarion Electronics Co., Ltd. | Calibration device and calibration method |
CN114872048A (en) * | 2022-05-27 | 2022-08-09 | 河南职业技术学院 | Robot steering engine angle calibration method |
CN115131285A (en) * | 2022-04-29 | 2022-09-30 | 盛视科技股份有限公司 | Method and system for detecting steering included angle of trailer |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011217233A (en) * | 2010-04-01 | 2011-10-27 | Alpine Electronics Inc | On-vehicle camera calibration system, and computer program |
JP2012504889A (en) * | 2008-10-01 | 2012-02-23 | ハイ キー リミテッド | Image capturing apparatus calibration method and calibration system |
WO2012139636A1 (en) * | 2011-04-13 | 2012-10-18 | Connaught Electronics Limited | Online vehicle camera calibration based on road surface texture tracking and geometric properties |
JP2014165810A (en) * | 2013-02-27 | 2014-09-08 | Fujitsu Ten Ltd | Parameter acquisition device, parameter acquisition method and program |
-
2017
- 2017-02-22 JP JP2017030791A patent/JP6768554B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012504889A (en) * | 2008-10-01 | 2012-02-23 | ハイ キー リミテッド | Image capturing apparatus calibration method and calibration system |
JP2011217233A (en) * | 2010-04-01 | 2011-10-27 | Alpine Electronics Inc | On-vehicle camera calibration system, and computer program |
WO2012139636A1 (en) * | 2011-04-13 | 2012-10-18 | Connaught Electronics Limited | Online vehicle camera calibration based on road surface texture tracking and geometric properties |
JP2014165810A (en) * | 2013-02-27 | 2014-09-08 | Fujitsu Ten Ltd | Parameter acquisition device, parameter acquisition method and program |
Non-Patent Citations (2)
Title |
---|
MICHAEL MIKSCH ET AL.: ""Automatic Extrinsic Camera Self-Calibration Based on Homography and Epipolar Geometry"", 2010 IEEE INTELLIGENT VEHICLES SYMPOSIUM, JPN6020032698, 21 June 2010 (2010-06-21), US, pages 832 - 839, XP031732209, ISSN: 0004338172 * |
横地 裕次、外3名: ""特徴点追跡とGPS測位に基づくカメラ外部パラメータの推定"", 情報処理学会論文誌, vol. Vol.47, No.SIG 5 (CVIM 13), JPN6020032695, 15 March 2006 (2006-03-15), JP, pages 69 - 79, ISSN: 0004338171 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021118435A (en) * | 2020-01-24 | 2021-08-10 | 株式会社デンソーテン | Image processing device and image processing method |
EP3902250A1 (en) * | 2020-04-20 | 2021-10-27 | Faurecia Clarion Electronics Co., Ltd. | Calibration device and calibration method |
JP7505909B2 (en) | 2020-04-20 | 2024-06-25 | フォルシアクラリオン・エレクトロニクス株式会社 | Calibration device and calibration method |
CN115131285A (en) * | 2022-04-29 | 2022-09-30 | 盛视科技股份有限公司 | Method and system for detecting steering included angle of trailer |
CN115131285B (en) * | 2022-04-29 | 2024-09-06 | 盛视科技股份有限公司 | Detection method and detection system for steering included angle of trailer |
CN114872048A (en) * | 2022-05-27 | 2022-08-09 | 河南职业技术学院 | Robot steering engine angle calibration method |
CN114872048B (en) * | 2022-05-27 | 2024-01-05 | 河南职业技术学院 | Robot steering engine angle calibration method |
Also Published As
Publication number | Publication date |
---|---|
JP6768554B2 (en) | 2020-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108141570B (en) | Calibration device, calibration method, and calibration program storage medium | |
JP5538411B2 (en) | Vehicle perimeter monitoring device | |
JP5375958B2 (en) | Image processing apparatus and image processing method | |
WO2016052505A1 (en) | Camera calibration device and camera calibration system | |
CN109074653B (en) | Method for detecting an object next to a road of a motor vehicle, computing device, driver assistance system and motor vehicle | |
JP6602982B2 (en) | In-vehicle camera, in-vehicle camera adjustment method, in-vehicle camera system | |
WO2015029443A1 (en) | Turning angle correction method, turning angle correction device, image-capturing device, and turning angle correction system | |
US10554951B2 (en) | Method and apparatus for the autocalibration of a vehicle camera system | |
JP6768554B2 (en) | Calibration device | |
JP2010191661A (en) | Traveling path recognition device, automobile, and traveling path recognition method | |
JP2016149613A (en) | Camera parameter adjustment device | |
JP2011175572A (en) | Lane recognition device | |
CN113903103B (en) | Partial image generation device, partial image generation method, and storage medium | |
WO2022153795A1 (en) | Signal processing device, signal processing method, and signal processing system | |
JP4670528B2 (en) | Imaging device deviation detection method, imaging device deviation correction method, and imaging device | |
JP7217577B2 (en) | CALIBRATION DEVICE, CALIBRATION METHOD | |
JP2021193340A (en) | Self-position estimation device | |
JP7019431B2 (en) | Camera calibration device, camera calibration method, and program | |
JP6023030B2 (en) | Rudder angle correction method, rudder angle correction device, imaging device, and rudder angle correction system | |
JP2020087210A (en) | Calibration device and calibration method | |
JP2018033035A (en) | Image processing apparatus, imaging device, program, instrument control system, and instrument | |
JP6432033B2 (en) | In-vehicle device | |
JP7519275B2 (en) | Image processing device and image processing method | |
KR101949349B1 (en) | Apparatus and method for around view monitoring | |
US20230421739A1 (en) | Robust Stereo Camera Image Processing Method and System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190705 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200827 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200908 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200923 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6768554 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |