Nothing Special   »   [go: up one dir, main page]

JP2019101671A - Information processing device and information processing system - Google Patents

Information processing device and information processing system Download PDF

Info

Publication number
JP2019101671A
JP2019101671A JP2017230886A JP2017230886A JP2019101671A JP 2019101671 A JP2019101671 A JP 2019101671A JP 2017230886 A JP2017230886 A JP 2017230886A JP 2017230886 A JP2017230886 A JP 2017230886A JP 2019101671 A JP2019101671 A JP 2019101671A
Authority
JP
Japan
Prior art keywords
white line
coordinate
vehicle
state
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017230886A
Other languages
Japanese (ja)
Other versions
JP6992452B2 (en
Inventor
原 英之
Hideyuki Hara
英之 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Isuzu Motors Ltd
Original Assignee
Isuzu Motors Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Isuzu Motors Ltd filed Critical Isuzu Motors Ltd
Priority to JP2017230886A priority Critical patent/JP6992452B2/en
Publication of JP2019101671A publication Critical patent/JP2019101671A/en
Application granted granted Critical
Publication of JP6992452B2 publication Critical patent/JP6992452B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To reduce noises in a white line recognition.SOLUTION: In an information processing device that estimates a status variable containing a variable that indicates a status of a white line present on a road on the basis of a running state of a vehicle and on a forehead image that is an image containing the road ahead of the vehicle in the travelling direction in an object, a white line position estimating unit 110 calculates an estimated coordinate which is the estimated value of the position of the white line present on the road on the basis of the estimated status variable. A coordinate converting unit 111 converts the estimated coordinate calculated in past by the white line position estimating unit 110 into a backward coordinate indicating the position of the white line present behind the vehicle in the travelling direction on the basis of the running state. A forehead coordinate detecting unit 112 detects, from the forehead image, a forehead coordinate which is a coordinate in a coordinate axis set with reference to the forehead image and which is a coordinate indicating the position of the white line present on the forehead image. A status estimating unit 113 takes the backward coordinate and the forehead coordinate as measured quantities, and updates the estimated value of the status variable using a status spatial model of the status variable.SELECTED DRAWING: Figure 10

Description

本開示は情報処理装置及び情報処理システムに関し、特に、車両に搭載されて車両前方から後側方に存在する白線の状態を取得する技術に関する。   The present disclosure relates to an information processing apparatus and an information processing system, and more particularly to a technology for acquiring the state of a white line which is mounted on a vehicle and exists from the front to the rear of the vehicle.

LKAS(Lane Keeping Assist System)やLKS(Lane Keeping System)などに代表される運転支援装置に搭載される白線認識では、前方カメラで撮影した路面映像を画像処理にかけることで画像上の座標系での白線の位置を検出する(例えば、特許文献1を参照)。   In white line recognition installed in a driving support device represented by LKAS (Lane Keeping Assist System) or LKS (Lane Keeping System), a road surface image taken by a front camera is subjected to image processing, and a coordinate system on the image is used. The position of the white line of is detected (see, for example, Patent Document 1).

特開2004−199341号公報JP 2004-199341 A

運転支援装置においては、認識した白線に基づいて操舵制御を実行する。このため、白線の推定値の精度が十分でないと操舵制御に悪影響を与える場合がある。したがって、白線認識において推定処理の精度、特にノイズ低減が望まれている。   In the driving support device, steering control is performed based on the recognized white line. For this reason, steering control may be adversely affected if the accuracy of the white line estimation value is insufficient. Therefore, in white line recognition, accuracy of estimation processing, in particular, noise reduction is desired.

本開示はこれらの点に鑑みてなされたものであり、白線認識におけるノイズを低減する技術を提供することを目的とする。   The present disclosure has been made in view of these points, and an object thereof is to provide a technique for reducing noise in white line recognition.

本開示の第1の態様は、車両の走行状態と、前記車両の進行方向前方の道路を被写体に含む画像である前方画像とに基づいて、前記道路に存在する白線の状態を示す変数を含む状態変数を推定するための情報処理装置である。この装置は、推定した前記状態変数に基づいて、前記道路に存在する白線の位置の推定値である推定座標を算出する白線位置推定部と、前記走行状態に基づいて、前記白線位置推定部が過去に算出した推定座標を、前記車両の進行方向後方に存在する白線の位置を示す後方座標に変換する座標変換部と、前記前方画像を基準として設定された座標軸における座標であって、前記前方画像に存在する白線の位置を示す座標である前方座標を、前記前方画像から検出する前方座標検出部と、前記後方座標と前記前方座標とを観測量とし、前記状態変数の状態空間モデルを用いて前記状態変数の推定値を更新する状態推定部と、を備える。   A first aspect of the present disclosure includes a variable indicating a state of a white line present on a road based on a traveling state of the vehicle and a forward image that is an image including the road ahead of the traveling direction of the vehicle as a subject. It is an information processing apparatus for estimating a state variable. In this apparatus, a white line position estimation unit that calculates estimated coordinates that are estimated values of white line positions present on the road based on the estimated state variable, and the white line position estimation unit based on the traveling state A coordinate conversion unit that converts estimated coordinates calculated in the past to rear coordinates indicating a position of a white line present behind the traveling direction of the vehicle, and coordinates on a coordinate axis set based on the front image, the front A front coordinate detecting unit which detects coordinates of the position of a white line present in an image, a front coordinate detecting unit which detects the front image from the front image, the rear coordinate and the front coordinate are observation amounts, and a state space model of the state variable is used. A state estimation unit for updating the estimated value of the state variable.

前記状態推定部は、前記白線の曲率及び前記車両の正面方向に対する前記曲率の変化率を前記状態変数に含む状態空間モデルを用いて、前記状態変数の推定値を更新してもよい。   The state estimation unit may update the estimated value of the state variable using a state space model including the curvature of the white line and the rate of change of the curvature with respect to the front direction of the vehicle in the state variable.

前記座標変換部は、前記車両の速度とヨーレートとを前記走行状態として取得してもよく、前記前方画像の撮像時刻よりも過去において前記白線位置推定部が算出した前記推定座標を、前記後方座標に変換してもよい。   The coordinate conversion unit may acquire the speed and the yaw rate of the vehicle as the traveling state, and the estimated coordinates calculated by the white line position estimation unit in the past relative to the imaging time of the front image may be the back coordinates May be converted to

前記状態推定部は、前記状態変数の時間遷移を表す状態方程式と、前記観測量と前記状態変数との関係を記述する観測方程式とを含むカルマンフィルタを用いて前記状態変数の推定値を更新してもよく、前記観測方程式は、クロソイド曲線を近似する曲線で前記白線をモデル化した方程式であってもよい。   The state estimation unit updates the estimated value of the state variable using a Kalman filter including a state equation representing time transition of the state variable, and an observation equation describing a relationship between the observation amount and the state variable. Alternatively, the observation equation may be an equation in which the white line is modeled by a curve approximating a clothoid curve.

本開示の第2の態様は、車両に搭載される情報処理システムである。このシステムは、前記車両の進行方向前方の道路を被写体に含む画像である前方画像を取得するカメラと、前記車両の走行状態を取得するセンサと、上述した情報処理装置と、を備える。   A second aspect of the present disclosure is an information processing system mounted on a vehicle. This system includes a camera for acquiring a forward image that is an image including a road ahead of the vehicle in the traveling direction as a subject, a sensor for acquiring the traveling state of the vehicle, and the above-described information processing apparatus.

本開示によれば白線認識におけるノイズを低減することができる。   According to the present disclosure, noise in white line recognition can be reduced.

レーンキープシステムの処理を示す図である。It is a figure showing processing of a lane keeping system. ピンホールカメラモデルを説明するための図である。It is a figure for demonstrating a pinhole camera model. 車両座標系におけるY軸とZ軸との間の関係を示す図である。It is a figure which shows the relationship between the Y-axis and Z-axis in a vehicle coordinate system. 車両の動きに基づく白線位置の座標変換を示す図である。It is a figure which shows the coordinate transformation of the white line position based on a motion of a vehicle. 白線の状態と白線の形状との定義を示す図である。It is a figure which shows the state of the white line and the definition of the shape of a white line. カルマンフィルタによる白線の曲率の推定値を示す図である。It is a figure which shows the estimated value of the curvature of the white line by a Kalman filter. 車線中心までの横範囲の推定値を示す図である。It is a figure which shows the estimated value of the horizontal range to a lane center. 白線に対する方位角の推定値を示す図である。It is a figure which shows the estimated value of the azimuth with respect to a white line. 実施の形態に係る情報処理システムの概要を説明するための模式図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a schematic diagram for demonstrating the outline | summary of the information processing system which concerns on embodiment. 実施の形態に係る情報処理装置の機能構成を模式的に示す図である。It is a figure showing typically the functional composition of the information processor concerning an embodiment. 実施の形態に係る情報処理装置が実行する状態変数の更新処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the update process of the state variable which the information processing apparatus which concerns on embodiment performs.

以下本発明を好適な実施の形態をもとに説明する。まず、実施の形態の基礎となる理論を前提技術として述べ、その後、具体的な実施の形態を説明する。   Hereinafter, the present invention will be described based on preferred embodiments. First, the theory underlying the embodiment will be described as a premise technology, and then a specific embodiment will be described.

<前提技術>
実施の形態の基礎となる技術は、後側方の白線座標を用いたカルマンフィルタによって白線状態推定のノイズを低減する技術である。
Prerequisite technology
The technology on which the embodiment is based is a technology for reducing noise in white line state estimation by a Kalman filter using white line coordinates on the back side.

[1.緒言]
LKASやLKSなどに代表される運転支援装置に搭載される白線認識では、図1に示すように、前方カメラで撮影した路面映像を画像処理にかけることで画像上の座標系での白線の位置を検出する。その後、検出した白線座標を車両運動の制御に有為な情報、すなわち、車両中心と白線との距離である横変位、車両の白線に対する方位角及び白線の曲率へと変換する。この変換処理のことを白線の状態推定処理と呼ぶ。このとき、推定値の精度が十分でないと操舵制御に悪影響を与える場合がある。そのため、推定処理の精度、特にノイズ低減性能が高いことが望ましい。
[1. Introduction]
In white line recognition installed in a driving support device typified by LKAS or LKS, as shown in FIG. 1, the position of the white line in the coordinate system on the image is processed by applying image processing to the road surface image taken by the front camera. To detect Thereafter, the detected white line coordinates are converted into information useful for control of the vehicle movement, that is, lateral displacement which is the distance between the vehicle center and the white line, the azimuth angle to the white line of the vehicle and the curvature of the white line. This conversion process is called white line state estimation process. At this time, if the accuracy of the estimated value is not sufficient, steering control may be adversely affected. Therefore, it is desirable that the accuracy of the estimation process, particularly the noise reduction performance, be high.

上述の推定処理には処理速度及び推定値の低ノイズ化の観点からカルマンフィルタが広く用いられている(参考文献1)。ただし、白線状態推定のカルマンフィルタでは一般的にノイズ低減性能と推定精度がトレードオフの関係にある。例えば、曲率の推定値に含まれるノイズを極力減らすようフィルタを設計すると、急カーブ等の曲率の変化率が高い状況での推定精度が低下する。一方、白線状態推定とは異なる高精度地図とのマッチングによる自己位置推定問題において、参考文献2では、前方カメラに加え、車両の周囲の複数のカメラから取得した車両周辺の車線情報を用いることで、車線レベルでの自己位置推定の精度が向上することが報告されている。その際、カメラにより取得した現在の車線情報のみではなく、過去の車線情報を統合することで車両周辺の車線形状の認識精度を向上させている。   In the above-described estimation process, a Kalman filter is widely used from the viewpoint of processing speed and noise reduction of estimated values (Reference 1). However, in the Kalman filter for white line state estimation, noise reduction performance and estimation accuracy are generally in a trade-off relationship. For example, if the filter is designed to reduce the noise contained in the estimated value of curvature as much as possible, the estimation accuracy in the situation where the rate of change of curvature such as a sharp curve is high is reduced. On the other hand, in the problem of self-position estimation by matching with a high-precision map different from white line state estimation, in reference document 2, in addition to the front camera, by using lane information around the vehicle acquired from multiple cameras around the vehicle. It has been reported that the accuracy of self-position estimation at the lane level is improved. At that time, not only the current lane information acquired by the camera but also the past lane information are integrated to improve the recognition accuracy of the lane shape around the vehicle.

そこで、本実施の形態では、白線状態推定問題に対して前方以外の車線情報を利用することによる推定性能の向上を試みる。すなわち、通常用いられる前方白線の座標に加え、新たに車両の後側方の白線座標を白線状態推定のカルマンフィルタの観測量として導入する。その際、車両の後側方の白線座標は各時刻における白線の横変位の推定値及び車両の運動の履歴を用いて推定する。これにより、後側方の白線座標を取得するための後方カメラは不要となり、既存の車線維持装置と同様の装置の構成で提案手法による白線認識を実行できる。なお、後側方の白線座標はセンサによる観測によって得られる値ではないため、本物の観測量ではない擬似的な観測量である。加えて、後側方の白線座標を用いれば、前方白線の一部又は全てが汚れや逆光などにより一時的にカメラから検出できなかった場合にも後側方の白線のみを観測量として安定した推定値が得られるようになるという効果も期待できる。また、本実施の形態では白線形状の近似式として曲率の変化率を考慮可能な三次曲線を採用する。そして、提案したカルマンフィルタによる車両走行時の白線状態推定を実施し、最大曲率の推定性能及び推定値のノイズについて従来のカルマンフィルタにより得られる推定値と比較する。   Therefore, in the present embodiment, improvement of the estimation performance is attempted by using lane information other than the front for the white line state estimation problem. That is, in addition to the coordinates of the front white line normally used, the white line coordinates of the rear side of the vehicle are newly introduced as the observation quantity of the Kalman filter for white line state estimation. At that time, the white line coordinates on the rear side of the vehicle are estimated using the estimated value of the lateral displacement of the white line at each time and the history of the movement of the vehicle. As a result, the rear camera for acquiring the white line coordinates on the rear side becomes unnecessary, and white line recognition by the proposed method can be executed with the configuration of an apparatus similar to the existing lane keeping apparatus. In addition, since the white line coordinate on the back side is not a value obtained by observation by a sensor, it is a pseudo observation quantity which is not a real observation quantity. In addition, using the white line coordinates on the back side, even if part or all of the front white line could not be detected temporarily from the camera due to dirt or backlighting, only the white line on the back side was stable as an observation amount The effect of being able to obtain an estimated value can also be expected. Further, in the present embodiment, a cubic curve capable of taking into consideration the rate of change of curvature is adopted as an approximation of the white line shape. And white line state estimation at the time of vehicle running by the proposed Kalman filter is carried out, and the estimation performance of the maximum curvature and the noise of the estimated value are compared with the estimated value obtained by the conventional Kalman filter.

[2.画面座標系及び車両座標系]
本実施の形態ではカメラ画像の中心を原点とし、画像の右方向にx軸、上方向にy軸を設けた座標系を画面座標系と呼ぶ。一方、現実世界における座標系としてカメラ取り付け位置を原点とし、カメラの光軸方向にZ軸、車両右手方向にX軸、これら2つの軸に垂直な方向にY軸を設ける車両座標系を定義する。画面座標系及び車両座標系の関係が図2に示すようなピンホールカメラモデルにより与えられるとすれば、各座標の関係式は次式のように表される。
[2. Screen coordinate system and vehicle coordinate system]
In the present embodiment, a coordinate system in which the center of the camera image is the origin and the x axis is provided in the right direction of the image and the y axis is in the upper direction is referred to as a screen coordinate system. On the other hand, as a coordinate system in the real world, define a vehicle coordinate system with a camera attachment position as the origin, a Z axis in the optical axis direction of the camera, an X axis in the right hand direction of the vehicle . Assuming that the relationship between the screen coordinate system and the vehicle coordinate system is given by a pinhole camera model as shown in FIG. 2, the relational expression of each coordinate is expressed by the following equation.

ここで、fはカメラの焦点距離である。ただし、上式のみでは二次元座標である画面座標系から三次元座標である車両座標系への変換は一意に定まらない。そこで、白線は常に路面上に存在することからY座標及びZ座標の間に図3の幾何学的関係から得られる次式の条件を適用することで、画面座標上のある点を車両座標の一点と対応させる。   Here, f is the focal length of the camera. However, the transformation from the screen coordinate system, which is a two-dimensional coordinate, to the vehicle coordinate system, which is a three-dimensional coordinate, is not uniquely determined by the above equation alone. Therefore, a white line is always present on the road surface, and by applying the condition of the following equation obtained from the geometrical relationship of FIG. Correspond to one point.

ここで、ηはカメラの俯角、hはカメラの取り付け位置の路面からの高さである。なお、式(3)においては俯角ηが微小であるとしている。   Here, η is the depression angle of the camera, and h is the height from the road surface of the mounting position of the camera. In the equation (3), it is assumed that the depression angle η is very small.

[3.後側方の白線座標の計算方法]
本実施の形態では、車両の運動の情報から運動後の車両の後側方白線の点の座標を計算する方法について述べる。まず、図4(a)に示す、ある時間ステップkでの左後側方の白線上の車両前面近傍からI番目の点の車両座標系における座標値を(X LI,Z LI)とおく。また、同じ点の図4(b)に示す車両が移動した後の時間ステップk+1での車両座標系での座標値を(Xk+1 LI,Zk+1 LI)とする。このとき、座標値(X LI,Z LI)及び(Xk+1 LI,Zk+1 LI)の関係は二次元の座標変換を用いることで次式のように表すことができる。
[3. Calculation method of back side white line coordinates]
In the present embodiment, a method of calculating the coordinates of the point of the rear white line of the vehicle after exercise from the information of the motion of the vehicle will be described. First, the coordinate value in the vehicle coordinate system of the I-th point from the vicinity of the vehicle front on the left rear side white line at a certain time step k shown in FIG. 4A is (X k LI , Z k LI ) deep. Further, coordinate values in the vehicle coordinate system at time step k + 1 after the vehicle shown in FIG. 4B at the same point has moved are set to (X k + 1 LI , Z k + 1 LI ). At this time, the relationship between coordinate values (X k LI , Z k LI ) and (X k +1 LI , Z k + 1 LI ) can be expressed as the following equation by using two-dimensional coordinate transformation.

ここで、ΔΨ=γΔtであり、γは車両のヨーレート、Δtはステップ間の時間増分を表す。また、(X ,Z )は時間ステップkでの車両座標系から見た Δt後のカメラ位置の移動先であり、車両の速度V及びヨーレートγを用いた自律航法により算出する。一方、後側方の点が存在しない場合又は前回新しい後側方の点を生成してから一定距離を走行した際には車両の真横に新しく点を生成する。そのような場合、式(4)及び式(5)を用いず、代わりに次式を用いて時刻k+1での各点の座標を計算する。 Here, ΔΨ k = γ k Δt k , where γ k represents the yaw rate of the vehicle and Δt k represents the time increment between steps. Also, (X k D , Z k D ) is the moving destination of the camera position after Δt k seen from the vehicle coordinate system at time step k, and by autonomous navigation using vehicle speed V k and yaw rate γ k calculate. On the other hand, if a point on the back side does not exist or if a new distance on the back side was generated last time and then traveled a certain distance, a new point is generated just beside the vehicle. In such a case, the coordinates of each point at time k + 1 are calculated using Equation (4) and Equation (5) instead, instead using the following equation.

ここで、ULkは時間ステップkにおいて推定されている左白線までの横変位である。上述の計算を各時間ステップにおいてI=1〜Nに対して実行することで、後側方の白線の座標値を更新する。ただし、Nは左白線又は右白線の後側方の点の数である。 Where U L k is the lateral displacement to the left white line estimated at time step k. The coordinate values of the white line on the rear side are updated by executing the above calculation for I = 1 to N at each time step. However, N is the number of points behind the left white line or the right white line.

なお、右の白線の座標値(Xk+1 RI,Zk+1 RI)についても(X RI,Z RI)及びURkを用いて式(4)〜(9)と同様に計算する。 The coordinate values of the right white line (X k + 1 RI, Z k + 1 RI) for even (X k RI, Z k RI ) and (4) using a U Rk similarly calculated to (9).

[4.白線状態推定のカルマンフィルタ]
[4.1.カルマンフィルタの構成]
カルマンフィルタは状態変数の時間遷移を表す状態方程式による予測ステップ及び観測量と状態変数の関係を記述する観測方程式による修正ステップから構成される。本実施の形態では車両に対する白線の状態を状態変数とし、白線上の点の座標値を観測量として扱う。また、本実施の形態では状態方程式は線形となる一方、観測方程式は非線形となる。そのため、非線形系にも対応可能な拡張カルマンフィルタ(参考文献3)を採用する。以下に観測方程式のみが非線形となる場合のカルマンフィルタの構成を示す。
[4. Kalman filter for white line state estimation]
[4.1. Constitution of Kalman filter]
The Kalman filter comprises a prediction step by a state equation representing time transition of a state variable, and a correction step by an observation equation describing a relationship between an observable and a state variable. In the present embodiment, the state of the white line with respect to the vehicle is used as a state variable, and the coordinate value of a point on the white line is treated as an observable. In the present embodiment, the state equation is linear, while the observation equation is nonlinear. Therefore, an extended Kalman filter (Reference 3) that can cope with nonlinear systems is adopted. The configuration of the Kalman filter when only the observation equation is nonlinear is shown below.

ここで、式(10)〜(14)における各変数の意味はそれぞれ以下のとおりである。
:状態変数ベクトル
:観測量ベクトル
:状態変数から観測量を算出する非線形関数
:状態遷移行列
:プロセスノイズの状態空間への写像行列
:状態変数を観測空間へ写像する観測行列
:状態変数の誤差の共分散行列
:プロセスノイズの共分散行列
:観測ノイズの共分散行列
:最適カルマンゲイン
I:単位行列
Here, the meaning of each variable in Formula (10)-(14) is as follows, respectively.
x k : state variable vector y k : observed quantity vector g k : non-linear function A k for calculating observed quantity from state variable: state transition matrix B k : mapping matrix C k of process noise to state space: observed state variable Observation matrix P k that maps to space: covariance matrix of errors of state variables Q k : covariance matrix of process noise R k : covariance matrix of observation noise K k : optimal Kalman gain I: unit matrix

また、()及び(^)はそれぞれx又はPの予測量及び修正量を表す。式(10)〜(14)の計算を各時間ステップkにおいて実行し、x及びPを逐次更新することで、最も確からしい白線の状態xを得る。 Also, ( ) and (^) represent the predicted amount and the corrected amount of x k or P k , respectively. The calculations of equations (10)-(14) are performed at each time step k, and x k and P k are updated sequentially to obtain the most likely white line state x k .

[4.2.状態方程式]
白線の状態を表す状態変数として本実施の形態では図5に示す車両中心から車線中心までの横変位Uc、白線の曲率ρ、白線の接線に対する車両の方位角θ及び車線幅Wを採用する。また、道路構造令(参考文献4)によれば、日本の道路は直線路、曲率一定の曲線路及び曲率が曲線長に比例して変化する緩和曲線路、すなわち、クロソイド曲線によって構成されている。そこで、本実施の形態ではクロソイドパラメータを推定可能となるよう曲率の車両進行方向への変化率ε≡∂ρ/∂zを状態変数に加える。また、参考文献1と同様にカメラの設置緒元である俯角ηを状態変数として考慮する。さらに、曲率ρ以外の状態変数はプロセスノイズのみによって変動するものとし、曲率ρはノイズに加え、その時点で推定されているεに次のステップまでに移動する距離を乗じた分だけ増減するものとしてモデル化する。以上より、本実施の形態ではカルマンフィルタの状態方程式を次式のように構築する。
[4.2. Equation of state]
In this embodiment, the lateral displacement Uc from the vehicle center to the lane center, the curvature ρ of the white line, the azimuth angle θ of the vehicle with respect to the tangent of the white line, and the lane width W are adopted as state variables representing the state of the white line. Also, according to the Road Structure Act (Ref. 4), Japan's roads are composed of straight roads, curved roads with constant curvature, and relaxation curved roads where the curvature changes in proportion to the curve length, that is, clothoid curves . Therefore, in the present embodiment, the rate of change of curvature in the vehicle traveling direction ε≡∂ / ≡∂z is added to the state variable so that the clothoid parameter can be estimated. Further, as in the case of Reference 1, a depression angle η, which is the origin of the camera, is considered as a state variable. Furthermore, state variables other than the curvature ρ are assumed to fluctuate only by the process noise, and the curvature ρ is added to the noise and is increased or decreased by the product of ε estimated at that time multiplied by the distance moved to the next step. Model as From the above, in the present embodiment, the state equation of the Kalman filter is constructed as the following equation.

ただし、式(16)は式(15)のベクトル及び行列の各成分を表している。ここで、vは各状態変数に対応するプロセスノイズであり、カルマンフィルタの理論体系では平均値が零、共分散行列がQの多変量正規分布に従うと仮定する。また、ΔZは単位ステップの間に車両がZ軸方向へ進む距離であり、車両の速度V及びヨーレートγを用いてΔZ=VΔtcos(γΔt)のように計算する。 However, Formula (16) represents each component of the vector and matrix of Formula (15). Here, it is assumed that v k is a process noise corresponding to each state variable, and in the Kalman filter theoretical system, it has a multivariate normal distribution with an average value of zero and a covariance matrix of Q k . Further, [Delta] Z k is the distance which the vehicle during a unit step proceeds to the Z-axis direction, as with the velocity V k and the yaw rate gamma k of the vehicle ΔZ k = V k Δt k cos (γ k Δt k) calculate.

[4.3.観測方程式]
一般に曲率の変化率が一定であるクロソイド曲線は、三次曲線で近似できることが知られており、本実施の形態ではクロソイド状態変数εを観測量によって補正可能となるよう白線形状を三次曲線によって近似する。すなわち、各状態変数を用いて車両座標系における白線の近似方程式を以下の式(17)のように表す(図5)。
[4.3. Observation equation]
In general, it is known that a clothoid curve having a constant rate of change of curvature can be approximated by a cubic curve, and in the present embodiment, a white line shape is approximated by a cubic curve so that the clothoid state variable ε can be corrected by observation quantities. . That is, the approximation equation of the white line in the vehicle coordinate system is expressed as the following equation (17) using each state variable (FIG. 5).

ここで、iは左右の白線の識別を表し、左白線の場合には零、右白線の場合には1になるものとする。ただし、式(17)の導出においては横変位Uc及び方位角θがカメラ位置の真横での値であることを、曲率ρ及びその変化率εが曲線の頂点での値であることを仮定している。加えて、θは微小であり、ρと比較してεは十分に小さいとしている。   Here, i represents the identification of the left and right white lines, and is zero in the case of the left white line and 1 in the case of the right white line. However, in the derivation of the equation (17), it is assumed that the lateral displacement Uc and the azimuth angle θ are values just beside the camera position, and the curvature ρ and its change rate ε are values at the apex of the curve. ing. In addition, θ is small, and ε is sufficiently small compared to ρ.

また、式(1)〜(3)を用いて式(17)から車両座標X及びZを消去し、前方白線の観測量である画面座標x及びyを用いて表すことで前方白線座標に対する観測方程式を導出する。一方、後側方の白線座標は車両座標系で記述されることから式(17)を後側方の各点について並べ、観測ノイズを加えたものが後側方白線に対する観測方程式となる。以上より、本実施の形態で用いる観測方程式が次式のように得られる。   In addition, the vehicle coordinates X and Z are eliminated from the equation (17) using the equations (1) to (3), and the observation with respect to the front white line coordinates is realized by using screen coordinates x and y which are observation quantities of the front white line. Derive the equation. On the other hand, since the white line coordinates on the rear side are described in the vehicle coordinate system, Equation (17) is arranged for each point on the rear side, and the observation noise is added to the observation equation for the rear side white line. From the above, the observation equation used in the present embodiment is obtained as the following equation.

ただし、式(19)及び式(20)はそれぞれ式(18)のベクトルのj番目又はJ番目の成分をしており、式(19)が前方白線の点に対する観測方程式に、式(20)が後側方白線の点に対する観測方程式に対応する。なお、n、n、N及びNをそれぞれ前方左白線、前方右白線、後側方左白線及び後側方右白線の点の数とすれば、J=1〜(n+n)、J=(n+n+1)〜(n+n+N+N)となる。また、式(18)のwは各観測量に対応する観測ノイズであり、カルマンフィルタの理論体系では平均値が零、共分散行列がRの多変量正規分布に従うと仮定する。さらに、拡張カルマンフィルタでは式(18)の非線形関数gを時刻kで予測された状態変数の近傍で線形化することで観測行列Cを求める。すなわち、観測行列をC=∂g(x)/∂xのように計算する。 However, Eq. (19) and Eq. (20) respectively represent the j-th or J-th component of the vector of Eq. (18), and Eq. (19) becomes the observation equation for the front white line point Corresponds to the observation equation for the point of the back side white line. Assuming that n L , n R , N L and N R are the numbers of front left white line, front right white line, back side left white line and back side right white line, respectively, J = 1 to (n L + n R ), J = (n L + n R +1) to (n L + n R + N L + N R ). Further, w k in equation (18) is observation noise corresponding to each observation quantity, and in the Kalman filter theoretical system, it is assumed that the mean value is zero and the covariance matrix follows a multivariate normal distribution of R k . Furthermore, in the extended Kalman filter, the observation matrix C k is obtained by linearizing the non-linear function g k of equation (18) in the vicinity of the state variable predicted at time k. That is, the observation matrix is calculated as C k = ∂g k (x k ) / ∂x k .

[5.推定結果及び検討]
[5.1.推定条件]
推定対象の試験データは大小のカーブを含む試験路を走行時に車両前方の路面を撮影した映像データとした。その際、撮影に用いたカメラの諸元は表1のとおりである。
[5. Estimation result and examination]
[5.1. Estimation condition]
The test data to be estimated is video data obtained by photographing the road surface in front of the vehicle when traveling on a test road including large and small curves. At that time, the specifications of the camera used for photographing are as shown in Table 1.

ここで、uはピクセルあたりの実距離、x max及びy maxはそれぞれ画像の横及び縦方向の最大ピクセル数である。同データから画像処理により抽出された左右それぞれ10個の白線上の点の画面座標ならびに車両の速度V及びヨーレートγをカルマンフィルタへの入力データとした。また、後側方の白線については約3メートル間隔で左右それぞれ最大10個の点を生成し、カルマンフィルタの観測量として用いた。すなわち、n=n=N=N=10とした。 Here, u is the actual distance per pixel, and x p max and y p max are the maximum number of pixels in the horizontal and vertical directions of the image, respectively. The screen coordinates of points on each of ten left and right white lines extracted from the data by image processing and the speed V k of the vehicle and the yaw rate γ k are used as input data to the Kalman filter. In addition, for the white line on the back side, up to 10 points were generated at intervals of about 3 meters each on the left and right, and used as the observation quantity of the Kalman filter. That is, n L = n R = N L = N R = 10.

また、カルマンフィルタの設定値であるプロセスノイズ及び観測ノイズの共分散行列の各成分をそれぞれ式(21)及び式(22)のように定義した。   Further, the components of the covariance matrix of the process noise and the observation noise, which are the set values of the Kalman filter, are defined as in Equations (21) and (22).

ここで、曲率一定路を走行中にはより変動の少ない曲率の推定値が得られるようεの推定値に応じてQρk及びQεkの値を変化させるものとした。また、R〜R20は前方白線の観測ノイズに対する共分散、R21〜R40は後側方白線の観測ノイズに対する共分散である。以上の共分散行列の各成分の値を曲率の推定値が道路設計値と近くなり、同時に推定値のノイズが極力少なくなるよう調整し、推定に用いた。 Here, while traveling on a constant curvature road, the values of Q k k and Q ε k are changed according to the estimated value of ε so as to obtain an estimated value of curvature with less fluctuation. Further, R 1 to R 20 are covariances to the observation noise of the front white line, and R 21 to R 40 are covariance to the observation noise of the rear side white line. The value of each component of the covariance matrix was adjusted so that the estimated value of the curvature was close to the road design value and noise of the estimated value was minimized at the same time, and was used for the estimation.

さらに、次節では本実施の形態で提案したカルマンフィルタによる推定結果との比較のために参考文献1と同様に前方白線座標のみを観測量とし、二次曲線によって白線形状を近似する従来のカルマンフィルタによる推定結果を併せて掲載する。ただし、従来のカルマンフィルタに入力データとして与える白線上の点の画面座標は本実施の形態で提案したカルマンフィルタに対する入力と同様の値である。   Furthermore, in the next section, in order to compare with the estimation result by the Kalman filter proposed in the present embodiment, estimation by the conventional Kalman filter which makes only the forward white line coordinate an observable quantity and approximates the white line shape by a quadratic curve We will post the results together. However, the screen coordinates of the point on the white line given as input data to the conventional Kalman filter are values similar to the input to the Kalman filter proposed in this embodiment.

[5.2.推定結果]
図6に前節で述べた推定条件のカルマンフィルタによる曲率ρの推定値を示す。まず、図6(a)を見ると提案したカルマンフィルタによる曲線路での曲率の推定値は従来のカルマンフィルタによる推定値と同様に比較的道路設計値と近い値となっている。このことから提案モデルにおいて急な曲線路における最大曲率の推定性能が損なわれていないことがわかる。また、図6(b)はノイズ低減性能について比較するために図6(a)の0〜200sの区間を拡大した図である。同図において、提案モデルによる推定値は従来モデルによる推定値と比較して大きく振動が抑えられており、ノイズが減少している。さらに、このノイズの大きさを定量的に評価するために図6(b)の115〜173sの曲率一定の曲線路における曲率の平均値及び分散値を計算した結果を表2に示す。表2より、提案モデルでは従来モデルと比較して分散値が6分の1程度まで減少していることがわかる。
[5.2. Estimated result]
FIG. 6 shows estimated values of the curvature ρ by the Kalman filter under the estimation conditions described in the previous section. First, looking at FIG. 6 (a), the estimated value of the curvature on the curved road by the proposed Kalman filter is relatively close to the road design value, similarly to the estimated value by the conventional Kalman filter. From this, it can be understood that the estimation performance of the maximum curvature on a steep curved road is not impaired in the proposed model. Moreover, FIG.6 (b) is the figure which expanded the area of 0 to 200s of FIG. 6 (a), in order to compare about noise reduction performance. In the figure, the estimated value by the proposed model is largely suppressed from vibration compared to the estimated value by the conventional model, and the noise is reduced. Furthermore, in order to evaluate the magnitude | size of this noise quantitatively, the result of having calculated the average value and dispersion value of the curvature in the curve path of constant curvature 115-173s of FIG.6 (b) is shown in FIG. It can be seen from Table 2 that in the proposed model, the variance value is reduced to about 1⁄6 compared to the conventional model.

次に、従来モデル及び提案モデルによる車線中心線までの横変位Uc及び白線に対する方位角θの推定値をそれぞれ図7及び図8に示す。図7及び図8のいずれにおいても提案モデルを用いた場合には従来モデルと比較して推定値の細かい振動が少なくなっており、ノイズが減少していると言える。なお、横変位及び方位角は車両の運動に依存して値が変化するため、道路設計値が既知である曲率のように推定値の正確性について議論することは難しい。ただし、提案モデルによる横変位及び方位角の推定値は従来モデルによる推定値の平均的挙動とほぼ一致しており、提案モデルの推定精度に特に問題はないと考えられる。   Next, estimated values of the lateral displacement Uc to the lane center line and the azimuth angle θ with respect to the white line according to the conventional model and the proposed model are shown in FIGS. 7 and 8, respectively. When the proposed model is used in any of FIGS. 7 and 8, fine vibrations of the estimated value are reduced compared to the conventional model, and it can be said that noise is reduced. It should be noted that it is difficult to discuss the accuracy of the estimate, such as curvature, where the road design value is known, as the lateral displacement and the azimuth angle change depending on the motion of the vehicle. However, the estimated values of the lateral displacement and azimuth angle by the proposed model almost agree with the average behavior of the estimated values by the conventional model, and it is considered that there is no particular problem in the estimation accuracy of the proposed model.

以上のように本実施の形態で提案したモデルを用いることで、各状態変数の推定ノイズが低減される理由は次のように考えられる。まず、後側方の白線座標は横変位の推定値、すなわちカルマンフィルタにより一度フィルタリングされた値及び車両の運動の情報のみから算出している。そのため、車速及びヨーレートを取得する慣性センサのノイズは含まれるもののカメラによる観測ノイズが直接含まれていない。したがって、後側方白線の座標は前方白線の座標と比較してノイズが少なく、これが観測量に加わることで推定値も低ノイズ化したと考えられる。   The reason why the estimation noise of each state variable is reduced by using the model proposed in the present embodiment as described above is considered as follows. First, the white line coordinate on the rear side is calculated only from the estimated value of the lateral displacement, that is, the value once filtered by the Kalman filter and the information of the motion of the vehicle. Therefore, although the noise of the inertial sensor that acquires the vehicle speed and the yaw rate is included, the observation noise by the camera is not directly included. Therefore, it is considered that the coordinates of the rear side white line have less noise as compared with the coordinates of the front white line, and the estimated value is also reduced in noise by adding this to the observation amount.

[6.結言]
本実施の形態では、前方カメラの映像から検出された白線の画面座標から実際の白線の位置及び形状を推定する白線状態推定問題において、前方白線に加え、新たに後側方の白線の座標を観測量に加えるカルマンフィルタを構築した。その際、後側方の白線の座標を後方カメラにより検出するのではなく、過去の車両の運動の情報を用いて推定した。また、白線形状の近似方程式として道路のクロソイドパラメータを考慮可能な三次曲線を採用した。上述の新たに構築したカルマンフィルタを用いることで、車両走行時の白線状態推定において後側方の白線を用いない従来のカルマンフィルタと同程度の最大曲率を推定すると同時に推定値のノイズを大きく減らすことが可能となった。
[6. Conclusion]
In this embodiment, in addition to the front white line, the coordinates of the white line on the rear side are newly added in the white line state estimation problem in which the position and shape of the white line are actually estimated from the screen coordinates of the white line detected from the image of the front camera. We constructed a Kalman filter to add to the observables. At that time, the coordinates of the white line on the rear side were not detected by the rear camera but estimated using information on the motion of the vehicle in the past. In addition, a cubic curve capable of taking into account the clothoid parameters of the road was adopted as an approximation equation of the white line shape. By using the newly constructed Kalman filter described above, it is possible to estimate the maximum curvature similar to that of the conventional Kalman filter that does not use the rear side white line in the white line state estimation when the vehicle is running and at the same time greatly reduce the noise of the estimated value. It has become possible.

[参考文献]
(1)白土良太、古性裕之、毛利宏、辻正文、“画像処理による道路形状・車両挙動の推定”、自動車技術会学術講演会前刷集、 No.115-00, 178(2000), pp. 13-16.
(2)田中裕也、早瀬茂規、嘉藤俊介、萬谷潔、工藤真、“デジタル地図とカメラセンサ情報の統合によるレーンレベルの自己位置推定”、公益社団法人自動車技術会
2017年春季大会学術講演会講演予稿集、 030(2017), pp. 160-165.
(3)足立修一、丸太一郎、カルマンフィルタの基礎(2012)、東京電気大学出版局。
(4)社団法人日本道路協会、道路構造令の解説と運用(2004)、丸善株式会社。
[Reference]
(1) Ryota Shirato, Hiroyuki Oldness, Hiroshi Mori, Masafumi Taki, "Estimation of road shape and vehicle behavior by image processing", Proceedings of the Society of Automotive Engineers of Japan, No. 115-00, 178 (2000), pp. 13-16.
(2) Yuya Tanaka, Shigeki Hayase, Shunsuke Katoh, Kiyoshi Sugaya, Makoto Kudoh, "Self-position estimation of lane level by integration of digital map and camera sensor information", Japan Institute of Automotive Technology
Proceedings of 2017 Spring Conference Conference Lecture, 030 (2017), pp. 160-165.
(3) Shuichi Adachi, Ichiro Maruta, Kalman Filter Basics (2012), Tokyo Electric University Press.
(4) Japan Road Association, commentary and operation of Road Structure Ordinance (2004), Maruzen Co., Ltd.

<具体例>
以上を前提技術として、実施の形態について説明する。
図9は、実施の形態に係る情報処理システムSの概要を説明するための模式図である。図9に示す例では、情報処理システムSは運転者Dが運転する車両Vに搭載されており、情報処理装置1、カメラ2、及びセンサ3を含んでいる。なお、実施の形態に係る情報処理システムSは、運転者Dが搭乗しない自動運転で走行する車両Vに搭載されてもよい。
<Specific example>
The embodiment will be described with the above as a premise technology.
FIG. 9 is a schematic view for explaining an outline of the information processing system S according to the embodiment. In the example shown in FIG. 9, the information processing system S is mounted on a vehicle V driven by the driver D, and includes an information processing device 1, a camera 2, and a sensor 3. Information processing system S concerning an embodiment may be carried in vehicles V which run by automatic operation which driver D does not board.

カメラ2は、車両Vの進行方向前方の道路を被写体に含む画像である前方画像を取得する。カメラ2は、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の既知の固体撮像素子を用いて実現される。   The camera 2 acquires a front image which is an image including a road ahead of the traveling direction of the vehicle V as a subject. The camera 2 is realized by using a known solid-state imaging device such as, for example, a charge coupled device (CCD) image sensor or a complementary metal oxide semiconductor (CMOS) image sensor.

センサ3は、車両Vの走行状態を取得する。具体的には、センサ3は、車両Vの速度、車両Vの加速度、車両Vのヨー角の変化する速さヨーレート等の物理量を、車両Vの走行状態として取得する。   The sensor 3 acquires the traveling state of the vehicle V. Specifically, the sensor 3 acquires physical quantities such as the speed of the vehicle V, the acceleration of the vehicle V, and the speed yaw rate at which the yaw angle of the vehicle V changes as the traveling state of the vehicle V.

情報処理装置1は、前方画像と走行状態とに基づいて、道路に存在する白線の状態を示す変数を含む状態変数を推定する。以下、情報処理装置1の推定処理について図10を参照して説明する。   The information processing device 1 estimates a state variable including a variable indicating the state of the white line present on the road based on the forward image and the traveling state. Hereinafter, the estimation process of the information processing device 1 will be described with reference to FIG.

図10は、実施の形態に係る情報処理装置1の機能構成を模式的に示す図である。実施の形態に係る情報処理装置1は、記憶部10と制御部11とを備える。   FIG. 10 is a diagram schematically showing a functional configuration of the information processing device 1 according to the embodiment. An information processing apparatus 1 according to the embodiment includes a storage unit 10 and a control unit 11.

記憶部10は、HDD(Hard Disc Drive)やSSD(Solid State Drive)等の不揮発性記憶装置、及びDRAM(Dynamic Random Access Memory)等の一時記憶部を含む。不揮発性記憶装置は、実施の形態に係る情報処理装置1を実現するための各種プログラム及びデータベースの格納部として機能する。一時記憶部は、制御部11の作業メモリとして機能する。   The storage unit 10 includes a non-volatile storage device such as a Hard Disc Drive (HDD) or a Solid State Drive (SSD), and a temporary storage unit such as a Dynamic Random Access Memory (DRAM). The non-volatile storage device functions as a storage unit for various programs and databases for realizing the information processing device 1 according to the embodiment. The temporary storage unit functions as a working memory of the control unit 11.

制御部11は、車両VのECU(Electronic Control Unit)等のプロセッサである。制御部11は、記憶部10に格納されているプログラムを実行することにより、白線位置推定部110、座標変換部111、前方座標検出部112、及び状態推定部113として機能する。   The control unit 11 is a processor such as an ECU (Electronic Control Unit) of the vehicle V. The control unit 11 functions as the white line position estimation unit 110, the coordinate conversion unit 111, the front coordinate detection unit 112, and the state estimation unit 113 by executing the program stored in the storage unit 10.

白線位置推定部110は、推定されている状態変数に基づいて、道路に存在する白線の位置の推定値である推定座標を算出する。前提技術の[4.2.状態方程式]において説明したように、情報処理装置1が用いるカルマンフィルタの状態変数には、車両中心から車線中心までの横変位Uc及び車線幅Wが含まれる。これらの状態変数を用いることにより、白線位置推定部110は、前提技術の[2.画面座標系及び車両座標系]で説明した車両座標系における車両Vの真横に存在する白線の位置の推定値を推定する。   The white line position estimation unit 110 calculates estimated coordinates, which are estimated values of the position of the white line present on the road, based on the state variable being estimated. Prerequisite technology [4.2. As described in the equation of state, the state variables of the Kalman filter used by the information processing apparatus 1 include the lateral displacement Uc from the vehicle center to the lane center and the lane width W. By using these state variables, the white line position estimation unit 110 can be configured as in [2. The estimated value of the position of the white line present immediately beside the vehicle V in the vehicle coordinate system described in the screen coordinate system and the vehicle coordinate system is estimated.

なお、情報処理装置1が用いるカルマンフィルタの状態変数には、車両中心から車線中心までの横変位Uc及び車線幅Wの他、白線の曲率ρ及び白線の接線に対する車両Vの方位角θも含まれる。白線位置推定部110は、これらの情報を用いることにより、車両Vの真横に存在する白線の位置に加えて、車両Vの前後に存在する白線の位置を推定してもよい。   The state variables of the Kalman filter used by the information processing apparatus 1 include the lateral displacement Uc from the vehicle center to the lane center and the lane width W, as well as the curvature ρ of the white line and the azimuth angle θ of the vehicle V with respect to the tangent of the white line. . The white line position estimation unit 110 may estimate the position of the white line present before and after the vehicle V in addition to the position of the white line present immediately beside the vehicle V by using these pieces of information.

座標変換部111は、車両Vの走行状態に基づいて、白線位置推定部110が過去に算出した推定座標を、車両Vの進行方向後方に存在する白線の位置を示す後方座標に変換する。   The coordinate conversion unit 111 converts the estimated coordinates calculated in the past by the white line position estimation unit 110 into rear coordinates indicating the position of the white line present behind the traveling direction of the vehicle V based on the traveling state of the vehicle V.

車両Vは走行しているため、車両座標系の原点は刻一刻と変化する。したがって、白線位置推定部110がある時刻に算出した推定座標と、別の時刻に算出した推定座標とは、座標系の原点が異なることになる。   Since the vehicle V is traveling, the origin of the vehicle coordinate system changes every moment. Therefore, the estimated coordinates calculated at a certain time by the white line position estimation unit 110 and the estimated coordinates calculated at another time are different in the origin of the coordinate system.

そこで、座標変換部111は、車両Vの速度とヨーレートとを走行状態として取得する。座標変換部111は、車両Vの速度とヨーレートとに基づいて、処理対象としている前方画像の撮像時刻よりも過去において白線位置推定部110が算出した推定座標を、現在の車両座標系における座標に変換する。具体的には、座標変換部111は、前提技術の[3.後側方の白線座標の計算方法]で説明した式(4)及び式(5)に基づいて、白線位置推定部110が過去に算出した推定座標を車両座標系における後方座標に変換する。   Therefore, the coordinate conversion unit 111 acquires the speed of the vehicle V and the yaw rate as the traveling state. The coordinate conversion unit 111 sets the estimated coordinates calculated by the white line position estimation unit 110 in the past to the coordinates in the current vehicle coordinate system before the imaging time of the front image to be processed based on the velocity and the yaw rate of the vehicle V. Convert. Specifically, the coordinate conversion unit 111 is based on [3. Calculation Method of White Line Coordinates on the Rear Side] The estimated coordinates calculated in the past by the white line position estimation unit 110 are converted to rear coordinates in the vehicle coordinate system based on the equations (4) and (5) described in the following.

なお、座標変換部111は、前提技術の[3.後側方の白線座標の計算方法]で説明したように、後側方の点が存在しない場合又は前回新しい後側方の点を生成してから一定距離を走行した際には、式(6)及び式(7)に基づいて車両Vの真横に新しく点を生成する。その後、座標変換部111は、式(8)及び式(9)に基づいて、既存の後側方の点の座標を現在の車両座標系における座標に変換する。   Note that the coordinate conversion unit 111 is based on [3. As described in “Calculation method of white-line coordinates of rear side”, when a rear side point does not exist or when a certain distance is traveled after generating a new rear side point last time, the equation (6 And a new point is generated next to the vehicle V based on the equation (7). After that, the coordinate conversion unit 111 converts the coordinates of the existing rear side point into the coordinates in the current vehicle coordinate system, based on Expression (8) and Expression (9).

このように、座標変換部111は、状態変数に基づいて推定された白線位置である前方座標を座標変換することにより、後方座標を算出する。したがって、座標変換部111が算出する後方座標も、状態変数に基づく推定値であり、センサ3が撮像した前方画像を解析することによって直接得られた検出値ではない。   As described above, the coordinate conversion unit 111 calculates the rear coordinates by converting the front coordinates that are the white line positions estimated based on the state variables. Therefore, the backward coordinate calculated by the coordinate conversion unit 111 is also an estimated value based on the state variable, and is not a detection value directly obtained by analyzing the forward image captured by the sensor 3.

前方座標検出部112は、カメラ2が取得した前方画像から、その前方画像に存在する白線の位置を示す座標である前方座標を検出する。したがって、前方座標検出部112が検出する前方座標は、前方画像を基準として設定された座標軸における座標である。このように、前方座標は前方画像から直接検出された測定値であり、この点で推定値である後方座標とは異なる。   The front coordinate detection unit 112 detects, from the front image acquired by the camera 2, front coordinates which are coordinates indicating the position of a white line present in the front image. Therefore, the forward coordinates detected by the forward coordinate detection unit 112 are coordinates on a coordinate axis set based on the forward image. Thus, the forward coordinate is a measurement directly detected from the forward image, which is different from the backward coordinate which is an estimated value at this point.

状態推定部113は、座標変換部111が算出した後方座標と前方座標検出部112が検出した前方座標とを観測量とし、状態変数の状態空間モデルを用いて状態変数の推定値を更新する。具体的には、状態推定部113は、前提技術の[4.白線状態推定のカルマンフィルタ]で説明したアルゴリズムに基づいて、状態変数を更新する。   The state estimation unit 113 updates the estimated value of the state variable using the state space model of the state variable, with the backward coordinate calculated by the coordinate conversion unit 111 and the forward coordinate detected by the forward coordinate detection unit 112 as an observation amount. Specifically, the state estimation unit 113 is based on [4. State variables are updated based on the algorithm described in [Kalman filter of white line state estimation].

後方座標は、状態変数に基づいて導出された座標であるため、厳密には「観測量」ではない。しかしながら、実施の形態に係る情報処理装置1は、前方座標検出部112が前方画像から直接検出した前方座標のみならず、後方座標も「観測量」とみなして状態変数を更新する。   Since the back coordinates are coordinates derived based on the state variables, they are not strictly "observable quantities". However, the information processing apparatus 1 according to the embodiment updates the state variable by regarding not only the front coordinates detected by the front coordinate detection unit 112 directly from the front image but also the rear coordinates as the “observation amount”.

後方座標はカルマンフィルタを用いて推定された状態変数に由来するため、前方画像から直接検出された前方座標よりもノイズが小さいことが期待できる。このため、前方座標のみを観測量として状態変数を更新する場合と比較して、状態変数の推定値のノイズが低減されることが期待できる。ゆえに、実施の形態に係る情報処理装置1は、白線認識におけるノイズの低減に効果がある。さらに、何らかの理由でカメラ2が前方画像の撮像に失敗したり、前方画像における白線の検出に失敗したりしても、後方座標に基づいて状態変数の推定を継続することができる。   Since the back coordinates are derived from the state variables estimated using the Kalman filter, it can be expected that the noise is smaller than the front coordinates detected directly from the front image. For this reason, it can be expected that the noise of the estimated value of the state variable is reduced as compared with the case where the state variable is updated with only the forward coordinates as the observation amount. Therefore, the information processing apparatus 1 according to the embodiment is effective in reducing noise in white line recognition. Furthermore, even if the camera 2 fails to capture the forward image for some reason or fails to detect the white line in the forward image, estimation of the state variable can be continued based on the backward coordinates.

前提技術の[4.2.状態方程式]において説明したように、我が国の道路は直線路、曲率一定の曲線路及び曲率が曲線長に比例して変化する緩和曲線路、すなわち、クロソイド曲線によって構成されている。ここで、直線路、曲率一定の曲線路は、道路を走行する車両Vの正面の方向に対する曲率の変化率が0であり、クロソイド曲線は車両Vの正面方向に対する曲率の変化率が一定である。いずれにしても、車両Vの正面方向に対する曲率の変化率を用いて表現できる。   Prerequisite technology [4.2. As described in the equation of state, a road in Japan is constituted by a straight road, a curved road with a constant curvature, and a relaxation curved road in which the curvature changes in proportion to the curve length, that is, a clothoid curve. Here, in a straight road and a curved road with a constant curvature, the rate of change of curvature with respect to the direction of the front of the vehicle V traveling on the road is 0, and with the clothoid curve, the rate of change of the curvature with respect to the front of the vehicle V is constant. . In any case, it can be expressed using the rate of change of curvature with respect to the front direction of the vehicle V.

そこで、実施の形態に係る状態推定部113は、白線の曲率及び車両Vの正面方向に対する曲率の変化率を状態変数に含む状態空間モデルを用いて、状態変数の推定値を更新する。特に、式(16)に示すように、曲率ρの更新はプロセスノイズによる変動に加え、その時点で推定されている曲率の変化率εに車両Vの移動量を乗じた値も変動するようにモデル化されている。これにより、実施の形態に係る状態推定部113は、実際の道路形状の特性を状態変数の更新に反映させることができる。   Therefore, the state estimation unit 113 according to the embodiment updates the estimated value of the state variable using the state space model including the curvature of the white line and the rate of change of the curvature of the vehicle V in the front direction in the state variable. In particular, as shown in equation (16), the update of the curvature は is added to the change due to the process noise so that the value obtained by multiplying the movement rate of the vehicle V by the change rate ε of the curvature estimated at that time also changes. It is modeled. Thereby, the state estimation unit 113 according to the embodiment can reflect the characteristics of the actual road shape in the update of the state variable.

前提技術の[4.1.カルマンフィルタの構成]において説明したように、状態推定部113は状態変数の時間遷移を表す状態方程式と、観測量と状態変数との関係を記述する観測方程式とを含むカルマンフィルタを用いて状態変数の推定値を更新する。ここで、情報処理装置1は、白線がクロソイド曲線に基づく道路に沿って存在していることを仮定している。   Prerequisite technology [4.1. As described in [Kalman filter configuration], the state estimation unit 113 estimates the state variable using the Kalman filter including the state equation representing time transition of the state variable and the observation equation describing the relationship between the observation amount and the state variable. Update the value Here, the information processing apparatus 1 assumes that the white line exists along the road based on the clothoid curve.

より具体的には、実施の形態に係る情報処理装置1において、式(17)で示すクロソイド曲線を近似する三次曲線として白線がモデル化されており、観測方程式は式(17)に基づいて構築される。なお、前方白線に対する観測方程式は式(19)に示すように状態変数に関する非線形関数として記述されている。そこで、状態推定部113は、前提技術の[4.3.観測方程式]で説明したように、式(18)のgを時刻kで予測された状態変数の近傍で線形化することで観測行列Ckを求める。 More specifically, in the information processing apparatus 1 according to the embodiment, the white line is modeled as a cubic curve approximating the clothoid curve shown in equation (17), and the observation equation is constructed based on equation (17) Be done. The observation equation for the front white line is described as a non-linear function related to the state variable as shown in equation (19). Therefore, the state estimation unit 113 uses [4.3. As described in the observation equation], the observation matrix Ck is determined by linearizing g k in equation (18) in the vicinity of the state variable predicted at time k.

このように、実施の形態に係る状態推定部113は、実際の道路形状の特性を観測方程式に反映させているので、状態変数の推定精度をより高めることができる。   As described above, the state estimation unit 113 according to the embodiment reflects the characteristics of the actual road shape in the observation equation, so that the estimation accuracy of the state variable can be further enhanced.

図11は、実施の形態に係る情報処理装置1が実行する状態変数の更新処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば車両Vのエンジンが始動したときに開始する。   FIG. 11 is a flowchart for explaining the flow of the process of updating state variables performed by the information processing device 1 according to the embodiment. The process in this flowchart starts, for example, when the engine of the vehicle V is started.

白線位置推定部110は、道路に存在する白線の状態を示す変数を含む状態変数に基づいて、白線の位置の推定値である推定座標を算出する(S2)。座標変換部111は、車両Vの走行状態に基づいて、白線位置推定部110が過去に算出した推定座標を、車両Vの進行方向後方に存在する白線の位置を示す後方座標に変換する(S4)。   The white line position estimation unit 110 calculates estimated coordinates, which are estimated values of the position of the white line, based on the state variable including the variable indicating the state of the white line present on the road (S2). The coordinate conversion unit 111 converts the estimated coordinates calculated in the past by the white line position estimation unit 110 into rear coordinates indicating the position of the white line located behind the traveling direction of the vehicle V based on the traveling state of the vehicle V (S4 ).

前方座標検出部112は、カメラ2が撮像した前方画像に存在する白線の位置を示す画面座標系における座標である前方座標を、前方画像から検出する(S6)。状態推定部113は、後方座標と前方座標とを観測量とし、状態変数のカルマンフィルタを用いて状態変数の推定値を更新する(S8)。   The front coordinate detection unit 112 detects, from the front image, front coordinates that are coordinates in the screen coordinate system that indicate the position of the white line present in the front image captured by the camera 2 (S6). The state estimation unit 113 updates the estimated value of the state variable using the Kalman filter of the state variable with the back coordinate and the front coordinate as the observation amount (S8).

状態変数の更新処理を継続する間(S10のNo)、情報処理装置1はステップS2に戻り、更新後の状態変数に基づいてステップS2からステップS8までの処理を繰り返す。これにより、車両Vが走行中であっても、過去に推定した状態変数に基づく白線位置の推定値を後方座標に変換し、その変換座標を観測量に含めて状態変数を更新することができる。   While continuing the process of updating the state variable (No in S10), the information processing apparatus 1 returns to step S2, and repeats the process from step S2 to step S8 based on the updated state variable. Thereby, even when the vehicle V is traveling, the estimated value of the white line position based on the state variable estimated in the past can be converted to the rear coordinates, and the converted coordinates can be included in the observation amount to update the state variable. .

例えば、車両Vのエンジンが停止する等の理由によって状態変数の更新処理を終了すると(S10のYes)、本フローチャートにおける処理は終了する。   For example, when the update process of the state variable is ended due to the reason that the engine of the vehicle V is stopped (Yes in S10), the process in this flowchart is ended.

以上説明したように、実施の形態に係る情報処理装置1によれば、白線認識におけるノイズを低減することができる。さらに、何らかの理由でカメラ2が前方画像の撮像に失敗したり、前方画像における白線の検出に失敗したりしても、後方座標に基づいて状態変数の推定を継続することができる。   As described above, according to the information processing apparatus 1 according to the embodiment, noise in white line recognition can be reduced. Furthermore, even if the camera 2 fails to capture the forward image for some reason or fails to detect the white line in the forward image, estimation of the state variable can be continued based on the backward coordinates.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。   As mentioned above, although the present invention was explained using an embodiment, the technical scope of the present invention is not limited to the range given in the above-mentioned embodiment, and various modification and change are possible within the range of the gist. is there. For example, a specific embodiment of device distribution and integration is not limited to the above embodiment, and all or a part thereof may be functionally or physically distributed and integrated in any unit. Can. In addition, new embodiments produced by any combination of a plurality of embodiments are also included in the embodiments of the present invention. The effects of the new embodiment generated by the combination combine the effects of the original embodiment.

1・・・情報処理装置
10・・・記憶部
11・・・制御部
110・・・白線位置推定部
111・・・座標変換部
112・・・前方座標検出部
113・・・状態推定部
2・・・カメラ
3・・・センサ
S・・・情報処理システム

1 ... information processing device 10 ... storage unit 11 ... control unit 110 ... white line position estimation unit 111 ... coordinate conversion unit 112 ... forward coordinate detection unit 113 ... state estimation unit 2 ... Camera 3 ... Sensor S ... Information processing system

Claims (5)

車両の走行状態と、前記車両の進行方向前方の道路を被写体に含む画像である前方画像とに基づいて、前記道路に存在する白線の状態を示す変数を含む状態変数を推定するための情報処理装置であって、
推定した前記状態変数に基づいて、前記道路に存在する白線の位置の推定値である推定座標を算出する白線位置推定部と、
前記走行状態に基づいて、前記白線位置推定部が過去に算出した推定座標を、前記車両の進行方向後方に存在する白線の位置を示す後方座標に変換する座標変換部と、
前記前方画像を基準として設定された座標軸における座標であって、前記前方画像に存在する白線の位置を示す座標である前方座標を、前記前方画像から検出する前方座標検出部と、
前記後方座標と前記前方座標とを観測量とし、前記状態変数の状態空間モデルを用いて前記状態変数の推定値を更新する状態推定部と、を備える、
情報処理装置。
Information processing for estimating a state variable including a variable indicating a state of a white line present on the road based on a traveling state of the vehicle and a forward image which is an image including the road ahead of the traveling direction of the vehicle as a subject A device,
A white line position estimation unit that calculates estimated coordinates that are estimated values of the position of the white line present on the road based on the estimated state variable;
A coordinate conversion unit configured to convert estimated coordinates calculated in the past by the white line position estimation unit based on the traveling state into rear coordinates indicating a position of a white line present behind the traveling direction of the vehicle;
A front coordinate detection unit that detects from the front image a front coordinate that is a coordinate on a coordinate axis set based on the front image and that is a coordinate indicating a position of a white line present in the front image;
A state estimation unit that updates the estimated value of the state variable using the state space model of the state variable, with the back coordinate and the front coordinate as an observation amount;
Information processing device.
前記状態推定部は、前記白線の曲率及び前記車両の正面方向に対する前記曲率の変化率を前記状態変数に含む状態空間モデルを用いて、前記状態変数の推定値を更新する、
請求項1に記載の情報処理装置。
The state estimation unit updates the estimated value of the state variable using a state space model including the curvature of the white line and the rate of change of the curvature with respect to the front direction of the vehicle in the state variable.
An information processing apparatus according to claim 1.
前記座標変換部は、前記車両の速度とヨーレートとを前記走行状態として取得し、前記前方画像の撮像時刻よりも過去において前記白線位置推定部が算出した前記推定座標を、前記後方座標に変換する、
請求項1又は2に記載の情報処理装置。
The coordinate conversion unit acquires the speed and the yaw rate of the vehicle as the traveling state, and converts the estimated coordinates calculated by the white line position estimation unit in the past before the imaging time of the front image into the rear coordinates. ,
The information processing apparatus according to claim 1.
前記状態推定部は、前記状態変数の時間遷移を表す状態方程式と、前記観測量と前記状態変数との関係を記述する観測方程式とを含むカルマンフィルタを用いて前記状態変数の推定値を更新し、
前記観測方程式は、クロソイド曲線を近似する曲線で前記白線をモデル化した方程式である、
請求項1から3のいずれか一項に記載の情報処理装置。
The state estimation unit updates the estimated value of the state variable using a Kalman filter including a state equation representing time transition of the state variable and an observation equation describing the relationship between the observation amount and the state variable;
The observation equation is an equation that models the white line with a curve that approximates a clothoid curve,
The information processing apparatus according to any one of claims 1 to 3.
車両に搭載される情報処理システムであって、
前記車両の進行方向前方の道路を被写体に含む画像である前方画像を取得するカメラと、
前記車両の走行状態を取得するセンサと、
請求項1から4のいずれか一項に記載の情報処理装置と、
を備える情報処理システム。

An information processing system mounted on a vehicle,
A camera for acquiring a front image which is an image including a road ahead of the traveling direction of the vehicle as a subject;
A sensor for acquiring the traveling state of the vehicle;
The information processing apparatus according to any one of claims 1 to 4.
An information processing system comprising:

JP2017230886A 2017-11-30 2017-11-30 Information processing equipment and information processing system Active JP6992452B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017230886A JP6992452B2 (en) 2017-11-30 2017-11-30 Information processing equipment and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017230886A JP6992452B2 (en) 2017-11-30 2017-11-30 Information processing equipment and information processing system

Publications (2)

Publication Number Publication Date
JP2019101671A true JP2019101671A (en) 2019-06-24
JP6992452B2 JP6992452B2 (en) 2022-01-13

Family

ID=66973700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017230886A Active JP6992452B2 (en) 2017-11-30 2017-11-30 Information processing equipment and information processing system

Country Status (1)

Country Link
JP (1) JP6992452B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7332005B1 (en) 2022-08-25 2023-08-23 いすゞ自動車株式会社 Control device and control method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109695A (en) * 2000-10-02 2002-04-12 Nissan Motor Co Ltd Traveling road recognition device for vehicle
JP2007264714A (en) * 2006-03-27 2007-10-11 Fuji Heavy Ind Ltd Lane recognition device
JP2013196341A (en) * 2012-03-19 2013-09-30 Nippon Soken Inc Traveling section line recognition device and program
JP2015090584A (en) * 2013-11-06 2015-05-11 富士重工業株式会社 Lane recognition determination device
JP2017105260A (en) * 2015-12-07 2017-06-15 株式会社豊田中央研究所 Course parameter estimation device and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109695A (en) * 2000-10-02 2002-04-12 Nissan Motor Co Ltd Traveling road recognition device for vehicle
JP2007264714A (en) * 2006-03-27 2007-10-11 Fuji Heavy Ind Ltd Lane recognition device
JP2013196341A (en) * 2012-03-19 2013-09-30 Nippon Soken Inc Traveling section line recognition device and program
JP2015090584A (en) * 2013-11-06 2015-05-11 富士重工業株式会社 Lane recognition determination device
JP2017105260A (en) * 2015-12-07 2017-06-15 株式会社豊田中央研究所 Course parameter estimation device and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7332005B1 (en) 2022-08-25 2023-08-23 いすゞ自動車株式会社 Control device and control method
JP2024031041A (en) * 2022-08-25 2024-03-07 いすゞ自動車株式会社 Control device and control method

Also Published As

Publication number Publication date
JP6992452B2 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
CN108520536B (en) Disparity map generation method and device and terminal
CN109084782B (en) Lane line map construction method and construction system based on camera sensor
JP3719095B2 (en) Behavior detection apparatus and gradient detection method
JP6350374B2 (en) Road surface detection device
JP4733545B2 (en) Lane recognition device
US11887336B2 (en) Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle
KR101566910B1 (en) Driver assistance apparatus and method
JP2007263669A (en) Three-dimensional coordinates acquisition system
JP6712775B2 (en) Road surface estimation device, vehicle control device, road surface estimation method, and program
CN109922258B (en) Electronic image stabilizing method and device for vehicle-mounted camera and readable storage medium
JP7173471B2 (en) 3D position estimation device and program
CN113740871A (en) Laser SLAM method, system equipment and storage medium in high dynamic environment
CN114972427A (en) Target tracking method based on monocular vision, terminal equipment and storage medium
JP6768554B2 (en) Calibration device
CN111989541B (en) Stereo camera device
US11619495B2 (en) Position estimating apparatus and position estimating method
JP6992452B2 (en) Information processing equipment and information processing system
JP2020118575A (en) Inter-vehicle distance measurement device, error model generation device, learning model generation device, and method and program thereof
CN113643355A (en) Method and system for detecting position and orientation of target vehicle and storage medium
CN114913500B (en) Pose determination method and device, computer equipment and storage medium
JP2015158418A (en) Self position calculation apparatus and self position calculation method
JP6959032B2 (en) Position estimation device, moving device
JP6398217B2 (en) Self-position calculation device and self-position calculation method
US11461928B2 (en) Location estimation apparatus
CN113870367A (en) Method, apparatus, device, storage medium and program product for generating camera external parameters

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211122

R150 Certificate of patent or registration of utility model

Ref document number: 6992452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150