JPH0793693A - Object detector for vehicle - Google Patents
Object detector for vehicleInfo
- Publication number
- JPH0793693A JPH0793693A JP23459493A JP23459493A JPH0793693A JP H0793693 A JPH0793693 A JP H0793693A JP 23459493 A JP23459493 A JP 23459493A JP 23459493 A JP23459493 A JP 23459493A JP H0793693 A JPH0793693 A JP H0793693A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- road
- parameter
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、例えば車両の自動操縦
や予防安全運転のために、車両の進行方向前方の車両等
の物体を検出する車両用物体検出装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle object detection device for detecting an object such as a vehicle ahead of the vehicle in the traveling direction of the vehicle, for example, for automatic control of the vehicle or for preventive safe driving.
【0002】[0002]
【従来の技術】従来のこの種の車両用物体検出装置とし
て、例えば特開平4−36878号公報に開示されたも
のがある。この開示された車両用物体検出装置では、走
行路の検出後、走行路の内側でエッジ点の検出を行い、
エッジの端が、ある時間連続して存在した時、物体とし
て検出される。2. Description of the Related Art A conventional object detecting device for a vehicle of this type is disclosed in, for example, Japanese Patent Application Laid-Open No. 4-36878. In the disclosed object detection device for a vehicle, after detecting the traveling road, the edge point is detected inside the traveling road,
An edge is detected as an object when it exists continuously for a certain period of time.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、従来の
この種の車両用物体検出装置の場合においては、車両の
進行方向前方に車両等の物体が存在するか否かを単にエ
ッジの有無を検出することのみに依存して検出する検出
手法となっていたため、特に、道路面上に描かれた文字
や模様なども、物体として誤検出してしまうことも起り
得るという問題点があった。However, in the case of the conventional object detecting device for a vehicle of this kind, it is simply detected whether or not an object such as a vehicle exists ahead of the traveling direction of the vehicle by detecting the presence or absence of an edge. Since the detection method depends only on the fact, there is a problem that characters and patterns drawn on the road surface may be erroneously detected as objects.
【0004】本発明は、上記した問題点に着目してなさ
れたものであり、その目的とするところは、道路面の文
字や模様と車両等の物体との相違を正しく識別して、そ
の物体を精度良く検出することができる車両用物体検出
装置を提供することにある。The present invention has been made by paying attention to the above-mentioned problems, and an object of the present invention is to correctly identify a difference between a character or a pattern on a road surface and an object such as a vehicle, and to identify the object. An object of the present invention is to provide an object detection device for a vehicle, which is capable of accurately detecting.
【0005】[0005]
【課題を解決するための手段】上記の目的を達成するた
め、本発明は、図1に示す如く、車両の進行方向前方の
道路を撮像する撮像手段101と、該撮像手段101で
撮像した画像から少なくとも白線又は障害物の候補点を
表わす特徴を抽出する前処理手段102と、3次元曲線
パラメータに基づいて3次元座標上で定義された3次元
道路モデルを演算する道路モデル演算手段103と、該
道路モデル演算手段で演算された3次元道路モデルを前
記撮像手段の姿勢パラメータに基づいて画像座標に変換
する座標変換手段104と、前記前処理手段により抽出
した前記少なくとも白線又は障害物の候補点を表わす特
徴と前記座標変換手段で座標変換された前記3次元道路
モデルとを比較して、両者間の位置ずれを検出する位置
ずれ検出手段105と、該位置ずれ検出手段で検出した
位置ずれから前記3次元曲線パラメータの変化量および
前記撮像手段の姿勢パラメータの変化量を演算する変化
量演算手段106と、前記両パラメータの変化量に基づ
き前記車両位置パラメータ及び前記姿勢パラメータを更
新する更新手段107と、該更新手段107により更新
された前記撮像手段101の姿勢パラメータに基づい
て、前記エッジ部を表わす特徴の時間的移動を、前記3
次元道路モデルで表わされる道路面上での移動量に座標
変換して前記画像中の特徴点の見かけの移動速度を計測
する見かけ移動速度計測手段108と、該見かけ移動速
度計測手段で計測された前記画像中の特徴点の見かけの
移動速度を車速と比較して車両の進行方向前方に物体が
存在するか否かを判定する物体判定手段109とを有す
ることを特徴とする。In order to achieve the above object, the present invention, as shown in FIG. 1, is an image pickup means 101 for picking up an image of a road ahead of a vehicle in the traveling direction, and an image picked up by the image pickup means 101. A pre-processing means 102 for extracting at least a feature representing a white line or a candidate point for an obstacle, and a road model calculation means 103 for calculating a three-dimensional road model defined on three-dimensional coordinates based on three-dimensional curve parameters; Coordinate conversion means 104 for converting the three-dimensional road model calculated by the road model calculation means into image coordinates based on the posture parameter of the image pickup means, and at least the white line or obstacle candidate points extracted by the preprocessing means. The position shift detecting means 10 for detecting the position shift between the three-dimensional road model which has been subjected to coordinate conversion by the coordinate converting means and the feature expressing A change amount calculating means 106 for calculating the change amount of the three-dimensional curve parameter and the change amount of the posture parameter of the image pickup means from the position shift detected by the position shift detecting means; An updating unit 107 that updates the vehicle position parameter and the attitude parameter, and based on the attitude parameter of the imaging unit 101 updated by the updating unit 107, the temporal movement of the feature representing the edge portion
An apparent moving speed measuring means 108 for measuring the apparent moving speed of the feature points in the image by coordinate conversion into the moving amount on the road surface represented by the three-dimensional road model, and the apparent moving speed measuring means 108. It is characterized by further comprising object determining means 109 for comparing the apparent moving speed of the feature points in the image with the vehicle speed to determine whether or not an object exists in the forward direction of the vehicle.
【0006】[0006]
【作用】本発明による車両用物体検出装置であれば、撮
像手段101で撮像した画像から前処理手段102が少
なくとも白線又は障害物を表わす特徴を抽出し、他方、
道路モデル演算手段103が3次元曲線パラメータに基
づいて3次元座標上で定義された3次元道路モデルを演
算するので、位置ずれ検出手段105において、道路モ
デル演算手段103で求めた3次元道路モデルの値を座
標変換手段104により画像座標に変換して受ける一
方、前処理手段102が抽出した少なくとも白線又は障
害物を表わす特徴を受けてその両者を比較することによ
り、その両者間の位置ずれを検出し、この検出結果から
変化量演算手段106により自車両の車両位置パラメー
タの変化量および撮像手段101の姿勢パラメータの変
化量が演算され、更新手段107によりその自車両の車
両位置パラメータおよび撮像手段101の姿勢パラメー
タが更新される。In the vehicle object detecting device according to the present invention, the preprocessing means 102 extracts at least the feature representing the white line or the obstacle from the image picked up by the image pickup means 101, while
Since the road model calculation means 103 calculates the three-dimensional road model defined on the three-dimensional coordinates based on the three-dimensional curve parameters, the positional deviation detection means 105 calculates the three-dimensional road model of the three-dimensional road model calculated by the road model calculation means 103. The values are converted into image coordinates by the coordinate conversion means 104 and received, while at the same time the characteristics representing at least the white line or the obstacle extracted by the preprocessing means 102 are compared and the positional deviation between them is detected. Then, from this detection result, the change amount calculating means 106 calculates the change amount of the vehicle position parameter of the own vehicle and the change amount of the attitude parameter of the image pickup means 101, and the updating means 107 calculates the vehicle position parameter of the own vehicle and the image pickup means 101. Posture parameters are updated.
【0007】このように自車両の車両位置パラメータお
よび撮像手段101の姿勢パラメータが更新される条件
下において、前処理手段102により少なくとも白線又
は障害物を表わす特徴が抽出されると、見かけ移動量速
度計測手段108では、更新手段107により更新され
た撮像手段101の姿勢パラメータに基づいて、画像中
の特徴点の時間的移動が、3次元道路モデルで表わされ
る道路面上での移動量に座標変換されて画像中の特徴点
の見かけの移動速度が計測される。Under such a condition that the vehicle position parameter of the own vehicle and the attitude parameter of the image pickup means 101 are updated, when the preprocessing means 102 extracts at least a feature representing a white line or an obstacle, the apparent moving amount speed In the measuring means 108, based on the posture parameter of the image pickup means 101 updated by the updating means 107, the temporal movement of the feature points in the image is coordinate-converted into the movement amount on the road surface represented by the three-dimensional road model. Then, the apparent moving speed of the feature point in the image is measured.
【0008】こうして見かけ移動速度計測手段108に
より見かけの移動速度が計測されると、物体判定手段1
09は、その見かけの移動速度を車速と比較して車両の
進行方向前方に車両等の物体が存在するか否かを判定で
きる。When the apparent moving speed measuring means 108 measures the apparent moving speed in this way, the object judging means 1
09 can determine whether or not an object such as a vehicle exists ahead of the traveling direction of the vehicle by comparing the apparent moving speed with the vehicle speed.
【0009】[0009]
【実施例】以下、図面を用いて本発明の実施例を説明す
る。Embodiments of the present invention will be described below with reference to the drawings.
【0010】図2は、本発明の一実施例に係わる車両用
物体検出装置の全体構成を概略的に示すブロック図であ
る。同図に示す車両用物体検出装置は、車両の進行方向
前方の道路を撮像すべく車両に搭載された撮像手段であ
るカメラ1、該カメラ1で撮像した画像信号を入力し、
この入力された画像信号を画像処理する画像処理部3、
および該画像処理部3で得られた計測結果である道路の
3次元形状データをまたは障害物の位置に基づいて車両
の制御および警報判断等を行う制御部5を有する。FIG. 2 is a block diagram schematically showing the overall structure of a vehicle object detection device according to an embodiment of the present invention. The object detection device for a vehicle shown in the same figure inputs a camera 1 which is an image pickup means mounted on a vehicle to image a road ahead in the traveling direction of the vehicle, an image signal imaged by the camera 1,
An image processing unit 3 for image-processing the input image signal,
Also, it has a control unit 5 that controls the vehicle and makes an alarm decision based on the three-dimensional shape data of the road which is the measurement result obtained by the image processing unit 3 or the position of the obstacle.
【0011】図2に示す画像処理部3は、カメラ1で撮
像された2車線道路の画像を連続的に入力し、この画像
からカメラ1の高さ(Dy)、ヨー角(θ)、ピッチ角
(φ)、ロール角(ψ)、道路端からの距離(Dx)と
いう車速を除くカメラの5軸の姿勢パラメータと、道路
の水平曲線(ρ)および道路の勾配を表す垂直曲線
(μ)の道路形状パラメータを有する3次元道路構造を
同時にオンラインで推定する。そして、これらの推定し
た値を用いて、画像中の物体のエッジ点の動きを、あた
かも道路面上での3次元的動きとして計測し、計測され
た動き量と車速とを比較することによって、道路面上の
文字や模様などと、高さのある物体とを弁別するもので
ある。さらに、動く物体でも、およその相対移動速度を
知ることが可能なものである。The image processing unit 3 shown in FIG. 2 continuously inputs images of a two-lane road imaged by the camera 1, and from this image, the height (Dy), yaw angle (θ), and pitch of the camera 1 are input. Angle (φ), roll angle (ψ), distance (Dx) from the road edge, the camera's 5-axis posture parameters excluding the vehicle speed, the horizontal curve (ρ) of the road, and the vertical curve (μ) representing the slope of the road. Simultaneous online estimation of 3D road structure with the road shape parameters of Then, using these estimated values, the movement of the edge point of the object in the image is measured as if it were three-dimensional movement on the road surface, and the measured movement amount and the vehicle speed are compared, It distinguishes characters and patterns on the road surface from tall objects. Furthermore, even a moving object can know the relative moving speed.
【0012】図3は、図2に示す画像処理部3の詳細な
構成を示すブロック図である。同図に示すように、画像
処理部3は、前記カメラ1で撮像された画像を入力され
る画像入力部11、この画像入力部11から入力された
画像情報からエッジ部を表わす特徴を抽出する前処理部
13、1画面前(前時刻)に推定された道路形状パラメ
ータに基づいて3次元の道路モデルを作成する道路モデ
ル作成部15、前時刻に推定されたカメラの姿勢パラメ
ータを用いて、道路モデル作成部15で作成された3次
元の道路モデルを車両座標系に座標変換し、更に画像座
標系に透視変換する座標変換部17、この座標変換部1
7によって画像座標系の座標変換された道路モデルと前
処理部13で検出された道路のエッジ画像とを線対応関
係で対応づける線対応マッチング部19、この線対応マ
ッチング部19によって線対応づけられた画像の位置ず
れを検出し、この位置ずれから道路形状パラメータおよ
びカメラの姿勢パラメータの各パラメータの変化量を推
定するパラメータ推定部21、このパラメータ推定部2
1で推定されたパラメータを更新するパラメータ更新部
23、このパラメータ更新部23で更新されたカメラの
姿勢パラメータに基づいて、前処理部13で抽出したエ
ッジ部を表わす特徴を、道路モデル作成部15で作成さ
れた3次元の道路モデルで表わされる道路面上での移動
量に座標変換した時空間画像を作成する時空間画像作成
部25、この時空間画像作成部25で作成した画像か
ら、直線検出の手法によって、障害物または道路面上の
エッジ点を切り出し、この見かけ移動量を計測する直線
処理部27、この直線処理部27で計測された見かけ移
動量と車速とを比較して障害物検出と相対速度弁別を行
う障害物検出部29から構成されている。FIG. 3 is a block diagram showing a detailed structure of the image processing unit 3 shown in FIG. As shown in the figure, the image processing unit 3 extracts an image input unit 11 to which an image captured by the camera 1 is input, and a feature representing an edge portion from image information input from the image input unit 11. Using the pre-processing unit 13, the road model creation unit 15 that creates a three-dimensional road model based on the road shape parameters estimated one screen before (previous time), and the camera posture parameter estimated at the previous time, A coordinate conversion unit 17 that performs coordinate conversion of the three-dimensional road model created by the road model creation unit 15 into a vehicle coordinate system, and further performs perspective conversion into an image coordinate system.
A line correspondence matching unit 19 that associates the road model, which has been subjected to coordinate conversion of the image coordinate system by 7 and the edge image of the road detected by the preprocessing unit 13 with a line correspondence relationship, and the line correspondence matching unit 19 performs line correspondence. A parameter estimation unit 21 that detects a positional deviation of the image and estimates the amount of change of each parameter of the road shape parameter and the camera posture parameter from the positional deviation.
The parameter updating unit 23 that updates the parameter estimated in 1 and the road model creating unit 15 determines the feature representing the edge portion extracted by the preprocessing unit 13 based on the camera posture parameter updated by the parameter updating unit 23. The spatio-temporal image creation unit 25 creates a spatio-temporal image coordinate-converted into the amount of movement on the road surface represented by the three-dimensional road model created by A straight line processing unit 27, which cuts out an obstacle or an edge point on the road surface and measures the apparent movement amount by the detection method, compares the apparent movement amount measured by the straight line processing unit 27 with the vehicle speed, and detects the obstacle. It is composed of an obstacle detection unit 29 that performs detection and relative speed discrimination.
【0013】前処理部13における前処理は、カメラ1
で撮像した道路の入力画像から道路の白線のエッジを検
出するために、入力画像をI(x,y)とし、エッジ画
像をG(x,y)とした場合、次式の演算を行い、エッ
ジ画像を検出する。The preprocessing in the preprocessing unit 13 is performed by the camera 1.
When the input image is I (x, y) and the edge image is G (x, y) in order to detect the edge of the white line of the road from the input image of the road imaged in, the following formula is calculated, Detect edge images.
【0014】[0014]
【数1】 このような演算式を使用することにより、カーブ路にお
いて遠方の白線はほとんど水平で、線幅も1画素以下で
撮影されてもエッジを抽出することができる。[Equation 1] By using such an arithmetic expression, the distant white line is almost horizontal on the curved road, and the edge can be extracted even when the line width is photographed with one pixel or less.
【0015】また、この前処理部13では、画像中の車
両進行方向前方の道路内の2次元形状物もしくは3次元
形状物のエッジ部を表わす特徴を公知の他の特徴強調処
理で抽出してもよい。Further, the preprocessing unit 13 extracts a feature representing an edge portion of a two-dimensional shape object or a three-dimensional shape object on the road ahead of the vehicle traveling direction in the image by another known feature enhancement process. Good.
【0016】道路モデル作成部15および座標変換部1
7では、前時刻に推定される道路形状パラメータを基に
3次元の道路モデルを作成し、また前時刻に推定される
カメラの挙動パラメータを用いて車両座標系に座標変換
し、更に2次元の画像座標系に透視変換する。なお、本
実施例では、道路のカーブや勾配のパラメータは時間的
に変化するものと考える。カメラ1の焦点距離は既知と
し、また車両の速度成分に推定しないものとする。これ
は白線と平行に移動しても、見かけ上の白線位置は変化
しないためである。従って、推定すべきパラメータは、
前述したカメラ1の高さ(Dy)、ヨー角(θ)、ピッ
チ角(φ)、ロール角(ψ)、道路端からの距離(D
x)のカメラの5軸の姿勢パラメータに加えて、水平曲
線(ρ)および垂直曲率(μ)を含む道路形状パラメー
タである。Road model creating section 15 and coordinate converting section 1
In 7, a three-dimensional road model is created based on the road shape parameters estimated at the previous time, and the behavioral parameters of the camera estimated at the previous time are used to perform coordinate conversion to the vehicle coordinate system. Perspective transformation to image coordinate system. In this embodiment, it is considered that the parameters of the curve and the gradient of the road change with time. It is assumed that the focal length of the camera 1 is known and that it is not estimated as the speed component of the vehicle. This is because the apparent white line position does not change even if it moves in parallel with the white line. Therefore, the parameters to be estimated are
The height (Dy) of the camera 1, the yaw angle (θ), the pitch angle (φ), the roll angle (ψ), the distance from the road edge (D
x) is a road shape parameter including a horizontal curve (ρ) and a vertical curvature (μ) in addition to the camera 5-axis posture parameter.
【0017】まず、座標系について図4を参照して説明
する。座標系としては、道路座標系(X,Y,Z)、車
両座標系(U,V,W)および2次元の画像座標系
(x,y)の3つの座標系を定義する。First, the coordinate system will be described with reference to FIG. As coordinate systems, three coordinate systems are defined: a road coordinate system (X, Y, Z), a vehicle coordinate system (U, V, W), and a two-dimensional image coordinate system (x, y).
【0018】道路座標系(X,Y,Z)は、現在車両が
置かれている地点を基準に道路の形状を表すものであ
り、図4に示すように、道路中央の路面上に原点を取
り、道路接続および路面と平行で車両の進行方向にZ
軸、左方向に路面と平行にX軸、路面と垂直で上方にY
軸を取る右手系である。なお、カメラ1のレンズの中心
は常にZ=0の位置にあるものとする。The road coordinate system (X, Y, Z) represents the shape of the road based on the point where the vehicle is currently placed. As shown in FIG. 4, the origin is located on the road surface at the center of the road. In the direction of travel of the vehicle parallel to the road connection and road surface
Axis, X axis parallel to the road to the left, Y upward perpendicular to the road
It is a right-handed system that takes an axis. The center of the lens of the camera 1 is always located at Z = 0.
【0019】車両座標系(U,V,W)は、カメラ1の
レンズの中心を原点とし、該レンズの主軸方向にW軸、
撮像面と平行にU軸およびV軸を取る右手系である。The vehicle coordinate system (U, V, W) has an origin at the center of the lens of the camera 1, and the W axis in the direction of the main axis of the lens.
It is a right-handed system that takes the U-axis and V-axis parallel to the imaging plane.
【0020】画像座標系(x,y)は、撮像面上で定義
され、x軸がU軸と平行、y軸がV軸と平行で、それぞ
れ逆向きであるものとする。The image coordinate system (x, y) is defined on the image pickup plane, and the x axis is parallel to the U axis, the y axis is parallel to the V axis, and they are in opposite directions.
【0021】また、車両座標系で表された3次元空間上
の点P(U,V,W)は、画像上の画像座標系で次式の
ように透視変換されて表される。The point P (U, V, W) in the three-dimensional space represented by the vehicle coordinate system is represented by the perspective transformation as shown in the following equation in the image coordinate system on the image.
【0022】 x=−F・U/W y=−F/v/w (2) 但し、Fはカメラ1のレンズの焦点距離である。X = −F · U / W y = −F / v / w (2) where F is the focal length of the lens of the camera 1.
【0023】道路座標系と車両座標系との関係が車両の
挙動、すなわちカメラ1の姿勢に対応する。以下、カメ
ラ1の道路端からの距離をDx、カメラ1の高さをD
y、ヨー角をθ、ピッチ角をφ、ロール角をψで表す。The relationship between the road coordinate system and the vehicle coordinate system corresponds to the behavior of the vehicle, that is, the attitude of the camera 1. Below, the distance from the road edge of camera 1 is Dx, and the height of camera 1 is D
The y and yaw angles are represented by θ, the pitch angle is represented by φ, and the roll angle is represented by ψ.
【0024】車両座標系は、まず道路座標系で(Dx,
Dy,0)だけ平行移動した後、ヨー角θ、ピッチ角
φ、ロール角ψの順で回転させる。なお、ヨー角θは、
W軸をXZ平面に射影した時のZ軸とのなす角度であ
り、ピッチ角φはW軸とXZ平面との角度であり、ロー
ル角ψはW軸回りの回転角でU軸とXZ平面との角度で
ある。回転マトリックスをRとすると、道路座標系で表
された点は、次式により車両座標系へ変換される。The vehicle coordinate system is first a road coordinate system (Dx,
After parallel translation by Dy, 0), yaw angle θ, pitch angle φ, and roll angle ψ are rotated in this order. The yaw angle θ is
The angle formed by the Z axis when the W axis is projected onto the XZ plane, the pitch angle φ is the angle between the W axis and the XZ plane, and the roll angle ψ is the rotation angle around the W axis and the U axis and the XZ plane. Is the angle with. When the rotation matrix is R, the points represented by the road coordinate system are converted into the vehicle coordinate system by the following equation.
【0025】[0025]
【数2】 次に、道路モデル作成部15で作成される道路モデルに
ついて説明する。[Equation 2] Next, the road model created by the road model creation unit 15 will be described.
【0026】道路は、横断曲線(カーブ)と縦断曲線
(勾配)に分けて構造が決定されている。横断道路は曲
率一定の円弧部、直線部、およびこれらを滑らかに結ぶ
ための緩和曲線部によって定義される。また、縦断曲線
は一定勾配である直線部を放物線によって滑らかに結ぶ
ものとされている。The structure of a road is determined by dividing it into a transverse curve (curve) and a longitudinal curve (gradient). The cross road is defined by an arc portion with a constant curvature, a straight portion, and a relaxation curve portion for connecting these smoothly. Further, the vertical curve is formed by smoothly connecting straight line portions having a constant gradient by a parabola.
【0027】3次元の道路座標上では、横断曲線、縦断
曲線ともに多次曲線によって近似される。そして、路面
上に描かれた白線の道路座標系における座標は次式のよ
うに定義される。On the three-dimensional road coordinates, both the transverse curve and the longitudinal curve are approximated by a multi-dimensional curve. The coordinates of the white line drawn on the road surface in the road coordinate system are defined by the following equation.
【0028】 X=f(Z)=aZ4 +bZ3 +cZ2 +B Y=g(Z)=dZ3 +eZ2 (4) ここで、Bは、道路中心から白線までの距離を表し、3
車線道路の場合には、左の白線に対してはBは正の定義
であり、中央に対しては0である。a〜eは求める道路
形状パラメータである。なお、水平方向の式f(Z)を
4次式としたのは、S字カーブにも対応するためであ
る。X = f (Z) = aZ 4 + bZ 3 + cZ 2 + B Y = g (Z) = dZ 3 + eZ 2 (4) Here, B represents the distance from the road center to the white line, 3
For lane roads, B is a positive definition for the left white line and 0 for the center. a to e are road shape parameters to be obtained. Note that the expression f (Z) in the horizontal direction is a quartic expression because it also corresponds to an S-shaped curve.
【0029】また、道路の水平曲率ρおよび垂直曲率μ
は、次式で表される。Further, the horizontal curvature ρ and the vertical curvature μ of the road
Is expressed by the following equation.
【0030】[0030]
【数3】 特に、Z=0の付近の曲率は、水平曲率ρ=2cおよび
垂直曲率μ=2eである。[Equation 3] In particular, the curvature near Z = 0 is a horizontal curvature ρ = 2c and a vertical curvature μ = 2e.
【0031】このようにして、N点からなる道路モデル
を作成するZi(i=1〜N)を与えれば、白線の3次
元座標を計算することができる。また、Zの地点の曲率
を求めることも可能である。In this way, if Zi (i = 1 to N) for creating a road model consisting of N points is given, the three-dimensional coordinates of the white line can be calculated. It is also possible to find the curvature at the point Z.
【0032】上述した式(4)で示した道路形状パラメ
ータa,b,c,d,eを前画面(前時刻)から得て、
道路モデルを作成し、この道路モデルを前時刻における
カメラ1の挙動パラメータに基づく車両座標系に変換す
る。そして、道路モデル上の各点が現画面(現時刻)で
どう移動するかを観測することによって、車両座標系に
おける挙動変動量および道路パラメータの変動量を求め
る。すなわち、道路モデル上の点(x,y)が現画面で
(Δx,Δy)だけ変動したとし、この変動Δx,Δy
がカメラの姿勢パラメータの変動と道路形状パラメータ
の変動とに起因すると考えて、各パラメータの変動量と
ΔxおよびΔyとの関係を導く。なお、パラメータは各
時刻毎に変動量を積分することになるが、モデルを基準
とした変動量であるので、誤差の蓄積はない。The road shape parameters a, b, c, d, and e shown in the above equation (4) are obtained from the previous screen (previous time),
A road model is created, and this road model is converted into a vehicle coordinate system based on the behavior parameter of the camera 1 at the previous time. Then, by observing how each point on the road model moves on the current screen (current time), the behavior variation amount and the road parameter variation amount in the vehicle coordinate system are obtained. That is, assuming that the point (x, y) on the road model has changed by (Δx, Δy) on the current screen, the fluctuations Δx, Δy
Is considered to be caused by the variation of the posture parameter of the camera and the variation of the road shape parameter, and the relationship between the variation amount of each parameter and Δx and Δy is derived. It should be noted that the parameter integrates the variation amount for each time, but since it is the variation amount based on the model, no error is accumulated.
【0033】パラメータの変動によって画像上の道路モ
デル上の点(x,y)が(x’,y’)に移動したと考
え、点の移動量を(Δx,Δy)とすると、次式で表さ
れる。Considering that the point (x, y) on the road model on the image has moved to (x ', y') due to the variation of the parameters, and the moving amount of the point is (Δx, Δy), the following equation is obtained. expressed.
【0034】 x’=x+Δx y’=y+Δy (6) カメラの姿勢パラメータの変動を車両座標系での点の移
動として考える。すなわち、車両座標系で挙動変動量を
求め、前時刻の姿勢パラメータと合成することにより、
現時刻におけるカメラの姿勢パラメータに変換し、次時
刻で更に新たな車両座標系を作成する。なお、挙動変動
量を道路座標系でなく、車両座標系で求めるのは、回転
角が常に0からの変動となるため、近似の精度を維持し
ながら線形解を求められるからである。X ′ = x + Δx y ′ = y + Δy (6) Consider the fluctuation of the posture parameter of the camera as the movement of the point in the vehicle coordinate system. That is, by obtaining the behavior variation amount in the vehicle coordinate system and combining it with the posture parameter at the previous time,
It is converted into the camera posture parameter at the current time, and a new vehicle coordinate system is created at the next time. Note that the behavior variation amount is obtained not in the road coordinate system but in the vehicle coordinate system, because the rotation angle always changes from 0, and therefore a linear solution can be obtained while maintaining the approximation accuracy.
【0035】車両座標系において、点P(U,V,W)
が点P’(U’,V’,W’)に移動するとすると、Point P (U, V, W) in the vehicle coordinate system
Is moved to the point P '(U', V ', W'),
【数4】 で表される。なお、DU ,DU は平行移動成分であり、
α,β,γはそれぞれV軸、U軸、W軸回りの回転角で
ある。但し、各パラメータの値は、十分小さいものと
し、sinδ=δ,cosδ=1,sinα=α,co
sα=1,sinβ=β,cosβ=1,sinγ=
γ,cosγ=1とすると共に、2次以上の項は無視し
た。[Equation 4] It is represented by. Note that D U and D U are translation components,
α, β, and γ are rotation angles around the V axis, the U axis, and the W axis, respectively. However, the value of each parameter is assumed to be sufficiently small, and sin δ = δ, cos δ = 1, sin α = α, co
sα = 1, sinβ = β, cosβ = 1, sinγ =
γ and cos γ are set to 1, and terms of the second or higher order are ignored.
【0036】(6)式と(2)式とから、次式が得られ
る。The following equation is obtained from the equations (6) and (2).
【0037】[0037]
【数5】 各姿勢パラメータの微小変動による画像座標の変動は、
(5)式のTaler展開の1次の項から次式のように
表される。[Equation 5] The change in image coordinates due to a slight change in each attitude parameter is
From the first-order term of the Taler expansion of the equation (5), it is expressed as the following equation.
【0038】[0038]
【数6】 (8)式から、α,β,γ=0なる条件を近似的に計算
すると、次式に示すようにカメラの姿勢パラメータの変
動分が得られる。[Equation 6] Approximately calculating the condition of α, β, γ = 0 from the equation (8), the variation of the posture parameter of the camera is obtained as shown in the following equation.
【0039】[0039]
【数7】 次に、道路パラメータの変動分について考える。上述し
た(3)および(4)式から、 U=R11(X−DX )+R12(Y−DY )+R13Z V=R21(X−DX )+R22(Y−DY )+R23Z X=f(Z),Y=g(Z) (11) であるので、これを(7)式に代入するとともに、また
α,β,γ=0とおいて[Equation 7] Next, consider the variation of road parameters. From the above formulas (3) and (4), U = R 11 (X−D X ) + R 12 (Y−D Y ) + R 13 Z V = R 21 (X−D X ) + R 22 (Y−D Y ) + R 23 Z X = f (Z), Y = g (Z) (11), which is substituted into the equation (7), and α, β, γ = 0
【数8】 を計算すると、次式に示すように道路パラメータの変動
分が得られる。[Equation 8] By calculating, the variation of the road parameter is obtained as shown in the following equation.
【0040】[0040]
【数9】 従って、(9)式と(13)式を加算すると、カメラの
姿勢パラメータと道路パラメータによる画像上での点の
移動量の関係式が得られる。[Equation 9] Therefore, by adding the equations (9) and (13), the relational expression of the movement amount of the point on the image by the posture parameter of the camera and the road parameter can be obtained.
【0041】[0041]
【数10】 次に、線対応マッチング部19における線対応マッチン
グについて説明する。[Equation 10] Next, the line matching matching in the line matching matching unit 19 will be described.
【0042】モデルを用いたカメラ姿勢の推定手法に
は、点対応と線対応とがあるが、本実施例では線対応、
すなわち道路モデルにおける接線と画面中から抽出され
る白線の線成分とを対応づける。白線は滑らかな曲線で
あるので、点の対応は困難であるからである。The camera posture estimation method using the model includes point correspondence and line correspondence. In the present embodiment, line correspondence and line correspondence are used.
That is, the tangent line in the road model and the line component of the white line extracted from the screen are associated with each other. This is because the white line is a smooth curve and it is difficult to match the points.
【0043】対応付けには画像の探索が必要であるが、
ここでは同一x軸または同一y軸上を走査する。探索処
理が簡単化できるため、高速化につながるからである。
x軸走査かy軸走査かの選択は、対応付けする線の傾き
の大きさに応じて行う。An image search is necessary for association,
Here, scanning is performed on the same x-axis or the same y-axis. This is because the search process can be simplified and the speed can be increased.
Selection of x-axis scanning or y-axis scanning is performed according to the magnitude of the inclination of the associated line.
【0044】画像座標系における道路モデル上の点P
(x,y)における接線の傾きをωで表し、ωをPoint P on the road model in the image coordinate system
The slope of the tangent line at (x, y) is represented by ω, and ω is
【数11】 で定義すると、ωは次式で計算される。[Equation 11] Ω is calculated by the following equation.
【0045】[0045]
【数12】 現時刻の白線は、点P付近の点P’(x’,y’)でモ
デルと同じωなる傾きを有すると仮定する。すなわち、
傾きの変化はないものとする。前時刻で求められたモデ
ルが現時刻で白線位置まで移動したと考える。この場合
の道路モデルと白線との関係は図5に示すようになる。
同一x軸上の移動量をpとし、同一y軸上の移動量をq
とすると、ΔxとΔyとの関係は、 Δx/p+Δy/q=1 (17) であり、更に q/p=−ω (18) であるから、 Δx−Δy/ω−p=0 (19) または −ωΔx+Δy−q=0 (20) が得られる。上式は直線の座標軸方向の(見かけの)移
動量と実際の移動量の関係を表す。|ω|が大きい時
(垂直に近い場合)は、(19)式が使用され、|ω|
が小さい時(水平に近い場合)は、(20)式が使用さ
れる。[Equation 12] It is assumed that the white line at the current time has the same slope ω as the model at the point P ′ (x ′, y ′) near the point P. That is,
It is assumed that there is no change in inclination. It is assumed that the model obtained at the previous time has moved to the white line position at the current time. The relationship between the road model and the white line in this case is as shown in FIG.
Let p be the amount of movement on the same x-axis and q be the amount of movement on the same y-axis.
Then, the relation between Δx and Δy is Δx / p + Δy / q = 1 (17) and further q / p = −ω (18), so Δx−Δy / ω−p = 0 (19) Alternatively, −ωΔx + Δy−q = 0 (20) is obtained. The above equation represents the relationship between the (apparent) amount of movement in the direction of the coordinate axis of the straight line and the actual amount of movement. When | ω | is large (close to vertical), the equation (19) is used, and | ω |
When is small (close to horizontal), the equation (20) is used.
【0046】道路モデル上のいくつかの点でPi(x
i,yi)とωiを計算し、入力画像上における点との
対応からpiまたはqiを求め、最小二乗法を適用すれ
ば、連立方程式が得られ、各パラメータの変化量が算出
される。At some points on the road model, Pi (x
i, yi) and ωi are calculated, pi or qi is obtained from the correspondence with a point on the input image, and the least squares method is applied to obtain a simultaneous equation, and the change amount of each parameter is calculated.
【0047】評価誤差は、上述した(14)式と(1
9)式および(20)式とから次式で求められる。The evaluation error is calculated by the above equation (14) and (1
The following equation is obtained from the equations (9) and (20).
【0048】[0048]
【数13】 Ei =A1iΔa+A2iΔb+A3iΔc+A4iΔd+A5iΔe +A6iΔDU +A7iΔDV +A8iΔα+A9iΔβ+A10i Δγ−Bi (21) 但し[Equation 13] E i = A 1i Δa + A 2i Δb + A 3i Δc + A 4i Δd + A 5i Δe + A 6i ΔD U + A 7i ΔD V + A 8i Δα + A 9i Δβ + A 10i Δγ-B i (21)
【数14】 [Equation 14]
【数15】 次に、本実施例の作用を説明する。[Equation 15] Next, the operation of this embodiment will be described.
【0049】まず、道路モデル作成部15において、N
点からなる道路モデルを作成する。そして、前時刻のカ
メラの姿勢パラメータ(Dx,Dy,θ,φ,ψ)の推
定結果から、(3)式の変換行列を作成する。それか
ら、前時刻の道路形状パラメータ(a,b,c,d,
e)から(4)式に基づいて道路座標系(X,Y,Z)
で道路モデルの3次元座標を計算する。すなわち、前時
刻の道路形状パラメータ(a,b,c,d,e)から
(4)式にZ=Zi(i=1〜N)とおくことによって
道路モデルの点列を作成する。次に、前時刻のカメラの
挙動パラメータ(Dx,Dy,θ,φ,ψ)により
(3)式で車両座標系(U,V,W)に変換し、更に
(1)式で画像座標系(x,y)に変換し、座標(x
i,yi)(i=i〜N)を得る。また、(16)式で
接線の傾きωを計算する。なお、各座標変換は、座標変
換部17で行われる。First, in the road model creating section 15, N
Create a road model consisting of points. Then, the conversion matrix of Expression (3) is created from the estimation result of the camera posture parameters (Dx, Dy, θ, φ, ψ) at the previous time. Then, the road shape parameters (a, b, c, d,
e) to road coordinate system (X, Y, Z) based on equation (4)
Calculate the three-dimensional coordinates of the road model. That is, the point sequence of the road model is created by setting Z = Zi (i = 1 to N) in the equation (4) from the road shape parameters (a, b, c, d, e) at the previous time. Next, by using the behavior parameters (Dx, Dy, θ, φ, ψ) of the camera at the previous time, the vehicle coordinate system (U, V, W) is converted by the equation (3), and the image coordinate system is further transformed by the equation (1). Convert to (x, y) and coordinate (x
i, yi) (i = i to N). Also, the slope ω of the tangent line is calculated by the equation (16). The coordinate conversion unit 17 performs each coordinate conversion.
【0050】道路モデルから算出される値は、(21)
式に現れているZi,Ui,Vi,Wi,ωiおよびx
i,yi(i=1〜N)である。このうち、Ziは道路
座標上で例えば3メートル間隔と予め定めておく。すな
わち、Ziを与えれば、(21)式中のAri(r=1
〜10)の値が定まる。次に、入力画像とのマッチング
を行い、Biを求める。The value calculated from the road model is (21)
Zi, Ui, Vi, Wi, ωi and x appearing in the equation
i and yi (i = 1 to N). Of these, Zi is predetermined to be, for example, an interval of 3 meters on the road coordinates. That is, if Zi is given, Ari (r = 1 in the equation (21) is obtained.
The values of 10 to 10) are determined. Next, matching with the input image is performed to obtain Bi.
【0051】線対応マッチング部19は、画像入力部1
1を介してカメラ1から得られる入力画像であるエッジ
画像とモデル点接続との線対応マッチングを行う。|ω
i|≧1のとき(垂直に近い場合)は、各モデル点(x
i,yi)を中心にx軸方向に探索して、piを求め、
|ωi|<1のとき(水平に近い場合)は、y軸方向に
探索して、qiを求める。The line matching matching section 19 is used in the image input section 1.
Line matching between an edge image, which is an input image obtained from the camera 1 via 1 and a model point connection, is performed. | ω
When i | ≧ 1 (close to vertical), each model point (x
i, yi) is searched in the x-axis direction to find pi,
When | ωi | <1 (when it is close to horizontal), qi is obtained by searching in the y-axis direction.
【0052】|ωi|≧1のときは、点(xi,yi)
を中心に幅Mx ,高さMy なるウインドウを考える。こ
の中で、傾きωiの直線を発生させ、直線上のエッジ濃
度の和が最も大きい直線を選択し、直線のx座標値とx
iとの差をpiとする。すなわち、When | ωi | ≧ 1, the point (xi, yi)
Consider a window having a width M x and a height M y centered at. Among them, a straight line having a slope ωi is generated, and the straight line having the largest sum of edge densities on the straight line is selected, and the x coordinate value of the straight line
The difference from i is pi. That is,
【数16】 を求め、Ci(τ)の最大値近傍で重心を求め、piと
する。また、この時のCi(τ)の値は確からしさを表
すので、あらためてCiとおく。[Equation 16] Is calculated, the center of gravity is calculated in the vicinity of the maximum value of Ci (τ), and is defined as pi. Further, the value of Ci (τ) at this time represents the certainty, so it will be referred to as Ci again.
【0053】また、|ωi|<1の場合も同様にqiを
求める。なお、幅Mx 、高さMy については数画素が適
当である。When | ωi | <1, qi is similarly obtained. Note that the number of pixels is suitable for a width M x, height M y.
【0054】以上のようにして、(21)式で示す評価
誤差のすべての係数が求められるので、最小二乗法を適
用することにより、各パラメータをパラメータ推定部2
1において推定することができる。As described above, since all the coefficients of the evaluation error shown in the equation (21) are obtained, each parameter is applied to the parameter estimation unit 2 by applying the least squares method.
Can be estimated in 1.
【0055】ここで、別の誤差尺度を考える。1つは道
路パラメータが時間的に大きく変動しないことを利用す
るものである。すなわち、Δa〜Δeは0に近いといえ
る。そこで、 EG1=Δa,EG2=Δb,EG3=Δc, EG4=Δd,EG5=Δe,EG5〜EG10 =0 (24) として、それぞれの重みをGr(r=1〜5)を定数と
して定義する。Now consider another error measure. One is to use the fact that road parameters do not change significantly with time. That is, it can be said that Δa to Δe are close to zero. Therefore, E G1 = Δa, E G2 = Δb, E G3 = Δc, E G4 = Δd, E G5 = Δe, E G5 to E G10 = 0 (24), and the respective weights are set to Gr (r = 1 to 5). ) Is defined as a constant.
【0056】もう1つの誤差は、曲率に関するものであ
る。道路パラメータcとeはZ=0の地点の曲率の1/
2である。車両も速度が既知で、速度v(m(メート
ル)/1画面時間)で走行しているとすると、t画面前
のZ=vtの地点の曲率が現画面のZ=0の曲率になる
はずである。従って、 Eρ=Ck-1 +Δc−ρk Eμ=ek-1 +Δe−μk (25) 但しAnother error relates to curvature. Road parameters c and e are 1 / the curvature of the point of Z = 0
It is 2. If the vehicle has a known speed and is traveling at a speed v (m (meter) / 1 screen time), the curvature at the point Z = vt before the t screen should be the curvature Z = 0 on the current screen. Is. Therefore, E ρ = C k−1 + Δc−ρ k E μ = e k−1 + Δe−μ k (25)
【数17】 とすることができる。なお、ck-1 およびek-1 はそれ
ぞれ前画面の結果である。また、ρk-1 およびμk-1 は
t画面前の結果から得られる曲率である。[Equation 17] Can be Note that c k-1 and e k-1 are the results of the previous screen, respectively. Further, ρ k-1 and μ k-1 are the curvatures obtained from the result before t screens.
【0057】各パラメータは最小二乗法で推定される。
すなわち、Each parameter is estimated by the method of least squares.
That is,
【数18】 を最小化するように上式を各変数で微分し、それぞれ0
とおく。なお、HρおよびHμは重み定数である。この
ようにして、次に示す10元連立1次方程式[Equation 18] Differentiate the above equation with each variable to minimize
far. Hρ and Hμ are weighting constants. In this way, the following 10-element simultaneous linear equations
【数19】 が作成される。ここで、l(Lの小文字)は1〜10で
あり、m=1〜10である。[Formula 19] Is created. Here, 1 (small letter of L) is 1-10, and m = 1-10.
【0058】この10元連立1次方程式は容易に解くこ
とができる。This 10-element simultaneous linear equation can be easily solved.
【0059】以上のようにして、パラメータ推定部21
において最小二乗法により各パラメータの変化量が計算
されると、これらの結果を基にカメラの姿勢パラメータ
(Dx,Dy,θ,φ,ψ)および道路形状パラメータ
(a,b,c,d,e)がパラメータ更新部23におい
て更新される。なお、前時刻のパラメータを添字k−1
で表し、更新されたパラメータを添字kで表す。As described above, the parameter estimation unit 21
When the change amount of each parameter is calculated by the method of least squares, the camera posture parameters (Dx, Dy, θ, φ, ψ) and the road shape parameters (a, b, c, d, e) is updated by the parameter updating unit 23. Note that the parameter at the previous time is the subscript k-1.
The updated parameter is represented by the subscript k.
【0060】まず、道路形状パラメータa,b,c,
d,eは、Δa〜Δeをそのまま加えればよい。すなわ
ち、次式に示すようになる。First, the road shape parameters a, b, c,
For d and e, Δa to Δe may be added as they are. That is, it becomes as shown in the following equation.
【0061】[0061]
【数20】 a(k) =a(K-1)+Δa,b(k) =b(K-1) +Δb, c(k) =c(K-1)+Δc,d(k) =d(K-1) +Δd, e(k) =e(K-1)+Δe (29) また、カメラの姿勢パラメータDx,Dy,θ,φ,ψ
は、以下のように更新される。(7)式中のパラメータ
(DU ,DU ,α,β,γ)はk−1においてすべて0
とみなせるので、DU =ΔDU ,DU =ΔDU ,α=Δ
α,β=Δβ,γ=Δγとおく。(2)式を(7)式に
代入すると、A (k) = a (K-1) + Δa, b (k) = b (K-1) + Δb, c (k) = c (K-1) + Δc, d (k) = d ( K-1) + Δd, e (k) = e (K-1) + Δe (29) Further, the camera posture parameters Dx, Dy, θ, φ, ψ
Is updated as follows: The parameters (D U , D U , α, β, γ) in the equation (7) are all 0 at k−1.
Since it can be considered that D U = ΔD U , D U = ΔD U , α = Δ
Let α, β = Δβ, γ = Δγ. Substituting equation (2) into equation (7),
【数21】 となる。カメラの姿勢パラメータの更新により、 (U,V,W)=(U’,V’,W’) とすればよい。(3)式と(30)式を比較することに
より、 R(k) =SR(k-1) DX(k)=DX(k-1)−R11(k) DU −R21(k) DV DY(k)=DY(k-1)−R12(k) DU −R22(k) DV (32) にて求められる。なお、R-1=RT なる関係式を用い
た。θ(k) ,φ(k) ,ψ(k) は(3)式中のR31(k) ,
R32(k) ,R12(k) から容易に求められる。[Equation 21] Becomes By updating the posture parameter of the camera, (U, V, W) = (U ′, V ′, W ′). By comparing formula (3) and (30), R (k) = SR ( k-1) D X (k) = D X (k-1) -R 11 (k) D U -R 21 (k) obtained at D V D Y (k) = D Y (k-1) -R 12 (k) D U -R 22 (k) D V (32). The relational expression of R −1 = RT was used. θ (k) , φ (k) , and ψ (k ) are R 31 (k) in the equation (3 ) ,
It is easily obtained from R 32 (k) and R 12 (k) .
【0062】次に、時空間画像作成部25、直線検出部
27、及び物体検出部29での一連の処理動作で障害物
を検出する方法について説明する。Next, a method of detecting an obstacle by a series of processing operations in the spatiotemporal image creating section 25, the straight line detecting section 27, and the object detecting section 29 will be described.
【0063】まず、物体を弁別する原理について説明す
る。First, the principle of discriminating objects will be described.
【0064】道路形状とカメラ姿勢の推定によって、前
方道路の3次元形状と道路に対する5自由度カメラ姿勢
が求められたとする。この時、物体が全て路面上にある
と仮定すると、画像座標系の座標値と道路座標系の座標
値とは、一対一対応する。なぜなら、道路面は(4)式
の道路モデルで3次元形状が記述され、この3次元座標
は(2)式および(3)式で画像座標系に変換されるか
らである。It is assumed that the three-dimensional shape of the road ahead and the camera posture with five degrees of freedom with respect to the road are obtained by estimating the road shape and the camera posture. At this time, assuming that all the objects are on the road surface, the coordinate values of the image coordinate system and the coordinate values of the road coordinate system have a one-to-one correspondence. This is because the three-dimensional shape of the road surface is described by the road model of equation (4), and the three-dimensional coordinates are converted into the image coordinate system by equations (2) and (3).
【0065】いま、高さのある物体が画像に映っている
とする。2次元画像では高さの有無の判断はできない
が、画像座標系で見かけ上の座標値は求められる。見か
け上の座標値は、その点が路面上にあるものとして考え
ると、何m前方の点であるかが計測できる。例えば、図
6に示すように、高さのある物体は、実物の位置より遠
方の道路面上に点(頂点、エッジ点)があるように、観
測される。It is assumed that a tall object is reflected in the image. Although it is not possible to determine the presence or absence of height in a two-dimensional image, apparent coordinate values can be obtained in the image coordinate system. Assuming that the point is on the road surface, the apparent coordinate value can measure how many meters ahead. For example, as shown in FIG. 6, an object with a height is observed so that points (vertices, edge points) are present on the road surface farther than the actual position.
【0066】いま、路面のほうが車速分だけカメラに近
づいたとする。この時、静止物体であれば、真の移動量
は車速と一致するが、見かけ上の移動量は車速より大き
く観測される(図6)。また、路面上の模様や汚れなど
については、真の移動量と見かけの移動量は等しい。さ
らに、先行車のように動く物体の場合、ゆっくり近づい
ていれば、見かけの移動量は車速より小さく、しかし、
車速と同じ符号をもつ。逆に遠方の遠ざかる先行車の場
合は、車速と見かけの移動量とは、逆の符号となる。す
なわち、 路面上の模様 見かけの移動量=車速 静止物体 見かけの移動量>車速 移動物体(接近) 0<見かけの移動量<車速 移動物体(遠のく) 0>見かけの移動量 となる。It is assumed that the road surface is closer to the camera by the vehicle speed. At this time, in the case of a stationary object, the true movement amount matches the vehicle speed, but the apparent movement amount is observed to be larger than the vehicle speed (FIG. 6). For patterns and dirt on the road surface, the true movement amount and the apparent movement amount are equal. Furthermore, in the case of a moving object such as a preceding vehicle, the apparent amount of movement is smaller than the vehicle speed when approaching slowly, but
It has the same sign as the vehicle speed. Conversely, in the case of a distant preceding vehicle, the vehicle speed and the apparent movement amount have opposite signs. That is, the apparent movement amount of the pattern on the road surface = vehicle speed stationary object apparent movement amount> vehicle speed moving object (approaching) 0 <apparent moving amount <vehicle speed moving object (far away) 0> apparent moving amount.
【0067】以上が、静止物体と、ゆっくり接近する物
体と、遠ざかる物体と、路面上のノイズや模様との、弁
別原理である。The above is the principle of discrimination between a stationary object, an object approaching slowly, an object moving away, and noise and patterns on the road surface.
【0068】時空間画像作成部25では、前処理部13
で抽出された特徴点と、道路モデル作成部15で作成さ
れた3次元の道路モデルと、パラメータ更新部23によ
り更新された姿勢パラメータとを受けて時空間画像を作
成する。In the spatiotemporal image creating section 25, the preprocessing section 13
A spatiotemporal image is created by receiving the feature points extracted in step 3, the three-dimensional road model created by the road model creating unit 15, and the posture parameter updated by the parameter updating unit 23.
【0069】この時空間画像の作成について説明する。The creation of this spatiotemporal image will be described.
【0070】道路モデルは既知(推定された)であるの
で、(4)式から、道路と平行、かつ、等間隔の座標点
列を求める。図7(a)のように、例えば2車線の場
合、各車線内で2本づつ、あるいは各車線の中央で求め
る。各平行線を添え字jで区別し、前方方向の点列を添
え字iで区別する。点の道路座標系での値は、(4)式
と同様に、Since the road model is known (estimated), the coordinate point sequence parallel to the road and equidistant is obtained from the equation (4). As shown in FIG. 7A, in the case of two lanes, for example, two lanes are obtained in each lane or the center of each lane is calculated. The parallel lines are distinguished by the subscript j, and the point sequences in the forward direction are distinguished by the subscript i. The value of the point in the road coordinate system is the same as equation (4),
【数22】 Zi は例えばlm間隔にとる。Lj は道路中央を0と
し、例えば、L1 =−2.5m,L2 =−1.25m,
L3 =0m,L4 =1.25m,L5 =2.5m,など
とする。道路形状パラメータa,b,c,d,eは前記
道路形状の推定によって求められた値を用いる。[Equation 22] Z i is set at lm intervals, for example. L j is 0 at the center of the road, and for example, L 1 = -2.5 m, L 2 = -1.25 m,
L 3 = 0 m, L 4 = 1.25 m, L 5 = 2.5 m, and so on. The road shape parameters a, b, c, d, and e use the values obtained by estimating the road shape.
【0071】(33)式で計算された座標値を(2)式
から(3)式で座標変換すれば、画像座標(xi,j ,y
i,j )が求められる。この時、カメラ姿勢パラメータの
値は、前記の推定結果を用いる。By converting the coordinate values calculated by the equation (33) from the equations (2) to (3), the image coordinates (x i, j , y) can be obtained.
i, j ) is required. At this time, the above estimation result is used as the value of the camera posture parameter.
【0072】現在時刻t=tk を単にkで表す。時刻k
の前処理結果画像Gk (x,y)の点(xi,j ,
yi,j )の値を取り出して、時空間画像Hj (k,i)
を作成する。すなわち、 Hj (k,i)=Gk (xi,j ,yi,j ) (34) である。The current time t = t k is simply represented by k. Time k
Of the preprocessing result image G k (x, y) of (x i, j ,
y i, j ), the spatiotemporal image H j (k, i) is extracted.
To create. That is, H j (k, i) = G k (x i, j , y i, j ) (34).
【0073】図7(a)〜(c)に以上の様子を示す。
図7(c)は、j=3すなわち中央線(途切れ線と仮
定)上の時空間画像の概念図を示した。The above situation is shown in FIGS.
FIG. 7C shows a conceptual diagram of the spatiotemporal image on j = 3, that is, on the center line (assumed to be a break line).
【0074】時空間画像では、等速度で移動しているエ
ッジ点が直線状に現われる。そして、この直線の傾きが
見かけの移動量である。In the spatiotemporal image, the edge points moving at a constant speed appear linearly. The inclination of this straight line is the apparent movement amount.
【0075】直線検出部27では、時空間直線作成部2
5により作成された時空間画像から直線検出の手法によ
って、物体または路面上のエッジ点を切り出す。例え
ば、時刻kからk−Kまでの区間で Hough変換する。K
は例えば1秒である。 Hough平面をPj (α,β)とす
ると、In the straight line detector 27, the spatiotemporal straight line generator 2
An edge point on the object or the road surface is cut out from the spatiotemporal image created in step 5 by the method of straight line detection. For example, Hough conversion is performed in the section from time k to k−K. K
Is, for example, 1 second. If the Hough plane is P j (α, β),
【数23】 で求められる。Pj (α,β)で、あるしきい値以上の
値をもつ点(α,β)があれば、直線が検出されたとみ
なす。βの値から点までの距離が求められ(=Zi ,i
=β)、傾きβは見かけの速度と一致する。[Equation 23] Required by. If there is a point (α, β) in P j (α, β) having a value equal to or greater than a certain threshold value, it is considered that a straight line has been detected. The distance from the value of β to the point is obtained (= Z i , i
= Β), the slope β coincides with the apparent velocity.
【0076】こうして見かけの移動速度が求まると、物
体検出部29では、次のように物体検出と相対速度弁別
を行う。When the apparent moving speed is obtained in this way, the object detecting unit 29 performs object detection and relative speed discrimination as follows.
【0077】前述のように、見かけの速度(移動量)と
車速の関係から、物体を判別する。車速は車速計から求
めてもよいが、ここでは、中央線の移動量から求める手
法を説明する。As described above, the object is discriminated from the relationship between the apparent speed (movement amount) and the vehicle speed. The vehicle speed may be obtained from a vehicle speed meter, but here, a method of obtaining it from the movement amount of the center line will be described.
【0078】中央線が途切れ線であるものとすると、図
7(c)のように、一定の傾きをもつ直線群が検出され
る。よって、j=3における直線検出結果のαの値を車
速(の推定値)Vとする。Assuming that the center line is a broken line, a straight line group having a constant inclination is detected as shown in FIG. 7 (c). Therefore, the value α of the straight line detection result at j = 3 is set as (the estimated value of) the vehicle speed V.
【0079】j≠3において直線が検出されなければ、
物体はないものと判断する。直線が検出された場合、そ
の傾きαの符号やVとの比較から、 (1) αとVとがほぼ等しい時、路面上の汚れや模様と判
断 (2) αの絶対値がVの絶対値より大きい場合、静止また
は速い相対速度で接近する物体と判断 (3) αの符号とVの符号とが逆の場合、遠ざかる物体と
判断 (4) 上記以外、ゆっくり近づく物体と判断 とする。If no straight line is detected when j ≠ 3,
Judge that there is no object. When a straight line is detected, it is judged from the comparison of the sign of the inclination α and V (1) When α and V are almost equal, it is a dirt or pattern on the road surface. (2) The absolute value of α is the absolute value of V If it is larger than the value, it is judged as an object approaching at a stationary or fast relative speed. (3) If the sign of α and the sign of V are opposite, it is judged as an object moving away. (4) Other than the above, it is judged as an object approaching slowly.
【0080】上記(2) や(4) の場合、前述のように、β
の値から物体までの距離が求められる(=Zi でi=β
とおく)ので、距離に応じて警報したり、車速の自動制
御を行えばよい。In the cases of (2) and (4) above, as described above, β
The distance to the object is calculated from the value of (= Z i i = β
Therefore, an alarm may be given according to the distance, or the vehicle speed may be automatically controlled.
【0081】[0081]
【発明の効果】以上のように、この発明は、道路の3次
元形状とカメラの対道路姿勢とを、予め計測することに
よって、画像中の物体のエッジ点の動きを、あたかも路
面上での3次元的動きとして計測し、計測された動き量
と車速とを比較することによって、路面上の文字や模様
などと、高さのある障害物とを弁別できる。さらに、動
く障害物でも、およその相対移動速度を知ることも可能
である。また、1台のカメラ信号を処理するのみである
ので、低コストで実現可能である。As described above, according to the present invention, by measuring the three-dimensional shape of the road and the attitude of the camera with respect to the road in advance, the movement of the edge point of the object in the image as if on the road surface. By measuring the three-dimensional movement and comparing the measured movement amount with the vehicle speed, it is possible to discriminate a character or pattern on the road surface from an obstacle with a height. Further, even with a moving obstacle, it is possible to know the approximate relative moving speed. Moreover, since only one camera signal is processed, it can be realized at low cost.
【図1】本発明のクレーム対応図である。FIG. 1 is a diagram corresponding to a claim of the present invention.
【図2】本発明の一実施例に係わる車両用物体検出装置
の全体構成を概略的に示すブロック図である。FIG. 2 is a block diagram schematically showing an overall configuration of a vehicle object detection device according to an embodiment of the present invention.
【図3】図2に示す車両用物体検出装置に使用される画
像処理部の詳細な構成を示すブロック図である。3 is a block diagram showing a detailed configuration of an image processing unit used in the vehicle object detection device shown in FIG.
【図4】図3に示す画像処理部に使用される座標系を示
す説明図である。FIG. 4 is an explanatory diagram showing a coordinate system used in the image processing unit shown in FIG.
【図5】図3に示す線対応マッチング部における道路モ
デルと白線との線対応マッチングを示す説明図である。5 is an explanatory diagram showing line-to-line matching between a road model and a white line in the line-to-line matching unit shown in FIG.
【図6】物体検出の原理を示す図である。FIG. 6 is a diagram showing the principle of object detection.
【図7】時空間画像の一例を示す図である。FIG. 7 is a diagram showing an example of a spatiotemporal image.
101 撮像手段 102 前処理手段 103 道路モデル演算手段 104 座標変換手段 105 位置ずれ検出手段 106 変化量演算手段 107 更新手段 108 見かけ移動速度計測手段 109 物体判定手段 101 Image pickup means 102 Pre-processing means 103 Road model calculation means 104 Coordinate conversion means 105 Positional deviation detection means 106 Change amount calculation means 107 Update means 108 Apparent movement speed measurement means 109 Object determination means
Claims (2)
像手段と、 該撮像手段で撮像した画像から少なくとも白線又は障害
物の候補点を表わす特徴を抽出する前処理手段と、 3次元曲線パラメータに基づいて3次元座標上で定義さ
れた3次元道路モデルを演算する道路モデル演算手段
と、 該道路モデル演算手段で演算された3次元道路モデルを
前記撮像手段の姿勢パラメータに基づいて画像座標に変
換する座標変換手段と、 前記前処理手段により抽出した前記少なくとも白線又は
障害物の候補点を表わす特徴と前記座標変換手段で座標
変換された前記3次元道路モデルとを比較して、両者間
の位置ずれを検出する位置ずれ検出手段と、 該位置ずれ検出手段で検出した位置ずれから前記3次元
曲線パラメータの変化量および前記撮像手段の姿勢パラ
メータの変化量を演算する変化量演算手段と、 前記両パラメータの変化量に基づき前記車両位置パラメ
ータ及び前記姿勢パラメータを更新する更新手段と、 前記更新手段により更新された前記撮像手段の姿勢パラ
メータに基づいて、前記エッジ部を表わす特徴の時間的
移動を、前記3次元道路モデルで表わされる道路面上で
の移動量に座標変換して前記画像中の特徴点の見かけの
移動速度を計測する見かけ移動速度計測手段と、 該見かけ移動速度計測手段で計測された前記画像中の特
徴点の見かけの移動速度を車速と比較して車両の進行方
向前方に物体が存在するか否かを判定する物体判定手段
とを有することを特徴とする車両用物体検出装置。1. An image pickup means for picking up an image of a road ahead of a vehicle in a traveling direction, a preprocessing means for extracting at least a feature representing a white line or an obstacle candidate point from an image picked up by the image pickup means, and a three-dimensional curve parameter. Road model calculation means for calculating a three-dimensional road model defined on the three-dimensional coordinates based on the above, and the three-dimensional road model calculated by the road model calculation means into image coordinates based on the attitude parameter of the imaging means. The coordinate conversion means for conversion is compared with the feature representing the candidate point of at least the white line or obstacle extracted by the preprocessing means and the three-dimensional road model coordinate-converted by the coordinate conversion means, and the two Positional deviation detecting means for detecting positional deviation, the amount of change in the three-dimensional curve parameter from the positional deviation detected by the positional deviation detecting means, and the appearance of the imaging means A change amount calculating means for calculating a change amount of a parameter, an updating means for updating the vehicle position parameter and the posture parameter based on a change amount of the both parameters, and a posture parameter of the image pickup means updated by the updating means. On the basis of the above, the apparent movement of the feature representing the edge portion is converted into a movement amount on the road surface represented by the three-dimensional road model, and the apparent moving speed of the feature point in the image is measured. An object for determining whether or not there is an object ahead of the traveling direction of the vehicle by comparing the apparent moving speed of the characteristic point in the image measured by the apparent moving speed measuring means with the vehicle speed. An object detection device for a vehicle, comprising: a determination unit.
と車速とが同じ符号であるか逆の符号であるかに応じて
各種物体の弁別を行うことを特徴とする請求項1記載の
車両用物体検出装置。2. The vehicle according to claim 1, wherein the object determining means discriminates various objects according to whether the apparent moving speed and the vehicle speed have the same sign or opposite signs. Object detection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5234594A JP3063481B2 (en) | 1993-09-21 | 1993-09-21 | Vehicle object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5234594A JP3063481B2 (en) | 1993-09-21 | 1993-09-21 | Vehicle object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0793693A true JPH0793693A (en) | 1995-04-07 |
JP3063481B2 JP3063481B2 (en) | 2000-07-12 |
Family
ID=16973481
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5234594A Expired - Fee Related JP3063481B2 (en) | 1993-09-21 | 1993-09-21 | Vehicle object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3063481B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09218937A (en) * | 1996-02-08 | 1997-08-19 | Nippon Soken Inc | Compartment line detector |
US6993159B1 (en) | 1999-09-20 | 2006-01-31 | Matsushita Electric Industrial Co., Ltd. | Driving support system |
JP2009093332A (en) * | 2007-10-05 | 2009-04-30 | Nissan Motor Co Ltd | Vehicle peripheral image processor and vehicle peripheral circumstance presentation method |
CN104115201A (en) * | 2012-02-23 | 2014-10-22 | 日产自动车株式会社 | Three-dimensional object detection device |
JP2016038789A (en) * | 2014-08-08 | 2016-03-22 | 住友電気工業株式会社 | Moving body speed calculation apparatus, computer program, and moving body speed calculation method |
JP2020042804A (en) * | 2018-09-07 | 2020-03-19 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Method and apparatus for position detection, device, storage medium, and vehicle |
-
1993
- 1993-09-21 JP JP5234594A patent/JP3063481B2/en not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09218937A (en) * | 1996-02-08 | 1997-08-19 | Nippon Soken Inc | Compartment line detector |
US6993159B1 (en) | 1999-09-20 | 2006-01-31 | Matsushita Electric Industrial Co., Ltd. | Driving support system |
JP2009093332A (en) * | 2007-10-05 | 2009-04-30 | Nissan Motor Co Ltd | Vehicle peripheral image processor and vehicle peripheral circumstance presentation method |
CN104115201A (en) * | 2012-02-23 | 2014-10-22 | 日产自动车株式会社 | Three-dimensional object detection device |
JP2016038789A (en) * | 2014-08-08 | 2016-03-22 | 住友電気工業株式会社 | Moving body speed calculation apparatus, computer program, and moving body speed calculation method |
JP2020042804A (en) * | 2018-09-07 | 2020-03-19 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Method and apparatus for position detection, device, storage medium, and vehicle |
US11210534B2 (en) | 2018-09-07 | 2021-12-28 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method for position detection, device, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP3063481B2 (en) | 2000-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111611853B (en) | Sensing information fusion method, device and storage medium | |
US5757287A (en) | Object recognition system and abnormality detection system using image processing | |
JP3367170B2 (en) | Obstacle detection device | |
EP1780675B1 (en) | Object detector | |
EP1329850B1 (en) | Apparatus, program and method for detecting both stationary objects and moving objects in an image | |
EP0762326B1 (en) | Object detecting apparatus in which the position of a planar object is estimated by using Hough transform | |
EP3159121A1 (en) | Device for updating map of mobile robot and method therefor | |
KR101569919B1 (en) | Apparatus and method for estimating the location of the vehicle | |
JP4407920B2 (en) | Obstacle recognition method and obstacle recognition device | |
EP1783683A1 (en) | Mobile peripheral monitor | |
Hamzah et al. | Sum of absolute differences algorithm in stereo correspondence problem for stereo matching in computer vision application | |
US20090297036A1 (en) | Object detection on a pixel plane in a digital image sequence | |
JPH11252587A (en) | Object tracking device | |
JPH05298591A (en) | Object recognition device | |
JP3079841B2 (en) | Road shape and own vehicle position measurement device | |
JP2917681B2 (en) | Road shape measurement device | |
Dunlay et al. | Obstacle avoidance on roadways using range data | |
Se et al. | Stereo vision-based obstacle detection for partially sighted people | |
JP3063481B2 (en) | Vehicle object detection device | |
Burie et al. | Detecting and localising obstacles in front of a moving vehicle using linear stereo vision | |
JPH11345392A (en) | Device and method for detecting obstacle | |
JP3757500B2 (en) | Leading vehicle following device | |
Ohzora et al. | Video-Rate Image Processing System for an Autonomous Personal Vehicle System. | |
CN116862832A (en) | Three-dimensional live-action model-based operator positioning method | |
JP2002123820A (en) | Detecting method and device for obstacle being stationary on road obstacle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090512 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090512 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100512 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110512 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |