JPH08320999A - Vehicle recognizing device - Google Patents
Vehicle recognizing deviceInfo
- Publication number
- JPH08320999A JPH08320999A JP7126275A JP12627595A JPH08320999A JP H08320999 A JPH08320999 A JP H08320999A JP 7126275 A JP7126275 A JP 7126275A JP 12627595 A JP12627595 A JP 12627595A JP H08320999 A JPH08320999 A JP H08320999A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- candidate
- coordinate
- detecting
- vertical edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims description 57
- 238000003708 edge detection Methods 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000011156 evaluation Methods 0.000 claims description 6
- 230000004069 differentiation Effects 0.000 claims 3
- 208000024891 symptom Diseases 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 24
- 238000010586 diagram Methods 0.000 description 42
- 238000000034 method Methods 0.000 description 33
- 239000003550 marker Substances 0.000 description 13
- 238000013459 approach Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000007429 general method Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、画像処理によって車両
の存在を認識する装置、および該認識結果を用いて車間
距離等の走行情報を算出する装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for recognizing the presence of a vehicle by image processing, and an apparatus for calculating traveling information such as an inter-vehicle distance using the recognition result.
【0002】[0002]
【従来の技術】従来の車間距離認識装置としては、例え
ば特開平3−273500号公報に記載されたものがあ
る。この装置においては、撮像手段によって得られた前
方画像から、まず自車走行領域(自車両の走行車線)を
認識し、画像上の車両は横エッジ(水平エッジ)成分で
構成されることを利用して、該走行領域内において横エ
ッジを探すことをもって車両検出を行なう。また、カメ
ラの取付け位置を既知とすれば画像内の車両最下端部の
横エッジ位置から車間距離が算出できるとし、該車間距
離と自車速とに基づいて先行車両に対する接近度の判断
を行ない、過剰接近状態であると判定された場合には警
報を発して運転者に注意を促す装置が記載されている。2. Description of the Related Art As a conventional inter-vehicle distance recognizing device, for example, there is one disclosed in Japanese Patent Laid-Open No. 3-273500. In this device, first, the vehicle traveling area (the traveling lane of the vehicle) is recognized from the front image obtained by the image pickup means, and the vehicle on the image is composed of lateral edge (horizontal edge) components. Then, the vehicle is detected by searching for a lateral edge in the traveling area. Further, if the mounting position of the camera is known, the inter-vehicle distance can be calculated from the lateral edge position of the vehicle lowermost end in the image, and the degree of approach to the preceding vehicle is determined based on the inter-vehicle distance and the own vehicle speed. There is described a device that issues an alarm and warns the driver when it is determined that the vehicle is in an excessively close state.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、このよ
うな従来の車両認識装置にあっては、以下のような問題
点があった。まず、第1の問題点としては、路面上には
車両の他に横エッジが検出される物標が多数存在するた
めに、誤検出の多いことが挙げられる。図28は誤検出
を生じやすい光景の例を示す図であり、(a)は跨道橋
の影111、(b)は車間距離確認用白線112、
(c)は道路継ぎ目113を示す。図中(a)〜(c)
のいずれの光景も、エッジと判断される暗→明→暗ある
いは明→暗→明等の濃度差が存在し、かつ、走行路進行
方向に対してほぼ垂直方向に物標が分布するという特徴
を有するため、横エッジとして検出される物標である。
次に、第2の問題点としては、最も画面下方で検出され
る横エッジが必ずしも車両の最下端たりえないことであ
る。例えば、図29(a)のごとき光景のエッジ画像
は、(b)に示すようになるが、画面の最も下方に現わ
れるエッジは道路継ぎ目121であって車両の最下端部
ではない。従って、その横エッジ121から先行車両ま
での距離を算出しても実際の距離とは大きな差が生じ
る、という問題がある。However, such a conventional vehicle recognition device has the following problems. First, as a first problem, there are many false detections because many lateral edges are detected on the road surface in addition to the vehicle. FIG. 28 is a diagram showing an example of a scene in which erroneous detection is likely to occur. (A) is a shadow 111 of an overpass, (b) is a white line 112 for checking an inter-vehicle distance,
(C) shows the road joint 113. (A) to (c) in the figure
In each of the scenes, there is a density difference such as dark → bright → dark or bright → dark → bright, which is judged as an edge, and the targets are distributed almost perpendicular to the traveling direction of the road. Is a target that is detected as a horizontal edge.
Next, the second problem is that the lateral edge detected at the bottom of the screen is not necessarily the bottom end of the vehicle. For example, the edge image of the scene as shown in FIG. 29A is as shown in FIG. 29B, but the edge appearing at the bottom of the screen is the road joint 121 and not the bottom end portion of the vehicle. Therefore, there is a problem that even if the distance from the lateral edge 121 to the preceding vehicle is calculated, there is a large difference from the actual distance.
【0004】本発明は、前記のごとき従来技術の問題を
解決するためになされたものであり、検出位置精度の高
い車両認識を行なうことの出来る車両認識装置を提供す
ることを目的とする。The present invention has been made to solve the problems of the prior art as described above, and an object of the present invention is to provide a vehicle recognition device capable of performing vehicle recognition with high detection position accuracy.
【0005】[0005]
【課題を解決するための手段】前記の目的を達成するた
め、本発明においては、特許請求の範囲に記載するよう
に構成している。図1は、本発明のクレーム対応図であ
る。まず、図1(a)は請求項1に対応するものであ
り、1は車両に搭載されてその進路前方若しくは後方を
撮影し、対応する原画像データを生成する撮像手段、2
は前記生成された原画像データを微分することにより微
分画像データを生成する微分画像生成手段、3は前記生
成された微分画像データに基づいて自車走行路を検出す
る自車走行路検出手段、4は前記自車走行路上の微分画
像データおよび原画像データに基づいて車両候補を検出
する車両候補検出手段、5は前記車両候補近傍における
縦エッジ画像に基づいて車両側面候補を検出する車両側
面候補検出手段、6は前記車両側面候補に基づいて、車
両最下端候補を検出する車両最下端候補検出手段、7は
前記車両最下端候補に基づいて最終的な車両の判定を行
なう車両判定手段である。また、請求項2〜請求項9
は、請求項1における前記車両側面候補検出手段5の構
成例を記載したものであり、請求項10〜請求項12
は、前記車両最下端候補検出手段6の構成例を記載した
ものであり、請求項14〜請求項16は、前記車両判定
手段7の構成例を記載したものである。In order to achieve the above object, the present invention is constructed as described in the claims. FIG. 1 is a diagram corresponding to the claims of the present invention. First, FIG. 1 (a) corresponds to claim 1, and 1 is an image pickup means which is mounted on a vehicle and photographs the front or rear of its route to generate corresponding original image data.
Is a differential image generating means for generating differential image data by differentiating the generated original image data, 3 is a vehicle traveling path detecting means for detecting a vehicle traveling path based on the generated differential image data, Reference numeral 4 is a vehicle candidate detecting means for detecting a vehicle candidate based on the differential image data and original image data on the vehicle running road, and 5 is a vehicle side surface candidate for detecting a vehicle side surface candidate based on a vertical edge image in the vicinity of the vehicle candidate. Detecting means, 6 is a vehicle bottom edge candidate detecting means for detecting a vehicle bottom edge candidate based on the vehicle side surface candidate, and 7 is a vehicle determining means for making a final vehicle determination based on the vehicle bottom edge candidate. . In addition, claims 2 to 9
Is a configuration example of the vehicle side surface candidate detection means 5 in claim 1, and claims 10 to 12 are described.
Describes a configuration example of the vehicle bottom end candidate detection means 6, and claims 14 to 16 describe a configuration example of the vehicle determination means 7.
【0006】また、請求項17に記載の発明は、図1
(b)に示すごとく、図1(a)の構成に、車両判定手
段7によって車両の存在が確認された場合に、得られる
左右の車両最下端候補に基づいて車両最下端座標を算出
する車両最下端座標算出手段8と、該最下端座標に基づ
いて先行車両までの距離を算出する距離算出手段9と、
を追加したものである。また、請求項18は、前記車両
最下端座標算出手段8の構成例を記載したものである。The invention described in claim 17 is based on FIG.
As shown in FIG. 1B, in the configuration of FIG. 1A, when the vehicle determination unit 7 confirms the presence of the vehicle, the vehicle bottom end coordinates are calculated based on the obtained left and right vehicle bottom end candidates. A lowermost end coordinate calculating means 8; and a distance calculating means 9 for calculating a distance to a preceding vehicle based on the lowermost end coordinate,
Is added. The eighteenth aspect describes a configuration example of the vehicle bottom edge coordinate calculating means 8.
【0007】請求項19に記載の発明は、前記図1
(a)において、車両判定手段7の他の構成を示したも
のであり、車両判定手段7として、前記車両側面候補
が、画面縦方向に所定の範囲の濃度値が持続するもので
あって、かつ前記条件を満足する該車両側面候補が横方
向に連続して複数存在することをもって車両判定を行な
うように構成したものである。また、請求項20は、請
求項19の発明において、前記車両側面候補検出手段5
の構成例を記載したものであり、請求項21〜請求項2
4は、請求項20に記載の縦エッジ強度評価手段の構成
例を記載したものであり、請求項25および請求項26
は、前記車両判定手段7の構成例を記載したものであ
る。The invention according to claim 19 is the same as in FIG.
(A) shows another configuration of the vehicle determining means 7, wherein the vehicle side determining means 7 is a vehicle side surface candidate in which a density value within a predetermined range continues in the vertical direction of the screen, In addition, the vehicle determination is performed when a plurality of vehicle side surface candidates satisfying the above condition are continuously present in the lateral direction. According to a twentieth aspect of the invention, in the invention of the nineteenth aspect, the vehicle side surface candidate detection means 5
21 is a configuration example of the above.
4 describes a configuration example of the vertical edge strength evaluation means according to claim 20, and claims 25 and 26.
Is a configuration example of the vehicle determination means 7.
【0008】[0008]
【作用】請求項1〜請求項16に記載の発明は、車両側
面において検出される縦エッジが車両最下端部において
途切れる点と、車両の特徴である対称性と、に着目して
なされたものであり、画像処理を行なって画像中の縦エ
ッジを検出し、その縦エッジが途切れた点を車両最下端
候補とし、例えば左側と右側の車両最下端候補がほぼ同
じ高さである場合に、検出物標が車両である、と判断す
るように構成したものである。したがって、従来のよう
な横エッジのみから車両判定を行なうものに比べて、検
出位置精度の高い車両認識を行なうことが可能となる。The invention described in claims 1 to 16 was made by paying attention to the point that the vertical edge detected on the side surface of the vehicle is interrupted at the lowermost end of the vehicle and the symmetry which is a characteristic of the vehicle. Is, to detect the vertical edge in the image by performing image processing, the point where the vertical edge is interrupted is the vehicle bottom end candidate, for example, when the left and right vehicle bottom end candidates are approximately the same height, It is configured to determine that the detected target is a vehicle. Therefore, it is possible to perform vehicle recognition with high detection position accuracy, as compared with the conventional vehicle determination based on only the lateral edge.
【0009】また、請求項17および請求項18に記載
の発明は、請求項1の発明で求めた車両最下端候補に基
づいて車両最下端座標を算出し、該最下端座標に基づい
て先行車両までの距離を算出するように構成したもので
ある。上記のように、請求項1の構成においては、車両
の最下端部(車両最下端候補)を正確に検出することが
出来るので、それを用いて距離算出を行なうことによ
り、先行車両までの距離を正確に算出することが出来
る。Further, in the inventions of claims 17 and 18, the vehicle bottom edge coordinates are calculated based on the vehicle bottom edge candidates obtained in the invention of claim 1, and the preceding vehicle is based on the bottom edge coordinates. It is configured to calculate the distance to. As described above, in the configuration of claim 1, since the lowermost end portion (vehicle lowermost end candidate) of the vehicle can be accurately detected, the distance to the preceding vehicle is calculated by using the distance calculation. Can be calculated accurately.
【0010】また、請求項19〜請求項26に記載の発
明は、車両最下端候補を求めることなしに、車両側面候
補から車両判定を行なうものである。すなわち、車両側
面候補が、画面縦方向に所定の範囲の濃度値が持続する
ものであって、かつ該条件を満足する車両側面候補が横
方向に連続して複数存在する場合に、検出物標が車両で
あると判断するように構成したものである。したがって
この構成においても、検出位置精度の高い車両認識を行
なうことが出来る。Further, the inventions according to claims 19 to 26 determine the vehicle from the vehicle side surface candidates without determining the vehicle bottom edge candidate. That is, when the vehicle side surface candidate is one in which the density value in the predetermined range continues in the vertical direction of the screen and there are a plurality of vehicle side surface candidates satisfying the condition continuously in the horizontal direction, the detected target object is detected. Is configured to be a vehicle. Therefore, even with this configuration, it is possible to perform vehicle recognition with high detection position accuracy.
【0011】[0011]
【実施例】図2および図3は、本発明の第1の実施例図
であり、図2は本発明に係る車両認識装置を車両用接近
警報装置として実施した場合のブロック図、図3は車両
に搭載した場合の概念図を示す。図2および図3におい
て、211は複数のヘッド(例えば3個)を有するレー
ザレーダ距離計、212は前方画像撮像用のビデオカメ
ラ、213は車速センサ、214はコンピュータ等で構
成された演算装置、215はブザー、チャイム或いは液
晶表示器等の表示・警報装置である。なお、演算装置2
14は記憶装置を備え、演算途中の原画像データや微分
画像データ等を記憶する。2 and 3 are diagrams of a first embodiment of the present invention. FIG. 2 is a block diagram when the vehicle recognition device according to the present invention is implemented as a vehicle approach warning device, and FIG. The conceptual diagram when mounted in a vehicle is shown. 2 and 3, reference numeral 211 denotes a laser radar range finder having a plurality of heads (for example, three heads), 212 is a video camera for capturing a front image, 213 is a vehicle speed sensor, 214 is an arithmetic unit composed of a computer or the like, Reference numeral 215 is a display / warning device such as a buzzer, a chime or a liquid crystal display. The arithmetic unit 2
Reference numeral 14 is provided with a storage device and stores original image data, differential image data, and the like in the process of calculation.
【0012】レーザレーダ距離計211は、車両前方に
レーザ光を放射し、物標からの反射光に基づいて物標ま
での距離を計測する。この距離計測は、例えば3個のヘ
ッドを用いて車両前方の3方向(例えば左斜め前方、正
面、右斜め前方)について計測する。演算装置214
は、車速センサ213からの自車速と前記の計測結果と
に基づいて物標に対する接近程度を判断し、過剰接近と
判断した場合には、表示・警報装置215を用いて運転
者に警報を発する。また、表示・警報装置215におい
ては計測した車間距離等の走行情報を表示することもで
きる。The laser radar range finder 211 emits laser light in front of the vehicle and measures the distance to the target based on the reflected light from the target. This distance measurement is performed using, for example, three heads in three directions in front of the vehicle (for example, diagonally left front, front, diagonally front right). Arithmetic unit 214
Determines the degree of approach to the target based on the vehicle speed from the vehicle speed sensor 213 and the above measurement result, and if it is determined to be excessively close, issues a warning to the driver using the display / warning device 215. . The display / warning device 215 can also display running information such as the measured inter-vehicle distance.
【0013】前記のごとき装置における警報精度を向上
させるためには、レーザレーダ距離計211における物
標、すなわち距離値の検出対象を明確にし、確実に先行
車両までの距離をもって警報判断を行なう必要がある。
例えば前記3個のヘッドで検出した車両前方の検出距離
のうち、何れが先行車両からの値であるかを判断する必
要がある。そのため、本実施例においてはビデオカメラ
212で撮像した自車両前方の画像を画像処理すること
により、先行車両を確実に認識し、それに対する距離値
を検出するように構成している。In order to improve the alarm accuracy in the above-mentioned device, it is necessary to clarify the target of the laser radar range finder 211, that is, the object of detection of the distance value, and to make the alarm judgment surely by the distance to the preceding vehicle. is there.
For example, it is necessary to determine which of the detection distances in front of the vehicle detected by the three heads is the value from the preceding vehicle. Therefore, in this embodiment, the image of the front of the own vehicle captured by the video camera 212 is image-processed to surely recognize the preceding vehicle and detect the distance value to the preceding vehicle.
【0014】以下、車両認識の内容について説明する。
図4は、本実施例における車両認識演算の全体の流れを
示すフローチャートである。図4において、処理の開始
後、初期化を経て、ステップ221において前方画像を
取り込む。次に、ステップ222では、得られた原画像
に対して、図5に示すSobelフィルタなどを用いて、横
エッジ画像を作成する。なお、図5において、(a)は
横エッジ用のオペレータ、(b)は縦エッジ用のオペレ
ータを示す。次に、ステップ223では、該横エッジ画
像に基づいて、レーンマーカ検出を行なう。ここでは、
画像平面内でレーンマーカモデルを定義し、横エッジ画
像から得られる白線候補点と該モデルをカーブフィット
させることを考える。The contents of vehicle recognition will be described below.
FIG. 4 is a flowchart showing the overall flow of the vehicle recognition calculation in this embodiment. In FIG. 4, after the process is started, initialization is performed, and then a front image is captured in step 221. Next, in step 222, a horizontal edge image is created for the obtained original image using the Sobel filter shown in FIG. In addition, in FIG. 5, (a) shows an operator for a horizontal edge, and (b) shows an operator for a vertical edge. Next, in step 223, lane marker detection is performed based on the lateral edge image. here,
Let us consider defining a lane marker model in the image plane and curve fitting the white line candidate points obtained from the lateral edge image and the model.
【0015】図6は、3次元空間と、画像平面との座標
系の対応を示す図であり、3次元空間をカメラ座標系、
画像平面を画像座標系として記述することを定義してい
る。前記のカメラ座標系と画像座標系とは下記(数1)
式で対応づけられる。FIG. 6 is a diagram showing the correspondence between the coordinate systems of the three-dimensional space and the image plane.
It defines to describe the image plane as an image coordinate system. The camera coordinate system and the image coordinate system are the following (Equation 1).
Corresponds with an expression.
【0016】[0016]
【数1】 [Equation 1]
【0017】ただし、x,y:画像座標系 X,Y,Z:カメラ座標系 f:ビデオカメラの焦点距離 また、図7は、前記のカメラ座標系で記述されるレーン
マーカモデルを示す図であり、(a)は平面図、(b)
は側面図である。図7の関係は、下記(数2)式で示さ
れる。 X=BZ2+CZ+A−iE Y=DZ−H0 …(数2) ただし、A:原点0(ビデオカメラ位置)から走行車線
の左端までの距離 B:走行車線の曲率に相当するパラメータ C:進行方向に対するヨー角βに相当するパラメータ D:ピッチ角αに相当するパラメータ E:走行車線の幅 H0:ビデオカメラの地表面からの高さ 前記(数2)式を(数1)式によって画像座標系に変換
すれば、画像座標系におけるレーンマーカモデルは下記
(数3)式で示される。However, x, y: image coordinate system X, Y, Z: camera coordinate system f: focal length of video camera FIG. 7 is a diagram showing a lane marker model described in the camera coordinate system. Yes, (a) is a plan view, (b)
Is a side view. The relationship of FIG. 7 is expressed by the following (Equation 2) formula. X = BZ 2 + CZ + A−iE Y = DZ−H 0 (Equation 2) where A: distance from origin 0 (video camera position) to the left end of the driving lane B: parameter corresponding to the curvature of the driving lane C: traveling Parameter corresponding to yaw angle β with respect to direction D: Parameter corresponding to pitch angle α E: Width of driving lane H 0 : Height from the ground surface of video camera If converted into the coordinate system, the lane marker model in the image coordinate system is expressed by the following (Equation 3).
【0018】[0018]
【数3】 (Equation 3)
【0019】ただし、a、b、c、d、eはそれぞれ
(数2)式におけるA、B、C、D、Eに相当する画像
座標系におけるパラメータである。また、iは整数で、
その値は図8中のレーンマーカNo.に対応している。
なお、図8は車両前方の画像であり、画像座標系で示さ
れている。前記(数3)式により、画像内に複数本現わ
れるレーンマーカが5つのパラメータa〜eによって表
わされる。However, a, b, c, d and e are parameters in the image coordinate system corresponding to A, B, C, D and E in the equation (2), respectively. Also, i is an integer,
The value is the lane marker No. in FIG. It corresponds to.
Note that FIG. 8 is an image in front of the vehicle and is shown in the image coordinate system. According to the equation (3), a plurality of lane markers appearing in the image are represented by the five parameters a to e.
【0020】図9は、図4のステップ223に記載のレ
ーンマーカ検出の内容を示すフローチャートであり、図
4の(A)〜(A')の範囲の詳細内容を示す。図9に
おいて、まず、ステップ271では、新たに入力された
横エッジ画像内において、前フレーム(1回前の入力画
像)で検出されたレーンマーカモデル近傍のエッジ点を
探索し、該エッジ点をもって白線候補点として出力す
る。次に、ステップ272においては、検出された白線
候補点群に対して、誤差が最小となるようなパラメータ
a〜eを、最小自乗法を用いて決定する。この処理によ
り、レーンマーカが前フレームに対して更新されたこと
になる。次に、ステップ273では、得られたi=0と
i=1番目のレーンマーカモデルをもって、自車両走行
レーンとして認識し、終了する。FIG. 9 is a flowchart showing the contents of the lane marker detection described in step 223 of FIG. 4, and shows the detailed contents in the range of (A) to (A ′) of FIG. In FIG. 9, first, in step 271, in the newly input lateral edge image, an edge point near the lane marker model detected in the previous frame (the input image one time before) is searched, and the edge point is acquired. Output as white line candidate points. Next, in step 272, the parameters ae that minimize the error are determined for the detected white line candidate point group using the least square method. By this processing, the lane marker is updated with respect to the previous frame. Next, in step 273, the obtained i = 0 and i = 1 lane marker models are recognized as the own vehicle traveling lane, and the process ends.
【0021】以上の処理を経て、図4のステップ224
では車両検出処理を行なう。図10は、図4の(B)〜
(B')の範囲の詳細内容を示すフローチャートであ
る。図10において、まず、ステップ281において
は、前述の処理よって規定された自車両走行レーン内に
おいて車両候補を検出する。一般に先行車両下部には影
が現われるので、その影によって生ずる横エッジの位置
をここでは検出する。車両下部横エッジ(車両下影周
囲)の特徴としては、次の(1)および(2)が挙げら
れる。 (1)画面下方から走行レーン上を探索していったと
き、明(道路)→暗(車両影)の順に濃度値が変化する
ため、横エッジ強度もその順を反映したものとなる(前
記図5のエッジ検出オペレータを用いた場合には、負の
横エッジすなわち濃度が暗→明と変化するエッジが検出
される)。 (2)遠方においては、影が見えなくなるなど、必ずし
も車両最下端たりえない場合がある。 上記の特徴から、まず対象が負の横エッジ点列であり、
かつ下記(数4)式の条件を満足するy座標を第1の車
両下端候補ys0として検出する。Through the above processing, step 224 in FIG.
Then, vehicle detection processing is performed. FIG. 10 shows (B) to FIG.
It is a flowchart which shows the detailed content of the range of (B '). In FIG. 10, first, at step 281, a vehicle candidate is detected in the own vehicle traveling lane defined by the above-described processing. Generally, a shadow appears in the lower part of the preceding vehicle, and the position of the lateral edge caused by the shadow is detected here. The following (1) and (2) can be cited as features of the vehicle lower lateral edge (around the lower shadow of the vehicle). (1) When searching on the driving lane from the bottom of the screen, the density value changes in the order of light (road) → dark (vehicle shadow), so the lateral edge strength also reflects that order (the above). When the edge detection operator of FIG. 5 is used, a negative lateral edge, that is, an edge whose density changes from dark to light is detected). (2) In a distant place, the shadow may not be visible, and it may not always be the bottom end of the vehicle. From the above characteristics, first, the target is a negative horizontal edge point sequence,
And the y coordinate satisfying the condition of the following equation (4) is detected as the first vehicle lower end candidate y s0 .
【0022】[0022]
【数4】 [Equation 4]
【0023】ここで、Ne:或るy座標における自車線
領域内の所定値以上の絶対強度を有する負の横エッジ点
の個数 Nw:該車線領域の幅(画素数) R:Ne/Nw;yの関数 Rt:Rの下限値を定めるしきい値 なお、上記のNwは、前記(数3)式においてiが0の
ときと1のときとの差によって表される。つまり、x1
−x0=e(y−d)であり、Nwはyの関数となってい
る。また、上記Rtは、例えば軽自動車の車幅1.4mに
対して道幅を高速道路を想定して3.5mとすれば、Rt
=40(%)と定めることができる。Here, Ne: the number of negative lateral edge points having an absolute intensity equal to or higher than a predetermined value in the own lane area at a certain y coordinate Nw: the width (the number of pixels) of the lane area R: Ne / Nw; Function R t of y: Threshold value for defining lower limit value of R Note that the above Nw is represented by a difference between when i is 0 and when it is 1 in the formula (3). That is, x 1
−x 0 = e (y−d), and Nw is a function of y. Further, the R t, for example, a road width against light vehicle in the vehicle width 1.4m if 3.5m assumes highways, R t
= 40 (%).
【0024】次に、ステップ282では、前記の得られ
た第1の車両候補に対して、原画像濃度値を用いた第2
の車両候補判定を行なう。図11は原画像濃度値を用い
た車両候補判定処理を説明するための図である。車両の
下部に現われる影には、図11に示すように一般に濃度
階調が存在する。同図によれば、横エッジ強度の極小値
となるy座標において原画像濃度が最小となり、したが
って、その最小値が検出されるy座標が車両最下端候補
として最もふさわしいことを示している。ここで、“候
補”と記した理由は、前記の車両影の(2)の特徴によ
り、車両最下端として確定したものではないためであ
る。Next, in step 282, a second vehicle density value using the original image density value is obtained for the obtained first vehicle candidate.
Vehicle candidate determination is performed. FIG. 11 is a diagram for explaining the vehicle candidate determination process using the original image density value. In the shadow appearing in the lower part of the vehicle, there is generally a density gradation as shown in FIG. According to the figure, the original image density is minimum at the y-coordinate having the minimum value of the lateral edge strength, and therefore the y-coordinate at which the minimum value is detected is the most suitable as the vehicle bottom edge candidate. Here, the reason why it is described as “candidate” is that it is not decided as the vehicle bottom end due to the characteristic (2) of the vehicle shadow.
【0025】次に、ステップ283では、前記関数R
(y)が最小となるy座標を検出し、該検出位置をもっ
て第2の車両候補とする。ここで、検出されたy座標を
ys1とする。なお、車両検出においてノイズ成分である
前記車間距離表示用白線および道路継ぎ目などは、同y
座標と自車両走行レーンとによって規定される原画像の
濃度値を参照することによって容易に除去することが可
能である。次に、ステップ284では、ys1に基づいて
縦エッジ検出ウィンドウを設定する。一般に車両に現わ
れる縦エッジはその側面に最も強く現われる。また、車
両上下方向においては、車両タイヤ近傍に最も強く安定
した縦エッジが現われる。この理由は背景が常に路面と
なるためである。したがって、前記縦エッジ検出ウィン
ドウは、前記車両下端候補のy座標ys1よりも上方にタ
イヤ相当高さのウィンドウを設定することが効率的であ
る。Next, at step 283, the function R
The y coordinate that minimizes (y) is detected, and the detected position is set as the second vehicle candidate. Here, the detected y coordinate is defined as y s1 . In addition, the white line for displaying the inter-vehicle distance, the road joint, etc., which are noise components in vehicle detection, are the same as
It can be easily removed by referring to the density value of the original image defined by the coordinates and the vehicle traveling lane. Next, in step 284, the vertical edge detection window is set based on y s1 . Generally, the vertical edge that appears on the vehicle appears most strongly on the side. Further, in the vehicle vertical direction, the strongest and stable vertical edge appears near the vehicle tire. The reason for this is that the background is always the road surface. Therefore, it is efficient to set the vertical edge detection window at a height corresponding to the tire above the y-coordinate y s1 of the vehicle lower end candidate.
【0026】以下にウィンドウ高さ算出方法について述
べる。図12は、ウィンドウ高さ算出方法を説明するた
めの図である。先行車両のタイヤ相当高さをhtとし
て、図12のモデルを考える。htは前記カメラ座標系
においては下記(数5)式で記述される(図12の21
01)。 Y=−H0+ht …(数5) したがって、ys1とウィンドウ上端座標ytとの関係
は、前記(数1)式で表わされる透視変換を用いること
により、下記(数6)式で表わされる。The window height calculation method will be described below. FIG. 12 is a diagram for explaining the window height calculation method. Let us consider the model of FIG. 12 with the tire equivalent height of the preceding vehicle being h t . ht is described by the following equation (5) in the camera coordinate system (21 in FIG. 12).
01). Y = −H 0 + h t (Equation 5) Therefore, the relation between y s1 and the window upper end coordinate y t is expressed by the following (Equation 6) by using the perspective transformation represented by the above (Equation 1). Represented.
【0027】[0027]
【数6】 (Equation 6)
【0028】一方、ys1における左右のレーンマーカモ
デルのx座標の差は、下記(数7)式の関係にある。On the other hand, the difference between the x-coordinates of the left and right lane marker models at y s1 has the relationship of the following (Equation 7).
【0029】[0029]
【数7】 (Equation 7)
【0030】上記の(数6)式と(数7)式からZを消
去すると、下記(数8)式に示すようになる。When Z is eliminated from the above equations (6) and (7), the following equation (8) is obtained.
【0031】[0031]
【数8】 (Equation 8)
【0032】ここで得られたyt、およびy=ys1にお
けるレーンマーカモデル上の点x0(ys1)、x
1(ys1)によって定まる長方形を縦エッジ検出ウィン
ドウとして設定する。図13は上記の縦エッジ検出ウィ
ンドウを設定する方法を説明するための図であり、
(a)は画面全体、(b)は縦エッジ検出ウィンドウ2
111を示す。そして該ウィンドウ2111内部の原画
像に対して前記図5に示したSobelフィルタによって縦
エッジ検出を行なう。なお、該ウィンドウ内座標は局所
座標系(O'−x'−y')で記述されるものする。前記
画像座標系と、この局所座標系との間には、下記(数
9)式に示す関係がある。 y−y'=yt , x−x'=x0(ys1) …(数9) 次に、ステップ285では、設定された縦エッジ検出ウ
ィンドウによってもたらされる車両下部の縦エッジ画像
に対して、車両側面候補検出処理を行なう。The points x 0 (y s1 ), x on the lane marker model at y t and y = y s1 obtained here are obtained.
The rectangle defined by 1 (y s1 ) is set as the vertical edge detection window. FIG. 13 is a diagram for explaining a method of setting the above vertical edge detection window,
(A) is the entire screen, (b) is the vertical edge detection window 2
111 is shown. Then, vertical edge detection is performed on the original image inside the window 2111 by the Sobel filter shown in FIG. The coordinates in the window are described in the local coordinate system (O'-x'-y '). The image coordinate system and the local coordinate system have a relationship represented by the following (Equation 9). y−y ′ = y t , x−x ′ = x 0 (y s1 ) ... ( Equation 9) Next, in step 285, for the vertical edge image of the vehicle lower portion brought by the set vertical edge detection window, , Vehicle side candidate detection processing is performed.
【0033】図14は、車両側面候補検出の第1の実施
例を説明するための図であり、(a)は前記の縦エッジ
検出ウィンドウ、(b)は、前記図5を用いて検出され
る縦エッジ画像について、各x'座標上のエッジ強度平
均値I_meanを縦軸に、x'を横軸にして示した図であ
る。車両は左右対称の物標であり、かつ前記ウィンドウ
設定位置においては、車両の背景はほぼ路面となるため
に、図14(b)に示す特性は、車両左側面においては
道路の濃度(明)→車両タイヤの濃度(暗)というコン
トラストを反映した正の縦エッジが検出され、車両右側
面においては(暗)→(明)という負の縦エッジが検出
されることを示している(図14の2121)。この平
均エッジ強度分布I_meanにおいて、下記(数10)式
で示す処理を行なうことによって側面候補を検出するこ
とができる。 i=0,j=0 for x'=0 to x'=xm if I_mean(x')>I_th then xl(i)=x', i=i+1 for x'=xm to x'=xw if I_mean(x')<−I_th then xr(j)=x', J=J+1 …(数10) ただし、xm:ウィンドウの中点のx座標 xw:ウィンドウ幅 i、j:しきい値±I_thを満足するx座標のカウンタ 上記カウンタi、jは、片方若くは両方とも該カウンタ
値が0のとき前記車両側面候補は車両ではないと判定
し、図10の286に分岐する。また、少なくとも左右
に車両側面候補xl(2122)、xr(2123)の両
方が検出された場合は図10のステップ287の最下端
候補検出処理へ該車両側面候補を出力する。なお、車両
候補の出力は、図14に示す様に車両候補群として出力
してもよいが、xl(i)、xr(j)の平均値xGL、xGR
を出力してもよい。また、本実施例においてはエッジの
方向性を有したまま平均値を算出したが、エッジ強度の
絶対値をとって、平均エッジ強度分布を作成してもよ
い。14A and 14B are views for explaining a first embodiment of vehicle side surface candidate detection. FIG. 14A is the vertical edge detection window described above, and FIG. 14B is the detection performed using FIG. FIG. 7 is a diagram showing a vertical edge image in which the vertical axis represents the edge strength average value I_mean on each x ′ coordinate and the horizontal axis represents x ′. The vehicle is a symmetrical object, and the background of the vehicle is almost the road surface at the window setting position. Therefore, the characteristic shown in FIG. → It indicates that a positive vertical edge reflecting the contrast of the vehicle tire density (dark) is detected, and a negative vertical edge of (dark) → (light) is detected on the right side surface of the vehicle (Fig. 14). 2121). In this average edge strength distribution I_mean, the side surface candidate can be detected by performing the processing shown in the following (Equation 10). i = 0, j = 0 for x '= 0 to x' = xm if I_mean (x ')> I_th then xl (i) = x', i = i + 1 for x '= xm to x' = xw if I_mean ( x ′) <− I_th then xr (j) = x ′, J = J + 1 (Equation 10) where xm: x coordinate of midpoint of window xw: window width i, j: threshold value ± I_th is satisfied. Counter for x-coordinates The counters i and j determine that the vehicle side candidate is not a vehicle when one or both of the counter values are 0, and the process branches to 286 in FIG. If both the vehicle side surface candidates xl (2122) and xr (2123) are detected at least on the left and right, the vehicle side surface candidate is output to the bottom edge candidate detection process of step 287 of FIG. The vehicle candidates may be output as a vehicle candidate group as shown in FIG. 14, but the average values xGL, xGR of xl (i), xr (j) may be output.
May be output. Further, in the present embodiment, the average value is calculated while maintaining the edge directionality, but the average edge strength distribution may be created by taking the absolute value of the edge strength.
【0034】次に、図15は、車両側面候補検出の第2
の実施例を説明するための図である。ここでは、図中2
131に示す3値化処理を縦エッジ画像に施し、該変換
によって得られる縦エッジの3値化画像の和S(x')の
分布を利用した車両側面候補検出の実施例である。3値
化処理は、下記(数11)式で示される。 if I_ν(x',y')>I_th then I_ν=1 else if I_ν(x',y')<I_th then I_ν=−1 otherwise:I_ν=0 …(数11) ただし、I_ν:縦エッジ強度 I_th:3値化のためのしきい値 この例においては、Sの値がウィンドウ中心のx座標x
mよりも左側でしきい値St、右側でしきい値−Stを満
足するx座標の個数を(数10)式と同様な方法によっ
て検出する。Next, FIG. 15 shows a second side face candidate detection.
FIG. 6 is a diagram for explaining an example of FIG. Here, 2 in the figure
This is an embodiment of vehicle side surface candidate detection using the distribution of the sum S (x ′) of the vertical edge ternary images obtained by performing the ternary processing shown in 131 on the vertical edge images. The ternarization process is represented by the following (Formula 11). if I_ν (x ', y')> I_th then I_ν = 1 else if I_ν (x ', y') <I_th then I_ν = -1 otherwise: I_ν = 0 (Equation 11) where I_ν: vertical edge strength I_th : Threshold for ternarization In this example, the value of S is the x coordinate x of the window center.
The number of x coordinates satisfying the threshold value S t on the left side of m and the threshold value −S t on the right side is detected by a method similar to the expression (10).
【0035】図16は、左右独立したしきい値I_L、
I_Rを設定する方法を説明するための図である。前記
の3値化処理においては、しきい値I_thを一意に定め
ていたが、図16に示すように、ウィンドウ中心x座標
から左右独立してエッジ強度の頻度分布を作成し(21
41)、該頻度分布を元に2値化処理の一般的な手法で
あるモード法を利用して自動的に各フレームごとに左右
独立してI_L、I_Rとしてしきい値を設定してもよ
い。ただし、Lは左側、Rは右側を示す。FIG. 16 shows left and right independent threshold values I_L,
It is a figure for demonstrating the method of setting I_R. In the above-described ternarization process, the threshold value I_th is uniquely determined, but as shown in FIG. 16, a frequency distribution of edge strength is created independently from the window center x coordinate (21).
41), based on the frequency distribution, the threshold value may be automatically set as I_L and I_R independently for each frame by using a mode method which is a general method of binarization processing. . However, L shows the left side and R shows the right side.
【0036】次に、前記図10のステップ287に示す
最下端候補検出処理について説明する。図17は、最下
端候補検出処理を説明するための図であり、(a)は画
面、(b)はウィンドウを示す。図17に示すように、
得られた車両側面候補のx座標の平均値xGLおよび車両
下端候補座標ys1を基準として横方向に±dx、縦方向
に±dyの大きさの縦エッジ検出ウィンドウ2151を
設定する。該ウィンドウに設定された(O”−x”−
y”)座標系と、画像座標系との関係は、下記(数1
2)式で表わされる。Next, the bottom edge candidate detection processing shown in step 287 of FIG. 10 will be described. FIG. 17 is a diagram for explaining the bottom edge candidate detection processing, in which (a) shows a screen and (b) shows a window. As shown in FIG.
A vertical edge detection window 2151 having a size of ± dx in the horizontal direction and ± dy in the vertical direction is set on the basis of the average value xGL of the x coordinates of the obtained vehicle side surface candidates and the vehicle bottom end candidate coordinate y s1 . (O "-x" -set in the window
y ”) coordinate system and the image coordinate system have the following (equation 1)
It is expressed by the formula 2).
【0037】 y−y”=ys1−dy x−x”=xGk−dx (k=L,R) …(数12) 次に、図18は、車両最下端候補検出処理を説明するた
めの図である。図18に示すように、該ウィンドウ内に
おいて、車両側面候補のx座標xl、xrにおけるエッジ
強度分布から、左側ウィンドウにおいては、初めてしき
い値I_th以下になるy”座標yl(i)、右側ウィンド
ウにおいては、初めてしきい値I_th以上になるy”座
標yr(j)を検出する。このyl(i)、yr(j)が車両
最下端候補である。Y−y ″ = y s1 −dy xx−x ″ = xGk−dx (k = L, R) (Equation 12) Next, FIG. 18 illustrates the vehicle bottom end candidate detection process. It is a figure. As shown in FIG. 18, in the window, from the edge intensity distribution at the x-coordinates xl and xr of the vehicle side surface candidate, in the left-side window, y ″ coordinate yl (i), which becomes the threshold value I_th or less for the first time, right-side window. In the first step, the y ″ coordinate yr (j) that becomes the threshold value I_th or more is detected. These yl (i) and yr (j) are the vehicle bottom end candidates.
【0038】次に、図10のステップ288に示す車両
判定処理について説明する。車両の特徴の一つとして対
称性が挙げられるので、次のような車両判定条件が考え
られる。 (a)ylとyrの差が所定値以下を満足する個数が所定
値以上存在する。 (b)ylの平均値とyrの平均値との差が所定値以下で
ある。すなわち、左側ウィンドウの最下端候補と右側ウ
ィンドウの最下端候補との高さ(y座標位置)がほぼ一
致している場合には、検出物標が車両であると判断する
ことが出来る。 上記の二つの判定条件は何れを用いてもよい。したがっ
て上記二つの判定条件のうち、何れか一方を満足した場
合に車両が検出されたとして次へ進む。Next, the vehicle determination processing shown in step 288 of FIG. 10 will be described. Since the symmetry is one of the characteristics of the vehicle, the following vehicle determination conditions can be considered. (A) There is a predetermined number or more that satisfies the difference between yl and yr that is equal to or smaller than the predetermined value. (B) The difference between the average value of yl and the average value of yr is less than or equal to a predetermined value. That is, when the heights (y coordinate positions) of the lowermost end candidate of the left window and the lowermost end candidate of the right window are substantially the same, it can be determined that the detected target is a vehicle. Either of the above two determination conditions may be used. Therefore, if either one of the above two determination conditions is satisfied, it is determined that the vehicle is detected, and the process proceeds to the next.
【0039】また、さらに拘束条件を付け加えるなら
ば、車両最下端候補座標ys1と、車両側面候補座標x
l、xrとによって、下記(数13)式のように定めても
よい。If a constraint condition is further added, the vehicle bottom end candidate coordinate y s1 and the vehicle side face candidate coordinate x
It may be defined by the following (Equation 13) according to l and xr.
【0040】[0040]
【数13】 (Equation 13)
【0041】上記(数13)式の数値は、高速道路の道
幅3.5m、軽自動車の車幅1.4mおよび大型トラック
の車幅2.5mを反映したものである。また、車両は車
線内に収まっているので、下記(数14)式の条件を付
加する。 〔x0(ys1)<xl〕&〔x1(ys1)>xr〕 …(数14) 上記(数13)式と(数14)式は、車両側面候補のx
座標群xl(i)、xr(j)のそれぞれの平均値が車線内
にあり、かつ、その平均値の差が所定の範囲内であるこ
とを意味する。The numerical value of the equation (13) reflects the road width of the expressway of 3.5 m, the width of the light vehicle of 1.4 m and the width of the large truck of 2.5 m. In addition, since the vehicle is within the lane, the condition of the following (Formula 14) is added. [X 0 (y s1 ) <xl] & [x 1 (y s1 )> xr] (Equation 14) The above (Equation 13) and (Equation 14) are the vehicle side surface candidate x
This means that the average value of each of the coordinate groups xl (i) and xr (j) is within the lane, and the difference between the average values is within a predetermined range.
【0042】次に、図10のステップ289では、前記
の車両判定の際に得られた車両下端座標群yl(i)、y
r(j)の平均値を算出し、該算出結果をysとして車両
最下端座標ysとして認識する。車両最下端座標ysが確
定すれば、先行車両までの概略距離は下記(数15)式
で算出される。Next, at step 289 in FIG. 10, the vehicle lower end coordinate group yl (i), y obtained at the time of the above vehicle determination.
The average value of r (j) is calculated and the calculated result is recognized as y s as the vehicle bottom coordinate y s . Once the vehicle bottom edge coordinate y s is established, the approximate distance to the preceding vehicle is calculated by the following (Equation 15) formula.
【0043】[0043]
【数15】 (Equation 15)
【0044】ただし、F:焦点距離に対応した定数 H0:カメラ取付け高さ 以上の説明においては、各フレーム毎に車両候補検出か
ら車両判定を行なうものについて述べたが、次の例で
は、一回、車両を検出した後、該車両を追跡するトラッ
キングウィンドウを用いた車両検出の例について説明す
る。図19は、上記のトラッキングウィンドウを用いた
車両検出処理のフローチャートである。図19におい
て、ステップ2171のflagは、前回のフレームにおい
て車両検出がなされたか否かを示すフラグであり、
“1”のときは前回検出がなされたものとしてEに進
む。また、ステップ2172〜2179は、前記図10
と同じ構成になっており、ステップ2179において車
両が検出されたと判定された場合は、ステップ2181
で、検出された車両側面x座標および車両下端座標をそ
れぞれxl_old、xr_old、ys_oldに格納し、次回のト
ラッキングウィンドウ(後述)の設定基準座標とする。However, F: constant corresponding to focal length H 0 : camera mounting height In the above description, the vehicle determination is performed from the vehicle candidate detection for each frame, but in the following example, An example of vehicle detection using a tracking window for tracking the vehicle after detecting the vehicle once will be described. FIG. 19 is a flowchart of vehicle detection processing using the above tracking window. In FIG. 19, the flag of step 2171 is a flag indicating whether or not the vehicle was detected in the previous frame,
When the value is "1", the process proceeds to E as the previous detection. Further, steps 2172 to 2179 are the same as those in FIG.
When it is determined that the vehicle is detected in step 2179, the configuration is the same as that in step 2181.
Then, the detected vehicle side x-coordinate and vehicle lower-end coordinate are stored in xl_old, xr_old, and ys_old, respectively, and set as reference coordinates for the next tracking window (described later).
【0045】次に、具体的な追跡処理について説明す
る。図20は、具体的な追跡処理を示すフローチャート
である。また、図21および図22は、図20のフロー
を説明するための図である。図20において、まず、ス
テップ2181で、トラッキングウィンドウを設定す
る。図21の2191に示すように、左右独立して、前
フレームにおける車両下端座標(xl_old、ys_old)、
(xr_old、ys_old)を中心に所定の大きさ±dx、±
dyの幅で縦エッジ検出ウィンドウを設定し、これをも
ってトラッキングウィンドウとする。Next, a specific tracking process will be described. FIG. 20 is a flowchart showing a specific tracking process. 21 and 22 are diagrams for explaining the flow of FIG. 20. In FIG. 20, first, in step 2181, a tracking window is set. As shown at 2191 in FIG. 21, the vehicle lower end coordinates (xl_old, ys_old) in the front frame are independently set to the left and right,
Centered on (xr_old, ys_old) ± dx, ±
A vertical edge detection window is set with a width of dy, and this is used as a tracking window.
【0046】次に、ステップ2182では、車両側面候
補x座標をxl_new(i)、xr_new(j)として検出す
る。方法は、前記の手法の何れを用いてもよいが、ここ
では、図21の2192に示す平均エッジ強度を用いた
手法によって行なった。次に、ステップ2183におい
ては、得られた側面x座標の重心をそれぞれxGL_new、
xGR_newとして算出し、ステップ2184では、図21
の2193に示すように、前記側面x座標における左右
の車両最下端y座標を所定のエッジ強度I_thy以下とな
るy座標yl_new(i)、yr_newとして検出することに
よって行なう。Next, at step 2182, the vehicle side surface candidate x-coordinates are detected as xl_new (i) and xr_new (j). The method may be any of the above-mentioned methods, but here, the method using the average edge strength shown in 2192 in FIG. 21 was used. Next, in step 2183, the center of gravity of the obtained side face x-coordinate is xGL_new,
xGR_new, and in step 2184, FIG.
2193, the left and right vehicle lowermost ends y-coordinates on the side x-coordinates are detected as y-coordinates yl_new (i) and yr_new which are equal to or less than a predetermined edge strength I_thy.
【0047】上記のようにして得られたy座標は、ステ
ップ2185において両者の差の絶対値を算出し、ステ
ップ2186において所定の範囲内であることを確認す
る。また、ステップ2186では、Dyがしきい値dy
_th以下の場合(2186でnoの場合)には、車両側
面における最下端がほぼ一致すると判断し(図22の2
201参照)、(B')へジャンプしてトラッキングを
続ける。ステップ2186で所定の範囲外にあると判定
された場合(2186でyesの場合)には、例えば車
両の割込みなどが生じたと考えられるため(図22の2
202参照)、ステップ2187でフラグをリセット
し、(D)へジャンプし、車両候補検出から始まるルー
チンへと移行する。The y-coordinate thus obtained is calculated in step 2185 as the absolute value of the difference between them, and it is confirmed in step 2186 that it is within a predetermined range. In step 2186, Dy is the threshold value dy.
If it is less than or equal to _th (no in 2186), it is determined that the bottom ends of the vehicle side surfaces are substantially the same (2 in FIG.
201), jump to (B ') and continue tracking. If it is determined in step 2186 that it is out of the predetermined range (2186: yes), it is considered that, for example, a vehicle interrupt has occurred (2 in FIG. 22).
202), and reset the flag in step 2187, jump to (D), and shift to a routine starting from vehicle candidate detection.
【0048】次に、図23は、前記図4のステップに示
すビーム選定と接近度判定の詳細内容を示すフローチャ
ートであり、図4の(c)〜(c')の部分を示す。図
4のステップ227では、前記の概略距離算出結果に基
づいてレーダの距離データの選定(ビーム選定)を行な
うと共に、前記図4のステップ225で得られたレーダ
距離値およびステップ226で得られた車速に基づき、
接近度判定を行なう。その詳細は、図23に示す。図2
3において、まず、ステップ2211では、レーダ測定
距離と前記概略距離との差の絶対値ΔLL〜ΔLRを求
める。続いて、ステップ2212で前記ΔLL〜ΔLR
の内の最小値を求め、該最小値をもたらすレーダ距離値
を先行車両までの距離として採用する。Next, FIG. 23 is a flow chart showing the detailed contents of the beam selection and the approach degree judgment shown in the step of FIG. 4, and shows portions (c) to (c ′) of FIG. In step 227 of FIG. 4, the distance data of the radar is selected (beam selection) based on the rough distance calculation result, and the radar distance value obtained in step 225 of FIG. 4 and the radar distance value obtained in step 226 of FIG. Based on vehicle speed
Determine the degree of approach. The details are shown in FIG. Figure 2
3, first, in step 2211, absolute values ΔLL to ΔLR of the difference between the radar measurement distance and the rough distance are obtained. Subsequently, in step 2212, the ΔLL to ΔLR are set.
The minimum value of the above is obtained, and the radar distance value that brings the minimum value is adopted as the distance to the preceding vehicle.
【0049】図24は、上記のビーム選定処理(前記図
4のステップ227)の内容を説明するための図であ
り、レーダで測定した3個の距離(左斜め前方、正面、
右斜め前方)のうち、画像処理によって求めた概略距離
との差が最も小さい値を先行車両までの距離として採用
することを示している。次に、図23のステップ221
3では、上記のようにして得られた先行車両までの距離
と、自車速と、相対速度とに基づいて、過剰接近か否か
の判断を行ない、過剰接近である場合には、ステップ2
214で運転者に警報を与えることによって注意を促
す。FIG. 24 is a diagram for explaining the contents of the beam selection processing (step 227 in FIG. 4) described above. Three distances (obliquely forward left, front,
It indicates that the value having the smallest difference from the approximate distance obtained by the image processing is adopted as the distance to the preceding vehicle. Next, step 221 in FIG.
In 3, a judgment is made as to whether or not the vehicle is excessively approaching based on the distance to the preceding vehicle, the own vehicle speed, and the relative speed obtained as described above.
At 214, the driver is alerted by alerting him.
【0050】なお、これまでの説明においては、本発明
の車両認識装置を車両用接近警報装置(車間距離警報装
置)に応用した例を中心に説明してきたが、本発明の車
両認識装置は、例えば先行車両に自動的に追従する自律
走行車等のような他のシステムにも応用することが可能
である。In the above description, an example in which the vehicle recognition device of the present invention is applied to a vehicle approach warning device (inter-vehicle distance warning device) has been mainly described, but the vehicle recognition device of the present invention is For example, it can be applied to other systems such as an autonomous vehicle that automatically follows a preceding vehicle.
【0051】次に、前記図4のステップ224に示した
車両検出処理の他の実施例について説明する。図25
は、車両検出処理の他のフローチャートである。図25
において、ステップ281〜284は、前記図10のス
テップと同じである。本実施例で異なるのは、ステップ
285'において、ヒストグラムによる車両判定を行な
う点である。すなわち、ステップ285'においては、
ステップ284で設定された縦エッジ検出ウィンドウに
よってもたらされる車両下部の縦エッジ画像に対して、
ヒストグラムに基づく車両判定を行なう。Next, another embodiment of the vehicle detection processing shown in step 224 of FIG. 4 will be described. Figure 25
6 is another flowchart of the vehicle detection process. Figure 25
In, steps 281 to 284 are the same as the steps in FIG. The difference in the present embodiment is that vehicle determination is performed by a histogram in step 285 '. That is, in step 285 ',
For the vertical edge image of the vehicle bottom, which is provided by the vertical edge detection window set in step 284,
Vehicle determination is performed based on the histogram.
【0052】以下、ヒストグラムに基づく車両判定の第
1の実施例について説明する。前記のようにして縦エッ
ジ画像を検出した後、前記図15において、2131に
示す3値化処理を縦エッジ画像に施し、該変換によって
得られる縦エッジの3値化画像の和S(x')の分布を作
成する。上記の3値化処理は前記(数11)式で示した
ものと同様である。この例においては、Sの値がウィン
ドウ中心のx座標xmよりも左側でしきい値St以上、
右側でしきい値−St以下を満足するx座標の個数をn
l、nrとして検出し、その値が所定値以上の場合に車両
であると判定する。なお、前記3値化処理においては、
しきい値I_thを一意に定めていたが、前記図16の2
131に示したように、ウィンドウ中心のx座標から左
右独立してエッジ強度の頻度分布を作成し、該頻度分布
に基づいて2値化処理の一般的な手法であるモード法を
利用して自動的に各フレームごとに左右独立してI_th
L、I_thRとして設定してもよい。A first embodiment of vehicle determination based on the histogram will be described below. After detecting the vertical edge image as described above, the ternarization processing indicated by 2131 in FIG. 15 is applied to the vertical edge image, and the sum S (x ′ ′ of the ternary image of the vertical edge obtained by the conversion is performed. ) Distribution. The above-mentioned ternarization processing is the same as that shown in the above (Formula 11). In this example, the value of S is more than the threshold value St on the left side of the x coordinate xm of the window center,
On the right side, let n
It is detected as l and nr, and if the value is equal to or larger than a predetermined value, it is determined to be a vehicle. In the ternarization process,
Although the threshold value I_th is uniquely set, the threshold value I_th is 2 in FIG.
As shown in 131, the frequency distribution of the edge strength is created independently from the x coordinate of the window center, and based on the frequency distribution, it is automatically calculated by using the mode method which is a general method of binarization processing. Left and right independently for each frame I_th
It may be set as L and I_thR.
【0053】次に、ヒストグラムに基づく車両判定の第
2の実施例について説明する。図26は、本実施例を説
明するための図であり、(a)はヒストグラム画像、
(b)はランレングス表である。上記第1の実施例にお
いては、所定値St以上あるいは以下を連続して満足す
るx座標を左右独立して計数することにより車両判定を
行っていたが、本実施例においては、図26に示すよう
に、ヒストグラム画像をメモリ上に作成し、しきい値S
t以上、あるいは−St以下を満足するランレングスが存
在する場合、すなわち、左側ではしきい値St以上、右
側では−St以下のランレングスが存在する場合に車両
と判定するものである。Next, a second embodiment of vehicle determination based on a histogram will be described. FIG. 26 is a diagram for explaining the present embodiment, where (a) is a histogram image,
(B) is a run length table. In the first embodiment, the vehicle determination is performed by counting the x-coordinates that satisfy the predetermined value St or more or less continuously, independently on the left and right sides, but in the present embodiment, the vehicle determination is shown in FIG. , A histogram image is created on the memory, and the threshold S
If there is a run length that satisfies t or more or -St or less, that is, if there is a run length that is greater than or equal to the threshold value St on the left side and less than or equal to -St on the right side, the vehicle is determined.
【0054】次に、ヒストグラムに基づく車両判定の第
3の実施例について説明する。上記第2の実施例におい
ては、ウィンドウ左右に1以上のランレングスが存在す
る場合をもって車両判定を行なうが、本実施例において
は、前記ランレングスが存在することをもって車両と判
定するばかりでなく、その差を検出対象が車両である確
度(確からしさ)として出力する。すなわち、車両は左
右対称な物標であるので、理想的には、左右のランレン
グスの差は0となる。したがって左右のランレングスの
差が0に近いほど検出対象が車両である確度が大きいと
いうことになる。Next, a third embodiment of vehicle determination based on a histogram will be described. In the second embodiment, the vehicle determination is performed when there is one or more run lengths on the left and right sides of the window. However, in the present embodiment, not only is the vehicle determined to be the presence of the run length, The difference is output as the accuracy (probability) that the detection target is the vehicle. That is, since the vehicle is a symmetrical target object, ideally the difference between the left and right run lengths is zero. Therefore, the closer the difference between the left and right run lengths is to 0, the greater the probability that the detection target is the vehicle.
【0055】次に、ヒストグラムに基づく車両判定の第
4の実施例について説明する。図27は、第4の実施例
を説明するための画像およびエッジ強度を示す図であ
る。カーブ路においては、図27に示すように、白線と
路面のコントラストに起因する縦エッジが現われる可能
性がある。この場合は(xs,yt)−(x_cut,ysl)
をノイズエリアとして、白線に起因するヒストグラムを
カットする手段を追加することによって、車両側面候補
のヒストグラムのみを抽出することができる。Next, a fourth embodiment of vehicle determination based on a histogram will be described. FIG. 27 is a diagram showing an image and edge strength for explaining the fourth embodiment. On a curved road, a vertical edge may appear due to the contrast between the white line and the road surface, as shown in FIG. In this case (xs, yt)-(x_cut, ysl)
As a noise area, by adding a means for cutting the histogram caused by the white line, it is possible to extract only the histogram of the vehicle side surface candidates.
【0056】なお、上記第1〜第4の実施例の何れかに
よって車両判定がなされた場合は、xl、xrの重心を算
出するなどして、車両側面のx座標を規定し、前記ysl
と、車両側面候補座標xl、xrとによって前記(数1
3)式と(数14)式とによる2条件をを付加すれば、
検出対象が車両であることの可能性はさらに高まる。ま
た、車両判定を行なった後の処理、例えば過剰接近によ
る警報処理等は前記と同様である。When the vehicle is determined by any of the first to fourth embodiments, the center of gravity of xl and xr is calculated to define the x coordinate of the side surface of the vehicle, and the ysl
And the vehicle side candidate coordinates xl and xr,
By adding the two conditions by the equation 3) and the equation (14),
The possibility that the detection target is a vehicle is further increased. Further, the process after the vehicle determination is performed, for example, the alarm process due to the excessive approach is the same as above.
【0057】[0057]
【発明の効果】以上説明したごとく、請求項1〜請求項
16に記載の発明は、画像処理を行なって画像中の縦エ
ッジを検出し、その縦エッジが途切れた点を車両最下端
候補とし、例えば左側と右側の車両最下端候補がほぼ同
じ高さである場合に、検出物標が車両である、と判断す
るように構成したことにより、従来のような横エッジの
みから車両判定を行なうものに比べて、検出位置精度の
高い車両認識を行なうことが出来る、という効果が得ら
れる。また、請求項17および請求項18に記載の発明
は、請求項1の発明で求めた車両最下端候補に基づいて
車両最下端座標を算出し、該最下端座標に基づいて先行
車両までの距離を算出するように構成したことにより、
先行車両までの距離を正確に算出することが出来る、と
いう効果が得られる。また、請求項19〜請求項26に
記載の発明は、車両側面候補が、画面縦方向に所定の範
囲の濃度値が持続するものであって、かつ該条件を満足
する車両側面候補が横方向に連続して複数存在する場合
に、検出物標が車両であると判断するように構成したこ
とにより、検出位置精度の高い車両認識を行なうことが
出来る、という効果が得られる。As described above, according to the inventions of claims 1 to 16, image processing is performed to detect a vertical edge in an image, and a point where the vertical edge is interrupted is set as a vehicle bottom edge candidate. For example, when the left and right vehicle bottom end candidates have almost the same height, the detection target is determined to be a vehicle, so that the vehicle is determined only from the lateral edge as in the conventional case. As compared with the vehicle, it is possible to obtain the effect that the vehicle can be recognized with high detection position accuracy. Further, the invention according to claim 17 and claim 18 calculates the vehicle bottom end coordinates based on the vehicle bottom end candidate obtained in the invention of claim 1 and calculates the distance to the preceding vehicle based on the bottom end coordinates. By configuring to calculate
The effect that the distance to the preceding vehicle can be accurately calculated is obtained. Further, in the invention according to claims 19 to 26, the vehicle side surface candidates are those in which the density value in a predetermined range continues in the vertical direction of the screen, and the vehicle side surface candidates satisfying the condition are in the horizontal direction. In the case where a plurality of consecutive objects exist, it is determined that the detected target is a vehicle, so that the vehicle can be recognized with high detection position accuracy.
【図1】本発明のクレーム対応図。FIG. 1 is a diagram corresponding to a claim of the present invention.
【図2】本発明の第1の実施例図であり、本発明に係る
車両認識装置を車両用接近警報装置として実施した場合
のブロック図。FIG. 2 is a first embodiment of the present invention, and is a block diagram when the vehicle recognition device according to the present invention is implemented as a vehicle approach warning device.
【図3】本発明の第1の実施例図であり、図2の装置を
車両に搭載した場合の概念図。3 is a first embodiment of the present invention, a conceptual diagram when the device of FIG. 2 is installed in a vehicle.
【図4】本実施例における車両認識演算の全体の流れを
示すフローチャート。FIG. 4 is a flowchart showing the overall flow of vehicle recognition calculation in this embodiment.
【図5】sobelフィルタの一例であり、(a)は横エッ
ジ用のオペレータ、(b)は縦エッジ用のオペレータを
示す図。FIG. 5 is an example of a sobel filter, FIG. 5A is a diagram showing an operator for horizontal edges, and FIG. 5B is a diagram showing operators for vertical edges.
【図6】3次元空間と、画像平面との座標系の対応を示
す図。FIG. 6 is a diagram showing correspondence between coordinate systems of a three-dimensional space and an image plane.
【図7】カメラ座標系で記述されるレーンマーカモデル
を示す図であり、(a)は平面図、(b)は側面図。7A and 7B are diagrams showing a lane marker model described in a camera coordinate system, where FIG. 7A is a plan view and FIG. 7B is a side view.
【図8】画像座標系で示した車両前方の画像図。FIG. 8 is an image view in front of the vehicle shown in an image coordinate system.
【図9】図4のステップ223に記載のレーンマーカ検
出の内容を示すフローチャート。9 is a flowchart showing the contents of lane marker detection described in step 223 of FIG.
【図10】図4における(B)〜(B')の範囲の詳細
内容を示すフローチャート。FIG. 10 is a flowchart showing detailed contents in a range of (B) to (B ′) in FIG.
【図11】原画像濃度値を用いた車両候補判定処理を説
明するための図。FIG. 11 is a diagram for explaining vehicle candidate determination processing using original image density values.
【図12】ウィンドウ高さ算出方法を説明するための
図。FIG. 12 is a diagram for explaining a window height calculation method.
【図13】縦エッジ検出ウィンドウを設定する方法を説
明するための図であり、(a)は画面全体を示す図、
(b)は縦エッジ検出ウィンドウ2111を示す図。FIG. 13 is a diagram for explaining a method of setting a vertical edge detection window, in which (a) is a diagram showing the entire screen;
FIG. 9B is a diagram showing a vertical edge detection window 2111.
【図14】車両側面候補検出の第1の実施例を説明する
ための図であり、(a)は縦エッジ検出ウィンドウ、
(b)は、前記図5を用いて検出される縦エッジ画像に
ついて、各x'座標上のエッジ強度平均値I_meanを縦軸
に、x'を横軸にして示した図。FIG. 14 is a diagram for explaining a first embodiment of vehicle side surface candidate detection, in which (a) is a vertical edge detection window,
FIG. 6B is a diagram showing the vertical edge image detected using FIG. 5 with the vertical axis representing the edge strength average value I_mean on each x ′ coordinate and the horizontal axis representing x ′.
【図15】車両側面候補検出の第2の実施例を説明する
ための図。FIG. 15 is a diagram for explaining a second embodiment of vehicle side surface candidate detection.
【図16】左右独立したしきい値I_L、I_Rを設定す
る方法を説明するための図。FIG. 16 is a diagram for explaining a method of setting left and right independent threshold values I_L and I_R.
【図17】最下端候補検出処理を説明するための図。FIG. 17 is a diagram for explaining a bottom edge candidate detection process.
【図18】車両最下端候補検出処理を説明するための
図。FIG. 18 is a diagram for explaining a vehicle bottom end candidate detection process.
【図19】トラッキングウィンドウを用いた検出処理全
体のフローチャート。FIG. 19 is a flowchart of the entire detection process using a tracking window.
【図20】具体的な追跡処理を示すフローチャート。FIG. 20 is a flowchart showing a specific tracking process.
【図21】図20のフローを説明するための図。FIG. 21 is a diagram for explaining the flow of FIG. 20.
【図22】図20のフローを説明するための図。22 is a diagram for explaining the flow of FIG. 20. FIG.
【図23】図4のステップに示すビーム選定と接近度判
定の詳細内容を示すフローチャート。FIG. 23 is a flowchart showing the detailed contents of beam selection and proximity determination shown in the step of FIG.
【図24】図4のステップ227のビーム選定処理を説
明するための図。FIG. 24 is a diagram for explaining the beam selection process of step 227 of FIG. 4;
【図25】車両検出処理の他の実施例のフローチャー
ト。FIG. 25 is a flowchart of another embodiment of vehicle detection processing.
【図26】ヒストグラムに基づく車両判定の第2の実施
例を説明するための図。FIG. 26 is a diagram for explaining a second embodiment of vehicle determination based on a histogram.
【図27】ヒストグラムに基づく車両判定の第4の実施
例を説明するための画像およびエッジ強度を示す図。FIG. 27 is a diagram showing an image and edge strength for explaining a fourth embodiment of vehicle determination based on a histogram.
【図28】従来例における誤検出を生じやすい光景の例
を示す図。FIG. 28 is a diagram showing an example of a scene in which a false detection is likely to occur in the conventional example.
【図29】最も画面下方で検出される水平エッジが必ず
しも車両の最下端とはならないことを説明するための
図。FIG. 29 is a diagram for explaining that the horizontal edge detected at the bottom of the screen is not necessarily the bottom end of the vehicle.
1…撮像手段 2…微分画像生成
手段 3…自車走行路検出手段 4…車両候補検出
手段 5…車両側面候補検出手段 6…車両最下端候
補検出手段 7…車両判定手段 8…車両最下端座
標算出手段 9…距離算出手段 211…レーザレーダ距離計 212…ビデオカ
メラ 213…車速センサ 214…演算装置 215…表示・警報装置DESCRIPTION OF SYMBOLS 1 ... Imaging means 2 ... Differential image generation means 3 ... Own vehicle running road detection means 4 ... Vehicle candidate detection means 5 ... Vehicle side surface candidate detection means 6 ... Vehicle bottom end candidate detection means 7 ... Vehicle determination means 8 ... Vehicle bottom end coordinates Calculation means 9 ... Distance calculation means 211 ... Laser radar range finder 212 ... Video camera 213 ... Vehicle speed sensor 214 ... Calculation device 215 ... Display / warning device
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 // G05D 1/02 G06F 15/62 380 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location // G05D 1/02 G06F 15/62 380
Claims (26)
方を撮影し、対応する原画像データを生成する撮像手段
と、 前記生成された原画像データを微分することにより微分
画像データを生成する微分画像生成手段と、 前記生成された微分画像データに基づいて自車走行路を
検出する自車走行路検出手段と、 前記自車走行路上の微分画像データおよび原画像データ
に基づいて車両候補を検出する車両候補検出手段と、 前記車両候補近傍における縦エッジ画像に基づいて車両
側面候補を検出する車両側面候補検出手段と、 前記車両側面候補に基づいて、車両最下端候補を検出す
る車両最下端候補検出手段と、 前記車両最下端候補に基づいて最終的な車両の判定を行
なう車両判定手段と、 を具備することを特徴とする車両認識装置。1. An image pickup means mounted on a vehicle for photographing the front or rear of a route thereof and generating corresponding original image data; and a differentiation for generating differential image data by differentiating the generated original image data. Image generating means, own vehicle traveling road detecting means for detecting the own vehicle traveling road based on the generated differential image data, and detecting vehicle candidates based on the differential image data and original image data on the own vehicle traveling road Vehicle candidate detecting means, vehicle side candidate detecting means for detecting a vehicle side candidate based on a vertical edge image in the vicinity of the vehicle candidate, and vehicle bottom edge candidate for detecting a vehicle bottom edge candidate based on the vehicle side candidate A vehicle recognition device comprising: a detection unit; and a vehicle determination unit that determines a final vehicle based on the vehicle bottom end candidate.
して検出されたy座標を底辺とするウィンドウを設定す
る縦エッジ検出ウィンドウ設定手段と、該ウィンドウ内
で各x座標ごとに縦エッジ強度を評価することによって
車両側面候補を検出する手段と、によって構成されたも
のであることを特徴とする請求項1に記載の車両認識装
置。2. The vehicle side surface candidate detecting means sets a vertical edge detecting window setting means for setting a window whose base is the y coordinate detected as a vehicle candidate, and a vertical edge strength for each x coordinate in the window. The vehicle recognition device according to claim 1, wherein the vehicle recognition device is configured by means for detecting a vehicle side surface candidate by evaluating.
車両候補として検出されたy座標における車線幅を算出
する手段と、該y座標と対応する車間距離における先行
車両のタイヤ高に相当する画像内高さを算出する手段
と、によって構成されたものであることを特徴とする請
求項2に記載の車両認識装置。3. The vertical edge detection window setting means,
And a means for calculating the lane width at the y-coordinate detected as a vehicle candidate and a means for calculating the image height corresponding to the tire height of the preceding vehicle at the inter-vehicle distance corresponding to the y-coordinate. The vehicle recognition device according to claim 2, wherein the vehicle recognition device is provided.
ジ検出ウィンドウ設定手段によって設定されるウィンド
ウ内において各x座標ごとに算出される縦エッジ強度の
平均値が、ウィンドウの略中心のx座標よりも左側に関
しては画面左から明→暗という濃度変化を反映した値で
あって所定値を越え、右側に関しては画面左から暗→明
という濃度変化を反映した値であって所定値を越えるx
座標群を検出する手段によって構成され、該x座標群を
もって車両側面候補とするものである、ことを特徴とす
る請求項2に記載の車両認識装置。4. The vehicle side surface candidate detection means has an average value of vertical edge intensities calculated for each x coordinate in the window set by the vertical edge detection window setting means, the x coordinate being substantially the center of the window. For the left side, a value that reflects the density change from the left of the screen to light → dark exceeds a predetermined value, and for the right side, the value that reflects the density change from the left of the screen to dark → bright and exceeds the predetermined value x
The vehicle recognition device according to claim 2, wherein the vehicle recognition device is configured by means for detecting a coordinate group, and the x-coordinate group is used as a vehicle side surface candidate.
ジ検出ウィンドウ設定手段によって設定されるウィンド
ウ内において各x座標ごとに算出される縦エッジ強度の
絶対値の平均値が、所定値以上の値をもたらすx座標群
を検出する手段によって構成され、該x座標群をもって
車両側面候補とするものであることを特徴とする請求項
2に記載の車両認識装置。5. The vehicle side surface candidate detecting means has an average absolute value of vertical edge strengths calculated for each x coordinate within a window set by the vertical edge detecting window setting means, being equal to or larger than a predetermined value. The vehicle recognition device according to claim 2, wherein the vehicle recognition device is configured by means for detecting an x-coordinate group that provides a value, and the x-coordinate group is used as a vehicle side surface candidate.
ジ検出ウィンドウ設定手段によって設定されるウィンド
ウ内において各x座標ごとに所定値以上の絶対強度を有
する画素の個数を算出する個数算出手段と、該個数が所
定値以上の値をもたらすx座標群を検出する手段と、に
よって構成され、該x座標群をもって車両側面候補とす
るものであることを特徴とする請求項2に記載の車両認
識装置。6. The vehicle side surface candidate detecting means includes a number calculating means for calculating the number of pixels having an absolute intensity of a predetermined value or more for each x coordinate within the window set by the vertical edge detecting window setting means. 3. The vehicle recognition according to claim 2, further comprising: means for detecting an x-coordinate group that brings the number to a value greater than or equal to a predetermined value, and the x-coordinate group is used as a vehicle side surface candidate. apparatus.
強度の頻度分布を作成する手段と、該頻度分布に基づい
てしきい値を設定する手段と、によって構成されたもの
であることを特徴とする請求項6に記載の車両認識装
置。7. The number calculating means comprises a means for creating a frequency distribution of edge strength in a window and a means for setting a threshold value based on the frequency distribution. The vehicle recognition device according to claim 6.
ジ検出ウィンドウ設定手段によって設定されるウィンド
ウ内において各x座標ごとに所定値以上の絶対強度を有
する画素の個数を算出する個数算出手段と、該個数が所
定値以上の値をもたらすx座標群を検出する手段と、該
x座標群の内でx方向に連続して現われる組のみを特定
する手段と、によって構成され、該x座標群をもって車
両側面候補とするものであることを特徴とする請求項2
に記載の車両認識装置。8. The vehicle side surface candidate detecting means includes a number calculating means for calculating the number of pixels having an absolute intensity of a predetermined value or more for each x coordinate within the window set by the vertical edge detecting window setting means. , The number of x-coordinate groups that produces a value greater than or equal to a predetermined value, and means for specifying only the groups that appear consecutively in the x-direction within the x-coordinate groups. 3. The vehicle side candidate is defined by.
The vehicle recognition device described in 1.
れたx座標群の重心座標xGをウィンドウの略中心のx
座標から左右に独立してxGL、xGRとして算出する手段
によって構成され、該x座標をもって車両側面候補とす
るものであることを特徴とする請求項2に記載の車両認
識装置。9. The vehicle side surface candidate detecting means sets a barycentric coordinate xG of the detected x coordinate group to x at a substantially center of a window.
The vehicle recognition device according to claim 2, wherein the vehicle recognition device is configured by means for independently calculating xGL and xGR from the coordinates to the left and right, and the x coordinates are used as vehicle side surface candidates.
両側面候補検出手段で検出した車両側面候補のx座標に
おいて画面下方向の縦エッジ強度分布が始めて所定値以
下となるy座標を検出する手段によって構成されたもの
であることを特徴とする請求項1に記載の車両認識装
置。10. The vehicle bottom edge candidate detecting means detects ay coordinate at which the vertical edge intensity distribution in the downward direction of the screen starts and becomes a predetermined value or less at the x coordinate of the vehicle side surface candidate detected by the vehicle side surface candidate detecting means. The vehicle recognition device according to claim 1, wherein the vehicle recognition device is configured by means.
両側面候補検出手段で検出した車両側面候補のx座標を
基準に所定のx方向の幅と、車両候補のy座標を基準に
所定のy方向の幅とを有する縦エッジ検出ウィンドウを
再設定する手段と、該ウィンドウ内において画面下方向
の縦エッジ強度分布が始めて所定値以下となるy座標を
検出する手段と、によって構成されたものであることを
特徴とする請求項1に記載の車両認識装置。11. The vehicle bottom edge candidate detection means has a predetermined width in the x direction based on the x coordinate of the vehicle side surface candidate detected by the vehicle side surface candidate detection means, and a predetermined width based on the y coordinate of the vehicle candidate. and a means for resetting a vertical edge detection window having a width in the y direction, and means for detecting ay coordinate at which the vertical edge intensity distribution in the lower direction of the screen starts and becomes a predetermined value or less in the window. The vehicle recognition device according to claim 1, wherein:
設定された縦エッジ検出ウィンドウ内において再び車両
側面候補を左右独立して検出する手段によって構成され
たものであることを特徴とする請求項11に記載の車両
認識装置。12. The vehicle bottom edge candidate detecting means is constituted by means for again detecting left and right vehicle side surface candidates again independently in the reset vertical edge detection window. Item 11. The vehicle recognition device according to item 11.
候補のy座標群yl(i)の平均値と、右側の車両最下端
候補のy座標群yr(j)の平均値との差を算出する手段
と、該算出結果が所定値以下であることを判定する手段
と、によって構成されたものであることを特徴とする請
求項1に記載の車両認識装置。13. The vehicle determination means determines the difference between the average value of the y coordinate group yl (i) of the leftmost vehicle bottom end candidates and the average value of the y coordinate group yr (j) of the right vehicle bottom end candidates. The vehicle recognition apparatus according to claim 1, wherein the vehicle recognition apparatus is configured by a means for calculating and a means for determining that the calculation result is less than or equal to a predetermined value.
候補のy座標群yl(i)の平均値と右側の車両最下端候
補のy座標群yr(j)の平均値との差を算出する手段
と、該算出結果が所定値以下であることを判定する手段
と、車両側面候補のx座標群xl(i)、xr(j)のそれ
ぞれの平均値が車線内にあり、かつ、その平均値の差が
所定の範囲内であることを判定する手段と、によって構
成されたものであることを特徴とする請求項1に記載の
車両認識装置。14. The vehicle determination means determines the difference between the average value of the y coordinate group yl (i) of the leftmost vehicle bottom end candidates and the average value of the y coordinate group yr (j) of the rightmost vehicle bottom end candidates. A means for calculating, a means for determining that the calculation result is less than or equal to a predetermined value, an average value of each of the x coordinate groups xl (i), xr (j) of the vehicle side surface candidate is within the lane, and The vehicle recognition apparatus according to claim 1, wherein the vehicle recognition apparatus is configured by means for determining that the difference between the average values is within a predetermined range.
候補のy座標群yl(i)と右側の車両最下端候補のy座
標群yr(j)との差を算出する手段と、該算出結果が所
定値以下である組の数を計数する手段と、該計数結果が
所定値以下であることを判定する手段と、によって構成
されたものであることを特徴とする請求項1に記載の車
両認識装置。15. The vehicle determining means calculates a difference between a y-coordinate group yl (i) of a leftmost vehicle bottom end candidate and a y-coordinate group yr (j) of a right vehicle bottom end candidate, 2. The device according to claim 1, which is configured by means for counting the number of sets whose calculation result is less than or equal to a predetermined value, and means for determining that the counting result is less than or equal to a predetermined value. Vehicle recognition device.
候補のy座標群yl(i)と右側の車両最下端候補のy座
標群yr(j)との差を算出する手段と、該算出結果が所
定値以下である組の数を計数する手段と、該計数結果が
所定値以下であることを判定する手段と、車両側面候補
のx座標群xl(i)、xr(j)のそれぞれの平均値が車
線内にあり、かつその平均値の差が所定の範囲内である
ことを判定する手段と、によって構成されたものである
ことを特徴とする請求項1に記載の車両認識装置。16. The vehicle determining means calculates a difference between a y-coordinate group yl (i) of the leftmost vehicle bottom end candidate and a y-coordinate group yr (j) of the right vehicle bottom end candidate, and A means for counting the number of sets whose calculation result is less than or equal to a predetermined value, a means for determining that the counting result is less than or equal to a predetermined value, and a x coordinate group xl (i), xr (j) of vehicle side surface candidates. 2. The vehicle recognition according to claim 1, further comprising: a means for determining that each average value is within a lane and a difference between the average values is within a predetermined range. apparatus.
後方を撮影し、対応する原画像データを生成する撮像手
段と、 前記生成された原画像データを微分することにより微分
画像データを生成する微分画像生成手段と、 前記生成された微分画像データに基づいて自車走行路を
検出する自車走行路検出手段と、 前記自車走行路上の微分画像データおよび原画像データ
に基づいて車両候補を検出する車両候補検出手段と、 前記車両候補近傍における縦エッジ画像に基づいて車両
側面候補を検出する車両側面候補検出手段と、 前記車両側面候補に基づいて、車両最下端候補を検出す
る車両最下端候補検出手段と、 前記車両最下端候補に基づいて最終的な車両の判定を行
なう車両判定手段と、 前記車両判定手段によって車両の存在が確認された場合
に、得られる左右の車両最下端候補に基づいて車両最下
端座標を算出する車両最下端座標算出手段と、 該最下端座標に基づいて先行車両までの距離を算出する
距離算出手段と、 を具備することを特徴とする車両認識装置。17. An image pickup means mounted on a vehicle for photographing the front or rear of a route thereof and generating corresponding original image data, and a differentiation for generating differential image data by differentiating the generated original image data. Image generating means, own vehicle traveling road detecting means for detecting the own vehicle traveling road based on the generated differential image data, and detecting vehicle candidates based on the differential image data and original image data on the own vehicle traveling road Vehicle candidate detecting means, vehicle side candidate detecting means for detecting a vehicle side candidate based on a vertical edge image in the vicinity of the vehicle candidate, and vehicle bottom edge candidate for detecting a vehicle bottom edge candidate based on the vehicle side candidate Detection means, vehicle determination means for making a final determination of the vehicle based on the vehicle bottom edge candidate, and a case where the presence of the vehicle is confirmed by the vehicle determination means. In this case, vehicle bottom edge coordinate calculation means for calculating the vehicle bottom edge coordinates based on the obtained left and right vehicle bottom edge candidates, and distance calculation means for calculating the distance to the preceding vehicle based on the bottom edge coordinates. A vehicle recognition device comprising:
下端候補のy座標の平均値を算出するものであることを
特徴とする請求項17に記載の車両認識装置。18. The vehicle recognizing device according to claim 17, wherein the vehicle bottom edge coordinate calculating means calculates an average value of y coordinates of vehicle bottom edge candidates.
後方を撮影し、対応する原画像データを生成する撮像手
段と、 前記生成された原画像データを微分することにより微分
画像データを生成する微分画像生成手段と、 前記生成された微分画像データに基づいて自車走行路を
検出する自車走行路検出手段と、 前記自車走行路上の微分画像データおよび原画像データ
に基づいて車両候補を検出する車両候補検出手段と、 前記車両候補近傍における縦エッジ画像に基づいて車両
側面候補を検出する車両側面候補検出手段と、 前記車両側面候補が、画面縦方向に所定の範囲の濃度値
が持続するものであって、かつ該条件を満足する車両側
面候補が横方向に連続して複数存在することをもって車
両判定を行なう車両判定手段と、 を具備することを特徴とする車両認識装置。19. An image pickup means mounted on a vehicle for photographing the front or rear of a route thereof and generating corresponding original image data, and a differentiation for generating differential image data by differentiating the generated original image data. Image generating means, own vehicle traveling road detecting means for detecting the own vehicle traveling road based on the generated differential image data, and detecting vehicle candidates based on the differential image data and original image data on the own vehicle traveling road Vehicle candidate detecting means, vehicle side candidate detecting means for detecting a vehicle side candidate based on a vertical edge image in the vicinity of the vehicle candidate, and the vehicle side candidate has a density value within a predetermined range in the screen vertical direction. And a vehicle determination means for determining a vehicle when a plurality of vehicle side surface candidates satisfying the condition are continuously present in the lateral direction. Vehicle recognition apparatus according to symptoms.
として検出されたy座標近傍に設置される車両側面候補
検出ウィンドウ設定手段と、該ウィンドウ内で各x座標
ごとに縦エッジ強度を評価する縦エッジ強度評価手段
と、該評価結果に基づいて車両側面候補であるか否かを
判定する手段と、によって構成されたものであることを
特徴とする請求項19に記載の車両認識装置。20. The vehicle side surface candidate detection means evaluates the vertical edge strength for each x coordinate in the vehicle side surface candidate detection window setting means installed near the y coordinate detected as the vehicle candidate. 20. The vehicle recognition apparatus according to claim 19, comprising vertical edge strength evaluation means, and means for judging whether or not the vehicle side surface is a candidate based on the evaluation result.
ごとに所定値以上の縦エッジ強度を有する画素の個数に
よって判定するものであることを特徴とする請求項20
に記載の車両認識装置。21. The vertical edge strength evaluation means makes a judgment based on the number of pixels having a vertical edge strength of a predetermined value or more for each x coordinate.
The vehicle recognition device described in 1.
強度を評価するしきい値を、前記ウィンドウ内において
自動的に設定する手段を有するものであることを特徴と
する請求項20に記載の車両認識装置。22. The vertical edge strength evaluation means comprises means for automatically setting a threshold value for evaluating the vertical edge strength within the window. Vehicle recognition device.
ンドウ内において、白線と路面のコントラストに起因す
る縦エッジ成分を除去する手段を有するものであること
を特徴とする請求項20に記載の車両認識装置。23. The vehicle according to claim 20, wherein the vertical edge strength evaluation means has means for removing a vertical edge component caused by a contrast between a white line and a road surface in the window. Recognition device.
する手段は、カーブ方向検出手段と、左カーブの場合は
前記ウィンドウの左側において上底および下底と白線と
の交点のx座標よりも左側の領域に現われる縦エッジ成
分を除去し、右カーブの場合は前記ウィンドウの右側に
おいて前記x座標より右側の領域に現われる縦エッジ成
分を除去する手段と、によって構成されたものであるこ
とを特徴とする請求項23に記載の車両認識装置。24. The means for removing a vertical edge component caused by the white line is a curve direction detecting means, and in the case of a left curve, on the left side of the window, the x-coordinate of the intersection of the upper and lower bases and the white line Means for removing vertical edge components appearing in the left side region, and in the case of a right curve, removing vertical edge components appearing in the right side region of the x coordinate on the right side of the window. The vehicle recognition device according to claim 23.
の所定値以上の縦エッジ強度を有する画素の個数(ヒス
トグラム)が、ウィンドウ中心から左右独立して所定値
以上連続して現われることを検知する手段と、該検知結
果に基づいて車両判定を行なう手段と、によって構成さ
れたものであることを特徴とする請求項19に記載の車
両認識装置。25. The vehicle determination means is arranged such that the number of pixels (histogram) having a vertical edge strength equal to or higher than the predetermined value according to claim 21 appears continuously at a predetermined value or more independently from the center of the window. 20. The vehicle recognition device according to claim 19, wherein the vehicle recognition device is configured by a detecting unit and a unit that determines a vehicle based on the detection result.
トグラムが連続してあらわれた数を左右独立して計数す
る手段と、該計数結果の左右差が所定の範囲にあるか否
かを判定する手段と、該左右差の値を車両検出結果の確
度として出力する手段と、によって構成されたものであ
ることを特徴とする請求項25に記載の車両認識装置。26. The vehicle determining means determines left and right independently the number of consecutive histograms of a predetermined value or more, and determines whether the difference between the left and right count results is within a predetermined range. 26. The vehicle recognition device according to claim 25, further comprising: means for outputting the value of the left-right difference as accuracy of the vehicle detection result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7126275A JPH08320999A (en) | 1995-05-25 | 1995-05-25 | Vehicle recognizing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7126275A JPH08320999A (en) | 1995-05-25 | 1995-05-25 | Vehicle recognizing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08320999A true JPH08320999A (en) | 1996-12-03 |
Family
ID=14931177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7126275A Pending JPH08320999A (en) | 1995-05-25 | 1995-05-25 | Vehicle recognizing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08320999A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100867937B1 (en) * | 2007-05-29 | 2008-11-10 | 연세대학교 산학협력단 | Method and system for detection of automobile using integral histogram |
US8098933B2 (en) | 2006-11-17 | 2012-01-17 | Alpine Electronics, Inc. | Method and apparatus for partitioning an object from an image |
US8290265B2 (en) | 2007-12-13 | 2012-10-16 | Alpine Electronics, Inc. | Method and apparatus for segmenting an object region of interest from an image |
JP2018194538A (en) * | 2017-05-18 | 2018-12-06 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information processing system and program |
-
1995
- 1995-05-25 JP JP7126275A patent/JPH08320999A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8098933B2 (en) | 2006-11-17 | 2012-01-17 | Alpine Electronics, Inc. | Method and apparatus for partitioning an object from an image |
KR100867937B1 (en) * | 2007-05-29 | 2008-11-10 | 연세대학교 산학협력단 | Method and system for detection of automobile using integral histogram |
US8290265B2 (en) | 2007-12-13 | 2012-10-16 | Alpine Electronics, Inc. | Method and apparatus for segmenting an object region of interest from an image |
JP2018194538A (en) * | 2017-05-18 | 2018-12-06 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information processing system and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4650079B2 (en) | Object detection apparatus and method | |
US7031496B2 (en) | Method and apparatus for object recognition using a plurality of cameras and databases | |
JP3367170B2 (en) | Obstacle detection device | |
US8810653B2 (en) | Vehicle surroundings monitoring apparatus | |
JP3424334B2 (en) | Roadway detection device | |
JP5924399B2 (en) | Three-dimensional object detection device | |
EP1577834B1 (en) | Lane boundary detector | |
JPH10143659A (en) | Object detector | |
JP5804180B2 (en) | Three-dimensional object detection device | |
JP2015207281A (en) | Solid detector, solid detection method, solid detection program, and mobile body equipment control system | |
JP2000357233A (en) | Body recognition device | |
JPH07182484A (en) | Recognition device for front of moving vehicle and vehicle travel controller | |
JP5943077B2 (en) | Three-dimensional object detection apparatus and three-dimensional object detection method | |
JP2008304344A (en) | Target detector | |
JP5743020B2 (en) | Three-dimensional object detection device | |
JPH10283462A (en) | Outer-vehicle monitoring device | |
CN107423675A (en) | The advanced warning system of front shock warning is carried out to trap and pedestrian | |
JP2007309799A (en) | On-board distance measuring apparatus | |
JP2002334330A (en) | Vehicle recognition device | |
JP5888275B2 (en) | Road edge detection system, method and program | |
JPH06162398A (en) | Traffic lane detecting device, traffic lane deviation warning device and collision warning device | |
JP3586938B2 (en) | In-vehicle distance measuring device | |
JPH08320999A (en) | Vehicle recognizing device | |
JP3726309B2 (en) | Vehicle recognition device and vehicle approach notification device using the same | |
JP3740531B2 (en) | Parked vehicle detection method, detection system, and parked vehicle detection device |