JP6299517B2 - Signal recognition device and signal recognition method - Google Patents
Signal recognition device and signal recognition method Download PDFInfo
- Publication number
- JP6299517B2 JP6299517B2 JP2014162068A JP2014162068A JP6299517B2 JP 6299517 B2 JP6299517 B2 JP 6299517B2 JP 2014162068 A JP2014162068 A JP 2014162068A JP 2014162068 A JP2014162068 A JP 2014162068A JP 6299517 B2 JP6299517 B2 JP 6299517B2
- Authority
- JP
- Japan
- Prior art keywords
- detection
- traffic
- signal
- traffic light
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、信号機認識装置及び信号機認識方法に関する。 The present invention relates to a traffic signal recognition apparatus and a traffic signal recognition method.
従来から、車両の進行方向を撮像した画像から信号機または一時停止標識を認識する車外認識装置が知られている(特許文献1)。画像中に複数の信号機または一時停止標識が存在する場合、特許文献1では、車両の進行方向に沿った配置順序を判定し、車両に最も近接する位置に存在する信号機または一時停止標識に応じて車両の走行状態を制御する。
2. Description of the Related Art Conventionally, a vehicle outside recognition device that recognizes a traffic light or a stop sign from an image obtained by capturing the traveling direction of a vehicle is known (Patent Document 1). When there are a plurality of traffic lights or stop signs in the image, in
しかし、特許文献1では、走行制御の基準となる信号機を複数の信号機の中から選択する際に、車両から信号機までの距離を考慮しているが、各信号機の誤検出されやすさを考慮していない。色、輝度、又は形状が信号機と類似する物体は、信号機として誤って検出されてしまう場合がある。
However, in
本発明は、上記課題に鑑みてなされたものであり、2以上の信号機が画像に写ることが予測される場合における信号機の検出精度を高めることができる信号機認識装置及び信号機認識方法を提供することを目的としている。 The present invention has been made in view of the above problems, and provides a traffic signal recognition apparatus and a traffic signal recognition method capable of increasing the detection accuracy of traffic signals when two or more traffic signals are predicted to appear in an image. It is an object.
本発明の一態様に係わる信号機認識装置は、車両の周囲を撮像して画像を取得する撮像部を備え、車両の自己位置を検出し、車両の周囲にある信号機の位置情報と自己位置とから、車両が従うべき信号機の車両に対する相対位置を推定する。信号機の相対位置から予想される画像上の信号機の位置に検出領域を設定し、画像上に設定された検出領域から信号機を検出する。そして、検出領域の各々について信号機の誤検出しやすさを評価し、検出領域が2以上設定された場合、信号機の誤検出しやすさが最も低い検出領域から信号機を検出する。 A traffic light recognition apparatus according to an aspect of the present invention includes an imaging unit that captures an image of a vehicle to acquire an image, detects a self-position of the vehicle, and uses position information and a self-position of a traffic light around the vehicle. The relative position of the traffic light to be followed by the vehicle is estimated. A detection area is set at the position of the traffic light on the image expected from the relative position of the traffic light, and the traffic light is detected from the detection area set on the image. Then, the ease of erroneous detection of the traffic signal is evaluated for each of the detection areas. When two or more detection areas are set, the traffic signal is detected from the detection area where the erroneous detection of the traffic signal is the lowest.
信号機認識装置及び信号機認識方法によれば、2以上の検出領域のうち、信号機の誤検出しやすさが最も低い検出領域の中から信号機を検出することにより、信号機の誤検出を抑制することができる。よって、信号機の検出精度を高めることができる。 According to the traffic signal recognition device and the traffic signal recognition method, by detecting the traffic signal from the detection areas that are least susceptible to erroneous detection of the traffic signal among two or more detection areas, it is possible to suppress erroneous detection of the traffic signal. it can. Therefore, the detection accuracy of the traffic light can be increased.
以下、本発明の実施形態を図面に基づいて説明する。同一部材には同一符号を付して再度の説明を省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same members are denoted by the same reference numerals and the description thereof is omitted.
図1を参照して、実施形態に係わる信号機認識装置100のへ入出力される情報を説明する。信号機認識装置100は、車両に搭載された撮像部(カメラ)により撮像された画像から、車両が走行する道路周辺に設置された信号機を検出する。
With reference to FIG. 1, the information input / output to / from the traffic
信号機認識装置100には、地図情報D02と、ランドマーク情報D01と、カメラ情報D03とが入力される。地図情報D02には、予め実環境と地図の間で対応付けされた信号機の位置情報が含まれる。ランドマーク情報D01は、実環境上の車両の自己位置を算出するために用いられる。ランドマークには、地上に設けられた特徴物(地上ランドマーク)、及び車両が受信可能なGPS信号を発信するGPS衛星が含まれる。実施形態では、地上ランドマークを例に取り説明する。ランドマーク情報D01には、例えば、地上ランドマークの位置情報が含まれる。カメラ情報D03は、撮像部から車両の周囲(例えば前方)の映像を抽出するために用いられる。信号機認識装置100は、これらの情報D01〜D03に基づいて、信号機の検出結果を信号機情報D04として出力する。
Map information D02, landmark information D01, and camera information D03 are input to the traffic
図2を参照して、実施形態に係わる信号機認識装置100の構成及びデータフローを説明する。信号機認識装置100は、撮像部11と、自己位置検出部12と、信号機位置推定部13と、検出領域設定部14と、信号機検出部15と、誤検出度評価部16とを備える。
With reference to FIG. 2, the configuration and data flow of the traffic
撮像部11は、車両に搭載され、車両の周囲を撮像して画像を取得する。撮像部11は、固体撮像素子、例えばCCD及びCMOSを備えるカメラであって、画像処理が可能な画像を取得する。撮像部11は、カメラ情報D03に基づいて、レンズの画角、カメラの垂直方向及び水平方向の角度を設定し、取得した画像を画像データD08として出力する。
The
自己位置検出部12は、ランドマーク情報D01に基づいて車両の自己位置を検出する。ランドマーク情報D01は、例えば、車載のカメラ或いはレーザレーダ等のセンシング手段により検出された地上ランドマーク(店舗、名所、観光スポット)の車両に対する相対位置の情報である。地図情報D02の中には、地上ランドマークの位置情報が予め登録されている。ランドマーク情報D01と地上ランドマークの相対位置の情報とを照合することにより、車両の自己位置を検出することができる。ここで、「位置」には、座標及び姿勢が含まれる。具体的には、地上ランドマークの位置には、地上ランドマークの座標及び姿勢が含まれ、車両の位置には、車両の座標及び姿勢が含まれる。自己位置検出部12は、基準となる座標系における座標(x, y, z)及び、各座標軸の回転方向である姿勢(ピッチ、ヨー、ロール)を自己位置情報D05として出力する。
The
例えば、自己位置検出部12は、ランドマーク情報D01を用いて車両の初期位置を検出する。初期位置とは、ランドマーク情報D01から直接求めることができる車両の位置、すなわち座標及び姿勢である。そして、初期位置に、車両の移動量を累積加算することで車両の自己位置を算出する。自己位置検出部12は、オドメトリ、レーダ装置、ジャイロセンサ、ヨーレイトセンサ、舵角センサを用いて、単位時間当たりの車両の移動量、つまり、座標及び姿勢の変化量を推定することができる。
For example, the self-
信号機位置推定部13は、地図情報D02と自己位置情報D05とから、車両に対する信号機の相対位置を推定する。地図情報D02の中には、信号機の位置情報(座標情報)が予め登録されている。信号機の座標と車両の座標及び姿勢とから、車両に対する信号機の相対座標を求めることができる。信号機位置推定部13は、推定した信号機の相対座標を相対位置情報D06として出力する。なお、信号機位置推定部13により相対位置が推定される信号機は、車両に対して信号を提示する信号機、換言すれば、車両が従うべき信号機である。たとえば、信号機位置推定部13は、車両がこれから進入する最も手前の交差点であって、信号機が設置された交差点を「最寄交差点」として抽出する。「最寄交差点」に存在し、かつ自己位置情報の車両が従うべき少なくても一つ以上の信号機を「最寄信号機」として特定する。そして、車両に対する「最寄信号機」の相対位置を相対位置情報D06として出力とする。
The traffic signal
検出領域設定部14は、信号機の相対位置から、画像における信号機の検出領域を設定する。撮像部11は車両に固定されているため、撮像部11が撮像する画角及び方向が定まれば、画像の中で、信号機が写ることが予測される画像上の位置を特定することができる。検出領域設定部14は、この信号機が写ることが予測される画像上の位置に基づいて、検出領域を設定する。検出領域設定部14は、信号機が写ることが予測される検出領域を検出領域情報D09として出力する。
The detection
誤検出度評価部16は、検出領域の各々について、信号機の誤検出しやすさ、すなわち信号機以外のものを信号機として誤検出する可能性(誤認識度)を評価する。たとえば、誤検出度評価部16は、画像データD08及び検出領域情報D09から、色、形状及び輝度の少なくともいずれか1つの情報を抽出し、抽出した情報を用いて誤検出度を評価する。検出領域毎の評価結果は、誤検出情報D10として出力される。
The error detection
具体的に、誤検出度評価部16は、検出領域において、信号機が有する信号灯の色に類似する色の領域が占める割合に応じて、信号機の誤検出しやすさを評価することができる。検出領域に信号灯の色に類似する色の領域が多く分布しているほど、誤検出度を高く評価する。誤検出度評価部16は、検出領域に含まれる、信号機に類似する形状の数に応じて、信号機の誤検出しやすさを評価することができる。検出領域に、信号灯の形状(円形)、或いは信号機の枠の形状に類似する形状が多く含まれているほど、誤検出度を高く評価する。そして、誤検出度評価部16は、検出領域において、信号機が有する信号灯に類似する輝度の領域が占める割合に応じて、信号機の誤検出しやすさを評価することができる。検出領域に、信号機が有する信号灯に類似する輝度の領域が占める割合が高いほど、誤検出度を高く評価する。
Specifically, the false detection
信号機検出部15は、検出領域設定部14により設定された検出領域の中から信号機を検出する。1つの画像内に2以上の検出領域が設定された場合、信号機検出部15は、信号機の誤検出しやすさ(誤検出度)が最も低い検出領域の中から信号機を検出する。これにより、信号機の誤検出を抑制することができる。
The traffic
信号機検出部15は、信号機の誤検出しやすさが最も低い検出領域の中から信号機を検出できた場合、当該信号機を継続して検出することができる。これにより、信号機を安定して検出し続けることができる。
The
信号機検出部15は、信号機の誤検出しやすさが最も低い検出領域の中から信号機を検出できなかった場合、信号機の誤検出しやすさが次に低い検出領域の中から信号機を検出してもよい。これにより、早期に信号機を検出することができる。
When the traffic
なお、信号機検出部15は、検出領域設定部14により設定した検出領域を画像の中から切り出し、切り出された検出領域から信号機を検出することができる。或いは、検出領域設定部14は、設定した検出領域を拡大した拡大画像を取得できるように、撮像部11の車両に対する姿勢及び撮像部11の画角を制御してもよい。この場合、制御された撮像部11により取得された拡大画像、即ち検出領域から信号機を検出することができる。これにより、検出領域の解像度が高まるため、信号機の認識精度が向上する。パンチルトズーム機構を備えた撮像部11を用いて、全体の画像空間から検出領域へ絞り込んで拡大画像を撮像すればよい。
The traffic
次に、図3を参照して、図2に示した信号機認識装置100を用いた信号認識方法の一例を説明する。図3に示すフローは、予め定めた周期の基で繰り返し実施される。
Next, an example of a signal recognition method using the traffic
先ず、ステップS01において、撮像部11は、カメラ情報D03に基づいて車両の周囲を撮像して画像を取得する。ステップS03に進み、自己位置検出部12は、ランドマーク情報D01を用いて車両の自己位置を検出し、検出された自己位置を自己位置情報D05として出力する。
First, in step S01, the
ステップS05に進み、信号機位置推定部13は、地図情報D02と自己位置情報D05とから、車両に対する信号機の相対位置を推定し、推定した信号機の相対位置を相対位置情報D06として出力する。
Proceeding to step S05, the traffic signal
ステップS07に進み、検出領域設定部14は、信号機の相対位置から、画像の中で、信号機が写ることが予測される画像上の位置を推定し、検出領域を設定する。設定された検出領域は検出領域情報D09として出力される。
Proceeding to step S07, the detection
ステップS09に進み、検出領域設定部14は、検出領域が2以上設定されたか否かを判断する。2以上の検出領域が設定された場合(S09でYES)、ステップS11に進み、1つの検出領域が設定された場合(S09でNO)、ステップS13に進む。
In step S09, the detection
ステップS11において、誤検出度評価部16は、検出領域における色、形状及び輝度の少なくともいずれか1つの情報を用いて、誤検出度を評価する。その後、ステップS13へ進む。検出領域毎の評価結果は、誤検出情報D10として出力される。
In step S <b> 11, the erroneous detection
ステップS13において、信号機検出部15は、検出領域設定部14により設定された検出領域の中から信号機を検出する。1つの画像内に2以上の検出領域が設定された場合、信号機検出部15は、信号機の誤検出度が最も低い検出領域の中から信号機を検出する。
In step S <b> 13, the traffic
図4を参照して、図3のステップS13の詳細な手順を説明する。ここでは、図3のステップS07でN個(Nは2以上の自然数)の検出領域が設定された場合を説明する。先ず、ステップS21にて、N個の検出領域の各々の画像データを取得する。検出領域の画像データは、画像を切り出して取得してもよいし、或いは撮像部11の姿勢及び画角を制御して拡大画像を取得してもよい。ステップS23に進み、検出領域毎の誤検出情報D10を取得する。ステップS25に進み、N個の検出領域の中で最も誤検出度が低い検出領域から、信号機の検出を試みる。
A detailed procedure of step S13 in FIG. 3 will be described with reference to FIG. Here, a case where N detection areas (N is a natural number of 2 or more) are set in step S07 in FIG. 3 will be described. First, in step S21, image data of each of the N detection areas is acquired. The image data of the detection area may be acquired by cutting out an image, or an enlarged image may be acquired by controlling the attitude and angle of view of the
信号機を検出できた場合(S25でYES)、ステップS27へ進み、信号機情報D04を出力する。その後、誤検出度の順位(i)を変更せずに(ステップS29)、ステップS25に戻る。これにより、信号機の検出に成功している場合(S25でYES)、同じ検出領域から信号機を継続して検出することができる。「順位(i)」とは、1以上N以下の自然数であって、誤検出度が低いほど、小さな値となる。つまり、誤検出度が最も低い検出領域の順位(i)は1であり、誤検出度が最も高い検出領域の順位(i)はNである。初期設定はi=1である。 If the traffic signal can be detected (YES in S25), the process proceeds to step S27, and the traffic signal information D04 is output. Thereafter, without changing the rank (i) of the false detection degree (step S29), the process returns to step S25. Thereby, when the detection of the traffic signal is successful (YES in S25), the traffic signal can be continuously detected from the same detection area. “Order (i)” is a natural number of 1 or more and N or less, and the lower the false detection degree, the smaller the value. That is, the rank (i) of the detection area with the lowest false detection degree is 1, and the rank (i) of the detection area with the highest false detection degree is N. The initial setting is i = 1.
一方、信号機を検出できなかった場合(S25でNO)、ステップS31へ進み、現在の順位(i)がNであるか、つまり誤検出度が最も高い値であるか否かを判断する。現在の順位(i)がNでなければ(S31でNO)、未だ検出を試みていない検出領域が残されている。そこで、現在の順位(i)を1だけインクリメント(増加)させ(ステップS35)、つまり現在の順位を1つ下げて、ステップS25へ戻る。一方、現在の順位(i)がNであれば(S31でYES)、全ての検出領域について検出を試みたことになる。そこで、再び、現在の順位(i)を最も高い順位に設定し(ステップS33)、ステップS25へ戻る。 On the other hand, if the traffic signal cannot be detected (NO in S25), the process proceeds to step S31, and it is determined whether or not the current rank (i) is N, that is, whether the false detection degree is the highest value. If the current rank (i) is not N (NO in S31), a detection area that has not yet been attempted to be detected remains. Therefore, the current rank (i) is incremented (increased) by 1 (step S35), that is, the current rank is lowered by 1, and the process returns to step S25. On the other hand, if the current rank (i) is N (YES in S31), detection is attempted for all detection areas. Therefore, the current rank (i) is set to the highest rank again (step S33), and the process returns to step S25.
このように、信号機検出部15は、信号機の誤検出しやすさが低い検出領域の中から順に信号機の検出を試み、検出できた場合、当該検出領域から信号機を継続して検出する。信号機が検出できなくなった場合、信号機の誤検出しやすさが次に低い検出領域の中から信号機の検出を試みる。
As described above, the traffic
つぎに、誤検出度評価部16による誤検出度の評価方法の例を説明する。図5に示すように、撮像部11を搭載する車両VCが、対面走行の道路RDの自車線WLを走行し、対向車線PLには対向車OPが走行している。車両VC及び対向車OPとも、道路CDと交差する交差点Crsに向かって走行している。
Next, an example of the evaluation method of the erroneous detection degree by the erroneous detection
交差点Crsには、信号機TS1、TS2が設けられている。信号機TS1は自車線WL側に位置し、信号機TS2は対向車線PL側に位置している。また、自車線WL側の路肩には、円形の標識MA1が設けられ、対向車線PL側の路肩には、円形の標識MA2、MA3、及び四角形の看板BD1、BD2が設けられている。標識MA1、MA2、MA3の色は、赤色の信号灯に類似する赤色である。看板BD1は赤色の信号灯に類似する赤色で点灯している。看板BD2は青色の信号灯に類似する青色で点灯している。対向車OPの車体の色は、赤色の信号灯に類似する赤色である。交差点Crsが「最寄交差点」に相当し、信号機TS1、TS2が「最寄信号機」に相当する。 Traffic lights TS1 and TS2 are provided at the intersection Crs. The traffic light TS1 is located on the own lane WL side, and the traffic light TS2 is located on the opposite lane PL side. Further, a circular sign MA1 is provided on the road shoulder on the own lane WL side, and circular signs MA2 and MA3 and square signs BD1 and BD2 are provided on the road shoulder on the opposite lane PL side. The colors of the signs MA1, MA2, MA3 are red, which is similar to a red signal light. The sign BD1 is lit in red similar to a red signal light. The sign BD2 is lit in blue similar to a blue signal light. The color of the vehicle body of the oncoming vehicle OP is red, similar to a red signal light. The intersection Crs corresponds to the “nearest intersection”, and the traffic lights TS1 and TS2 correspond to the “nearest traffic signal”.
図6は、図5の走行路例において、車両VCに搭載された撮像部11が撮像した画像IMGの例を示す。信号機TS1及び信号機TS2の備える信号灯のうち、赤色の信号灯RP1、RP2が点灯し、青色及び黄色の信号灯は消灯している。検出領域設定部14は、図7に示すように、画像IMG内に、信号機TS1、TS2が写ることが予測される検出領域RG1、RG2を設定する。検出領域RG1は、自車線及び自車線側の路肩を含む領域であり、検出領域RG2は、対向車線及び対向車線側の路肩を含む領域である。
FIG. 6 shows an example of an image IMG captured by the
図8(a)に示すように、検出領域RG1には、信号機TS1及び標識MA1が写っている。図8(b)に示すように、検出領域RG2には、信号機TS2、標識MA2、MA3、看板BD1、BD2が写っている。 As shown in FIG. 8A, the traffic signal TS1 and the sign MA1 are shown in the detection region RG1. As shown in FIG. 8B, the traffic signal TS2, signs MA2, MA3, signboards BD1, BD2 are shown in the detection region RG2.
(色情報による誤検出評価方法)
誤検出度評価部16は、信号機が有する信号灯の色に類似する色の分布に応じて、信号機以外のものを信号機として誤検出する可能性がどの程度あるかを評価する。たとえば、誤検出度評価部16は、「青信号に含まれている色分布」、「赤信号に含まれている色分布」、及び「黄色信号に含まれている色分布」が検出領域RG1、RG2内にどれくらい含まれているのかを計算する。計算結果の一例を図9(a)及び図9(b)に示す。
(Error detection evaluation method based on color information)
The false detection
検出領域RG1には、赤く点灯する信号灯RP1以外に赤い標識MA1が存在する。このため、誤検出度評価部16は、「赤信号に含まれている色分布」を2と算出し、「青信号に含まれている色分布」を0と算出し、「黄色信号に含まれている色分布」を0と算出する。検出領域RG1の誤検出度は、これらの数値を加算して2と算出される。
In the detection region RG1, a red sign MA1 is present in addition to the signal lamp RP1 that is lit red. For this reason, the false detection
検出領域RG2には、赤く点灯する信号灯RP2以外に赤い標識MA2、MA3、赤く点灯する看板BD1、及び車体が赤い対向車OPが存在する。更に、青く点灯する看板BD2が存在する。このため、誤検出度評価部16は、「赤信号に含まれている色分布」を11と算出し、「青信号に含まれている色分布」を2と算出し、「黄色信号に含まれている色分布」を0と算出する。検出領域RG2の誤検出度は、これらの数値を加算して13と算出される。よって、色情報による誤検出度は、検出領域RG1よりも検出領域RG2の方が高いと判断できる。
In the detection region RG2, there are red signs MA2 and MA3, a signboard BD1 that lights red, and an oncoming vehicle OP that has a red vehicle body, in addition to the signal lamp RP2 that lights red. Further, there is a signboard BD2 that lights up in blue. For this reason, the false detection
(信号形状による誤検出評価方法)
誤検出度評価部16は、検出領域に含まれる、信号機に類似する形状の数に応じて、信号機以外のものを信号機として誤検出する可能性がどの程度あるかを評価する。「信号機に類似する形状」は、丸い信号灯の形状、四角い信号機の枠の形状と丸い信号灯の形状とを組み合わせた形状、或いは、信号機に特有な形状のいずれであってもよい。「信号機に特有な形状」の一例として、垂直方向あるいは水平方向に一列で並ぶ、3つの丸い形状の組み合わせが挙げられる。
(Error detection evaluation method based on signal shape)
The false detection
検出領域RG1には、信号機TS1に含まれる3つの信号灯以外に丸い標識MA1が存在する。このため、誤検出度評価部16は、「信号形状」による誤検出度を4と算出する。一方、検出領域RG2には、信号機TS2に含まれる3つの信号灯以外に丸い標識MA2、MA3が存在する。このため、誤検出度評価部16は、「信号形状」による誤検出度を10と算出する。よって、信号形状による誤検出度は、検出領域RG1よりも検出領域RG2の方が高いと判断できる。
In the detection region RG1, there is a round sign MA1 other than the three signal lights included in the traffic light TS1. Therefore, the false detection
なお、検出領域に含まれるすべての丸い形状の中から選択される3つの組み合わせの数を、「信号形状」による誤検出度として算出することもできる。さらには、検出領域に4つ以上の丸い形状が垂直方向或いは水平方向に配列されている場合に、4つ以上の丸い形状の中から選択される3つの丸形状の配列の組み合わせの数を、「信号形状」による誤検出度として算出することもできる。 Note that the number of three combinations selected from all the round shapes included in the detection region can also be calculated as the false detection degree based on the “signal shape”. Furthermore, when four or more round shapes are arranged in the vertical direction or the horizontal direction in the detection region, the number of combinations of three round shapes selected from the four or more round shapes is set as follows: It can also be calculated as a false detection degree based on the “signal shape”.
(輝度分布による誤検出評価方法)
誤検出度評価部16は、検出領域において、信号機が有する信号灯に類似する輝度の分布に応じて、信号機以外のものを信号機として誤検出する可能性がどの程度あるかを評価する。なお、この評価方法において色相は考慮しなくてもよい。検出領域RG1には、赤く点灯する信号灯RP1以外に類似する輝度の領域は存在していない。このため、誤検出度評価部16は、「輝度分布」による誤検出部を1と算出する。一方、検出領域RG2には、赤く点灯する信号灯RP1以外に類似する輝度で点灯する看板BD1、BD2、及び対向車OPの前照灯が存在する。このため、誤検出度評価部16は、「輝度分布」による誤検出部を3と算出する。よって、輝度分布による誤検出度は、検出領域RG1よりも検出領域RG2の方が高いと判断できる。
(Error detection evaluation method using luminance distribution)
The false detection
(色、形状、及び輝度の組み合わせによる誤検出評価方法)
色、形状及び輝度の少なくともいずれか2つの情報を組み合わせて、信号機以外のものを信号機として誤検出する可能性がどの程度あるかを評価してもよい。図12は、色、形状及び輝度の3つの情報を組み合わせた誤検出評価方法の例を示す。ここでは、(1)式に示すように、上記した「色情報による誤検出度」、「信号形状による誤検出度」及び「輝度分布による誤検出度」を検出領域毎に加算した数値を、誤検出度として算出する。(1)式において、FCN、FFN、FINは、「色情報による誤検出度」、「信号形状による誤検出度」及び「輝度分布による誤検出度」を示し、GNは、算出された誤検出度を示す。
(Error detection evaluation method based on combination of color, shape, and brightness)
You may evaluate how much there is a possibility of misdetecting things other than a traffic light as a traffic light by combining at least any two information of a color, a shape, and a brightness | luminance. FIG. 12 shows an example of a false detection evaluation method combining three pieces of information of color, shape, and luminance. Here, as shown in the equation (1), a numerical value obtained by adding the above-described “false detection degree by color information”, “false detection degree by signal shape”, and “false detection degree by luminance distribution” for each detection region, Calculated as the degree of false detection. In the equation (1), F CN , F FN , and F IN indicate “a false detection degree by color information”, “a false detection degree by signal shape”, and “a false detection degree by luminance distribution”, and GN is calculated. The detected false positive degree is shown.
GN=FCN+FFN+FIN (1) G N = F CN + F FN + F IN (1)
したがって、図12(a)に示すように、検出領域RG1の誤検出度GAは4と算出される。図12(b)に示すように、検出領域RG1の誤検出度GBは26と算出される。よって、この場合も、輝度分布による誤検出度は、検出領域RG1よりも検出領域RG2の方が高いと判断できる。 Accordingly, as shown in FIG. 12 (a), false detection of G A detection region RG1 is calculated to be 4. As shown in FIG. 12 (b), false detection of G B of the detection region RG1 is calculated to be 26. Therefore, also in this case, it can be determined that the detection error level due to the luminance distribution is higher in the detection region RG2 than in the detection region RG1.
或いは、(2)式に示すように、上記した「色情報による誤検出度」、「信号形状による誤検出度」及び「輝度分布による誤検出度」の各々に、重み付け(WC、WF、WI)を付してから加算しても構わない。 Alternatively, (2) as shown in the expression "degree of detection error due color information 'described above, each of the" degree of detection error due signal shape "and" detection of erroneous luminance distribution ", weighted (W C, W F , W I ) may be added.
GN=WC×FCN+WF×FFN+WI×FIN (2) G N = W C × F CN + W F × F FN + W I × F IN (2)
車両の走行状況に応じて、重み付け(WC、WF、WI)を変更することにより、走行状況に応じて適切な信号認識処理を行うことができる。たとえば、夜間走行中、又はトンネルを走行中は、環境光が弱いため、灯火中の信号灯のみならず、これに隣接する消灯中の信号灯や信号機の枠までも同時に撮像することは難しい場合がある。このような場合、複数の丸い形状の並びや信号機の枠の形状などを認識し難い。そこで、「信号形状による誤検出度」の重み(WF)よりも、「色情報による誤検出度」及び「輝度分布による誤検出度」の重み(WC、WI)を大きくする。これにより、夜間走行中又はトンネルを走行中に適切な信号認識処理を行うことができる。これとは逆に、昼間や環境光が強い走行状況では、信号灯に類似する色の分布や輝度の分布が多くなる場合がある。このような場合は、色や輝度の重みを(WC、WI)小さくし、形状の重み(WF)を大きくすればよい。 By changing the weights (W C , W F , W I ) in accordance with the traveling state of the vehicle, appropriate signal recognition processing can be performed in accordance with the traveling state. For example, when driving at night or in a tunnel, the ambient light is weak, so it may be difficult to capture not only a signal light that is on, but also a signal light that is turned off and a frame of a traffic light adjacent to it. . In such a case, it is difficult to recognize the arrangement of a plurality of round shapes, the shape of the frame of the traffic light, and the like. Therefore, than the weight of the "degree of detection error due signal shape" (W F), increasing the weight (W C, W I) of the "degree of detection error due color information" and the "degree of detection error due luminance distribution". Accordingly, it is possible to perform appropriate signal recognition processing while traveling at night or traveling through a tunnel. On the other hand, in daytime and driving situations with strong ambient light, the color distribution and luminance distribution similar to signal lights may increase. In such a case, the color and luminance weights may be reduced (W C , W I ) and the shape weights (W F ) may be increased.
以上説明したように、本発明によれば、以下の作用効果が得られる。 As described above, according to the present invention, the following effects can be obtained.
検出領域設定部14が1つの画像内に2以上の検出領域(RG1、RG2)を設定した場合、誤検出度評価部16は、検出領域の各々について信号機の誤検出しやすさ(誤検出度)を評価し、信号機検出部は、信号機の誤検出しやすさが最も低い検出領域の中から信号機を検出する。これにより、信号機の誤検出を抑制することができる。よって、画像から信号機を精度良く検出することができる。また、画像のうち検出領域の中から信号機の検出を試みるので、演算負荷が軽減される。
When the detection
誤検出度評価部16は、検出領域において、信号機が有する信号灯の色に類似する色の領域が占める割合に応じて、信号機の誤検出しやすさを評価することができる。信号灯と類似する色の領域を、信号機として誤って認識することを抑制できる。
The false detection
誤検出度評価部16は、検出領域に含まれる、信号機に類似する形状の数に応じて、信号機の誤検出しやすさを評価することができる。信号機と類似する形状の領域を、信号機として誤って認識することを抑制できる。
The false detection
誤検出度評価部16は、検出領域において、信号機が有する信号灯に類似する輝度の領域が占める割合に応じて、信号機の誤検出しやすさを評価することができる。信号灯と輝度が類似する領域を、信号機として誤って認識することを抑制できる。
The false detection
図4に示したように、信号機検出部15は、信号機の誤検出しやすさが最も低い検出領域の中から信号機を検出できた場合(S25でYES)、当該信号機を継続して検出する。これにより、信号機を安定して検出し続けることができる。
As shown in FIG. 4, when the
信号機の誤検出しやすさが最も低い検出領域の中から信号機が検出されることを待つよりも、誤検出しやすさが次に低い検出領域の中から信号機を先に検出できる場合がある。そこで、図4に示したように、信号機検出部15は、信号機の誤検出しやすさが最も低い検出領域の中から信号機を検出できなかった場合(S25NO)、誤検出しやすさが次に低い検出領域の中から信号機を検出する。これにより、早期に信号機を検出することができる。また、演算負荷も軽減される。
In some cases, it is possible to detect a traffic light first from a detection area having the next lowest likelihood of erroneous detection, rather than waiting for a traffic light to be detected from a detection area having the lowest traffic light misdetectability. Therefore, as shown in FIG. 4, when the traffic
検出領域設定部14は、検出領域(RG1、RG2)を拡大した拡大画像を取得できるように、撮像部11の車両に対する姿勢及び撮像部11の画角を制御してもよい。画像から検出領域を切り出す場合に比べて、検出領域の解像度が高まるため、信号機の認識精度が向上する。
The detection
以上、実施例に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。 Although the contents of the present invention have been described with reference to the embodiments, the present invention is not limited to these descriptions, and it is obvious to those skilled in the art that various modifications and improvements can be made.
11 撮像部
12 自己位置検出部
13 信号機位置推定部
14 検出領域設定部
15 信号機検出部
16 誤検出度評価部
100 信号機認識装置
D02 地図情報
RG1、RG2 検出領域
DESCRIPTION OF
Claims (8)
前記車両の自己位置を検出する自己位置検出部と、
前記車両の周囲にある信号機の位置情報を含む地図情報と前記自己位置とから、前記車両が従うべき前記信号機の前記車両に対する相対位置を推定する信号機位置推定部と、
前記信号機の相対位置から予想される前記画像上の信号機の位置に検出領域を設定する検出領域設定部と、
前記画像上に設定された検出領域から前記信号機を検出する信号機検出部と、
前記検出領域の各々について前記信号機の誤検出しやすさを評価する誤検出度評価部と、を備え、
前記信号機検出部は、前記検出領域が2以上設定された場合、前記信号機の誤検出しやすさが最も低い前記検出領域から前記信号機を検出する、
ことを特徴とする信号機認識装置。 An imaging unit mounted on a vehicle and capturing an image of the surroundings of the vehicle;
A self-position detector for detecting the self-position of the vehicle;
A traffic signal position estimation unit that estimates a relative position of the traffic signal to be followed by the vehicle from map information including positional information of traffic signals around the vehicle and the self-position;
A detection area setting unit for setting a detection area at the position of the traffic light on the image expected from the relative position of the traffic light;
A traffic light detector for detecting the traffic light from a detection area set on the image;
An error detection degree evaluation unit that evaluates the ease of erroneous detection of the traffic light for each of the detection areas, and
The traffic signal detection unit detects the traffic signal from the detection area where the detection error is least likely when the detection area is set to 2 or more,
A traffic light recognition apparatus characterized by the above.
前記車両の自己位置を検出し、
前記車両の周囲にある信号機の位置情報を含む地図情報と前記自己位置とから、前記車両が従うべき前記信号機の前記車両に対する相対位置を推定し、
前記信号機の相対位置から予想される画像上の信号機の位置に検出領域を設定し、
前記画像上に設定された検出領域から前記信号機を検出し、
前記検出領域の各々について前記信号機の誤検出しやすさを評価する信号機認識方法であって、
前記検出領域が2以上設定された場合、前記信号機の誤検出しやすさが最も低い前記検出領域から前記信号機を検出する、
ことを特徴とする信号機認識方法。 Using an imaging unit mounted on the vehicle, image the surroundings of the vehicle to obtain an image,
Detecting the position of the vehicle,
From the map information including the position information of traffic lights around the vehicle and the self-position, the relative position of the traffic lights to the vehicle to be followed by the vehicle is estimated,
Set the detection area to the position of the traffic light on the image expected from the relative position of the traffic light,
Detecting the traffic light from a detection area set on the image;
A traffic light recognition method for evaluating ease of erroneous detection of the traffic light for each of the detection areas,
When the detection area is set to 2 or more, the traffic signal is detected from the detection area with the lowest possibility of erroneous detection of the traffic light.
A traffic light recognition method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014162068A JP6299517B2 (en) | 2014-08-08 | 2014-08-08 | Signal recognition device and signal recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014162068A JP6299517B2 (en) | 2014-08-08 | 2014-08-08 | Signal recognition device and signal recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016038757A JP2016038757A (en) | 2016-03-22 |
JP6299517B2 true JP6299517B2 (en) | 2018-03-28 |
Family
ID=55529772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014162068A Active JP6299517B2 (en) | 2014-08-08 | 2014-08-08 | Signal recognition device and signal recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6299517B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9977975B2 (en) | 2016-08-18 | 2018-05-22 | Toyota Motor Engineering & Manufacturing North America, Inc. | Traffic light detection using multiple regions of interest and confidence scores |
JP6834425B2 (en) * | 2016-12-02 | 2021-02-24 | スズキ株式会社 | Driving support device |
US11420632B2 (en) * | 2017-03-28 | 2022-08-23 | Pioneer Corporation | Output device, control method, program and storage medium |
JP6939615B2 (en) | 2018-02-02 | 2021-09-22 | トヨタ自動車株式会社 | Traffic light recognition device |
JP2020021400A (en) * | 2018-08-03 | 2020-02-06 | パイオニア株式会社 | Information processing device |
JP7268497B2 (en) | 2019-06-24 | 2023-05-08 | トヨタ自動車株式会社 | signal recognition system |
JP7088135B2 (en) | 2019-07-23 | 2022-06-21 | トヨタ自動車株式会社 | Signal display estimation system |
JP7088137B2 (en) | 2019-07-26 | 2022-06-21 | トヨタ自動車株式会社 | Traffic light information management system |
JP7250833B2 (en) * | 2021-03-09 | 2023-04-03 | 本田技研工業株式会社 | OBJECT RECOGNITION DEVICE, OBJECT RECOGNITION METHOD, AND PROGRAM |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4631750B2 (en) * | 2006-03-06 | 2011-02-16 | トヨタ自動車株式会社 | Image processing system |
JP4622928B2 (en) * | 2006-04-14 | 2011-02-02 | トヨタ自動車株式会社 | In-vehicle camera control device and in-vehicle camera control method. |
JP2009129290A (en) * | 2007-11-27 | 2009-06-11 | Aisin Aw Co Ltd | Traffic signal detection apparatus, traffic signal detection method and program |
JP5747549B2 (en) * | 2011-02-18 | 2015-07-15 | 株式会社豊田中央研究所 | Signal detector and program |
JP2012215442A (en) * | 2011-03-31 | 2012-11-08 | Aisin Aw Co Ltd | Own position determination system, own position determination program, own position determination method |
US8831849B2 (en) * | 2012-02-13 | 2014-09-09 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for traffic signal recognition |
-
2014
- 2014-08-08 JP JP2014162068A patent/JP6299517B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016038757A (en) | 2016-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6299517B2 (en) | Signal recognition device and signal recognition method | |
US9740942B2 (en) | Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method | |
CN107845104B (en) | Method for detecting overtaking vehicle, related processing system, overtaking vehicle detection system and vehicle | |
KR101988811B1 (en) | Signaling device and signaling device recognition method | |
WO2015177864A1 (en) | Traffic-light recognition device and traffic-light recognition method | |
JP4970516B2 (en) | Surrounding confirmation support device | |
JP4895313B2 (en) | Navigation apparatus and method | |
JP4321821B2 (en) | Image recognition apparatus and image recognition method | |
JP2021167819A (en) | Determination of yaw error from map data, laser and camera | |
US9659497B2 (en) | Lane departure warning system and lane departure warning method | |
JP6222353B2 (en) | Target detection apparatus and target detection method | |
US20170069090A1 (en) | Image processing device, image processing system, and image processing method | |
WO2014084251A1 (en) | Onboard image processing system | |
JP6365103B2 (en) | Signal detection device and signal detection method | |
WO2013161028A1 (en) | Image display device, navigation device, image display method, image display program and recording medium | |
WO2017162812A1 (en) | Adaptive display for low visibility | |
US11468691B2 (en) | Traveling lane recognition apparatus and traveling lane recognition method | |
KR101974772B1 (en) | Signal device detection device and signal device detection method | |
JP2007280132A (en) | Travel guide obstacle detector, and controller for vehicle | |
KR102031635B1 (en) | Collision warning device and method using heterogeneous cameras having overlapped capture area | |
JP2013185871A (en) | Mobile object position attitude estimation device and method | |
JP2018073275A (en) | Image recognition device | |
WO2018225480A1 (en) | Position estimating device | |
JP2017117105A (en) | Visibility determination device | |
JP2019012413A (en) | Image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180212 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6299517 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |