Nothing Special   »   [go: up one dir, main page]

JP4654163B2 - 車両の周囲環境認識装置及びシステム - Google Patents

車両の周囲環境認識装置及びシステム Download PDF

Info

Publication number
JP4654163B2
JP4654163B2 JP2006193528A JP2006193528A JP4654163B2 JP 4654163 B2 JP4654163 B2 JP 4654163B2 JP 2006193528 A JP2006193528 A JP 2006193528A JP 2006193528 A JP2006193528 A JP 2006193528A JP 4654163 B2 JP4654163 B2 JP 4654163B2
Authority
JP
Japan
Prior art keywords
recognition
rear camera
vehicle
image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006193528A
Other languages
English (en)
Other versions
JP2008021196A (ja
Inventor
健 志磨
彰二 村松
裕史 大塚
君吉 待井
未来 樋口
竜彦 門司
耕太 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2006193528A priority Critical patent/JP4654163B2/ja
Priority to US11/777,585 priority patent/US7957559B2/en
Publication of JP2008021196A publication Critical patent/JP2008021196A/ja
Application granted granted Critical
Publication of JP4654163B2 publication Critical patent/JP4654163B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両に搭載されたカメラの映像を処理し、車両の周囲の環境である道路上の路面標示,信号機,標識等を認識する装置及びシステムに関する。
車両に搭載されたカメラの映像を画像処理し、路面上の路面標示を認識する装置が特許文献1に記載されている。
また、車両の前方と後方にカメラを設置したシステムにおいて、前方カメラの画像のコントラストを検出し、前方の画像情報が得にくい場合には、後方のカメラの情報を用いて車両の周囲を認識する装置が特許文献2に記載されている。
特開平3−220410号公報 特開平6−206196号公報
特許文献1の装置は、車両の後方に設置したカメラで路面標示を認識する装置であるが、車両の後方に設置したカメラの映像中において、路面標示は画面下端から出現するため、画面のどの位置に路面標示が出現するか予測するのが難しい。また、カメラの設置俯角が大きく、カメラの視野に入る路面の部分が狭いため、認識対象物を補足できる時間が非常に短い。そのため、認識率の向上や誤認識の削減が難しい。
また、特許文献2の装置は、車両前方のカメラと後方のカメラのうち、どちらか一方に切り替える装置であり、カメラ間で相互にデータの交換が行われておらず、2つのカメラが有効に利用できていないため、さらなる認識率の向上,誤認識の削減が可能である。
本発明の車両周囲環境認識装置は、車両に搭載され、車両の前方を撮像する第1の画像入力手段と、車両に搭載され、車両の後方を撮像する第2の画像入力手段と、第1の画像入力手段の撮像条件を制御する第1の画像入力手段制御部と、第2の画像入力手段の撮像条件を制御する第2の画像入力手段制御部と、第1の画像入力手段で入力した画像を画像処理して車両周囲の認識対象物を認識する第1の認識手段と、第2の画像入力手段で入力した画像を画像処理して車両周囲の認識対象物を認識する第2の認識手段と、第1の認識手段の認識結果に基づいて第2の画像入力手段の撮像条件及び第2の認識手段の画像処理の内容を決定する認識方法判断部と、を有し、認識方法判断部は、第1の認識手段の認識結果に基づいて、第2の画像入力手段で認識可能な認識対象物を抽出し、抽出された認識対象物を第2の画像入力手段の認識対象物として決定する認識対象物決定手段と、認識対象物を認識する処理を実行するタイミングを決定する処理タイミング決定手段と、を有し、処理タイミング決定手段は、検出した自車両の速度と、第1の認識手段と第2の認識手段間の距離と、第1の認識手段で認識対象物を認識した時刻と、認識対象物の位置と、に基づいて、第2の画像入力手段の認識領域に認識対象物が出現する位置と時刻を計算し、位置と時刻をタイミングとして決定する構成とする。
1つのカメラを利用した装置よりも、認識対象物の認識率の向上,誤認識の削減が実現できる。
以下、図を用いて本発明の好適な実施形態を説明する。
本発明を、車両に搭載されたリアカメラの映像を用いて、路面標示を認識するシステムに適用した場合の実施の形態を説明する。
図1に本発明に係る車両の周囲環境認識システムの実施例を示す。車両1には、車両前方を撮像するフロントカメラ101と車両後方を撮像するリアカメラ108が搭載されている。フロントカメラ101は視野4に路面が映るように取り付けられており、リアカメラ108も視野5に路面が映るように取り付けられている。
フロントカメラ101で撮像された映像情報は周囲環境認識装置2に入力される。周囲環境認識装置2は入力された映像情報に基づいて車両前方の路面標示3aを認識する。なお白線3d,3e,標識3c,信号機(図示しない)を認識する構成としても良い。以下、路面標示,白線,標識,信号機をまとめて「路面標示等」と記載する。ここで路面標示とは道路上に表示された交通標識であり、例えば横断歩道,一時停止線,最高速度標示,進行方向別通行区分標示,転回禁止標示である。
フロントカメラと同様に、リアカメラ108で撮像された映像情報も周囲環境認識装置2に入力される。周囲環境認識装置2は入力された映像情報に基づいて車両後方の路面標示3bを認識する。周囲環境認識装置2は認識した路面標示に関する情報を、通信経路を介して他の車両制御装置106aや車載情報装置106bに送信する。ここで車両制御装置106aは、例えば車両の周囲環境に応じて車両の加速及び減速を制御する定速走行制御装置,車間距離制御装置,渋滞追従制御装置であり、周囲環境認識装置2から送信された路面標示の情報に応じて制御を行う。また車載情報装置106bは、例えばナビゲーション装置であり、周囲環境認識装置2から送信された路面標示の情報に基づいて自車位置の修正を行う。
図2に上述の周囲環境認識装置2の機能ブロック図を示す。周囲環境認識装置2はフロントカメラ画像認識部102とリアカメラ画像認識部103とを備える。
フロントカメラ画像認識部102は、フロントカメラ101で撮像された映像情報から路面標示等を認識するフロント路面標示認識部102aと、フロントカメラ101の撮像条件(タイミング,周期,露光時間,ズーム、等)を制御するフロントカメラ制御部102bとを備えている。なおフロントカメラ101の撮像条件が固定である場合はフロントカメラ制御部102bを省略しても良い。
フロント路面標示認識部102aは、フロントカメラ101で撮像された映像情報に対して、二値化,エッジ抽出,パターンマッチング等の画像処理を施し、路面標示等を認識する。具体的には、映像中の路面標示等の種類,位置,角度等を検出する。
リアカメラ画像認識部103は、リアカメラ108で撮像された映像情報から路面標示を認識するリア路面標示認識部105と、リアカメラ108の撮像条件(タイミング,周期,露光時間,ズーム、等)を制御するリアカメラ制御部107及び、認識方法判断部
104を備える。認識方法判断部104は、フロント路面標示認識部102aから入力される情報に基づいて、リアカメラ108の撮像条件及びリア路面標示認識部105における画像処理の内容を決定し、前記リアカメラ制御部107及びリア路面標示認識部105に情報を送る。
上述のように、フロント路面標示認識部102aによる認識結果を認識方法判断部104に直接に入力する構成でもよいが、当該認識結果を路面標示情報記憶部111に記憶しておき、記憶された認識結果を認識方法判断部104に入力する構成としても良い。このようにすることで、通信タイミングや処理タイミングの調整が可能となる。また、異なる時刻に撮像された複数の画像の差を取ることも可能となるので、周囲環境の時間変化に関する情報を認識方法判断部104に送ることも可能となる。
リアカメラ制御部107は、認識方法判断部104によって指定された条件でリアカメラ108を制御して映像を取得する。リア路面標示認識部105は、上述の条件で撮像された映像情報に対して、認識方法判断部104によって指定された画像処理を施し、路面標示等を認識する。具体的には、映像中の路面標示等の種類,位置,角度等を検出する。
図3,図6を用いて、上述のリアカメラ画像認識部103の行う処理について説明する。
図3に、リア路面標示認識部105が実行する処理のフローチャートを示す。
まず、画像入力処理201においてリアカメラ108の画像を取得する。
次に、認識対象物選択処理207において、リアカメラ認識対象物データ1906を読み込み、リアカメラ108で認識する路面標示等の種類を抽出する。
ここで、リアカメラ認識対象物データ1906は、図37のテーブルに示すデータである。2202は認識対象物の種類、2203は認識対象物がリアカメラ108の視野に出現する予想時刻である。このリアカメラ認識対象物データ1906はフロント路面標示認識部102aから入力されるフロントカメラ認識結果データ806(図36)に基づいて認識方法判断部104が作成する。なお当該リアカメラ認識対象物データ1906の作成方法に関しては後述する。本処理では、図37のテーブルにおいて現在時刻を参照し、現在時刻が2203の出現タイミングに達していれば、当該対象物を認識対象物として抽出する。
続いて、認識対象となるそれぞれの路面標示を認識するための処理を、以下202〜
205にて行う。
画像前処理202において、画像入力処理201で取得した画像に対してノイズを除去する処理を行う。ノイズ除去処理は本発明の実施に必須ではないが、路面標示等の認識の障害となることが多いため、ノイズ除去処理を行うことが望ましい。ここでノイズには様々なものが考えられるが、本実施例における認識対象物は道路上の路面標示,白線であるため、ペイントの「かすれ」に起因するノイズが特に問題となる。そこで本実施例では、路面標示,白線の特徴量を抽出しやすくするように、路面標示ペイントの「かすれ」を除去する処理を行う。かすれを除去する処理の具体例としては、図4に示すように、入力画面208の注目画素f4(212)を中心とした3×3近傍の領域f0〜f8の画素の輝度値のうち、最大の輝度値を注目画素f4の輝度値として置き換える方法が考えられる。これにより周辺画素のうち最も明るい部分の値が注目画素の明るさになるので、かすれが補正される。
次に、路面標示特徴量抽出処理203では、図5における入力画面208の路面209と路面標示210との間の輝度値の変化を検出して、路面標示210の輪郭を抽出する。この際、認識パラメータデータ2406を読み込み、図47に示す認識エリア2433,2434,路面と路面標示の間の輝度値変化量の予測値2436,路面標示輝度値の最大値の予測値2436を参照し、認識対象の路面標示210の輪郭を検出する。このように認識パラメータデータ2406は、認識対象となる路面標示等が現れることが予測されるリアカメラ108の画像上の位置、及び、当該路面標示等を認識するためのエッジ抽出の閾値等を定めたものである。認識パラメータデータ2406は、フロント路面標示認識部102aから入力されるフロントカメラ認識結果データ806(図36)に基づいて認識方法判断部104が作成する。認識パラメータデータ2406の具体的な作成方法に関しては後述する。
次に、判定処理204では、路面標示特徴量抽出処理203で抽出した路面標示の輪郭が、認識対象物選択処理207で選択した対象路面標示の特徴と一致するかどうかを判定する。具体的には、リア路面標示認識部105は想定される路面標示等の輪郭に相当するテンプレートデータを備えており、リアカメラ108の画像から認識された路面標示等の輪郭と前記テンプレートデータとを比較して一致したとき、若しくは両者の差が所定以内に収まったときに、当該路面標示を認識したものと判定する。なお認識方法判断部104がフロントカメラ認識結果データ806を送信する際に、必要なテンプレートデータを添付する構成としてもよい。
認識結果出力処理205では、判定処理204にて認識対象とした路面標示を認識した場合、認識した路面標示の種類,車両からの相対位置,車両との相対角度を、通信部109を介して、他の車両制御装置106aや車載情報装置に出力する。
なお、ステップ201における一つの画像入力に対して、ステップ207で複数の認識対象物が読み込まれた場合には、ステップ202から205までの処理を全ての認識対象物の認識が終わるまで繰り返す。例えば、フロントカメラ認識結果データ806に、横断歩道と停止線の2つの認識対象物が存在している場合は、まず横断歩道の認識についてステップ202から205までの処理を行い、その後停止線の認識についてステップ202から205までの処理を行う。
ステップ207で読み込まれた全ての認識対象物について上述の処理が終了したときは分岐206に進む。分岐206で新しい画像入力信号が来ていない場合はウエイトし、新しい画像入力信号が来ている場合は、処理201へ戻る。
図6に、認識方法判断部104が実行する処理のフローチャートを示す。
まず、フロントカメラ認識結果入力処理301において、フロント路面表示認識部102a(若しくは路面標示情報記憶部111)からフロントカメラ101の映像に基づく認識結果のデータを取得する。この認識結果のデータには、フロントカメラ映像内の路面標示等の認識結果、フロントカメラの映像の輝度情報,路面上の影の情報を取得する。フロントカメラ認識結果の詳細に関しては、以下の302から306の処理内容の中で説明する。
次に、リアカメラゲイン値決定処理302において、処理301で取得したフロントカメラ映像中の路面上の影の情報を解析し、リアカメラ108のゲイン値を決定する。本処理の詳細については後述する。
次に、リアカメラ露光時間決定処理307において、処理301で取得したフロントカメラの映像の輝度情報を解析し、リアカメラ108の露光時間を決定する。本処理の詳細については後述する。
次に、リアカメラ認識対象物決定処理303において、処理301で取得したフロントカメラ映像内の路面標示,白線,信号機,標識の認識結果に基づき、リアカメラ108での認識対象物を決定し、さらに、リアカメラ処理タイミング決定処理304において、リアカメラ108で認識対象物を認識する処理を実行するタイミングを決定する。処理303,処理304の詳細については後述する。
次に、リアカメラ認識ロジックパラメータ決定処理305において、処理301で取得したフロントカメラ映像内の路面標示,白線の認識結果、フロントカメラ映像中の路面上の影の情報に基づき、認識対象物の認識ロジックにおける各種パラメータ値を決定する。本処理の詳細については後述する。
最後に、分岐306において、フロントカメラ101の認識結果が更新されていない場合はウエイトし、フロントカメラ101の認識結果が更新された場合は、処理301へ戻る。
なお、上述の実施例では処理302,307及び303乃至305の処理を全て直列的に実施することを説明したが、これら全ての処理を行うことは必須ではない。想定される使用状況に合わせて、適宜採用する処理を選択して組み合せることができる。いずれの組み合わせにおいても、従来技術に比べてリアカメラ108による路面標識等の認識精度を向上させることができる。なお、リアカメラゲイン値決定処理302又はカメラ露光時間決定処理307を行う場合は、処理303乃至305よりも先に行う。なぜなら、処理
303乃至305はリアカメラ108によって何らかの認識対象物が撮像できていることを前提とする処理であり、これらの処理に先立ってリアカメラの撮像条件(ゲイン,露光時間)を変更し、周囲の明るさの状態に合わせて撮像対象物が写るように設定する必要があるからである。
このように本実施例では、フロント路面標示認識部102aは、認識した路面標示等の種類を認識方法判断部104に入力する。
路面標示には、上述のように横断歩道,一時停止線,最高速度標示,進行方向別通行区分標示,転回禁止標示、など多くの種類があり、それぞれの図形的な特徴が異なる。従って、路面標示の種類に応じて好適な画像処理アルゴリズムが異なる場合があるが、本実施例の構成によれば、フロントカメラ101で路面標示等の種類を特定した後に、その種類をリアカメラ側に通知して適切な画像処理アルゴリズムを選択できるので、リアカメラ
108による路面標示の誤認識や不認識(認識の失敗)を低減することができる。
また、本実施例では、フロント路面標示認識部102aは、フロントカメラ101で撮影された映像の明るさや画像中の影を検出し、その情報を認識方法判断部104に入力する。具体的には映像の輝度情報を解析し、画像全体の輝度を検出する。認識方法判断部
104においては、リアカメラ108の適切なゲイン(絞り)や露光時間(シャッタ速度)を計画し、リアカメラ制御部107へ送る。リアカメラ制御部107は、認識方法判断部104から受信したリアカメラのゲイン、露光時間の指令に基づき、リアカメラ108を制御する。
これにより、例えばフロントカメラ101による画像が明る過ぎたり、暗過ぎたりして、路面標示等が明瞭に撮影されていない場合でも、リアカメラ108では、周囲の明るさに適したゲインや露光時間で撮影することができる。従って、リアカメラ108では路面標示等をより明瞭に撮影し、路面標示等を認識することが出来る。この効果は、道路上を建物等の影が横切っている場合など、周囲の明るさが頻繁に変化する状況において特に顕著である。
〔リアカメラゲイン値決定処理〕
以下、図4から図10及び図22から図26を用いて、図2に示す認識方法判断部104で実行される処理(図6)のうち、リアカメラゲイン値決定処理302の詳細な実施例を説明する。
図7は、リアカメラゲイン値決定処理302の詳細フローチャートである。
まずフロントカメラ影位置参照処理401において、フロントカメラ映像内の路面上の影の位置を記載したフロントカメラ影位置データ408を取得する。フロントカメラ影位置データ408は、フロントカメラ101で撮影した映像に基づいてフロント路面標示認識部102aにより作成される。当該フロントカメラ影位置データ408はフロントカメラ認識結果データ806に含められるか、若しくは路面標示情報記憶部111に記憶され、認識方法判断部104によって参照される。なおフロント路面標示認識部102aによるフロントカメラ映像内の影の検出処理については後述する。
フロントカメラ映像内の路面上の影の位置は、図10に示すように、影開始位置A
(701)と影終了位置B(702)によって表現する。そして、図10の影位置を、図22に示す道路座標系に変換し、図23に示すテーブルの形式で表現する。図22において、フロントカメラ101のレンズ中心の直下の路面上を原点1302,フロントカメラ101の光軸を路面に投影した直線1303をy軸、原点1302を通り、y軸1303に直交する路面上の直線1304をx軸とする。この道路座標系を用いて、図23に示すように、影開始位置か終了位置かの区別1401,ID番号1402,位置(道路座標系のy座標)1403,輝度値の平均値1404,影の検出時刻1406のデータ列により影を表現する。
次に、リアカメラ影出現予測処理402において、フロントカメラ101で検出した路面上の影が、車両の走行とともに、リアカメラ108の視野の中にいつ出現するかを予測し、予測した結果をリアカメラ影位置データ407に書き込む。
本処理の詳細について図24,図25を用いて説明する。図24はリアカメラ影出現予測処理402の詳細フローチャートである。
まず、車速参照処理1501で、車両の速度の現在値v1を取得する。
次に影出現タイミング計算処理1502において、図25に示す路面標示認識エリア
1601の始端1602に、路面上の影が出現するタイミングを計算する。図25において、原点,x軸,y軸は、図22で説明した道路座標系である。5はリアカメラ108の視野であり、その中の一部である標示1601が路面標示認識エリアであり、この路面標示認識エリアの始端が1602であり、これは、図5に示したように、路面標示が画面に出現し、遠ざかり、路面標示が認識できる適切な解像度が得られるまでの範囲211に相当する。
ここで図25に示すように、路面標示認識エリアの始端1602の道路座標系でのy座標をa2、フロントカメラ101で検出した影の道路座標系でのy座標をa1、影を検出した時刻をt1、フロントカメラ101の設置位置とリアカメラ108の設置位置との間の距離をd1とすると、フロントカメラ101で検出した影が路面標示認識エリアの始端1602に出現する時刻t2は、
t2=t1+(a1+d1+|a2|)/v1
となる。
最後に、影位置登録処理1503で、処理1502で予測した影出現タイミングをリアカメラ影位置データ407に書き込む。リアカメラ影位置データ407は、図26に示すテーブルとして定義される。リアカメラ影位置データ407は影開始か影終了かの区別
1701,ID番号1702,予測輝度値1703、及び、影が出現する予想時刻1704の情報を含む。1703の予測輝度値は、図23のフロントカメラ影位置データの輝度値
1404と同じとする。
図7のフローに戻って、次に、リアカメラゲイン値決定処理403において、処理402で予測したリアカメラ視野内の影出現タイミングであるリアカメラ影位置データ407を取得し、予測した影の輝度値に応じて、リアカメラ108のゲイン値を決定し、図8に示すリアカメラゲイン値計画テーブルを作成する。
図8に示すように、当該テーブルにはゲイン値を切り替えるタイミングを示す時刻501と、当該切り替え時刻501のタイミングおいて変更されるゲイン値502が示されている。ゲイン値502は、リアカメラ108の視野内に現れることが予測される影の輝度値の予測値に基づいて決める。ゲインを決定するには、図27に示す影の輝度1801とゲイン値1802に関するテーブルを参照して決定する。なお図27に示すテーブルは、事前の実験により、路面標示を検出するのに好適な影の輝度1801とゲイン値1802との関係を求めて作成する。
図7のフローに戻り、最後に、リアカメラゲイン値計画データ書き込み処理404において、処理403で決定したリアカメラのゲイン値計画テーブル(図8)を、リアカメラゲイン値計画データ406に書き込む。
リアカメラ制御部107では、図9に示す処理が実行される。まず、ゲイン値計画データ参照処理601において、認識方法判断部104のリアカメラゲイン値決定処理302が作成したリアカメラゲイン値計画データ406を定期的に読み込む。
次に、時刻参照処理602において現在時刻を読み込み、分岐603にて、リアカメラゲイン値計画データ406に記載されたゲイン値切り替え時刻601である場合は、リアカメラゲイン値切り替え処理604を行う。処理604では、リアカメラゲイン値計画データ406に記載されたゲイン値602をリアカメラ108の制御装置に送信する。分岐603にて、ゲイン値切り替え時刻でない場合は、処理601へ戻る。
〔リアカメラ露光時間決定処理〕
続いて、以下、図28から図30を用いて、図2に示す認識方法判断部104で実行される処理(図3)のうち、リアカメラ露光時間決定処理307の詳細な実施例を説明する。
次に図28を用いて、認識方法判断部104で実行される処理(図3)の中の、リアカメラ露光時間決定処理307における処理内容について説明する。
図28は、リアカメラ露光時間決定処理307の詳細フローチャートであり、まず、フロントカメラ輝度値参照処理1803において、フロントカメラ画像認識部102が作成した画像輝度現在値データ904を読み込み、フロントカメラの入力画像の平均輝度値を求める。
次に、フロントカメラ輝度値到達時刻計算処理1813において、処理1803で取得したフロントカメラの平均輝度値の映像が、リアカメラ108の視野内に出現する時刻
T2を計算する。そのために、まず現在の車両の速度v1と現在時刻T1を参照し、図
25におけるフロントカメラ101の設置位置とリアカメラ108の設置位置の距離を
d1,フロントカメラ101の光軸と路面との交点のy座標値をF1,リアカメラ108の光軸と路面との交点のy座標値をR1とすると、
T2=T1+(F1+d1+R1)/v1
となる。
次に、リアカメラ露光時間決定処理1804において、処理1803で取得した輝度値に応じて、リアカメラ108の露光時間を決定し、図29に示すリアカメラ露光時間計画テーブルを作成する。当該テーブルには、露光時間を切り替えるタイミングを示す時刻
1807と当該時刻1807のタイミングで変更される露光時間1808とが定義されている。露光時間1808は、リアカメラ108の視野内で予想される平均輝度値によって決める。露光時間に関しては、図31に示す輝度値1814と露光時間1816に関するテーブルを参照して決定する。画像輝度1814に応じた路面標示を最も検出しやすくする露光時間1815に関しては、事前の実験により決定する。
最後に、リアカメラ露光時間計画データ書き込み処理1805において、処理1813,処理1804で決定したリアカメラの露光時間の計画(図29)を、リアカメラ露光時間計画データ1806に書き込む。リアカメラ露光時間計画データ1806は、リアカメラ画像認識部103のリアカメラ制御部107が参照する。
リアカメラ制御部107では、図30に示す処理が実行される。
まず、露光時間計画データ参照処理1809において、認識方法判断部104のリアカメラ露光時間決定処理307が作成したリアカメラ露光時間計画データ1806を定期的に読み込む。
次に、時刻参照処理1810で現在時刻を読み込み、分岐1811にて、リアカメラ露光時間計画データ1806に記載された露光時間切り替え時刻1807である場合は、リアカメラ露光時間切り替え処理1812を行う。処理1812では、リアカメラ露光時間計画データ1806に記載された露光時間1808をリアカメラ108の制御装置に送信する。分岐1811にて、露光時間切り替え時刻でない場合は、処理1809へ戻る。
〔リアカメラ認識対象物決定処理〕
次に図32から図37を用いて、認識方法判断部104で実行される処理(図3)のうち、リアカメラ認識対象物決定処理303の詳細な実施例を説明する。
図32は、リアカメラ認識対象物決定処理303の詳細フローチャートである。
まずフロントカメラ認識結果参照処理1901において、フロントカメラ画像認識部
102が認識した路面標示の認識結果が記載されているフロントカメラ認識結果データ
806を読み込む。フロントカメラ認識結果データ806は図36に示すテーブルとして定義されており、当該テーブルにはID番号2101,認識した路面標示,白線,信号機,標識の種類2102,認識時刻2103,認識した対象物の位置2104,認識した対象物と車両との角度2105,認識した路面標示,白線のペイントのかすれ具合2106が記憶されている。ここで、認識した対象物の位置2104と、車両との角度2105は、図33に示すように表現する。図33は図22で説明した道路座標系である。ここで認識した対象物(図の例では、前方横断歩道,自転車横断帯あり標示)の位置2104は、当該認識した対象物において車両と一番近い点1907のx座標,y座標で表現する。認識した対象物と車両との角度2105は、白線1910と平行な認識対象物の中心線1908を定義し、線分1908とy軸との成す角度で表現する。
一方、フロントカメラ認識結果データ806の中で、白線の位置2104と車両との角度2106に関しては、図34に示すように表現する。図34は図22で説明した道路座標系であり、1が車両、101がフロントカメラ、3d,3eが認識した白線であり、フロントカメラの前方d2の距離のy軸上の点1911を定義する。ここで、点1911を通りy軸に垂直な路面上の直線1912と白線との交点を1913とした場合、白線の位置2104は、点1913のx座標,y座標の値とする。また、白線と車両との角度2106は、白線とy軸との成す角度で表現する。
このフロントカメラ認識結果データ806がどのように生成されるかについては後述する。
次に、同一路面標示抽出処理1902において、フロントカメラ画像認識部102で認識したフロントカメラ認識結果データ806のうち、リアカメラ108で認識可能な対象物である路面標示の種類と白線に関するデータ(図36)を抽出し、リアカメラ108の認識対象物とする。
次に、近傍路面標示抽出処理1903において、フロントカメラ画像認識部102で認識したフロントカメラ認識結果データ806のうち、認識した対象物の近傍にある路面標示をリアカメラ108の認識対象物とする。近傍にある路面標示に関しては、図20に示す近傍路面標示データ1905を予め登録し、近傍路面標示データ1905の中から抽出する。
図20の表は、フロントカメラで認識することができる路面標示,信号機,標識の種類2001,上記2001の近傍にある路面標示の種類2002、及び上記2001と上記2002との間の想定距離2003を示すものである。
最後に、認識対象物登録処理1904において、処理1902,処理1903でリアカメラの認識対象物とした路面標示の種類を、リアカメラ認識対象物データ1906に書き込む。リアカメラ認識対象物データ1906は図37に示すテーブルであり、当該テーブルには、認識対象物のID番号2201,認識対象物の種類2202,リアカメラ108の視野に出現する予想時刻2203,リアカメラ108の視野に出現した時の認識対象物の予想位置2204,認識対象物と車両との予想角度2205が、認識対象となる路面標示のペイントのかすれ度合い2206が記録されている。
認識対象物登録処理1904では、リアカメラ認識対象物データ1906のうち、ID番号2201,種類2202,ペイントのかすれ度合い2206を登録し、残りのデータは後の処理で登録するため、本処理では未登録とする。ID番号2201とペイントのかすれ度合い2206に関しては、同一路面標示抽出処理1902にて抽出した物である場合は、フロントカメラ認識結果データ806のID番号2101,ペイントのかすれ度合い2106と同一とする。近傍路面標示抽出処理1903にて抽出した物である場合は、ID番号2201は新規登録とし、かすれ度合い2206に関しては未登録とする。
〔リアカメラ処理タイミング決定処理〕
次に図38から図41を用いて、認識方法判断部104で実行される処理(図3)のうち、リアカメラ処理タイミング決定処理304の詳細な実施例を説明する。図38は、リアカメラ処理タイミング決定処理304の詳細フローチャートである。
まず車速参照処理2301において、車両の速度の現在値v1を取得する。
次に出現タイミング計算処理2302において、図25に示す路面標示認識エリアの始端1602に、認識対象物が出現するタイミングを計算する。ここで、図25における路面標示認識エリアの始端1602の道路座標系でのy座標をs1、フロントカメラ画像認識部102で検出した認識対象物の道路座標系でのy座標(図36の2104)をa3、フロントカメラ画像認識部102で認識対象物を検出した時刻をt3(図36の2103)、フロントカメラ101の設置位置とリアカメラ108の設置位置との間の距離をd1とすると、フロントカメラ画像認識部102で検出した認識対象物がリアカメラの路面標示認識エリアの始端1602に出現する時刻t4は、
t4=t3+(a3+d1+|s1|)/v1
となる(図41)。
次に、出現位置計算処理2303において、リアカメラ108の視野の中のどの部分に認識対象物が出現するかを計算する。図39はリアカメラ認識対象物の位置と車両との角度の定義を示した図である。図39は、図22で説明した道路座標系であり、1が車両、108がリアカメラ、5がリアカメラ108の視野、1601が図25で説明した路面標示認識エリア、1602が路面標示認識エリアの始端である。認識対象物2306の出現位置(x2,y2)は、認識対象物2306の位置を計測するポイント2306が、路面標示認識エリアの始端1602(y座標値がs1)に出現するタイミングの位置とする。また、認識対象物2306と車両との成す角度は、白線2307と平行な認識対象物2306の中心線2307を定義し、線分2307とy軸との成す角度r2とする。ここで、フロントカメラ認識結果データ806の認識対象物の位置(図36の2104)を(x1,
y1)、車両との角度2106をr1、フロントカメラ101の設置位置とリアカメラ
108の設置位置との間の距離をd1とし、道路が直線、車両の舵角が0と仮定すると、
x2=x1±(y1+d1+|s1|)*tan(r1)(±は、r1の正負によって切り替え)
y2=s1
r2=r1
となる。
また、認識対象物が白線の場合は、図40に示すように位置,車両との角度を定義し、リアカメラ視野内への出現位置を計算する。図40は、図22で説明した道路座標系であり、1が車両、108がリアカメラ、5がリアカメラ108の視野、1601が図16で説明した路面標示認識エリア、1602が路面標示認識エリアの始端である。また、リアカメラ108の後方の距離d3のy軸上の点2308を定義する。ここで、点2308を通りy軸に垂直な路面上の直線2309と白線2307との交点を2310とした場合、白線の位置(x4,y4)は、点2310のx座標,y座標の値とする。また、白線と車両との角度r4は、白線とy軸との成す角度で表現する。ここで、フロントカメラ認識結果データ806の認識対象物(白線)の位置(図36の2104)を(x3,y3)、車両との角度2106をr3、フロントカメラ101の設置位置とリアカメラ108の設置位置との間の距離をd1とし、道路が直線、車両の舵角が0と仮定すると、
x4=x3±(y3+d1+d3)*tan(r3))(±は、r3の正負によって切り替え)
y4=−d1−d3
r4=r3
となる。
最後に、認識対象物登録処理2304において、処理2302で計算した認識対象物のリアカメラ視野内への出現タイミングと、処理2303で計算した認識対象物のリアカメラ視野内への出現位置を、リアカメラ認識対象物データ1906のテーブル(図37)の中の出現タイミング2203,位置2204,角度2206の部分に書き込む。認識対象物が白線の場合は、出現タイミング2203は現在時刻とする。
認識対象物が、近傍路面標示抽出処理1903にて抽出した物である場合、出現タイミング2203は、フロントカメラ認識対象物(図35の2001)のリアカメラ視野への出現タイミングを計算し、フロントカメラ認識対象物(図35の2001)と近傍路面標示種類(図35の2002)との想定距離分(図35の2003)の余裕を持たせた出現タイミング2203とし、位置2204,角度2206は未登録とする。
〔リアカメラ認識ロジックパラメータ決定処理〕
図42から図47を用いて、認識方法判断部104で実行される処理(図3)のうち、リアカメラ認識ロジックパラメータ決定処理306の詳細な実施例を説明する。図42は、リアカメラ認識ロジックパラメータ決定処理306の詳細フローチャートである。
まず、リアカメラ認識対象物データ参照処理2401において、リアカメラ認識対象物データ1906に登録されている内容(図37のテーブル)を読み込む。
次に、リアカメラ認識エリア調整処理2402において、リアカメラ認識対象物データ1906の位置(図37の2204)のx座標値を、画面座標系に変換する。ここで画面座標系とは、図43に示すように、リアカメラ入力画面2407の左上2408を原点Oとして、画面の横方向2409をu軸、画面の縦方向2410をv軸とした座標系である。本処理では、まず、認識対象物2411の画面上2407でのリア路面標示出現位置
2412(u座標値のu6)を計算する。次に、通常の認識エリアは2413に示す点線の枠線内であるが、認識対象物2411の出現位置が2412の場合は、2412を中心として、認識対象物の幅相当のエリア、すなわち、修正後の認識対象物の認識エリア2414
に示す実線の枠線内を、認識対象物の認識エリアをして修正する。道路座標系から画面座標系への変換は、図44に示す対応テーブルを予め用意しておき、このテーブルを参照することで行う。当該テーブルには、道路座標系のx座標値2415,道路座標系のy座標値2416,これらに対応する画面座標系のu座標値2417,v座標値2418がそれぞれ記録されている。
次に、特徴量抽出しきい値決定処理2403において、リアカメラ認識対象物データ
1906のかすれ度合い(図37の2206)と、認識対象物がリアカメラ視野内に出現するタイミングにおけるリアカメラの影位置データ407(図26に示すテーブル)を用いて、路面標示の特徴量抽出のためのしきい値を決定する。
まず、図45を用いてかすれ度合いと特徴量抽出しきい値の決定の仕方について説明する。2419がかすれ度合いが少ない場合の路面標示の見え方であり、2420がかすれ度合いが大きい場合の路面標示の見え方である。2421,2422が路面標示の部分の輝度値の変化を表したものであるが、かすれ度合いが小さい場合は、2423の部分の輝度値の変化が急峻であることを想定して、路面標示部分の輪郭の抽出を行う。一方かすれ度合いが大きい場合は、2424の部分の輝度値の変化が緩やかであることを想定して、路面標示部分の輪郭の抽出を行う。
次に、図46を用いて、認識対象物がリアカメラ視野内に出現するタイミングにおける路面上の影の有無に応じた、特徴量しきい値の決定の仕方について説明する。まず、リアカメラ影位置データ407の影開始の時刻と影終了の時刻(図26の1704)を参照し、認識対象物2425が認識エリアに出現する時刻(図37の2203)において、リアカメラ入力画面上に影がない場合は2425の見え方になり、影2432がある場合は
2427の見え方となる。2428,2429が路面標示の部分の輝度値の変化を表したものであるが、影がない場合は、2430の輝度値の最大値が高いことを想定して、路面標示部分の輪郭の抽出を行う。一方影がある場合は、2431の輝度値の最大値が低いことを想定して、路面標示部分の輪郭の抽出を行う。
最後に、認識パラメータ登録処理2405において、処理2402,処理2403で決定したパラメータ値を、認識パラメータデータ2406に登録する。認識パラメータデータ2406は、図47に示すテーブルであり、当該テーブルには、認識対象物のID番号2432,認識エリア(図43の2414)の矩形の左端のu座標値2433,右端のu座標値2434,路面と路面標示の間の輝度値の変化量の予測値(図45の2423,
2424),2436が路面標示部分の輝度値の最大値の予測値2436(図46の2430,2431)が記録されている。ID(2432)は、リアカメラ認識対象物データ1906のID番号(図37の2201)と対応している。
次に図11を用いて、フロント路面標示認識部102aの処理内容について説明する。図11はフロント路面標示認識部102aが行う処理のフローチャートである。
まず、画像入力処理801において、フロントカメラ101の画像を取得する。
次に画像輝度統計処理802において、入力画像の輝度値の統計データを蓄積し解析し、画像輝度統計データ804に書き込む。本処理の詳細については後述する。
次に影位置認識処理803において、入力画像の路面上に影が存在するかどうかを判定し、結果をフロントカメラ影位置データ408に書き込む。本処理の詳細については後述する。
次に認識対象物選択処理805において、認識する対象物の種類を選択し、認識対象物をそれぞれ認識するための処理を、以下の処理807にて行う。認識対象物は、車両制御装置(106a),車載情報装置(106b)またはフロントカメラ画像認識部102にて選択する。
次に対象物認識処理807において、処理805で選択した認識対象物を検知するための処理を行う。本処理の詳細については後述する。
最後に、分岐808において、新しい画像入力信号が来ていない場合はウエイトし、新しい画像入力信号が来ている場合は、処理801へ戻る。
〔画像輝度統計処理〕
次に図12から図18を用いて、フロントカメラ画像認識部102aの処理(図11)の中の画像輝度統計処理802の処理内容について説明する。図12は、画像輝度統計処理802のフローチャートである。
まず、画像輝度取得処理901において、入力画像の輝度値を取得し、画像輝度現在値データ904と画像輝度蓄積データ903に書き込む。入力画像の輝度値取得の際は、図14に示したように、道路面上を含む領域1001の輝度値の分布を、図13に示す輝度と頻度の分布として取得し、画像輝度累積データ903に累積させる。
次に、輝度分布更新処理902において、処理901で取得し更新した画像輝度蓄積データ903を読み込み、図15に示す画像輝度統計テーブルを作成し、画像輝度統計データ804に書き込む。図15の1002が画像の輝度で、1003がその画像の輝度の時の路面の状態を示している。路面の状態は、路面の上に影ある状態1004,白い路面標示の上に影がある状態1006,路面の上に影がない状態1006,白い路面標示の上に影がない状態1007とする。
このような路面の状態を判定するために、図16に示した本処理で読み込んだ画像輝度累積データ903において、輝度の頻度の分布に4つのピーク値(1101〜1104)がある場合は、路面に影がある部分と影がない部分が存在する状態であると判定する(通常は日中であって太陽光がある場合である)。そして、それぞれのピーク値の間で輝度の頻度が最低となる箇所(1106〜1107)を抽出し、それぞれの箇所の輝度値(a,b,c)を境にして、図15に示す画像輝度統計テーブルを作成する。
また、図17に示すように、画像輝度累積データにおいて、輝度の頻度の分布に4つのピークが抽出できない場合は、日中であっても太陽が出ていない状態または夜間であると判定し、図15に示す画像輝度統計テーブルは不明とする。
〔影位置認識処理〕
次に図19から図21を用いて、フロントカメラ画像認識部102aの処理(図11)の中の影位置認識処理803の処理内容について説明する。図12は、影位置認識処理
803のフローチャートである。
まず、画像輝度取得処理1201において、図18に示すように、フロントカメラの入力画面を小さなエリア1108に分割し、それぞれのエリアにおける平均輝度を計算する。
次に、影位置判定処理1202において、画像輝度統計処理802で作成した画像輝度統計データ804を読み込み、処理1201で取得した図18のそれぞれのエリア1108の平均輝度と、画像輝度統計データ804の画像輝度統計テーブルの輝度値(図15の1002)とを比較する。そして、図18のフロントカメラ入力画面のどのエリアが影であるかを判定し、図10における影開始位置701と影終了位置702を抽出する。
次に道路座標系への変換処理1203において、処理1202で抽出した影開始位置
701と影終了位置702を道路座標系に変換する。処理1202で抽出した影開始位置701と影終了位置702は、画面座標系であり、図20に示すように、フロントカメラの入力画面の左上1206を原点Oとし、画面の横方向1206をu軸、画面の縦方向
1207をv軸としている。一方、道路座標系は、前述したように図22に示す座標系である。そして、画面座標系から道路座標系に変換するには、図21に示す対応テーブルを予め用意しておき、このテーブルを参照することで行う。図21において、1208が画面座標系のu座標値、1209が画面座標系のv座標値であり、対応する道路座標系のx座標値,y座標値がそれぞれ1210,1211である。
最後に、影位置登録処理1204において、処理1203で道路座標系に変換した影開始位置701と影終了位置702を、フロントカメラ影位置データ408に書き込む。フロントカメラ影位置データ408は、前述したように図14に示すテーブルとなっている。位置1403には処理1203で変換した座標値を登録、輝度値1404には、路面標示が無い部分の輝度値を登録する。
〔対象物認識処理〕
次に、フロントカメラ画像認識部102aの処理(図11)の中の対象物認識処理807の処理内容について説明する。処理805で選択した認識対象物が路面標示,白線の場合は、図3に示したリアカメラ108の路面標示認識機能106の処理202から処理206までと同様の処理を行う。この際、図3に示した路面標示特徴量抽出処理203において、認識パラメータデータ2406の読み込みは行わない。処理805で選択した認識対象物が信号機の場合は、まず、入力画像内において、信号機の外形である矩形をパターンマッチングにより検出する。次に、検出した矩形の中において、円状の形をパターンマッチングにより3つ検出する。次に、検出した円状の形の中の色情報を取得し、赤,黄,青のいずれかに相当する色情報が得られた場合は、信号機であると判定する。
処理805で選択した認識対象物が標識の場合は、まず、認識対象となる標識の形状を検出するためのパターンマッチングを行う。次に、検出した標識の中の記載文字のパターンマッチングを行い、認識対象の標識に記載されている文字と一致した場合は、認識対象である標識が検出できたと判定する。
以下、図48から図52を用いて、本発明の他の実施例を説明する。
図48に本発明の第二の実施例にかかる周囲環境認識装置のハードウェア構成を示す。なお、図1乃至図47を用いて説明した第一の実施例との主な相違点は、フロントカメラ画像認識部102がフロントカメラ101の内部に配置された点、リアカメラ画像認識部103が他の車両制御装置2510a又は車載情報装置2510bの内部に配置された点である。従って、周囲環境の認識、判断等の処理は特に説明しない限り第一の実施例と同様である。以下第一の実施例との相違点について説明する。
まず、フロントカメラ101は、レンズ2501,撮像素子(CCD)2502と
CPU2503及びメモリ(図示しない)とを備えている。フロントカメラ101は、
CPU2503及びメモリを用いてフロントカメラ画像認識部102の機能を実現している。一方リアカメラ108は、レンズ2504と撮像素子(CCD)2505とを備える。
フロントカメラ101はCAN2507を介して走行制御機能2510a又は車載情報機能2510b(以下、「車両制御装置等2506」と記載する)と接続されており、相互にデータの送受信が可能である。この車両制御装置2506は、本来の走行制御機能
2510a又は車載情報機能2510bの他に、リアカメラ画像認識部103の機能を備えている。
リアカメラ108と車両制御装置2506は、映像信号線2509と専用信号線2508で接続され、リアカメラ108の映像は、映像信号線2609により車両制御装置2506のリアカメラ画像認識部103へ送信される。また、リアカメラ108を制御する信号は、専用信号線2608により、車両制御装置2506のリアカメラ画像認識部103からリアカメラ108へ送信される。
本構成は、リアカメラ画像認識部103と走行制御機能2510a又は車載情報機能
2510bとの間のデータ送受信量が多い場合に適用すると、大量のデータ送受信を車両制御装置2506内部のバスを使って行うことができるので、システムのパフォーマンスが良い。
図49に本発明の第三の実施例にかかる周囲環境認識装置のハードウェア構成を示す。なお、図1乃至図47を用いて説明した第一の実施例との主な相違点は、フロントカメラ画像認識部102がフロントカメラ101の内部に配置された点、リアカメラ画像認識部103がリアカメラ108の内部に配置された点である。従って、周囲環境の認識,判断等の処理は特に説明しない限り第一の実施例と同様である。以下第一の実施例との相違点について説明する。
フロントカメラ101の構成は、リアカメラ108と専用信号線2609で接続されている点を除いて実施例2に示すものと同様である。
リアカメラ108は、レンズ2504,撮像素子(CCD)2505,CPU2608,メモリ(図示しない)を備えている。リアカメラ108は、CPU2608及びメモリを用いてリアカメラ画像認識部103の機能を実現している。
フロントカメラ101のCPU2503と、リアカメラ108のCPU2608は専用信号線2609で接続され、相互にデータの送受信を行う。また、走行制御機能2510a又は車載情報機能2510bが実装されている車両制御装置2606と、フロントカメラ
101と、リアカメラ108とは、CAN2607を介して相互にデータの送受信を行う。
本構成は、フロントカメラ画像認識部102とリアカメラ画像認識部103の処理負荷が大きい場合に適用すると、システムのパフォーマンスが良い。
図50に本発明の第四の実施例にかかる周囲環境認識装置のハードウェア構成を示す。なお、図1乃至図47を用いて説明した第一の実施例との主な相違点は、フロントカメラ画像認識部102及びリアカメラ画像認識部103がフロントカメラ101の内部に配置された点である。従って、周囲環境の認識,判断等の処理は特に説明しない限り第一の実施例と同様である。以下第一の実施例との相違点について説明する。
レンズ2501,撮像素子(CCD)2502とCPU2703及びメモリ(図示しない)とを備えている。フロントカメラ101は、CPU2703及びメモリを用いてフロントカメラ画像認識部102及びリアカメラ画像認識部103の機能を実現している。リアカメラ108は、映像信号線2709と専用信号線2708でフロントカメラ101と接続されている点を除き、第二の実施例(図25)と同様である。
フロントカメラ101とリアカメラ108は、映像信号線2709と専用信号線2708で接続され、リアカメラ108の映像は、映像信号線2709によりフロントカメラ101内のリアカメラ画像認識部103へ送信される。また、リアカメラ108を制御する信号は、専用信号線2708により、フロントカメラ101内のリアカメラ画像認識部103からリアカメラ108へ送信される。
また、走行制御機能2510a又は車載情報機能2510bが実装されている車両制御装置2606とフロントカメラ101とは、CAN2507によって接続されており、相互にデータの送受信を行う。
本構成は、フロントカメラ画像認識部102とリアカメラ画像認識部103との間のデータの送受信量が多い場合に、システムのパフォーマンスが良い。
図51に本発明の第五の実施例にかかる周囲環境認識装置のハードウェア構成を示す。なお、図1乃至図47を用いて説明した第一の実施例との主な相違点は、フロントカメラ画像認識部102及びリアカメラ画像認識部103がリアカメラ108の内部に配置された点である。従って、周囲環境の認識,判断等の処理は特に説明しない限り第一の実施例と同様である。以下第一の実施例との相違点について説明する。
フロントカメラ101は、レンズ2501と撮像素子(CCD)2502を備える。リアカメラ108は、レンズ2504,撮像素子2505,CPU2803,メモリ(図示しない)を備える。リアカメラ108は、CPU2803及びメモリを用いてフロントカメラ画像認識部102及びリアカメラ画像認識部103の機能を実現している。
フロントカメラ101とリアカメラ108は、映像信号線2809で接続され、フロントカメラ101の映像は、映像信号線2809によりリアカメラ108内部のフロントカメラ画像認識部103へ送信される。また、走行制御機能2510a又は車載情報機能
2510bが実装されている車両制御装置2606とリアカメラ108とは、CAN2507によって接続されており、相互にデータの送受信を行う。
本構成は、フロントカメラ画像認識部102とリアカメラ画像認識部103との間のデータの送受信量が多い場合に、システムのパフォーマンスが良い。
図52に本発明の第六の実施例にかかる周囲環境認識装置のハードウェア構成を示す。なお、図1乃至図47を用いて説明した第一の実施例との主な相違点は、フロントカメラ画像認識部102及びリアカメラ画像認識部103が車両制御装置2906の内部に配置された点である。従って、周囲環境の認識、判断等の処理は特に説明しない限り第一の実施例と同様である。以下第一の実施例との相違点について説明する。
フロントカメラ101は、レンズ2501と撮像素子2502を備える。リアカメラ
108は、レンズ2504と撮像素子(CCD)2505とを備える。車両制御装置等
2906は、本来の走行制御機能2510a又は車載情報機能2510bの他に、フロントカメラ画像認識部102及びリアカメラ画像認識部103の機能を備えている。
フロントカメラ101と車両制御装置等2906は映像信号線2911で接続される。フロントカメラ101の映像は、映像信号線2911により、車両制御装置等2906内のフロントカメラ画像認識部102へ送信される。また、リアカメラ108と車両制御装置等2906は、映像信号線2909と専用信号線2908とで接続される。リアカメラ108の映像は、映像信号線2909により、車両制御装置2906内のリアカメラ認識部103へ送信される。リアカメラ108を制御する信号は、専用信号線2908により、車両制御装置等2906内のリアカメラ画像認識部103からリアカメラ108へ送信される。
本構成は、フロントカメラ画像認識部102,リアカメラ画像認識部103,走行制御機能2510a又は車載情報機能2510bの相互間のデータの送受信量が多い場合に、システムのパフォーマンスが良い。
次に、本発明が動作していることを検査する方法を説明する。
まず、図1に示す構成にて道路を走行し、通常動作時のリアカメラ画像認識部103における道路上の認識対象物の認識率を、車両制御装置等106における動作を計測することにより調査する。次に、図1に示す構成にて、フロントカメラ101のレンズに覆いをした状態で、上記と同じ道路を同じ速度、同じ走行の仕方で走行し、同様にリアカメラ画像認識部103における道路上の認識対象物の認識率を計測する。そして、通常動作時の認識率とフロントカメラ101のレンズに覆いをした時の認識率を比較し、通常動作時の認識率のほうが高い場合は、図1の構成において本発明の内容が動作しているものと判断できる。
また、別の確認手段として、図1に示す構成にて輝度変化が激しい道路を走行し、リアカメラ108の映像を取得する。次に、フロントカメラ101のレンズに覆いをした状態で、上記と同じように輝度変化が激しい場所を走行し、リアカメラ108の映像を取得する。そして、フロントカメラのレンズを覆わない場合の映像と、フロントカメラのレンズを覆った場合の映像を比較して、ゲイン調整、露光制御の調整のタイミングが、前者の映像の方が早い場合は、図1の構成において、本発明のリアカメラ制御部107が動作しているものと判断できる。
実施例1から実施例6では、フロントカメラとリアカメラを用いた実施例について説明した。本発明は、相互に視野が異なり、同じ対象物を異なるタイミングで撮影することになる複数のカメラを備えていれば適用することができる。以下、図53,図54を用いて複数のカメラを車両の同じ方向に設置した場合の実施の形態について説明する。
図53において、第1フロントカメラ3001は車両前方の遠くを撮像できる俯角で設置する。一方、第2フロントカメラ3002は、第1フロントカメラよりも車両に近い位置、望ましくは車両の直近が撮像できる位置に設置する。第2フロントカメラ画像認識部3004は、第2フロントカメラ3002で撮影された映像中の路面標示と白線の種類,位置,角度等を検出し、検出した結果を車両制御装置106a又は車載情報装置106bへ送信する。
第1フロントカメラ画像認識部3003は、第1フロントカメラ3001で撮影された映像中の路面標示,白線,信号機,標識の種類,位置,角度等を検出する。そして、認識方法判断部3005は、第1フロントカメラ画像認識部3003の出力である車両前方の路面標示,白線,信号機,標識に関する認識結果を受信して、第2フロントカメラ画像認識部3004における認識方法を決定し、認識方法を第2フロントカメラ画像認識部3004へ送る。
さらに、第1フロントカメラ画像認識部3003では、第1フロントカメラ3001で撮影された映像の輝度情報を解析し、画像全体の輝度や路面上の影の位置を検出し、その結果を認識方法判断部3005へ送る。認識方法判断部3005においては、第2フロントカメラ3002の適切なゲインや露光時間を計画し、第2フロントカメラ制御部3006へ送る。第2フロントカメラ制御部3006は、認識方法判断部3005から受信したフロントカメラのゲイン,露光時間の計画に基づき、第2フロントカメラ3002を制御する。第1フロントカメラ3001は、車両の前方遠くを撮像しているため、画像の全体的な傾向を把握するのに有利であり、第2フロントカメラ3002は、車両の直近を撮像しているため、認識対象とする路面標示,白線の位置,角度を精度良く検出することに有利である。
第1フロントカメラ画像認識部3003における処理は、図2に示したフロントカメラ画像認識部102aで実施する処理と同様である。第2フロントカメラ画像認識部(3004)における処理は、図1に示したフロントカメラ画像認識部102aで実施する処理と同様である。認識方法判断部3005における処理は、図1に示した認識方法判断部104で実施する処理と同様である。第2フロントカメラ制御部3006における処理は、図1に示したリアカメラ制御部107で実施する処理と同様である。ただし、リアカメラの場合と異なり、二つのカメラの画像間で左右の位置関係の逆転は発生しないので、座標変換は図1の実施例と異なる。
図53に示す実施の形態を実現するハードウェア構成を図54に示す。第1フロントカメラ3001は、レンズ3102と撮像素子(CCD)3103を備える。第2フロントカメラ3002は、レンズ3106と撮像素子3106を備える。第2フロントカメラ
3002はヘッドライト3108の中に設置する。
車両制御装置又は車載情報装置(以下、「車載制御装置等」という)3107には、第1フロントカメラ画像認識部3003,第2フロントカメラ画像認識部3004,認識方法判断部3005,第2フロントカメラ制御部3006,走行制御機能2510a又は車載情報機能2510bが実装される。第1フロントカメラ3001と車載制御装置等3107は映像信号線で接続され、第1フロントカメラ3001の映像は、映像信号線2により、車載制御装置等3107内の第1フロントカメラ画像認識部3003へ送信される。また、第2フロントカメラ3002と車載制御装置等3107は、映像信号線2909と専用信号線2908とで接続され、第2フロントカメラ3002の映像は、映像信号線2909により、車載制御装置等3107内の第2フロントカメラ認識部3004へ送信される。第2フロントカメラ3002を制御する信号は、専用信号線2908により、車載制御装置等3107内の第2フロントカメラ制御機能3006から第2フロントカメラ3002へ送信される。
本発明で取り扱っている路面標示認識システムは、複数のカメラを搭載した車両において、路面標示以外の周囲の走行車両を認識し、他の車両との衝突防止や運転支援を行う車両の予防安全システムに適用可能である。
本発明の実施例を説明した図である。 本発明の実施例を説明した図である。 リアカメラ画像認識機能の路面標示認識機能における処理のフローチャートを説明した図である。 図2のフローチャート中の画像前処理を説明した図である。 図2のフローチャート中の路面標示特徴量抽出処理を説明した図である。 リアカメラ画像認識機能の認識方法判断機能における処理のフローチャートを説明した図である。 リアカメラ画像認識機能の認識方法判断機能のリアカメラゲイン値決定処理のフローチャートを説明した図である。 リアカメラゲイン値計画テーブルを示した図である。 リアカメラ画像認識機能のリアカメラ制御部における処理のフローチャートを説明した図である。 フロントカメラにおける影位置の表現方法を説明した図である。 フロントカメラ画像認識機能における処理のフローチャートを説明した図である。 フロントカメラ画像認識機能の画像輝度統計処理のフローチャートを説明した図である。 画像輝度累積データを示した図である。 画像輝度取得の方法を説明した図である。 画像輝度統計テーブルを示した図である。 路面状態判定の方法を説明した図である。 路面状態判定の方法を説明した図である。 画像輝度取得の方法を説明した図である。 フロントカメラ画像認識機能の影位置認識処理のフローチャートを説明した図である。 フロントカメラの画面座標系を説明した図である。 道路座標系、フロントカメラ画面座標系対応テーブルを示した図である。 道路座標系を説明した図である。 フロントカメラ影位置データを示した図である。 リアカメラ画像認識機能の認識方法判断機能のリアカメラ露光時間決定処理のリアカメラ影出現予測処理のフローチャートを説明した図である。 リアカメラの路面標示認識エリアを説明した図である。 リアカメラ影位置データを示した図である。 画像輝度とゲイン値に関するテーブルを示した図である。 リアカメラ画像認識機能の認識方法判断機能のリアカメラ露光時間決定処理のフローチャートを説明した図である。 リアカメラ露光時間計画テーブルを示した図である。 リアカメラ画像認識機能のリアカメラ制御部における処理のフローチャートを説明した図である。 画像輝度と露光時間に関するテーブルを示した図である。 リアカメラ画像認識機能の認識方法判断機能のリアカメラ認識対象物決定処理のフローチャートを説明した図である。 フロントカメラ認識対象物の位置と車両との角度を説明した図である。 フロントカメラで認識した白線の位置と角度を説明した図である。 近傍路面標示データを示した図である。 フロントカメラ認識結果データを示した図である。 リアカメラ認識対象物データを示した図である。 リアカメラ画像認識機能の認識方法判断機能のリアカメラ処理タイミング決定処理のフローチャートを説明した図である。 リアカメラ認識対象物の位置と車両との角度を説明した図である。 リアカメラで認識する白線の位置と角度を説明した図である。 フロントカメラの視野とリアカメラの視野と車両との位置関係を示した図である。 リアカメラ画像認識機能の認識方法判断機能のリアカメラ認識ロジックパラメータ決定処理のフローチャートを説明した図である。 リアカメラ認識エリアの調整について説明した図である。 道路座標系,リアカメラ画面座標系対応テーブルを示した図である。 特徴量抽出しきい値の決定について説明した図である。 特徴量抽出しきい値の決定について説明した図である。 認識パラメータデータを示した図である。 本発明の第二の実施例を示す図である。 本発明の第三の実施例を示す図である。 本発明の第四の実施例を示す図である。 本発明の第五の実施例を示す図である。 本発明の第六の実施例を示す図である。 本発明の第七の実施例を示す図である。 本発明の第七の実施例を示す図である。
符号の説明
1…車両、2…周囲環境認識装置、3a…車両前方の路面標示、3b…車両後方の路面標示、3c…標識、3d,3e…白線、4…フロントカメラの視野、5…リアカメラの視野、101…フロントカメラ、102…フロントカメラ画像認識部、102a…フロント路面標示認識部、102b…フロントカメラ制御部、103…リアカメラ画像認識部、
104,3005…認識方法判断部、105…リア路面標示認識部、106a…車両制御装置、106b…車載情報装置、107…リアカメラ制御部、108…リアカメラ、109…通信部、110,2507…CAN、111…路面標示情報記憶部、405…リアカメラゲイン値計画データ、407…リアカメラ影位置データ、408…フロントカメラ影位置データ、804…画像輝度統計データ、806…フロントカメラ認識結果データ、903…画像輝度累積データ、904…画像輝度現在値データ、1601…路面標示認識エリア、1602…路面標示認識エリアの始端、1806…リアカメラ露光時間計画データ、
1905…近傍路面標示データ、1906…リアカメラ認識対象物データ、2406…認識パラメータデータ、2412…リア路面標示出現位置、2414…修正後の認識対象物の認識エリア、2501…フロントカメラのレンズ、2502…フロントカメラの撮像素子、2503,2703…フロントカメラのCPU、2504…リアカメラのレンズ、
2505…リアカメラの撮像素子、2506,2606,2610,2906…車両制御装置等、2508,2609,2708,2908…専用信号線、2509,2709,2809,2911,2909…映像信号線、2510a…走行制御機能、2510b…車載情報機能、2608,2803…リアカメラのCPU、3001…第1フロントカメラ、3002…第2フロントカメラ、3003…第1フロントカメラ画像認識部、3004…第2フロントカメラ画像認識部、3006…第2フロントカメラ制御部、3102…第1フロントカメラのレンズ、3103…第1フロントカメラの撮像素子、3105…第2フロントカメラのレンズ、3106…第2フロントカメラの撮像素子、3107…車載制御装置等、3108…ヘッドライト。



Claims (3)

  1. 車両に搭載され、車両の前方を撮像する第1の画像入力手段と、
    車両に搭載され、車両の後方を撮像する第2の画像入力手段と、
    前記第1の画像入力手段の撮像条件を制御する第1の画像入力手段制御部と、
    前記第2の画像入力手段の撮像条件を制御する第2の画像入力手段制御部と、
    前記第1の画像入力手段で入力した画像を画像処理して車両周囲の認識対象物を認識する第1の認識手段と、
    前記第2の画像入力手段で入力した画像を画像処理して車両周囲の認識対象物を認識する第2の認識手段と、
    前記第1の認識手段の認識結果に基づいて前記第2の画像入力手段の前記撮像条件及び前記第2の認識手段の前記画像処理の内容を決定する認識方法判断部と、を有し、
    前記認識方法判断部は、
    前記第1の認識手段の認識結果に基づいて、前記第2の画像入力手段で認識可能な認識対象物を抽出し、抽出された前記認識対象物を前記第2の画像入力手段の前記認識対象物として決定する認識対象物決定手段と、
    前記認識対象物を認識する処理を実行するタイミングを決定する処理タイミング決定手段と、を有し、
    前記処理タイミング決定手段は、検出した自車両の速度と、前記第1の認識手段と前記第2の認識手段間の距離と、前記第1の認識手段で前記認識対象物を認識した時刻と、前記認識対象物の位置と、に基づいて、前記第2の画像入力手段の認識領域に前記認識対象物が出現する位置と時刻を計算し、前記位置と時刻を前記タイミングとして決定する車両周囲環境認識装置。
  2. 請求項1記載の車両周囲環境認識装置において、
    前記認識方法判断部は、決定された前記タイミングに基づいて、認識対象物を認識する認識領域を修正する車両周囲環境認識装置。
  3. 請求項1又は2記載の車両周囲環境認識装置において、
    前記認識方法判断部は、前記第1の認識手段の認識結果に基づいて、前記認識対象物の特徴量抽出をするための閾値を決定する車両周囲環境認識装置。
JP2006193528A 2006-07-14 2006-07-14 車両の周囲環境認識装置及びシステム Expired - Fee Related JP4654163B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006193528A JP4654163B2 (ja) 2006-07-14 2006-07-14 車両の周囲環境認識装置及びシステム
US11/777,585 US7957559B2 (en) 2006-07-14 2007-07-13 Apparatus and system for recognizing environment surrounding vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006193528A JP4654163B2 (ja) 2006-07-14 2006-07-14 車両の周囲環境認識装置及びシステム

Publications (2)

Publication Number Publication Date
JP2008021196A JP2008021196A (ja) 2008-01-31
JP4654163B2 true JP4654163B2 (ja) 2011-03-16

Family

ID=38949298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006193528A Expired - Fee Related JP4654163B2 (ja) 2006-07-14 2006-07-14 車両の周囲環境認識装置及びシステム

Country Status (2)

Country Link
US (1) US7957559B2 (ja)
JP (1) JP4654163B2 (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4263737B2 (ja) * 2006-11-09 2009-05-13 トヨタ自動車株式会社 歩行者検知装置
US10157422B2 (en) 2007-05-10 2018-12-18 Allstate Insurance Company Road segment safety rating
US9932033B2 (en) 2007-05-10 2018-04-03 Allstate Insurance Company Route risk mitigation
US8606512B1 (en) 2007-05-10 2013-12-10 Allstate Insurance Company Route risk mitigation
US10096038B2 (en) 2007-05-10 2018-10-09 Allstate Insurance Company Road segment safety rating system
JP2009043186A (ja) * 2007-08-10 2009-02-26 Denso Corp 情報記憶装置、及び走行環境情報認識装置
JP4902575B2 (ja) * 2008-02-27 2012-03-21 日立オートモティブシステムズ株式会社 道路標示認識装置、および道路標示認識方法
US8428310B2 (en) * 2008-02-28 2013-04-23 Adt Services Gmbh Pattern classification system and method for collective learning
JP5649568B2 (ja) * 2008-05-21 2015-01-07 アー・デー・ツェー・オートモーティブ・ディスタンス・コントロール・システムズ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 車両と歩行者との衝突を回避するための運転者援助システム
JP5436092B2 (ja) * 2009-08-21 2014-03-05 三菱電機株式会社 路面標示認識装置
US8744131B2 (en) * 2009-09-29 2014-06-03 Panasonic Corporation Pedestrian-crossing marking detecting method and pedestrian-crossing marking detecting device
EP2306366A1 (en) 2009-10-01 2011-04-06 Autoliv Development AB Vision system and method for a motor vehicle
JP5462609B2 (ja) * 2009-12-09 2014-04-02 富士重工業株式会社 停止線認識装置
DE102010031056A1 (de) * 2010-07-07 2012-01-12 Robert Bosch Gmbh Verfahren zum Kalibrieren eines Messsystems und eines Messplatzes zur Fahrzeugvermessung
US8195394B1 (en) * 2011-07-13 2012-06-05 Google Inc. Object detection and classification for autonomous vehicles
JP5885066B2 (ja) * 2011-12-06 2016-03-15 いすゞ自動車株式会社 車両長推定装置
WO2013133000A1 (ja) * 2012-03-09 2013-09-12 古野電気株式会社 データ処理装置、レーダ装置及びデータ処理方法
US9466215B2 (en) 2012-03-26 2016-10-11 Robert Bosch Gmbh Multi-surface model-based tracking
JP5716866B2 (ja) * 2012-04-12 2015-05-13 オムロン株式会社 デバイス管理装置及びデバイス検索方法
CN102785645B (zh) * 2012-04-20 2017-05-31 中兴通讯股份有限公司 一种判断交通灯的方法及终端
US9720508B2 (en) * 2012-08-30 2017-08-01 Google Technology Holdings LLC System for controlling a plurality of cameras in a device
DE102012023867A1 (de) * 2012-12-06 2014-06-12 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Verkehrsampelerkennung
CN104751627B (zh) * 2013-12-31 2017-12-08 西门子公司 一种交通状况参数的确定方法和装置
JP6251577B2 (ja) * 2014-01-17 2017-12-20 矢崎エナジーシステム株式会社 車載情報記録装置
US10096067B1 (en) 2014-01-24 2018-10-09 Allstate Insurance Company Reward system related to a vehicle-to-vehicle communication system
US9390451B1 (en) 2014-01-24 2016-07-12 Allstate Insurance Company Insurance system related to a vehicle-to-vehicle communication system
US9355423B1 (en) 2014-01-24 2016-05-31 Allstate Insurance Company Reward system related to a vehicle-to-vehicle communication system
US10783587B1 (en) 2014-02-19 2020-09-22 Allstate Insurance Company Determining a driver score based on the driver's response to autonomous features of a vehicle
US9940676B1 (en) 2014-02-19 2018-04-10 Allstate Insurance Company Insurance system for analysis of autonomous driving
US10783586B1 (en) * 2014-02-19 2020-09-22 Allstate Insurance Company Determining a property of an insurance policy based on the density of vehicles
US10796369B1 (en) 2014-02-19 2020-10-06 Allstate Insurance Company Determining a property of an insurance policy based on the level of autonomy of a vehicle
US10803525B1 (en) 2014-02-19 2020-10-13 Allstate Insurance Company Determining a property of an insurance policy based on the autonomous features of a vehicle
JP6410231B2 (ja) * 2015-02-10 2018-10-24 株式会社デンソーアイティーラボラトリ 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP6203208B2 (ja) * 2015-02-18 2017-09-27 株式会社東芝 道路構造物管理システム、及び道路構造物管理方法
KR101745872B1 (ko) * 2015-12-22 2017-06-12 재단법인 다차원 스마트 아이티 융합시스템 연구단 저전력 영상감시장치 및 그 방법
US10460600B2 (en) 2016-01-11 2019-10-29 NetraDyne, Inc. Driver behavior monitoring
US10269075B2 (en) 2016-02-02 2019-04-23 Allstate Insurance Company Subjective route risk mapping and mitigation
US10108876B2 (en) * 2016-02-10 2018-10-23 International Business Machines Corporation Recognition-based color corrections
JP6886136B2 (ja) * 2016-03-31 2021-06-16 株式会社デンソーアイティーラボラトリ 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
DE102016207125A1 (de) * 2016-04-27 2017-11-02 Robert Bosch Gmbh Steuern eines Kraftfahrzeugs
DE102016208025B4 (de) * 2016-05-10 2019-06-27 Continental Automotive Gmbh Verfahren zur Erfassung von Verkehrszeichen
US10962982B2 (en) * 2016-07-21 2021-03-30 Mobileye Vision Technologies Ltd. Crowdsourcing the collection of road surface information
US11322018B2 (en) 2016-07-31 2022-05-03 NetraDyne, Inc. Determining causation of traffic events and encouraging good driving behavior
CN106534697A (zh) * 2016-12-08 2017-03-22 雷蕾 一种手机快速摄像方法
US10296795B2 (en) * 2017-06-26 2019-05-21 Here Global B.V. Method, apparatus, and system for estimating a quality of lane features of a roadway
DE102017215347A1 (de) 2017-09-01 2019-03-07 Conti Temic Microelectronic Gmbh Verfahren zur vorhersehbaren Belichtungssteuerung zumindest einer ersten Fahrzeugkamera
EP3687863A4 (en) 2017-09-29 2020-12-02 Netradyne, Inc. MULTIPLE EXPOSURE EVENT DETERMINATION
WO2019075341A1 (en) 2017-10-12 2019-04-18 Netradyne Inc. DETECTION OF DRIVING ACTIONS THAT MITIGATE RISK
JP2019125258A (ja) * 2018-01-18 2019-07-25 アイシン・エィ・ダブリュ株式会社 情報収集システム、及び情報収集プログラム
EP3623180B1 (en) * 2018-09-11 2021-05-05 Connaught Electronics Ltd. A method and system for determining a state of a trailer being towed by a vehicle
JP7343997B2 (ja) * 2019-04-02 2023-09-13 株式会社デンソーテン 画像処理装置および画像処理方法
WO2020263498A1 (en) * 2019-06-25 2020-12-30 Snap Inc. Vanishing point stereoscopic image correction
CN112509327A (zh) * 2020-12-06 2021-03-16 数源科技股份有限公司 智能交通信号灯联动方法
JP2022126341A (ja) * 2021-02-18 2022-08-30 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6324453B1 (en) * 1998-12-31 2001-11-27 Automotive Technologies International, Inc. Methods for determining the identification and position of and monitoring objects in a vehicle
JP2687645B2 (ja) 1990-01-24 1997-12-08 トヨタ自動車株式会社 車両用位置標定装置
DE4228649A1 (de) 1992-08-28 1994-05-26 Wolfgang Mohr Verfahren und Vorrichtung zum Optimieren der Leerlaufzeit des Preßbalkens einer Schneidemaschine
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
JP3059035B2 (ja) * 1993-12-14 2000-07-04 三菱電機株式会社 距離測定装置
US6266442B1 (en) * 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream

Also Published As

Publication number Publication date
US7957559B2 (en) 2011-06-07
JP2008021196A (ja) 2008-01-31
US20080013789A1 (en) 2008-01-17

Similar Documents

Publication Publication Date Title
JP4654163B2 (ja) 車両の周囲環境認識装置及びシステム
US9721460B2 (en) In-vehicle surrounding environment recognition device
JP5022609B2 (ja) 撮像環境認識装置
JP5399027B2 (ja) 自動車の運転を支援するための、立体画像を捕捉することができるシステムを有するデバイス
US8896687B2 (en) Lane departure prevention support apparatus, method of displaying a lane boundary line and program
JP6313646B2 (ja) 外界認識装置
US8670590B2 (en) Image processing device
EP2546779B1 (en) Environment recognizing device for a vehicle and vehicle control system using the same
US20130129150A1 (en) Exterior environment recognition device and exterior environment recognition method
US9965690B2 (en) On-vehicle control device
JP5561064B2 (ja) 車両用対象物認識装置
JP2013225289A (ja) 複眼カメラ装置、及びそれを備えた車両
US11663834B2 (en) Traffic signal recognition method and traffic signal recognition device
JP2007280132A (ja) 走行誘導障害物検出装置および車両用制御装置
JP2015148887A (ja) 画像処理装置、物体認識装置、移動体機器制御システム及び物体認識用プログラム
JP5062091B2 (ja) 移動体識別装置、コンピュータプログラム及び光軸方向特定方法
CN109522779B (zh) 图像处理装置
KR101374653B1 (ko) 차량의 움직임을 검출하는 장치 및 방법
US11679769B2 (en) Traffic signal recognition method and traffic signal recognition device
WO2014002413A1 (ja) 先行車両検知装置、先行車両検知方法、及び先行車両検知プログラム記憶媒体
JP6253175B2 (ja) 車両の外部環境認識装置
JP5950193B2 (ja) 視差値演算装置及びこれを備えた視差値演算システム、移動面領域認識システム、視差値演算方法、並びに、視差値演算用プログラム
US11769337B2 (en) Traffic signal recognition method and traffic signal recognition device
JP2018073049A (ja) 画像認識装置、画像認識システム、及び画像認識方法
JP2007072948A (ja) 信号機点灯状態識別方法および装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090706

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090804

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20091211

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101220

R150 Certificate of patent or registration of utility model

Ref document number: 4654163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees