Nothing Special   »   [go: up one dir, main page]

JP2011030140A - 外界認識装置 - Google Patents

外界認識装置 Download PDF

Info

Publication number
JP2011030140A
JP2011030140A JP2009176276A JP2009176276A JP2011030140A JP 2011030140 A JP2011030140 A JP 2011030140A JP 2009176276 A JP2009176276 A JP 2009176276A JP 2009176276 A JP2009176276 A JP 2009176276A JP 2011030140 A JP2011030140 A JP 2011030140A
Authority
JP
Japan
Prior art keywords
image
recognition
vehicle
parking
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009176276A
Other languages
English (en)
Other versions
JP5313072B2 (ja
Inventor
Masahiro Kiyohara
將裕 清原
Tatsu Yumiba
竜 弓場
Kota Irie
耕太 入江
Tatsuhiko Moji
竜彦 門司
Yoshitaka Uchida
吉孝 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Hitachi Automotive Systems Ltd filed Critical Clarion Co Ltd
Priority to JP2009176276A priority Critical patent/JP5313072B2/ja
Publication of JP2011030140A publication Critical patent/JP2011030140A/ja
Application granted granted Critical
Publication of JP5313072B2 publication Critical patent/JP5313072B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】処理負荷の低減と検出精度の向上を図ることができる外界認識装置を提供する。
【解決手段】車両10に設置された複数のカメラ201〜203で撮像される車両周囲の画像を利用して認識対象Pを認識する外界認識装置は、入力されるパラメータに応じて、前記各画像の座標変換と合成を行い、合成画像を作成する合成変換部104と、合成変換部104で作成された合成画像に対して画像処理を行い、認識対象を認識する認識部と105と、認識部105によって認識された認識結果に基づいてパラメータを生成するパラメータ生成部108を有する。
【選択図】図1

Description

車両に搭載された複数のカメラで撮像される車両周囲の画像から認識対象を認識する外界認識装置に関する。
車両を駐車場に駐車させる際に、路面に描かれた白線や他車両のない空間を認識することにより、自動的に駐車可能な駐車スペースを認識し、周囲の状況を察知した上で、駐車動作を支援する方法が知られている。
例えば、車両の操舵状態を検出する操舵状態検出手段と、カメラからの画像を元に画像認識により駐車区画を検出する駐車区画検出手段と、操舵状態検出手段からの情報により車両の走行予想軌跡を算出する走行予想軌跡算出手段と、走行予想軌跡と駐車区画の情報により駐車を補助する情報を運転者に提供する報知手段を備えた駐車補助装置が提案されている(例えば特許文献1を参照)。
また、近年、駐車動作時に車両と駐車区画との相対位置を容易に把握することを目的として、複数のカメラからの画像を合成し、車両を真上から撮像したのと同等の俯瞰画像を作成する技術が提案されている。
特開平11−339194号公報
しかしながら、複数のカメラで撮像した複数の画像を元に画像認識により駐車枠を検出しようとすると、情報量が多く、処理負荷が大きくなり、処理速度が低下するという問題がある。
また、上記した俯瞰画像を元に画像認識により駐車区画を検出する場合には、全体の情報量は少なくなるが、その分だけ画像の解像度が低下し、駐車区画の検出精度が低下するという問題がある。
本発明は上記の問題点に鑑みてなされたものであり、その目的は、処理負荷の低減と検出精度の向上を図ることができる外界認識装置を提供することである。
上記の課題を解決する本発明の外界認識装置は、入力されるパラメータに応じて、各画像の座標変換と合成を行い、合成画像を作成し、その合成画像に対して画像処理を行い、認識対象を認識し、その認識結果に基づいてパラメータを生成する。
本発明によれば、入力されるパラメータに応じて、各画像の座標変換と合成を行い、合成画像を作成し、その合成画像に対して画像処理を行い、認識対象を認識し、その認識結果に基づいてパラメータを生成するので、合成変換部で、認識部が認識対象を認識するのに必要な合成画像を作成させることができ、認識部で認識対象を精度良く認識させることができる。
従って、例えば、認識対象を含む部分の解像度が高く且つ認識対象を含まない部分の解像度が低い合成画像を作成することができる。従って、認識対象を精度良く認識させることができ、また、認識部における認識処理の負荷を低減することができる。
第1実施の形態に係わる外界認識装置のシステム構成図。 車両に搭載されるカメラの配置例を示す図。 第1実施の形態における駐車支援方法の一例を説明するフローチャート。 駐車場内の走行例を示す図。 図4の状態における左側方カメラの画像を示す図。 図4の状態における右側方カメラの画像を示す図。 合成変換部によって作成される合成画像の一例を示す図。 合成画像を作成する方法を説明するフローチャート。 図8の各ステップで得られる画像の一例を示す図。 仮想カメラの視点位置を示す図。 駐車場内の走行例を示す図。 合成変換部によって作成される合成画像の一例を示す図。 画像内から白線を見つける方法を説明する図。 駐車動作を示す図。 駐車動作を示す図。 駐車動作を示す図。 駐車動作を示す図。 合成変換部によって作成される合成画像の一例を示す図。 合成変換部によって作成される合成画像の一例を示す図。 合成変換部によって作成される合成画像の一例を示す図。 合成変換部によって作成される合成画像の一例を示す図。 駐車動作を示す図。 合成変換部によって作成される合成画像の一例を示す図。 駐車支援方法の他の例を説明するフローチャート。 駐車支援方法の他の例を説明するフローチャート。 駐車場内の走行例を示す図。 第2実施の形態における外界認識装置のシステム構成図。 俯瞰変換によって、人物などがカメラ視点から放射方向に伸張する様子を示した図。 駐車場内の走行例を示す図。 合成変換部によって作成される合成画像の一例を示す図。 駐車場内の走行例を示す図。 合成変換部によって作成される合成画像の一例を示す図。 パラメータ生成部におけるパラメータの例を示す図。 各画像入力部からの映像を示す図。 幾何変換マップを用いて入力画像領域を出力画像領域に割り付ける方法と、該方法による割付後の出力画像を示す図。
(第1実施形態)
以下、第1の実施の形態に係わる外界認識装置について図面を用いて説明する。
図1は、本実施の形態に係わる外界認識装置の構成を示すブロック図である。本実施の形態では、外界認識装置100は、駐車支援装置によって車両を駐車スペースに駐車させる際に、駐車スペースを認識するのに用いられている。
外界認識装置100は、車両に搭載されるコンピュータを備えており、プログラムの実行により、図1に示すように、複数の画像入力部101〜103と、画像入力部101〜103から入力された複数の画像を合成変換する合成変換部104と、合成変換部104によって合成変換された合成画像を元に画像処理により予め設定された認識対象を認識する認識部105と、車両の状態・外部環境・内部環境を観測するセンサ106と、車両に搭載されている照明107と、認識部105の認識結果に応じて合成変換部104による合成変換方法のパラメータを生成するパラメータ生成部108と、認識結果やセンサ情報を入力として、必要に応じて情報を重畳描画して表示する表示部109と、認識結果やセンサ情報に基づいて制御を行う制御部110の各機能が構成される。
画像入力部101〜103は、自車周囲を撮像してその画像を合成変換部104に入力する。例えば、CCDとレンズを有するカメラによって構成される。
合成変換部104は、画像入力部101〜103から入力した各画像に対して、後述するパラメータ生成部108からのパラメータに応じて、拡大・縮小・回転・写像等の変換処理を行うとともに、複数の画像を写像してより少ない枚数の画像に納める合成処理を行い、これら合成変換処理により作成された合成画像を認識部105に送る。尚、本実施の形態では、合成変換部104から認識部105に入力される画像が1入力の場合を例に説明しているが、複数画像が入力される場合でも本質的に同じである。
認識部105は、合成変換部104によって作成された合成画像に対して画像処理を行い、合成画像に写っている白線、トラロープ、パレット式駐車場のパレットなどの駐車枠を画像認識する。また、認識部105は、車両の状態・外部環境・内部環境を観測するセンサ106に対して、駐車状態に応じてセンサ情報の取得要求を出す。
そして、センサ106から取得したセンサ情報に応じて、より詳しくは複数の画像を写像してより少ない枚数の画像に納める際(合成処理する際)に、どの画像を重視して解像度を割り当てるかを、パラメータ生成部108に指令する。さらに、認識部105は、画像認識の結果によって、駐車枠線等の認識対象が見えにくくなっている状況を判定し、照明部107へ点灯・消灯・照射範囲などの指令を出す。
パラメータ生成部108では、認識部105からの指示により、各画像に対する変換方法を変更し、合成変換部104に対して合成変換のパラメータを送る。パラメータ生成部では、少なくとも、画像入力部101〜103のいずれの映像を用いるか、その映像中で使用する入力画像領域,各入力画像領域を割り付ける出力画像上での領域,各領域の幾何変換マップ,をパラメータとして持つ。
このパラメータの例を図33〜図35を用いて説明する。図33に示すパラメータ3006は、図35(B)に示す出力画像3004を作成するためのパラメータ例である。例えば、図34に示す画像入力部101からの映像3001、画像入力部102からの映像3002、画像入力部103からの映像3003に対して、パラメータ3006は、使用する映像を画像入力部101と画像入力部102からの映像と設定し、入力画像領域を領域3011、領域3012と設定している。
そして、これらの入力画像領域3011、3012を、図35(B)の出力画像3004上の出力画像領域3021と出力画像領域3022に割り付ける設定となっている。そして、映像3001と出力画像領域3021との座標変換、および映像3002と出力画像領域の3022との座標変換を行うためのマップとして、幾何変換マップ3005が指定されている。
図35(A)に示すように、幾何変換マップ3005では、一部の対応付けのみを点線の矢印で示しているが、実際には領域と領域の対応関係を密に定義している変換テーブルである。パラメータは後述する自車の状態と周囲環境の状態などにより、必要に応じて切り替えられるものである。
パラメータ生成部108は、前述したパラメータの組を複数保持しておき、認識部105からの指示により、このパラメータの組を切り替えることができる。また、切り替えの際にパラメータ間が滑らかに切り替わるように中間的なパラメータを生成する機能を持っていても良い。
例えば、生成する出力画像が図9から図14のようになるようにパラメータが変更された場合、出力画像領域の変換マップを切り替える代わりに、10フレーム程度の複数フレームにかけて、幾何変換マップの出力座標を補間して滑らかに変化させる。この幾何変換マップの補間は一般的にはモーフィング技術と呼ばれるものがあるため、ここでは詳細には述べない。これにより、ユーザにとっての見やすさを向上し、切り替わりによる周囲状況把握の混乱を防ぐことができるようになる。
表示部109は、認識部105からの認識結果やセンサ情報を入力として、必要に応じて情報を重畳描画して表示する。また、制御部110では、認識部105での認識結果やセンサ情報に基づいて、ハンドル制御や加速・制動制御を行い、自動駐車を行う。
図2は、車両に搭載されるカメラの配置例を示す図である。車両10には、3つの車載カメラ201〜203が搭載されており、画像入力部101が左サイドカメラ201、画像入力部102が右サイドカメラ202、画像入力部203がリヤカメラ203である。また、車両10には、照明107として、自車周辺を照らすためのライトがドアミラー部に内蔵されて搭載されている(図示していない)。
上記した外界認識装置100を用いた駐車支援方法として、手動、半自動、完全自動の3種類に大きく分けることができる。図3は、手動による駐車支援方法を説明する図、図4は、半自動による駐車支援方法を説明する図、図5は、完全自動による駐車支援方法を説明する図である。
手動の場合、図3に示すように、運転者によって目標とする駐車スペースPが指定されると、駐車支援装置は、その目標駐車スペースPまでの誘導経路を表示部109に表示し、更に自車10の舵角情報を重畳して表示したり、音声でハンドルをどちら側にどのくらい回すのかを指示したりすることで、停止位置やシフトポジションの変更を行うタイミングを運転者に教える。運転者は、指示に従ってハンドルやアクセル、ブレーキ等を操作することで、車両10を目標駐車スペース内に駐車することができる。目標とするスペースPを運転手が指定する方法としては、以下の複数の方法が考えられる。例えば、タッチパネル機能を持つカーナビゲーションのモニタに自車周囲映像を映し出しておき、運転手が指で触ることによって目標とする駐車スペースを指定する方法が考えられる。また、同様にカーナビゲーションのモニタに自車周囲映像を映し出すとともに、その映像に重畳して数字もしくはアルファベット等の文字を表示しておき、目標とする駐車スペースPに近い数字もしくは、アルファベット等の文字を運転手に発話させ、その音声を認識することによって目標とする駐車スペースPを指定することができる。音声を認識する方法については、公知の技術があるため、ここでは特に述べない。あるいは、頭部方向や視線方向を計測する方法を用いて運転手の目標とする駐車スペースPを指定してもよい。運転席付近に設置したカメラによって、運転手の頭部方向を観測しておき、目標とする駐車枠の方向を向かせることで駐車枠を指定する方法である。通常、駐車スペースに異物が落ちていないか確認する必要があるため、運転手に目視で確認させると同時に、駐車支援システムに目標とする駐車スペースを指定することで、スムーズに駐車支援システムの動作開始を行わせることが可能となる。
半自動の場合、図4に示すように、運転者によって目標とする駐車スペースPが指定されると、駐車支援装置は、自車10の舵角を制御する点が手動の場合と異なる。車両10のアクセルおよびブレーキの操作は、運転者自身によって行われる。尚、表示部109に誘導経路を表示させてもよい。
完全自動の場合、図5に示すように、運転者に目標とする駐車スペースPを選択させると、駐車支援装置は、車両10の誘導経路を計算し、車両10の舵角と速度を適切に制御しながら、車両10を経路に沿って移動させ、目標駐車スペース内に駐車させる。
上記した各駐車支援方法は、自車周囲の環境を認識するために、白線などで描かれた駐車枠線20を認識し、表示部109により運転者に駐車可能な駐車スペースPを提示して選択させ、選択された駐車スペースPの位置までの誘導経路を計算している。上記3つの方法に対して、駐車支援装置が行う誘導経路の計算自体は、これまで多くの研究や発明がなされているため、ここでは詳細の説明を省く。
手動による駐車支援動作の流れを示す図3に従って説明する。
[駐車支援開始判定]
車両10の走行中に、駐車支援が必要な状況か否かが定期的に判定される(ステップS301)。駐車支援が必要な状況か否かは、予め設定された支援開始条件に基づいて判断され、支援開始条件を満たしている場合には、駐車支援処理が開始される。
例えば、車速を支援開始条件として設定し、定期的に車速を観測して、車速が予め設定された閾値よりも低下した場合に、駐車支援が必要な状況と判断して駐車支援処理を開始してもよい。または、カーナビゲーションシステムの地図情報と自車位置情報を利用して、自車10が駐車場に入ったことを認識して、駐車支援処理を開始してもよい。
他には、駐車場付近に備えられたビーコンによって駐車可能区域に近づいたことを検知し、あるいは、運転者によるスイッチ操作や音声認識、視線観測による入力等に基づいて、駐車支援処理を開始してもよい。
[初期枠検知処理]
駐車支援開始判定により駐車支援開始の判定がなされると、例えば自車10の近傍や駐車場内における駐車スペースの候補が表示部109によって表示され、運転者に提示される(ステップS302)。駐車スペースの候補は、例えば画像認識による駐車枠認識結果や、測距センサによる駐車空間認識結果に基づいて検出され、表示部109によって車載モニタにその画像とともに重畳表示される。
[駐車目標設定処理]
上記した初期枠検知処理のステップS302によって、運転者に提示された駐車スペースの中から、任意の駐車スペースを、目標とする駐車スペースPとして選択させる(ステップS303)。目標とする駐車スペースPを選択する方法は、例えば車載モニタのタッチパネルのほか、運転者や同乗者の視線方向を観測したり、音声を認識したりしてもよい。
[目標枠追跡処理]
上記した駐車目標設定処理のステップS303によって、目標とする駐車スペースPが選択されると、その選択された駐車スペースPに自車10を誘導するために、画像認識やデッドレコニング、測距センサにより、自車10と駐車枠線20との相対位置の変化を追跡する処理が行われる(ステップS304)。この追跡結果に応じて、車両10をどのように動かせばよいかを運転者に示して、車両10を駐車スペースPに誘導する(ステップS305)。
そして、画像認識やデッドレコニングにより駐車スペースPまで自車10が到達したかどうかを判定し(ステップS306)、到達していると判定された場合には駐車完了と判断する(ステップS306でYES)。
一方、到達していないと判定された場合には、駐車完了とは判断されず(ステップS306でNO)、次に、画像認識やデッドレコニング、測距センサ106によって、自車位置が誘導経路から外れているか否か、あるいはこのままでは障害物に接触するか否かが判断される(ステップS307)。
ここで、自車位置が誘導経路から外れている等と判断された場合には(ステップS307でYES)、誘導経路の微調整及び修正を行い(ステップS308)、引き続き、駐車スペースPへの誘導を行う。また、誘導経路から外れていない等と判断された場合には(ステップS307でNO)、引き続き、駐車スペースPへの誘導が行われる。
次に、半自動による駐車支援動作の流れを示す図4に従って説明する。尚、図3と同様の処理については、同一の符号を付することでその詳細な説明を省略し、異なる処理についてのみ説明する。
[目標枠追跡処理]
半自動駐車制御では、ステップS304で自車10に対する駐車スペースPの相対位置変化を追跡した結果に基づき、制御部110による車両10の舵角制御が行われる(ステップS311)。
この舵角制御によって、誘導経路に合うように自車10の舵角が適切に制御される。運転者は、ハンドル操作を行わず、アクセルペダルとブレーキペダルを操作するだけで、自車10を誘導経路に沿って移動させることができ、最終的に駐車スペースPに駐車させることができる。
また、ステップS307で自車位置が誘導経路から外れていると判断された場合には(ステップS307でYES)、制御部110によって舵角を微調整する制御が行われ、引き続き、駐車スペースP内への誘導が行われる。
次に、完全自動による駐車支援動作の流れを示す図5に従って説明する。尚、図3と同様の処理については、同一の符号を付することでその詳細な説明を省略し、異なる処理についてのみ説明する。
[目標枠追跡処理]
完全自動駐車制御では、ステップS304で自車10に対する駐車スペースPの相対位置変化を追跡した結果に基づき、制御部110による車両10の舵角・速度制御が行われる(ステップS321)。
この舵角・速度制御によって、誘導経路に合うように自車10の舵角が適切に制御され、また、車速が制御される。これにより、運転者は、ハンドル、アクセルペダル、ブレーキペダルを操作することなく、自車10が誘導経路に沿って自動的に移動され、最終的に駐車スペースPに駐車される。また、駐車制御の途中で、何らかの理由により駐車支援を中断すると判断された場合には(ステップS322でYES)、そのまま自動駐車制御が終了される。
図3から図5で説明した各駐車支援方法において、特に駐車支援の動作開始直後は、装置側では運転者が自車10をどの駐車スペースに入れたいと望んでいるか分からないため、複数の駐車スペース候補を提示して選択させることになる。従って、自車周囲を広く見渡して、より多くの駐車枠の候補を見つけ、ユーザに提示することが望ましい。
図6は、駐車場内の走行例を示す図である。駐車支援の動作開始時点では、例えば図6に示すように、自車10の走行経路の左右に駐車スペースがあることが多いので、自車10を駐車させる駐車スペースを見つけるためには、自車10の側方を観測するように設置されている車載カメラ201、202の画像を用いるのがよい。
前述したように、本実施の形態では、認識部105に入力される画像を1入力であることを仮定しているため、車載カメラ201、202により撮像した2つの画像を1つの画像に合成する必要がある。
図6に示す状況の場合、車載カメラ201からは図7の画像が、車載カメラ202からは図8の画像が得られている。自車10の周囲には、他の駐車車両402〜404やラバーコーン405〜408等の障害物がある。
このような駐車場の状態において、自車10の周囲を広く見渡し、より多くの駐車スペースPの候補を見つけてユーザに提示するためには、例えば図9に示すような合成画像915を認識部105に与えることが好ましい。
図9に示す合成画像915は、画像入力部101〜103から入力した画像を合成変換部104で合成変換することによって作成される。ただし、例えば他車両の陰のように、立体物に遮蔽されるために画像入力部101〜103では観測できない領域409については、情報が欠落するため不正確な合成画像915となる。この観測できない領域409は、遮蔽している他車両の画像を路面の代わりに伸張して画像に貼り付けたり、レンジファインダやステレオカメラによって得られた距離情報に基づいて、欠落している情報であることを明示的に表示する。図10は、合成画像の作成方法を説明するフローチャート、図11は、図10の各ステップで得られる画像の一例を示す図である。
まず、画像取得処理(ステップS801)において、図11に示すように、各車載カメラ201〜203の画像911、921を取得し、歪み補正処理(ステップS802)でレンズ特性などの光学系歪みを補正した画像912、922を作成し、俯瞰変換処理(ステップS803)で仮想的に上方からの視点に変換した俯瞰画像913、923を作成する。
例えば、図12に模式的に示すように、実際のカメラ位置1001、1002と、道路面1003との相対関係が分かっている場合には、画像911、921に対して座標変換を行うことで、仮想的なカメラ位置1004から撮像した俯瞰画像913、923を作成することができる。
尚、上記した座標変換の方法としては、例えば特開2006−333009号公報に示されるように、実カメラで撮像された画像が格納されているメモリから読み出したデータを、事前にメモリ等に記憶させておいた変換テーブルに基づいて、俯瞰画像用メモリに画素毎に順次コピーすることで座標変換を行う方法がある。この変換テーブルとは、カメラによって撮像された実画像データを俯瞰画像データに変換するために、俯瞰画像データ上の各点が実画像上のどの点と同一であるかを示す2次元テーブルであり、カメラのレンズの光学特性並びに車両に対する取り付け位置および取り付け角度に基づいて一意に決定されるものである。
このとき、変換テーブルはカメラの車両に対する取り付け位置および取り付け角度に基づいて決められている一方で、実環境においては、乗員や貨物の積載重量変化や、加減速や旋回に起因する車体揺動や、温度や経年によるタイヤ空気圧変化の影響で、路面に対するカメラの相対的な高さおよび角度は変化してしまう。
道路に対する車両状態の変動には、長期的な変動と短期的な変動の2種類がある。長期的な変動は、積載重量の変化やタイヤ空気変動によるカメラの位置姿勢の変化であり、毎回の走行中には変化しない特徴を持つ。一方、短期的な変動は、道路面の凹凸や勾配変化、加減速に起因する車体の揺動に伴うカメラの位置姿勢の変化であり、短時間で収束する特徴を持つ。
この変化の影響により正確な俯瞰変換を行えず、例えば長方形の駐車枠線が台形として観測されるなど見かけの変形が生じる。見かけの変形が生じた場合、そのままでは駐車枠検知処理の認識性能が低下する。このため、路面に対する車両姿勢を計測するために、自動車の積載重量変化や車体揺動・タイヤ空気圧変化の状態を、車高センサ・車体ロールセンサ・タイヤ空気圧センサなどのセンサ106により観測し、適宜調整を行うことで認識性能を保つ必要がある。
これらのセンサ出力を時系列で観測することにより、長期的な変動と短期的な変動とを切り分けることができる。例えば、ある時刻tにおけるセンサ106からの出力値をO(t)とする。認識部105では、前々回の出力値O(t−2N)から前回の出力値O(t−N)の標本分散をS1、前回の出力値O(t−N)から今回の出力値O(t)の標本分散をS2とすると、S2≧k×S1であれば短期的な変動、そうでなければ長期的な変動と判断することができる。ここでk(≧1)は実験的に決める定数である。
長期的な変動に対しては、認識部105は、センサ106の出力値から車体の揺動の程度を計算し、カメラの位置姿勢の変化量を算出する。このカメラの位置姿勢の変化量をパラメータ生成部108に送る。パラメータ生成部108では、カメラの位置姿勢の変化量に基づいて俯瞰変換画像にアフィン変換を施すことができる。例えば台形として観測されている駐車枠線は、本来は長方形であり、2組の平行線で構成されているはずであるため、例えば特開2002−140696号公報に記載されている方法を用いることで、自動調整を行うことができる。特開2002−140696号公報の実施例には、カメラ角度のブレと、カメラ高さの変化を求める方法が記載されており、この方法により求めたカメラ角度のブレおよびカメラ高さの変化がカメラの姿勢位置の変化量としてパラメータ生成部108に送られる。
一方、短期的な変動に対しては、センサ106と画像入力部101〜103では、画像情報を取得する時間間隔とタイミングおよび遅延時間が異なるため、カメラ角度のブレとカメラ高さの変化を求めても、適切なタイミングで精度良い補正を行うことができない。この場合は、パラメータ生成部108のパラメータを変更する代わりに、認識部105での認識条件を調整することで認識性能を保つ。すなわち、センサ106からの出力値の標本分散を用いて、分散値が大きい場合には画像認識の認識パラメータを変更し、認識の条件を緩和する。例えば、後述する駐車スペースPを認識する際、駐車枠が変形していて台形に見えるような場合でも認識するように、白線の直線成分で囲まれていると判定する時の直線の平行性および直角性の判定条件を緩める。
アフィン変換処理(ステップS804)では、各駐車状態において画像認識に必要な特徴を保存するように画像の変形を行う。駐車支援の動作開始直後は、複数の駐車スペースは自車10の進行方向に沿って並んでおり、運転者が目標とする駐車スペースを選択する際には進行方向に対する位置が重要である。
また、駐車スペースPを形成する駐車枠線20の幅は、一般的に6cmから15cmであり、この線幅を潰さないように画像を縮小するのがよい。今回の場合、自車10の進行方向に直交する方向にのみ縮小を行った画像904を作成することで、駐車枠線20の前方ライン21と後方ライン23を潰さないように縮小している。
こうして一定の大きさに変換された複数の画像914、924を、画像統合処理(S805)において、1枚の統合画像にまとめることで合成画像915を作成する。なお、前述した画像処理ステップS801〜S805を順に行う必要はなく、歪み補正処理(S802)と俯瞰変換処理(S803)を合わせた変換マップを事前に準備しておくことで、一括した処理を行うこともできる。
この合成画像の作成方法は、ソナーセンサやミリ波レーダ、レーザレンジファインダといった測距センサ106からの出力によっても適切に変えることができる。例えば、図13に示すように、自車10の片側(進行方向右側)に壁1101が続いていることが観測されている場合は、そちら側に駐車することはない。
このような場合は、前述したように自車10の上方から見た俯瞰画像913は作成するが、その中心を自車10にする必要はなく、図14に示すように、壁1101のない左側の表示領域1201を広げ、右側の表示領域1202を狭めた合成画像1200を作成してもよい。これにより、例えば図9に示すような車両10の右側に位置する駐車スペースの候補の中に、障害物を観測できるようになる場合もあり、より適切な駐車支援が行えるようになる。
なお、自車10の片側に壁や駐車車両等の障害物が存在しているか否かの判定は、図13に示すように、自車10から複数方向に向かって、もしくは自車10の移動中に複数回、ソナーセンサやミリ波センサ、レーザーレーダ等の障害物センサで距離計測を行い、計測された距離1102、1103、1104が直線と見なせるか否かで判別することができる。
また、カーナビゲーションシステムや通信による駐車場情報などの事前知識が利用できる場合は、駐車可能な駐車スペースがある側や、駐車場の通用口側など利便性の高い駐車スペースのある領域を重視して合成画像を作成してもよい。
次に、俯瞰画像に画像処理を施して俯瞰画像の中から駐車枠線を見つける方法について説明する。俯瞰画像から白線を見つける方法は様々な方法が提案されているが、ここでは白線エッジ角度の連結を用いる方法について図15を用いて説明する。
図15において、図15(a)を入力画像1301とする。まず、入力画像1301に示される白線1311のエッジ角度を求める。ここでは、図15(b)に示す横方向のSobelオペレータ1302、及び図15(c)に示す縦方向のSobelオペレータ1303を、入力画像1301の画素にそれぞれ適用して、図15(d)に示される横方向のエッジ強度(ΔI/Δx)1304と、図15(e)に示される縦方向のエッジ強度(ΔI/Δy)1305をそれぞれ算出する。
そして、縦方向のエッジ強度1305を横方向のエッジ強度1304で除した値をエッジの傾きとみなし、その逆正接を計算することで、図15(f)に示される白線エッジ角度1306(θ=atan{(ΔI/Δy)/(ΔI/Δx)})を得ることができる。
この白線エッジ角度1306が類似しているエッジ点を周囲とグループ化することで、白線1311の直線成分を抽出することができる。白線エッジ角度1306の類似性は、例えば近傍のエッジ点のエッジ方向の差が所定の角度以内である場合に類似していると見なせばよい。
抽出された白線1311の直線成分で少なくとも2方向を囲まれていることが観測された領域は駐車スペースPの候補となる。直線成分を囲む際の判定条件は、例えば、2本の直線成分の間隔と、角度の平行性と、端点の位置ずれが既定値範囲であれば、囲んでいると判定する。例えば、直線成分の間隔は抽出されている線分の端点からもう一方の直線に対して垂線をおろし、その垂線の長さの平均値から計算できる。角度の平行性は、抽出されている2本の線分をベクトルVa,Vb、その線分間の角度をθとすると、次の式が成り立つ。cosθ=<Va,Vb>/(‖Va‖×‖Vb‖)。この式よりθを求め、|θ|≦θtであれば平行であると判定できる。ここでθtは実験的に求められる閾値である。このとき、認識部105で車体姿勢が短期的な変動をしていると判定した場合には、|θ|≦(θt+m×S2)であれば平行であると判断する。ただしmは調整用に実験的に決められる定数である。また、端点の位置ずれは、抽出されている線分の端点からもう一方の直線に対して垂線をおろし、その交点ともう一方の端点までの距離を位置ずれと定義する。
この駐車スペース候補の領域に対して、駐車枠線20の各辺21、22、23の長さが想定している駐車スペースPの大きさの範囲内に入っていることを評価し、駐車スペースPの大きさと明らかに異なる領域は候補から除外する。上記した方法によって、俯瞰画像から駐車スペースPを検出することができる。
また、白線24以外の、例えばトラロープも駐車スペースPの区切りとして使われる。トラロープは、通常、黄色と黒色の縞模様になっているため、色抽出を行い、規定の周期で交互の色で連続していることを手がかりに抽出することができる。
例えば、色抽出の場合、HSI表色系において所定の部分空間内に含まれる画素を抽出し、抽出された画素の座標に対しフーリエ変換を行い、所定の周波数領域での連続領域を抽出し、抽出後の座標に対して直線近似をすることで、トラロープを抽出することができる。尚、抽出方法の詳細については、本発明の本質的部分ではないため、省略する。
また、駐車枠線20以外の例えば規制表示や案内表示などの路面標示を認識することで、より高度な駐車支援を行うこともできる。例えば、図16は、駐車禁止区域2601と身障者用スペース2602のある駐車場の図である。
駐車禁止区域2601は、白線24が所定の間隔で複数本並んでおり、かつ駐車スペースPの並び方向に対して傾いていることを条件に認識することができる。この駐車禁止区域2601には、自車10も他車411等も駐車できないが、駐車途中の経路として一時的に通過することができるため、この区域を利用する誘導経路を生成することで、より柔軟な駐車動作を行うことができる。
また、駐車禁止区域2601には、他車411が停車することがないため、最終的な駐車位置として、この区域2601側に、自車10を寄せて停めることができる。これにより、自車10の周囲に多くのスペースを確保することができ、車両10のドアを大きく開くことができ、乗降車が容易になるという利点がある。
また、身障者用スペース2602は、前述した手法により駐車スペースPを認識した後、その内部領域に対して、身障者用スペース2602を表す図形を、テンプレートマッチング法を用いてその一致度を判定することで認識する。なお、この身障者用スペース2602を表す図形は、事前にそのバリエーションを含めて外界認識装置100の記憶手段に登録しておく。
次に、経路誘導時に必要な駐車スペースPの位置の認識方法について説明する。
外界認識装置100において、駐車スペースPまでの誘導経路を正確に算出するためには、車両10に対する駐車スペースPの位置および方位を正確に認識し、駐車スペースPに対して偏りなく、また、周囲の障害物等にぶつかりにくい状態で経路誘導を行うことが望ましい。
この経路誘導時に、車両10の周囲で注意を払わなくてはならない部位は、駐車動作の段階と、駐車スペースと自車10の相対関係によって変化する。以下、駐車動作の段階に応じて、どのような合成画像を認識部105に与えるかを順に説明する。
例えば、図17〜図20に示すように、自車10の左後方の駐車スペースが、目標とする駐車スペースとして選択された場合、駐車動作の段階としては、後退動作(図17)、急旋回動作(図18)、平行性調整動作(図19)、停車位置調整動作(図20)の4段階がある。
後退動作中は、図17に示すように、駐車スペースPまで後退する際の位置精度を高めるため、自車10の後方を観測して自車移動量を計測しつつ、後側方を観測して駐車スペースPの方向を計測する必要がある。従って、認識部105は、図21のように、パラメータ生成部108に対して、自車10の後方と後側方の俯瞰画像1801、1802をまとめて示すように指令を与える。
次に、急旋回動作中は、図18に示すように、自車10の内輪側1501が駐車枠線20や左隣の駐車車両(図示せず)に当たらないかを監視することが重要であるとともに、どのタイミングでハンドルきり角を戻せばよいかを精密に判定する必要がある。また、自車10の最も外側の角1502が、駐車スペースPと通路を挟んで対向する側の壁や駐車車両に当たらないかを監視する必要がある。
従って、認識部105は、図22に示すように、注目が必要な領域の画像1901、1902を合成変換部104がまとめて示すように、パラメータ生成部108に指令を与える。
また、車両10にソナーセンサやレンジファインダのようなセンサ106が搭載されており、センサ106によって周囲の障害物を認識した結果、衝突の危険性がないと判断された場合には、認識部105は、パラメータ生成部108に対して、自車10の内輪側の画像1901のみをより高解像度で示すように指令を与える。
そして、衝突の危険性が一定以上あると判断された場合には、自車10の最も外側の角である右前端部を含む画像1902の解像度を増やすようにパラメータ生成部108に指令を与える。
また、車両10には、車速センサ、車輪速センサ、対地速度センサ等の自車10の動く速度が分かるセンサ106が搭載されており、認識部105は、パラメータ生成部108に対して、自車10の挙動と周囲の障害物の有無に応じて、認識範囲を広げるように指令を与える。
次に、平行性調整動作中の場合は、図19に示すように、駐車目標位置までの距離が短く、大幅に経路を修正することは困難である。しかしながら、自車10の姿勢状態が駐車スペースPの側方ライン22と平行になるように、ハンドル角度を調整する必要があることから、自車10と自車側方1601の側方ライン22との角度を算出することが重要である。従って、図23のように、自車10の後側方を遠方まで観測できる画像を合成変換部104から与えられるように、認識部105は、パラメータ生成部108に指令を与える。
次に、停車位置調整動作中の場合は、図20に示すように、自車10は、直進後退をしており、駐車枠線20や縁石、輪留めから適切な停車位置を探す必要があり、これらの目印から車両10までの距離を計測する必要がある。従って、図24に示すように、自車10から停車位置までの距離が計測しやすい俯瞰画像2401を合成変換部104から与えられるように、認識部105は、パラメータ生成部108に指令を与える。
また、認識部105は、夜間などにおいて画像のコントラストが低下している状況や、外乱光の影響によって駐車枠線20等の認識対象が見えにくくなっている状況を判定し、照明107を制御する。
例えば、前述した図18に示すような急旋回中に駐車スペースPの駐車枠線20を認識する場合に、デッドレコニングおよび外界センサ106によって、車両10の内輪側1501の近辺に存在する駐車枠端が、画像上のどの付近に映されているかが分かっているが、その近傍では検出できず且つ近傍領域のコントラストが低いときは、照明107で車両10の内輪側1501を照らし出すように点灯させ、かかる領域を再度撮像して、コントラストの改善された画像を認識部105に与えるのがよい。
また、店舗や街灯、自販機などを光源として、路面や水溜まり上に駐車枠端に似た明暗パターンが投影される場合がある。このような場合、駐車枠端が写っているべき画面上の位置が、デッドレコニングおよび外界センサ106により計算される位置からずれて、正確に認識対象が得られていない可能性がある。従って、照明107を点灯して外乱光の影響を軽減した画像を認識部105に与える。
路面標示と外乱光による明暗パターンでは、照明107の点灯前後におけるコントラスト変化の度合いが異なるため、照明107を点灯していない状態の画像と比較することで、前述した外乱光の影響による誤認識を防ぐことができる。
一方、前述した平行性調整動作中の状態で、ステアリング操作のミスや車両挙動の誤差などによって経路設定から逸脱し、図25に示すように、駐車枠線20の車両後側方に位置する側方ライン22を踏んでいる場合には、この側方ライン22を画像認識により認識することは困難である。
かかる場合、自車10の側方に位置する駐車枠線20の前方ライン21を認識し、前方ライン21に対して直交する方向に自車10を誘導することで、目標駐車スペースP内で側方ライン22に対して自車を平行に駐車することができる。この場合の認識部105に与える画像は、例えば図26に示すように、自車10の左側方を撮像し、駐車枠線20がより遠くまで見えるように俯瞰しない画像にするとよい。
このように、駐車状態に応じて使用するカメラ201〜203およびカメラ画像の合成変換方法のパラメータを調整することで、駐車スペースPの候補を運転者に提示する段階(図3〜図5のステップS302)においては、より多くの駐車スペースPをユーザに提示できる。そして、目標枠追跡処理(図3〜図5のステップS304以降)においては、目標駐車スペースPの位置および方位をより正確に認識できる。こうして認識された駐車スペースPに基づいて、手動、半自動、完全自動による駐車動作支援が行われる。
なお、上記実施の形態では、手動駐車による駐車支援装置の流れを仮定して説明したが、半自動駐車および自動駐車においても、同様である。すなわち、運転者に判断させる部分が計算機による判断に置き換わる以外は、各駐車状態に応じて認識部105に適切な画像を入力する必要があり、本発明の方法を適用することができる。
また、上記実施の形態では、認識部105に入力される画像が1入力、車載カメラ201〜203が3台である場合を例に説明したが、複数入力の場合や、車載カメラが2台もしくは4台以上であっても同様に、実際の画像をそのまま認識部105に入力する代わりに、状況に応じた合成変換方法を適用することができる。
例えば、車載カメラが2台であり、認識部105において4入力が可能である場合を考える。このとき、図3のステップS302における初期枠検知の段階で、2台のカメラからそれぞれの俯瞰変換なし画像と俯瞰変換あり画像の4画像を入力する。これにより、俯瞰変換なし画像では、より遠くまでの画像を観測することができ、俯瞰変換あり画像では歪みが少ないため高精度に駐車枠位置を認識することができる。
また、以上に説明した構成に加え、図27に示すように画像選択部2701を備えていてもよい。この場合、まず、画像入力部101〜103で撮像された自車周囲の画像を、それぞれ合成変換部104に送る。
合成変換部104では、画像入力部101〜103から送られてきた複数の画像に対して、パラメータ生成部108で生成されたパラメータに応じて拡大・縮小・回転・写像の変換を行うとともに、複数の画像を写像してより少ない枚数の画像に納める変換を行い、変換して作成した合成画像を画像選択部2701に送る。
画像選択部2701では、パラメータ生成部108からのパラメータに応じて、各画像入力部101〜103からの画像を、そのまま認識部105に入力するか、合成変換部104で変換合成して合成画像としてから認識部105に入力するかを切り替える。
認識部105では、画像入力部101〜103で取得した画像、又は、合成変換部104で作成された合成画像を元に画像認識を行い、白線22、トラロープ、パレット式駐車場のパレット境界などの駐車スペースPの境界を認識する。
また、認識部105は、車両10の状態・外部環境・内部環境を観測するセンサ106に対し、駐車状態に応じてセンサ情報の取得要求を出力し、センサ106から供給される情報に応じて、複数の画像を写像してより少ない枚数の画像に納める際にどの画像を重視して解像度を割り当てるかを、パラメータ生成部108に対して指令を出す。
さらに、認識部105は、画像認識の結果によって認識対象が見えにくくなっている状況を判定し、照明107へ点灯・消灯・照射範囲などの指令を出す。パラメータ生成部108では、認識部105の指示により、各画像に対する変換方法を変更し、合成変換部104および画像選択部2701に対して合成変換のパラメータを送る。
表示部109では、認識部105からの認識結果やセンサ情報を入力として、必要に応じて情報を重畳描画して表示する。また、制御部110では、認識部105での認識結果やセンサ情報に基づいて、ハンドル制御や加速・制動制御を行い、自動駐車を行う。
上記した外界認識装置100は、車両10に設置された複数のカメラ201〜203で撮像される車両周囲の画像を利用して駐車スペースPの駐車枠線20を認識するものであって、入力されるパラメータに応じて、各画像の座標変換と合成を行い、合成画像を作成し、その作成された合成画像に対して画像処理を行い、駐車枠線20を認識し、その認識された駐車枠線20と車両10との相対位置に基づいて、合成変換用のパラメータを生成する。
従って、駐車枠Pを認識するのに必要な合成画像を作成することができ、駐車枠線20を精度良く認識させることができる。従って、例えば、駐車動作に影響を与える可能性が高い箇所の解像度を高く設定した合成画像を作成し、精度良く認識させることができる。また、駐車動作に影響を与える可能性が低い箇所の解像度を低く設定した合成画像を作成し、認識部105における認識処理の負荷を低減することができる。
本発明は、上述の実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。
(第2実施の形態)
図27は、本実施の形態に係わる外界認識装置の構成を示すブロック図である。第1の実施形態とは、外界認識装置100が、駐車スペースではなく自車周囲の物体の移動状態を認識するために用いられる点が異なる。以下、第1の実施の形態との差異を中心に説明する。
図28は俯瞰画像取得手段1の画像を説明する図である。図28(a)は空間中において、車両30の後部に備え付けられたカメラ31が、立体物32をカメラ31の視界33に捉えた状況の一例である。立体物32は直立した人物である。カメラ31は人物の腰ほどの高さに備え付けられてあり、カメラ31の視界33は立体物32の脚部32dおよび胴部32cと腕部32bの下の部分が収まっている。
図28(b)において38は俯瞰画像、34はカメラ31の視点、35は立体物32の俯瞰画像38内の像、36aおよび36bはカメラ31の視点34からのある放射方向の直線を表す。図28(b)において、立体物32の左および右の輪郭は、カメラ31の視点34からみたカメラ31の放射方向36aおよび36bに沿って伸長する。俯瞰変換は画像上の像を地上面に投影する変換であるため、画像上の像が空間中においてすべて地上面にあるときは歪まないが、画像上に写る立体物の地上面から高いところほど歪みが大きくなり、カメラ視点からの放射方向に沿って画像の外側に伸張する特性を持つためである。
立体物32の像35の移動状態を観測し、その結果によってパラメータ生成部108への出力内容を変更する。具体的には以下のようにおこなう。
図29は自車が駐車のため後方に移動している状況を表しており、自車周囲にいる人物の像35は自車から離れる方向に移動している。このような場合には、自車が人物と衝突する可能性は低いため、このような人物は危険ではない。しかしながら、人物が駐車枠線20を隠し続けており、精確な駐車動作を行う上で、人物領域を含めて画像を撮像するのは適切ではない。このため、自車右側方の映像を観測する領域を増すことで、駐車スペースPの位置を高精度に認識できる。このときの出力画像は例えば図30のようになるようにパラメータを生成する。
一方、図31は、自車が駐車のため後方に移動している状況を表しており、自車周囲にいる人物の像35も後方に移動している。このような場合には、自車の進行方向および移動人物の進行方向である自車左後方が危険である。また、現時点では人物の像35が駐車枠線20を一時的に隠しているが、すぐに枠線が見えるようになると予想される。このため、図32のように自車左後方を拡大した映像を出力画像として生成するためのパラメータを生成するのが好適である。なお、人物の像35の移動を計測する手法に関しては、例えば特開2005−123968号公報に開示されている技術を用いて実現することができる。
従って、車両の周辺で移動する、人物、動物、他車両などの移動状態の認識結果から、観測したい対象が隠されていて見えない状態がすぐに解消されるのかを判断することで、状況に即したパラメータ生成を行い、駐車枠Pを認識するのに必要な合成画像を作成することができる。これにより、周囲で人物、動物、他車両が存在し、移動していても、駐車枠線20を精度良く認識させることができる。また、駐車動作に影響を与える可能性が低い箇所の解像度を低く設定した合成画像を作成し、認識部105における認識処理の負荷を低減することができる。
本発明は、上述の実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。
10 車両
20 駐車枠線
21 前方ライン
22 側方ライン
23 後方ライン
101〜103 画像入力部
104 合成変換部
105 認識部
106 センサ
107 照明部
108 パラメータ生成部
109 表示部
110 制御部
201 左サイドカメラ
202 右サイドカメラ
203 リヤカメラ
P 駐車スペース

Claims (11)

  1. 車両に設置された複数のカメラで撮像される車両周囲の画像を利用して認識対象を認識する外界認識装置であって、
    入力されるパラメータに応じて、前記各画像の座標変換と合成を行い、合成画像を作成する合成変換部と、
    該合成変換部で作成された合成画像に対して画像処理を行い、前記認識対象を認識する認識部と、
    該認識部によって認識された認識結果に基づいて、前記パラメータを生成するパラメータ生成部と、
    を有することを特徴とする外界認識装置。
  2. 車両に設置された複数のカメラで撮像される車両周囲の画像を利用して認識対象を認識する外界認識装置であって、
    入力されるパラメータに応じて、前記各画像の座標変換と合成を行い、合成画像を作成する合成変換部と、
    前記パラメータに応じて、前記カメラで撮像した撮像画像と前記合成変換部で合成変換した合成画像のうち少なくとも1つ以上の画像を選択する画像選択部と、
    該画像選択部によって選択された前記画像に対して画像処理を行い、前記認識対象を認識する認識部と、
    該認識部によって認識された認識結果に基づいて、前記パラメータを生成するパラメータ生成部と、
    を有することを特徴とする外界認識装置。
  3. 前記認識部は、車高センサ、車体ロールセンサ、タイヤ空気圧センサの少なくとも一つから前記車両の車両姿勢を計測するセンサ信号を入力することを特徴とする請求項1又は請求項2に記載の外界認識装置。
  4. 前記認識部は、車速センサ、車輪速度センサ、対地速度センサの少なくとも一つから車両移動を計測するセンサ信号を入力とすることを特徴とする請求項1又は請求項2に記載の外界認識装置。
  5. 前記認識部は、ソナーセンサ、レーザレンジファインダ、ミリ波センサ、ステレオカメラの少なくとも一つから、前記車両と障害物との間の距離を計測するセンサ信号を入力とすることを特徴とする請求項1又は請求項2に記載の外界認識装置。
  6. 前記認識対象は、駐車枠、規制表示、案内表示などの路面標示であることを特徴とする請求項1又は請求項2に記載の外界認識装置。
  7. 前記認識部は、前記車両の周辺で移動する人物、動物、他車両などの移動状態の認識結果を前記パラメータ生成部に出力することを特徴とする請求項1又は請求項2に記載の外界認識装置。
  8. 前記合成変換部は、前記複数のカメラで撮像した画像を選択的に入力して、同一画面内に同一縮尺以下で写像することで出力画像を作成することを特徴とする請求項1又は請求項2に記載の外界認識装置。
  9. 前記車両の周囲を照明可能な照明手段を有し、
    前記認識部は、画像認識の結果、前記認識対象が見えにくくなっていると判定した場合に、前記照明手段に該当箇所を照明する指令を出すことを特徴とする請求項1又は請求項2に記載の外界認識装置。
  10. コンピュータに、
    複数の車載カメラで撮像した画像を取得させる画像取得工程と、
    入力されるパラメータに応じて前記画像の座標変換と合成を行う合成変換工程と、
    前記合成変換された画像に対する画像処理により認識対象を認識させる認識工程と、
    該認識対象の認識結果に応じて前記パラメータを生成するパラメータ生成工程を行わせることを特徴とする外界認識プログラム。
  11. コンピュータに、
    複数の車載カメラで撮像した画像を取得させる画像取得工程と、
    入力されるパラメータに基づいて、前記画像取得工程で取得された画像の座標変換と合成を行う合成変換工程と、
    車両に対する前記認識対象の相対位置に基づいて、前記画像取得工程で取得された画像と、前記合成変換工程で作成された合成画像のいずれを用いるかを選択させる選択工程と、
    該選択工程で選択された画像に対して画像処理を行い、認識対象を認識させる認識工程と、
    該認識対象の認識結果に応じて前記パラメータを生成するパラメータ生成工程を行わせることを特徴とする外界認識プログラム。
JP2009176276A 2009-07-29 2009-07-29 外界認識装置 Active JP5313072B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009176276A JP5313072B2 (ja) 2009-07-29 2009-07-29 外界認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009176276A JP5313072B2 (ja) 2009-07-29 2009-07-29 外界認識装置

Publications (2)

Publication Number Publication Date
JP2011030140A true JP2011030140A (ja) 2011-02-10
JP5313072B2 JP5313072B2 (ja) 2013-10-09

Family

ID=43638301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009176276A Active JP5313072B2 (ja) 2009-07-29 2009-07-29 外界認識装置

Country Status (1)

Country Link
JP (1) JP5313072B2 (ja)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014084256A1 (ja) 2012-11-27 2014-06-05 クラリオン株式会社 車載画像処理装置
WO2014083827A1 (ja) * 2012-11-27 2014-06-05 日産自動車株式会社 車両用加速抑制装置
WO2014083816A1 (ja) * 2012-11-27 2014-06-05 日産自動車株式会社 運転支援装置
WO2014083825A1 (ja) * 2012-11-27 2014-06-05 日産自動車株式会社 運転支援装置及び運転支援方法
JP2014106731A (ja) * 2012-11-27 2014-06-09 Clarion Co Ltd 車載画像処理装置
JP2014158075A (ja) * 2013-02-14 2014-08-28 Fujitsu Ten Ltd パラメータ取得装置、パラメータ取得方法及びプログラム
KR20140143919A (ko) * 2013-06-10 2014-12-18 현대모비스 주식회사 이더넷 네트워크 기반의 차량용 블랙박스 시스템
JP2015064795A (ja) * 2013-09-25 2015-04-09 日産自動車株式会社 駐車場判定装置、駐車場判定方法
JP2015106777A (ja) * 2013-11-29 2015-06-08 株式会社富士通ゼネラル 画像処理装置並びに運転支援装置およびナビゲーション装置およびカメラ装置
EP2927075A1 (en) * 2012-11-27 2015-10-07 Nissan Motor Co., Ltd. Vehicle acceleration restriction device and vehicle acceleration restriction method
WO2015194124A1 (ja) * 2014-06-18 2015-12-23 株式会社デンソー 運転支援装置、運転支援方法、画像補正装置、画像補正方法
WO2016035271A1 (ja) * 2014-09-02 2016-03-10 株式会社デンソー 車両用画像処理装置
JP2016053942A (ja) * 2014-09-02 2016-04-14 株式会社デンソー 車両用画像処理装置
JP2017007521A (ja) * 2015-06-23 2017-01-12 三菱電機株式会社 自動駐車制御装置
JP2018190065A (ja) * 2017-04-28 2018-11-29 ダイハツ工業株式会社 駐車支援装置
JP2019106012A (ja) * 2017-12-12 2019-06-27 富士通株式会社 判定プログラム、判定方法および情報処理装置
WO2020110435A1 (ja) * 2018-11-29 2020-06-04 日立オートモティブシステムズ株式会社 外界認識装置
JP2020095626A (ja) * 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020114712A (ja) * 2019-01-17 2020-07-30 日立オートモティブシステムズ株式会社 車載制御装置
JP2020120327A (ja) * 2019-01-25 2020-08-06 アイシン精機株式会社 周辺表示制御装置
JP2020154708A (ja) * 2019-03-20 2020-09-24 本田技研工業株式会社 車両システム、車両システムの制御方法、およびプログラム
EP3745302A1 (en) * 2019-05-30 2020-12-02 Clarion Co., Ltd. Image processing device and method for processing image
CN112644462A (zh) * 2019-10-11 2021-04-13 丰田自动车株式会社 驻车辅助装置
JP2021135838A (ja) * 2020-02-28 2021-09-13 フォルシアクラリオン・エレクトロニクス株式会社 駐車支援装置、及び駐車支援システム
CN113799796A (zh) * 2020-06-16 2021-12-17 丰田自动车株式会社 车载传感器系统
JP2022023870A (ja) * 2017-07-19 2022-02-08 株式会社アイシン 表示制御装置
WO2022075173A1 (ja) * 2020-10-08 2022-04-14 ソニーセミコンダクタソリューションズ株式会社 車載カメラ、車載カメラの制御装置、制御方法および車載カメラシステム
WO2022215534A1 (ja) * 2021-04-05 2022-10-13 株式会社アイシン 駐車支援装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040499A (ja) * 1996-07-24 1998-02-13 Honda Motor Co Ltd 車両の外界認識装置
JP2001315603A (ja) * 2000-05-09 2001-11-13 Matsushita Electric Ind Co Ltd 運転支援装置
JP2003023554A (ja) * 2001-07-09 2003-01-24 Victor Co Of Japan Ltd 監視用カメラ及び監視カメラを用いたセキュリュティシステム
WO2005125208A1 (ja) * 2004-06-15 2005-12-29 Matsushita Electric Industrial Co., Ltd. 監視装置および車両周辺監視装置
JP2006073013A (ja) * 2005-09-05 2006-03-16 Hitachi Ltd 車載用カメラ装置
JP2007176244A (ja) * 2005-12-27 2007-07-12 Aisin Seiki Co Ltd 駐車支援装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040499A (ja) * 1996-07-24 1998-02-13 Honda Motor Co Ltd 車両の外界認識装置
JP2001315603A (ja) * 2000-05-09 2001-11-13 Matsushita Electric Ind Co Ltd 運転支援装置
JP2003023554A (ja) * 2001-07-09 2003-01-24 Victor Co Of Japan Ltd 監視用カメラ及び監視カメラを用いたセキュリュティシステム
WO2005125208A1 (ja) * 2004-06-15 2005-12-29 Matsushita Electric Industrial Co., Ltd. 監視装置および車両周辺監視装置
JP2006073013A (ja) * 2005-09-05 2006-03-16 Hitachi Ltd 車載用カメラ装置
JP2007176244A (ja) * 2005-12-27 2007-07-12 Aisin Seiki Co Ltd 駐車支援装置

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9616885B2 (en) 2012-11-27 2017-04-11 Nissan Motor Co., Ltd. Vehicular acceleration suppression device
JP5846317B2 (ja) * 2012-11-27 2016-01-20 日産自動車株式会社 車両用加速抑制装置
JP5900649B2 (ja) * 2012-11-27 2016-04-06 日産自動車株式会社 運転支援装置
WO2014083825A1 (ja) * 2012-11-27 2014-06-05 日産自動車株式会社 運転支援装置及び運転支援方法
EP2927075A1 (en) * 2012-11-27 2015-10-07 Nissan Motor Co., Ltd. Vehicle acceleration restriction device and vehicle acceleration restriction method
JP5900651B2 (ja) * 2012-11-27 2016-04-06 日産自動車株式会社 運転支援装置及び運転支援方法
JPWO2014083827A1 (ja) * 2012-11-27 2017-01-05 日産自動車株式会社 車両用加速抑制装置
US9715633B2 (en) 2012-11-27 2017-07-25 Clarion Co., Ltd. Vehicle-mounted image processing device
WO2014083816A1 (ja) * 2012-11-27 2014-06-05 日産自動車株式会社 運転支援装置
JP2014106731A (ja) * 2012-11-27 2014-06-09 Clarion Co Ltd 車載画像処理装置
WO2014084256A1 (ja) 2012-11-27 2014-06-05 クラリオン株式会社 車載画像処理装置
EP2927075A4 (en) * 2012-11-27 2015-12-30 Nissan Motor DEVICE FOR RESTRICTING A VEHICLE ACCELERATION AND METHOD FOR LIMITING A VEHICLE ACCELERATION
EP2927077A4 (en) * 2012-11-27 2016-04-27 Nissan Motor DEVICE FOR SUPPRESSING VEHICLE ACCELERATION
WO2014083827A1 (ja) * 2012-11-27 2014-06-05 日産自動車株式会社 車両用加速抑制装置
JP2014158075A (ja) * 2013-02-14 2014-08-28 Fujitsu Ten Ltd パラメータ取得装置、パラメータ取得方法及びプログラム
KR20140143919A (ko) * 2013-06-10 2014-12-18 현대모비스 주식회사 이더넷 네트워크 기반의 차량용 블랙박스 시스템
KR102075168B1 (ko) * 2013-06-10 2020-03-02 현대모비스 주식회사 이더넷 네트워크 기반의 차량용 블랙박스 시스템
JP2015064795A (ja) * 2013-09-25 2015-04-09 日産自動車株式会社 駐車場判定装置、駐車場判定方法
JP2015106777A (ja) * 2013-11-29 2015-06-08 株式会社富士通ゼネラル 画像処理装置並びに運転支援装置およびナビゲーション装置およびカメラ装置
JP2016004448A (ja) * 2014-06-18 2016-01-12 株式会社デンソー 運転支援装置、運転支援方法、画像補正装置、画像補正方法
WO2015194124A1 (ja) * 2014-06-18 2015-12-23 株式会社デンソー 運転支援装置、運転支援方法、画像補正装置、画像補正方法
JP2016053942A (ja) * 2014-09-02 2016-04-14 株式会社デンソー 車両用画像処理装置
WO2016035271A1 (ja) * 2014-09-02 2016-03-10 株式会社デンソー 車両用画像処理装置
JP2017007521A (ja) * 2015-06-23 2017-01-12 三菱電機株式会社 自動駐車制御装置
US10688986B2 (en) 2015-06-23 2020-06-23 Mitsubishi Electric Corporation Automatic parking control device
JP2018190065A (ja) * 2017-04-28 2018-11-29 ダイハツ工業株式会社 駐車支援装置
JP7059459B2 (ja) 2017-04-28 2022-04-26 ダイハツ工業株式会社 駐車支援装置
JP2022023870A (ja) * 2017-07-19 2022-02-08 株式会社アイシン 表示制御装置
JP7283514B2 (ja) 2017-07-19 2023-05-30 株式会社アイシン 表示制御装置
JP2019106012A (ja) * 2017-12-12 2019-06-27 富士通株式会社 判定プログラム、判定方法および情報処理装置
WO2020110435A1 (ja) * 2018-11-29 2020-06-04 日立オートモティブシステムズ株式会社 外界認識装置
JP7236849B2 (ja) 2018-11-29 2023-03-10 日立Astemo株式会社 外界認識装置
JP2020087176A (ja) * 2018-11-29 2020-06-04 日立オートモティブシステムズ株式会社 外界認識装置
JP2020095626A (ja) * 2018-12-14 2020-06-18 株式会社デンソーテン 画像処理装置および画像処理方法
JP7359541B2 (ja) 2018-12-14 2023-10-11 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020114712A (ja) * 2019-01-17 2020-07-30 日立オートモティブシステムズ株式会社 車載制御装置
JP7134887B2 (ja) 2019-01-17 2022-09-12 日立Astemo株式会社 車載制御装置
JP2020120327A (ja) * 2019-01-25 2020-08-06 アイシン精機株式会社 周辺表示制御装置
JP2020154708A (ja) * 2019-03-20 2020-09-24 本田技研工業株式会社 車両システム、車両システムの制御方法、およびプログラム
CN111717201B (zh) * 2019-03-20 2024-04-02 本田技研工业株式会社 车辆系统、车辆系统的控制方法及存储介质
CN111717201A (zh) * 2019-03-20 2020-09-29 本田技研工业株式会社 车辆系统、车辆系统的控制方法及存储介质
US11462026B2 (en) 2019-05-30 2022-10-04 Clarion Co., Ltd. Image processing device and method for processing image
EP3745302A1 (en) * 2019-05-30 2020-12-02 Clarion Co., Ltd. Image processing device and method for processing image
JP2021062736A (ja) * 2019-10-11 2021-04-22 トヨタ自動車株式会社 駐車支援装置
JP7328116B2 (ja) 2019-10-11 2023-08-16 トヨタ自動車株式会社 駐車支援装置
CN112644462A (zh) * 2019-10-11 2021-04-13 丰田自动车株式会社 驻车辅助装置
CN112644462B (zh) * 2019-10-11 2024-09-20 丰田自动车株式会社 驻车辅助装置
JP2021135838A (ja) * 2020-02-28 2021-09-13 フォルシアクラリオン・エレクトロニクス株式会社 駐車支援装置、及び駐車支援システム
CN113799796A (zh) * 2020-06-16 2021-12-17 丰田自动车株式会社 车载传感器系统
CN113799796B (zh) * 2020-06-16 2024-04-05 丰田自动车株式会社 车载传感器系统
WO2022075173A1 (ja) * 2020-10-08 2022-04-14 ソニーセミコンダクタソリューションズ株式会社 車載カメラ、車載カメラの制御装置、制御方法および車載カメラシステム
WO2022215534A1 (ja) * 2021-04-05 2022-10-13 株式会社アイシン 駐車支援装置

Also Published As

Publication number Publication date
JP5313072B2 (ja) 2013-10-09

Similar Documents

Publication Publication Date Title
JP5313072B2 (ja) 外界認識装置
JP4879189B2 (ja) 安全走行支援装置
JP5143235B2 (ja) 制御装置および車両周囲監視装置
JP4815993B2 (ja) 駐車支援方法及び駐車支援装置
US8089512B2 (en) Driving support device, driving support method and computer program
JP5867273B2 (ja) 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
JP4914458B2 (ja) 車両周辺表示装置
US9073484B2 (en) Surrounding area monitoring apparatus for vehicle
KR101498973B1 (ko) 차량용 주차 지원 시스템 및 방법
US10179608B2 (en) Parking assist device
JP5633376B2 (ja) 駐車支援システム
JP2011028659A (ja) 道路形状認識装置
JP2016506572A (ja) インフォテイメントシステム
KR20200017917A (ko) 차량 및 그 제어 방법
JP2009205191A (ja) 駐車スペース認識装置
JP2005136946A (ja) 路上走行車両用のカメラ式位置認識装置および方法
JP2006175918A (ja) 駐車補助装置
JP2010232723A (ja) 車両周辺表示装置
JP2010111260A (ja) 車速制御装置
JP3612970B2 (ja) トンネル検出装置及びそれを用いた車両制御装置
JP2013196387A (ja) 画像処理装置、及び画像処理方法
KR102145747B1 (ko) 주차 지원 방법 및 주차 지원 장치
JP7426174B2 (ja) 車両周囲画像表示システム及び車両周囲画像表示方法
JP2007334511A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム
JP2005202787A (ja) 車両用表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130703

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5313072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250