Nothing Special   »   [go: up one dir, main page]

JP6815963B2 - 車両用外界認識装置 - Google Patents

車両用外界認識装置 Download PDF

Info

Publication number
JP6815963B2
JP6815963B2 JP2017192230A JP2017192230A JP6815963B2 JP 6815963 B2 JP6815963 B2 JP 6815963B2 JP 2017192230 A JP2017192230 A JP 2017192230A JP 2017192230 A JP2017192230 A JP 2017192230A JP 6815963 B2 JP6815963 B2 JP 6815963B2
Authority
JP
Japan
Prior art keywords
feature point
vehicle
road surface
obstacle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017192230A
Other languages
English (en)
Other versions
JP2019066333A (ja
Inventor
健人 緒方
健人 緒方
利尚 桑原
利尚 桑原
將裕 清原
將裕 清原
吉孝 内田
吉孝 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2017192230A priority Critical patent/JP6815963B2/ja
Priority to US16/651,610 priority patent/US11514683B2/en
Priority to PCT/JP2018/036265 priority patent/WO2019065970A1/ja
Priority to EP18861091.9A priority patent/EP3690802A4/en
Publication of JP2019066333A publication Critical patent/JP2019066333A/ja
Application granted granted Critical
Publication of JP6815963B2 publication Critical patent/JP6815963B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、カメラ等の画像センサからの情報に基づいて自車周囲走行可能な空間を認識する車両用外界認識装置に関する。
近年、カメラを用いて自車周囲の外界を認識し、運転者の運転操作をサポートするシステムの開発が進められている。たとえば、自車周囲の駐車スペースを検出し、運転者の駐車操作の一部あるいはすべてを自動で実施する自律駐車システム等が実用化されている。
駐車スペースを検出した後、自車周囲の走行可能な領域を認識できれば、走行可能領域に応じて最適な駐車経路を生成することが可能となり、最短時間で駐車を行うことができる。一方、自車周囲の障害物の位置を正しく検出できなかった場合には、実際より狭い走行可能領域内で駐車経路を生成することになり、切り返しが増えたり、駐車できないと判定されたりといった現象が発生し、ユーザの使い勝手が低下してしまう。この課題を解決するため、計測した障害物が正しいかを確認する手法がある。
たとえば、特許文献1には、画像から特徴点を検出し、特徴点の時系列の動きから3次元情報を計測する手段と、計測した特徴点から、画像上における足元位置を算出し、足元位置のエッジの有無を用いて、エッジが存在する場合にはその特徴点の計測結果は確からしくないと判定する方法が記載されている。
特開2014−240753号公報
しかしながら、足元位置のエッジがはっきり出るような障害物の場合は問題ないが、たとえば、車両の場合はバンパーのエッジは路面よりも高い位置に出るため、駐車支援用のカメラで観測すると足元とは異なる位置にエッジが観測される。また、歩行者のように足元のエッジが出にくい障害物の場合はこの判定が難しい。逆に、偶然路面上にエッジが存在する場合には、誤判定する。
本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、カメラ画像を用いて足元のエッジの観測が困難な障害物であっても、特徴点の計測の確からしさを判定することができる車両用外界認識装置を提供することである。
上記課題を解決する本発明の車載用外界認識装置は、自車周囲の走行可能な空間を認識する車載用外界認識装置であって、自車周囲の環境を含む画像を取得する画像取得部と、前記画像から特徴点を抽出し、前記特徴点を時系列追跡した前記画像上の動きに基づいて前記特徴点の3次元位置を計測する特徴点位置計測部と、前記画像から画像のテクスチャの類似度を用いて、自車が走行可能な路面領域を推定する路面領域推定部と、前記特徴点の3次元位置から足元位置を算出する特徴点足元位置算出部と、前記特徴点の足元位置と前記路面領域とを比較し、前記足元位置が前記路面領域に含まれない特徴点を自車周囲の静止した障害物の特徴点であると判定する障害物判定部と、を有することを特徴とする。
本発明によれば、計測した特徴点の足元位置と路面領域との重複を用いて、特徴点の確からしさを判定するため、特徴点の足元位置とエッジの位置とが異なっていたり、足下のエッジの観測が難しい場合であっても、その影響を受けない。また、偶然存在するエッジによる誤判定も発生しない。したがって、自車周囲の静止した障害物の位置を正確に把握することができる。
本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、上記した以外の、課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
第一実施の形態における車載用外界認識装置のブロック図。 画像取得部の構成を説明する図。 特徴点位置計測部の処理の流れを示したフローチャート。 特徴点位置計測部の処理の説明図。 足元位置算出部の処理の流れを示したフローチャート。 足元位置算出部の処理の説明図。 路面領域推定部の処理の流れを示したフローチャート。 時系列処理の流れを説明するフローチャート。 時系列処理の説明図。 障害物判定部の処理の流れを示したフローチャート。 障害物判定部の異なる処理の流れを示したフローチャート。 第二実施の形態における車載用外界認識装置の構成を示すブロック図。 障害物方位算出部の処理の流れを示したフローチャート。 障害物判定部の処理の流れを示したフローチャート。 障害物判定部の処理の流れを示したフローチャート。 障害物判定部の処理の流れを示したフローチャート。 障害物判定部の処理の流れを示したフローチャート。 障害物判定部による障害物判定の一例を説明する図。 障害物判定部による障害物判定の一例を説明する図。 本実施例の効果を説明する図。
<第一実施の形態>
以下、本発明の第一実施の形態について図面を用いて詳細に説明する。図1は、第一実施の形態における車載用外界認識装置1000のブロック図である。
車載用外界認識装置1000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ装置のカメラ1001〜1004で撮影した画像内から外界を認識するためのものであり、本実施の形態では、自車周囲の障害物を認識するように構成されている。
車載用外界認識装置1000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期Tで繰り返し処理を実行する。
車載用外界認識装置1000は、図1に示すように、画像取得部1011と、特徴点位置計測部1021と、特徴点足元位置算出部1031と、路面領域推定部1041と、障害物判定部1051を有する。
画像取得部1011は、自車周囲の環境を含む画像を取得する。画像取得部1011は、図2に示すように,自車10の周囲を撮像可能な位置に取り付けられたカメラ1001〜1004から、自車周囲を撮影した画像1005〜1008のうちいずれか1つ以上を取得する。本実施例においては、自車10の進行方向の情報に基づき、前進時は前方カメラ1001で撮像した画像1005を取得し、後進時は後方カメラ1004で撮像した画像1008を取得する。取得した画像は、2次元配列としてRAM上に記録される。以下、入力画像はIMGSRC[x][y]で表すものとする。x、yはそれぞれ画像の座標を示す。図2に示す各画像1005〜1008は、自車10が駐車枠に前向き駐車したときの画像であり、駐車スペースの区画線Lが撮像されている。
特徴点位置計測部1021は、画像から特徴点を抽出し、特徴点を時系列追跡した画像上の動きに基づいて特徴点の三次元位置を計測する。つまり、特徴点位置計測部1021では、入力画像IMGSRC[x][y]から特徴点FP[p]を抽出し、その特徴点FP[p]を時系列追跡した画像上の動き(特徴点の時系列変化)に基づいて、特徴点の三次元位置として、自車10から特徴点FP[p]までの距離を計測する。特徴点位置計測部1021は、入力画像IMGSRC[x][y]から特徴点FP[p]を検出し、時系列に追跡することにより各特徴点の画像座標テーブルFPI[p]から3次元距離テーブルFPW[p]を計測する。ここで、FPI[p]は画像座標(x、y)、FPW[p]は自車後輪車軸を原点とする世界座標(x、y、z)の要素を持つテーブルの1次元配列であり、pは複数検出した場合のIDを表す。処理の詳細は後述する。
特徴点足元位置算出部1031は、特徴点の三次元位置から特徴点の足元位置を算出する。つまり、特徴点足元位置算出部1031では、特徴点FP[p]の世界座標FPW[p]からカメラの設置高さや角度といったカメラ幾何情報を用いて、特徴点FP[p]の足元位置FPW0[p]を算出する。ここで、FPW0[p]は世界座標(x、y、0)の要素を持つテーブルの1次元配列であり、pは複数検出した場合のIDを表す。処理の詳細は後述する。特徴点の足元位置とは、特徴点の位置から鉛直方向に下げた路面上の位置をいう。
路面領域推定部1041は、画像から画像のテクスチャの類似度を用いて、自車が走行可能な路面領域を推定する。つまり、路面領域推定部1041では、入力画像IMGSRC[x][y]から、画像のテクスチャ情報を解析し、路面領域を抽出する。情報の持ち方は様々あるが、本実施例においては、1グリッド5cm程度で自車後輪車軸中心を原点とするグリッドマップGRD[x][y]を前後左右10m程度の範囲で用意し、路面領域ほど「1」、非路面領域ほど「0」となるような推定値をもたせるものとする。処理の詳細は後述する。
障害物判定部1051は、特徴点の足元位置と推定した路面領域とを比較し、足元位置が推定した路面領域に含まれない特徴点を自車周囲の静止した障害物の特徴点であると判定する。つまり、障害物判定部1051では、特徴点FP[p]の足元位置FPW0[p]=(x、y、0)の座標と路面領域推定値を格納したグリッドGRD[x][y]を比較し、特徴点の足元位置が路面領域に含まれている特徴点は除去し、路面領域に含まれていない特徴点を残した障害物特徴点OFP[q]を生成する。処理の詳細は後述する。
[特徴点位置計測部1021]
つぎに、図3、4を用いて、特徴点位置計測部1021における処理の内容について説明する。
図3は、特徴点位置計測部1021の処理の流れを示したフローチャートである。また、図4は、特徴点位置計測部1021の処理の説明図である。
特徴点位置計測部1021は、入力画像IMGSRC[x][y]に対して実施する。まず、ステップS301にて、現在画像である入力画像IMGSRC[x][y]から特徴点FPI[p]を抽出する。特徴点FPI[p]の抽出は、Harrisコーナー等公知の方法を用いる。その結果、各特徴点に対して画像座標が得られる。
つぎに、ステップS302にて、同じカメラから取得された、所定時刻前の過去画像IMGSRC_Pを取得する。
つぎに、ステップS303にて、現在画像と過去画像からオプティカルフローを算出する。ここでは、現在画像IMGSRC上における各特徴点FPI[p]の過去画像IMGSRC_P上の対応位置を、オプティカルフロー法により算出し、各特徴点の移動ベクトルFP_VX[p]、FP_VY[p]を取得する。オプティカルフローは、Lucas−Kanade法等、公知の方法を用いる。
そして、ステップS304にて、オプティカルフローから3次元情報FPW[p]を算出する。ここでは、特徴点FPI[p]および移動ベクトルFP_VX[p]、FP_VY[p]を用いて、各特徴点FPI[p]の自車周囲における3次元位置を算出する。算出方法は、公知の手段を用いる。本実施例においては、画像上の移動ベクトルと、CANにより取得した自車位置DRC[t]およびDRC[t−1]を用いて算出した自車移動量を用いる。ここで、tは処理のタイミングを表す記号であり、自車移動量DRC[t]は、自車後輪車軸中心を原点とする座標系におけるX、Y、ヨー角である。自車位置DRC[t]およびDRC[t−1]より、X、Y、ヨー角の移動量が得られる。
最後に、ステップS305にて、各特徴点の相対座標を取得する処理を行う。ここでは、各特徴点の3次元位置を車両の後輪車軸中心を原点とする座標系に変換し、距離テーブルFPW[p]として格納する。
図4(a)に示すように、過去の自車位置DRC[t−1]と現在の自車位置DRC[t]が変化することにより視差が生まれ、距離を計測することができる。図4(a)に示す例では、自車10がt−1時点からt時点までの間に距離dだけ進むことによって生じた視差に基づいて駐車車両20までの距離Yが計測される。画像の特徴点それぞれの距離を計測するため、たとえば駐車車両20に対して計測した結果は、図4(b)に示すように、複数の点21として計測される。
[特徴点足元位置算出部1031]
つぎに、足元位置算出部1031における処理の内容について説明する。
本実施例においては、2つの方法について説明する。
まず、一つ目の方法(一番目の方法)は、単純に距離テーブルFPW[p]を距離テーブルFPW0[p]=(x、y、z)へコピーし、距離テーブルFPW0[p]のz=0とする方法である。
そして、二つ目の方法(二番目の方法)は、特徴点の3次元位置から足元位置を算出する際に、路面高さを実際の路面よりも高い位置に設定して画像座標を算出し、画像座標の路面高さ位置における3次元座標を算出する方法である。この二番目の方法について、図5を用いて説明する。
図5は、足元位置算出部1031の処理の流れを示したフローチャートである。
まず、ステップS501にて、距離テーブルFPW[p]=(x、y、z)を距離テーブルFPW0T[p]=(x、y、z)へコピーする。
つぎに、ステップS502にて、距離テーブルFPW0T[p]の高さzを、実際の路面より高い値「Hv」に設定する。
つぎに、ステップS503にて、距離テーブルFPW0T[p]から画像座標テーブルFPI0[p]を算出する。算出には、予め登録されているカメラの設置高さ、設置角度やレンズの歪テーブルといったカメラ幾何情報を用いる。カメラ幾何情報を用いて、世界座標から画像座標を算出する処理は公知の技術であるため詳細な説明は割愛する。
そして、ステップS504にて、カメラ幾何情報を用いて、画像座標テーブルFPI0[p]の位置における、路面高さ(z=0)における距離テーブルFPW0[p]=(x、y、0)を算出する。
足元位置の算出方法として、上記した一番目の方法と二番目の方法のどちらを用いるべきかは、自車10のカメラの設置高さに応じて選択できる。また、二番目の方法の高さHvは、仕向け地や自車の車種によって値を変えてもよい。さらに、機械学習による識別器を用いて画像内の車両の種類を識別し、その種類に応じて変えてもよい。機械学習による車両の検出や車種の判定方法は公知技術のため、ここでは説明を割愛する。図6は、自車のカメラで他の車両を撮像している状況を模式的に示す図であり、図6(a)は一番目の方法を示し、図6(b)は二番目の方法を示している。
図6(a)に示すように、低く設置されたカメラを用いて、他の車両20を対象に特徴点位置計測部1021と路面領域推定部1041による処理を実行すると、車のバンパーは路面よりも高い位置にあるため、路面領域推定部1041により推定した路面領域がバンパーの下まで回りこんでしまい、特徴点位置計測部1021により得られる距離よりも広い範囲で路面領域が検出される。そのため、図6(b)に示すように、車のバンパーの高さHvの位置で一旦画像座標に変換し、その画像座標の路面高さ(z=0)における距離を求めることで、距離テーブルFPW0[p]と路面領域が重複しないようにすることができる。
つまり、一番目の方法では、図6(a)に示すように、路面領域推定部104で推定した路面領域内に、特徴点足元位置算出部1031で算出した足元位置が入り込んでしまうので、障害物判定部1051によって、その特徴点は誤検出されたものと判断されて除去されるおそれがある。これに対して、二番目の方法では、図6(b)に示すように、特徴点から下方に所定長さだけ離れた位置にバンパーの下縁が存在するとみなし、かかる位置、換言すると、足元位置から路面から高さHvの位置を、障害物判定部1051の障害物判定に用いる。障害物判定部1051では、カメラと足元位置から路面から高さHVの位置との間を結ぶ線を路面まで延長した位置が、推定した路面領域の端縁近傍に位置している場合には、障害物の特徴点として残す処理を行う。
[路面領域推定部1041]
つぎに、図7,8,9を用いて、路面領域推定部1041における処理の内容について説明する。
図7は、路面領域推定部1041の処理の流れを示したフローチャートである。
路面領域推定部1041は、入力画像IMGSRC[x][y]に対して実施する。画像から路面領域を推定する方法は、たとえば機械学習を用いた方法や、画像内の類似度を用いた方法等様々あるが、本実施例では、特徴点位置計測部1021の結果を用いて実施する方法を用いる。
まず、ステップS701にて、入力画像IMGSRC[x][y]を複数の局所領域R[r]に分割する。
つぎに、ステップS702にて、特徴点から計測された距離テーブルFPW[p]=(x、y、z)のうち高さが路面高さの範囲(thZrmin、thZrmax)の範囲内の特徴点を抽出し、その特徴点が属する局所領域R[r]のIDのテーブルrd[d]を抽出する。
以下、ステップS703からS705まで、rd[d]についてd=0からDまで繰り返し処理を行う。
まず、ステップS703にて、路面高さの範囲内の特徴点が属する局所領域R[rd[d]]から、画像のヒストグラム情報Hst1を取得する。
つぎに、ステップS704にて、路面高さの範囲内の特徴点が属する局所領域R[rd[d]]近傍の局所領域R[r’]について、以下ステップS704,S705の処理を行う。近傍の判定は、たとえば局所領域R[rd[d]]と局所領域R[r’]の中心間の距離が閾値thRDist以下である領域とする。
まず、ステップS704にて、局所領域R[r’]のヒストグラム情報Hst2を取得する。
そして、ステップS705にて、ヒストグラムHst1とHst2の類似度Matchを算出し、類似度が閾値thMatch以上であれば、その局所領域R[r’]のID=r’をテーブルrdm[dm]へ登録する。
すべてのr’に対する処理が終了したら、次のrd[d]を選択し、ステップS703へ戻る。
すべてのrd[d]に対して処理を終了したらステップS706へ移動し、rd[d]およびrdm[dm]に所属するすべての局所領域R[rd[d]]、R[rdm[dm]]を、画像内の路面領域推定瞬間値RDI[t]として抽出する。
さらに、ステップS707にて、カメラ幾何情報を用いて、路面領域の境界を世界座標の路面推定瞬間値RDT[x][y]へ変換し、時系列処理を行う。
ステップS707の時系列処理について、図8,9を用いて説明する。図8は処理のフロー、図9は時系列処理の説明図である。
まず、ステップS801にて、デッドレコニング情報に基づき、今回の自車位置DRC[t]と前回の自車位置DRC[t−1]を取得し、今回の自車位置DRC[t]を基準とする前回の自車位置DRC_P[t]を算出する。図9(a)はその例である。図9(a)では、今回の自車位置を実線で示し、前回の自車位置を破線で示している。
つぎに、ステップS802にて、前回の自車位置DRC_P[t]を基準とし、前回の路面領域推定結果GRDz1[x][y]を展開し、全体から一定値を減算する。図9(b)はその例である。図9(b)には、前回の路面領域推定結果151を破線で示している。
つづいて、ステップS803にて、今回の自車位置DRC[t]を基準とし、今回の路面領域推定瞬間値RDT[t][x][y]を展開する。図9(c)はその例である。図9(c)には、今回の路面領域推定瞬間値152を実線で示している。
そして、ステップS804にて、前回の路面領域推定結果RDT[t−1][x][y]と今回の路面領域推定瞬間値RDT[t][x][y]を加算する。図9(d)はその例である。図9(d)では、前回と今回の路面領域推定瞬間値の重複領域153をハッチングで示している。
さらに、ステップS805にて、重複領域を今回の路面領域推定結果GRD[x][y]として出力し、同時に、今回の路面領域推定結果を前回の路面領域推定結果GRDz1[x][y]へコピーする。
[障害物判定部1051]
つぎに、図10、図11を用いて障害物判定部1051の処理の内容について説明する。
図10は障害物判定部1051の処理の流れを示したフローチャートである。
処理は、ステップS10001からS1003まで、特徴点IDであるp=0からPまで繰り返し処理を行う。
まず、ステップS10001にて特徴点FP[p]の足元座標FPW0[p]を取得する。
つぎに、ステップS10002にて足元座標FPW0[p]を路面領域推定結果GRD[x][y]へ投影し、足元座標を確認し、足元座標FPW0[p]の路面領域推定値が閾値thRoad未満、すなわち路面ではなかったら、ステップS10003へ移動し、障害物特徴点OFP[q]へ登録する。
上記処理をすべての特徴点FP[p]について実施する。
一方、図11は障害物判定部1051の異なる処理の流れを示したフローチャートである。
処理は、ステップS11001からS11009まで、特徴点IDであるp=0からPまで繰り返し処理を行う。
まず、ステップS11001にて、特徴点FP[p]の世界座標FPW[p]と、p以外のすべての世界座標FPW[p’]との距離を比較し、半径thAround以内の特徴点の合計数SumAroundを算出する。本実施例では、距離算出には世界座標(x、y、z)のうち、(x、y)のみを用いる。
つぎに、ステップS11002にて、合計数SumAroundと閾値thSumFewを比較し、合計数SumAroundが少なければステップS11004へ行く。そうでなければ、ステップS11005へ行き、合計数SumAroundと閾値thSumManyを比較し、合計数SumAroundが多ければステップS11005へ行く。そうでなければステップS11006へ行く。
ステップS11004からS11006では、後段で利用する閾値thRoadを設定する。
ステップS11004では、閾値thRoad=thRoadFewとする。
ステップS11005では、閾値thRoad=thRoadManyとする。
ステップS11006では、閾値thRoad=thRoadNormalとする。
ここで、thRoadFew<thRoadNormal<thRoadManyである。
つぎに、ステップS11007にて、特徴点FP[p]の足元座標FPW0[p]を取得する。
つぎに、ステップS11008にて足元座標FPW0[p]を路面領域推定結果GRD[x][y]へ投影し、足元座標を確認し、足元座標FPW0[p]の路面領域推定値が閾値thRoad未満、すなわち路面ではなかったら、ステップS10003へ移動し、障害物特徴点OFP[q]へ登録する。
上記処理をすべての特徴点FP[p]について実施する。
特徴点足元位置算出特徴点足元位置算出の際に部1031にて説明したように、路面高さよりも高い位置で一旦画像座標を求め、その点が路面高さに存在するものと仮定する処理により、カメラの設置高さが低い場合に対象物体が車両のバンパーのように空中に浮いている場合であっても適切に障害物を障害物と判定することができる。
また、障害物判定部1051で説明したように、特徴点の密集度に応じてその特徴点の閾値を変化させることで、はずれ値のように特徴点が孤立して出力されているようなものを除去しやすく設定することができる。
本実施の形態の車載用外界認識装置1000によれば、自車周囲の環境を含む画像から特徴点を抽出し、特徴点を時系列追跡した画像上の動きに基づいて特徴点の3次元位置を計測し、特徴点の3次元位置から画像上の足元位置を算出する処理を行う。そして、画像のテクスチャの類似度を用いて自車が走行可能な路面領域を画像内から抽出し、特徴点の足元位置が路面領域に含まれないと判定された特徴点を信頼度が高いと判定し、特徴点の足元位置が路面領域に含まれていると判定された特徴点を信頼性が低いと判定する処理を行う。信頼性の高い特徴点は、自車周囲の静止した障害物の特徴点である可能性が高い。一方、特徴点の足元位置が路面領域に含まれている特徴点は、自車周囲の静止した障害物の特徴点である可能性が低く、例えば移動体による誤検知であることが予想される。車載用外界認識装置1000は、計測した特徴点の足元位置と路面領域との重複を用いて、特徴点の確からしさを判定するので、特徴点の足元位置とエッジの位置とが異なっていたり、足下のエッジの観測が難しい場合であっても、その影響を受けない。また、偶然存在するエッジによる誤判定も発生しない。
<第二実施の形態>
つぎに、本発明の車載用外界認識装置の第二実施の形態について、以下に図面を用いて説明する。
図12は、第二実施の形態における車載用外界認識装置2000の構成を示すブロック図である。なお、以下の説明では、上述の第一実施の形態における車載用外界認識装置1000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付してその詳細な説明を省略する。
本実施の形態において特徴的なことは、障害物情報取得部2111と空間情報取得部2112を有し、さらに障害物情報取得部2111から得られた障害物情報を用いた障害物方位算出部2131を有しており、これらが第一実施の形態とは異なる処理内容となる障害物判定部2051に入力されていることである。
車載用外界認識装置2000は、自動車に搭載されるカメラ装置内、もしくは統合コントローラ内等に組み込まれ、カメラ1001〜1004で撮影した画像内から外界を認識するためのものであり、本実施の形態では、自車周囲の障害物を認識するように構成されている。
車載用外界認識装置2000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で
繰り返し処理を実行する。
画像取得部1011は、自車周囲の環境を含む画像を取得する。画像取得部1011は、図2に示すように,自車10の周囲を撮像可能な位置に取り付けられたカメラ1001〜1004から、自車周囲を撮影した画像1005〜1008のうちいずれか1つ以上を取得する。本実施例においては、自車10の進行方向の情報に基づき、前進時は前方カメラ1001で撮像した画像1005を取得し、後進時は後方カメラ1004で撮像した画像1008を取得する。取得した画像は入力画像はIMGSRC[x][y]としてRAM上に記録される。第一実施例のものと同様のため、説明は省略する。
特徴点位置計測部1021は、入力画像IMGSRC[x][y]から特徴点FP[p]を検出し、時系列に追跡することにより各特徴点の画像座標テーブルFPI[p]から3次元距離テーブルFPW[p]を計測する。第一実施例のものと同様のため、説明は省略する。
特徴点足元位置算出部1031は、特徴点FP[p]の世界座標FPW[p]からカメラの設置高さや角度といったカメラ幾何情報を用いて、特徴点FP[p]の足元位置FPW0[p]を算出する。第一実施例のものと同様のため、説明は省略する。
路面領域推定部1041は、入力画像IMGSRC[x][y]から、画像のテクスチャ情報を解析し、路面領域を抽出する。情報の持ち方は様々あるが、本実施例においては、グリッドマップGRD[x][y]を用いるものとする。第一実施例のものと同様のため、説明は省略する。
障害物情報取得部2111は、超音波センサから取得する障害物情報SOBJ[b]を取得する。ここでSOBJ[b]は自車後輪車軸中心を原点とする世界座標(x、y、z)の要素を持つテーブルの1次元配列であり、bは複数検知した場合のIDを表す。なお、本実施の形態では、自車周囲の障害物を検知するセンサの例として超音波センサを例に説明するが、音波や光線により検知できるセンサであればよく、例えば、自車に搭載されたレーザーレーダー、LIDAR、及び単眼カメラの少なくとも一つを用いてもよい。そして、障害物情報取得部2111は、障害物の情報を取得できるものであればよく、他車両から送信される情報や、駐車場などのインフラ設備から送信される情報を取得してもよい。
空間情報取得部2112は、超音波センサにより検知した自車周囲の障害物の検知結果から自車が走行可能な空間の情報を取得する。具体的には、空間情報取得部2112は、超音波センサで検知した障害物の手前までの空きが確認できている空間情報SFS[f]を取得する。ここで、空間情報SFS[f]は各超音波センサから得られる、各センサから障害物までの空間情報、すなわち走行可能距離を距離で表すテーブルの一次元配列であり、fは超音波センサの取り付け数である。
障害物方位算出部2131は、障害物情報取得部2111から取得した障害物情報から、自車の左右の障害物の方位θL,θRを算出する。処理の詳細は後述する。
障害物判定部2051は、特徴点の3次元位置から、所定の特徴点の周囲に存在する他の特徴点の密度を算出する空間特徴算出を行い、特徴点の密度の高さ、および、特徴点の画像内の足元位置と路面領域とを比較して、特徴点が障害物の特徴点であるか否かの判定を行う。具体的には、障害物判定部2051は、特徴点足元位置FPW0[p]、路面領域推定結果GRD[x][y]、さらに障害物情報SOBJ[b]、空間情報SFS[f]、障害物方位θL,θR、といった情報を活用して、障害物特徴点OFP[q]を生成
する。処理の詳細は後述する。
[障害物方位算出部2131]
つぎに、図13を用いて、障害物方位算出部2131の処理の内容について説明する。
図13は障害物方位算出部2131の処理の流れを示したフローチャートである。障害物の方位を算出する方法は様々考えられるが、本実施例においては、サイドソナーによる自車側方の障害物検知情報を時系列に蓄積するサイドソナー情報をサイドソナーテーブルに蓄積して利用する方法を説明する。
サイドソナーテーブルには、自車後輪車軸中心を原点とする座標系における検知座標(x、y)、デッドレコニングと対応するタイムスタンプが格納されているものとする。
まず、ステップS13001にて、デッドレコニング情報を取得する。
つぎに、ステップS13002にて、前回処理したサイドソナーテーブルを取得し、デッドレコニングにより算出される前回処理時から今回までの移動分だけテーブルの情報をを動かす。動かした結果、自車から一定距離以上はなれた障害物情報は消去する。本実施例では、自車後端5mより後方になった障害物情報を消去する。
そして、ステップS13003にて、前回の処理後取得されたサイドソナー情報を、サイドソナーテーブルへ登録する。
さらに、ステップS13004にて、自車左右それぞれの障害物情報に対して最小二乗法を適用し、自車左側の障害物から障害物方位θL、自車右側の障害物から障害物方位θRを算出する。
なお、本実施例においては、自車側方の点数が閾値THSSNUM以下、すなわち最小二乗法を算出するだけの点数が存在しない場合、あるいは、最小二乗法で算出した直線と全サイドソナー障害物点との距離の平均SSDISが閾値THSSDIS以上である場合は、算出した障害物方位ではなく、自車方位を採用するものとする。
上述の処理について、図18(a)に示すようなシーンにおける算出の例を説明する。図18(a)は、駐車区画線のある駐車場におけるシーンの一例であり、自車10の左側方に1台分だけ駐車空きスペース1801があり、その左右には障害物となる他の車両1802が駐車されている例である。
まず、図18(b)は、図18(a)のシーンにおいて、サイドソナーによる自車側方の障害物検知情報を時系列に蓄積した結果を示す。自車10の左側には、他車両1802が配置されており、サイドソナーにより検知されて、複数のサイドソナー障害物点として存在している。ここから、ステップS13004の処理により、自車左側の障害物方位θLを算出した結果が図18(c)の破線である。また、このシーンの場合、自車右側にサイドソナー障害物点が存在しないため、自車右側の障害物方位θRは自車方位となる。
[障害物判定部2051]
つぎに、図14から17を用いて、障害物判定部2051の処理の内容について説明する。
障害物判定部2051は、所定の特徴点の周囲に存在する他の特徴点の密度、および、障害物の方位θL上の他の特徴点の有無を算出し、障害物の方位θL上における他の特徴点の有無と、特徴点密度と、特徴点の足元位置と路面領域とを比較した結果に基づいて、特徴点が障害物の特徴点であるか否かの判定を行う。
まず、図14、図15を用いて、障害物判定部2051の実施例1について説明する。
図14,15は障害物判定部2051の処理の流れを示したフローチャートである。
本処理を、すべての特徴点FP[p]に対して実施する。
まず、ステップS14001にて、特徴点FP[p]の世界座標FPW[p]から半径thAroundCam以内の他の特徴点の世界座標FPW[p’]の合計数SumAroundCamを算出する。本実施例では、距離演算には世界座標(x、y、z)のうち(x、y)のみを用いる。
つぎに、ステップS14002にて、世界座標FPW[p]から半径thAroundObj以内の超音波センサ障害物SOBJ[b]の合計数SumAroundObjを算出する。
つぎに、ステップS14003にて,世界座標FPW[p]から障害物方位方向に伸ばした直線FPL[p]を算出する。
そして、ステップS14004にて、直線FPL[p]との垂直距離が閾値thLineCam以内の他の特徴点の世界座標FPW[p’]の合計数SumLineCamを算出する。
また、ステップS14005にて、直線FPL[p]との垂直距離が閾値thLineObj以内の超音波センサ障害物SOBJ[b]の合計数SumLineObjを算出する。
以降、閾値調整のステップに入る。まず、ステップS14006にて初期閾値thRoad=thRoadInitを設定する。
つぎに、ステップS14007にてSumAroundCamとthSumCamを比較し、大きい場合(SumAroundCam>thSumCam)にはステップS14008にて、閾値thRoadにthAddSumCamを加算し、次に進む。そうでない場合(SumAroundCam≦thSumCam)には何もせずに次に進む。
つぎに、ステップS14009にてSumAroundObjとthSumObjを比較し、大きい場合(SumAroundObj>thSumObj)にはステップS14010にて、閾値thRoadにthAddSumObjを加算し、次に進む。そうでない場合(SumAroundObj≦thSumObj)には何もせずに次に進む。
つぎに、ステップS14011にてSumLineCamとthSumLineCamを比較し、大きい場合(SumLineCam>thSumLineCam)にはステップS14012にて、閾値thRoadにthAddLineCamを加算し、次に進む。そうでない場合(SumLineCam≦thSumLineCam)には何もせずに次に進む。
つぎに、ステップS14013にてSumLineObjとthSumLineObjを比較し、大きい場合(SumLineObj>thSumLineObj)にはステップS14014にて、閾値thRoadにthAddLineObjを加算し、次に進む。そうでない場合(SumLineObj≦thSumLineObj)には何もせずに次に進む。
さらに、ステップS14015にて、足元座標FPW0[p]がソナー空間SFS[f]内か否かを判定し、空間内である場合にはステップS14016hにて、閾値thRo
adからthSFSを減算する。そうでない場合(足元座標FPW0[p]がソナー空間SFS[f]外の場合)には何もせずに次に進む。
上記により調整された閾値thRoadを用いて、ステップS14017にて足元座標の路面推定値が閾値thRoad未満か否かを判定し、閾値未満であった場合にはステップS14018へ進み、障害物特徴量OFP[q]として登録する。そうでない場合(閾値以上の場合)には何もせずに次に進む。
つぎに、図16、図17を用いて、障害物判定部2051の実施例2について説明する。図16,17は障害物判定部2051の処理の流れを示したフローチャートである。図中で、図14,15と同じ動作を行う部分については同じ番号を付している。
まず、ステップS16001にて、超音波センサから得られる空間情報SFS[f]を自車後輪車軸中心のグリッドマップ上へ展開する。
そして、ステップS16002にて、時系列処理を行い空間推定マップGFS[x][y]を求める。時系列処理の流れは図8、図9に示した流れと同様のため、ここでは説明を割愛する。
以降、ステップS14001からS14014までは前述の説明と同様のため、説明を割愛する。
ステップS14014のつぎに、ステップS16003として、足元座標FPW0[p]の位置における路面領域推定結果GRD[x][y]と閾値thGRDを比較し、閾値以上の場合(路面領域推定結果GRD[x][y]>閾値thGRD)には、ステップS16004にて、閾値thRoadからthGRDを減算する。そうでない場合(路面領域推定結果GRD[x][y]≦閾値thGRD)には何もせずに次に進む。
つぎに、ステップS16005として、足元座標FPW0[p]の位置における時系列処理を行った空間推定マップGFS[x][y]を参照し、その値と閾値thRoadを比較する。閾値未満であった場合には、ステップS16006へ進み、障害物特徴点OFP[q]として登録する。閾値以上の場合には何もせずに次に進む。
上述の処理のうち、ステップS14001からS14014の内容について、図19(a)に示すようなシーンにおける算出の例を説明する。図19(a)は、駐車区画線のある駐車場におけるシーンの一例で、自車左側に1台分の駐車空きスペース1901があり、自車前方から歩行者1903が接近している例である。駐車空きスペース1901の両側は、障害物である他の車両1902が駐車されている。
図19(b)は、図19(a)のシーンから得られる、カメラおよびソナーによる検出結果である。黒い点がカメラによる検出結果、すなわち特徴点FP[p]から算出される世界座標FPW[p]である。また、白い点がソナーによる検出点、すなわち障害物点SOBJ[b]である。このうち、特徴点FP[p]の世界座標FPW[p]について、ステップS14001からS14014の処理を行う。
なお、図19の説明では、半径thAroundCamおよびthAroundObjは同じであるとし、また、thSumCam=1,thSumObj=1,thLineCam=1,thLineObj=1とする。
図19(c)は、特徴点FP[p1]に対する処理の例である。まず、半径thAro
undCam内に他の特徴点の世界座標FPW[p]が存在するため、SumAroundCamは0より大きい値を持つ。半径thAroundObj内に他の障害物点SOBJ[b]は存在しないため、SumAroundObjは0である。また、世界座標FPW[p1]から自車左側の障害物方位θLの方向に直線を引き、直線に近い特徴点数および障害物点数をカウントする。ここでは、いずれも直線の近い位置に特徴点の世界座標および障害物点が存在するため、SumLineCam,SumLineObjはいずれも0より大きい値を持つ。よって、特徴点FP[p1]に対する閾値thRoadは、ステップS14006からS14014の処理において高い値を持つことになる。
図19(d)は、特徴点FP[p2]に対する処理の例である。まず、半径thAroundCam内に他の特徴点の世界座標FPW[p]が存在するため、SumAroundCamは0より大きい値を持つ。さらに、半径thAroundObj内に他の障害物点SOBJ[b]が存在するため、SumAroundObjも0より大きい値を持つ。また、世界座標FPW[p2]から自車左側の障害物方位θLの方向に直線を引き、直線に近い特徴点数および障害物点数をカウントする。ここでは、いずれも直線の近い位置に特徴点の世界座標および障害物点が存在するため、SumLineCam,SumLineObjは0より大きい値を持つ。よって、特徴点FP[p1]に対する閾値thRoadは、ステップS14006からS14014の処理において、高い値を持つことになる。
一方、図19(e)は、特徴点FP[p3]に対する処理の例である。まず、半径thAroundCam内に他の特徴点の世界座標FPW[p]が存在しないため、SumAroundCamは0となる。さらに、半径thAroundObj内に他の障害物点SOBJ[b]が存在しないため、SumAroundObjも0となる。また、世界座標FPW[p3]から自車左側の障害物方位θLの方向に直線を引き、直線に近い特徴点数および障害物点数をカウントする。ここでは、いずれも直線の近い位置に特徴点の世界座標および障害物点が存在しないため、SumLineCam,SumLineObjはいずれも0となる。よって、特徴点FP[p3]に対する閾値thRoadは、ステップS14006からS14014の処理の結果、thRoadInitから変化しない。
以上説明したように、特徴点FP[p]の世界座標FPW[p]の周囲のほかの特徴点や障害物点、また、障害物方位上の特徴点や障害物点の有無によって閾値が調整され、たとえば図19(c)、(d)の特徴点に対する閾値は高く設定され、特徴点は除去されにくくなり、一方、図19(e)の特徴点に対する閾値は低く設定され、除去されやすくなる。結果、図19(f)のように、移動体などの要因により誤検知した特徴点を除去することができる。
以上説明したように、超音波センサからの情報を用いた場合には、自車側方の障害物の方位を算出して、障害物方位上に他の障害物が存在するときは障害物特徴点として採用されやすくすることができる。また、超音波センサから得られる空間情報を障害物特徴点として採用しにくくするための条件として用いることで、より誤検知した特徴点を除去しやすくすることができる。さらに、路面領域推定結果を障害物特徴点として採用しにくくするための条件として用いて、最終的な採否判断に超音波センサから得られる空間情報を用いるという構成も可能となる。
また、以上説明した実施例による処理の結果得られる特徴点情報は、自動駐車の経路生成処理に用いられる。図20は、本実施例の効果を説明する図である。
図20(a)は、本実施例による処理の結果を用いなかった場合の図である。自車10の近傍には、障害物の特徴点2011が誤検知されている。図20(a)に示す情報を用
いて、障害物にぶつからないように自動駐車経路2012を生成した例を図20(b)に示す。なお、障害物にぶつからないように自動駐車経路2012を生成する方法については、公知技術を用いるものとし、ここでは説明を割愛する。
一方、図20(c)は、本実施例による処理の結果を用いた場合の図である。図20(c)に示す特徴点の情報を用いて、同じように駐車経路を生成した例を図20(d)に示す。図20(a)で誤検出されていた特徴点2011は、図20(c)では除去されている。
このように、図20(b)は、図20(d)には無い特徴点2011が存在するため、自動駐車経路2012が間延びしている。また、誤検知された特徴点2011の位置によっては、自動駐車経路2012が生成できない場合もある。一方、図20(d)では、最短の自動駐車経路2013を生成することができている。
1000 車載用外界認識装置

Claims (6)

  1. 自車周囲の走行可能な空間を認識する車載用外界認識装置であって、
    自車周囲の環境を含む画像を取得する画像取得部と、
    前記画像から特徴点を抽出し、前記特徴点を時系列追跡した前記画像上の動きに基づいて前記特徴点の3次元位置を計測する特徴点位置計測部と、
    前記画像から画像のテクスチャの類似度を用いて、自車が走行可能な路面領域を推定する路面領域推定部と、
    前記特徴点の3次元位置から足元位置を算出する特徴点足元位置算出部と、
    前記特徴点の足元位置と前記路面領域との位置関係に応じて前記特徴点が自車周囲の静止した障害物の特徴点であるか否かを判定する障害物判定部と、
    を有し、
    前記障害物判定部は、前記特徴点の足元位置が前記路面領域に含まれているときは前記特徴点が自車周囲の静止した障害物の特徴点ではないと判定し、前記特徴点の足元位置が前記路面領域に含まれていないときは、前記特徴点が自車周囲の静止した障害物の特徴点であると判定することを特徴とする車載用外界認識装置。
  2. 前記路面領域推定部は、路面領域の推定結果を蓄積し、
    前記障害物判定部は、前記特徴点の3次元位置から、所定の特徴点の周囲に存在する他の特徴点の密度を算出する空間特徴算出を行い、前記特徴点の密度の高さに応じて閾値を定し、該閾値に基づいて前記特徴点が自車周囲の静止した障害物の特徴点であるか否かの判定を行うことを特徴とする請求項1に記載の車載用外界認識装置。
  3. センサにより自車周囲の障害物を検知し、その結果自車が走行可能な空間の情報を取得する空間情報取得手段を有し、
    前記障害物判定部は、前記特徴点の足元位置が前記路面領域に含まれるか否か、さらに、前記走行可能な空間に含まれるか否かに基づいて、前記特徴点が前記障害物の特徴点であるか否かの判定を行うことを特徴とする請求項1に記載の車載用外界認識装置。
  4. 自車周囲の障害物の方位を算出する障害物方位算出部を有し、
    前記障害物判定部は、所定の特徴点の周囲に存在する他の特徴点の密度、および、前記障害物の方位上の他の特徴点の有無を算出し、前記障害物の方位上における他の特徴点の有無と、前記特徴点の密度と、前記特徴点の足元位置と前記路面領域とを比較した結果に基づいて、前記特徴点が前記障害物の特徴点であるか否かの判定を行うことを特徴とする請求項に記載の車載用外界認識装置。
  5. 前記特徴点足元位置算出部は、前記特徴点の3次元位置から前記足元位置を算出する際に、路面高さを実際の路面よりも高い所定の高さ位置に設定して画像座標を算出し、該画像座標の路面高さ位置における3次元座標を算出することを特徴とする請求項1に記載の車載用外界認識装置。
  6. 自車周囲の走行可能な空間を認識する車載用外界認識方法であって、
    自車周囲の環境を含む画像を取得するステップと、
    前記画像から特徴点を抽出し、前記特徴点を時系列追跡した前記画像上の動きに基づいて前記特徴点の3次元位置を計測するステップと、
    前記特徴点の3次元位置から前記特徴点の足元位置を算出するステップと、
    前記画像から画像のテクスチャの類似度を用いて、自車が走行可能な路面領域を推定するステップと、
    前記特徴点の足元位置が前記路面領域に含まれているときは前記特徴点が自車周囲の静止した障害物の特徴点ではないと判定するステップと、
    前記特徴点の足元位置が前記路面領域に含まれていないときは前記特徴点が自車周囲の静止した障害物の特徴点であると判定するステップと、
    を有することを特徴とする車載用外界認識方法。
JP2017192230A 2017-09-29 2017-09-29 車両用外界認識装置 Active JP6815963B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017192230A JP6815963B2 (ja) 2017-09-29 2017-09-29 車両用外界認識装置
US16/651,610 US11514683B2 (en) 2017-09-29 2018-09-28 Outside recognition apparatus for vehicle
PCT/JP2018/036265 WO2019065970A1 (ja) 2017-09-29 2018-09-28 車両用外界認識装置
EP18861091.9A EP3690802A4 (en) 2017-09-29 2018-09-28 EXTERIOR VEHICLE RECOGNITION DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017192230A JP6815963B2 (ja) 2017-09-29 2017-09-29 車両用外界認識装置

Publications (2)

Publication Number Publication Date
JP2019066333A JP2019066333A (ja) 2019-04-25
JP6815963B2 true JP6815963B2 (ja) 2021-01-20

Family

ID=65902011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017192230A Active JP6815963B2 (ja) 2017-09-29 2017-09-29 車両用外界認識装置

Country Status (4)

Country Link
US (1) US11514683B2 (ja)
EP (1) EP3690802A4 (ja)
JP (1) JP6815963B2 (ja)
WO (1) WO2019065970A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11565698B2 (en) * 2018-04-16 2023-01-31 Mitsubishi Electric Cornoration Obstacle detection apparatus, automatic braking apparatus using obstacle detection apparatus, obstacle detection method, and automatic braking method using obstacle detection method
JP7179687B2 (ja) * 2019-06-17 2022-11-29 株式会社東芝 障害物検知装置
CN111563474A (zh) * 2020-05-18 2020-08-21 北京茵沃汽车科技有限公司 运动背景下的基于车载鱼眼镜头的障碍物检测方法、系统
JP2022059958A (ja) * 2020-10-02 2022-04-14 フォルシアクラリオン・エレクトロニクス株式会社 ナビゲーション装置
US11783597B2 (en) 2020-12-30 2023-10-10 Continental Autonomous Mobility US, LLC Image semantic segmentation for parking space detection
CN112801024B (zh) * 2021-02-09 2023-08-29 广州小鹏自动驾驶科技有限公司 一种检测信息处理方法和装置
JP7561664B2 (ja) 2021-03-15 2024-10-04 株式会社豊田中央研究所 物体検出装置、物体検出方法、物体検出プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006121087A1 (ja) * 2005-05-10 2006-11-16 Olympus Corporation 画像処理装置、画像処理方法および画像処理プログラム
US20110019873A1 (en) * 2008-02-04 2011-01-27 Konica Minolta Holdings, Inc. Periphery monitoring device and periphery monitoring method
JP5372680B2 (ja) * 2009-09-24 2013-12-18 日立オートモティブシステムズ株式会社 障害物検知装置
JP5407898B2 (ja) * 2010-01-25 2014-02-05 株式会社豊田中央研究所 対象物検出装置及びプログラム
JP5574789B2 (ja) * 2010-04-08 2014-08-20 株式会社東芝 車両周辺監視装置及び車両周辺監視方法
JP5820774B2 (ja) * 2012-06-21 2015-11-24 株式会社豊田中央研究所 路面境界推定装置及びプログラム
JP6197388B2 (ja) 2013-06-11 2017-09-20 富士通株式会社 距離測定装置、距離測定方法、およびプログラム
US10832061B2 (en) * 2016-07-22 2020-11-10 Hitachi Automotive Systems, Ltd. Traveling road boundary estimation apparatus and traveling assistance system using same

Also Published As

Publication number Publication date
JP2019066333A (ja) 2019-04-25
US20200302192A1 (en) 2020-09-24
EP3690802A1 (en) 2020-08-05
WO2019065970A1 (ja) 2019-04-04
US11514683B2 (en) 2022-11-29
EP3690802A4 (en) 2021-05-19

Similar Documents

Publication Publication Date Title
JP6815963B2 (ja) 車両用外界認識装置
JP6416293B2 (ja) 自動車に接近する対象車両を自動車のカメラシステムにより追跡する方法、カメラシステムおよび自動車
JP6440411B2 (ja) 物体検出装置
JP6171612B2 (ja) 仮想レーン生成装置及びプログラム
JP7135665B2 (ja) 車両制御システム、車両の制御方法及びコンピュータプログラム
CN107209998B (zh) 车道线识别装置以及车道线识别方法
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
CN105128836A (zh) 自主紧急制动系统及其中识别行人的方法
CN106463064A (zh) 物体识别装置和使用该物体识别装置的车辆行驶控制装置
CN104700414A (zh) 一种基于车载双目相机的前方道路行人快速测距方法
US10672141B2 (en) Device, method, system and computer-readable medium for determining collision target object rejection
CN111937036A (zh) 用于处理传感器数据的方法、设备和具有指令的计算机可读存储介质
JP2004531424A (ja) 車用の感知装置
JP6520740B2 (ja) 物体検出方法、物体検出装置、およびプログラム
JP2008168811A (ja) 車線認識装置、車両、車線認識方法、及び車線認識プログラム
JP4940177B2 (ja) 交通流計測装置
US20090052742A1 (en) Image processing apparatus and method thereof
CN112455430A (zh) 无车位线的斜列车位的检测方法、泊车方法及泊车系统
CN107787496B (zh) 消失点修正装置及方法
Liu et al. Development of a vision-based driver assistance system with lane departure warning and forward collision warning functions
CN110717445A (zh) 一种用于自动驾驶的前车距离跟踪系统与方法
JP4296287B2 (ja) 車両認識装置
JP2007249257A (ja) 移動体検出装置および移動体検出方法
KR101568683B1 (ko) 영상 분석을 이용한 차간 거리 추정 방법 및 그 장치
KR101595317B1 (ko) 차량의 정밀 측위를 위한 노면 표시 검출 방법 및 그 시스템

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190816

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201223

R150 Certificate of patent or registration of utility model

Ref document number: 6815963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150