JP2021076422A - 物体認識方法及び物体認識装置 - Google Patents
物体認識方法及び物体認識装置 Download PDFInfo
- Publication number
- JP2021076422A JP2021076422A JP2019201640A JP2019201640A JP2021076422A JP 2021076422 A JP2021076422 A JP 2021076422A JP 2019201640 A JP2019201640 A JP 2019201640A JP 2019201640 A JP2019201640 A JP 2019201640A JP 2021076422 A JP2021076422 A JP 2021076422A
- Authority
- JP
- Japan
- Prior art keywords
- map
- vehicle
- processing target
- unit
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 97
- 238000001514 detection method Methods 0.000 claims abstract description 112
- 230000008859 change Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 abstract description 3
- 238000004364 calculation method Methods 0.000 description 66
- 230000008569 process Effects 0.000 description 65
- 230000010354 integration Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
本発明は、レーダで検出した物体が、マルチパスによって実際と異なる位置に検出された場合に、実際の位置を推定することを目的とする。
(構成)
自車両1は、実施形態に係る車両制御装置10を搭載する。車両制御装置10は、自車両1の周囲の物体をレーダによって認識し、自車両1の周囲の物体の有無に基づいて自車両の走行を制御する。車両制御装置10は、特許請求の範囲に記載の「物体認識装置」の一例である。
車両制御装置10は、レーダ装置11と、物体認識コントローラ12と、走行制御部13と、アクチュエータ14を備える。
以下に説明する物体認識コントローラ12の機能は、例えばプロセッサ15が、記憶装置16に格納されたコンピュータプログラムを実行することにより実現される。
例えば、物体認識コントローラ12は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えば物体認識コントローラ12は、フィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてよい。
例えば走行制御部13は、プロセッサとその周辺部品とを含む。プロセッサは、例えばCPUやMPUであってよい。周辺部品には記憶装置が含まれる。記憶装置は、レジスタ、キャッシュメモリ、ROM、RAMなどのメモリや、半導体記憶装置、磁気記憶装置、光学記憶装置を含んでよい。走行制御部13が専用のハードウエアであってもよい。
例として右側通行の交通環境において、交差点の直前まで側道に壁20及び21がある状況で自車両1が右折する場面を想定する。以下、右側通行の交通環境を例として説明するが、本発明は左側通行の交通環境においても適用できる。
自車両1が走行する車線と交差する交差車線を走行する車両2rは、左方から交差点に接近している。車両2rは、自車両1から見て壁20の死角に入っているため、レーダ装置11は車両2rを直接検出できない。車両2rは特許請求の範囲に記載の「第1物体」の一例である。
この場合に、上記特許文献1のように物標2gを消去すると、左方から交差点に接近する車両2rが存在しないと認識され、矢印23のように自車両1の右折を行う走行制御が行われるおそれがある。
物標2gの検出位置と自車両1との間に壁21が存在する場合に、物体認識コントローラ12は、ゴースト2gの検出位置と自車両1との間に存在する壁21の、自車両1に対向する面(すなわちレーダ装置11に対向する面)21pの位置と角度を算出する。
以上によって、物体認識コントローラ12は、レーダ装置11の死角にいる車両2rのゴースト2gを用いて車両2rの位置を検出することができる。これにより、レーダ装置11の死角にいる車両2rのゴースト2gが発生している場合に、車両2rを検出しそこなうのを防止できる。
図4Bを参照する。第1物体検出部30は、点群21a〜21eを矩形フィッティングすることにより壁21を矩形物体として認識する。また、点群24a〜24dを矩形フィッティングすることにより矩形の物体24を認識する。以下、物体24を「ゴースト物体」と表記することがある。
さらに追跡部31は、異なる時刻における同一物体の位置変化に基づいて物体の速度ベクトルを算出する。
処理対象選択部33は、ゴースト物体の真の位置を計算する計算処理の対象とする物体を、物体情報蓄積部32が蓄積した物体情報の中から選択する。
図4Bを参照する。以下の説明において、便宜上ゴースト物体の真の位置に仮想的に配置される物体25を「仮想物体」と表記する。また、ゴースト物体の真の位置(すなわち仮想物体25の配置位置)を計算する計算処理を「仮想物体の計算処理」と表記する。
処理対象選択部33は、自車両基準点1bと物体基準点24eとの間に他の物体があるか否かを判定する。
一方で、自車両基準点1bと物体基準点24eとの間に他の物体が存在しない場合には、処理対象選択部33は、仮想物体の計算処理の処理対象として物体24を選択しない。
反射面算出部34は、物体24がゴースト物体であると仮定した場合に、このゴーストを生じさせたマルチパスの反射点の位置と反射面の方向とを算出する。
以下、本実施形態では、物体の位置情報が水平面上の2次元位置情報である場合の例について説明するが、物体の位置情報が3次元位置情報である場合についても同様に、3次元的に配置される反射面上の反射点の位置と反射面の方向を算出できる。
反射面算出部34は、他の物体21を表す矩形の辺のうち、自車両基準点1bから物体基準点24eまで延びる物体ベクトルPgと最初に交差する交差辺21sを算出する。
また、反射面算出部34は、マルチパスの反射面の方向として交差辺21sの方向を算出する。図4Bに示すベクトルwは、交差辺21sの方向を示す壁方向ベクトルである。
仮想物体算出部35は、物体ベクトルPgと、壁方向ベクトルwと、反射点ベクトルPwに基づいて仮想物体25の位置を算出する。具体的には、仮想物体算出部35は、マルチパスの反射面を対称面としてゴースト物体24の検出位置を反転させた鏡像位置を、仮想物体25の位置として算出する。
Pv=Pw+R(−2θ)(Pg−Pw) …(1)
vv=R(−2α)vg …(3)
仮想物体算出部35は、算出した仮想物体25の位置及び速度を、物体2rの位置及び速度と認識して、仮想物体25の物体情報として蓄積する。
走行制御部13は、物体情報選択部36から受信した物体情報に基づいて、自車両1の操舵機構の操舵方向若しくは操舵量、アクセル開度、又はブレーキ装置の制動力の少なくとも1つを制御する。
次に、図5を参照して第1実施形態の物体認識方法の一例を説明する。
ステップS1において第1物体検出部30は、自車両1の周囲の物体の検出位置を示すレーダ点群を受信する。第1物体検出部30は、レーダ点群に含まれる点をグループ化(クラスタリング)して個々の物体を抽出し、抽出した物体を示す点群の集合を各物体の物体情報として構成する。
ステップS2において第1物体検出部30は、個々の物体の点群に対して矩形フィッティングを行うことにより、自車両1の周囲の物体を矩形物体として認識する。
ステップS5において反射面算出部34は、注目物体の検出位置と自車両1との間に存在する他の物体の矩形を形成する辺のうち、自車両から注目物体の検出位置まで延びる物体ベクトルPgと最初に交差する交差辺の長さLを算出する。反射面算出部34は、交差辺の長さLが閾値Lt以上であるか否かを判定する。
ステップS6において反射面算出部34は、ゴーストを生じさせたマルチパスの反射点の位置と反射面の方向を算出する。仮想物体算出部35は、注目物体に対して上式(1)〜(3)に基づいて仮想物体25の位置及び速度を算出する。
ステップS7において仮想物体算出部35は、仮想物体25の位置及び速度を、ゴースト物体の実際の位置及び速度と認識して蓄積する。
ステップS9において物体情報選択部36は、物体情報蓄積部32が蓄積した物体情報のうちゴースト物体以外の物体情報に、仮想物体算出部35が算出した仮想物体の物体情報を追加して、走行制御部13に送信する。
(1)レーダ装置11は、自車両1の周囲へレーダ波を出射するとともにレーダ波の反射波を受信し、反射波の受信結果に基づいて自車両1の周囲の複数の物体をそれぞれ検出した各々の検出位置を取得する。
処理対象選択部33は、レーダ装置11が取得した検出位置に基づいて、自車両1の周囲の複数の物体のうちの第1物体の検出位置とレーダ装置11との間に第2物体が存在するか否かを判定し、第2物体が存在すると判定した場合に第1物体を仮想物体の計算処理の処理対象として選択する。
これによって、レーダで検出した物体がマルチパスによって実際と異なる位置に検出された場合に、実際の位置を推定できる。例えば、レーダの死角にいる物体のゴーストを用いて物体の実際の位置を検出できる。これにより、レーダの死角にいる物体のゴーストが発生している場合に物体を検出しそこなうのを防止できる。
次に、第2実施形態を説明する。図6を参照する。第2実施形態の車両制御装置10は、レーダ装置11に加えて、レーダ以外の他のセンサも用いて自車両1の周囲の物体を検出する。例えば、車両制御装置10は、自車両1の周囲の物体を検出する他のセンサとして、レーザ測距装置40とカメラ41を備える。すなわち車両制御装置10は、自車両1の周囲の物体を検出する複数のセンサとして、レーダ装置11、レーザ測距装置40及びカメラ41を備える。
カメラ41は、自車両1の周囲を撮影して、自車両1の周囲の撮像画像を生成する。
第2物体検出部44は、個々の物体の点群を、物体の概略の外形を表す矩形にあてはめる、いわゆる矩形フィッティングを行う。矩形フィッティングの方法としては、点群を包含する対象の矩形を算出するなど、既知の様々な方法を採用できる。
統合部46は、第1物体検出部30が検出した物体、第2物体検出部44が検出した物体及び画像認識部45が検出した物体の同一性を判断する。第1物体検出部30、第2物体検出部44及び画像認識部45が同一物体を検出している場合、統合部46は、第1物体検出部30、第2物体検出部44及び画像認識部45によってそれぞれ得られた同一物体の情報を統合する。
追跡部31は、統合部46により統合された物体情報に基づいて、検出した物体を時系列で追跡し、時系列で同一物体として判定された物体に同一の識別情報を付与する。また追跡部31は、物体の速度ベクトルを算出する。物体情報蓄積部32は、追跡部31によって識別情報が付与された物体情報を記憶装置16に蓄積する。
このため、第2実施形態の処理対象選択部33は、物体情報蓄積部32によって蓄積された物体情報のうち、レーダ装置11にのみによって検出され、他のセンサ、すなわちカメラ41やレーザ測距装置40によって検出されなかった物体の中から、仮想物体の計算処理の処理対象を選択する。
図7を参照する。処理対象選択部33は、物体24の検出位置の移動方向ベクトルvmと、物体24の検出位置が存在する走行車線26の進行方向を示す進行方向ベクトルvt1とのなす角度φ1を算出する。処理対象選択部33は、角度φ1が閾値φt1以上の場合に、物体24の移動方向が尤もらしいと判定し、角度φ1が閾値φt1未満の場合に、物体24の移動方向が尤もらしくないと判定する。
測位装置42は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して自車両1の現在位置を測定する。GNSS受信機は、例えば地球測位システム(GPS)受信機等であってよい。測位装置42は、例えば慣性航法装置であってもよい。測位装置42は、オドメトリにより自車両1の現在位置を測定してもよい。
地図データベース43として、例えば、自律走行用の地図として好適な高精度地図データ(以下、単に「高精度地図」という。)を記憶してよい。高精度地図は、ナビゲーション用の地図データ(以下、単に「ナビ地図」という。)よりも高精度の地図データであり、道路単位の情報よりも詳細な走行レーン(車線)単位の車線情報を含む。例えば、自律走行用の地図として好適な高精度地図データ(以下、単に「高精度地図」という。)を記憶してよい。高精度地図は、ナビゲーション用の地図データ(以下、単に「ナビ地図」という)よりも高精度の地図データであり、道路単位の情報よりも詳細な車線単位の情報を含む。
例えば、高精度地図は車線単位の情報として、車線基準線(例えば車線内の中央の線)上の基準点を示す車線ノードの情報と、車線ノード間の車線の区間態様を示す車線リンクの情報を含む。
高精度地図は更に、車線上又はその周辺に存在する信号機、停止線、標識、建物、電柱、縁石、横断歩道等の構造物の種類及び位置座標等の構造物情報を含む。
処理対象選択部33は、地図データベース43を参照して共通座標系上の物体24の検出位置が、走行車線に存在するか否かを判定する。共通座標系上の物体24の検出位置が走行車線に存在する場合に、処理対象選択部33は、地図データベース43を参照して、物体24の検出位置が存在する走行車線に進行方向が設定されているか否かを判定する。進行方向が設定されている場合には、進行方向の情報を取得する。
物体24の移動方向と走行車線の進行方向とのなす角度φ1を算出する。処理対象選択部33は、角度φ1が閾値φt1以上の場合に物体24の移動方向が尤もらしいと判定し、角度φ1が閾値φt1未満の場合に物体24の移動方向が尤もらしくないと判定する。
一方で、共通座標系上の物体24の検出位置が走行車線に存在しない場合には、処理対象選択部33は、物体24の移動方向が尤もらしいか否かを判定できない。この場合に処理対象選択部33は、仮想物体の計算処理の処理対象として物体24を選択する。
当該仮想物体の物体情報のみを、ゴースト物体以外の物体情報に追加して走行制御部13に送信する。
このため第2実施形態の仮想物体算出部35は、仮想位置追加判定部47を備える。
仮想位置追加判定部47は、仮想物体25と他の物体27との間隔dを算出する。例えば仮想位置追加判定部47は、仮想物体25の前端中央の基準点25bと物体27の前端中央の基準点27bとの間隔dを算出してよい。
ゴースト物体24は、他の物体28の死角にいる物体のゴーストであり、レーダ装置11は、この物体の真の位置を直接検出しておらず、レーザ測距装置40及びカメラ41はこの物体そのものを検出していない。
そこで、仮想位置追加判定部47は、仮想物体25の位置や移動方向が尤もらしいか否かを判定する。
さらに仮想位置追加判定部47は、地図データベース43を参照して共通座標系上の仮想物体25の位置が、走行車線に存在するか否かを判定する。図9の例では、仮想物体25は、走行車線26aに存在する。
仮想位置追加判定部47は、角度φ2が閾値φt2以下の場合に仮想物体25の位置と移動方向が尤もらしいと判定する。この場合に、仮想位置追加判定部47は、仮想物体25の位置に実際の物体が存在すると判断して、この仮想物体25の物体情報を、ゴースト物体以外の物体情報に追加して走行制御部13に送信することを許可する。
物体情報選択部36は、物体情報蓄積部32が蓄積した物体情報のうち、ゴースト物体として選択された物体以外の物体情報に、仮想位置追加判定部47によって許可された仮想物体25の物体情報のみを追加して、走行制御部13に送信する。
次に、図10〜図13を参照して第2実施形態の物体認識方法の一例を説明する。
ステップS10及びS11の処理は、図5を参照して説明したステップS1及びS2の処理と同様である。
ステップS12において第2物体検出部44は、自車両1の周囲の物体の検出位置を示すレーザ測距装置点群を受信する。第2物体検出部44は、レーザ測距装置点群に含まれる点をグループ化(クラスタリング)して個々の物体を抽出し、抽出した物体を示す点群の集合を各物体の物体情報として構成する。
ステップS13において第2物体検出部44は、レーザ測距装置点群から抽出された個々の物体の点群に対して矩形フィッティングを行うことにより、自車両1の周囲の物体を矩形物体として認識する。
なお、ステップS10及びS11の処理と、ステップS12及びS13の処理と、ステップS14の処理は並列に実行してもよく、所定の順序で直列に実行してもよい。
ステップS15において統合部46は、同一の物体について第1物体検出部30、第2物体検出部44及び画像認識部45によってそれぞれ得られた物体情報を統合する。
注目物体が他のセンサにも検出された場合(ステップS30:N)に処理対象選択部33は、注目物体を処理対象として選択せずに処理対象選択処理を終了する。その後に処理は図10のステップS20へ進む。
ステップS34において処理対象選択部33は、角度φ1が閾値φt1以上であるか否かを判定する。角度φ1が閾値φt1以上である場合(ステップS34:Y)に処理はステップS35に進む。角度φ1が閾値φt1以上でない場合(ステップS34:N)に処理対象選択部33は、注目物体を処理対象として選択せずに処理対象選択処理を終了する。その後に処理は図10のステップS20へ進む。
ステップS40において反射面算出部34は、注目物体の検出位置と自車両1との間に存在する他の物体の矩形を形成する辺のうち、自車両から注目物体の検出位置まで延びる物体ベクトルPgと最初に交差する交差辺を算出する。
交差辺の長さLが閾値Lt以上である場合(ステップS41:Y)に処理はステップS42に進む。交差辺の長さLが閾値Lt以上でない場合(ステップS41:N)に、仮想物体を算出せずに処理は図10のステップS20へ進む。
ステップS53において仮想位置追加判定部47は、仮想物体の移動方向と走行車線の進行方向とのなす角度φ2を算出する。
ステップS21の処理は、図5を参照して説明したステップS9の処理と同様である。
(1)測位装置42は、走行車線の位置及び進行方向の情報を少なくとも有する地図上の、レーダ装置11を搭載した自車両1の位置を測定する。処理対象選択部33は、地図上の自車両1の位置に基づいて、自車両1の周囲の複数の物体のうちの第1物体の地図上の検出位置を算出してよい。処理対象選択部33は、地図上の第1物体の検出位置の変化に基づいて、地図上の第1物体の検出位置の移動方向を算出してよい。
これにより、マルチパスによって実際と異なる位置に検出された可能性が高い物体を、仮想物体の計算処理の処理対象として選択できる。
これにより、
これにより、マルチパスによって実際と異なる位置に検出された可能性が高い物体を、仮想物体の計算処理の処理対象として選択できる。
これにより、レーダ波のマルチパスによって発生したゴースト物体を、仮想物体の計算処理の処理対象として選択できる。
これにより、マルチパスによって同一物体の複数の像が検出されている場合に、ゴーストを削除して計算量を削減できる。
これにより、走行車線内にある第1物体のみを認識することができるので、計算量を削減できる。
Claims (9)
- レーダ装置からレーダ波を出射するとともに前記レーダ波の反射波を受信し、前記反射波の受信結果に基づいて周囲の複数の物体をそれぞれ検出した各々の検出位置を取得し、
前記検出位置に基づいて、前記複数の物体のうちの第1物体の検出位置と前記レーダ装置との間に第2物体が存在するか否かを判定し、前記第2物体が存在すると判定した場合に前記第1物体を処理対象として選択し、
前記第1物体を前記処理対象として選択した場合に、前記第2物体の前記レーダ装置に対向する面である反射面の位置及び角度を検出し、
前記反射面を対称面として前記第1物体の検出位置を反転させた鏡像位置に前記第1物体が存在すると認識する、
ことを特徴とする物体認識方法。 - 走行車線の位置及び進行方向の情報を少なくとも有する地図上の、前記レーダ装置を搭載した車両の位置を測定し、
前記地図上の前記車両の位置に基づいて、前記地図上の前記第1物体の検出位置を算出し、
前記地図上の前記第1物体の検出位置の変化に基づいて、前記地図上の前記第1物体の検出位置の移動方向を算出し、
前記第1物体の検出位置が存在する走行車線の進行方向と前記第1物体の検出位置の移動方向とのなす角が第1閾値以上である場合に、前記第1物体を前記処理対象として選択する、
ことを特徴とする請求項1に記載の物体認識方法。 - 走行車線の位置の情報を少なくとも有する地図上の、前記レーダ装置を搭載した車両の位置を測定し、
前記地図上の前記車両の位置に基づいて、前記地図上の前記第1物体の検出位置を算出し、
前記第1物体の検出位置が走行車線に存在しない場合に、前記第1物体を前記処理対象として選択する、
ことを特徴とする請求項1に記載の物体認識方法。 - レーダ以外の他のセンサによって周囲の物体を検出し、
前記第1物体が前記レーダ装置に検出され、かつ前記第1物体が前記他のセンサに検出されない場合に前記第1物体を前記処理対象として選択する、
ことを特徴とする請求項1〜3のいずれか一項に記載の物体認識方法。 - 前記鏡像位置が前記複数の物体の検出位置のいずれとも異なる場合に、前記鏡像位置に前記第1物体が存在すると認識することを特徴とする請求項1〜4のいずれか一項に記載の物体認識方法。
- 走行車線の位置の情報を少なくとも有する地図上の、前記レーダ装置を搭載した車両の位置を測定し、
前記地図上の前記車両の位置に基づいて、前記地図上の前記鏡像位置を算出し、
前記鏡像位置が走行車線内である場合に、前記鏡像位置に前記第1物体が存在すると認識することを特徴とする請求項1に記載の物体認識方法。 - 走行車線の位置及び進行方向の情報を少なくとも有する地図上の、前記レーダ装置を搭載した車両の位置を測定し、
前記地図上の前記車両の位置に基づいて、前記地図上の前記鏡像位置を算出し、
前記地図上の前記鏡像位置の位置変化に基づいて、前記鏡像位置の前記地図上の移動方向を算出し、
前記鏡像位置が存在する走行車線の進行方向と前記鏡像位置の移動方向とのなす角が第2閾値以下である場合に、前記鏡像位置に前記第1物体が存在すると認識する、
ことを特徴とする請求項1に記載の物体認識方法。 - 道路上又は道路周辺の構造物情報を含む地図に基づいて前記反射面の位置及び角度の情報を取得することを特徴とする請求項1〜7のいずれか一項に記載の物体認識方法。
- レーダ装置からレーダ波を出射するとともに前記レーダ波の反射波を受信し、前記反射波の受信結果に基づいて周囲の複数の物体をそれぞれ検出した各々の検出位置を取得するレーダ装置と、
前記検出位置に基づいて、前記複数の物体のうちの第1物体の検出位置と前記レーダ装置との間に第2物体が存在するか否かを判定し、前記第2物体が存在すると判定した場合に前記第1物体を処理対象として選択し、前記第1物体を前記処理対象として選択した場合に、前記第2物体の前記レーダ装置に対向する面である反射面の位置及び角度を検出し、前記反射面を対称面として前記第1物体の検出位置を反転させた鏡像位置に前記第1物体が存在すると認識するコンピュータと、
を備えることを特徴とする物体認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019201640A JP7366695B2 (ja) | 2019-11-06 | 2019-11-06 | 物体認識方法及び物体認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019201640A JP7366695B2 (ja) | 2019-11-06 | 2019-11-06 | 物体認識方法及び物体認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021076422A true JP2021076422A (ja) | 2021-05-20 |
JP7366695B2 JP7366695B2 (ja) | 2023-10-23 |
Family
ID=75899531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019201640A Active JP7366695B2 (ja) | 2019-11-06 | 2019-11-06 | 物体認識方法及び物体認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7366695B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023033077A1 (ja) * | 2021-08-31 | 2023-03-09 | 株式会社デンソー | 車両用レーダ装置 |
WO2023042749A1 (ja) * | 2021-09-15 | 2023-03-23 | 三菱重工業株式会社 | 対象物の設計方法及び車両運転試験装置の設計方法 |
WO2023067692A1 (ja) * | 2021-10-19 | 2023-04-27 | パイオニア株式会社 | 情報処理装置、制御方法、プログラム及び記憶媒体 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005128603A (ja) * | 2003-10-21 | 2005-05-19 | Alpine Electronics Inc | 物体認知装置および物体認知方法 |
JP2006047057A (ja) * | 2004-08-03 | 2006-02-16 | Fuji Heavy Ind Ltd | 車外監視装置、及び、この車外監視装置を備えた走行制御装置 |
JP2015230566A (ja) * | 2014-06-04 | 2015-12-21 | トヨタ自動車株式会社 | 運転支援装置 |
WO2018230344A1 (ja) * | 2017-06-15 | 2018-12-20 | ヴィオニア スウェーデン エービー | 運転支援装置、運転支援方法及びコンピュータプログラム |
JP2019057197A (ja) * | 2017-09-22 | 2019-04-11 | 株式会社Subaru | 移動物体認識装置 |
-
2019
- 2019-11-06 JP JP2019201640A patent/JP7366695B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005128603A (ja) * | 2003-10-21 | 2005-05-19 | Alpine Electronics Inc | 物体認知装置および物体認知方法 |
JP2006047057A (ja) * | 2004-08-03 | 2006-02-16 | Fuji Heavy Ind Ltd | 車外監視装置、及び、この車外監視装置を備えた走行制御装置 |
JP2015230566A (ja) * | 2014-06-04 | 2015-12-21 | トヨタ自動車株式会社 | 運転支援装置 |
WO2018230344A1 (ja) * | 2017-06-15 | 2018-12-20 | ヴィオニア スウェーデン エービー | 運転支援装置、運転支援方法及びコンピュータプログラム |
JP2019057197A (ja) * | 2017-09-22 | 2019-04-11 | 株式会社Subaru | 移動物体認識装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023033077A1 (ja) * | 2021-08-31 | 2023-03-09 | 株式会社デンソー | 車両用レーダ装置 |
JP7472878B2 (ja) | 2021-08-31 | 2024-04-23 | 株式会社デンソー | 車両用レーダ装置 |
WO2023042749A1 (ja) * | 2021-09-15 | 2023-03-23 | 三菱重工業株式会社 | 対象物の設計方法及び車両運転試験装置の設計方法 |
WO2023067692A1 (ja) * | 2021-10-19 | 2023-04-27 | パイオニア株式会社 | 情報処理装置、制御方法、プログラム及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP7366695B2 (ja) | 2023-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10444357B2 (en) | System and method for optimizing active measurements in 3-dimensional map generation | |
JP6317230B2 (ja) | 交差点における画像及び地図に基づく車両の検出法 | |
US11340093B2 (en) | Submap geographic projections | |
RU2720140C1 (ru) | Способ оценки собственной позиции и устройство оценки собственной позиции | |
US12044535B2 (en) | Map selection for vehicle pose system | |
CN113538966B (zh) | 车载传感器系统 | |
WO2020145053A1 (ja) | 走行車線推定装置、走行車線推定方法、制御プログラム、およびコンピュータ読み出し可能持続的記録媒体 | |
US11067676B2 (en) | Lidar intensity calibration | |
JP7366695B2 (ja) | 物体認識方法及び物体認識装置 | |
US11971536B2 (en) | Dynamic matrix filter for vehicle image sensor | |
JP2020030200A (ja) | 精度仕様を用いてビークルを位置特定するためのシステムおよび方法 | |
JP7321035B2 (ja) | 物体位置検出方法及び物体位置検出装置 | |
JP7565232B2 (ja) | 車両評価方法及び車両評価装置 | |
JP7043765B2 (ja) | 車両走行制御方法及び装置 | |
WO2021157194A1 (ja) | 経路計画装置、経路計画方法、経路計画プログラム | |
JP2021060941A (ja) | 物体認識方法及び物体認識システム | |
JP2022130152A (ja) | 物体認識システム及び物体認識方法 | |
CN111766601A (zh) | 识别装置、车辆控制装置、识别方法及存储介质 | |
JP2021068317A (ja) | 車両制御方法及び車両制御装置 | |
JP7571716B2 (ja) | 物体判定装置、物体判定用コンピュータプログラム及び物体判定方法 | |
KR20240068861A (ko) | 자율 주행 계획 장치 및 방법 | |
CN119024309A (zh) | 计算系统 | |
CN114987530A (zh) | 地图生成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220802 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231011 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7366695 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |