JPWO2020075476A1 - 車載システム - Google Patents
車載システム Download PDFInfo
- Publication number
- JPWO2020075476A1 JPWO2020075476A1 JP2020550295A JP2020550295A JPWO2020075476A1 JP WO2020075476 A1 JPWO2020075476 A1 JP WO2020075476A1 JP 2020550295 A JP2020550295 A JP 2020550295A JP 2020550295 A JP2020550295 A JP 2020550295A JP WO2020075476 A1 JPWO2020075476 A1 JP WO2020075476A1
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- unit
- outside world
- sensor
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 149
- 238000001514 detection method Methods 0.000 claims abstract description 138
- 230000000007 visual effect Effects 0.000 claims 1
- 238000005259 measurement Methods 0.000 abstract description 12
- 238000000034 method Methods 0.000 description 15
- 230000006399 behavior Effects 0.000 description 10
- 238000003702 image correction Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000004092 self-diagnosis Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/10—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
- G01C3/14—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with binocular observation at a single point, e.g. stereoscopic type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/09623—Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Measurement Of Optical Distance (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
ステレオ視の際に距離測定の画角、検出可能な距離を適切に制御することで、低コスト化と多様なセンサ構成の適合が可能な車載システムを提供する。車両周辺の観測対象物を検出する少なくとも一つのセンサを備える外界検出部と、外界検出部の検出結果に基づいて車両の周辺環境を認識する外界認識部と、外界認識部の認識結果に基づいて車両の軌道計画を生成する車両計画判断部と、車両計画判断部の軌道計画に基づいて車両の挙動を制御する車両制御部と、を有する車載システムであって、外界検出部は、センサとしてステレオ視によって観測対象物を検出する画像処理装置を備え、画像処理装置は、車両計画判断部の軌道計画、外界検出部のセンサ構成情報、又は外界検出部の検出結果に対するセンサ信頼度の少なくとも一つに基づいてステレオ視の範囲を変更する。
Description
本発明は、車載システムに係り、特にステレオ視における画像処理技術を用いた車載システムに関する。
画像を用いた3次元計測技術として、ステレオカメラで撮像した画像から対象物の距離を求めるステレオ視の技術が知られている。図17にステレオ視の原理を示す。ここでは、説明の簡単化のため、2台のカメラの仕様は同一であり、その光軸はxz平面に平行である(y座標は同一であり、図示しない)ものとする。2台のカメラ間の基線長をb、カメラの焦点距離をfとすると、対象物Pのz軸方向の距離zdは以下の計算式(1)から求めることができる。
(数1)
zd=b×f/(xl−xr) ・・・(1)
ここで、xl、xrは2台のカメラの画像上に投影される対象物Pのx座標(画素位置)であり、画素位置の差分(xl−xr)を視差と呼ぶ。
(数1)
zd=b×f/(xl−xr) ・・・(1)
ここで、xl、xrは2台のカメラの画像上に投影される対象物Pのx座標(画素位置)であり、画素位置の差分(xl−xr)を視差と呼ぶ。
上記のようにステレオ視では視差に基づき対象物の距離を求めるため、対象物に対する画像間での正しい対応点(xl、xr)を検出する必要がある。この対応点の検出には、あるカメラの画像を基準画像、他のカメラの画像を探索対象画像とし、基準画像内の複数画素領域からなる画素ブロックに対して、探索対象画像内の最も相関の高い画素ブロックを探索する手法が一般に利用されている。画素ブロックの相関値の計算には例えばSAD(Sum of Absolute Difference)やSSD(Sum of Squared Difference)等の方式がある。
画素ブロック探索の処理時間は、相関値の計算量、距離測定の画角、検出可能な距離に依存する。距離測定の画角は基準画像内における画素領域(水平画素数×垂直画素数)で決まり、検出可能な距離は探索対象画像内における画素探索幅(水平画素数)で決まる。このため、広い画角内で近距離から遠距離までの対象物を検出するには処理時間が多くかかる。特に、近年では運転支援や自動運転の要求が高まっているが、撮像から認識までに高いリアルタイム性が要求される運転支援や自動運転の用途では、その処理時間削減が重要な課題となる。下記特許文献1では、走行状態や周辺環境に応じて距離測定の画角を変更する技術が開示されている。具体的には、車速が高速の場合に自動車専用道路を走行中の可能性が高いと想定して距離測定の画角を狭めたり、自車位置と地図情報から得られる道路の屈曲に合わせて距離測定の画角を変えたりすることで処理時間の短縮を図ることが示されている。
上記特許文献1で開示される従来技術は、現在の車速や位置情報に基づいて距離測定の画角を変更する手法であるが、車速が低速、自車位置が交差点、といった一般道で多く見受けられる状況において距離測定の画角を変更できない。また、自車や他車(自車周辺の車両)の将来の挙動を考慮せずに距離測定の画角を変更することは危険であり、結果として処理時間削減の効果が得られないことが多い。このため、高い処理能力または回路規模を有する演算回路を使用しなければならず、製品コストが増加してしまう。また、別の視点の課題としては、高度運転支援や自動運転の実現手段としてステレオカメラを含む複数のセンサを車両に搭載することが想定される。この場合、その要件や要件に基づく構成は車種やオプションによって異なるため、各構成において適した距離測定の画角、検出可能な距離(以降、画角と距離を合わせて範囲と記載することがある)を提供できるステレオカメラ及びその制御技術が要求される。
本発明は、上記事情に鑑みてなされたものであり、その目的は、ステレオ視の際に距離測定の画角、検出可能な距離を適切に制御することで、低コスト化と多様なセンサ構成の適合が可能な車載システムを提供することにある。
上記課題を解決するために、本発明の一実施形態に係る車載システムは、車両周辺の観測対象物を検出する少なくとも一つのセンサを備える外界検出部と、前記外界検出部の検出結果に基づいて車両の周辺環境を認識する外界認識部と、前記外界認識部の認識結果に基づいて車両の軌道計画を生成する車両計画判断部と、前記車両計画判断部の軌道計画に基づいて車両の挙動を制御する車両制御部と、を有する車載システムであって、前記外界検出部は、前記センサとしてステレオ視によって観測対象物を検出する画像処理装置を備え、前記画像処理装置は、前記車両計画判断部の軌道計画、前記外界検出部のセンサ構成情報、又は前記外界検出部の検出結果に対するセンサ信頼度の少なくとも一つに基づいて前記ステレオ視の範囲を変更する。
本発明によれば、ステレオ視の際に距離測定の画角、検出可能な距離を適切に制御することで、低コスト化と多様なセンサ構成への適合が可能な車載システムを提供することができる。
上記以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
以下、本発明の実施形態について図面を参照して説明する。以下の説明では、各処理をプロセッサとメモリを用いて実行されることで実現しているが、プロセッサが行う処理の一部又は全部がハードウェア回路で行われても良い。
また、以下の説明では、同種の要素を区別して説明する場合には、「カメラ部110A」、「カメラ部110B」のように、参照符号を使用し、同種の要素を区別しないで説明する場合には、「カメラ部110」のように参照符号のうちの共通部分のみを使用することがある。
<第1の実施形態>
図1は、本発明の第1の実施形態に係る車載システム1の構成例である。図示実施形態の車載システム1は、外界検出部10、外界認識部20、車両計画判断部30、車両制御部40で構成され、車両2に搭載される。
図1は、本発明の第1の実施形態に係る車載システム1の構成例である。図示実施形態の車載システム1は、外界検出部10、外界認識部20、車両計画判断部30、車両制御部40で構成され、車両2に搭載される。
図2に、図1に示す外界検出部10の構成例を示す。外界検出部10は、本例では、車両2周辺(外界)の観測対象物を検出するためのセンサとして、ステレオ視によって観測対象物を検出・認識する画像処理装置(ステレオカメラともいう)100を備える。画像処理装置100は、カメラ部110A、110B、画像補正部120、距離検出部130、画像認識部140、画像処理制御部150で構成される。画像処理装置100(のカメラ部110A、110B)は、例えば車両2の前方の所定領域を撮像できるようにフロントガラスの手前に設置される。
カメラ部110A、110Bは、例えばCCDやCMOSイメージセンサで構成され、左右に基線長分離れた位置に配置され(図17参照)、観測対象物を含む撮像画像を取得して画像補正部120に出力する。観測対象物とは、例えば車両、歩行者、自転車、障害物、構造物、道路標識等である。
画像補正部120は、カメラ部110A、110Bが出力する撮像画像に対し、ステレオ視において観測対象物を検出しやすくなるよう、例えば画素欠陥の補正、輝度の補正、カメラの歪補正等を実施し、その補正後画像を距離検出部130に出力する。これらの機能がカメラ部110に備わっている場合は、その機能を利用しても良い。
距離検出部130は、画像補正部120の出力する補正後画像を用いて、ステレオ視による距離の算出を行い、その結果を距離情報として画像認識部140に出力する。この距離の算出には、例えば前述したSADやSSD等の方式が用いられる。距離検出部130は、図3に示すように、ステレオ視に用いる補正後画像の縮小率を指定するレジスタ131と画素領域の位置・大きさを指定するレジスタ132、探索時の探索幅を指定するレジスタ133と探索画素ピッチを指定するレジスタ134、これらのレジスタ設定に従って対応点の検出を行う画素ブロック探索部135、検出した対応点から距離を計算する距離計算部136を備えている。前述のように画素ブロック探索の処理時間は画素数で決まるため、これらのレジスタ131〜134の設定により、その処理時間が制御される。ここで、レジスタの設定の一例としては、予め用意した設定値と処理時間の関係を含むテーブル137(図4参照)に基づいて行う方法がある。例えば、処理時間がT1<T2<T3の関係であり、処理に割り当て可能な時間がT2以下とすると、設定値#1または#2の中から、ステレオ視の範囲が最も要求に合致する設定値を選択する。なお、距離検出部130におけるレジスタ131〜134の設定は、後述する画像処理制御部150により実行される。
画像認識部140は、画像補正部120の出力する補正後画像と距離検出部130の出力する距離情報に基づいて、観測対象物を検出・認識し、その結果を認識情報として外界認識部20へ出力する。この認識情報は、検出した観測対象物の位置情報、種類情報、動作情報等を含む。位置情報は、例えば、車両2に対する観測対象物の方向や距離等を表す情報である。種類情報は、例えば、前述の観測対象物を表す情報である。動作情報は、例えば、歩行者や自転車のふらつき、飛び出し、横切り等といった、移動方向、移動速度、移動軌跡等を表す情報である。
画像処理制御部150は、画像補正部120の出力する補正後画像に基づき、カメラ部110、画像補正部120の設定を制御する。設定の制御は、例えば、天候や時間の変化によって周囲の明るさが変わった場合に、カメラ部110の露光を調整したり、画像補正部120の補正値を調整したりするものである。また、画像処理制御部150は、車両計画判断部30の出力する指示情報に基づき(後で詳述)、距離検出部130のレジスタ131〜134に値を設定することで、ステレオ視の範囲を変更し、処理負荷(処理時間)を制御する。処理負荷の制御の一例としては、例えば所定の処理負荷を超えないように制御する方法がある。
図1に示した外界認識部20は、車両2周辺の地図情報に外界検出部10の出力する認識情報を結合し、車両2の周辺環境情報を生成して車両計画判断部30へ出力する。地図情報は、例えば、道路種別、道路形状、交通ルール等である。道路種別とは、道路属性を示す情報であり、例えば、路地、国道、高速道路等である。道路形状とは、道路、道路上、その近傍(歩道等)の空間形状を表現したものであり、例えば、直線路、カーブ路、T字路、交差点等の形状、それらの路面の車線中心線形状や車線境界線形状、車線分岐・合流点、道路区間内の路肩の形状、車道部境界線形状、停止線形状、横断歩道形状等である。交通ルールとは、車両の走行を制約する情報であり、例えば、信号、速度規制、車線の属性(通行可能方向、バス専用、通行可能時間帯等)、車線境界属性(車線変更可否、追い越し可否等)等が含まれ、基本的に道路種別及び道路形状に紐づいて管理される。なお、地図情報は、車両2に予め記憶されたナビゲーション装置等(図示しない)の地図情報でも良いし、外部から取得した地図情報でも良い。また、外界認識部20は、外界検出部10で得られた撮像画像を用いて、車両2の運転者に観測対象物を認識させるための画像表示を行ったり、車両2に搭載されたナビゲーション装置等(図示しない)の情報機器に対して、観測対象物の情報を提供したりしても良い。
車両計画判断部30は、外界認識部20の出力する車両2の周辺環境情報と車両制御部40の出力する車両2の状態情報に基づき、車両2をどのような軌道、速度で制御するかを示す軌道計画を生成する。更に、車両計画判断部30は、その軌道計画に基づいて、車両制御部40へ目標制御情報を出力し、外界検出部10へステレオ視において処理負荷を制御する指示情報を出力する。車両2の状態情報とは、例えば、車両2の車速、加速度、操舵角、ヨーレート等である。
車両制御部40は、車両計画判断部30の出力する目標制御情報に基づいて、車両2の挙動制御を(自動的に)行うと共に、車両2の状態情報を車両計画判断部30へ出力する。車両2の挙動制御とは、例えば、ブレーキ、アクセル、操舵角、各種ランプの点灯、警告音等の制御である。
このように、本第1の実施形態の車載システム1では、車両制御部40で、車両計画判断部30の出力する目標制御情報に基づいて車両2の挙動を制御するとともに、車両計画判断部30は、生成した車両2の軌道計画に基づいてステレオ視において処理負荷を制御する指示情報を生成し、外界検出部10(の画像処理装置100の画像処理制御部150)は、車両計画判断部30の出力する指示情報に基づいて距離検出部130のレジスタ131〜134に値を設定する(例えば、テーブル137(図4参照)に基づいてステレオ視の範囲が最も要求に合致する設定値を選択する)ことで、ステレオ視の範囲を変更し、処理負荷を制御する。
図5は、外界検出部10(の画像処理装置100)でステレオ視可能な範囲50と車両計画判断部30が生成した軌道計画の軌道70を空間上に示した例である。画像処理装置100でステレオ視可能な範囲50は、画像処理装置100のカメラ部110で撮像された画像を用いて原理的にステレオ視を実行できる範囲であり、画像処理装置100に要求される処理時間内で実行可能な範囲とは必ずしも一致するものではない。要求される処理時間内で実行可能な範囲は、画像処理装置100の処理性能に依存するため、製品の低コスト化には、ステレオ視可能な範囲50から必要な範囲だけを抽出してステレオ視することが有効である。軌道計画は、車両2の今後の動作を示すものであり、前述したように、この軌道計画を用いて画像処理装置100のステレオ視に必要な範囲を適切に決定することができる。
図6及び図7は、軌動計画に基づいて変更したステレオ視の範囲51、52を空間上に示した例である。これは、「車両2が交差点まで直進した後に右折する」という軌道計画の例であるが、図6の車両2の位置では、直進予定であるため、画像処理装置100(の画像処理制御部150)は、距離検出部130のレジスタ131〜134を設定し、ステレオ視の範囲を直進方向の範囲51(詳しくは、ステレオ視可能な範囲50のうちの左右約中央の範囲)に狭めることで、ステレオ視にかかる処理時間を削減できる。一方、図7の車両2の位置では、右折予定であるため、画像処理装置100(の画像処理制御部150)は、距離検出部130のレジスタ131〜134を設定し、ステレオ視の範囲を右折方向の範囲52(詳しくは、ステレオ視可能な範囲50のうちの右端から所定角度の範囲)に狭めることで、ステレオ視にかかる処理時間を削減できる。なお、図6の範囲51から図7の範囲52へのステレオ視の範囲の変更は、例えば処理時間が同等となるように行われる。
なお、走行中(例えば運転支援や自動運転中)に、車両2の周囲環境等に応じて車両計画判断部30が生成した軌道計画が変更される場合には、車両計画判断部30は、その変更された軌道計画に応じた指示情報を外界検出部10へ出力し、外界検出部10の画像処理装置100(の画像処理制御部150)は、その車両計画判断部30の出力する指示情報に基づいてステレオ視の範囲を変更・設定することができる。
図8は、本発明の第1の実施形態に係る車載システム1におけるステレオ視の処理負荷を制御する処理フロー例である。
ステップS100において、車両計画判断部30は、外界認識部20の出力する車両2の周辺環境情報と車両制御部40の出力する車両2の状態情報を取得する。
ステップS101において、車両計画判断部30は、ステップS100で得られた情報から車両2の軌道計画を生成する。
ステップS102において、車両計画判断部30は、ステップS101で生成した軌道計画から、外界検出部10で実行するステレオ視における処理負荷を制御する指示情報を決定する。
ステップS103において、外界検出部10(の画像処理装置100の画像処理制御部150)は、ステップS102で車両計画判断部30が出力する指示情報に基づいて距離検出部130のレジスタ131〜134を設定し(例えば、テーブル137(図4参照)に基づいてステレオ視の範囲が最も要求に合致する設定値を選択し)、ステレオ視の範囲を変更して、ステレオ視を実行する。
以上で説明したように、本第1の実施形態によれば、車両2に搭載される車載システム1は、車両周辺の観測対象物を検出する外界検出部10と、その検出結果に基づいて車両周辺の状態を認識する外界認識部20と、その認識結果に基づいて車両の軌道計画を生成する車両計画判断部30と、その軌道計画に基づいて車両の挙動を制御する車両制御部40とを備えており、車両計画判断部30で生成した軌道計画に基づき、外界検出部10(の画像処理装置100)のステレオ視に必要な範囲を制御することで、処理時間の削減が可能となり、車両周辺の観測対象物の検出を行う外界検出装置を低コストで提供することができる。
<第2の実施形態>
図9は、本発明の第2の実施形態に係る車載システム1の構成例である。図示実施形態の車載システム1は、外界検出部11、外界認識部21、車両計画判断部31、車両制御部40で構成され、車両2に搭載される。なお、本第2の実施形態における車両制御部40は、上記第1の実施形態で説明したものと同一であるため、以下では説明を省略する。
図9は、本発明の第2の実施形態に係る車載システム1の構成例である。図示実施形態の車載システム1は、外界検出部11、外界認識部21、車両計画判断部31、車両制御部40で構成され、車両2に搭載される。なお、本第2の実施形態における車両制御部40は、上記第1の実施形態で説明したものと同一であるため、以下では説明を省略する。
図10に、図9に示す外界検出部11の構成例を示す。外界検出部11は、本例では、上記第1の実施形態で説明した画像処理装置100を含む、車両2周辺(外界)の観測対象物を検出するための複数のセンサ100〜102からなるセンサ群で構成されている。センサ101、102は、例えば、カメラ(単眼カメラ、ステレオカメラ)、ミリ波レーダ、ライダ等である。各センサ100〜102は検出可能な観測対象物、範囲、精度、コスト等が異なるため、外界検出部11は、車両2の車種やオプションによってセンサの種類や数が異なる構成となる。
外界検出部11は、画像処理装置100を含む複数のセンサ100〜102から得られた情報により車両2周辺の観測対象物を検出・認識し、その結果を認識情報として外界認識部21へ出力する。また、外界検出部11(の画像処理装置100の画像処理制御部150)は、上記第1の実施形態と同様に、車両計画判断部31の出力する指示情報に基づき、距離検出部130のレジスタ131〜134に値を設定することで、画像処理装置100のステレオ視の範囲を変更し、処理負荷(処理時間)を制御する。
外界認識部21は、上記第1の実施形態で説明した外界認識部20において、車両2周辺の地図情報に結合する情報として、画像処理装置100の出力する認識情報に加えて、他のセンサ101、102の検出結果(検出情報)も利用する。外界認識部21は、複数のセンサ100〜102から得られた情報を結合することで、車両2の周辺環境情報の精度が向上する。
車両計画判断部31は、外界認識部21の出力する車両2の周辺環境情報、車両制御部40の出力する車両2の状態情報に基づき、車両2をどのような軌道、速度で制御するかを示す軌道計画を生成する。更に、車両計画判断部31は、その軌道計画に基づいて車両制御部40へ目標制御情報を出力すると共に、軌道計画と外界検出部11のセンサ構成情報に基づいて外界検出部11へステレオ視の範囲(つまり、ステレオ視における処理負荷)を制御する指示情報を出力する。外界検出部11のセンサ構成情報とは、例えば、センサの種類、取り付け位置、検出範囲、分解能等であり、予め記録領域に記録された情報である。
このように、本第2の実施形態の車載システム1では、車両制御部40で、車両計画判断部31の出力する目標制御情報に基づいて車両2の挙動を制御するとともに、車両計画判断部31は、生成した車両2の軌道計画及び外界検出部11のセンサ構成情報に基づいてステレオ視において処理負荷を制御する指示情報を生成し、外界検出部11(の画像処理装置100の画像処理制御部150)は、車両計画判断部31の出力する指示情報に基づいて距離検出部130のレジスタ131〜134に値を設定する(例えば、テーブル137(図4参照)に基づいてステレオ視の範囲が最も要求に合致する設定値を選択する)ことで、ステレオ視の範囲を変更し、処理負荷を制御する。
図11は、外界検出部11のセンサとして画像処理装置100と他のセンサ101、102を搭載した場合の、各センサで観測対象物を検出可能な範囲と車両計画判断部31が生成した軌道計画の軌道70を空間上に示した例である。画像処理装置(センサ)100でステレオ視可能な範囲50は、画像処理装置100のカメラ部110で撮像された画像を用いて原理的にステレオ視を実行できる範囲であり、画像処理装置100に要求される処理時間内で実行可能な範囲とは必ずしも一致するものではない。要求される処理時間内で実行可能な範囲は、画像処理装置100の処理性能に依存するため、製品の低コスト化には、ステレオ視可能な範囲50から必要な範囲だけを抽出してステレオ視することが有効である。本実施形態では、画像処理装置100のステレオ視に必要な範囲を適切に決定するのに、前述したように、軌道計画の他に外界検出部11のセンサ構成情報を用いる。
例えば、図11のように画像処理装置100によるステレオ視可能な範囲50と他のセンサ101、102で検出可能な範囲61、62に重なりがある場合、画像処理装置100(の画像処理制御部150)は、距離検出部130のレジスタ131〜134を設定し、図12のようにステレオ視可能な範囲50において範囲61、62との重なりを避けた車両2の進行方向を含む範囲53(詳しくは、ステレオ視可能な範囲50のうちの左右約中央かつ最遠までの範囲)にステレオ視の範囲を狭めることで、ステレオ視にかかる処理時間を削減できると共に、遠距離の観測対象物も検出できるようにステレオ視の処理時間を割り振ることができる。
なお、走行中(例えば運転支援や自動運転中)に、車両2の周囲環境等に応じて車両計画判断部31が生成した軌道計画や外界検出部11のセンサ構成情報(検出範囲、分解能等)が変更される場合には、車両計画判断部31は、その変更された軌道計画やセンサ構成情報に応じた指示情報を外界検出部11へ出力し、外界検出部11の画像処理装置100(の画像処理制御部150)は、その車両計画判断部31の出力する指示情報に基づいてステレオ視の範囲を変更・設定することができる。
図13は、本発明の第2の実施形態に係る車載システム1におけるステレオ視の処理負荷を制御する処理フロー例である。
ステップS200において、車両計画判断部31は、外界認識部21の出力する車両2の周辺環境情報、車両制御部40の出力する車両2の状態情報、外界検出部11のセンサ構成情報を取得する。
ステップS201において、車両計画判断部31は、ステップS200で得られた情報から車両2の軌道計画を生成する。
ステップS202において、車両計画判断部31は、ステップS201で生成した軌道計画とステップS200で得られたセンサ構成情報から、外界検出部11で実行するステレオ視の範囲を制御する指示情報を決定する。
ステップS203において、外界検出部11(の画像処理装置100の画像処理制御部150)は、ステップS202で車両計画判断部31が出力する指示情報に基づいて距離検出部130のレジスタ131〜134を設定し、ステレオ視の範囲を変更して、ステレオ視を実行する。
以上で説明したように、本第2の実施形態によれば、車両2に搭載される車載システム1は、車両周辺の観測対象物を検出する外界検出部11と、その検出結果に基づいて車両周辺の状態を認識する外界認識部21と、その認識結果に基づいて車両の軌道計画を生成する車両計画判断部31と、その軌道計画に基づいて車両の挙動を制御する車両制御部40とを備えており、車両計画判断部31で生成した軌道計画と外界検出部11のセンサ構成情報に基づき、外界検出部11(の画像処理装置100)のステレオ視に必要な範囲を制御することで、処理時間の削減が可能となり、多様なセンサ構成に適した外界検出装置を低コストで提供することができる。
なお、上記実施形態では、車両計画判断部31で生成した軌道計画と外界検出部11のセンサ構成情報を用いて、画像処理装置100のステレオ視に必要な範囲を決定しているが、外界検出部11のセンサ構成情報のみを用いて、画像処理装置100のステレオ視に必要な範囲を決定しても良い。
<第3の実施形態>
本発明の第3の実施形態に係る車載システム1の構成例は、図9等に基づき説明した上記第2の実施形態と同様であるため、以下では、差分のある箇所についてのみ説明する。
本発明の第3の実施形態に係る車載システム1の構成例は、図9等に基づき説明した上記第2の実施形態と同様であるため、以下では、差分のある箇所についてのみ説明する。
本実施形態の車載システム1における外界検出部11は、各種センサを備えるが、これらのセンサは車両2周辺の観測対象物の検出結果や認識情報を外界認識部21へ出力するだけでなく、センサ自体の検出結果に対する信頼度(以降、センサ信頼度ということがある)も合わせて外界認識部21へ出力する。センサの信頼度は、例えば、定期的な自己診断によって決定されるため、恒久的な障害が発生した場合は常に低い信頼度となるが、雨滴の付着や対向車のライトの照射により検出結果が一時的に悪化するような場合では問題の発生期間のみ信頼度が低下する。また、センサの信頼度は、センサに対して一律である必要はなく、例えば、各観測対象物の検出精度に基づいて個々に信頼度を設定しても良い。
外界認識部21は、車両2周辺の地図情報に結合する情報として、各種センサの検出結果及び認識情報に加えて、それらが出力する信頼度を利用する。例えば、同一の観測対象物に対して高い信頼度を出力するセンサと低い信頼度を出力するセンサがある場合に、外界認識部21は、信頼度の高いセンサの検出結果を選択することで、車両2の周辺環境情報に含まれる観測対象物の精度が向上する。また、前記したセンサの検出結果に対する信頼度として、センサから出力される信頼度に頼らず、例えば当該外界認識部21にて検出結果の履歴を元に生成しても良い。例えば、ある観測対象物の位置や距離が時系列で異常値を取るようなセンサがある場合、そのセンサを低い信頼度として扱っても良い。
車両計画判断部31は、外界認識部21の出力する車両2の周辺環境情報、車両制御部40の出力する車両2の状態情報に基づき、車両2をどのような軌道、速度で制御するかを示す軌道計画を生成する。更に、車両計画判断部31は、その軌道計画に基づいて車両制御部40へ目標制御情報を出力すると共に、軌道計画と外界検出部11のセンサ構成情報及びセンサ信頼度に基づいて外界検出部11へステレオ視の範囲(つまり、ステレオ視における処理負荷)を制御する指示情報を出力する。前述したように、指示情報の生成に用いるセンサ信頼度は、外界検出部11の出力するセンサ信頼度、または、センサの出力する検出結果を元に外界認識部21で生成したセンサ信頼度である。
このように、本第3の実施形態の車載システム1では、車両制御部40で、車両計画判断部31の出力する目標制御情報に基づいて車両2の挙動を制御するとともに、車両計画判断部31は、生成した車両2の軌道計画並びに外界検出部11のセンサ構成情報及びセンサ信頼度を総合的に判断してステレオ視において処理負荷を制御する指示情報を生成し、外界検出部11(の画像処理装置100の画像処理制御部150)は、車両計画判断部31の出力する指示情報に基づいて距離検出部130のレジスタ131〜134に値を設定する(例えば、テーブル137(図4参照)に基づいてステレオ視の範囲が最も要求に合致する設定値を選択する)ことで、ステレオ視の範囲を変更し、処理負荷を制御する。
図14は、図12と同一のセンサ構成、ステレオ視の範囲を範囲53とした設定において、右側のセンサ101が故障した状況での各センサで観測対象物を検出可能な範囲と車両計画判断部31が生成した軌道計画の軌道70を空間上に示した例である。画像処理装置(センサ)100でステレオ視可能な範囲50は、画像処理装置100のカメラ部110で撮像された画像を用いて原理的にステレオ視を実行できる範囲であり、画像処理装置100に要求される処理時間内で実行可能な範囲とは必ずしも一致するものではない。要求される処理時間内で実行可能な範囲は、画像処理装置100の処理性能に依存するため、製品の低コスト化には、ステレオ視可能な範囲50から必要な範囲だけを抽出してステレオ視することが有効である。本実施形態では、画像処理装置100のステレオ視に必要な範囲を適切に決定するのに、前述したように、軌道計画の他に外界検出部11のセンサ構成情報及びセンサ信頼度を用いる。
例えば、センサ101が故障してその信頼度が低下している図14に示した状況では、画像処理装置100(の画像処理制御部150)は、距離検出部130のレジスタ131〜134を設定し、ステレオ視の範囲を図15に示す車両2の進行方向を含む範囲54(詳しくは、ステレオ視可能な範囲50のうちの右端から中央付近の範囲)となるよう変更し、ステレオ視の処理時間を割り振ることで、信頼度の低いセンサ101で検出すべき範囲について信頼度の高い画像処理装置(センサ)100で代替が可能になる。なお、このとき、処理時間を同等とする(換言すれば、増加を抑制する)もしくは低減するために、遠距離の観測対象物については検出対象外とする。また、この場合、図14に示す範囲53(近距離と遠距離とを含む範囲)と図15に示す範囲54(近距離のみを含む範囲)を時系列で(例えば数フレーム毎に)切り替えることで、画像処理装置100にて両方の範囲をステレオ視できるように制御しても良い。
なお、走行中(例えば運転支援や自動運転中)に、車両2の周囲環境等に応じて車両計画判断部31が生成した軌道計画や外界検出部11のセンサ構成情報(検出範囲、分解能等)、センサ信頼度が変更される場合には、車両計画判断部31は、その変更された軌道計画やセンサ構成情報、センサ信頼度に応じた指示情報を外界検出部11へ出力し、外界検出部11の画像処理装置100(の画像処理制御部150)は、その車両計画判断部31の出力する指示情報に基づいてステレオ視の範囲を変更・設定することができる。
図16は、本発明の第3の実施形態に係る車載システム1におけるステレオ視の処理負荷を制御する処理フロー例である。
ステップS300において、車両計画判断部31は、外界認識部21の出力する車両2の周辺環境情報、車両制御部40の出力する車両2の状態情報、外界検出部11のセンサ構成情報、センサ信頼度を取得する。
ステップS301において、車両計画判断部31は、ステップS300で得られた情報から車両2の軌道計画を生成する。
ステップS302において、車両計画判断部31は、ステップS300で得られたセンサ信頼度が閾値以下のセンサの有無を判定する。センサ信頼度が閾値以下のセンサがある場合(ステップS302:Yes)はステップS303へ進み、センサ信頼度が閾値以下のセンサがない場合(ステップS302:No)はステップS305へ進む。
ステップS303において、車両計画判断部31は、センサ信頼度が閾値以下のセンサの検出範囲が、ステレオ視可能な範囲に入っているか否かを判定する。該当センサの検出範囲がステレオ視可能な範囲に入っていれば(ステップS303:Yes)ステップS304へ進み、該当センサの検出範囲がステレオ視可能な範囲に入っていない場合(ステップS303:No)はステップS305へ進む。
ステップS304において、車両計画判断部31は、ステップS301で生成した軌道計画とステップS300で得られた外界検出部11のセンサ構成情報、センサ信頼度から、外界検出部11で実行するステレオ視の範囲を制御する指示情報を決定する。
一方、ステップS305において、車両計画判断部31は、上記第2の実施形態と同様、ステップS301で生成した軌道計画とステップS300で得られた外界検出部11のセンサ構成情報から、外界検出部11で実行するステレオ視の範囲を制御する指示情報を決定する。
ステップS306において、外界検出部11(の画像処理装置100の画像処理制御部150)は、車両計画判断部31が出力する指示情報に基づいて距離検出部130のレジスタ131〜134を設定し、ステレオ視の範囲を変更して、ステレオ視を実行する。
以上で説明したように、本第3の実施形態によれば、車両2に搭載される車載システム1は、車両周辺の観測対象物を検出する外界検出部11と、その検出結果に基づいて車両周辺の状態を認識する外界認識部21と、その認識結果に基づいて車両の軌道計画を生成する車両計画判断部31と、その軌道計画に基づいて車両の挙動を制御する車両制御部40とを備えており、車両計画判断部31で生成した軌道計画と外界検出部11のセンサ構成情報とセンサ信頼度(検出結果に対する信頼度)に基づき、外界検出部11(の画像処理装置100)のステレオ視に必要な範囲を制御することで、処理時間の削減または増加抑制が可能となり、多様なセンサ構成、状態に適した外界検出装置を低コストで提供することができる。
なお、上記実施形態では、車両計画判断部31で生成した軌道計画と外界検出部11のセンサ構成情報とセンサ信頼度を用いて、画像処理装置100のステレオ視に必要な範囲を決定しているが、外界検出部11のセンサ信頼度のみを用いて、画像処理装置100のステレオ視に必要な範囲を決定しても良い。
上述した実施形態は、本発明の説明のための例示であり、本発明の範囲を実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。
なお、本発明は上記した実施形態に限定されるものではなく、様々な変形形態が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1:車載システム
2:車両
10、11:外界検出部
20、21:外界認識部
30、31:車両計画判断部
40:車両制御部
50:ステレオ視可能な範囲
51〜54:変更したステレオ視の範囲
61、62:センサの検出可能な範囲
70:軌道計画の軌道
100:画像処理装置(センサ)
101、102:センサ
110A、110B:カメラ部
120:画像補正部
130:距離検出部
131〜134:レジスタ
135:画素ブロック探索部
136:距離計算部
137:テーブル
140:画像認識部
150:画像処理制御部
2:車両
10、11:外界検出部
20、21:外界認識部
30、31:車両計画判断部
40:車両制御部
50:ステレオ視可能な範囲
51〜54:変更したステレオ視の範囲
61、62:センサの検出可能な範囲
70:軌道計画の軌道
100:画像処理装置(センサ)
101、102:センサ
110A、110B:カメラ部
120:画像補正部
130:距離検出部
131〜134:レジスタ
135:画素ブロック探索部
136:距離計算部
137:テーブル
140:画像認識部
150:画像処理制御部
Claims (7)
- 車両周辺の観測対象物を検出する少なくとも一つのセンサを備える外界検出部と、
前記外界検出部の検出結果に基づいて車両の周辺環境を認識する外界認識部と、
前記外界認識部の認識結果に基づいて車両の軌道計画を生成する車両計画判断部と、
前記車両計画判断部の軌道計画に基づいて車両の挙動を制御する車両制御部と、を有する車載システムであって、
前記外界検出部は、前記センサとしてステレオ視によって観測対象物を検出する画像処理装置を備え、
前記画像処理装置は、前記車両計画判断部の軌道計画、前記外界検出部のセンサ構成情報、又は前記外界検出部の検出結果に対するセンサ信頼度の少なくとも一つに基づいて前記ステレオ視の範囲を変更する、車載システム。 - 請求項1に記載の車載システムであって、
前記車両計画判断部は、前記車両の軌道計画に基づいて指示情報を生成し、前記画像処理装置は、前記車両計画判断部の指示情報に基づいて前記ステレオ視の範囲を変更する車載システム。 - 請求項1に記載の車載システムであって、
前記車両計画判断部は、前記外界検出部の検出範囲に基づいて指示情報を生成し、前記画像処理装置は、前記車両計画判断部の指示情報に基づいて前記ステレオ視の範囲を変更する車載システム。 - 請求項1に記載の車載システムであって、
前記車両計画判断部は、前記外界検出部の検出結果に対するセンサ信頼度に基づいて指示情報を生成し、前記画像処理装置は、前記車両計画判断部の指示情報に基づいて前記ステレオ視の範囲を変更する車載システム。 - 請求項4に記載の車載システムであって、
前記画像処理装置は、前記センサ信頼度が前記画像処理装置より低いセンサの検出範囲を代替するように前記ステレオ視の範囲を変更する車載システム。 - 請求項1に記載の車載システムであって、
前記画像処理装置は、複数の設定値を含むテーブルから所定の設定値を選択することで、前記ステレオ視の範囲を変更する車載システム。 - 車両周辺の観測対象物を検出する少なくとも一つのセンサを備える外界検出部と、
前記外界検出部の検出結果に基づいて車両の周辺環境を認識する外界認識部と、
前記外界認識部の認識結果に基づいて車両の軌道計画を生成する車両計画判断部と、
前記車両計画判断部の軌道計画に基づいて車両の挙動を制御する車両制御部と、を有する車載システムであって、
前記外界検出部は、前記センサとしてステレオ視によって観測対象物を検出する画像処理装置を備え、
前記車両制御部が、前記車両の挙動を制御するとともに、
前記車両計画判断部が、前記車両の軌道計画、前記外界検出部のセンサ構成情報、又は前記外界検出部の検出結果に対するセンサ信頼度の少なくとも一つに基づいて指示情報を生成し、
前記画像処理装置が、前記車両計画判断部の指示情報に基づいて前記ステレオ視の範囲を変更する、車載システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018192881 | 2018-10-11 | ||
JP2018192881 | 2018-10-11 | ||
PCT/JP2019/036911 WO2020075476A1 (ja) | 2018-10-11 | 2019-09-20 | 車載システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2020075476A1 true JPWO2020075476A1 (ja) | 2021-10-07 |
Family
ID=70164262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020550295A Pending JPWO2020075476A1 (ja) | 2018-10-11 | 2019-09-20 | 車載システム |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3865815A4 (ja) |
JP (1) | JPWO2020075476A1 (ja) |
WO (1) | WO2020075476A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230209206A1 (en) * | 2021-12-28 | 2023-06-29 | Rivian Ip Holdings, Llc | Vehicle camera dynamics |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10105863A (ja) * | 1996-09-26 | 1998-04-24 | Oki Electric Ind Co Ltd | 走行路情報収集装置 |
JP2006072757A (ja) * | 2004-09-02 | 2006-03-16 | Toyota Motor Corp | 物体検出装置 |
JP2008298532A (ja) * | 2007-05-30 | 2008-12-11 | Konica Minolta Holdings Inc | 障害物計測方法、障害物計測装置及び障害物計測システム |
JP2012018013A (ja) * | 2010-07-06 | 2012-01-26 | Ricoh Co Ltd | 測距装置及び撮像装置 |
WO2017145945A1 (ja) * | 2016-02-25 | 2017-08-31 | 京セラ株式会社 | ステレオカメラ装置、車両および視差算出方法 |
US20180107225A1 (en) * | 2016-10-17 | 2018-04-19 | Denso International America, Inc. | Sensor System for Vehicle |
WO2019073526A1 (ja) * | 2017-10-10 | 2019-04-18 | 日産自動車株式会社 | 運転制御方法及び運転制御装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5172314B2 (ja) * | 2007-12-14 | 2013-03-27 | 日立オートモティブシステムズ株式会社 | ステレオカメラ装置 |
JP2011013064A (ja) * | 2009-07-01 | 2011-01-20 | Nikon Corp | 位置検出装置 |
JP2017129543A (ja) | 2016-01-22 | 2017-07-27 | 京セラ株式会社 | ステレオカメラ装置及び車両 |
JP6936557B2 (ja) * | 2016-05-16 | 2021-09-15 | 日立Astemo株式会社 | 探索処理装置、及びステレオカメラ装置 |
-
2019
- 2019-09-20 EP EP19870226.8A patent/EP3865815A4/en not_active Withdrawn
- 2019-09-20 JP JP2020550295A patent/JPWO2020075476A1/ja active Pending
- 2019-09-20 WO PCT/JP2019/036911 patent/WO2020075476A1/ja unknown
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10105863A (ja) * | 1996-09-26 | 1998-04-24 | Oki Electric Ind Co Ltd | 走行路情報収集装置 |
JP2006072757A (ja) * | 2004-09-02 | 2006-03-16 | Toyota Motor Corp | 物体検出装置 |
JP2008298532A (ja) * | 2007-05-30 | 2008-12-11 | Konica Minolta Holdings Inc | 障害物計測方法、障害物計測装置及び障害物計測システム |
JP2012018013A (ja) * | 2010-07-06 | 2012-01-26 | Ricoh Co Ltd | 測距装置及び撮像装置 |
WO2017145945A1 (ja) * | 2016-02-25 | 2017-08-31 | 京セラ株式会社 | ステレオカメラ装置、車両および視差算出方法 |
US20180107225A1 (en) * | 2016-10-17 | 2018-04-19 | Denso International America, Inc. | Sensor System for Vehicle |
WO2019073526A1 (ja) * | 2017-10-10 | 2019-04-18 | 日産自動車株式会社 | 運転制御方法及び運転制御装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2020075476A1 (ja) | 2020-04-16 |
EP3865815A4 (en) | 2022-07-13 |
EP3865815A1 (en) | 2021-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10387733B2 (en) | Processing apparatus, processing system, and processing method | |
JP2021192303A (ja) | ライダー支援システム及び方法 | |
WO2017145543A1 (ja) | 情報処理装置 | |
US10562439B2 (en) | Techniques for optimizing vehicle headlights based on situational awareness | |
JP6623311B2 (ja) | 制御装置及び制御方法 | |
JP4877364B2 (ja) | 物体検出装置 | |
CN103874931A (zh) | 用于求取车辆的环境中的对象的位置的方法和设备 | |
JPWO2019043847A1 (ja) | 走行制御装置、車両および走行制御方法 | |
JP2015153295A (ja) | 外界認識システム、車両、及びカメラの汚れ検出方法 | |
JP2018537329A (ja) | 車両の車両周辺部における覆い隠された領域を割り出すための方法と装置 | |
WO2013035828A1 (ja) | 車両の旋回を予測する装置及び方法 | |
JP2019046150A (ja) | 走行支援装置 | |
JP7042185B2 (ja) | 距離算出装置 | |
JP2019146012A (ja) | 撮像装置 | |
JP2011253222A (ja) | 前方領域検出装置及び車両制御装置 | |
US20200118280A1 (en) | Image Processing Device | |
JPWO2020075476A1 (ja) | 車載システム | |
JP2017129543A (ja) | ステレオカメラ装置及び車両 | |
JP6656129B2 (ja) | 画像処理装置、撮像装置 | |
CN114868381A (zh) | 图像处理装置、图像处理方法以及程序 | |
JP6867257B2 (ja) | 車両制御装置、車両、車両制御方法およびプログラム | |
JP2018136917A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6941677B2 (ja) | 画像認識装置 | |
JP7554699B2 (ja) | 画像処理装置および画像処理方法、車両用制御装置、プログラム | |
JP2019219816A (ja) | 画像処理装置および車両用灯具 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220527 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220927 |