JP2022002041A - Environment recognition device, environment recognition method, and environment recognition program - Google Patents
Environment recognition device, environment recognition method, and environment recognition program Download PDFInfo
- Publication number
- JP2022002041A JP2022002041A JP2020107108A JP2020107108A JP2022002041A JP 2022002041 A JP2022002041 A JP 2022002041A JP 2020107108 A JP2020107108 A JP 2020107108A JP 2020107108 A JP2020107108 A JP 2020107108A JP 2022002041 A JP2022002041 A JP 2022002041A
- Authority
- JP
- Japan
- Prior art keywords
- weight
- detection information
- scene
- information
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000001514 detection method Methods 0.000 claims abstract description 160
- 230000008569 process Effects 0.000 claims description 31
- 238000013459 approach Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 abstract description 14
- 238000007499 fusion processing Methods 0.000 abstract description 13
- 230000002093 peripheral effect Effects 0.000 description 12
- 230000008859 change Effects 0.000 description 8
- 230000009467 reduction Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
この明細書における開示は、車両の外界を認識する技術に関する。 The disclosure herein relates to a technique for recognizing the outside world of a vehicle.
特許文献1には、車両の周辺の物体を認識する装置が開示されている。この装置は、カメラ、レーダ装置、およびLiDARの検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。 Patent Document 1 discloses a device for recognizing an object around a vehicle. This device performs sensor fusion processing on the detection results of the camera, radar device, and LiDAR, and recognizes the position, type, speed, and the like of the object.
特許文献1の装置は、センサフュージョン処理に影響を及ぼす要因について考慮されていない。このため、センサフュージョン処理による認識結果の正確性が損なわれる虞があった。 The apparatus of Patent Document 1 does not consider factors that affect the sensor fusion process. Therefore, there is a risk that the accuracy of the recognition result by the sensor fusion processing will be impaired.
開示される目的は、センサフュージョン処理によって外界をより正確に認識可能な外界認識装置、外界認識方法、および外界認識プログラムを提供することである。 It is an object of the disclosure to provide an outside world recognition device, an outside world recognition method, and an outside world recognition program capable of more accurately recognizing the outside world by sensor fusion processing.
この明細書に開示された複数の態様は、それぞれの目的を達成するために、互いに異なる技術的手段を採用する。また、特許請求の範囲およびこの項に記載した括弧内の符号は、ひとつの態様として後述する実施形態に記載の具体的手段との対応関係を示す一例であって、技術的範囲を限定するものではない。 The plurality of embodiments disclosed herein employ different technical means to achieve their respective objectives. Further, the scope of claims and the reference numerals in parentheses described in this section are examples showing the correspondence with the specific means described in the embodiment described later as one embodiment, and limit the technical scope. is not it.
開示された外界認識装置のひとつは、検出範囲が少なくとも一部重複する複数種類のセンサ(10)を搭載した車両(A)の外界を認識する外界認識装置であって、
複数種類のセンサからそれぞれ検出情報を取得する取得部(110)と、
検出範囲の重複部分に関する各検出情報に対して、車両の走行シーンに応じた重みを設定する設定部(130)と、
重みを設定された各検出情報を統合して外界の認識情報を生成する生成部(140)と、
を備える。
One of the disclosed outside world recognition devices is an outside world recognition device that recognizes the outside world of a vehicle (A) equipped with a plurality of types of sensors (10) having at least a partially overlapping detection range.
An acquisition unit (110) that acquires detection information from multiple types of sensors,
A setting unit (130) that sets weights according to the driving scene of the vehicle for each detection information regarding the overlapping portion of the detection range, and
A generator (140) that integrates each weighted detection information to generate recognition information for the outside world, and
To prepare for.
開示された外界認識方法のひとつは、検出範囲が少なくとも一部重複する複数種類のセンサ(10)を搭載した車両(A)の外界を認識するために、プロセッサ(102)により実行される外界認識方法であって、
複数種類のセンサからそれぞれ検出情報を取得する取得プロセス(S10)と、
検出範囲の重複部分に関する各検出情報に対して、車両の走行シーンに応じた重みを設定する設定プロセス(S30)と、
重みを設定された各検出情報を統合して外界の認識情報を生成する生成プロセス(S40)と、
を含む。
One of the disclosed external world recognition methods is external world recognition performed by a processor (102) in order to recognize the outside world of a vehicle (A) equipped with a plurality of types of sensors (10) having at least partially overlapping detection ranges. It ’s a method,
The acquisition process (S10) for acquiring detection information from multiple types of sensors,
A setting process (S30) for setting weights according to the driving scene of the vehicle for each detection information regarding the overlapping portion of the detection range, and
A generation process (S40) that integrates each weighted detection information to generate recognition information for the outside world, and
including.
開示された外界認識プログラムのひとつは、検出範囲が少なくとも一部重複する複数種類のセンサ(10)を搭載した車両(A)の外界を認識するために、記憶媒体(101)に格納され、プロセッサ(102)に実行させる命令を含む外界認識プログラムであって、
命令は、
複数種類のセンサからそれぞれ検出情報を取得させる取得プロセス(S10)と、
検出範囲の重複部分に関する各検出情報に対して、車両の走行シーンに応じた重みを設定させる設定プロセス(S30)と、
重みを設定された各検出情報を統合して外界の認識情報を生成させる生成プロセス(S40)と、
を含む
これらの開示によれば、複数種類のセンサから検出情報が取得されると、検出範囲の重複部分に関する各検出情報に対して車両の走行シーンに応じた重みが設定される。そして、重みの設定された各検出情報が統合されて、認識情報が生成される。故に、走行シーンを考慮したセンサフュージョン処理により、外界の認識情報が生成される。以上により、センサフュージョン処理によって外界をより正確に認識可能な外界認識装置、外界認識方法、および外界認識プログラムが提供され得る。
One of the disclosed outside world recognition programs is stored in a storage medium (101) and a processor in order to recognize the outside world of a vehicle (A) equipped with a plurality of types of sensors (10) having at least a partially overlapping detection range. An external recognition program including an instruction to be executed by (102).
The order is
The acquisition process (S10) for acquiring detection information from multiple types of sensors,
A setting process (S30) for setting weights according to the driving scene of the vehicle for each detection information regarding the overlapping portion of the detection range, and
A generation process (S40) that integrates each weighted detection information to generate recognition information of the outside world, and
According to these disclosures including, when the detection information is acquired from a plurality of types of sensors, a weight is set for each detection information regarding the overlapping portion of the detection range according to the driving scene of the vehicle. Then, each detection information for which the weight is set is integrated to generate recognition information. Therefore, the recognition information of the outside world is generated by the sensor fusion processing in consideration of the driving scene. As described above, it is possible to provide an outside world recognition device, an outside world recognition method, and an outside world recognition program capable of more accurately recognizing the outside world by sensor fusion processing.
(第1実施形態)
第1実施形態の外界認識装置100について、図1〜図5を参照しながら説明する。外界認識装置100は、車両Aに搭載された電子制御装置である。外界認識装置100は、車両Aの外界を認識する。外界認識装置100は、周辺監視センサ10、ロケータ20、照度センサ30、ボディECU40および自動運転ECU50と、通信バス等を介して接続されている。
(First Embodiment)
The external
周辺監視センサ10は、車両Aの周辺環境を監視する自律センサである。周辺監視センサ10は、例えばカメラ11、LiDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)12およびミリ波レーダ13を含んでいる。
The
カメラ11は、検出範囲を撮像した画像データを検出情報として出力する。カメラ11は、例えば図3にて点線で示すように、車両Aの前方範囲、前側方範囲および後方範囲を検出範囲とするように複数設けられている。画像データは、検出範囲の外光の強度情報を少なくとも含んでいる。
The
LiDAR12は、レーザ光を照射し、その反射光を検出するレーザレーダである。LiDAR12は、反射光の受信データを解析することで、レーザ光が反射された各反射点までの距離および各反射点における反射強度の少なくとも一方を含む点群データを、検出情報として出力する。LiDAR12は、例えば、図3にて破線で示すように、車両Aの周囲全周を検出範囲とする。したがって、LiDAR12の検出範囲は、カメラ11および後述のミリ波レーダ13の検出範囲と少なくとも一部重複する。
The LiDAR 12 is a laser radar that irradiates a laser beam and detects the reflected light. By analyzing the received data of the reflected light, the LiDAR 12 outputs point group data including at least one of the distance to each reflection point where the laser light is reflected and the reflection intensity at each reflection point as detection information. The LiDAR 12 has, for example, the entire circumference of the vehicle A as a detection range, as shown by a broken line in FIG. Therefore, the detection range of LiDAR 12 overlaps at least partially with the detection range of the
ミリ波レーダ13は、ミリ波または準ミリ波を照射し、物体で反射された反射波を検出する電波レーダである。ミリ波レーダ13は、反射波の受信データを解析することで、車両Aに対する物体の位置および相対速度に関する情報を、検出情報として出力する。ミリ波レーダ13は、水平方向位置、奥行方向位置、および高さ方向位置の三次元位置を検出可能であるとする。ミリ波レーダ13は、例えば、図3にて一点鎖線で示すように、車両Aの前側方範囲および後側方範囲を検出範囲とする。ミリ波レーダ13の検出範囲は、カメラ11およびLiDAR12の検出範囲と、少なくとも一部重複する。
The
ロケータ20は、複数の取得情報を組み合わせる複合測位により、自車位置情報等を生成する。ロケータ20は、GNSS(Global Navigation Satellite System)受信機21、慣性センサ22、地図DB23、およびロケータECU24を備えている。GNSS受信機21は、複数の測位衛星からの測位信号を受信する。慣性センサ22は、車両Aに作用する慣性力を検出するセンサである。慣性センサは、例えばジャイロセンサおよび加速度センサを備える。
The
地図DB23は、不揮発性メモリであって、リンクデータ、ノードデータ、道路形状、構造物等の地図データを格納している。地図データは、道路形状および構造物の特徴点の点群からなる三次元地図であってもよい。なお、三次元地図は、REM(Road Experience Management)によって撮像画像をもとに生成されたものであってもよい。また、地図データには、交通規制情報、道路工事情報、気象情報、および信号情報等が含まれていてもよい。地図DB23に格納された地図データは、車載通信器にて受信される最新の情報に基づいて、定期的または随時に更新される。 The map DB 23 is a non-volatile memory and stores map data such as link data, node data, road shape, and structures. The map data may be a three-dimensional map composed of point clouds of road shapes and feature points of structures. The three-dimensional map may be generated based on the captured image by REM (Road Experience Management). Further, the map data may include traffic regulation information, road construction information, meteorological information, signal information and the like. The map data stored in the map DB 23 is updated regularly or at any time based on the latest information received by the in-vehicle communication device.
ロケータECU24は、プロセッサ、メモリ、入出力インターフェース、およびこれらを接続するバス等を備えたマイクロコンピュータを主体として含む構成である。ロケータECU24は、GNSS受信機21で受信する測位信号、地図DB23の地図データ、および慣性センサ22の計測結果を組み合わせることにより、車両Aの位置(以下、自車位置)を逐次測位する。自車位置は、例えば緯度経度の座標で表される構成とすればよい。なお、自車位置の測位には、車両Aに搭載された車速センサから逐次出力される信号から求めた走行距離を用いる構成としてもよい。地図データとして、道路形状および構造物の特徴点の点群からなる3次元地図を用いる場合、ロケータは、GNSS受信機を用いずに、この3次元地図と、周辺監視センサでの検出結果とを用いて、自車位置を特定する構成としてもよい。
The locator ECU 24 is configured mainly to include a microcomputer provided with a processor, a memory, an input / output interface, a bus connecting them, and the like. The
照度センサ30は、車両周辺の明るさ、特に照度を検出するセンサである。照度センサ30は、検出した照度を、車両A周辺の明るさ情報として、外界認識装置100に逐次提供する。
The
ボディECU40は、車両Aに搭載されたボディ系の車載機器を統合的に制御するECUである。ボディECU40は、ヘッドライト装置41と通信可能に接続されている。ヘッドライト装置41は、前照灯と、当該前照灯を制御する制御回路とを備えており、ボディECU40からの制御信号に応じて前照灯の点灯状態を制御する。
The
ボディECU40は、運転席乗員によるライトスイッチの操作や、照度センサ30の検出値、または自動運転ECUからの指令に基づき、ヘッドライト装置41の動作を制御する制御信号をヘッドライト装置41に出力する。例えば、ボディECU40は、照度センサ30の検出値が閾値を下回ると、前照灯の点灯を指示する制御信号を出力する。
The
自動運転ECU50は、プロセッサ、メモリ、入出力インターフェース、およびこれらを接続するバス等を備えたコンピュータを主体として含む構成である。自動運転ECU50は、外界認識装置100からの認識情報等に基づいて、車両の走行軌道を生成し、車両Aの自動運転を実行する。
The
外界認識装置100は、上述の周辺監視センサ10からの情報に基づき、車両Aの外界、すなわち走行環境を認識する。外界認識装置100は、メモリ101、プロセッサ102、入出力インターフェース、およびこれらを接続するバス等を備えたコンピュータを主体として含む構成である。プロセッサ102は、演算処理のためのハードウェアである。プロセッサ102は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)およびRISC(Reduced Instruction Set Computer)−CPU等のうち、少なくとも一種類をコアとして含む。
The outside
メモリ101は、コンピュータにより読み取り可能なプログラムおよびデータ等を非一時的に格納または記憶する、例えば半導体メモリ、磁気媒体および光学媒体等のうち、少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。メモリ101は、後述の外界認識プログラム等、プロセッサ102によって実行される種々のプログラムを格納している。
The
プロセッサ102は、メモリ101に格納された外界認識プログラムに含まれる複数の命令を、実行する。これにより外界認識装置100は、外界を認識するための機能部を、複数構築する。このように外界認識装置100では、メモリ101に格納されたプログラムが複数の命令をプロセッサ102に実行させることで、複数の機能部が構築される。具体的に、外界認識装置100には、図2に示すように、検出情報取得部110、走行シーン判定部120、重み設定部130および認識情報生成部140等の機能部が構築される。
The
検出情報取得部110は、周辺監視センサ10から検出情報を取得する。具体的には、検出情報取得部110は、カメラ11から検出範囲の撮像画像を検出情報として取得し、LiDAR12から点群データを検出情報として取得し、ミリ波レーダから物体の相対位置および相対速度に関するデータを検出情報として取得する。
The detection
走行シーン判定部120は、検出情報取得部110からの各検出情報、ロケータECUからの地図情報、ボディECU40からのヘッドライト装置41の制御情報等に基づいて、車両Aの走行シーンを判定する。具体的には、走行シーン判定部120は、現在の走行シーンが、各周辺監視センサ10のうち特定センサの信頼度が低下する複数の特定シーンのいずれかに該当するか否かを判定する。
The traveling
特定シーンには、明所領域から暗所領域へと進入した直後の重み調整期間を走行しているシーン(明るさ低下シーン)が含まれる。ここで、暗所領域は、明所領域よりも車両A周囲の明るさ(照度)が小さいと推定される領域である。暗所領域には、トンネル内、高架下、地下道、山肌の近傍等、日射を遮る構造物である遮光構造物によって暗所となると推定される領域が含まれる。また、重み調整期間とは、例えば、暗所領域へと進入してからヘッドライト装置41が点灯するまでの期間である。走行シーン判定部120は、ミリ波レーダ13による構造物の検出情報に基づいて、暗所領域への進入を判断すればよい。例えば、走行シーン判定部120は、直上に遮光構造物が存在する領域を、暗所領域であると判断してもよいし、遮光構造物の構造および日射の進入等を考慮して暗所領域を推定してもよい。また、走行シーン判定部120は、ボディECU40によるヘッドライト装置41の制御情報に基づいて、重み調整期間であるか否かを判定すればよい。
The specific scene includes a scene (brightness reduction scene) running during the weight adjustment period immediately after entering the dark area from the bright area. Here, the dark area is an area in which the brightness (illuminance) around the vehicle A is estimated to be smaller than the bright area. The dark area includes an area that is presumed to be a dark place due to a light-shielding structure that blocks sunlight, such as inside a tunnel, under an elevated structure, an underpass, and the vicinity of a mountain surface. Further, the weight adjustment period is, for example, a period from entering the dark area to turning on the
さらに、特定シーンには、暗所領域から明所領域へと進入した直後のシーン(明るさ上昇シーン)が含まれる。走行シーン判定部120は、明るさ低下シーンと同様に、ミリ波レーダ13による構造物の検出情報に基づいて、明所領域への進入を判断すればよい。明るさ上昇シーンは、「明所進入シーン」の一例である。
Further, the specific scene includes a scene (brightness increase scene) immediately after entering the bright area from the dark area. Similar to the brightness reduction scene, the traveling
また、特定シーンには、側壁を設けられた道路におけるカーブ区間を走行する側壁カーブシーンがさらに含まれる。ここで、側壁を設けられた道路とは、トンネル内の道路や地下道等である。走行シーン判定部120は、カメラ11またはLiDAR12の検出情報や、地図情報に基づいて、側壁カーブシーンであるか否かを判断すればよい。
Further, the specific scene further includes a side wall curve scene traveling on a curve section on a road provided with a side wall. Here, the road provided with the side wall is a road in a tunnel, an underpass, or the like. The traveling
さらに、特定シーンには、降雪シーンが含まれる。走行シーン判定部120は、例えば、LiDAR12からの検出情報に基づいて、積雪が有ると推定できる場合に降雪シーンであると判定すればよい。具体的には、走行シーン判定部120は、LiDAR12により走行区画線が検出されなくなった場合に、積雪が有ると推定する。なお、走行シーン判定部120は、他のセンサからの検出情報を複合して、積雪の有無を判定してもよい。例えば交通センタ等から配信される気象情報に基づいて、降雪シーンであるか否かを判断すればよい。
Further, the specific scene includes a snowfall scene. The traveling
加えて、特定シーンには、電磁波の多重反射に関する特定の電磁波条件が成立する多重反射シーンが含まれる。ここで、電磁波条件は、LiDAR12およびミリ波レーダ13の多重反射の度合が許容範囲外となる場合に成立する。例えば、走行シーン判定部120は、車両Aの側方にガードレール等の金属製の構造物が存在し、且つ車両Aの前方に他車両が存在する場合に、電磁波条件の成立判定を下す。
In addition, the specific scene includes a multiple reflection scene in which a specific electromagnetic wave condition relating to the multiple reflection of the electromagnetic wave is satisfied. Here, the electromagnetic wave condition is satisfied when the degree of multiple reflection of the
また、特定シーンには、外界の実景を映す反射物に関する特定の実景反射条件が成立する実景反射シーンが含まれる。実景反射条件は、カメラ11の撮像範囲に、実景を映す反射物が存在すると推定される場合に成立する。実景を映す反射物は、建造物におけるガラス張りの外壁等である。走行シーン判定部120は、例えば、LiDAR12の点群データおよび地図情報に基づいて、反射物の有無を判断する。
Further, the specific scene includes a real scene reflection scene in which a specific real scene reflection condition regarding a reflective object reflecting a real scene of the outside world is satisfied. The actual scene reflection condition is satisfied when it is estimated that a reflective object reflecting the actual scene exists in the imaging range of the
走行シーン判定部120は、現在の走行シーンが以上に説明した複数の特定シーンのうちいずれかに該当するか否かを判定し、その判定結果を重み設定部130へと逐次提供する。
The traveling
重み設定部130は、走行シーン判定部120での判定結果に基づいて、各検出情報に重みを設定する。重み設定部130は、走行シーンが特定シーンに該当すると判定されると、各周辺監視センサ10の検出情報のそれぞれに対して、規定された大小関係の重みを設定する。
The
詳記すると、重み設定部130は、明るさ低下シーンにおいて、LiDAR12の検出情報の重みを、カメラ11およびミリ波レーダ13の検出情報の重みよりも大きく設定する(図4参照)。また、重み設定部130は、明るさ上昇シーンおよび降雪シーンにおいて、カメラ11の検出情報の重みを、LiDAR12およびミリ波レーダ13の検出情報の重みよりも小さく設定する(図4参照)。加えて、重み設定部130は、および降雪シーンにおいて、LiDAR12の検出情報の重みをミリ波レーダ13の検出情報の重みよりも大きく設定する。
More specifically, the
重み設定部130は、明るさ低下シーンまたは明るさ上昇シーンへの走行シーンの変化タイミングを、ミリ波レーダ13からの検出情報に基づいて判断する。具体的には、重み設定部130は、明るさ低下シーンへの変化タイミングを、ミリ波レーダ13により検出された遮光構造物の位置情報に基づく、当該遮光構造物の遮光範囲への進入タイミングとする。なお、重み設定部130は、遮光範囲を単に遮光構造物の存在領域としてもよいし、照度情報等の他の情報との組み合わせにより決定してもよい。そして、重み設定部130は、明るさ上昇シーンへの変化タイミングを、遮光構造物の遮光範囲からの退出タイミングとする。重み設定部130は、判断した変化タイミングにて、各検出情報に適用される重みを変更する。
The
また、重み設定部130は、降雪シーンへの走行シーンの変化を、LiDAR12からの検出情報に基づいて判断する。具体的には、重み設定部130は、LiDAR12による走行区画線の非検出範囲を、積雪により走行区画線が埋もれた積雪範囲と推定し、当該積雪範囲への進入タイミングを、降雪シーンへの変化タイミングとする。重み設定部130は、判断した変化タイミングにて、各検出情報に適用される重みを変更する。
Further, the
なお、重み設定部130は、明るさ低下シーンおよび明るさ上昇シーンにおいて、各検出情報の重みの大きいさを、照度センサ30からの照度情報に基づいて決定する。具体的には、重み設定部130は、明るさ低下シーンにおいて、明所領域と暗所領域との間の照度の差異が大きいほど、LiDAR12の検出情報の重みを、カメラ11およびミリ波レーダ13の検出情報の重みに対してより大きく設定する。また、重み設定部130は、明るさ上昇シーンにおいて、明所領域と暗所領域との間の照度の差異が大きいほど、カメラ11の検出情報の重みを、LiDAR12およびミリ波レーダ13の検出情報の重みに対してより小さく設定する。
The
さらに、重み設定部130は、側壁カーブシーンにおいて、検出情報の重みを、大きい順からLiDAR12、カメラ11、ミリ波レーダ13と設定する。すなわち、側壁カーブシーンでは、ミリ波レーダ13の検出情報の重みがカメラ11およびLiDAR12の検出情報の重みよりも小さく設定される(図4参照)。
Further, the
重み設定部130は、多重反射シーンにおいて、カメラ11の検出情報の重みを、LiDAR12およびミリ波レーダ13の検出情報の重みよりも大きく設定する。加えて、重み設定部130は、多重反射シーンにおいて、LiDAR12の検出情報の重みを、ミリ波レーダ13の検出情報の重みよりも大きく設定する。
The
また、重み設定部130は、実景反射シーンにおいて、カメラ11の検出情報の重みを、LiDAR12およびミリ波レーダ13の検出情報の重みよりも小さく設定する。
Further, the
なお、重み設定部130は、特定センサの信頼度が低下するシーンのいずれにも現在の走行シーンが該当しないと判定された場合には、いずれの検出情報に対しても重みの設定を中止する。
If it is determined that the current driving scene does not correspond to any of the scenes in which the reliability of the specific sensor is lowered, the
認識情報生成部140は、重みを設定された各検出情報を統合するセンサフュージョン処理により、外界の認識情報を生成する。認識情報生成部140は、例えば、検出した各物体の種別、位置、形状、大きさ、相対速度等を、認識情報として生成する。認識情報生成部140は、生成した認識情報を、自動運転ECU50へと逐次提供する。
The recognition
次に、機能ブロックの共同により、外界認識装置100が実行する外界認識方法のフローを、図5に従って以下に説明する。なお、後述するフローにおいて「S」とは、プログラムに含まれた複数命令によって実行される、フローの複数ステップを意味する。
Next, the flow of the external world recognition method executed by the external
まずS10では、検出情報取得部110が、各周辺監視センサ10からの検出情報を取得する。次に、S20では、走行シーン判定部120が、現在の走行シーンについて特定シーンのうちいずれかに該当するか否かを判定する。続くS30では、重み設定部130が、判定結果に基づいて各検出情報の重みを設定する。さらに、S40では、認識情報生成部140が、重みを設定された各検出情報を統合して認識情報を生成、出力した後、一連の処理を終了する。
First, in S10, the detection
なお、上述のS10が「取得プロセス」、S30が「設定プロセス」、S20が「判定プロセス」、S40が「生成プロセス」の一例である。 The above-mentioned S10 is an example of the "acquisition process", S30 is an example of the "setting process", S20 is an example of the "determination process", and S40 is an example of the "generation process".
次に第1実施形態のもたらす作用効果について説明する。 Next, the action and effect brought about by the first embodiment will be described.
第1実施形態によれば、複数種類の周辺監視センサ10から検出情報が取得されると、検出範囲の重複部分に関する各検出情報に対して車両Aの走行シーンに応じた重みが設定される。そして、重みの設定された各検出情報が統合されて、認識情報が生成される。故に、走行シーンを考慮したセンサフュージョン処理により、外界の認識情報が生成される。以上により、センサフュージョン処理によって外界をより正確に認識可能となる。
According to the first embodiment, when the detection information is acquired from the plurality of types of
また、第1実施形態によれば、明所領域から暗所領域へと進入した直後の重み調整期間において、LiDAR12による検出情報の重みがカメラ11による検出情報の重みよりも大きく設定される。故に、明所領域から暗所領域へと進入した直後において、明るさの変化によって信頼度が低下し得るカメラ11の検出情報よりも、LiDAR12の検出情報の方が、認識情報の生成においてより重視され得る。したがって、センサフュージョン処理によって外界をより正確に認識可能となる。
Further, according to the first embodiment, the weight of the detection information by the
さらに、第1実施形態によれば、暗所領域から明所領域へと進入した直後のシーンにおいて、カメラ11による検出情報の重みがLiDAR12による検出情報の重みよりも小さく設定される。この場合においても、明るさの変化によって信頼度が低下し得るカメラ11の検出情報よりも、LiDAR12の検出情報の方が、認識情報の生成においてより重視され、センサフュージョン処理による外界認識が一層正確になり得る。
Further, according to the first embodiment, in the scene immediately after entering the bright area from the dark area, the weight of the detection information by the
また、第1実施形態によれば、側壁を設けられた道路におけるカーブ区間を走行する側壁カーブシーンにおいて、ミリ波レーダ13による検出情報の重みが最も小さく設定される。故に、ミリ波レーダ13が側壁を移動体として誤検知し得る側壁カーブシーンにおいて、外界認識がより一層正確になり得る。
Further, according to the first embodiment, the weight of the detection information by the
加えて、第1実施形態によれば、電磁波の多重反射に関する特定の電磁波条件が成立する走行シーンである場合には、カメラ11による検出情報の重みが、LiDAR12およびミリ波レーダ13による検出情報の重みよりも大きく設定される。故に、電磁波条件が成立する走行シーンにおいて、照射した電磁波の反射波による検出を行うLiDAR12およびミリ波レーダ13の検出情報よりも、カメラ11の検出情報がより重視され得る。これにより、センサフュージョン処理によって外界を一層正確に認識可能となる。
In addition, according to the first embodiment, in the case of a traveling scene in which a specific electromagnetic wave condition relating to multiple reflection of electromagnetic waves is satisfied, the weight of the detection information by the
また、第1実施形態によれば、外界の実景を映す反射物に関する特定の実景反射条件が成立する走行シーンである場合には、カメラ11による検出情報の重みが、LiDARおよびミリ波レーダ13による検出情報の重みよりも小さく設定される。故に、実景反射条件が成立する走行シーンにおいて、撮像する実景の反射により誤検出が発生し得るカメラ11の検出情報よりも、LiDARおよびミリ波レーダ13の検出情報がより重視され得る。したがって、実景反射条件が成立する走行シーンにおいて外界を一層正確に認識可能となる
Further, according to the first embodiment, in the case of a traveling scene in which a specific actual scene reflection condition regarding a reflecting object reflecting a real scene of the outside world is satisfied, the weight of the detection information by the
(他の実施形態)
この明細書における開示は、例示された実施形態に制限されない。開示は、例示された実施形態と、それらに基づく当業者による変形態様を包含する。例えば、開示は、実施形態において示された部品および/または要素の組み合わせに限定されない。開示は、多様な組み合わせによって実施可能である。開示は、実施形態に追加可能な追加的な部分をもつことができる。開示は、実施形態の部品および/または要素が省略されたものを包含する。開示は、ひとつの実施形態と他の実施形態との間における部品および/または要素の置き換え、または組み合わせを包含する。開示される技術的範囲は、実施形態の記載に限定されない。開示されるいくつかの技術的範囲は、特許請求の範囲の記載によって示され、さらに特許請求の範囲の記載と均等の意味及び範囲内での全ての変更を含むものと解されるべきである。
(Other embodiments)
The disclosure herein is not limited to the exemplary embodiments. Disclosures include exemplary embodiments and modifications by those skilled in the art based on them. For example, the disclosure is not limited to the parts and / or combinations of elements shown in the embodiments. Disclosure can be carried out in various combinations. The disclosure can have additional parts that can be added to the embodiment. Disclosures include those in which the parts and / or elements of the embodiment are omitted. Disclosures include the replacement or combination of parts and / or elements between one embodiment and another. The technical scope disclosed is not limited to the description of the embodiments. Some technical scopes disclosed are indicated by the description of the scope of claims and should be understood to include all modifications within the meaning and scope equivalent to the description of the scope of claims. ..
上述の実施形態において、検出情報取得部110は、3種類の周辺監視センサ10、すなわちカメラ11、LiDAR12およびミリ波レーダ13からの検出情報を取得するとした。これに代えて、検出情報取得部110は、上述したうちの2種類の検出情報のみを取得する構成であってもよい。
In the above-described embodiment, the detection
上述の実施形態において、走行シーン判定部120は、ミリ波レーダ13にて検出された遮光構造物の検出情報に基づいて、走行シーンが明るさ低下シーンまたは明るさ上昇シーンであるか否かを判断するとした。これに代えて、走行シーン判定部120は、照度センサ30にて検出された照度に基づいて、走行シーンが明るさ低下シーンまたは明るさ上昇シーンであるか否かを判断してもよい。例えば、走行シーン判定部120は、照度が許容範囲内から許容範囲を下回る値に低下した場合に、走行シーンが明るさ低下シーンであると判断してよい。また、走行シーン判定部120は、照度が許容範囲を下回る状態から許容範囲内へと上昇した場合に、走行シーンが明るさ上昇シーンであると判断してよい。
In the above-described embodiment, the traveling
外界認識装置100は、デジタル回路およびアナログ回路のうち少なくとも一方をプロセッサとして含んで構成される、専用のコンピュータであってもよい。ここで特にデジタル回路とは、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、SOC(System on a Chip)、PGA(Programmable Gate Array)、およびCPLD(Complex Programmable Logic Device)等のうち、少なくとも一種類である。またこうしたデジタル回路は、プログラムを格納したメモリを、備えていてもよい。
The external
外界認識装置100は、1つのコンピュータ、またはデータ通信装置によってリンクされた一組のコンピュータ資源によって提供され得る。例えば、上述の実施形態における外界認識装置100の提供する機能の一部は、他のECUによって実現されてもよい。
The
10 周辺監視センサ(センサ)、 100 外界認識装置、 101 メモリ(記憶媒体)、 102 プロセッサ、 110 検出情報取得部(取得部)、 120 走行シーン判定部(判定部)、 130 重み設定部(設定部)、 140 認識情報生成部(生成部)、 A 車両、 S10 取得プロセス、 S30 設定プロセス、 S40 生成プロセス。 10 Peripheral monitoring sensor (sensor), 100 External recognition device, 101 Memory (storage medium), 102 processor, 110 Detection information acquisition unit (acquisition unit), 120 Driving scene determination unit (judgment unit), 130 Weight setting unit (setting unit) ), 140 recognition information generation unit (generation unit), A vehicle, S10 acquisition process, S30 setting process, S40 generation process.
Claims (25)
複数種類の前記センサからそれぞれ検出情報を取得する取得部(110)と、
前記検出範囲の重複部分に関する各前記検出情報に対して、前記車両の走行シーンに応じた重みを設定する設定部(130)と、
重みを設定された各前記検出情報を統合して前記外界の認識情報を生成する生成部(140)と、
を備える外界認識装置。 An outside world recognition device that recognizes the outside world of a vehicle (A) equipped with a plurality of types of sensors (10) having at least a partially overlapping detection range.
An acquisition unit (110) that acquires detection information from each of the plurality of types of sensors, and
A setting unit (130) for setting a weight according to a driving scene of the vehicle for each detection information regarding the overlapping portion of the detection range, and a setting unit (130).
A generation unit (140) that integrates each of the weighted detection information to generate the recognition information of the outside world, and
External recognition device equipped with.
複数種類の前記センサからそれぞれ検出情報を取得する取得プロセス(S10)と、
前記検出範囲の重複部分に関する各前記検出情報に対して、前記車両の走行シーンに応じた重みを設定する設定プロセス(S30)と、
重みを設定された各前記検出情報を統合して前記外界の認識情報を生成する生成プロセス(S40)と、
を含む外界認識方法。 An outside world recognition method executed by a processor (102) in order to recognize the outside world of a vehicle (A) equipped with a plurality of types of sensors (10) having at least a partially overlapping detection range.
The acquisition process (S10) for acquiring detection information from each of the plurality of types of sensors,
A setting process (S30) for setting a weight according to a driving scene of the vehicle for each detection information regarding the overlapping portion of the detection range.
A generation process (S40) that integrates each of the weighted detection information to generate the recognition information of the outside world, and
External recognition methods including.
前記命令は、
複数種類の前記センサからそれぞれ検出情報を取得させる取得プロセス(S10)と、
前記検出範囲の重複部分に関する各前記検出情報に対して、前記車両の走行シーンに応じた重みを設定させる設定プロセス(S30)と、
重みを設定された各前記検出情報を統合して前記外界の認識情報を生成させる生成プロセス(S40)と、
を含む外界認識プログラム。 The outside world including an instruction stored in a storage medium (101) and executed by a processor (102) in order to recognize the outside world of a vehicle (A) equipped with a plurality of types of sensors (10) having at least a partially overlapping detection range. It ’s a recognition program,
The command is
The acquisition process (S10) for acquiring detection information from each of the plurality of types of sensors,
A setting process (S30) for setting a weight according to a driving scene of the vehicle for each detection information regarding the overlapping portion of the detection range.
A generation process (S40) that integrates each of the weighted detection information to generate the recognition information of the outside world.
External recognition program including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020107108A JP7347343B2 (en) | 2020-06-22 | 2020-06-22 | External world recognition device, external world recognition method, and external world recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020107108A JP7347343B2 (en) | 2020-06-22 | 2020-06-22 | External world recognition device, external world recognition method, and external world recognition program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022002041A true JP2022002041A (en) | 2022-01-06 |
JP7347343B2 JP7347343B2 (en) | 2023-09-20 |
Family
ID=79244722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020107108A Active JP7347343B2 (en) | 2020-06-22 | 2020-06-22 | External world recognition device, external world recognition method, and external world recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7347343B2 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006047057A (en) * | 2004-08-03 | 2006-02-16 | Fuji Heavy Ind Ltd | Outside-vehicle monitoring device, and traveling control device provided with this outside-vehicle monitoring device |
JP2007310741A (en) * | 2006-05-19 | 2007-11-29 | Fuji Heavy Ind Ltd | Solid object recognition device |
US20100191391A1 (en) * | 2009-01-26 | 2010-07-29 | Gm Global Technology Operations, Inc. | multiobject fusion module for collision preparation system |
JP2014191485A (en) * | 2013-03-26 | 2014-10-06 | Sharp Corp | Obstacle detection device and electrically-driven vehicle with the same |
JP2015219569A (en) * | 2014-05-14 | 2015-12-07 | 株式会社デンソー | Borderline recognition device and borderline recognition program |
JP2016046556A (en) * | 2014-08-20 | 2016-04-04 | 株式会社日本自動車部品総合研究所 | Traveling partition line recognition device, traveling partition line recognition program |
JP2016148547A (en) * | 2015-02-10 | 2016-08-18 | トヨタ自動車株式会社 | Detection device |
JP2019152894A (en) * | 2018-02-28 | 2019-09-12 | 株式会社デンソーテン | Periphery monitoring device, periphery monitoring system, and periphery monitoring method |
WO2020009060A1 (en) * | 2018-07-02 | 2020-01-09 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, computer program, and moving body device |
-
2020
- 2020-06-22 JP JP2020107108A patent/JP7347343B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006047057A (en) * | 2004-08-03 | 2006-02-16 | Fuji Heavy Ind Ltd | Outside-vehicle monitoring device, and traveling control device provided with this outside-vehicle monitoring device |
JP2007310741A (en) * | 2006-05-19 | 2007-11-29 | Fuji Heavy Ind Ltd | Solid object recognition device |
US20100191391A1 (en) * | 2009-01-26 | 2010-07-29 | Gm Global Technology Operations, Inc. | multiobject fusion module for collision preparation system |
JP2014191485A (en) * | 2013-03-26 | 2014-10-06 | Sharp Corp | Obstacle detection device and electrically-driven vehicle with the same |
JP2015219569A (en) * | 2014-05-14 | 2015-12-07 | 株式会社デンソー | Borderline recognition device and borderline recognition program |
JP2016046556A (en) * | 2014-08-20 | 2016-04-04 | 株式会社日本自動車部品総合研究所 | Traveling partition line recognition device, traveling partition line recognition program |
JP2016148547A (en) * | 2015-02-10 | 2016-08-18 | トヨタ自動車株式会社 | Detection device |
JP2019152894A (en) * | 2018-02-28 | 2019-09-12 | 株式会社デンソーテン | Periphery monitoring device, periphery monitoring system, and periphery monitoring method |
WO2020009060A1 (en) * | 2018-07-02 | 2020-01-09 | ソニーセミコンダクタソリューションズ株式会社 | Information processing device, information processing method, computer program, and moving body device |
Also Published As
Publication number | Publication date |
---|---|
JP7347343B2 (en) | 2023-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12037015B2 (en) | Vehicle control device and vehicle control method | |
US20150332101A1 (en) | Lane boundary line recognition apparatus and program for recognizing lane boundary line on roadway | |
US11961306B2 (en) | Object detection device | |
JP6973351B2 (en) | Sensor calibration method and sensor calibration device | |
CN103874931A (en) | Method and apparatus for ascertaining a position for an object in surroundings of a vehicle | |
JP6984624B2 (en) | Display control device and display control program | |
US6597984B2 (en) | Multisensory correlation of traffic lanes | |
JP2009181315A (en) | Object detection device | |
CN112477860A (en) | Vehicle control device | |
CN110647801A (en) | Method and device for setting region of interest, storage medium and electronic equipment | |
US20230148097A1 (en) | Adverse environment determination device and adverse environment determination method | |
JP2023101818A (en) | Control device, detection device, control method, program, and storage medium | |
JP6699344B2 (en) | Reverse vehicle detection device, reverse vehicle detection method | |
CN112241004A (en) | Object recognition device | |
JP2024518934A (en) | Optical interference detection during vehicle navigation | |
JP7347343B2 (en) | External world recognition device, external world recognition method, and external world recognition program | |
CN111766601B (en) | Identification device, vehicle control device, identification method, and storage medium | |
JP6933069B2 (en) | Pathfinding device | |
US20240067171A1 (en) | Brake light activation determining device, storage medium storing computer program for determining brake light activation, and method for determining brake light activation | |
JP2020107059A (en) | Drive operation determination device, vehicle, and drive operation determination method | |
JP6919663B2 (en) | Satellite mask generation method and satellite mask generation device | |
US20230177843A1 (en) | Object assessment device, storage medium storing computer program for object assessment, and object assessment method | |
JP7556922B2 (en) | External Recognition Device | |
US20240067227A1 (en) | Vehicle control device, storage medium storing computer program for vehicle control, and method for controlling vehicle | |
JP7519928B2 (en) | Vehicle tracking system and vehicle tracking method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230821 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7347343 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |