Nothing Special   »   [go: up one dir, main page]

JP2022002041A - Environment recognition device, environment recognition method, and environment recognition program - Google Patents

Environment recognition device, environment recognition method, and environment recognition program Download PDF

Info

Publication number
JP2022002041A
JP2022002041A JP2020107108A JP2020107108A JP2022002041A JP 2022002041 A JP2022002041 A JP 2022002041A JP 2020107108 A JP2020107108 A JP 2020107108A JP 2020107108 A JP2020107108 A JP 2020107108A JP 2022002041 A JP2022002041 A JP 2022002041A
Authority
JP
Japan
Prior art keywords
weight
detection information
scene
information
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020107108A
Other languages
Japanese (ja)
Other versions
JP7347343B2 (en
Inventor
文城 林
Wencheng Lin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2020107108A priority Critical patent/JP7347343B2/en
Publication of JP2022002041A publication Critical patent/JP2022002041A/en
Application granted granted Critical
Publication of JP7347343B2 publication Critical patent/JP7347343B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide an environment recognition device or the like capable of more precisely recognizing an environment by sensor fusion processing.SOLUTION: An environment recognition device 100 recognizes an environment of a vehicle A in which plural types of periphery monitoring sensors 10 whose detection range is at least partially overlapped. The environment recognition device 100 comprises a detection information acquisition part 110 for acquiring detection information from each of the plural types of periphery monitoring sensors 10. The environment recognition device 100 comprises: a weight setting part 130 for setting a weight corresponding to a travel scene of the vehicle for each detection information about an overlapping part in the detection range; and a recognition information generation part 140 for generating environment recognition information by integrating each detection information in which the weight is set.SELECTED DRAWING: Figure 2

Description

この明細書における開示は、車両の外界を認識する技術に関する。 The disclosure herein relates to a technique for recognizing the outside world of a vehicle.

特許文献1には、車両の周辺の物体を認識する装置が開示されている。この装置は、カメラ、レーダ装置、およびLiDARの検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。 Patent Document 1 discloses a device for recognizing an object around a vehicle. This device performs sensor fusion processing on the detection results of the camera, radar device, and LiDAR, and recognizes the position, type, speed, and the like of the object.

特開2019‐95875号公報JP-A-2019-95875

特許文献1の装置は、センサフュージョン処理に影響を及ぼす要因について考慮されていない。このため、センサフュージョン処理による認識結果の正確性が損なわれる虞があった。 The apparatus of Patent Document 1 does not consider factors that affect the sensor fusion process. Therefore, there is a risk that the accuracy of the recognition result by the sensor fusion processing will be impaired.

開示される目的は、センサフュージョン処理によって外界をより正確に認識可能な外界認識装置、外界認識方法、および外界認識プログラムを提供することである。 It is an object of the disclosure to provide an outside world recognition device, an outside world recognition method, and an outside world recognition program capable of more accurately recognizing the outside world by sensor fusion processing.

この明細書に開示された複数の態様は、それぞれの目的を達成するために、互いに異なる技術的手段を採用する。また、特許請求の範囲およびこの項に記載した括弧内の符号は、ひとつの態様として後述する実施形態に記載の具体的手段との対応関係を示す一例であって、技術的範囲を限定するものではない。 The plurality of embodiments disclosed herein employ different technical means to achieve their respective objectives. Further, the scope of claims and the reference numerals in parentheses described in this section are examples showing the correspondence with the specific means described in the embodiment described later as one embodiment, and limit the technical scope. is not it.

開示された外界認識装置のひとつは、検出範囲が少なくとも一部重複する複数種類のセンサ(10)を搭載した車両(A)の外界を認識する外界認識装置であって、
複数種類のセンサからそれぞれ検出情報を取得する取得部(110)と、
検出範囲の重複部分に関する各検出情報に対して、車両の走行シーンに応じた重みを設定する設定部(130)と、
重みを設定された各検出情報を統合して外界の認識情報を生成する生成部(140)と、
を備える。
One of the disclosed outside world recognition devices is an outside world recognition device that recognizes the outside world of a vehicle (A) equipped with a plurality of types of sensors (10) having at least a partially overlapping detection range.
An acquisition unit (110) that acquires detection information from multiple types of sensors,
A setting unit (130) that sets weights according to the driving scene of the vehicle for each detection information regarding the overlapping portion of the detection range, and
A generator (140) that integrates each weighted detection information to generate recognition information for the outside world, and
To prepare for.

開示された外界認識方法のひとつは、検出範囲が少なくとも一部重複する複数種類のセンサ(10)を搭載した車両(A)の外界を認識するために、プロセッサ(102)により実行される外界認識方法であって、
複数種類のセンサからそれぞれ検出情報を取得する取得プロセス(S10)と、
検出範囲の重複部分に関する各検出情報に対して、車両の走行シーンに応じた重みを設定する設定プロセス(S30)と、
重みを設定された各検出情報を統合して外界の認識情報を生成する生成プロセス(S40)と、
を含む。
One of the disclosed external world recognition methods is external world recognition performed by a processor (102) in order to recognize the outside world of a vehicle (A) equipped with a plurality of types of sensors (10) having at least partially overlapping detection ranges. It ’s a method,
The acquisition process (S10) for acquiring detection information from multiple types of sensors,
A setting process (S30) for setting weights according to the driving scene of the vehicle for each detection information regarding the overlapping portion of the detection range, and
A generation process (S40) that integrates each weighted detection information to generate recognition information for the outside world, and
including.

開示された外界認識プログラムのひとつは、検出範囲が少なくとも一部重複する複数種類のセンサ(10)を搭載した車両(A)の外界を認識するために、記憶媒体(101)に格納され、プロセッサ(102)に実行させる命令を含む外界認識プログラムであって、
命令は、
複数種類のセンサからそれぞれ検出情報を取得させる取得プロセス(S10)と、
検出範囲の重複部分に関する各検出情報に対して、車両の走行シーンに応じた重みを設定させる設定プロセス(S30)と、
重みを設定された各検出情報を統合して外界の認識情報を生成させる生成プロセス(S40)と、
を含む
これらの開示によれば、複数種類のセンサから検出情報が取得されると、検出範囲の重複部分に関する各検出情報に対して車両の走行シーンに応じた重みが設定される。そして、重みの設定された各検出情報が統合されて、認識情報が生成される。故に、走行シーンを考慮したセンサフュージョン処理により、外界の認識情報が生成される。以上により、センサフュージョン処理によって外界をより正確に認識可能な外界認識装置、外界認識方法、および外界認識プログラムが提供され得る。
One of the disclosed outside world recognition programs is stored in a storage medium (101) and a processor in order to recognize the outside world of a vehicle (A) equipped with a plurality of types of sensors (10) having at least a partially overlapping detection range. An external recognition program including an instruction to be executed by (102).
The order is
The acquisition process (S10) for acquiring detection information from multiple types of sensors,
A setting process (S30) for setting weights according to the driving scene of the vehicle for each detection information regarding the overlapping portion of the detection range, and
A generation process (S40) that integrates each weighted detection information to generate recognition information of the outside world, and
According to these disclosures including, when the detection information is acquired from a plurality of types of sensors, a weight is set for each detection information regarding the overlapping portion of the detection range according to the driving scene of the vehicle. Then, each detection information for which the weight is set is integrated to generate recognition information. Therefore, the recognition information of the outside world is generated by the sensor fusion processing in consideration of the driving scene. As described above, it is possible to provide an outside world recognition device, an outside world recognition method, and an outside world recognition program capable of more accurately recognizing the outside world by sensor fusion processing.

外界認識装置を含むシステムを示す図である。It is a figure which shows the system including the outside world recognition device. 外界認識装置が有する機能の一例を示すブロック図である。It is a block diagram which shows an example of the function which an outside world recognition device has. 車両に搭載された各センサの検出範囲を簡易的に示す図である。It is a figure which shows the detection range of each sensor mounted on a vehicle simply. トンネル通過時の各走行シーンにおける重みの設定の一例を示す図である。It is a figure which shows an example of the setting of the weight in each running scene at the time of passing through a tunnel. 外界認識装置が実行する外界認識方法の一例を示すフローチャートである。It is a flowchart which shows an example of the outside world recognition method executed by the outside world recognition apparatus.

(第1実施形態)
第1実施形態の外界認識装置100について、図1〜図5を参照しながら説明する。外界認識装置100は、車両Aに搭載された電子制御装置である。外界認識装置100は、車両Aの外界を認識する。外界認識装置100は、周辺監視センサ10、ロケータ20、照度センサ30、ボディECU40および自動運転ECU50と、通信バス等を介して接続されている。
(First Embodiment)
The external world recognition device 100 of the first embodiment will be described with reference to FIGS. 1 to 5. The outside world recognition device 100 is an electronic control device mounted on the vehicle A. The outside world recognition device 100 recognizes the outside world of the vehicle A. The outside world recognition device 100 is connected to the peripheral monitoring sensor 10, the locator 20, the illuminance sensor 30, the body ECU 40, and the automatic driving ECU 50 via a communication bus or the like.

周辺監視センサ10は、車両Aの周辺環境を監視する自律センサである。周辺監視センサ10は、例えばカメラ11、LiDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)12およびミリ波レーダ13を含んでいる。 The peripheral monitoring sensor 10 is an autonomous sensor that monitors the surrounding environment of the vehicle A. The peripheral monitoring sensor 10 includes, for example, a camera 11, a LiDAR (Light Detection and Ranging / Laser Imaging Detection and Ranging) 12, and a millimeter-wave radar 13.

カメラ11は、検出範囲を撮像した画像データを検出情報として出力する。カメラ11は、例えば図3にて点線で示すように、車両Aの前方範囲、前側方範囲および後方範囲を検出範囲とするように複数設けられている。画像データは、検出範囲の外光の強度情報を少なくとも含んでいる。 The camera 11 outputs image data in which the detection range is captured as detection information. As shown by the dotted line in FIG. 3, for example, a plurality of cameras 11 are provided so as to have the front range, the front side range, and the rear range of the vehicle A as the detection range. The image data includes at least the intensity information of the outside light in the detection range.

LiDAR12は、レーザ光を照射し、その反射光を検出するレーザレーダである。LiDAR12は、反射光の受信データを解析することで、レーザ光が反射された各反射点までの距離および各反射点における反射強度の少なくとも一方を含む点群データを、検出情報として出力する。LiDAR12は、例えば、図3にて破線で示すように、車両Aの周囲全周を検出範囲とする。したがって、LiDAR12の検出範囲は、カメラ11および後述のミリ波レーダ13の検出範囲と少なくとも一部重複する。 The LiDAR 12 is a laser radar that irradiates a laser beam and detects the reflected light. By analyzing the received data of the reflected light, the LiDAR 12 outputs point group data including at least one of the distance to each reflection point where the laser light is reflected and the reflection intensity at each reflection point as detection information. The LiDAR 12 has, for example, the entire circumference of the vehicle A as a detection range, as shown by a broken line in FIG. Therefore, the detection range of LiDAR 12 overlaps at least partially with the detection range of the camera 11 and the millimeter wave radar 13 described later.

ミリ波レーダ13は、ミリ波または準ミリ波を照射し、物体で反射された反射波を検出する電波レーダである。ミリ波レーダ13は、反射波の受信データを解析することで、車両Aに対する物体の位置および相対速度に関する情報を、検出情報として出力する。ミリ波レーダ13は、水平方向位置、奥行方向位置、および高さ方向位置の三次元位置を検出可能であるとする。ミリ波レーダ13は、例えば、図3にて一点鎖線で示すように、車両Aの前側方範囲および後側方範囲を検出範囲とする。ミリ波レーダ13の検出範囲は、カメラ11およびLiDAR12の検出範囲と、少なくとも一部重複する。 The millimeter wave radar 13 is a radio wave radar that irradiates millimeter waves or quasi-millimeter waves and detects reflected waves reflected by an object. The millimeter wave radar 13 analyzes the received data of the reflected wave, and outputs information regarding the position and relative velocity of the object with respect to the vehicle A as detection information. It is assumed that the millimeter wave radar 13 can detect three-dimensional positions of a horizontal position, a depth direction position, and a height direction position. The millimeter-wave radar 13 has, for example, the front side range and the rear side range of the vehicle A as the detection range, as shown by the alternate long and short dash line in FIG. The detection range of the millimeter wave radar 13 overlaps with the detection range of the camera 11 and the LiDAR 12 at least partially.

ロケータ20は、複数の取得情報を組み合わせる複合測位により、自車位置情報等を生成する。ロケータ20は、GNSS(Global Navigation Satellite System)受信機21、慣性センサ22、地図DB23、およびロケータECU24を備えている。GNSS受信機21は、複数の測位衛星からの測位信号を受信する。慣性センサ22は、車両Aに作用する慣性力を検出するセンサである。慣性センサは、例えばジャイロセンサおよび加速度センサを備える。 The locator 20 generates own vehicle position information and the like by compound positioning that combines a plurality of acquired information. The locator 20 includes a GNSS (Global Navigation Satellite System) receiver 21, an inertial sensor 22, a map DB 23, and a locator ECU 24. The GNSS receiver 21 receives positioning signals from a plurality of positioning satellites. The inertial sensor 22 is a sensor that detects the inertial force acting on the vehicle A. The inertial sensor includes, for example, a gyro sensor and an acceleration sensor.

地図DB23は、不揮発性メモリであって、リンクデータ、ノードデータ、道路形状、構造物等の地図データを格納している。地図データは、道路形状および構造物の特徴点の点群からなる三次元地図であってもよい。なお、三次元地図は、REM(Road Experience Management)によって撮像画像をもとに生成されたものであってもよい。また、地図データには、交通規制情報、道路工事情報、気象情報、および信号情報等が含まれていてもよい。地図DB23に格納された地図データは、車載通信器にて受信される最新の情報に基づいて、定期的または随時に更新される。 The map DB 23 is a non-volatile memory and stores map data such as link data, node data, road shape, and structures. The map data may be a three-dimensional map composed of point clouds of road shapes and feature points of structures. The three-dimensional map may be generated based on the captured image by REM (Road Experience Management). Further, the map data may include traffic regulation information, road construction information, meteorological information, signal information and the like. The map data stored in the map DB 23 is updated regularly or at any time based on the latest information received by the in-vehicle communication device.

ロケータECU24は、プロセッサ、メモリ、入出力インターフェース、およびこれらを接続するバス等を備えたマイクロコンピュータを主体として含む構成である。ロケータECU24は、GNSS受信機21で受信する測位信号、地図DB23の地図データ、および慣性センサ22の計測結果を組み合わせることにより、車両Aの位置(以下、自車位置)を逐次測位する。自車位置は、例えば緯度経度の座標で表される構成とすればよい。なお、自車位置の測位には、車両Aに搭載された車速センサから逐次出力される信号から求めた走行距離を用いる構成としてもよい。地図データとして、道路形状および構造物の特徴点の点群からなる3次元地図を用いる場合、ロケータは、GNSS受信機を用いずに、この3次元地図と、周辺監視センサでの検出結果とを用いて、自車位置を特定する構成としてもよい。 The locator ECU 24 is configured mainly to include a microcomputer provided with a processor, a memory, an input / output interface, a bus connecting them, and the like. The locator ECU 24 sequentially positions the position of the vehicle A (hereinafter referred to as the own vehicle position) by combining the positioning signal received by the GNSS receiver 21, the map data of the map DB 23, and the measurement result of the inertial sensor 22. The position of the own vehicle may be, for example, configured to be represented by the coordinates of latitude and longitude. For the positioning of the own vehicle position, the mileage obtained from the signals sequentially output from the vehicle speed sensor mounted on the vehicle A may be used. When a three-dimensional map consisting of a point cloud of road shapes and feature points of a structure is used as map data, the locator uses the three-dimensional map and the detection result of the peripheral monitoring sensor without using a GNSS receiver. It may be configured to specify the position of the own vehicle by using it.

照度センサ30は、車両周辺の明るさ、特に照度を検出するセンサである。照度センサ30は、検出した照度を、車両A周辺の明るさ情報として、外界認識装置100に逐次提供する。 The illuminance sensor 30 is a sensor that detects the brightness around the vehicle, particularly the illuminance. The illuminance sensor 30 sequentially provides the detected illuminance to the outside world recognition device 100 as brightness information around the vehicle A.

ボディECU40は、車両Aに搭載されたボディ系の車載機器を統合的に制御するECUである。ボディECU40は、ヘッドライト装置41と通信可能に接続されている。ヘッドライト装置41は、前照灯と、当該前照灯を制御する制御回路とを備えており、ボディECU40からの制御信号に応じて前照灯の点灯状態を制御する。 The body ECU 40 is an ECU that integrally controls body-based in-vehicle devices mounted on the vehicle A. The body ECU 40 is communicably connected to the headlight device 41. The headlight device 41 includes a headlight and a control circuit for controlling the headlight, and controls the lighting state of the headlight according to a control signal from the body ECU 40.

ボディECU40は、運転席乗員によるライトスイッチの操作や、照度センサ30の検出値、または自動運転ECUからの指令に基づき、ヘッドライト装置41の動作を制御する制御信号をヘッドライト装置41に出力する。例えば、ボディECU40は、照度センサ30の検出値が閾値を下回ると、前照灯の点灯を指示する制御信号を出力する。 The body ECU 40 outputs a control signal for controlling the operation of the headlight device 41 to the headlight device 41 based on the operation of the light switch by the driver's seat occupant, the detection value of the illuminance sensor 30, or the command from the automatic driving ECU. .. For example, when the detection value of the illuminance sensor 30 falls below the threshold value, the body ECU 40 outputs a control signal instructing the lighting of the headlight.

自動運転ECU50は、プロセッサ、メモリ、入出力インターフェース、およびこれらを接続するバス等を備えたコンピュータを主体として含む構成である。自動運転ECU50は、外界認識装置100からの認識情報等に基づいて、車両の走行軌道を生成し、車両Aの自動運転を実行する。 The automatic operation ECU 50 is configured mainly to include a computer including a processor, a memory, an input / output interface, a bus connecting them, and the like. The automatic driving ECU 50 generates a traveling track of the vehicle based on the recognition information from the outside world recognition device 100 and executes the automatic driving of the vehicle A.

外界認識装置100は、上述の周辺監視センサ10からの情報に基づき、車両Aの外界、すなわち走行環境を認識する。外界認識装置100は、メモリ101、プロセッサ102、入出力インターフェース、およびこれらを接続するバス等を備えたコンピュータを主体として含む構成である。プロセッサ102は、演算処理のためのハードウェアである。プロセッサ102は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)およびRISC(Reduced Instruction Set Computer)−CPU等のうち、少なくとも一種類をコアとして含む。 The outside world recognition device 100 recognizes the outside world of the vehicle A, that is, the traveling environment, based on the information from the peripheral monitoring sensor 10 described above. The external world recognition device 100 is configured mainly to include a computer including a memory 101, a processor 102, an input / output interface, a bus connecting them, and the like. The processor 102 is hardware for arithmetic processing. The processor 102 includes, for example, at least one of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a RISC (Reduced Instruction Set Computer) -CPU, and the like as a core.

メモリ101は、コンピュータにより読み取り可能なプログラムおよびデータ等を非一時的に格納または記憶する、例えば半導体メモリ、磁気媒体および光学媒体等のうち、少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。メモリ101は、後述の外界認識プログラム等、プロセッサ102によって実行される種々のプログラムを格納している。 The memory 101 non-transiently stores or stores a computer-readable program, data, or the like, for example, at least one type of non-transitional substantive storage medium (non-transitional memory, magnetic medium, optical medium, or the like, etc.). transitory tangible storage medium). The memory 101 stores various programs executed by the processor 102, such as an external recognition program described later.

プロセッサ102は、メモリ101に格納された外界認識プログラムに含まれる複数の命令を、実行する。これにより外界認識装置100は、外界を認識するための機能部を、複数構築する。このように外界認識装置100では、メモリ101に格納されたプログラムが複数の命令をプロセッサ102に実行させることで、複数の機能部が構築される。具体的に、外界認識装置100には、図2に示すように、検出情報取得部110、走行シーン判定部120、重み設定部130および認識情報生成部140等の機能部が構築される。 The processor 102 executes a plurality of instructions included in the external recognition program stored in the memory 101. As a result, the outside world recognition device 100 constructs a plurality of functional units for recognizing the outside world. In this way, in the outside world recognition device 100, a plurality of functional units are constructed by causing the processor 102 to execute a plurality of instructions by the program stored in the memory 101. Specifically, as shown in FIG. 2, the external world recognition device 100 is constructed with functional units such as a detection information acquisition unit 110, a traveling scene determination unit 120, a weight setting unit 130, and a recognition information generation unit 140.

検出情報取得部110は、周辺監視センサ10から検出情報を取得する。具体的には、検出情報取得部110は、カメラ11から検出範囲の撮像画像を検出情報として取得し、LiDAR12から点群データを検出情報として取得し、ミリ波レーダから物体の相対位置および相対速度に関するデータを検出情報として取得する。 The detection information acquisition unit 110 acquires detection information from the peripheral monitoring sensor 10. Specifically, the detection information acquisition unit 110 acquires the captured image of the detection range from the camera 11 as detection information, acquires the point cloud data as detection information from the LiDAR 12, and obtains the relative position and relative speed of the object from the millimeter-wave radar. Acquires the data related to the detection information.

走行シーン判定部120は、検出情報取得部110からの各検出情報、ロケータECUからの地図情報、ボディECU40からのヘッドライト装置41の制御情報等に基づいて、車両Aの走行シーンを判定する。具体的には、走行シーン判定部120は、現在の走行シーンが、各周辺監視センサ10のうち特定センサの信頼度が低下する複数の特定シーンのいずれかに該当するか否かを判定する。 The traveling scene determination unit 120 determines the traveling scene of the vehicle A based on each detection information from the detection information acquisition unit 110, map information from the locator ECU, control information of the headlight device 41 from the body ECU 40, and the like. Specifically, the traveling scene determination unit 120 determines whether or not the current traveling scene corresponds to any of a plurality of specific scenes in which the reliability of the specific sensor is lowered among the peripheral monitoring sensors 10.

特定シーンには、明所領域から暗所領域へと進入した直後の重み調整期間を走行しているシーン(明るさ低下シーン)が含まれる。ここで、暗所領域は、明所領域よりも車両A周囲の明るさ(照度)が小さいと推定される領域である。暗所領域には、トンネル内、高架下、地下道、山肌の近傍等、日射を遮る構造物である遮光構造物によって暗所となると推定される領域が含まれる。また、重み調整期間とは、例えば、暗所領域へと進入してからヘッドライト装置41が点灯するまでの期間である。走行シーン判定部120は、ミリ波レーダ13による構造物の検出情報に基づいて、暗所領域への進入を判断すればよい。例えば、走行シーン判定部120は、直上に遮光構造物が存在する領域を、暗所領域であると判断してもよいし、遮光構造物の構造および日射の進入等を考慮して暗所領域を推定してもよい。また、走行シーン判定部120は、ボディECU40によるヘッドライト装置41の制御情報に基づいて、重み調整期間であるか否かを判定すればよい。 The specific scene includes a scene (brightness reduction scene) running during the weight adjustment period immediately after entering the dark area from the bright area. Here, the dark area is an area in which the brightness (illuminance) around the vehicle A is estimated to be smaller than the bright area. The dark area includes an area that is presumed to be a dark place due to a light-shielding structure that blocks sunlight, such as inside a tunnel, under an elevated structure, an underpass, and the vicinity of a mountain surface. Further, the weight adjustment period is, for example, a period from entering the dark area to turning on the headlight device 41. The traveling scene determination unit 120 may determine entry into the dark area based on the detection information of the structure by the millimeter wave radar 13. For example, the traveling scene determination unit 120 may determine that the area where the light-shielding structure exists directly above the light-shielding structure is a dark place area, or may consider the structure of the light-shielding structure and the intrusion of sunlight into the dark place area. May be estimated. Further, the traveling scene determination unit 120 may determine whether or not the weight adjustment period is reached based on the control information of the headlight device 41 by the body ECU 40.

さらに、特定シーンには、暗所領域から明所領域へと進入した直後のシーン(明るさ上昇シーン)が含まれる。走行シーン判定部120は、明るさ低下シーンと同様に、ミリ波レーダ13による構造物の検出情報に基づいて、明所領域への進入を判断すればよい。明るさ上昇シーンは、「明所進入シーン」の一例である。 Further, the specific scene includes a scene (brightness increase scene) immediately after entering the bright area from the dark area. Similar to the brightness reduction scene, the traveling scene determination unit 120 may determine entry into the bright area based on the detection information of the structure by the millimeter wave radar 13. The brightness increase scene is an example of the "light place approach scene".

また、特定シーンには、側壁を設けられた道路におけるカーブ区間を走行する側壁カーブシーンがさらに含まれる。ここで、側壁を設けられた道路とは、トンネル内の道路や地下道等である。走行シーン判定部120は、カメラ11またはLiDAR12の検出情報や、地図情報に基づいて、側壁カーブシーンであるか否かを判断すればよい。 Further, the specific scene further includes a side wall curve scene traveling on a curve section on a road provided with a side wall. Here, the road provided with the side wall is a road in a tunnel, an underpass, or the like. The traveling scene determination unit 120 may determine whether or not the scene is a side wall curve scene based on the detection information of the camera 11 or the LiDAR 12 and the map information.

さらに、特定シーンには、降雪シーンが含まれる。走行シーン判定部120は、例えば、LiDAR12からの検出情報に基づいて、積雪が有ると推定できる場合に降雪シーンであると判定すればよい。具体的には、走行シーン判定部120は、LiDAR12により走行区画線が検出されなくなった場合に、積雪が有ると推定する。なお、走行シーン判定部120は、他のセンサからの検出情報を複合して、積雪の有無を判定してもよい。例えば交通センタ等から配信される気象情報に基づいて、降雪シーンであるか否かを判断すればよい。 Further, the specific scene includes a snowfall scene. The traveling scene determination unit 120 may determine that it is a snowfall scene when it can be estimated that there is snow, for example, based on the detection information from the LiDAR 12. Specifically, the traveling scene determination unit 120 estimates that there is snow when the traveling division line is no longer detected by the LiDAR 12. The traveling scene determination unit 120 may determine the presence or absence of snow by combining the detection information from other sensors. For example, it may be determined whether or not it is a snowfall scene based on the weather information distributed from the traffic center or the like.

加えて、特定シーンには、電磁波の多重反射に関する特定の電磁波条件が成立する多重反射シーンが含まれる。ここで、電磁波条件は、LiDAR12およびミリ波レーダ13の多重反射の度合が許容範囲外となる場合に成立する。例えば、走行シーン判定部120は、車両Aの側方にガードレール等の金属製の構造物が存在し、且つ車両Aの前方に他車両が存在する場合に、電磁波条件の成立判定を下す。 In addition, the specific scene includes a multiple reflection scene in which a specific electromagnetic wave condition relating to the multiple reflection of the electromagnetic wave is satisfied. Here, the electromagnetic wave condition is satisfied when the degree of multiple reflection of the LiDAR 12 and the millimeter wave radar 13 is out of the allowable range. For example, the traveling scene determination unit 120 determines that the electromagnetic wave condition is satisfied when a metal structure such as a guardrail is present on the side of the vehicle A and another vehicle is present in front of the vehicle A.

また、特定シーンには、外界の実景を映す反射物に関する特定の実景反射条件が成立する実景反射シーンが含まれる。実景反射条件は、カメラ11の撮像範囲に、実景を映す反射物が存在すると推定される場合に成立する。実景を映す反射物は、建造物におけるガラス張りの外壁等である。走行シーン判定部120は、例えば、LiDAR12の点群データおよび地図情報に基づいて、反射物の有無を判断する。 Further, the specific scene includes a real scene reflection scene in which a specific real scene reflection condition regarding a reflective object reflecting a real scene of the outside world is satisfied. The actual scene reflection condition is satisfied when it is estimated that a reflective object reflecting the actual scene exists in the imaging range of the camera 11. Reflective objects that reflect the actual scene are the glass-walled outer walls of the building. The traveling scene determination unit 120 determines the presence / absence of a reflective object, for example, based on the point cloud data and the map information of the LiDAR 12.

走行シーン判定部120は、現在の走行シーンが以上に説明した複数の特定シーンのうちいずれかに該当するか否かを判定し、その判定結果を重み設定部130へと逐次提供する。 The traveling scene determination unit 120 determines whether or not the current driving scene corresponds to any of the plurality of specific scenes described above, and sequentially provides the determination result to the weight setting unit 130.

重み設定部130は、走行シーン判定部120での判定結果に基づいて、各検出情報に重みを設定する。重み設定部130は、走行シーンが特定シーンに該当すると判定されると、各周辺監視センサ10の検出情報のそれぞれに対して、規定された大小関係の重みを設定する。 The weight setting unit 130 sets weights for each detection information based on the determination result of the traveling scene determination unit 120. When the weight setting unit 130 determines that the traveling scene corresponds to a specific scene, the weight setting unit 130 sets a defined magnitude-related weight for each of the detection information of each peripheral monitoring sensor 10.

詳記すると、重み設定部130は、明るさ低下シーンにおいて、LiDAR12の検出情報の重みを、カメラ11およびミリ波レーダ13の検出情報の重みよりも大きく設定する(図4参照)。また、重み設定部130は、明るさ上昇シーンおよび降雪シーンにおいて、カメラ11の検出情報の重みを、LiDAR12およびミリ波レーダ13の検出情報の重みよりも小さく設定する(図4参照)。加えて、重み設定部130は、および降雪シーンにおいて、LiDAR12の検出情報の重みをミリ波レーダ13の検出情報の重みよりも大きく設定する。 More specifically, the weight setting unit 130 sets the weight of the detection information of the LiDAR 12 to be larger than the weight of the detection information of the camera 11 and the millimeter wave radar 13 in the brightness reduction scene (see FIG. 4). Further, the weight setting unit 130 sets the weight of the detection information of the camera 11 to be smaller than the weight of the detection information of the LiDAR 12 and the millimeter wave radar 13 in the brightness increase scene and the snowfall scene (see FIG. 4). In addition, the weight setting unit 130 sets the weight of the detection information of the LiDAR 12 to be larger than the weight of the detection information of the millimeter wave radar 13 in the snowfall scene.

重み設定部130は、明るさ低下シーンまたは明るさ上昇シーンへの走行シーンの変化タイミングを、ミリ波レーダ13からの検出情報に基づいて判断する。具体的には、重み設定部130は、明るさ低下シーンへの変化タイミングを、ミリ波レーダ13により検出された遮光構造物の位置情報に基づく、当該遮光構造物の遮光範囲への進入タイミングとする。なお、重み設定部130は、遮光範囲を単に遮光構造物の存在領域としてもよいし、照度情報等の他の情報との組み合わせにより決定してもよい。そして、重み設定部130は、明るさ上昇シーンへの変化タイミングを、遮光構造物の遮光範囲からの退出タイミングとする。重み設定部130は、判断した変化タイミングにて、各検出情報に適用される重みを変更する。 The weight setting unit 130 determines the change timing of the traveling scene to the brightness decrease scene or the brightness increase scene based on the detection information from the millimeter wave radar 13. Specifically, the weight setting unit 130 sets the change timing to the brightness reduction scene as the entry timing of the light-shielding structure into the light-shielding range based on the position information of the light-shielding structure detected by the millimeter-wave radar 13. do. The weight setting unit 130 may simply set the light-shielding range as the existing area of the light-shielding structure, or may determine the light-shielding range in combination with other information such as illuminance information. Then, the weight setting unit 130 sets the change timing to the brightness increase scene as the exit timing from the light-shielding range of the light-shielding structure. The weight setting unit 130 changes the weight applied to each detection information at the determined change timing.

また、重み設定部130は、降雪シーンへの走行シーンの変化を、LiDAR12からの検出情報に基づいて判断する。具体的には、重み設定部130は、LiDAR12による走行区画線の非検出範囲を、積雪により走行区画線が埋もれた積雪範囲と推定し、当該積雪範囲への進入タイミングを、降雪シーンへの変化タイミングとする。重み設定部130は、判断した変化タイミングにて、各検出情報に適用される重みを変更する。 Further, the weight setting unit 130 determines the change of the traveling scene to the snowfall scene based on the detection information from the LiDAR 12. Specifically, the weight setting unit 130 estimates that the non-detection range of the traveling lane marking by LiDAR 12 is the snow covering range where the traveling lane marking is buried by the snow cover, and changes the approach timing to the snow cover range to the snowfall scene. The timing. The weight setting unit 130 changes the weight applied to each detection information at the determined change timing.

なお、重み設定部130は、明るさ低下シーンおよび明るさ上昇シーンにおいて、各検出情報の重みの大きいさを、照度センサ30からの照度情報に基づいて決定する。具体的には、重み設定部130は、明るさ低下シーンにおいて、明所領域と暗所領域との間の照度の差異が大きいほど、LiDAR12の検出情報の重みを、カメラ11およびミリ波レーダ13の検出情報の重みに対してより大きく設定する。また、重み設定部130は、明るさ上昇シーンにおいて、明所領域と暗所領域との間の照度の差異が大きいほど、カメラ11の検出情報の重みを、LiDAR12およびミリ波レーダ13の検出情報の重みに対してより小さく設定する。 The weight setting unit 130 determines the magnitude of the weight of each detection information in the brightness decrease scene and the brightness increase scene based on the illuminance information from the illuminance sensor 30. Specifically, the weight setting unit 130 weights the detection information of the LiDAR 12 as the difference in illuminance between the bright area and the dark area increases in the brightness reduction scene, the camera 11 and the millimeter wave radar 13. Set larger than the weight of the detection information of. Further, the weight setting unit 130 sets the weight of the detection information of the camera 11 as the detection information of the LiDAR 12 and the millimeter wave radar 13 as the difference in illuminance between the bright area and the dark area becomes larger in the brightness increase scene. Set smaller than the weight of.

さらに、重み設定部130は、側壁カーブシーンにおいて、検出情報の重みを、大きい順からLiDAR12、カメラ11、ミリ波レーダ13と設定する。すなわち、側壁カーブシーンでは、ミリ波レーダ13の検出情報の重みがカメラ11およびLiDAR12の検出情報の重みよりも小さく設定される(図4参照)。 Further, the weight setting unit 130 sets the weights of the detected information in the side wall curve scene as LiDAR 12, the camera 11, and the millimeter wave radar 13 in descending order. That is, in the side wall curve scene, the weight of the detection information of the millimeter wave radar 13 is set to be smaller than the weight of the detection information of the camera 11 and the LiDAR 12 (see FIG. 4).

重み設定部130は、多重反射シーンにおいて、カメラ11の検出情報の重みを、LiDAR12およびミリ波レーダ13の検出情報の重みよりも大きく設定する。加えて、重み設定部130は、多重反射シーンにおいて、LiDAR12の検出情報の重みを、ミリ波レーダ13の検出情報の重みよりも大きく設定する。 The weight setting unit 130 sets the weight of the detection information of the camera 11 to be larger than the weight of the detection information of the LiDAR 12 and the millimeter wave radar 13 in the multiple reflection scene. In addition, the weight setting unit 130 sets the weight of the detection information of the LiDAR 12 to be larger than the weight of the detection information of the millimeter wave radar 13 in the multiple reflection scene.

また、重み設定部130は、実景反射シーンにおいて、カメラ11の検出情報の重みを、LiDAR12およびミリ波レーダ13の検出情報の重みよりも小さく設定する。 Further, the weight setting unit 130 sets the weight of the detection information of the camera 11 to be smaller than the weight of the detection information of the LiDAR 12 and the millimeter wave radar 13 in the actual scene reflection scene.

なお、重み設定部130は、特定センサの信頼度が低下するシーンのいずれにも現在の走行シーンが該当しないと判定された場合には、いずれの検出情報に対しても重みの設定を中止する。 If it is determined that the current driving scene does not correspond to any of the scenes in which the reliability of the specific sensor is lowered, the weight setting unit 130 cancels the weight setting for any of the detection information. ..

認識情報生成部140は、重みを設定された各検出情報を統合するセンサフュージョン処理により、外界の認識情報を生成する。認識情報生成部140は、例えば、検出した各物体の種別、位置、形状、大きさ、相対速度等を、認識情報として生成する。認識情報生成部140は、生成した認識情報を、自動運転ECU50へと逐次提供する。 The recognition information generation unit 140 generates recognition information of the outside world by a sensor fusion process that integrates each detection information for which weights are set. The recognition information generation unit 140 generates, for example, the type, position, shape, size, relative speed, etc. of each detected object as recognition information. The recognition information generation unit 140 sequentially provides the generated recognition information to the automatic operation ECU 50.

次に、機能ブロックの共同により、外界認識装置100が実行する外界認識方法のフローを、図5に従って以下に説明する。なお、後述するフローにおいて「S」とは、プログラムに含まれた複数命令によって実行される、フローの複数ステップを意味する。 Next, the flow of the external world recognition method executed by the external world recognition device 100 jointly by the functional blocks will be described below with reference to FIG. In the flow described later, "S" means a plurality of steps of the flow executed by a plurality of instructions included in the program.

まずS10では、検出情報取得部110が、各周辺監視センサ10からの検出情報を取得する。次に、S20では、走行シーン判定部120が、現在の走行シーンについて特定シーンのうちいずれかに該当するか否かを判定する。続くS30では、重み設定部130が、判定結果に基づいて各検出情報の重みを設定する。さらに、S40では、認識情報生成部140が、重みを設定された各検出情報を統合して認識情報を生成、出力した後、一連の処理を終了する。 First, in S10, the detection information acquisition unit 110 acquires the detection information from each peripheral monitoring sensor 10. Next, in S20, the traveling scene determination unit 120 determines whether or not the current traveling scene corresponds to any of the specific scenes. In the following S30, the weight setting unit 130 sets the weight of each detection information based on the determination result. Further, in S40, the recognition information generation unit 140 integrates the weighted detection information to generate and output the recognition information, and then ends a series of processes.

なお、上述のS10が「取得プロセス」、S30が「設定プロセス」、S20が「判定プロセス」、S40が「生成プロセス」の一例である。 The above-mentioned S10 is an example of the "acquisition process", S30 is an example of the "setting process", S20 is an example of the "determination process", and S40 is an example of the "generation process".

次に第1実施形態のもたらす作用効果について説明する。 Next, the action and effect brought about by the first embodiment will be described.

第1実施形態によれば、複数種類の周辺監視センサ10から検出情報が取得されると、検出範囲の重複部分に関する各検出情報に対して車両Aの走行シーンに応じた重みが設定される。そして、重みの設定された各検出情報が統合されて、認識情報が生成される。故に、走行シーンを考慮したセンサフュージョン処理により、外界の認識情報が生成される。以上により、センサフュージョン処理によって外界をより正確に認識可能となる。 According to the first embodiment, when the detection information is acquired from the plurality of types of peripheral monitoring sensors 10, weights corresponding to the traveling scene of the vehicle A are set for each detection information regarding the overlapping portion of the detection range. Then, each detection information for which the weight is set is integrated to generate recognition information. Therefore, the recognition information of the outside world is generated by the sensor fusion processing in consideration of the driving scene. As a result, the outside world can be recognized more accurately by the sensor fusion process.

また、第1実施形態によれば、明所領域から暗所領域へと進入した直後の重み調整期間において、LiDAR12による検出情報の重みがカメラ11による検出情報の重みよりも大きく設定される。故に、明所領域から暗所領域へと進入した直後において、明るさの変化によって信頼度が低下し得るカメラ11の検出情報よりも、LiDAR12の検出情報の方が、認識情報の生成においてより重視され得る。したがって、センサフュージョン処理によって外界をより正確に認識可能となる。 Further, according to the first embodiment, the weight of the detection information by the LiDAR 12 is set to be larger than the weight of the detection information by the camera 11 in the weight adjustment period immediately after entering the dark region from the bright region. Therefore, immediately after entering the dark area from the bright area, the detection information of the LiDAR 12 is more important in the generation of the recognition information than the detection information of the camera 11 whose reliability may decrease due to the change in brightness. Can be done. Therefore, the sensor fusion process makes it possible to recognize the outside world more accurately.

さらに、第1実施形態によれば、暗所領域から明所領域へと進入した直後のシーンにおいて、カメラ11による検出情報の重みがLiDAR12による検出情報の重みよりも小さく設定される。この場合においても、明るさの変化によって信頼度が低下し得るカメラ11の検出情報よりも、LiDAR12の検出情報の方が、認識情報の生成においてより重視され、センサフュージョン処理による外界認識が一層正確になり得る。 Further, according to the first embodiment, in the scene immediately after entering the bright area from the dark area, the weight of the detection information by the camera 11 is set smaller than the weight of the detection information by the LiDAR 12. Even in this case, the detection information of LiDAR12 is more important in the generation of recognition information than the detection information of the camera 11 whose reliability may be lowered due to the change in brightness, and the external recognition by the sensor fusion processing is more accurate. Can be.

また、第1実施形態によれば、側壁を設けられた道路におけるカーブ区間を走行する側壁カーブシーンにおいて、ミリ波レーダ13による検出情報の重みが最も小さく設定される。故に、ミリ波レーダ13が側壁を移動体として誤検知し得る側壁カーブシーンにおいて、外界認識がより一層正確になり得る。 Further, according to the first embodiment, the weight of the detection information by the millimeter wave radar 13 is set to be the smallest in the side wall curve scene traveling on the curve section on the road provided with the side wall. Therefore, in the side wall curve scene where the millimeter wave radar 13 can erroneously detect the side wall as a moving body, the outside world recognition can be more accurate.

加えて、第1実施形態によれば、電磁波の多重反射に関する特定の電磁波条件が成立する走行シーンである場合には、カメラ11による検出情報の重みが、LiDAR12およびミリ波レーダ13による検出情報の重みよりも大きく設定される。故に、電磁波条件が成立する走行シーンにおいて、照射した電磁波の反射波による検出を行うLiDAR12およびミリ波レーダ13の検出情報よりも、カメラ11の検出情報がより重視され得る。これにより、センサフュージョン処理によって外界を一層正確に認識可能となる。 In addition, according to the first embodiment, in the case of a traveling scene in which a specific electromagnetic wave condition relating to multiple reflection of electromagnetic waves is satisfied, the weight of the detection information by the camera 11 is the detection information by the LiDAR 12 and the millimeter wave radar 13. It is set larger than the weight. Therefore, in the traveling scene where the electromagnetic wave condition is satisfied, the detection information of the camera 11 can be given more importance than the detection information of the LiDAR 12 and the millimeter wave radar 13 that detect by the reflected wave of the irradiated electromagnetic wave. This makes it possible to recognize the outside world more accurately by the sensor fusion process.

また、第1実施形態によれば、外界の実景を映す反射物に関する特定の実景反射条件が成立する走行シーンである場合には、カメラ11による検出情報の重みが、LiDARおよびミリ波レーダ13による検出情報の重みよりも小さく設定される。故に、実景反射条件が成立する走行シーンにおいて、撮像する実景の反射により誤検出が発生し得るカメラ11の検出情報よりも、LiDARおよびミリ波レーダ13の検出情報がより重視され得る。したがって、実景反射条件が成立する走行シーンにおいて外界を一層正確に認識可能となる Further, according to the first embodiment, in the case of a traveling scene in which a specific actual scene reflection condition regarding a reflecting object reflecting a real scene of the outside world is satisfied, the weight of the detection information by the camera 11 is determined by the LiDAR and the millimeter wave radar 13. It is set smaller than the weight of the detection information. Therefore, in a traveling scene where the actual scene reflection condition is satisfied, the detection information of the LiDAR and the millimeter wave radar 13 can be given more importance than the detection information of the camera 11 in which erroneous detection may occur due to the reflection of the actual scene to be imaged. Therefore, the outside world can be recognized more accurately in the driving scene where the actual scene reflection condition is satisfied.

(他の実施形態)
この明細書における開示は、例示された実施形態に制限されない。開示は、例示された実施形態と、それらに基づく当業者による変形態様を包含する。例えば、開示は、実施形態において示された部品および/または要素の組み合わせに限定されない。開示は、多様な組み合わせによって実施可能である。開示は、実施形態に追加可能な追加的な部分をもつことができる。開示は、実施形態の部品および/または要素が省略されたものを包含する。開示は、ひとつの実施形態と他の実施形態との間における部品および/または要素の置き換え、または組み合わせを包含する。開示される技術的範囲は、実施形態の記載に限定されない。開示されるいくつかの技術的範囲は、特許請求の範囲の記載によって示され、さらに特許請求の範囲の記載と均等の意味及び範囲内での全ての変更を含むものと解されるべきである。
(Other embodiments)
The disclosure herein is not limited to the exemplary embodiments. Disclosures include exemplary embodiments and modifications by those skilled in the art based on them. For example, the disclosure is not limited to the parts and / or combinations of elements shown in the embodiments. Disclosure can be carried out in various combinations. The disclosure can have additional parts that can be added to the embodiment. Disclosures include those in which the parts and / or elements of the embodiment are omitted. Disclosures include the replacement or combination of parts and / or elements between one embodiment and another. The technical scope disclosed is not limited to the description of the embodiments. Some technical scopes disclosed are indicated by the description of the scope of claims and should be understood to include all modifications within the meaning and scope equivalent to the description of the scope of claims. ..

上述の実施形態において、検出情報取得部110は、3種類の周辺監視センサ10、すなわちカメラ11、LiDAR12およびミリ波レーダ13からの検出情報を取得するとした。これに代えて、検出情報取得部110は、上述したうちの2種類の検出情報のみを取得する構成であってもよい。 In the above-described embodiment, the detection information acquisition unit 110 is supposed to acquire detection information from three types of peripheral monitoring sensors 10, that is, a camera 11, a LiDAR 12, and a millimeter-wave radar 13. Instead of this, the detection information acquisition unit 110 may be configured to acquire only the two types of detection information described above.

上述の実施形態において、走行シーン判定部120は、ミリ波レーダ13にて検出された遮光構造物の検出情報に基づいて、走行シーンが明るさ低下シーンまたは明るさ上昇シーンであるか否かを判断するとした。これに代えて、走行シーン判定部120は、照度センサ30にて検出された照度に基づいて、走行シーンが明るさ低下シーンまたは明るさ上昇シーンであるか否かを判断してもよい。例えば、走行シーン判定部120は、照度が許容範囲内から許容範囲を下回る値に低下した場合に、走行シーンが明るさ低下シーンであると判断してよい。また、走行シーン判定部120は、照度が許容範囲を下回る状態から許容範囲内へと上昇した場合に、走行シーンが明るさ上昇シーンであると判断してよい。 In the above-described embodiment, the traveling scene determination unit 120 determines whether or not the traveling scene is a brightness decreasing scene or a brightness increasing scene based on the detection information of the light-shielding structure detected by the millimeter-wave radar 13. I decided to judge. Instead of this, the traveling scene determination unit 120 may determine whether or not the traveling scene is a brightness decreasing scene or a brightness increasing scene based on the illuminance detected by the illuminance sensor 30. For example, the traveling scene determination unit 120 may determine that the traveling scene is a brightness-reduced scene when the illuminance drops from within the permissible range to a value below the permissible range. Further, the traveling scene determination unit 120 may determine that the traveling scene is a brightness increasing scene when the illuminance rises from below the allowable range to within the allowable range.

外界認識装置100は、デジタル回路およびアナログ回路のうち少なくとも一方をプロセッサとして含んで構成される、専用のコンピュータであってもよい。ここで特にデジタル回路とは、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、SOC(System on a Chip)、PGA(Programmable Gate Array)、およびCPLD(Complex Programmable Logic Device)等のうち、少なくとも一種類である。またこうしたデジタル回路は、プログラムを格納したメモリを、備えていてもよい。 The external world recognition device 100 may be a dedicated computer configured to include at least one of a digital circuit and an analog circuit as a processor. Here, particularly digital circuits include, for example, ASIC (Application Specific Integrated Circuit), FPGA (Field Programmable Gate Array), SOC (System on a Chip), PGA (Programmable Gate Array), CPLD (Complex Programmable Logic Device) and the like. Of these, at least one. Further, such a digital circuit may include a memory for storing a program.

外界認識装置100は、1つのコンピュータ、またはデータ通信装置によってリンクされた一組のコンピュータ資源によって提供され得る。例えば、上述の実施形態における外界認識装置100の提供する機能の一部は、他のECUによって実現されてもよい。 The external recognition device 100 may be provided by one computer, or a set of computer resources linked by a data communication device. For example, a part of the functions provided by the outside world recognition device 100 in the above-described embodiment may be realized by another ECU.

10 周辺監視センサ(センサ)、 100 外界認識装置、 101 メモリ(記憶媒体)、 102 プロセッサ、 110 検出情報取得部(取得部)、 120 走行シーン判定部(判定部)、 130 重み設定部(設定部)、 140 認識情報生成部(生成部)、 A 車両、 S10 取得プロセス、 S30 設定プロセス、 S40 生成プロセス。 10 Peripheral monitoring sensor (sensor), 100 External recognition device, 101 Memory (storage medium), 102 processor, 110 Detection information acquisition unit (acquisition unit), 120 Driving scene determination unit (judgment unit), 130 Weight setting unit (setting unit) ), 140 recognition information generation unit (generation unit), A vehicle, S10 acquisition process, S30 setting process, S40 generation process.

Claims (25)

検出範囲が少なくとも一部重複する複数種類のセンサ(10)を搭載した車両(A)の外界を認識する外界認識装置であって、
複数種類の前記センサからそれぞれ検出情報を取得する取得部(110)と、
前記検出範囲の重複部分に関する各前記検出情報に対して、前記車両の走行シーンに応じた重みを設定する設定部(130)と、
重みを設定された各前記検出情報を統合して前記外界の認識情報を生成する生成部(140)と、
を備える外界認識装置。
An outside world recognition device that recognizes the outside world of a vehicle (A) equipped with a plurality of types of sensors (10) having at least a partially overlapping detection range.
An acquisition unit (110) that acquires detection information from each of the plurality of types of sensors, and
A setting unit (130) for setting a weight according to a driving scene of the vehicle for each detection information regarding the overlapping portion of the detection range, and a setting unit (130).
A generation unit (140) that integrates each of the weighted detection information to generate the recognition information of the outside world, and
External recognition device equipped with.
前記取得部は、カメラ、レーザレーダおよび電波レーダからの前記検出情報を取得する請求項1に記載の外界認識装置。 The external world recognition device according to claim 1, wherein the acquisition unit acquires the detection information from a camera, a laser radar, and a radio wave radar. 前記設定部は、明所領域から前記明所領域よりも明るさの小さい暗所領域へと進入してからの重み調整期間において、前記レーザレーダによる前記検出情報の重みを前記カメラによる前記検出情報の重みよりも大きく設定する請求項2に記載の外界認識装置。 The setting unit sets the weight of the detection information by the laser radar to the detection information by the camera in the weight adjustment period after entering the dark area having a brightness smaller than that of the bright area from the bright area. The external world recognition device according to claim 2, which is set to be larger than the weight of. 前記設定部は、前記重み調整期間を、暗所領域へと進入してから前記車両の前照灯が点灯するまでの期間とする請求項3に記載の外界認識装置。 The external world recognition device according to claim 3, wherein the setting unit is a period from entering the dark area to turning on the headlights of the vehicle. 前記設定部は、暗所領域から前記暗所領域よりも明るさの大きい明所領域へと進入した直後の明所進入シーンにおいて、前記カメラによる前記検出情報の重みを前記レーザレーダによる前記検出情報の重みよりも小さく設定する請求項3または請求項4のいずれか1項に記載の外界認識装置。 In the bright place approach scene immediately after entering the bright place area having a higher brightness than the dark place area, the setting unit sets the weight of the detection information by the camera as the detection information by the laser radar. The external world recognition device according to any one of claims 3 and 4, which is set to be smaller than the weight of the above. 高さ方向の情報を検出可能な前記電波レーダにより検出された前記車両の周囲の構造物に関する前記検出情報に基づいて、前記走行シーンが前記明所進入シーンへと変化するタイミングを判定する判定部(120)をさらに備える請求項5に記載の外界認識装置。 A determination unit that determines the timing at which the traveling scene changes to the bright spot approach scene based on the detection information about the structure around the vehicle detected by the radio wave radar capable of detecting information in the height direction. The external world recognition device according to claim 5, further comprising (120). 前記設定部は、側壁を設けられた道路におけるカーブ区間を走行する側壁カーブシーンにおいて、前記電波レーダによる前記検出情報の重みを最も小さく設定する請求項2から請求項6のいずれか1項に記載の外界認識装置。 The setting unit according to any one of claims 2 to 6, wherein the setting unit sets the weight of the detection information by the radio wave radar to the minimum in a side wall curve scene traveling in a curve section on a road provided with a side wall. External recognition device. 前記設定部は、前記側壁カーブシーンにおいて、前記レーザレーダによる前記検出情報の重みを前記カメラによる前記検出情報の重みよりも大きく設定する請求項7に記載の外界認識装置。 The external world recognition device according to claim 7, wherein the setting unit sets the weight of the detection information by the laser radar to be larger than the weight of the detection information by the camera in the side wall curve scene. 前記設定部は、降雪シーンにおいて、前記カメラによる前記検出情報の重みを前記レーザレーダによる前記検出情報の重みよりも小さく設定する請求項2から請求項8のいずれか1項に記載の外界認識装置。 The external world recognition device according to any one of claims 2 to 8, wherein the setting unit sets the weight of the detection information by the camera to be smaller than the weight of the detection information by the laser radar in a snowfall scene. .. 前記設定部は、前記降雪シーンにおいて、前記カメラによる前記検出情報の重みを前記レーザレーダによる前記検出情報の重みよりも小さく設定する請求項9に記載の外界認識装置。 The external world recognition device according to claim 9, wherein the setting unit sets the weight of the detection information by the camera to be smaller than the weight of the detection information by the laser radar in the snowfall scene. 前記設定部は、電磁波の多重反射に関する特定の電磁波条件が成立する走行シーンである場合には、前記カメラによる前記検出情報の重みを、前記レーザレーダおよび前記電波レーダによる前記検出情報の重みよりも大きく設定する請求項2から請求項10のいずれか1項に記載の外界認識装置。 In the case of a traveling scene in which a specific electromagnetic wave condition relating to multiple reflection of electromagnetic waves is satisfied, the setting unit sets the weight of the detected information by the camera to be larger than the weight of the detected information by the laser radar and the radio wave radar. The external world recognition device according to any one of claims 2 to 10, which is largely set. 前記設定部は、前記外界の実景を映す反射物に関する特定の実景反射条件が成立する走行シーンである場合には、前記カメラによる前記検出情報の重みを、前記レーザレーダおよび前記電波レーダによる前記検出情報の重みよりも小さく設定する請求項2から請求項11のいずれか1項に記載の外界認識装置。 The setting unit detects the weight of the detection information by the camera by the laser radar and the radio wave radar when the traveling scene satisfies the specific actual reflection condition regarding the reflective object reflecting the actual view of the outside world. The external world recognition device according to any one of claims 2 to 11, which is set to be smaller than the weight of information. 検出範囲が少なくとも一部重複する複数種類のセンサ(10)を搭載した車両(A)の外界を認識するために、プロセッサ(102)により実行される外界認識方法であって、
複数種類の前記センサからそれぞれ検出情報を取得する取得プロセス(S10)と、
前記検出範囲の重複部分に関する各前記検出情報に対して、前記車両の走行シーンに応じた重みを設定する設定プロセス(S30)と、
重みを設定された各前記検出情報を統合して前記外界の認識情報を生成する生成プロセス(S40)と、
を含む外界認識方法。
An outside world recognition method executed by a processor (102) in order to recognize the outside world of a vehicle (A) equipped with a plurality of types of sensors (10) having at least a partially overlapping detection range.
The acquisition process (S10) for acquiring detection information from each of the plurality of types of sensors,
A setting process (S30) for setting a weight according to a driving scene of the vehicle for each detection information regarding the overlapping portion of the detection range.
A generation process (S40) that integrates each of the weighted detection information to generate the recognition information of the outside world, and
External recognition methods including.
前記取得プロセスでは、カメラ、レーザレーダおよび電波レーダからの前記検出情報を取得する請求項13に記載の外界認識方法。 The external world recognition method according to claim 13, wherein in the acquisition process, the detection information from a camera, a laser radar, and a radio wave radar is acquired. 前記設定プロセスでは、明所領域から前記明所領域よりも明るさの小さい暗所領域へと進入してからの重み調整期間において、前記レーザレーダによる前記検出情報の重みを前記カメラによる前記検出情報の重みよりも大きく設定する請求項14に記載の外界認識方法。 In the setting process, in the weight adjustment period after entering the dark area having a brightness smaller than that of the bright area from the bright area, the weight of the detected information by the laser radar is changed to the detected information by the camera. The external world recognition method according to claim 14, which is set to be larger than the weight of. 前記設定プロセスでは、前記重み調整期間を、暗所領域へと進入してから前記車両の前照灯が点灯するまでの期間とする請求項15に記載の外界認識方法。 The external world recognition method according to claim 15, wherein in the setting process, the weight adjustment period is a period from entering the dark area to turning on the headlights of the vehicle. 前記設定プロセスでは、暗所領域から前記暗所領域よりも明るさの大きい明所領域へと進入した直後の明所進入シーンにおいて、前記カメラによる前記検出情報の重みを前記レーザレーダによる前記検出情報の重みよりも小さく設定する請求項14から請求項16のいずれか1項に記載の外界認識方法。 In the setting process, in the bright place approach scene immediately after entering the bright place area having a brightness higher than the dark place area from the dark place area, the weight of the detection information by the camera is weighted by the detection information by the laser radar. The external world recognition method according to any one of claims 14 to 16, which is set to be smaller than the weight of the above. 高さ方向の情報を検出可能な前記電波レーダにより検出された前記車両の周囲の構造物に関する前記検出情報に基づいて、前記走行シーンが前記明所進入シーンへと変化するタイミングを判定する判定プロセス(S20)をさらに含む請求項17に記載の外界認識方法。 A determination process for determining the timing at which the traveling scene changes to the bright spot approach scene based on the detection information regarding the structure around the vehicle detected by the radio wave radar capable of detecting information in the height direction. The external world recognition method according to claim 17, further comprising (S20). 前記設定プロセスでは、設定部は、側壁を設けられた道路におけるカーブ区間を走行する側壁カーブシーンにおいて、前記電波レーダによる前記検出情報の重みを最も小さく設定する請求項14から請求項18のいずれか1項に記載の外界認識方法。 In the setting process, any one of claims 14 to 18 in which the setting unit sets the weight of the detection information by the radio wave radar to the minimum in the side wall curve scene traveling in the curve section on the road provided with the side wall. The method for recognizing the outside world according to item 1. 前記設定プロセスでは、前記側壁カーブシーンにおいて、前記レーザレーダによる前記検出情報の重みを前記カメラによる前記検出情報の重みよりも大きく設定する請求項19に記載の外界認識方法。 The external world recognition method according to claim 19, wherein in the setting process, the weight of the detection information by the laser radar is set to be larger than the weight of the detection information by the camera in the side wall curve scene. 前記設定プロセスでは、降雪シーンにおいて、前記カメラによる前記検出情報の重みを前記レーザレーダによる前記検出情報の重みよりも小さく設定する請求項14から請求項20のいずれか1項に記載の外界認識方法。 The external world recognition method according to any one of claims 14 to 20, wherein in the setting process, the weight of the detection information by the camera is set to be smaller than the weight of the detection information by the laser radar in a snowfall scene. .. 前記設定プロセスでは、前記降雪シーンにおいて、前記カメラによる前記検出情報の重みを前記レーザレーダによる前記検出情報の重みよりも小さく設定する請求項21に記載の外界認識方法。 The external world recognition method according to claim 21, wherein in the setting process, the weight of the detection information by the camera is set to be smaller than the weight of the detection information by the laser radar in the snowfall scene. 前記設定プロセスでは、電磁波の多重反射に関する特定の電磁波条件が成立する走行シーンである場合には、前記カメラによる前記検出情報の重みを、前記レーザレーダおよび前記電波レーダによる前記検出情報の重みよりも大きく設定する請求項14から請求項22のいずれか1項に記載の外界認識方法。 In the setting process, in the case of a traveling scene in which a specific electromagnetic wave condition relating to multiple reflection of electromagnetic waves is satisfied, the weight of the detected information by the camera is larger than the weight of the detected information by the laser radar and the radio wave radar. The external world recognition method according to any one of claims 14 to 22, which is largely set. 前記設定プロセスでは、前記外界の実景を映す反射物に関する特定の実景反射条件が成立する走行シーンである場合には、前記カメラによる前記検出情報の重みを、前記レーザレーダおよび前記電波レーダによる前記検出情報の重みよりも小さく設定する請求項14から請求項23のいずれか1項に記載の外界認識方法。 In the setting process, when the traveling scene satisfies the specific actual reflection condition regarding the reflective object reflecting the actual view of the outside world, the weight of the detection information by the camera is detected by the laser radar and the radio wave radar. The external world recognition method according to any one of claims 14 to 23, which is set to be smaller than the weight of information. 検出範囲が少なくとも一部重複する複数種類のセンサ(10)を搭載した車両(A)の外界を認識するために、記憶媒体(101)に格納され、プロセッサ(102)に実行させる命令を含む外界認識プログラムであって、
前記命令は、
複数種類の前記センサからそれぞれ検出情報を取得させる取得プロセス(S10)と、
前記検出範囲の重複部分に関する各前記検出情報に対して、前記車両の走行シーンに応じた重みを設定させる設定プロセス(S30)と、
重みを設定された各前記検出情報を統合して前記外界の認識情報を生成させる生成プロセス(S40)と、
を含む外界認識プログラム。
The outside world including an instruction stored in a storage medium (101) and executed by a processor (102) in order to recognize the outside world of a vehicle (A) equipped with a plurality of types of sensors (10) having at least a partially overlapping detection range. It ’s a recognition program,
The command is
The acquisition process (S10) for acquiring detection information from each of the plurality of types of sensors,
A setting process (S30) for setting a weight according to a driving scene of the vehicle for each detection information regarding the overlapping portion of the detection range.
A generation process (S40) that integrates each of the weighted detection information to generate the recognition information of the outside world.
External recognition program including.
JP2020107108A 2020-06-22 2020-06-22 External world recognition device, external world recognition method, and external world recognition program Active JP7347343B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020107108A JP7347343B2 (en) 2020-06-22 2020-06-22 External world recognition device, external world recognition method, and external world recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020107108A JP7347343B2 (en) 2020-06-22 2020-06-22 External world recognition device, external world recognition method, and external world recognition program

Publications (2)

Publication Number Publication Date
JP2022002041A true JP2022002041A (en) 2022-01-06
JP7347343B2 JP7347343B2 (en) 2023-09-20

Family

ID=79244722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020107108A Active JP7347343B2 (en) 2020-06-22 2020-06-22 External world recognition device, external world recognition method, and external world recognition program

Country Status (1)

Country Link
JP (1) JP7347343B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006047057A (en) * 2004-08-03 2006-02-16 Fuji Heavy Ind Ltd Outside-vehicle monitoring device, and traveling control device provided with this outside-vehicle monitoring device
JP2007310741A (en) * 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd Solid object recognition device
US20100191391A1 (en) * 2009-01-26 2010-07-29 Gm Global Technology Operations, Inc. multiobject fusion module for collision preparation system
JP2014191485A (en) * 2013-03-26 2014-10-06 Sharp Corp Obstacle detection device and electrically-driven vehicle with the same
JP2015219569A (en) * 2014-05-14 2015-12-07 株式会社デンソー Borderline recognition device and borderline recognition program
JP2016046556A (en) * 2014-08-20 2016-04-04 株式会社日本自動車部品総合研究所 Traveling partition line recognition device, traveling partition line recognition program
JP2016148547A (en) * 2015-02-10 2016-08-18 トヨタ自動車株式会社 Detection device
JP2019152894A (en) * 2018-02-28 2019-09-12 株式会社デンソーテン Periphery monitoring device, periphery monitoring system, and periphery monitoring method
WO2020009060A1 (en) * 2018-07-02 2020-01-09 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, computer program, and moving body device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006047057A (en) * 2004-08-03 2006-02-16 Fuji Heavy Ind Ltd Outside-vehicle monitoring device, and traveling control device provided with this outside-vehicle monitoring device
JP2007310741A (en) * 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd Solid object recognition device
US20100191391A1 (en) * 2009-01-26 2010-07-29 Gm Global Technology Operations, Inc. multiobject fusion module for collision preparation system
JP2014191485A (en) * 2013-03-26 2014-10-06 Sharp Corp Obstacle detection device and electrically-driven vehicle with the same
JP2015219569A (en) * 2014-05-14 2015-12-07 株式会社デンソー Borderline recognition device and borderline recognition program
JP2016046556A (en) * 2014-08-20 2016-04-04 株式会社日本自動車部品総合研究所 Traveling partition line recognition device, traveling partition line recognition program
JP2016148547A (en) * 2015-02-10 2016-08-18 トヨタ自動車株式会社 Detection device
JP2019152894A (en) * 2018-02-28 2019-09-12 株式会社デンソーテン Periphery monitoring device, periphery monitoring system, and periphery monitoring method
WO2020009060A1 (en) * 2018-07-02 2020-01-09 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, computer program, and moving body device

Also Published As

Publication number Publication date
JP7347343B2 (en) 2023-09-20

Similar Documents

Publication Publication Date Title
US12037015B2 (en) Vehicle control device and vehicle control method
US20150332101A1 (en) Lane boundary line recognition apparatus and program for recognizing lane boundary line on roadway
US11961306B2 (en) Object detection device
JP6973351B2 (en) Sensor calibration method and sensor calibration device
CN103874931A (en) Method and apparatus for ascertaining a position for an object in surroundings of a vehicle
JP6984624B2 (en) Display control device and display control program
US6597984B2 (en) Multisensory correlation of traffic lanes
JP2009181315A (en) Object detection device
CN112477860A (en) Vehicle control device
CN110647801A (en) Method and device for setting region of interest, storage medium and electronic equipment
US20230148097A1 (en) Adverse environment determination device and adverse environment determination method
JP2023101818A (en) Control device, detection device, control method, program, and storage medium
JP6699344B2 (en) Reverse vehicle detection device, reverse vehicle detection method
CN112241004A (en) Object recognition device
JP2024518934A (en) Optical interference detection during vehicle navigation
JP7347343B2 (en) External world recognition device, external world recognition method, and external world recognition program
CN111766601B (en) Identification device, vehicle control device, identification method, and storage medium
JP6933069B2 (en) Pathfinding device
US20240067171A1 (en) Brake light activation determining device, storage medium storing computer program for determining brake light activation, and method for determining brake light activation
JP2020107059A (en) Drive operation determination device, vehicle, and drive operation determination method
JP6919663B2 (en) Satellite mask generation method and satellite mask generation device
US20230177843A1 (en) Object assessment device, storage medium storing computer program for object assessment, and object assessment method
JP7556922B2 (en) External Recognition Device
US20240067227A1 (en) Vehicle control device, storage medium storing computer program for vehicle control, and method for controlling vehicle
JP7519928B2 (en) Vehicle tracking system and vehicle tracking method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R151 Written notification of patent or utility model registration

Ref document number: 7347343

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151