Nothing Special   »   [go: up one dir, main page]

JP2021033510A - Driving assistance device - Google Patents

Driving assistance device Download PDF

Info

Publication number
JP2021033510A
JP2021033510A JP2019151161A JP2019151161A JP2021033510A JP 2021033510 A JP2021033510 A JP 2021033510A JP 2019151161 A JP2019151161 A JP 2019151161A JP 2019151161 A JP2019151161 A JP 2019151161A JP 2021033510 A JP2021033510 A JP 2021033510A
Authority
JP
Japan
Prior art keywords
object candidate
image
vehicle
support device
driving support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019151161A
Other languages
Japanese (ja)
Inventor
原 英之
Hideyuki Hara
英之 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Isuzu Motors Ltd
Original Assignee
Isuzu Motors Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Isuzu Motors Ltd filed Critical Isuzu Motors Ltd
Priority to JP2019151161A priority Critical patent/JP2021033510A/en
Publication of JP2021033510A publication Critical patent/JP2021033510A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a driving assistance device capable of detecting objects needing attention, and notifying thereof, in a more accurate manner.SOLUTION: Provided is a driving assistance device 100 for detecting objects present on a peripheral road of a vehicle 1, comprising: an image obtaining section 10 for obtaining images from an on-vehicle camera 200 which is loaded on the vehicle 1 and photographs the peripheral road; an image analysis section 20 for detecting an object candidate from the images using a trained identifier D1, and calculating reliability pertaining to the object candidate; and a notifying section 30 for determining whether or not the reliability of the object candidate detected at the image analysis section 20 is equal to or greater than a threshold, and performing notification on the object candidate as an object needing attention only if the reliability is equal to or greater than the threshold, wherein the notifying section 30 sets the threshold to be applied to the determination of the object candidate, based on a position or a size of the object candidate within the images.SELECTED DRAWING: Figure 1

Description

本開示は、運転支援装置に関する。 The present disclosure relates to a driving support device.

従来、畳み込みニュートラルネットワーク(Convolutional Neural Network)等の識別器モデル(以下、「識別器」と略称する)を用いて、画像解析を行って、画像内に存在する物体を検出する画像処理装置が知られている(例えば、特許文献1を参照)。 Conventionally, an image processing device that detects an object existing in an image by performing image analysis using a classifier model (hereinafter, abbreviated as "classifier") such as a convolutional neural network is known. (See, for example, Patent Document 1).

この種の画像処理装置においては、一般に、検出対象の物体の画像を教師データとして学習処理が施された識別器を用いて、物体検出が行われ、画像内においてこれらの検出対象の物体と類似する画像領域が存在する場合、当該画像領域を物体が存在する候補領域(以下、「物体候補」と称する)として検出する。 In this type of image processing device, object detection is generally performed using a classifier that has been trained using the image of the object to be detected as training data, and is similar to these objects to be detected in the image. When there is an image area to be used, the image area is detected as a candidate area in which an object exists (hereinafter, referred to as “object candidate”).

この種の識別器は、通常、検出された物体候補それぞれについて、当該物体候補が検出対象の物体の種別に該当する確率を示す信頼度を出力するように構成されている。そして、画像処理装置においては、誤検知を抑制するため、識別器が検出した物体候補に係る信頼度が閾値以上か否かを判定し、当該物体候補に係る信頼度が閾値以上である場合に限って、当該物体候補を報知対象とするようになっている。 This type of classifier is usually configured to output, for each of the detected object candidates, a reliability indicating the probability that the object candidate corresponds to the type of object to be detected. Then, in the image processing device, in order to suppress erroneous detection, it is determined whether or not the reliability of the object candidate detected by the classifier is equal to or higher than the threshold value, and when the reliability of the object candidate is equal to or higher than the threshold value. Only, the object candidate is targeted for notification.

特開2018−195293号公報JP-A-2018-195293

ところで、近年、この種の画像処理技術を、車両の前方道路に存在する歩行者、他車両又は落下物等(以下、「要注意物体」と称する)を検出して、車両の運転を支援する運転支援装置に適用することが検討されている。 By the way, in recent years, this kind of image processing technology detects pedestrians, other vehicles, falling objects, etc. (hereinafter referred to as "objects requiring attention") existing on the road in front of the vehicle to support the driving of the vehicle. It is being considered to be applied to driving support devices.

この種の画像処理技術を運転支援装置に適用する場合、車両の前方道路に存在する要注意物体については、車両からの距離が遠方であっても早い段階で、当該車両のユーザ又は当該車両のECU(Electronic Control Unit)に報知することが望ましい。 When applying this type of image processing technology to a driving assistance device, for objects requiring attention on the road ahead of the vehicle, the user of the vehicle or the vehicle can be used at an early stage even if the distance from the vehicle is long. It is desirable to notify the ECU (Electronic Control Unit).

但し、識別器は、一般に、画像内に検出された物体候補のサイズが比較的小さい場合には、当該物体候補の信頼度を小さい値として出力する傾向にある。又、識別器は、一般に、画像内に検出された物体候補のサイズが比較的大きい場合には、信頼度を大きい値として出力する傾向にある。 However, the classifier generally tends to output the reliability of the object candidate as a small value when the size of the object candidate detected in the image is relatively small. Further, the classifier generally tends to output the reliability as a large value when the size of the object candidate detected in the image is relatively large.

その結果、この種の画像処理技術を、そのまま運転支援装置に転用すると、車両から遠方に存在する要注意物体については未検出となってしまうおそれがある。又、要注意物体以外の物体(例えば、建物や看板)が車両に近接して存在する場合には、それらを要注意物体として誤って報知してしまうおそれがある。 As a result, if this kind of image processing technology is diverted to the driving support device as it is, there is a possibility that an object requiring attention distant from the vehicle will not be detected. Further, when an object other than the object requiring attention (for example, a building or a signboard) exists in the vicinity of the vehicle, there is a possibility that they are erroneously notified as the object requiring attention.

本開示は、上記問題点に鑑みてなされたもので、より正確に、要注意物体を検出し、報知を行うことを可能とする運転支援装置を提供することを目的とする。 The present disclosure has been made in view of the above problems, and an object of the present disclosure is to provide a driving support device capable of more accurately detecting and notifying an object requiring attention.

前述した課題を解決する主たる本開示は、
車両の周辺道路に存在する物体を検出する運転支援装置であって、
前記車両に搭載された前記周辺道路を撮影する車載カメラから画像を取得する画像取得部と、
学習済みの識別器を用いて、前記画像から物体候補を検出する画像解析部と、
前記画像解析部で検出された前記物体候補の信頼度が閾値以上か否かを判定し、当該信頼度が閾値以上の場合に限って、当該物体候補を、要注意物体として報知する報知部と、
を備え、
前記報知部は、前記物体候補の前記画像内における位置又はサイズに基づいて、当該物体候補の判定に適用する前記閾値を設定する、
運転支援装置である。
The main disclosure that solves the above-mentioned problems is
It is a driving support device that detects objects existing on the road around the vehicle.
An image acquisition unit that acquires an image from an in-vehicle camera that photographs the surrounding roads mounted on the vehicle, and an image acquisition unit.
An image analysis unit that detects object candidates from the image using a trained classifier, and
A notification unit that determines whether or not the reliability of the object candidate detected by the image analysis unit is equal to or higher than the threshold value, and notifies the object candidate as an object requiring attention only when the reliability is equal to or higher than the threshold value. ,
With
The notification unit sets the threshold value applied to the determination of the object candidate based on the position or size of the object candidate in the image.
It is a driving support device.

本開示に係る運転支援装置によれば、より正確に、要注意物体を検出し、報知を行うことが可能である。 According to the driving support device according to the present disclosure, it is possible to more accurately detect and notify an object requiring attention.

第1の実施形態に係る運転支援装置を搭載する車両の構成を示す図The figure which shows the structure of the vehicle which mounts the driving support device which concerns on 1st Embodiment 第1の実施形態に係る運転支援装置のハードウェア構成を示す図The figure which shows the hardware configuration of the driving support device which concerns on 1st Embodiment 第1の実施形態に係る運転支援装置が車載モニタに表示させる表示画面の一例を示す図The figure which shows an example of the display screen which the driving support device which concerns on 1st Embodiment displays on an in-vehicle monitor. 一般的な畳み込みニュートラルネットワークの構成の一例を示す図Diagram showing an example of the configuration of a general convolutional neutral network 第1の実施形態に係る報知部の閾値の設定方法について、説明する図The figure explaining the method of setting the threshold value of the notification part which concerns on 1st Embodiment. 第1の実施形態に係る運転支援装置の動作の一例を示すフローチャートA flowchart showing an example of the operation of the driving support device according to the first embodiment. 第2の実施形態に係る報知部の閾値の設定方法について、説明する図The figure explaining the method of setting the threshold value of the notification part which concerns on 2nd Embodiment. 第3の実施形態に係る報知部による物体候補の奥行き方向の位置の算出方法について説明する図The figure explaining the calculation method of the position in the depth direction of the object candidate by the notification part which concerns on 3rd Embodiment. 第4の実施形態に係る報知部による物体候補の奥行き方向の位置の算出方法について説明する図The figure explaining the calculation method of the position in the depth direction of the object candidate by the notification part which concerns on 4th Embodiment.

以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。尚、本明細書及び図面において、実質的に同一の機能を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same function are designated by the same reference numerals, so that duplicate description will be omitted.

[運転支援装置の構成]
以下、図1を参照して、第1の実施形態に係る運転支援装置の構成について説明する。
[Driving support device configuration]
Hereinafter, the configuration of the driving support device according to the first embodiment will be described with reference to FIG.

本実施形態に係る運転支援装置は、自動車などの車両に搭載され、当該車両の前方道路に存在する要注意物体を検出して、ユーザに注意喚起することでユーザの運転を支援する又は当該車両のECUに報知することで自動運転の車両運動制御に利用する。尚、以下、「車両」と称するときには、本実施形態に係る運転支援装置が搭載された車両を意味し、本実施形態に係る運転支援装置が搭載された車両とは別の車両を表すときには「他車両」と称する。 The driving support device according to the present embodiment is mounted on a vehicle such as an automobile, detects an object requiring attention on the road in front of the vehicle, and alerts the user to assist the user in driving or the vehicle. It is used for vehicle motion control of automatic driving by notifying the ECU of. Hereinafter, when the term "vehicle" is used, it means a vehicle equipped with the driving support device according to the present embodiment, and when referring to a vehicle different from the vehicle equipped with the driving support device according to the present embodiment, "vehicle" is used. Called "another vehicle".

図1は、本実施形態に係る運転支援装置100を搭載する車両1の構成を示す図である。図2は、本実施形態に係る運転支援装置100のハードウェア構成を示す図である。図3は、本実施形態に係る運転支援装置100が車載モニタ300に表示させる表示画面の一例を示す図である。 FIG. 1 is a diagram showing a configuration of a vehicle 1 equipped with a driving support device 100 according to the present embodiment. FIG. 2 is a diagram showing a hardware configuration of the driving support device 100 according to the present embodiment. FIG. 3 is a diagram showing an example of a display screen displayed on the in-vehicle monitor 300 by the driving support device 100 according to the present embodiment.

車両1は、例えば、運転支援装置100、車載カメラ200、及び車載モニタ300を備えている。尚、これらは、例えば、車両1内に搭載されている。 The vehicle 1 includes, for example, a driving support device 100, an in-vehicle camera 200, and an in-vehicle monitor 300. These are mounted in the vehicle 1, for example.

運転支援装置100は、車載カメラ200が生成した車両1の前方道路の画像に基づいて、車両1の前方道路に存在する要注意物体を検出する。そして、運転支援装置100は、例えば、検出された要注意物体を注意喚起する画像を、車載カメラ200が生成した画像に重畳させて、車載モニタ300に表示させる。 The driving support device 100 detects an object requiring attention existing on the road ahead of the vehicle 1 based on the image of the road ahead of the vehicle 1 generated by the vehicle-mounted camera 200. Then, for example, the driving support device 100 superimposes an image that calls attention to the detected object requiring attention on the image generated by the vehicle-mounted camera 200 and displays it on the vehicle-mounted monitor 300.

運転支援装置100は、主たるコンポーネントとして、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、外部記憶装置(例えば、フラッシュメモリ)104、及び通信インターフェイス105等を備えたコンピュータである。運転支援装置100の後述する各機能は、例えば、CPU101がROM102、RAM103、又は外部記憶装置104に記憶された制御プログラムや各種データを参照することによって実現される。尚、外部記憶装置104には、例えば、後述する各種機能を実現するための制御プログラム、及び、画像解析部20が参照する識別器のモデルデータ等が記憶されている。 The operation support device 100 has, as main components, a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an external storage device (for example, a flash memory) 104, a communication interface 105, and the like. It is a computer equipped with. Each function described later in the driving support device 100 is realized, for example, by the CPU 101 referring to a control program or various data stored in the ROM 102, the RAM 103, or the external storage device 104. The external storage device 104 stores, for example, a control program for realizing various functions described later, model data of a discriminator referred to by the image analysis unit 20, and the like.

但し、各機能の一部又は全部は、CPUによる処理に代えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に代えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。 However, a part or all of each function may be realized by the processing by the DSP (Digital Signal Processor) instead of or in combination with the processing by the CPU. Similarly, a part or all of each function may be realized by processing by a dedicated hardware circuit instead of or together with processing by software.

車載カメラ200は、例えば、一般的なカメラや広角カメラであり、自身の撮像素子が生成した画像信号をAD変換して、画像データ(以下、「画像」と略称する)を生成する。車載カメラ200は、例えば、車両1内のフロントガラス近傍に固定されており、フロントガラス越しに、車両1の前方道路を撮影する。尚、車載カメラ200は、例えば、フレーム単位の画像を連続的に生成して、車両1の前方道路の画像の動画を生成する。 The in-vehicle camera 200 is, for example, a general camera or a wide-angle camera, and AD-converts an image signal generated by its own image sensor to generate image data (hereinafter, abbreviated as “image”). The in-vehicle camera 200 is fixed in the vicinity of the windshield in the vehicle 1, for example, and photographs the road ahead of the vehicle 1 through the windshield. The in-vehicle camera 200 continuously generates, for example, frame-by-frame images to generate a moving image of the road ahead of the vehicle 1.

車載モニタ300は、例えば、一般的なディスプレイであり、運転支援装置100から取得する画像を表示する。尚、車載モニタ300は、運転支援装置100が検出した物体を車両1のユーザに報知する報知手段として機能する。 The in-vehicle monitor 300 is, for example, a general display and displays an image acquired from the driving support device 100. The in-vehicle monitor 300 functions as a notification means for notifying the user of the vehicle 1 of the object detected by the driving support device 100.

車載モニタ300は、例えば、図3に示すように、車載カメラ200が生成した画像に重畳するように、検出物体に対してマーカM1、M2を付したモニタ画面を表示する。尚、図3中のRは全画像領域、P1は歩行者、P2は他車両、P3は看板、P4は建物、Lは道路領域を表している。ここでは、歩行者P1及び他車両P2のみが報知対象の要注意物体として検出され、看板P3及び建物P4は報知対象の物体として検出されてない状態を表している。 For example, as shown in FIG. 3, the vehicle-mounted monitor 300 displays a monitor screen with markers M1 and M2 attached to the detected object so as to be superimposed on the image generated by the vehicle-mounted camera 200. In FIG. 3, R represents the entire image area, P1 represents a pedestrian, P2 represents another vehicle, P3 represents a signboard, P4 represents a building, and L represents a road area. Here, only the pedestrian P1 and the other vehicle P2 are detected as objects requiring attention as the notification target, and the signboard P3 and the building P4 are not detected as the notification target objects.

運転支援装置100は、例えば、画像取得部10、画像解析部20、及び報知部30を備えている。 The driving support device 100 includes, for example, an image acquisition unit 10, an image analysis unit 20, and a notification unit 30.

画像取得部10は、車載カメラ200が生成した画像を取得する。 The image acquisition unit 10 acquires an image generated by the in-vehicle camera 200.

画像解析部20は、学習済みの識別器D1を用いて、車載カメラ200から取得した画像に対して画像解析処理を施して、当該画像から物体候補を検出すると共に、当該物体候補に係る信頼度を算出する。ここでは、識別器D1として、畳み込みニュートラルネットワークが用いられている。尚、「信頼度」とは、上記したように、識別器D1が、画像から物体候補を検出した際に、その物体候補が実際に存在する物体であるか否か、又は、その物体候補が検出対象の物体の種別に該当するか否かを示す指標として出力する値である。 The image analysis unit 20 uses the trained classifier D1 to perform image analysis processing on the image acquired from the in-vehicle camera 200, detects an object candidate from the image, and has a reliability related to the object candidate. Is calculated. Here, a convolutional neutral network is used as the classifier D1. As described above, the "reliability" means whether or not the object candidate is an object that actually exists when the classifier D1 detects the object candidate from the image, or the object candidate is It is a value to be output as an index indicating whether or not it corresponds to the type of the object to be detected.

図4は、一般的な畳み込みニュートラルネットワークの構成の一例を示す図である。 FIG. 4 is a diagram showing an example of the configuration of a general convolutional neutral network.

畳み込みニュートラルネットワークは、特徴抽出部Daと識別部Dbとを有し、特徴抽出部Daが、入力される画像から画像特徴を抽出する処理を施し、識別部Dbが、画像内に映る物体の物体種別を識別する処理を施す。 The convolutional neutral network has a feature extraction unit Da and an identification unit Db, the feature extraction unit Da performs a process of extracting an image feature from an input image, and the identification unit Db is an object of an object reflected in the image. Performs processing to identify the type.

特徴抽出部Daは、複数の特徴量抽出層Da1、Da2・・・が階層的に接続されて構成される。各特徴量抽出層Da1、Da2・・・は、それぞれ、畳み込み層(Convolution layer)、活性化層(Activation layer)及びプーリング層(Pooling layer)を備える。 The feature extraction unit Da is configured by hierarchically connecting a plurality of feature extraction layers Da1, Da2, .... Each feature amount extraction layer Da1, Da2 ... Includes a convolution layer, an activation layer, and a pooling layer, respectively.

第1層目の特徴量抽出層Da1は、入力される画像を、ラスタスキャンにより所定サイズ毎に走査する。そして、特徴量抽出層Da1は、走査したデータに対して、畳み込み層、活性化層及びプーリング層によって特徴量抽出処理を施すことにより、入力画像に含まれる特徴量を抽出する。第1層目の特徴量抽出層Da1は、例えば、水平方向に延びる線状の特徴量や斜め方向に延びる線状の特徴量等の比較的シンプルな単独の特徴量を抽出する。 The feature amount extraction layer Da1 of the first layer scans the input image for each predetermined size by raster scanning. Then, the feature amount extraction layer Da1 extracts the feature amount included in the input image by performing the feature amount extraction process on the scanned data by the convolutional layer, the activation layer and the pooling layer. The feature amount extraction layer Da1 of the first layer extracts a relatively simple single feature amount such as a linear feature amount extending in the horizontal direction and a linear feature amount extending in the diagonal direction, for example.

第2層目の特徴量抽出層Da2は、前階層の特徴量抽出層Da1から入力される画像(特徴マップとも称される)を、例えば、ラスタスキャンにより所定サイズ毎に走査する。そして、特徴量抽出層Da2は、走査したデータに対して、同様に、畳み込み層、活性化層及びプーリング層による特徴量抽出処理を施すことにより、入力画像に含まれる特徴量を抽出する。尚、第2層目の特徴量抽出層Da2は、第1層目の特徴量抽出層Da1が抽出した複数の特徴量の位置関係などを考慮しながら統合させることで、より高次元の複合的な特徴量を抽出する。 The feature amount extraction layer Da2 of the second layer scans an image (also referred to as a feature map) input from the feature amount extraction layer Da1 of the previous layer for each predetermined size by, for example, raster scanning. Then, the feature amount extraction layer Da2 extracts the feature amount included in the input image by similarly performing the feature amount extraction process by the convolutional layer, the activation layer and the pooling layer on the scanned data. It should be noted that the feature amount extraction layer Da2 of the second layer is integrated while considering the positional relationship of a plurality of feature amounts extracted by the feature amount extraction layer Da1 of the first layer, so that it is a higher-dimensional complex. Extract features.

第2層目以降の特徴量抽出層(図示せず)は、第2層目の特徴量抽出層Da2と同様の処理を実行する。そして、最終層の特徴量抽出層の出力(複数の特徴マップのマップ内の各値)が、識別部Dbに対して入力される。 The feature amount extraction layer (not shown) of the second and subsequent layers executes the same processing as the feature amount extraction layer Da2 of the second layer. Then, the output of the feature amount extraction layer of the final layer (each value in the map of the plurality of feature maps) is input to the identification unit Db.

識別部Dbは、例えば、複数の全結合層(Fully Connected)が階層的に接続された多層パーセプトロンによって構成される。 The identification unit Db is composed of, for example, a multi-layer perceptron in which a plurality of fully connected layers (Fully Connected) are hierarchically connected.

識別部Dbの入力側の全結合層は、特徴抽出部Daから取得した複数の特徴マップのマップ内の各値に全結合し、その各値に対して重み係数を異ならせながら積和演算を行って出力する。識別部Dbの次階層の全結合層は、前階層の全結合層の各素子が出力する値に全結合し、その各値に対して重み係数を異ならせながら積和演算を行う。 The fully connected layer on the input side of the identification unit Db is fully connected to each value in the map of the plurality of feature maps acquired from the feature extraction unit Da, and the product-sum operation is performed while making the weighting coefficient different for each value. Go and output. The fully connected layer of the next layer of the identification unit Db is fully coupled to the values output by each element of the fully connected layer of the previous layer, and the product-sum operation is performed while making the weighting coefficients different for each value.

識別部Dbの最後段の全結合層には、例えば、検出対象物体(即ち、要注意物体)のカテゴリー毎に出力素子が設けられている。これにより、識別部Dbは、画像内に検出対象物体に該当する物体候補を検出した場合、当該物体候補が検出対象物体に該当する確率を、信頼度として出力するように構成される。 An output element is provided for each category of the object to be detected (that is, an object requiring attention) in the fully connected layer at the final stage of the identification unit Db, for example. As a result, when the identification unit Db detects an object candidate corresponding to the detection target object in the image, the identification unit Db is configured to output the probability that the object candidate corresponds to the detection target object as the reliability.

又、識別部Dbの最後段の全結合層には、例えば、検出対象物体のカテゴリー毎に、画像内に映る物体が存在する位置(例えば、画像内に映る物体が存在する領域を囲む矩形状の4隅のXY座標)を出力する出力素子が設けられている。これによって、識別部Dbは、検出した物体候補の画像内における位置を出力することができる。 Further, in the fully connected layer at the last stage of the identification unit Db, for example, for each category of the object to be detected, a rectangular shape surrounding the position where the object reflected in the image exists (for example, the area where the object reflected in the image exists) is formed. An output element is provided to output (XY coordinates of the four corners of the above). As a result, the identification unit Db can output the position of the detected object candidate in the image.

畳み込みニュートラルネットワークは、例えば、正解カテゴリー(及び物体が存在する正解位置)を付した検出対象物体が映る画像を用いて学習処理(例えば、誤差逆伝播法による学習処理)が施されることによって、ネットワークパラメータ(例えば、畳み込み層の重み係数及びバイアス、全結合層の重み係数及びバイアス)が調整され、上記のように機能する。 The convolutional neutral network is subjected to learning processing (for example, learning processing by the error backpropagation method) using an image showing an object to be detected with a correct answer category (and the correct position where the object exists). Network parameters (eg, convolution layer weighting factors and biases, fully connected layer weighting factors and biases) are adjusted to function as described above.

尚、図4に示す畳み込みニュートラルネットワークの構造は、一例であって、物体検出のための畳み込みニュートラルネットワークの構造は、種々に変形可能である。例えば、物体領域(バウンディングボックス)を検出するためのディテクターが、特徴抽出部Daの前段に設けられてもよい。 The structure of the convolutional neutral network shown in FIG. 4 is an example, and the structure of the convolutional neutral network for object detection can be variously modified. For example, a detector for detecting an object region (bounding box) may be provided in front of the feature extraction unit Da.

本実施形態に係る識別器D1(ここでは、畳み込みニュートラルネットワーク)は、ユーザ又は車両1のECUに認識させる必要がある物体、例えば、車両、歩行者、及び落下物等を画像内から検出するように学習処理が施されており、これらの物体を画像内から検出し得るように構成されている。 The classifier D1 (here, the convolutional neutral network) according to the present embodiment detects an object that needs to be recognized by the user or the ECU of the vehicle 1, for example, a vehicle, a pedestrian, a falling object, or the like from the image. Is subjected to learning processing, and is configured so that these objects can be detected in the image.

学習済みの識別器D1のモデルデータ(ネットワークの構造データ及び学習済みのパラメータデータ等)は、例えば、制御プログラムと共に、外部記憶装置104に格納されている。 The trained model data of the classifier D1 (network structure data, trained parameter data, etc.) is stored in the external storage device 104 together with the control program, for example.

画像解析部20は、例えば、学習済みの識別器D1(畳み込みニュートラルネットワーク)の順伝播処理を施すことによって、画像内から物体候補を検出すると共に、信頼度を算出する。 The image analysis unit 20 detects an object candidate from the image and calculates the reliability by performing forward propagation processing of the learned classifier D1 (convolution neutral network), for example.

報知部30は、画像解析部20に検出された物体候補の信頼度が閾値以上であるか否かを判定する。そして、報知部30は、物体候補の信頼度が閾値以上の場合、当該物体候補を要注意物体として報知する。一方、物体候補の信頼度が閾値未満の場合、報知部30は、当該物体候補を報知対象としない。 The notification unit 30 determines whether or not the reliability of the object candidate detected by the image analysis unit 20 is equal to or higher than the threshold value. Then, when the reliability of the object candidate is equal to or higher than the threshold value, the notification unit 30 notifies the object candidate as an object requiring attention. On the other hand, when the reliability of the object candidate is less than the threshold value, the notification unit 30 does not target the object candidate for notification.

但し、本実施形態に係る報知部30は、物体候補の画像内における位置又はサイズに基づいて、閾値を設定する。つまり、報知部30は、画像から複数の物体候補が検出された場合、複数の物体候補それぞれに対して別個の閾値を設定する。報知部30は、典型的には、物体候補の画像内における位置又はサイズから推定される当該物体候補と車両1との間の距離が所定距離以上の場合、物体候補と車両1との間の距離が所定距離未満の場合よりも、当該物体候補に適用する閾値を小さくする。 However, the notification unit 30 according to the present embodiment sets the threshold value based on the position or size of the object candidate in the image. That is, when a plurality of object candidates are detected from the image, the notification unit 30 sets a separate threshold value for each of the plurality of object candidates. The notification unit 30 typically receives a distance between the object candidate and the vehicle 1 when the distance between the object candidate and the vehicle 1 estimated from the position or size in the image of the object candidate is equal to or greater than a predetermined distance. The threshold value applied to the object candidate is made smaller than when the distance is less than a predetermined distance.

上記したように、一般的な画像処理装置においては、検出された物体候補の位置によらず、一定の閾値を基準として、当該物体候補を報知対象とするか否かが決定されている。しかしながら、かかる態様では、遠方に存在する物体については検出され難くなり、ユーザ又は車両1のECU(例えば、自動運転を実行する車両ECU)の安全運転に支障を来すおそれがある。又、かかる態様では、近距離に存在する物体については、検出対象ではない物体を検出対象物体として誤検出してしまい、ユーザに煩雑な印象を与えたり、ユーザ又は車両ECUの誤操作を誘起するおそれもある。 As described above, in a general image processing apparatus, it is determined whether or not the object candidate is to be notified based on a certain threshold value regardless of the position of the detected object candidate. However, in such an embodiment, it becomes difficult to detect an object existing in a distant place, which may hinder the safe driving of the user or the ECU of the vehicle 1 (for example, the vehicle ECU that executes automatic driving). Further, in such an embodiment, for an object existing at a short distance, an object that is not a detection target may be erroneously detected as a detection target object, which may give a complicated impression to the user or induce an erroneous operation of the user or the vehicle ECU. There is also.

そこで、本実施形態に係る報知部30は、物体候補と車両1との間の距離が長くなるほど、当該物体候補に適用する閾値を小さく設定し、物体候補と車両1との間の距離が短くなるほど、当該物体候補に適用する閾値を大きく設定する。これにより、車両1から遠方に存在する物体候補が、報知対象となりやすい状態とする。 Therefore, the notification unit 30 according to the present embodiment sets the threshold value applied to the object candidate to be smaller as the distance between the object candidate and the vehicle 1 becomes longer, and the distance between the object candidate and the vehicle 1 becomes shorter. Indeed, the threshold value applied to the object candidate is set large. As a result, the object candidate existing far from the vehicle 1 is likely to be the notification target.

図5は、本実施形態に係る報知部30による閾値の設定方法について、説明する図である。図5のRは車載カメラ200が生成した画像の全画像領域を表し、Raは物体候補が存在する領域、f値は正規化前の閾値を表している。図5中のxmin、xmax、ymin、ymaxは、画像の左上の端部を原点としたときの物体候補が存在する領域Raの四隅のx座標及びy座標を表している。又、図5中のY_horiは、画像内の地平線推定位置を表し、Y_nearは、画像内の車両1の近傍位置(例えば、自車からの距離が3m程度の位置)を表している。 FIG. 5 is a diagram illustrating a method of setting a threshold value by the notification unit 30 according to the present embodiment. R in FIG. 5 represents the entire image region of the image generated by the vehicle-mounted camera 200, Ra represents the region in which the object candidate exists, and the f value represents the threshold value before normalization. In FIG. 5, x min , x max , y min , and y max represent the x and y coordinates of the four corners of the region Ra where the object candidate exists when the upper left edge of the image is the origin. Further, Y _Hori in Figure 5 represents the horizon estimation position in the image, Y _near the vicinity of the vehicle 1 in the image (e.g., distance from the vehicle position about 3m) represents.

報知部30は、例えば、遠方に存在する物体については報知対象となりやすいように、物体候補と車両1との間の距離が長くなるほど、当該物体候補に適用する閾値を小さくする。この際、報知部30は、例えば、画像内の地平線推定位置Y_horiを基準として、物体候補と車両1との間の距離を推定するのが望ましい。例えば、報知部30は、物体候補の画像内における位置が画像の下端から前方道路の地平線推定位置Y_horiに近づくほど、物体候補と車両1との間の距離が長いと推定する。 For example, the notification unit 30 reduces the threshold value applied to the object candidate as the distance between the object candidate and the vehicle 1 increases so that an object existing in a distant place can be easily notified. At this time, it is desirable that the notification unit 30 estimates the distance between the object candidate and the vehicle 1 based on, for example, the horizon estimation position Y_hori in the image. For example, the notification unit 30 estimates that the closer the position in the image of the object candidate is from the lower end of the image to the estimated horizon position Y_hori of the road ahead, the longer the distance between the object candidate and the vehicle 1.

車載カメラ200の設置位置が固定されている場合、地平線は、通常、画像内の所定位置に映るため(ここでは、平坦路を仮定している)、報知部30は、予め定めた当該所定位置を地平線推定位置Y_horiとして用いればよい。他方、報知部30は、地平線推定位置Y_horiより画像上で下の位置であれば、任意に地平線推定位置Y_horiを設定してもよい。 When the installation position of the in-vehicle camera 200 is fixed, the horizon is usually reflected at a predetermined position in the image (here, a flat road is assumed), so that the notification unit 30 is set to the predetermined position. May be used as the estimated horizon position Y_hori. On the other hand, the notification unit 30 may arbitrarily set the horizon estimated position Y_hori as long as it is a position below the horizon estimated position Y_hori on the image.

報知部30は、例えば、以下の式(1−1)〜(1−3)、及び、式(2)を用いて、物体候補に適用する閾値を算出する。報知部30は、例えば、式(1−1)〜(1−3)により算出したf値を、式(2)を用いて、識別器D1から出力される信頼度のスケールに正規化することにより、物体候補に適用する閾値Cthを算出する。

Figure 2021033510
Figure 2021033510
The notification unit 30 calculates the threshold value applied to the object candidate by using, for example, the following equations (1-1) to (1-3) and equation (2). For example, the notification unit 30 normalizes the f value calculated by the equations (1-1) to (1-3) to the scale of the reliability output from the classifier D1 by using the equation (2). The threshold value Cth applied to the object candidate is calculated accordingly.
Figure 2021033510
Figure 2021033510

ここで、物体候補の位置がY_hori<ymax<Y_nearの場合は、検出された物体候補が道路領域に存在し、車両から最近傍領域より遠方に位置することを意味する。当該物体候補は、要注意物体である可能性が高いため、報知対象とされやすくするのが望ましい。報知部30は、かかる観点から、Y_hori<ymax<Y_nearの場合、検出された物体候補が道路領域に存在しない場合又は車両から最近傍領域以内に存在する場合(ymax<Y_hori、又は、Y_near<ymax)よりも、閾値を小さく設定する。加えて、遠方に存在する物体をより正確に検出するため、報知部30は、ymaxがY_nearからY_horiに近づくにつれて、閾値を小さく設定する。 Here, when the position of the object candidate is Y _ori <y max <Y _near , it means that the detected object candidate exists in the road area and is located farther from the vehicle than the nearest neighbor area. Since the object candidate is likely to be an object requiring attention, it is desirable to make it easy to be notified. From this point of view, the notification unit 30 determines that when Y _hori <y max <Y _near , the detected object candidate does not exist in the road area or exists within the nearest neighbor area from the vehicle (y max <Y _hori , Alternatively, the threshold value is set smaller than Y _nea <y max). In addition, in order to detect a distant object more accurately, the notification unit 30 sets the threshold value smaller as y max approaches from Y _near to Y _ hori.

一方、物体候補の位置がymax<Y_horiの場合は、検出された物体候補が道路領域の上空に存在することを意味する。当該物体候補は、歩道橋や看板等、要注意物体以外の物体である可能性が高いため、報知対象から除外されるのが望ましい。かかる観点から、報知部30は、ymax<Y_horiの場合、閾値を最大値付近に設定する。 On the other hand, when the position of the object candidate is y max < Y_hori , it means that the detected object candidate exists in the sky above the road area. Since the object candidate is likely to be an object other than an object requiring attention, such as a pedestrian bridge or a signboard, it is desirable to exclude it from the notification target. From this point of view, the notification unit 30 sets the threshold value near the maximum value when y max <Y _ori.

他方、物体候補の位置がY_near<ymaxの場合は、検出された物体候補が車両1の近傍に存在することを意味する。当該物体候補は、要注意物体である場合も含むが、要注意以外の物体である場合も含む。検出された物体候補が車両1の近傍に存在する場合、当該物体候補の信頼度は、比較的大きい値に算出される傾向にある。かかる観点から、報知部30は、要注意以外の物体の誤検出を抑制するべく、ymax<Y_horiの場合、閾値を最大値付近に設定する。 On the other hand, when the position of the object candidate is Y _nea <y max , it means that the detected object candidate exists in the vicinity of the vehicle 1. The object candidate includes a case where it is an object requiring attention, but also includes a case where it is an object other than that requiring attention. When the detected object candidate exists in the vicinity of the vehicle 1, the reliability of the object candidate tends to be calculated to a relatively large value. From this point of view, the notification unit 30 sets the threshold value near the maximum value when y max <Y _ori , in order to suppress erroneous detection of an object other than the one requiring attention.

尚、上記では、物体候補のY座標のみを参照して、当該物体候補に適用する閾値を算出する態様を示した。しかしながら、当該物体候補に適用する閾値を算出する際には、物体候補のX座標についても参照してもよい。これによって、例えば、物体候補が道路領域内に存在するか否かをより正確に特定することが可能である。 In the above, the mode of calculating the threshold value applied to the object candidate is shown by referring only to the Y coordinate of the object candidate. However, when calculating the threshold value applied to the object candidate, the X coordinate of the object candidate may also be referred to. Thereby, for example, it is possible to more accurately identify whether or not the object candidate exists in the road area.

報知部30は、このようにして、画像解析部20に検出された複数の物体候補それぞれについて、当該物体候補に適用する閾値を設定する。そして、報知部30は、画像解析部20に検出された物体候補のうち、信頼度が閾値以上である物体候補のみを、実際に存在する物体として報知する。この際、報知部30は、例えば、車載カメラ200が生成した画像に対して、報知対象の物体が存在する領域にマークM1、M2を付した表示用画像を生成し、車載モニタ300に出力する(図3を参照)。これによって、ユーザは、車載モニタ300を視認して、前方道路に存在する物体を認識することができる。 In this way, the notification unit 30 sets a threshold value applied to the object candidate for each of the plurality of object candidates detected by the image analysis unit 20. Then, the notification unit 30 notifies only the object candidates whose reliability is equal to or higher than the threshold value among the object candidates detected by the image analysis unit 20 as actually existing objects. At this time, for example, the notification unit 30 generates a display image with marks M1 and M2 in the area where the object to be notified exists with respect to the image generated by the vehicle-mounted camera 200, and outputs the display image to the vehicle-mounted monitor 300. (See FIG. 3). As a result, the user can visually recognize the in-vehicle monitor 300 and recognize the object existing on the road ahead.

尚、報知部30による報知態様は、任意である。例えば、報知部30は、スピーカを用いて音声によって報知してもよい。又、報知部30は、車両1を制御するECU(図示せず)に対して報知信号を出力し、当該ECUが、車両1の移動状態を自動制御し得るようにするものであってもよい。 The mode of notification by the notification unit 30 is arbitrary. For example, the notification unit 30 may notify by voice using a speaker. Further, the notification unit 30 may output a notification signal to an ECU (not shown) that controls the vehicle 1 so that the ECU can automatically control the moving state of the vehicle 1. ..

[動作フロー]
図6は、本実施形態に係る運転支援装置100の動作の一例を示すフローチャートである。
[Operation flow]
FIG. 6 is a flowchart showing an example of the operation of the driving support device 100 according to the present embodiment.

運転支援装置100は、まず、車載カメラ200から画像を取得する(ステップS1)。 The driving support device 100 first acquires an image from the in-vehicle camera 200 (step S1).

次に、運転支援装置100は、識別器D1を用いて、車載カメラ200から取得した画像の画像解析を行って、当該画像から物体候補を検出する。尚、この際、運転支援装置100は、当該物体候補の画像内における位置及び信頼度についても算出する(ステップS2)。 Next, the driving support device 100 uses the classifier D1 to perform image analysis of the image acquired from the in-vehicle camera 200, and detects an object candidate from the image. At this time, the driving support device 100 also calculates the position and reliability of the object candidate in the image (step S2).

次に、運転支援装置100は、物体候補の画像内における位置に基づいて、当該物体候補を報知対象とするか否かを判定するために適用する閾値を設定する(ステップS3)。 Next, the driving support device 100 sets a threshold value applied to determine whether or not the object candidate is to be notified based on the position of the object candidate in the image (step S3).

次に、運転支援装置100は、物体候補の信頼度が閾値以上か否かを判定する(ステップS4)。そして、物体候補の信頼度が閾値以上の場合(ステップS4:YES)、ステップS5に処理を進め、当該物体候補についての報知処理を実行する(ステップS5)。一方、物体候補の信頼度が閾値未満の場合(ステップS4:NO)、当該物体候補については報知処理を実行することなく、一連の処理を終了する。 Next, the driving support device 100 determines whether or not the reliability of the object candidate is equal to or higher than the threshold value (step S4). Then, when the reliability of the object candidate is equal to or higher than the threshold value (step S4: YES), the process proceeds to step S5, and the notification process for the object candidate is executed (step S5). On the other hand, when the reliability of the object candidate is less than the threshold value (step S4: NO), a series of processes are completed without executing the notification process for the object candidate.

尚、運転支援装置100は、画像内に複数の物体候補が検出された場合、ステップS3において、複数の物体候補それぞれについて、閾値を設定する。そして、運転支援装置100は、ステップS4において、複数の物体候補それぞれについて、物体候補の信頼度が閾値以上か否かを判定する。 When a plurality of object candidates are detected in the image, the driving support device 100 sets a threshold value for each of the plurality of object candidates in step S3. Then, in step S4, the driving support device 100 determines whether or not the reliability of the object candidates is equal to or higher than the threshold value for each of the plurality of object candidates.

[効果]
以上のように、本実施形態に係る運転支援装置100は、車両1に搭載された前方道路を撮影する車載カメラ200から画像を取得する画像取得部10と、学習済みの識別器D1を用いて、画像から物体候補を検出する画像解析部20と、物体候補の信頼度が閾値以上か否かを判定し、物体候補の信頼度が閾値以上の場合に限って、当該物体候補を、要注意物体として報知する報知部30と、を備え、報知部30は、物体候補の画像内における位置又はサイズに基づいて、当該物体候補に適用する閾値を設定する。
[effect]
As described above, the driving support device 100 according to the present embodiment uses the image acquisition unit 10 that acquires an image from the in-vehicle camera 200 that captures the front road mounted on the vehicle 1 and the trained classifier D1. , The image analysis unit 20 that detects an object candidate from an image determines whether or not the reliability of the object candidate is equal to or higher than the threshold value, and pays attention to the object candidate only when the reliability of the object candidate is equal to or higher than the threshold value. A notification unit 30 for notifying as an object is provided, and the notification unit 30 sets a threshold value applied to the object candidate based on the position or size of the object candidate in the image.

従って、本実施形態に係る運転支援装置100によれば、車両1から遠方に存在する要注意物体(例えば、他車両や歩行者)の未検出を抑制することができる。又、本実施形態に係る運転支援装置100によれば、車両1に近い領域に存在する物体で、特に注意する必要がない物体(例えば、建物等)を、要注意物体と誤検出する事態を抑制することができる。 Therefore, according to the driving support device 100 according to the present embodiment, it is possible to suppress undetection of an object requiring attention (for example, another vehicle or a pedestrian) existing far from the vehicle 1. Further, according to the driving support device 100 according to the present embodiment, an object existing in a region close to the vehicle 1 that does not require special attention (for example, a building) is erroneously detected as an object requiring attention. It can be suppressed.

(第2の実施形態)
次に、図7を参照して、第2の実施形態に係る運転支援装置100について説明する。
(Second embodiment)
Next, the driving support device 100 according to the second embodiment will be described with reference to FIG. 7.

本実施形態に係る運転支援装置100は、物体候補に適用する閾値を、当該物体候補のサイズに基づいて設定する点で、第1の実施形態に係る運転支援装置100と相違する。尚、第1の実施形態と共通する構成については、説明を省略する(以下、他の実施形態についても同様)。 The driving support device 100 according to the present embodiment is different from the driving support device 100 according to the first embodiment in that a threshold value applied to the object candidate is set based on the size of the object candidate. The configuration common to the first embodiment will be omitted from the description (hereinafter, the same applies to the other embodiments).

図7は、本実施形態に係る報知部30の閾値の設定方法について説明する図である。図7中のsizeは物体候補(物体候補が存在する領域Ra)のサイズ、sizemaxは最大の閾値と適用する場合の要注意物体のサイズ、sizeminは最小の閾値を設定する場合の要注意物体のサイズを表す。尚、sizemax、sizeminは、要注意物体のカテゴリー毎に設定される。 FIG. 7 is a diagram illustrating a method of setting a threshold value of the notification unit 30 according to the present embodiment. In FIG. 7, size is the size of the object candidate (area Ra where the object candidate exists), size max is the size of the object that needs attention when applied with the maximum threshold value, and size min is the size of the object that needs attention when setting the minimum threshold value. Represents the size of an object. Note that size max and size min are set for each category of objects requiring attention.

本実施形態に係る報知部30は、識別器D1が画像内で検出した物体候補のサイズに基づいて、当該物体候補と車両1との間の距離を推定し、当該物体候補に適用する閾値を設定する。物体候補のサイズは、例えば、識別器D1から出力される物体候補が存在する領域Raの四隅のx座標及びy座標(即ち、xmin、xmax、ymin、ymax)から、矩形領域の面積として算出される。尚、物体候補のサイズは、矩形領域の面積に対してルートを取った値であってもよい。 The notification unit 30 according to the present embodiment estimates the distance between the object candidate and the vehicle 1 based on the size of the object candidate detected by the classifier D1 in the image, and sets a threshold value applied to the object candidate. Set. The size of the object candidate is, for example, from the x-coordinates and y-coordinates (that is, x min , x max , y min , y max ) of the four corners of the area Ra where the object candidate is output from the classifier D1. Calculated as area. The size of the object candidate may be a value obtained by taking a route with respect to the area of the rectangular region.

運転支援装置100が検出対象とする要注意物体は、車両や歩行者であり、基準サイズが定まった物体である。そこで、運転支援装置100は、例えば、予めROM102等に物体のカテゴリー(例えば、車両や歩行者)毎に基準サイズを記憶しておき、画像内で検出された物体候補のサイズと、当該物体候補と同一カテゴリーの物体候補の基準サイズとを比較することによって、物体候補と車両1との間の距離を推定することができる。 The objects requiring attention to be detected by the driving support device 100 are vehicles and pedestrians, and the reference size is fixed. Therefore, the driving support device 100 stores, for example, a reference size for each object category (for example, a vehicle or a pedestrian) in advance in ROM 102 or the like, and the size of the object candidate detected in the image and the object candidate. By comparing with the reference size of the object candidate of the same category, the distance between the object candidate and the vehicle 1 can be estimated.

報知部30は、例えば、以下の式(3−1)〜(3−3)、及び、式(4)を用いて、閾値を算出する。報知部30は、式(3−1)〜(3−3)により算出したf値を、式(4)を用いて、識別器D1から出力される信頼度のスケールに正規化することにより、閾値Cthを算出する。

Figure 2021033510
Figure 2021033510
The notification unit 30 calculates the threshold value using, for example, the following equations (3-1) to (3-3) and equation (4). The notification unit 30 normalizes the f-number calculated by the equations (3-1) to (3-3) to the scale of the reliability output from the classifier D1 by using the equation (4). Calculate the threshold C th.
Figure 2021033510
Figure 2021033510

上式は、検出対象とする物体候補のサイズが小さくなるにつれて、閾値を小さい値に設定することを表している。これは、検出対象とする物体候補のサイズが小さくなるほど、検出された物体候補が遠方に存在すると推定されるためである。 The above equation represents that the threshold value is set to a smaller value as the size of the object candidate to be detected becomes smaller. This is because it is estimated that the detected object candidate exists farther as the size of the object candidate to be detected becomes smaller.

これによって、物体候補の位置を正確に認識できないような状況(例えば、地平線推定位置が画像内で認識できない状況)においても、報知部30は、物体候補を報知対象とするか否かを判定する閾値を適切に設定することが可能である。 As a result, even in a situation where the position of the object candidate cannot be accurately recognized (for example, a situation where the estimated horizon position cannot be recognized in the image), the notification unit 30 determines whether or not the object candidate is to be notified. It is possible to set the threshold appropriately.

尚、報知部30は、以下の式(5−1)〜(5−3)のいずれか、及び式(6)を用いて、物体の画像内における位置及びサイズの両方に基づいて、閾値を設定してもよい。

Figure 2021033510
Figure 2021033510
The notification unit 30 uses any of the following equations (5-1) to (5-3) and equation (6) to set a threshold value based on both the position and size of the object in the image. It may be set.
Figure 2021033510
Figure 2021033510

これによって、物体候補の位置を正確に認識できないような状況、及び、物体候補のサイズを正確に認識できないような状況のいずれにも対応することが可能である。 This makes it possible to deal with both a situation in which the position of the object candidate cannot be accurately recognized and a situation in which the size of the object candidate cannot be accurately recognized.

以上のように、本実施形態に係る運転支援装置100によれば、物体候補に適用する閾値をより適切に設定することが可能である。 As described above, according to the driving support device 100 according to the present embodiment, it is possible to more appropriately set the threshold value applied to the object candidate.

(第3の実施形態)
次に、図8を参照して、第3の実施形態に係る運転支援装置100について説明する。本実施形態に係る運転支援装置100は、物体候補に適用する閾値を、当該物体候補の奥行き方向の位置に基づいて設定する点で、第1の実施形態に係る運転支援装置100と相違する。
(Third Embodiment)
Next, the driving support device 100 according to the third embodiment will be described with reference to FIG. The driving support device 100 according to the present embodiment is different from the driving support device 100 according to the first embodiment in that a threshold value applied to the object candidate is set based on the position of the object candidate in the depth direction.

図8は、報知部30による物体候補の奥行き方向の位置の算出方法について説明する図である。図8中のPoは物体候補、201は車載カメラ200の撮像面、202は車載カメラ200のレンズ202を表している。 FIG. 8 is a diagram illustrating a method of calculating the position of the object candidate in the depth direction by the notification unit 30. In FIG. 8, Po represents an object candidate, 201 represents an imaging surface of the vehicle-mounted camera 200, and 202 represents a lens 202 of the vehicle-mounted camera 200.

本実施形態に係る報知部30は、画像内で検出された物体候補のy座標に基づいて、例えば、以下の式(7)、(8)を用いて、物体候補の奥行き方向の位置(即ち、車載カメラ200と物体候補との間の距離)Zを算出する。そして、報知部30は、例えば、車載カメラ200と物体候補との間の距離Zから、式(9)を用いてf値を算出する。そして、算出されたf値を、式(2)を用いて、識別器D1から出力される信頼度のスケールに正規化することにより、閾値Cthを算出する。尚、式(7)、(8)は、要注意物体はその下端が必ず道路面上に存在すると仮定して、物体候補と車両1との間の距離を推定している。

Figure 2021033510
Figure 2021033510
Figure 2021033510
The notification unit 30 according to the present embodiment uses the following equations (7) and (8) based on the y-coordinate of the object candidate detected in the image, for example, to position the object candidate in the depth direction (that is,). , Distance between the vehicle-mounted camera 200 and the object candidate) Z is calculated. Then, the notification unit 30 calculates the f-number from the distance Z between the vehicle-mounted camera 200 and the object candidate, for example, using the equation (9). Then, the threshold value Cth is calculated by normalizing the calculated f value to the scale of the reliability output from the classifier D1 using the equation (2). In the equations (7) and (8), the distance between the object candidate and the vehicle 1 is estimated on the assumption that the lower end of the object requiring attention is always on the road surface.
Figure 2021033510
Figure 2021033510
Figure 2021033510

以上のように、本実施形態に係る運転支援装置100によれば、物体候補の奥行き方向の位置(即ち、車載カメラ200と物体候補との間の距離)をより正確に算出することができるため、報知部30が適用する閾値をより適切に設定することができる。 As described above, according to the driving support device 100 according to the present embodiment, the position of the object candidate in the depth direction (that is, the distance between the in-vehicle camera 200 and the object candidate) can be calculated more accurately. , The threshold value applied by the notification unit 30 can be set more appropriately.

(第4の実施形態)
次に、図9を参照して、第4の実施形態に係る運転支援装置100について説明する。本実施形態に係る運転支援装置100は、物体候補に適用する閾値を、当該物体候補の奥行き方向の位置に基づいて設定する点で、第1の実施形態に係る運転支援装置100と相違する。
(Fourth Embodiment)
Next, the driving support device 100 according to the fourth embodiment will be described with reference to FIG. The driving support device 100 according to the present embodiment is different from the driving support device 100 according to the first embodiment in that a threshold value applied to the object candidate is set based on the position of the object candidate in the depth direction.

本実施形態は、車載カメラ200として、ステレオカメラが使用されている場合に適用される。ステレオカメラは、三角測量の原理により、撮影時に、物体候補の奥行き方向の位置を直接的に推定することが可能である。 This embodiment is applied when a stereo camera is used as the vehicle-mounted camera 200. The stereo camera can directly estimate the position of the object candidate in the depth direction at the time of shooting by the principle of triangulation.

図9は、報知部30による物体候補の奥行き方向の位置の算出方法について説明する図である。尚、図9において、Poは物体候補、201は撮像面(ここでは、説明の便宜として、左側撮像部と右側撮像部で共通として図示している)、202aは左側撮像部のレンズ、202bは右側撮像部のレンズを表す。又、xは左側撮像部のレンズ202aのレンズ中心軸からの距離、xは右側撮像部のレンズ202aのレンズ中心軸からの距離を表している。 FIG. 9 is a diagram illustrating a method of calculating the position of the object candidate in the depth direction by the notification unit 30. In FIG. 9, Po is an object candidate, 201 is an imaging surface (here, for convenience of explanation, the left imaging unit and the right imaging unit are commonly shown), 202a is a lens of the left imaging unit, and 202b is a lens of the left imaging unit. Represents the lens of the right imaging unit. Further, x L represents the distance from the lens central axis of the lens 202a of the left imaging unit, and x R represents the distance from the lens central axis of the lens 202a of the right imaging unit.

本実施形態に係る報知部30は、車載カメラ200(ここでは、ステレオカメラ)から取得した左側撮像部の画像と右側撮像部の画像とに基づいて、例えば、以下の式(10)を用いて、物体候補の奥行き方向の位置(即ち、車載カメラ200と物体候補との間の距離)Zを算出する。そして、報知部30は、例えば、車載カメラ200と物体候補との間の距離Zから、第3の実施形態で説明した手法と同様に、式(9)用いてf値を算出し、式(2)を用いて、f値から閾値Cthを算出する。

Figure 2021033510
The notification unit 30 according to the present embodiment uses, for example, the following equation (10) based on the image of the left side image pickup unit and the image of the right side image pickup unit acquired from the vehicle-mounted camera 200 (here, the stereo camera). , The position (that is, the distance between the vehicle-mounted camera 200 and the object candidate) Z in the depth direction of the object candidate is calculated. Then, the notification unit 30 calculates an f-number from the distance Z between the vehicle-mounted camera 200 and the object candidate, for example, using the equation (9) in the same manner as the method described in the third embodiment, and the equation (9) is used. Using 2), the threshold value Cth is calculated from the f value.
Figure 2021033510

以上のように、本実施形態に係る運転支援装置100によれば、物体候補の奥行き方向の位置(即ち、車載カメラ200と物体候補との間の距離)をより正確に算出することができるため、報知部30が適用する閾値をより適切に設定することができる。 As described above, according to the driving support device 100 according to the present embodiment, the position of the object candidate in the depth direction (that is, the distance between the in-vehicle camera 200 and the object candidate) can be calculated more accurately. , The threshold value applied by the notification unit 30 can be set more appropriately.

(その他の実施形態)
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
(Other embodiments)
The present invention is not limited to the above embodiment, and various modifications can be considered.

例えば、上記各実施形態では、識別器D1の一例として、畳み込みニュートラルネットワークを示したが、識別器D1は、ベイズ識別器又はSVM(Support Vector Machine)識別器等、機械学習によって識別機能を発現する他の識別器によって構成されてもよい。又、識別器D1として、畳み込みニュートラルネットワークを用いる場合も、そのモデル構造は、種々に変更可能である。 For example, in each of the above embodiments, a convolutional neutral network is shown as an example of the classifier D1, but the classifier D1 expresses a discriminating function by machine learning such as a Bayesian classifier or an SVM (Support Vector Machine) classifier. It may be composed of other classifiers. Also, when a convolutional neutral network is used as the classifier D1, the model structure can be changed in various ways.

又、上記各実施形態では、識別器D1の一例として、物体候補が存在する領域Raの四隅のx座標及びy座標を出力する構成を示した。しかしながら、識別器D1が出力する物体候補の位置に係る情報は、物体候補の重心位置1点のみであってもよい。 Further, in each of the above embodiments, as an example of the classifier D1, a configuration is shown in which the x-coordinates and y-coordinates of the four corners of the region Ra in which the object candidate exists are output. However, the information related to the position of the object candidate output by the classifier D1 may be only one point of the center of gravity of the object candidate.

又、上記第3及び第4実施形態では、報知部30が物体候補の奥行き方向の位置(即ち、車載カメラ200と物体候補との間の距離)を算出する態様を示した。しかしながら、これらの演算処理は、車載カメラ200内で実行されてもよい。 Further, in the third and fourth embodiments, the notification unit 30 shows an aspect of calculating the position of the object candidate in the depth direction (that is, the distance between the vehicle-mounted camera 200 and the object candidate). However, these arithmetic processes may be executed in the in-vehicle camera 200.

以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。 Although specific examples of the present invention have been described in detail above, these are merely examples and do not limit the scope of claims. The techniques described in the claims include various modifications and modifications of the specific examples illustrated above.

本開示に係る運転支援装置によれば、より正確に、要注意物体を検出し、報知を行うことが可能である。 According to the driving support device according to the present disclosure, it is possible to more accurately detect and notify an object requiring attention.

1 車両
10 画像取得部
20 画像解析部
30 報知部
100 運転支援装置
101 CPU
102 ROM
103 RAM
104 外部記憶装置
105 通信インターフェイス
200 車載カメラ
201 撮像面
202、202a、202b レンズ
300 車載モニタ
D1 識別器
1 Vehicle 10 Image acquisition unit 20 Image analysis unit 30 Notification unit 100 Driving support device
101 CPU
102 ROM
103 RAM
104 External storage device 105 Communication interface 200 On-board camera 201 Imaging surface 202, 202a, 202b Lens 300 On-board monitor D1 classifier

Claims (9)

車両の周辺道路に存在する物体を検出する運転支援装置であって、
前記車両に搭載された前記周辺道路を撮影する車載カメラから画像を取得する画像取得部と、
学習済みの識別器を用いて、前記画像から物体候補を検出する画像解析部と、
前記画像解析部で検出された前記物体候補の信頼度が閾値以上か否かを判定し、当該信頼度が閾値以上の場合に限って、当該物体候補を、要注意物体として報知する報知部と、
を備え、
前記報知部は、前記物体候補の前記画像内における位置又はサイズに基づいて、当該物体候補の判定に適用する前記閾値を設定する、
運転支援装置。
It is a driving support device that detects objects existing on the road around the vehicle.
An image acquisition unit that acquires an image from an in-vehicle camera that photographs the surrounding roads mounted on the vehicle, and an image acquisition unit.
An image analysis unit that detects object candidates from the image using a trained classifier, and
A notification unit that determines whether or not the reliability of the object candidate detected by the image analysis unit is equal to or higher than the threshold value, and notifies the object candidate as an object requiring attention only when the reliability is equal to or higher than the threshold value. ,
With
The notification unit sets the threshold value applied to the determination of the object candidate based on the position or size of the object candidate in the image.
Driving support device.
前記報知部は、前記物体候補の前記画像内における位置又はサイズから推定される当該物体候補と前記車両との間の距離が所定距離以上の場合、前記距離が前記所定距離未満の場合よりも、前記閾値を小さくする、
請求項1に記載の運転支援装置。
When the distance between the object candidate and the vehicle estimated from the position or size of the object candidate in the image is greater than or equal to a predetermined distance, the notification unit is more likely than when the distance is less than the predetermined distance. Decrease the threshold,
The driving support device according to claim 1.
前記報知部は、前記距離が長くなるほど、前記閾値を小さくする、
請求項2に記載の運転支援装置。
The notification unit reduces the threshold value as the distance increases.
The driving support device according to claim 2.
前記報知部は、前記物体候補の前記画像内における位置が前記画像の下端から前記画像内の地平線推定位置に近づくほど、前記距離が長いと推定する、
請求項2又は3に記載の運転支援装置。
The notification unit estimates that the closer the position of the object candidate in the image is from the lower end of the image to the estimated position of the horizon in the image, the longer the distance is.
The driving support device according to claim 2 or 3.
前記報知部は、前記物体候補の前記画像内におけるサイズが、当該物体候補に係る種別の基準サイズと比較して小さくなるほど、前記距離が長いと推定する、
請求項2乃至4のいずれか一項に記載の運転支援装置。
The notification unit estimates that the distance becomes longer as the size of the object candidate in the image becomes smaller than the reference size of the type related to the object candidate.
The driving support device according to any one of claims 2 to 4.
前記報知部は、前記物体候補の前記画像内における位置及びサイズの両方に基づいて、当該物体候補を報知対象とするか否かを判定するための前記閾値を設定する、
請求項1乃至5のいずれか一項に記載の運転支援装置。
The notification unit sets the threshold value for determining whether or not the object candidate is to be notified based on both the position and size of the object candidate in the image.
The driving support device according to any one of claims 1 to 5.
前記報知部は、前記物体候補の前記画像内における位置が前記周辺道路の道路領域外である場合、前記物体候補の前記画像内における位置が前記周辺道路の道路領域内である場合よりも、前記閾値を大きくする、
請求項1乃至6のいずれか一項に記載の運転支援装置。
When the position of the object candidate in the image is outside the road area of the surrounding road, the notification unit is more than when the position of the object candidate in the image is inside the road area of the surrounding road. Increase the threshold,
The driving support device according to any one of claims 1 to 6.
前記車載カメラは、ステレオカメラである、
請求項1乃至7のいずれか一項に記載の運転支援装置。
The in-vehicle camera is a stereo camera.
The driving support device according to any one of claims 1 to 7.
前記識別器は、畳み込みニューラルネットワークである、
請求項1乃至8のいずれか一項に記載の運転支援装置。

The classifier is a convolutional neural network.
The driving support device according to any one of claims 1 to 8.

JP2019151161A 2019-08-21 2019-08-21 Driving assistance device Pending JP2021033510A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019151161A JP2021033510A (en) 2019-08-21 2019-08-21 Driving assistance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019151161A JP2021033510A (en) 2019-08-21 2019-08-21 Driving assistance device

Publications (1)

Publication Number Publication Date
JP2021033510A true JP2021033510A (en) 2021-03-01

Family

ID=74677445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019151161A Pending JP2021033510A (en) 2019-08-21 2019-08-21 Driving assistance device

Country Status (1)

Country Link
JP (1) JP2021033510A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022044396A1 (en) * 2020-08-28 2022-03-03 株式会社Jvcケンウッド Object recognition control device and object recognition method
WO2022220126A1 (en) * 2021-04-13 2022-10-20 株式会社Screenホールディングス Substrate processing device, substrate processing system, and data processing method
WO2023090274A1 (en) * 2021-11-18 2023-05-25 オムロン株式会社 Work recognition device, work recognition method, and work recognition program
WO2023228364A1 (en) * 2022-05-26 2023-11-30 日本電信電話株式会社 Object detection device, object detection method, and object detection program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022044396A1 (en) * 2020-08-28 2022-03-03 株式会社Jvcケンウッド Object recognition control device and object recognition method
WO2022220126A1 (en) * 2021-04-13 2022-10-20 株式会社Screenホールディングス Substrate processing device, substrate processing system, and data processing method
WO2023090274A1 (en) * 2021-11-18 2023-05-25 オムロン株式会社 Work recognition device, work recognition method, and work recognition program
WO2023228364A1 (en) * 2022-05-26 2023-11-30 日本電信電話株式会社 Object detection device, object detection method, and object detection program

Similar Documents

Publication Publication Date Title
EP3229041B1 (en) Object detection using radar and vision defined image detection zone
US8126210B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method
US20190251374A1 (en) Travel assistance device and computer program
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
US9245188B2 (en) Lane detection system and method
JP6670071B2 (en) Vehicle image recognition system and corresponding method
CN107038723B (en) Method and system for estimating rod-shaped pixels
JP5297078B2 (en) Method for detecting moving object in blind spot of vehicle, and blind spot detection device
WO2018142900A1 (en) Information processing device, data management device, data management system, method, and program
JP2021033510A (en) Driving assistance device
CN105096655B (en) Article detection device, drive assistance device, object detecting method
JP4173902B2 (en) Vehicle periphery monitoring device
KR100816377B1 (en) Method and Apparatus for Recognizing Parking Slot Marking by Using Hough Transformation and Parking Assist System Using Same
JP2000357233A (en) Body recognition device
CN106183979A (en) A kind of method and apparatus vehicle reminded according to spacing
US20200125861A1 (en) Road line detection device and road line detection method
CN112084810A (en) Obstacle detection method and device, electronic equipment and storage medium
Liu et al. Vehicle detection and ranging using two different focal length cameras
JP2017181476A (en) Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program
JP2006090957A (en) Surrounding object detecting device for moving body, and surrounding object detection method for moving body
JP2014106739A (en) In-vehicle image processing device
KR102003387B1 (en) Method for detecting and locating traffic participants using bird&#39;s-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
JP2018073275A (en) Image recognition device
JP4151631B2 (en) Object detection device
KR20220160850A (en) Method and apparatus of estimating vanishing point