JP2021033510A - Driving assistance device - Google Patents
Driving assistance device Download PDFInfo
- Publication number
- JP2021033510A JP2021033510A JP2019151161A JP2019151161A JP2021033510A JP 2021033510 A JP2021033510 A JP 2021033510A JP 2019151161 A JP2019151161 A JP 2019151161A JP 2019151161 A JP2019151161 A JP 2019151161A JP 2021033510 A JP2021033510 A JP 2021033510A
- Authority
- JP
- Japan
- Prior art keywords
- object candidate
- image
- vehicle
- support device
- driving support
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、運転支援装置に関する。 The present disclosure relates to a driving support device.
従来、畳み込みニュートラルネットワーク(Convolutional Neural Network)等の識別器モデル(以下、「識別器」と略称する)を用いて、画像解析を行って、画像内に存在する物体を検出する画像処理装置が知られている(例えば、特許文献1を参照)。 Conventionally, an image processing device that detects an object existing in an image by performing image analysis using a classifier model (hereinafter, abbreviated as "classifier") such as a convolutional neural network is known. (See, for example, Patent Document 1).
この種の画像処理装置においては、一般に、検出対象の物体の画像を教師データとして学習処理が施された識別器を用いて、物体検出が行われ、画像内においてこれらの検出対象の物体と類似する画像領域が存在する場合、当該画像領域を物体が存在する候補領域(以下、「物体候補」と称する)として検出する。 In this type of image processing device, object detection is generally performed using a classifier that has been trained using the image of the object to be detected as training data, and is similar to these objects to be detected in the image. When there is an image area to be used, the image area is detected as a candidate area in which an object exists (hereinafter, referred to as “object candidate”).
この種の識別器は、通常、検出された物体候補それぞれについて、当該物体候補が検出対象の物体の種別に該当する確率を示す信頼度を出力するように構成されている。そして、画像処理装置においては、誤検知を抑制するため、識別器が検出した物体候補に係る信頼度が閾値以上か否かを判定し、当該物体候補に係る信頼度が閾値以上である場合に限って、当該物体候補を報知対象とするようになっている。 This type of classifier is usually configured to output, for each of the detected object candidates, a reliability indicating the probability that the object candidate corresponds to the type of object to be detected. Then, in the image processing device, in order to suppress erroneous detection, it is determined whether or not the reliability of the object candidate detected by the classifier is equal to or higher than the threshold value, and when the reliability of the object candidate is equal to or higher than the threshold value. Only, the object candidate is targeted for notification.
ところで、近年、この種の画像処理技術を、車両の前方道路に存在する歩行者、他車両又は落下物等(以下、「要注意物体」と称する)を検出して、車両の運転を支援する運転支援装置に適用することが検討されている。 By the way, in recent years, this kind of image processing technology detects pedestrians, other vehicles, falling objects, etc. (hereinafter referred to as "objects requiring attention") existing on the road in front of the vehicle to support the driving of the vehicle. It is being considered to be applied to driving support devices.
この種の画像処理技術を運転支援装置に適用する場合、車両の前方道路に存在する要注意物体については、車両からの距離が遠方であっても早い段階で、当該車両のユーザ又は当該車両のECU(Electronic Control Unit)に報知することが望ましい。 When applying this type of image processing technology to a driving assistance device, for objects requiring attention on the road ahead of the vehicle, the user of the vehicle or the vehicle can be used at an early stage even if the distance from the vehicle is long. It is desirable to notify the ECU (Electronic Control Unit).
但し、識別器は、一般に、画像内に検出された物体候補のサイズが比較的小さい場合には、当該物体候補の信頼度を小さい値として出力する傾向にある。又、識別器は、一般に、画像内に検出された物体候補のサイズが比較的大きい場合には、信頼度を大きい値として出力する傾向にある。 However, the classifier generally tends to output the reliability of the object candidate as a small value when the size of the object candidate detected in the image is relatively small. Further, the classifier generally tends to output the reliability as a large value when the size of the object candidate detected in the image is relatively large.
その結果、この種の画像処理技術を、そのまま運転支援装置に転用すると、車両から遠方に存在する要注意物体については未検出となってしまうおそれがある。又、要注意物体以外の物体(例えば、建物や看板)が車両に近接して存在する場合には、それらを要注意物体として誤って報知してしまうおそれがある。 As a result, if this kind of image processing technology is diverted to the driving support device as it is, there is a possibility that an object requiring attention distant from the vehicle will not be detected. Further, when an object other than the object requiring attention (for example, a building or a signboard) exists in the vicinity of the vehicle, there is a possibility that they are erroneously notified as the object requiring attention.
本開示は、上記問題点に鑑みてなされたもので、より正確に、要注意物体を検出し、報知を行うことを可能とする運転支援装置を提供することを目的とする。 The present disclosure has been made in view of the above problems, and an object of the present disclosure is to provide a driving support device capable of more accurately detecting and notifying an object requiring attention.
前述した課題を解決する主たる本開示は、
車両の周辺道路に存在する物体を検出する運転支援装置であって、
前記車両に搭載された前記周辺道路を撮影する車載カメラから画像を取得する画像取得部と、
学習済みの識別器を用いて、前記画像から物体候補を検出する画像解析部と、
前記画像解析部で検出された前記物体候補の信頼度が閾値以上か否かを判定し、当該信頼度が閾値以上の場合に限って、当該物体候補を、要注意物体として報知する報知部と、
を備え、
前記報知部は、前記物体候補の前記画像内における位置又はサイズに基づいて、当該物体候補の判定に適用する前記閾値を設定する、
運転支援装置である。
The main disclosure that solves the above-mentioned problems is
It is a driving support device that detects objects existing on the road around the vehicle.
An image acquisition unit that acquires an image from an in-vehicle camera that photographs the surrounding roads mounted on the vehicle, and an image acquisition unit.
An image analysis unit that detects object candidates from the image using a trained classifier, and
A notification unit that determines whether or not the reliability of the object candidate detected by the image analysis unit is equal to or higher than the threshold value, and notifies the object candidate as an object requiring attention only when the reliability is equal to or higher than the threshold value. ,
With
The notification unit sets the threshold value applied to the determination of the object candidate based on the position or size of the object candidate in the image.
It is a driving support device.
本開示に係る運転支援装置によれば、より正確に、要注意物体を検出し、報知を行うことが可能である。 According to the driving support device according to the present disclosure, it is possible to more accurately detect and notify an object requiring attention.
以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。尚、本明細書及び図面において、実質的に同一の機能を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same function are designated by the same reference numerals, so that duplicate description will be omitted.
[運転支援装置の構成]
以下、図1を参照して、第1の実施形態に係る運転支援装置の構成について説明する。
[Driving support device configuration]
Hereinafter, the configuration of the driving support device according to the first embodiment will be described with reference to FIG.
本実施形態に係る運転支援装置は、自動車などの車両に搭載され、当該車両の前方道路に存在する要注意物体を検出して、ユーザに注意喚起することでユーザの運転を支援する又は当該車両のECUに報知することで自動運転の車両運動制御に利用する。尚、以下、「車両」と称するときには、本実施形態に係る運転支援装置が搭載された車両を意味し、本実施形態に係る運転支援装置が搭載された車両とは別の車両を表すときには「他車両」と称する。 The driving support device according to the present embodiment is mounted on a vehicle such as an automobile, detects an object requiring attention on the road in front of the vehicle, and alerts the user to assist the user in driving or the vehicle. It is used for vehicle motion control of automatic driving by notifying the ECU of. Hereinafter, when the term "vehicle" is used, it means a vehicle equipped with the driving support device according to the present embodiment, and when referring to a vehicle different from the vehicle equipped with the driving support device according to the present embodiment, "vehicle" is used. Called "another vehicle".
図1は、本実施形態に係る運転支援装置100を搭載する車両1の構成を示す図である。図2は、本実施形態に係る運転支援装置100のハードウェア構成を示す図である。図3は、本実施形態に係る運転支援装置100が車載モニタ300に表示させる表示画面の一例を示す図である。
FIG. 1 is a diagram showing a configuration of a
車両1は、例えば、運転支援装置100、車載カメラ200、及び車載モニタ300を備えている。尚、これらは、例えば、車両1内に搭載されている。
The
運転支援装置100は、車載カメラ200が生成した車両1の前方道路の画像に基づいて、車両1の前方道路に存在する要注意物体を検出する。そして、運転支援装置100は、例えば、検出された要注意物体を注意喚起する画像を、車載カメラ200が生成した画像に重畳させて、車載モニタ300に表示させる。
The
運転支援装置100は、主たるコンポーネントとして、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、外部記憶装置(例えば、フラッシュメモリ)104、及び通信インターフェイス105等を備えたコンピュータである。運転支援装置100の後述する各機能は、例えば、CPU101がROM102、RAM103、又は外部記憶装置104に記憶された制御プログラムや各種データを参照することによって実現される。尚、外部記憶装置104には、例えば、後述する各種機能を実現するための制御プログラム、及び、画像解析部20が参照する識別器のモデルデータ等が記憶されている。
The
但し、各機能の一部又は全部は、CPUによる処理に代えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に代えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。 However, a part or all of each function may be realized by the processing by the DSP (Digital Signal Processor) instead of or in combination with the processing by the CPU. Similarly, a part or all of each function may be realized by processing by a dedicated hardware circuit instead of or together with processing by software.
車載カメラ200は、例えば、一般的なカメラや広角カメラであり、自身の撮像素子が生成した画像信号をAD変換して、画像データ(以下、「画像」と略称する)を生成する。車載カメラ200は、例えば、車両1内のフロントガラス近傍に固定されており、フロントガラス越しに、車両1の前方道路を撮影する。尚、車載カメラ200は、例えば、フレーム単位の画像を連続的に生成して、車両1の前方道路の画像の動画を生成する。
The in-
車載モニタ300は、例えば、一般的なディスプレイであり、運転支援装置100から取得する画像を表示する。尚、車載モニタ300は、運転支援装置100が検出した物体を車両1のユーザに報知する報知手段として機能する。
The in-
車載モニタ300は、例えば、図3に示すように、車載カメラ200が生成した画像に重畳するように、検出物体に対してマーカM1、M2を付したモニタ画面を表示する。尚、図3中のRは全画像領域、P1は歩行者、P2は他車両、P3は看板、P4は建物、Lは道路領域を表している。ここでは、歩行者P1及び他車両P2のみが報知対象の要注意物体として検出され、看板P3及び建物P4は報知対象の物体として検出されてない状態を表している。
For example, as shown in FIG. 3, the vehicle-mounted
運転支援装置100は、例えば、画像取得部10、画像解析部20、及び報知部30を備えている。
The
画像取得部10は、車載カメラ200が生成した画像を取得する。
The
画像解析部20は、学習済みの識別器D1を用いて、車載カメラ200から取得した画像に対して画像解析処理を施して、当該画像から物体候補を検出すると共に、当該物体候補に係る信頼度を算出する。ここでは、識別器D1として、畳み込みニュートラルネットワークが用いられている。尚、「信頼度」とは、上記したように、識別器D1が、画像から物体候補を検出した際に、その物体候補が実際に存在する物体であるか否か、又は、その物体候補が検出対象の物体の種別に該当するか否かを示す指標として出力する値である。
The
図4は、一般的な畳み込みニュートラルネットワークの構成の一例を示す図である。 FIG. 4 is a diagram showing an example of the configuration of a general convolutional neutral network.
畳み込みニュートラルネットワークは、特徴抽出部Daと識別部Dbとを有し、特徴抽出部Daが、入力される画像から画像特徴を抽出する処理を施し、識別部Dbが、画像内に映る物体の物体種別を識別する処理を施す。 The convolutional neutral network has a feature extraction unit Da and an identification unit Db, the feature extraction unit Da performs a process of extracting an image feature from an input image, and the identification unit Db is an object of an object reflected in the image. Performs processing to identify the type.
特徴抽出部Daは、複数の特徴量抽出層Da1、Da2・・・が階層的に接続されて構成される。各特徴量抽出層Da1、Da2・・・は、それぞれ、畳み込み層(Convolution layer)、活性化層(Activation layer)及びプーリング層(Pooling layer)を備える。 The feature extraction unit Da is configured by hierarchically connecting a plurality of feature extraction layers Da1, Da2, .... Each feature amount extraction layer Da1, Da2 ... Includes a convolution layer, an activation layer, and a pooling layer, respectively.
第1層目の特徴量抽出層Da1は、入力される画像を、ラスタスキャンにより所定サイズ毎に走査する。そして、特徴量抽出層Da1は、走査したデータに対して、畳み込み層、活性化層及びプーリング層によって特徴量抽出処理を施すことにより、入力画像に含まれる特徴量を抽出する。第1層目の特徴量抽出層Da1は、例えば、水平方向に延びる線状の特徴量や斜め方向に延びる線状の特徴量等の比較的シンプルな単独の特徴量を抽出する。 The feature amount extraction layer Da1 of the first layer scans the input image for each predetermined size by raster scanning. Then, the feature amount extraction layer Da1 extracts the feature amount included in the input image by performing the feature amount extraction process on the scanned data by the convolutional layer, the activation layer and the pooling layer. The feature amount extraction layer Da1 of the first layer extracts a relatively simple single feature amount such as a linear feature amount extending in the horizontal direction and a linear feature amount extending in the diagonal direction, for example.
第2層目の特徴量抽出層Da2は、前階層の特徴量抽出層Da1から入力される画像(特徴マップとも称される)を、例えば、ラスタスキャンにより所定サイズ毎に走査する。そして、特徴量抽出層Da2は、走査したデータに対して、同様に、畳み込み層、活性化層及びプーリング層による特徴量抽出処理を施すことにより、入力画像に含まれる特徴量を抽出する。尚、第2層目の特徴量抽出層Da2は、第1層目の特徴量抽出層Da1が抽出した複数の特徴量の位置関係などを考慮しながら統合させることで、より高次元の複合的な特徴量を抽出する。 The feature amount extraction layer Da2 of the second layer scans an image (also referred to as a feature map) input from the feature amount extraction layer Da1 of the previous layer for each predetermined size by, for example, raster scanning. Then, the feature amount extraction layer Da2 extracts the feature amount included in the input image by similarly performing the feature amount extraction process by the convolutional layer, the activation layer and the pooling layer on the scanned data. It should be noted that the feature amount extraction layer Da2 of the second layer is integrated while considering the positional relationship of a plurality of feature amounts extracted by the feature amount extraction layer Da1 of the first layer, so that it is a higher-dimensional complex. Extract features.
第2層目以降の特徴量抽出層(図示せず)は、第2層目の特徴量抽出層Da2と同様の処理を実行する。そして、最終層の特徴量抽出層の出力(複数の特徴マップのマップ内の各値)が、識別部Dbに対して入力される。 The feature amount extraction layer (not shown) of the second and subsequent layers executes the same processing as the feature amount extraction layer Da2 of the second layer. Then, the output of the feature amount extraction layer of the final layer (each value in the map of the plurality of feature maps) is input to the identification unit Db.
識別部Dbは、例えば、複数の全結合層(Fully Connected)が階層的に接続された多層パーセプトロンによって構成される。 The identification unit Db is composed of, for example, a multi-layer perceptron in which a plurality of fully connected layers (Fully Connected) are hierarchically connected.
識別部Dbの入力側の全結合層は、特徴抽出部Daから取得した複数の特徴マップのマップ内の各値に全結合し、その各値に対して重み係数を異ならせながら積和演算を行って出力する。識別部Dbの次階層の全結合層は、前階層の全結合層の各素子が出力する値に全結合し、その各値に対して重み係数を異ならせながら積和演算を行う。 The fully connected layer on the input side of the identification unit Db is fully connected to each value in the map of the plurality of feature maps acquired from the feature extraction unit Da, and the product-sum operation is performed while making the weighting coefficient different for each value. Go and output. The fully connected layer of the next layer of the identification unit Db is fully coupled to the values output by each element of the fully connected layer of the previous layer, and the product-sum operation is performed while making the weighting coefficients different for each value.
識別部Dbの最後段の全結合層には、例えば、検出対象物体(即ち、要注意物体)のカテゴリー毎に出力素子が設けられている。これにより、識別部Dbは、画像内に検出対象物体に該当する物体候補を検出した場合、当該物体候補が検出対象物体に該当する確率を、信頼度として出力するように構成される。 An output element is provided for each category of the object to be detected (that is, an object requiring attention) in the fully connected layer at the final stage of the identification unit Db, for example. As a result, when the identification unit Db detects an object candidate corresponding to the detection target object in the image, the identification unit Db is configured to output the probability that the object candidate corresponds to the detection target object as the reliability.
又、識別部Dbの最後段の全結合層には、例えば、検出対象物体のカテゴリー毎に、画像内に映る物体が存在する位置(例えば、画像内に映る物体が存在する領域を囲む矩形状の4隅のXY座標)を出力する出力素子が設けられている。これによって、識別部Dbは、検出した物体候補の画像内における位置を出力することができる。 Further, in the fully connected layer at the last stage of the identification unit Db, for example, for each category of the object to be detected, a rectangular shape surrounding the position where the object reflected in the image exists (for example, the area where the object reflected in the image exists) is formed. An output element is provided to output (XY coordinates of the four corners of the above). As a result, the identification unit Db can output the position of the detected object candidate in the image.
畳み込みニュートラルネットワークは、例えば、正解カテゴリー(及び物体が存在する正解位置)を付した検出対象物体が映る画像を用いて学習処理(例えば、誤差逆伝播法による学習処理)が施されることによって、ネットワークパラメータ(例えば、畳み込み層の重み係数及びバイアス、全結合層の重み係数及びバイアス)が調整され、上記のように機能する。 The convolutional neutral network is subjected to learning processing (for example, learning processing by the error backpropagation method) using an image showing an object to be detected with a correct answer category (and the correct position where the object exists). Network parameters (eg, convolution layer weighting factors and biases, fully connected layer weighting factors and biases) are adjusted to function as described above.
尚、図4に示す畳み込みニュートラルネットワークの構造は、一例であって、物体検出のための畳み込みニュートラルネットワークの構造は、種々に変形可能である。例えば、物体領域(バウンディングボックス)を検出するためのディテクターが、特徴抽出部Daの前段に設けられてもよい。 The structure of the convolutional neutral network shown in FIG. 4 is an example, and the structure of the convolutional neutral network for object detection can be variously modified. For example, a detector for detecting an object region (bounding box) may be provided in front of the feature extraction unit Da.
本実施形態に係る識別器D1(ここでは、畳み込みニュートラルネットワーク)は、ユーザ又は車両1のECUに認識させる必要がある物体、例えば、車両、歩行者、及び落下物等を画像内から検出するように学習処理が施されており、これらの物体を画像内から検出し得るように構成されている。
The classifier D1 (here, the convolutional neutral network) according to the present embodiment detects an object that needs to be recognized by the user or the ECU of the
学習済みの識別器D1のモデルデータ(ネットワークの構造データ及び学習済みのパラメータデータ等)は、例えば、制御プログラムと共に、外部記憶装置104に格納されている。
The trained model data of the classifier D1 (network structure data, trained parameter data, etc.) is stored in the
画像解析部20は、例えば、学習済みの識別器D1(畳み込みニュートラルネットワーク)の順伝播処理を施すことによって、画像内から物体候補を検出すると共に、信頼度を算出する。
The
報知部30は、画像解析部20に検出された物体候補の信頼度が閾値以上であるか否かを判定する。そして、報知部30は、物体候補の信頼度が閾値以上の場合、当該物体候補を要注意物体として報知する。一方、物体候補の信頼度が閾値未満の場合、報知部30は、当該物体候補を報知対象としない。
The
但し、本実施形態に係る報知部30は、物体候補の画像内における位置又はサイズに基づいて、閾値を設定する。つまり、報知部30は、画像から複数の物体候補が検出された場合、複数の物体候補それぞれに対して別個の閾値を設定する。報知部30は、典型的には、物体候補の画像内における位置又はサイズから推定される当該物体候補と車両1との間の距離が所定距離以上の場合、物体候補と車両1との間の距離が所定距離未満の場合よりも、当該物体候補に適用する閾値を小さくする。
However, the
上記したように、一般的な画像処理装置においては、検出された物体候補の位置によらず、一定の閾値を基準として、当該物体候補を報知対象とするか否かが決定されている。しかしながら、かかる態様では、遠方に存在する物体については検出され難くなり、ユーザ又は車両1のECU(例えば、自動運転を実行する車両ECU)の安全運転に支障を来すおそれがある。又、かかる態様では、近距離に存在する物体については、検出対象ではない物体を検出対象物体として誤検出してしまい、ユーザに煩雑な印象を与えたり、ユーザ又は車両ECUの誤操作を誘起するおそれもある。 As described above, in a general image processing apparatus, it is determined whether or not the object candidate is to be notified based on a certain threshold value regardless of the position of the detected object candidate. However, in such an embodiment, it becomes difficult to detect an object existing in a distant place, which may hinder the safe driving of the user or the ECU of the vehicle 1 (for example, the vehicle ECU that executes automatic driving). Further, in such an embodiment, for an object existing at a short distance, an object that is not a detection target may be erroneously detected as a detection target object, which may give a complicated impression to the user or induce an erroneous operation of the user or the vehicle ECU. There is also.
そこで、本実施形態に係る報知部30は、物体候補と車両1との間の距離が長くなるほど、当該物体候補に適用する閾値を小さく設定し、物体候補と車両1との間の距離が短くなるほど、当該物体候補に適用する閾値を大きく設定する。これにより、車両1から遠方に存在する物体候補が、報知対象となりやすい状態とする。
Therefore, the
図5は、本実施形態に係る報知部30による閾値の設定方法について、説明する図である。図5のRは車載カメラ200が生成した画像の全画像領域を表し、Raは物体候補が存在する領域、f値は正規化前の閾値を表している。図5中のxmin、xmax、ymin、ymaxは、画像の左上の端部を原点としたときの物体候補が存在する領域Raの四隅のx座標及びy座標を表している。又、図5中のY_horiは、画像内の地平線推定位置を表し、Y_nearは、画像内の車両1の近傍位置(例えば、自車からの距離が3m程度の位置)を表している。
FIG. 5 is a diagram illustrating a method of setting a threshold value by the
報知部30は、例えば、遠方に存在する物体については報知対象となりやすいように、物体候補と車両1との間の距離が長くなるほど、当該物体候補に適用する閾値を小さくする。この際、報知部30は、例えば、画像内の地平線推定位置Y_horiを基準として、物体候補と車両1との間の距離を推定するのが望ましい。例えば、報知部30は、物体候補の画像内における位置が画像の下端から前方道路の地平線推定位置Y_horiに近づくほど、物体候補と車両1との間の距離が長いと推定する。
For example, the
車載カメラ200の設置位置が固定されている場合、地平線は、通常、画像内の所定位置に映るため(ここでは、平坦路を仮定している)、報知部30は、予め定めた当該所定位置を地平線推定位置Y_horiとして用いればよい。他方、報知部30は、地平線推定位置Y_horiより画像上で下の位置であれば、任意に地平線推定位置Y_horiを設定してもよい。
When the installation position of the in-
報知部30は、例えば、以下の式(1−1)〜(1−3)、及び、式(2)を用いて、物体候補に適用する閾値を算出する。報知部30は、例えば、式(1−1)〜(1−3)により算出したf値を、式(2)を用いて、識別器D1から出力される信頼度のスケールに正規化することにより、物体候補に適用する閾値Cthを算出する。
ここで、物体候補の位置がY_hori<ymax<Y_nearの場合は、検出された物体候補が道路領域に存在し、車両から最近傍領域より遠方に位置することを意味する。当該物体候補は、要注意物体である可能性が高いため、報知対象とされやすくするのが望ましい。報知部30は、かかる観点から、Y_hori<ymax<Y_nearの場合、検出された物体候補が道路領域に存在しない場合又は車両から最近傍領域以内に存在する場合(ymax<Y_hori、又は、Y_near<ymax)よりも、閾値を小さく設定する。加えて、遠方に存在する物体をより正確に検出するため、報知部30は、ymaxがY_nearからY_horiに近づくにつれて、閾値を小さく設定する。
Here, when the position of the object candidate is Y _ori <y max <Y _near , it means that the detected object candidate exists in the road area and is located farther from the vehicle than the nearest neighbor area. Since the object candidate is likely to be an object requiring attention, it is desirable to make it easy to be notified. From this point of view, the
一方、物体候補の位置がymax<Y_horiの場合は、検出された物体候補が道路領域の上空に存在することを意味する。当該物体候補は、歩道橋や看板等、要注意物体以外の物体である可能性が高いため、報知対象から除外されるのが望ましい。かかる観点から、報知部30は、ymax<Y_horiの場合、閾値を最大値付近に設定する。
On the other hand, when the position of the object candidate is y max < Y_hori , it means that the detected object candidate exists in the sky above the road area. Since the object candidate is likely to be an object other than an object requiring attention, such as a pedestrian bridge or a signboard, it is desirable to exclude it from the notification target. From this point of view, the
他方、物体候補の位置がY_near<ymaxの場合は、検出された物体候補が車両1の近傍に存在することを意味する。当該物体候補は、要注意物体である場合も含むが、要注意以外の物体である場合も含む。検出された物体候補が車両1の近傍に存在する場合、当該物体候補の信頼度は、比較的大きい値に算出される傾向にある。かかる観点から、報知部30は、要注意以外の物体の誤検出を抑制するべく、ymax<Y_horiの場合、閾値を最大値付近に設定する。
On the other hand, when the position of the object candidate is Y _nea <y max , it means that the detected object candidate exists in the vicinity of the
尚、上記では、物体候補のY座標のみを参照して、当該物体候補に適用する閾値を算出する態様を示した。しかしながら、当該物体候補に適用する閾値を算出する際には、物体候補のX座標についても参照してもよい。これによって、例えば、物体候補が道路領域内に存在するか否かをより正確に特定することが可能である。 In the above, the mode of calculating the threshold value applied to the object candidate is shown by referring only to the Y coordinate of the object candidate. However, when calculating the threshold value applied to the object candidate, the X coordinate of the object candidate may also be referred to. Thereby, for example, it is possible to more accurately identify whether or not the object candidate exists in the road area.
報知部30は、このようにして、画像解析部20に検出された複数の物体候補それぞれについて、当該物体候補に適用する閾値を設定する。そして、報知部30は、画像解析部20に検出された物体候補のうち、信頼度が閾値以上である物体候補のみを、実際に存在する物体として報知する。この際、報知部30は、例えば、車載カメラ200が生成した画像に対して、報知対象の物体が存在する領域にマークM1、M2を付した表示用画像を生成し、車載モニタ300に出力する(図3を参照)。これによって、ユーザは、車載モニタ300を視認して、前方道路に存在する物体を認識することができる。
In this way, the
尚、報知部30による報知態様は、任意である。例えば、報知部30は、スピーカを用いて音声によって報知してもよい。又、報知部30は、車両1を制御するECU(図示せず)に対して報知信号を出力し、当該ECUが、車両1の移動状態を自動制御し得るようにするものであってもよい。
The mode of notification by the
[動作フロー]
図6は、本実施形態に係る運転支援装置100の動作の一例を示すフローチャートである。
[Operation flow]
FIG. 6 is a flowchart showing an example of the operation of the driving
運転支援装置100は、まず、車載カメラ200から画像を取得する(ステップS1)。
The driving
次に、運転支援装置100は、識別器D1を用いて、車載カメラ200から取得した画像の画像解析を行って、当該画像から物体候補を検出する。尚、この際、運転支援装置100は、当該物体候補の画像内における位置及び信頼度についても算出する(ステップS2)。
Next, the driving
次に、運転支援装置100は、物体候補の画像内における位置に基づいて、当該物体候補を報知対象とするか否かを判定するために適用する閾値を設定する(ステップS3)。
Next, the driving
次に、運転支援装置100は、物体候補の信頼度が閾値以上か否かを判定する(ステップS4)。そして、物体候補の信頼度が閾値以上の場合(ステップS4:YES)、ステップS5に処理を進め、当該物体候補についての報知処理を実行する(ステップS5)。一方、物体候補の信頼度が閾値未満の場合(ステップS4:NO)、当該物体候補については報知処理を実行することなく、一連の処理を終了する。
Next, the driving
尚、運転支援装置100は、画像内に複数の物体候補が検出された場合、ステップS3において、複数の物体候補それぞれについて、閾値を設定する。そして、運転支援装置100は、ステップS4において、複数の物体候補それぞれについて、物体候補の信頼度が閾値以上か否かを判定する。
When a plurality of object candidates are detected in the image, the driving
[効果]
以上のように、本実施形態に係る運転支援装置100は、車両1に搭載された前方道路を撮影する車載カメラ200から画像を取得する画像取得部10と、学習済みの識別器D1を用いて、画像から物体候補を検出する画像解析部20と、物体候補の信頼度が閾値以上か否かを判定し、物体候補の信頼度が閾値以上の場合に限って、当該物体候補を、要注意物体として報知する報知部30と、を備え、報知部30は、物体候補の画像内における位置又はサイズに基づいて、当該物体候補に適用する閾値を設定する。
[effect]
As described above, the driving
従って、本実施形態に係る運転支援装置100によれば、車両1から遠方に存在する要注意物体(例えば、他車両や歩行者)の未検出を抑制することができる。又、本実施形態に係る運転支援装置100によれば、車両1に近い領域に存在する物体で、特に注意する必要がない物体(例えば、建物等)を、要注意物体と誤検出する事態を抑制することができる。
Therefore, according to the driving
(第2の実施形態)
次に、図7を参照して、第2の実施形態に係る運転支援装置100について説明する。
(Second embodiment)
Next, the driving
本実施形態に係る運転支援装置100は、物体候補に適用する閾値を、当該物体候補のサイズに基づいて設定する点で、第1の実施形態に係る運転支援装置100と相違する。尚、第1の実施形態と共通する構成については、説明を省略する(以下、他の実施形態についても同様)。
The driving
図7は、本実施形態に係る報知部30の閾値の設定方法について説明する図である。図7中のsizeは物体候補(物体候補が存在する領域Ra)のサイズ、sizemaxは最大の閾値と適用する場合の要注意物体のサイズ、sizeminは最小の閾値を設定する場合の要注意物体のサイズを表す。尚、sizemax、sizeminは、要注意物体のカテゴリー毎に設定される。
FIG. 7 is a diagram illustrating a method of setting a threshold value of the
本実施形態に係る報知部30は、識別器D1が画像内で検出した物体候補のサイズに基づいて、当該物体候補と車両1との間の距離を推定し、当該物体候補に適用する閾値を設定する。物体候補のサイズは、例えば、識別器D1から出力される物体候補が存在する領域Raの四隅のx座標及びy座標(即ち、xmin、xmax、ymin、ymax)から、矩形領域の面積として算出される。尚、物体候補のサイズは、矩形領域の面積に対してルートを取った値であってもよい。
The
運転支援装置100が検出対象とする要注意物体は、車両や歩行者であり、基準サイズが定まった物体である。そこで、運転支援装置100は、例えば、予めROM102等に物体のカテゴリー(例えば、車両や歩行者)毎に基準サイズを記憶しておき、画像内で検出された物体候補のサイズと、当該物体候補と同一カテゴリーの物体候補の基準サイズとを比較することによって、物体候補と車両1との間の距離を推定することができる。
The objects requiring attention to be detected by the driving
報知部30は、例えば、以下の式(3−1)〜(3−3)、及び、式(4)を用いて、閾値を算出する。報知部30は、式(3−1)〜(3−3)により算出したf値を、式(4)を用いて、識別器D1から出力される信頼度のスケールに正規化することにより、閾値Cthを算出する。
上式は、検出対象とする物体候補のサイズが小さくなるにつれて、閾値を小さい値に設定することを表している。これは、検出対象とする物体候補のサイズが小さくなるほど、検出された物体候補が遠方に存在すると推定されるためである。 The above equation represents that the threshold value is set to a smaller value as the size of the object candidate to be detected becomes smaller. This is because it is estimated that the detected object candidate exists farther as the size of the object candidate to be detected becomes smaller.
これによって、物体候補の位置を正確に認識できないような状況(例えば、地平線推定位置が画像内で認識できない状況)においても、報知部30は、物体候補を報知対象とするか否かを判定する閾値を適切に設定することが可能である。
As a result, even in a situation where the position of the object candidate cannot be accurately recognized (for example, a situation where the estimated horizon position cannot be recognized in the image), the
尚、報知部30は、以下の式(5−1)〜(5−3)のいずれか、及び式(6)を用いて、物体の画像内における位置及びサイズの両方に基づいて、閾値を設定してもよい。
これによって、物体候補の位置を正確に認識できないような状況、及び、物体候補のサイズを正確に認識できないような状況のいずれにも対応することが可能である。 This makes it possible to deal with both a situation in which the position of the object candidate cannot be accurately recognized and a situation in which the size of the object candidate cannot be accurately recognized.
以上のように、本実施形態に係る運転支援装置100によれば、物体候補に適用する閾値をより適切に設定することが可能である。
As described above, according to the driving
(第3の実施形態)
次に、図8を参照して、第3の実施形態に係る運転支援装置100について説明する。本実施形態に係る運転支援装置100は、物体候補に適用する閾値を、当該物体候補の奥行き方向の位置に基づいて設定する点で、第1の実施形態に係る運転支援装置100と相違する。
(Third Embodiment)
Next, the driving
図8は、報知部30による物体候補の奥行き方向の位置の算出方法について説明する図である。図8中のPoは物体候補、201は車載カメラ200の撮像面、202は車載カメラ200のレンズ202を表している。
FIG. 8 is a diagram illustrating a method of calculating the position of the object candidate in the depth direction by the
本実施形態に係る報知部30は、画像内で検出された物体候補のy座標に基づいて、例えば、以下の式(7)、(8)を用いて、物体候補の奥行き方向の位置(即ち、車載カメラ200と物体候補との間の距離)Zを算出する。そして、報知部30は、例えば、車載カメラ200と物体候補との間の距離Zから、式(9)を用いてf値を算出する。そして、算出されたf値を、式(2)を用いて、識別器D1から出力される信頼度のスケールに正規化することにより、閾値Cthを算出する。尚、式(7)、(8)は、要注意物体はその下端が必ず道路面上に存在すると仮定して、物体候補と車両1との間の距離を推定している。
以上のように、本実施形態に係る運転支援装置100によれば、物体候補の奥行き方向の位置(即ち、車載カメラ200と物体候補との間の距離)をより正確に算出することができるため、報知部30が適用する閾値をより適切に設定することができる。
As described above, according to the driving
(第4の実施形態)
次に、図9を参照して、第4の実施形態に係る運転支援装置100について説明する。本実施形態に係る運転支援装置100は、物体候補に適用する閾値を、当該物体候補の奥行き方向の位置に基づいて設定する点で、第1の実施形態に係る運転支援装置100と相違する。
(Fourth Embodiment)
Next, the driving
本実施形態は、車載カメラ200として、ステレオカメラが使用されている場合に適用される。ステレオカメラは、三角測量の原理により、撮影時に、物体候補の奥行き方向の位置を直接的に推定することが可能である。
This embodiment is applied when a stereo camera is used as the vehicle-mounted
図9は、報知部30による物体候補の奥行き方向の位置の算出方法について説明する図である。尚、図9において、Poは物体候補、201は撮像面(ここでは、説明の便宜として、左側撮像部と右側撮像部で共通として図示している)、202aは左側撮像部のレンズ、202bは右側撮像部のレンズを表す。又、xLは左側撮像部のレンズ202aのレンズ中心軸からの距離、xRは右側撮像部のレンズ202aのレンズ中心軸からの距離を表している。
FIG. 9 is a diagram illustrating a method of calculating the position of the object candidate in the depth direction by the
本実施形態に係る報知部30は、車載カメラ200(ここでは、ステレオカメラ)から取得した左側撮像部の画像と右側撮像部の画像とに基づいて、例えば、以下の式(10)を用いて、物体候補の奥行き方向の位置(即ち、車載カメラ200と物体候補との間の距離)Zを算出する。そして、報知部30は、例えば、車載カメラ200と物体候補との間の距離Zから、第3の実施形態で説明した手法と同様に、式(9)用いてf値を算出し、式(2)を用いて、f値から閾値Cthを算出する。
以上のように、本実施形態に係る運転支援装置100によれば、物体候補の奥行き方向の位置(即ち、車載カメラ200と物体候補との間の距離)をより正確に算出することができるため、報知部30が適用する閾値をより適切に設定することができる。
As described above, according to the driving
(その他の実施形態)
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
(Other embodiments)
The present invention is not limited to the above embodiment, and various modifications can be considered.
例えば、上記各実施形態では、識別器D1の一例として、畳み込みニュートラルネットワークを示したが、識別器D1は、ベイズ識別器又はSVM(Support Vector Machine)識別器等、機械学習によって識別機能を発現する他の識別器によって構成されてもよい。又、識別器D1として、畳み込みニュートラルネットワークを用いる場合も、そのモデル構造は、種々に変更可能である。 For example, in each of the above embodiments, a convolutional neutral network is shown as an example of the classifier D1, but the classifier D1 expresses a discriminating function by machine learning such as a Bayesian classifier or an SVM (Support Vector Machine) classifier. It may be composed of other classifiers. Also, when a convolutional neutral network is used as the classifier D1, the model structure can be changed in various ways.
又、上記各実施形態では、識別器D1の一例として、物体候補が存在する領域Raの四隅のx座標及びy座標を出力する構成を示した。しかしながら、識別器D1が出力する物体候補の位置に係る情報は、物体候補の重心位置1点のみであってもよい。 Further, in each of the above embodiments, as an example of the classifier D1, a configuration is shown in which the x-coordinates and y-coordinates of the four corners of the region Ra in which the object candidate exists are output. However, the information related to the position of the object candidate output by the classifier D1 may be only one point of the center of gravity of the object candidate.
又、上記第3及び第4実施形態では、報知部30が物体候補の奥行き方向の位置(即ち、車載カメラ200と物体候補との間の距離)を算出する態様を示した。しかしながら、これらの演算処理は、車載カメラ200内で実行されてもよい。
Further, in the third and fourth embodiments, the
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。 Although specific examples of the present invention have been described in detail above, these are merely examples and do not limit the scope of claims. The techniques described in the claims include various modifications and modifications of the specific examples illustrated above.
本開示に係る運転支援装置によれば、より正確に、要注意物体を検出し、報知を行うことが可能である。 According to the driving support device according to the present disclosure, it is possible to more accurately detect and notify an object requiring attention.
1 車両
10 画像取得部
20 画像解析部
30 報知部
100 運転支援装置
101 CPU
102 ROM
103 RAM
104 外部記憶装置
105 通信インターフェイス
200 車載カメラ
201 撮像面
202、202a、202b レンズ
300 車載モニタ
D1 識別器
1
101 CPU
102 ROM
103 RAM
104 External storage device 105
Claims (9)
前記車両に搭載された前記周辺道路を撮影する車載カメラから画像を取得する画像取得部と、
学習済みの識別器を用いて、前記画像から物体候補を検出する画像解析部と、
前記画像解析部で検出された前記物体候補の信頼度が閾値以上か否かを判定し、当該信頼度が閾値以上の場合に限って、当該物体候補を、要注意物体として報知する報知部と、
を備え、
前記報知部は、前記物体候補の前記画像内における位置又はサイズに基づいて、当該物体候補の判定に適用する前記閾値を設定する、
運転支援装置。 It is a driving support device that detects objects existing on the road around the vehicle.
An image acquisition unit that acquires an image from an in-vehicle camera that photographs the surrounding roads mounted on the vehicle, and an image acquisition unit.
An image analysis unit that detects object candidates from the image using a trained classifier, and
A notification unit that determines whether or not the reliability of the object candidate detected by the image analysis unit is equal to or higher than the threshold value, and notifies the object candidate as an object requiring attention only when the reliability is equal to or higher than the threshold value. ,
With
The notification unit sets the threshold value applied to the determination of the object candidate based on the position or size of the object candidate in the image.
Driving support device.
請求項1に記載の運転支援装置。 When the distance between the object candidate and the vehicle estimated from the position or size of the object candidate in the image is greater than or equal to a predetermined distance, the notification unit is more likely than when the distance is less than the predetermined distance. Decrease the threshold,
The driving support device according to claim 1.
請求項2に記載の運転支援装置。 The notification unit reduces the threshold value as the distance increases.
The driving support device according to claim 2.
請求項2又は3に記載の運転支援装置。 The notification unit estimates that the closer the position of the object candidate in the image is from the lower end of the image to the estimated position of the horizon in the image, the longer the distance is.
The driving support device according to claim 2 or 3.
請求項2乃至4のいずれか一項に記載の運転支援装置。 The notification unit estimates that the distance becomes longer as the size of the object candidate in the image becomes smaller than the reference size of the type related to the object candidate.
The driving support device according to any one of claims 2 to 4.
請求項1乃至5のいずれか一項に記載の運転支援装置。 The notification unit sets the threshold value for determining whether or not the object candidate is to be notified based on both the position and size of the object candidate in the image.
The driving support device according to any one of claims 1 to 5.
請求項1乃至6のいずれか一項に記載の運転支援装置。 When the position of the object candidate in the image is outside the road area of the surrounding road, the notification unit is more than when the position of the object candidate in the image is inside the road area of the surrounding road. Increase the threshold,
The driving support device according to any one of claims 1 to 6.
請求項1乃至7のいずれか一項に記載の運転支援装置。 The in-vehicle camera is a stereo camera.
The driving support device according to any one of claims 1 to 7.
請求項1乃至8のいずれか一項に記載の運転支援装置。
The classifier is a convolutional neural network.
The driving support device according to any one of claims 1 to 8.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019151161A JP2021033510A (en) | 2019-08-21 | 2019-08-21 | Driving assistance device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019151161A JP2021033510A (en) | 2019-08-21 | 2019-08-21 | Driving assistance device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021033510A true JP2021033510A (en) | 2021-03-01 |
Family
ID=74677445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019151161A Pending JP2021033510A (en) | 2019-08-21 | 2019-08-21 | Driving assistance device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021033510A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022044396A1 (en) * | 2020-08-28 | 2022-03-03 | 株式会社Jvcケンウッド | Object recognition control device and object recognition method |
WO2022220126A1 (en) * | 2021-04-13 | 2022-10-20 | 株式会社Screenホールディングス | Substrate processing device, substrate processing system, and data processing method |
WO2023090274A1 (en) * | 2021-11-18 | 2023-05-25 | オムロン株式会社 | Work recognition device, work recognition method, and work recognition program |
WO2023228364A1 (en) * | 2022-05-26 | 2023-11-30 | 日本電信電話株式会社 | Object detection device, object detection method, and object detection program |
-
2019
- 2019-08-21 JP JP2019151161A patent/JP2021033510A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022044396A1 (en) * | 2020-08-28 | 2022-03-03 | 株式会社Jvcケンウッド | Object recognition control device and object recognition method |
WO2022220126A1 (en) * | 2021-04-13 | 2022-10-20 | 株式会社Screenホールディングス | Substrate processing device, substrate processing system, and data processing method |
WO2023090274A1 (en) * | 2021-11-18 | 2023-05-25 | オムロン株式会社 | Work recognition device, work recognition method, and work recognition program |
WO2023228364A1 (en) * | 2022-05-26 | 2023-11-30 | 日本電信電話株式会社 | Object detection device, object detection method, and object detection program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3229041B1 (en) | Object detection using radar and vision defined image detection zone | |
US8126210B2 (en) | Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
US20190251374A1 (en) | Travel assistance device and computer program | |
US11527077B2 (en) | Advanced driver assist system, method of calibrating the same, and method of detecting object in the same | |
US9245188B2 (en) | Lane detection system and method | |
JP6670071B2 (en) | Vehicle image recognition system and corresponding method | |
CN107038723B (en) | Method and system for estimating rod-shaped pixels | |
JP5297078B2 (en) | Method for detecting moving object in blind spot of vehicle, and blind spot detection device | |
WO2018142900A1 (en) | Information processing device, data management device, data management system, method, and program | |
JP2021033510A (en) | Driving assistance device | |
CN105096655B (en) | Article detection device, drive assistance device, object detecting method | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
KR100816377B1 (en) | Method and Apparatus for Recognizing Parking Slot Marking by Using Hough Transformation and Parking Assist System Using Same | |
JP2000357233A (en) | Body recognition device | |
CN106183979A (en) | A kind of method and apparatus vehicle reminded according to spacing | |
US20200125861A1 (en) | Road line detection device and road line detection method | |
CN112084810A (en) | Obstacle detection method and device, electronic equipment and storage medium | |
Liu et al. | Vehicle detection and ranging using two different focal length cameras | |
JP2017181476A (en) | Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program | |
JP2006090957A (en) | Surrounding object detecting device for moving body, and surrounding object detection method for moving body | |
JP2014106739A (en) | In-vehicle image processing device | |
JP2018073275A (en) | Image recognition device | |
CN113869440A (en) | Image processing method, apparatus, device, medium, and program product | |
JP4151631B2 (en) | Object detection device | |
KR20220160850A (en) | Method and apparatus of estimating vanishing point |