Nothing Special   »   [go: up one dir, main page]

JP2007328630A - Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device - Google Patents

Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device Download PDF

Info

Publication number
JP2007328630A
JP2007328630A JP2006160148A JP2006160148A JP2007328630A JP 2007328630 A JP2007328630 A JP 2007328630A JP 2006160148 A JP2006160148 A JP 2006160148A JP 2006160148 A JP2006160148 A JP 2006160148A JP 2007328630 A JP2007328630 A JP 2007328630A
Authority
JP
Japan
Prior art keywords
area
pedestrian
road
region
object candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006160148A
Other languages
Japanese (ja)
Inventor
Katsumi Sakata
克己 阪田
Minoru Fujioka
稔 藤岡
Koji Yamashita
浩嗣 山下
Yoshikazu Hashimoto
欣和 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Fujitsu Ltd
Original Assignee
Denso Ten Ltd
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd, Fujitsu Ltd filed Critical Denso Ten Ltd
Priority to JP2006160148A priority Critical patent/JP2007328630A/en
Publication of JP2007328630A publication Critical patent/JP2007328630A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To detect a region where an object may exist with high accuracy from an image of an on-vehicle camera. <P>SOLUTION: A reference pattern database 15 stores a plurality of reference patterns (for sky, road, other than road, or the like) depending on the background of the image. A background region dividing section 12 divides the background of the input image using a vanishing point or lane recognition. A reference pattern selection section 14 selects a reference pattern used by a pedestrian candidate region detecting section 19 depending on the background region from which a determination region is cut. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、車載カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出装置、物体候補領域検出方法、および、かかる物体候補領域検出を用いた歩行者認識装置、車両制御装置に関する。   The present invention relates to an object candidate area detection device, an object candidate area detection method, and an object candidate area detection for detecting an area where a specific object may exist as an object candidate area from an input image taken by an in-vehicle camera. The present invention relates to a pedestrian recognition device and a vehicle control device used.

従来、カメラが撮影した画像に対する画像認識によって、歩行者などを検出する技術が考案されている。例えば、特許文献1は、特定の場所に固定した定点カメラが撮影した画像から、歩行者や車両を認識する技術を開示している。   Conventionally, a technique for detecting a pedestrian or the like by image recognition on an image captured by a camera has been devised. For example, Patent Document 1 discloses a technique for recognizing a pedestrian or a vehicle from an image taken by a fixed point camera fixed at a specific location.

また、かかる画像認識の具体的な手法としては、例えば予め背景パターンを学習し、入力画像と背景パターンとの差異を顕著性として算出する顕著性算出手法(顕著性アルゴリズム)が適用することも可能である。   In addition, as a specific method of such image recognition, for example, a saliency calculation method (saliency algorithm) in which a background pattern is learned in advance and a difference between the input image and the background pattern is calculated as saliency can be applied. It is.

特開2002−190012号公報Japanese Patent Laid-Open No. 2002-190012 特開2001−236508号公報JP 2001-236508 A 特開2004−178243号公報JP 2004-178243 A

ところで近年、車両にカメラなどを搭載し、車載カメラからの映像によって歩行者などを認識することで運転を支援し、事故を防止する技術の実現が重要な課題となっている。   By the way, in recent years, it has become an important issue to implement a technology that supports a driving by mounting a camera or the like on a vehicle and recognizing a pedestrian or the like by an image from the in-vehicle camera and preventing an accident.

しかしながら車載カメラなど移動体から撮影した画像では、その移動によって背景画像が常に変化する。そのため、上述した顕著性算出手法を使用しても、背景パターンの設定のために学習する必要のある事象が大きくなり、検出精度が低下するという問題点があった。   However, in an image taken from a moving body such as an in-vehicle camera, the background image always changes due to the movement. Therefore, even if the above-described saliency calculation method is used, there is a problem that an event that needs to be learned for setting a background pattern becomes large and detection accuracy is lowered.

また、特許文献3のように入力画像を複数の領域に分割し、それぞれで比較する技術も存在するが、車載用の場合、単純に分割しても背景はそれぞれの領域で様々な変化をするため、効率よく検出できない。   In addition, there is a technique for dividing an input image into a plurality of regions and comparing them as in Patent Document 3, but in the case of in-vehicle use, the background changes variously in each region even if it is simply divided. Therefore, it cannot be detected efficiently.

本発明は、上述した従来技術における問題点を解消し、課題を解決するためになされたものであり、車載カメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置、物体候補領域検出方法、および、高精度に歩行者を認識する歩行者認識装置、歩行者認識を用いる車両制御装置を提供することを目的とする。   The present invention has been made to solve the above-described problems in the prior art and to solve the problems, and is an object candidate area for detecting an area where an object may exist with high accuracy from an image of a vehicle-mounted camera. It is an object of the present invention to provide a detection device, an object candidate region detection method, a pedestrian recognition device that recognizes a pedestrian with high accuracy, and a vehicle control device that uses pedestrian recognition.

上述した課題を解決し、目的を達成するため、請求項1の発明に係る物体候補領域検出装置は、カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出装置であって、前記入力画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを記憶する基準パターン記憶手段と、現在カメラが撮影した入力画像を背景について、道路の領域と道路外の領域ごとに分割する背景領域分割手段と、現在カメラが撮影した入力画像から被判定領域を切り出す被判定領域切出手段と、前記被判定領域が道路の領域、道路外の領域のいずれの背景領域から切り出されたかによって、前記複数の基準パターンのうち、当該背景領域に応じた基準パターンを選択する基準パターン選択手段と、前記選択された基準パターンと前記被判定領域とを比較することで、前記被判定領域のうち、前記物体候補領域を検出する検出手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the object candidate area detection device according to the invention of claim 1 uses, as an object candidate area, an area in which a specific object may exist from an input image captured by a camera. An object candidate area detection device for detecting, wherein a reference pattern storage means for storing a plurality of reference patterns different for each of a road area and an area outside the road with respect to a background of the input image, and an input image currently taken by a camera A background area dividing unit that divides the background into a road area and an area outside the road, a determination area extraction unit that extracts a determination area from an input image currently captured by the camera, and the determination area is a road area A reference pattern for selecting a reference pattern corresponding to the background area from among the plurality of reference patterns depending on which background area of the area outside the road is cut out A down selection unit, by comparing the said selected reference pattern and the determination target region, out of the determination target region, characterized by comprising a detecting means for detecting the object candidate region.

この請求項1の発明によれば物体候補領域検出装置は、入力画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを記憶し、入力画像を背景について、道路の領域と道路外の領域ごとに分割して被判定領域がいずれの背景領域から切り出されたかによって基準パターンを選択し、被判定領域と選択された基準パターンとの比較によって物体候補領域を検出する。道路内と道路外では、特に背景の変わり方に特性がある(道路内であれば歩行者、車、横断歩道がよく現れるなど)。よって、これらで切り分けし、基準バターンを絞り込めば効率よく検出できる。   According to the first aspect of the present invention, the object candidate area detection device stores a plurality of reference patterns different for each of the road area and the outside road area for the background of the input image, and the road area for the input image for the background. A reference pattern is selected based on which background area the divided area is cut out for each area outside the road, and an object candidate area is detected by comparing the determined area with the selected reference pattern. Inside the road and outside the road, there is a characteristic especially in how the background changes (if you are inside the road, pedestrians, cars, crosswalks, etc. often appear). Therefore, it is possible to detect efficiently by dividing by these and narrowing down the reference pattern.

また、請求項2の発明に係る物体候補領域検出装置は、請求項1に記載の発明において、前記背景領域分割手段は、前記入力画像の消失点から上を道路外領域として分割することを特徴とする。   According to a second aspect of the present invention, there is provided the object candidate area detecting device according to the first aspect of the invention, wherein the background area dividing means divides the upper part from the vanishing point of the input image as an area outside the road. And

この請求項2の発明によれば物体候補領域検出装置は、入力画像の消失点から上を道路外領域として分割し、被判定領域が道路外領域から切り出された場合には道路外用の基準パターンとの比較によって物体候補領域を検出する。   According to the second aspect of the present invention, the object candidate area detecting device divides the upper side from the vanishing point of the input image as the outside road area, and when the determination target area is cut out from the outside road area, the reference pattern for road outside is used. The object candidate area is detected by comparison with.

また、請求項3の発明に係る物体候補領域検出装置は、請求項1または2に記載の発明において、前記背景領域分割手段は、前記入力画像に対する車線認識結果を用いて道路内領域と道路外領域とを分割することを特徴とする。   According to a third aspect of the present invention, there is provided the object candidate region detection apparatus according to the first or second aspect, wherein the background region dividing means uses a lane recognition result for the input image and uses a road lane recognition result and a road outside region. It is characterized by dividing the area.

この請求項3の発明によれば物体候補領域検出装置は、車線認識結果を用いて道路内領域と道路外領域とを分割し、被判定領域が道路内外のいずれから切り出されたかによって使用する基準パターンを選択する。   According to the third aspect of the present invention, the object candidate area detecting device divides the road area and the road area using the lane recognition result, and uses the reference area depending on whether the determined area is cut out from inside or outside the road. Select a pattern.

また、請求項4の発明に係る物体候補領域検出装置は、カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出装置であって、前記入力画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを記憶する基準パターン記憶手段と、現在カメラが撮影した入力画像から被判定領域を切り出す被判定領域切出手段と、前記被判定領域と前記複数の基準パターンのそれぞれとを比較し、当該複数の比較結果を総合することで、前記被判定領域のうち、前記物体候補領域を検出する検出手段と、を備えたことを特徴とする。   An object candidate area detection device according to a fourth aspect of the present invention is an object candidate area detection device that detects an area where a specific object may exist as an object candidate area from an input image captured by a camera, With respect to the background of the input image, a reference pattern storage means for storing a plurality of different reference patterns for each road area and outside the road, and a determination area extraction means for cutting out the determination area from the input image captured by the current camera And a detection means for detecting the object candidate area in the determination area by comparing the determination area and each of the plurality of reference patterns and combining the plurality of comparison results. It is characterized by that.

この請求項4の発明によれば物体候補領域検出装置は、入力画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを記憶し、入力画像から切り出した被判定領域と複数の基準パターンのそれぞれとを比較して得られた複数の比較結果を総合して物体候補領域を検出する。   According to the fourth aspect of the present invention, the object candidate area detecting device stores a plurality of reference patterns different for each of the road area and the area outside the road with respect to the background of the input image, An object candidate region is detected by combining a plurality of comparison results obtained by comparing each of the plurality of reference patterns.

また、請求項5の発明に係る物体候補領域検出装置は、請求項4に記載の発明において、前記検出手段は、前記被判定領域と前記複数の基準パターンとの差異を数値化し、得られた複数の数値の平均値が閾値以上である場合に当該被判定領域を前記物体候補領域として出力することを特徴とする。   According to a fifth aspect of the present invention, there is provided the object candidate area detecting device according to the fourth aspect, wherein the detecting means digitizes a difference between the determination target area and the plurality of reference patterns. When the average value of a plurality of numerical values is equal to or greater than a threshold value, the determination target region is output as the object candidate region.

この請求項5の発明によれば物体候補領域検出装置は、被判定領域と複数の基準パターンとの差異を数値化し、得られた複数の数値の平均値が閾値以上である場合に当該被判定領域を物体候補領域として出力する。   According to the fifth aspect of the present invention, the object candidate region detection device digitizes the difference between the determination target region and the plurality of reference patterns, and determines the determination target when the average value of the plurality of obtained numerical values is equal to or greater than a threshold value. The area is output as an object candidate area.

また、請求項6の発明に係る物体候補領域検出方法は、カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出方法であって、前記入力画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを記憶する基準パターン記憶工程と、前記入力画像から切り出した被判定領域と、前記複数の基準パターンとの比較によって前記物体候補領域を検出する検出工程と、を含んだことを特徴とする。   The object candidate area detection method according to the invention of claim 6 is an object candidate area detection method for detecting an area where a specific object may exist as an object candidate area from an input image captured by a camera, A reference pattern storing step for storing a plurality of reference patterns different for each of a road area and an area outside the road for the background of the input image, and a comparison between the determination target area cut out from the input image and the plurality of reference patterns And a detection step of detecting the object candidate region.

この請求項6の発明によれば物体候補領域検出方法は、入力画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを記憶し、入力画像から切り出した被判定領域と複数の基準パターンとの比較によって物体候補領域を検出する。   According to the sixth aspect of the present invention, the object candidate region detection method stores a plurality of reference patterns different for each of a road region and a region outside the road with respect to the background of the input image, An object candidate region is detected by comparison with a plurality of reference patterns.

また、請求項7の発明に係る歩行者認識装置は、車載カメラが撮影した入力画像から歩行者を認識する歩行者認識装置であって、前記入力画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを記憶する基準パターン記憶手段と、前記入力画像から切り出した被判定領域と、前記複数の基準パターンとの比較によって歩行者が存在する可能性のある領域を歩行者候補領域として検出する検出手段と、当該歩行者候補領域が歩行者に相当するか否かを判別する歩行者判別手段と、を備えたことを特徴とする。   The pedestrian recognition device according to the invention of claim 7 is a pedestrian recognition device for recognizing a pedestrian from an input image taken by an in-vehicle camera, and the background of the input image A pedestrian is an area where a pedestrian may exist by comparing a reference pattern storage unit that stores a plurality of different reference patterns for each area, a determination target area cut out from the input image, and the plurality of reference patterns. It is characterized by comprising detection means for detecting as a candidate area, and pedestrian discrimination means for discriminating whether or not the pedestrian candidate area corresponds to a pedestrian.

この請求項7の発明によれば歩行者認識装置は、被判定領域と背景ごとに異なる複数の基準パターンとの比較によって歩行者が存在する可能性のある歩行者候補領域を検出し、歩行者候補領域に対するパターンマッチングやニューロ判定によって当該歩行者候補領域が歩行者であるか否かを判別する。   According to the seventh aspect of the present invention, the pedestrian recognition device detects a pedestrian candidate area where a pedestrian may exist by comparing the determination target area and a plurality of reference patterns that differ for each background, and the pedestrian It is determined whether or not the pedestrian candidate area is a pedestrian by pattern matching or neuro-determination for the candidate area.

また、請求項8の発明に係る車両制御装置は、画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを予め学習し、記憶する基準パターン記憶手段と、車載カメラが撮影した入力画像から切り出した被判定領域と、前記複数の基準パターンとの比較によって歩行者が存在する可能性のある領域を歩行者候補領域として検出する検出手段と、当該歩行者候補領域が歩行者に相当するか否かを判別する歩行者判別手段と、前記歩行者判別手段によって歩行者が認識された場合に、歩行者の存在について報知する報知制御、および/または車両の走行状態を制御する走行制御を実行する制御手段と、を備えたことを特徴とする。   In addition, the vehicle control device according to the invention of claim 8 includes: a reference pattern storage unit that learns and stores in advance a plurality of reference patterns that are different for each of a road area and an area outside the road with respect to a background of an image; Detection means for detecting a region where a pedestrian may exist as a pedestrian candidate region by comparing the determined region cut out from the captured input image and the plurality of reference patterns, and the pedestrian candidate region walking A pedestrian discriminating unit that discriminates whether or not the vehicle corresponds to a pedestrian, a notification control that informs about the presence of a pedestrian when the pedestrian is recognized by the pedestrian discriminating unit, and / or a control of the running state of the vehicle And a control means for executing the running control.

この請求項8の発明によれば車両制御装置は、被判定領域と背景ごとに異なる複数の基準パターンとの比較によって歩行者が存在する可能性のある歩行者候補領域を検出し、当該歩行者候補領域が歩行者である場合には、その存在を運転者に報知する報知制御や車両の動作制御を実行する。   According to the invention of claim 8, the vehicle control device detects a pedestrian candidate region where a pedestrian may exist by comparing the determination target region and a plurality of reference patterns different for each background, and the pedestrian When the candidate area is a pedestrian, notification control for notifying the driver of the presence of the candidate area and vehicle operation control are executed.

請求項1の発明によれば物体候補領域検出装置は、入力画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを記憶し、入力画像を背景について、道路の領域と道路外の領域ごとに分割して被判定領域がいずれの背景領域から切り出されたかによって基準パターンを選択し、被判定領域と選択された基準パターンとの比較によって物体候補領域を検出するので、カメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置を得ることができるという効果を奏する。   According to the first aspect of the present invention, the object candidate area detection device stores a plurality of reference patterns different for each of a road area and an area outside the road with respect to the background of the input image, The reference pattern is selected according to which background area the segmented area is cut out from each area outside the road, and the object candidate area is detected by comparing the segmented area with the selected reference pattern. It is possible to obtain an object candidate area detection device that detects an area where an object may exist with high accuracy from the image of.

また、請求項2の発明によれば物体候補領域検出装置は、入力画像の消失点から上を道路外領域として分割し、被判定領域が道路外領域から切り出された場合には道路外用の基準パターンとの比較によって物体候補領域を検出するので、簡易に道路外に対応する領域を分割し、カメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置を得ることができるという効果を奏する。   According to the second aspect of the present invention, the object candidate area detecting device divides the upper part from the vanishing point of the input image as an outside road area, and when the determined area is cut out from the outside road area, the object outside area reference Since the object candidate area is detected by comparison with the pattern, an object candidate area detection device that easily divides the area corresponding to the outside of the road and detects the area where the object may exist with high accuracy from the camera image is provided. There is an effect that it can be obtained.

また、請求項3の発明によれば物体候補領域検出装置は、車線認識結果を用いて道路内領域と道路外領域とを分割し、被判定領域が道路内外のいずれから切り出されたかによって使用する基準パターンを選択するので、道路内外の認識によってカメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置を得ることができるという効果を奏する。   According to the invention of claim 3, the object candidate area detection device divides the road area and the road area using the lane recognition result, and uses the determined area depending on whether the determined area is cut out from inside or outside the road. Since the reference pattern is selected, it is possible to obtain an object candidate area detection device that detects an area where an object may exist with high accuracy from a camera image by recognition inside and outside the road.

また、請求項4の発明によれば物体候補領域検出装置は、入力画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを記憶し、入力画像から切り出した被判定領域と複数の基準パターンのそれぞれとを比較して得られた複数の比較結果を総合して物体候補領域を検出するので、カメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置を得ることができるという効果を奏する。   According to a fourth aspect of the present invention, the object candidate region detection device stores a plurality of reference patterns that differ for each of a road region and a region outside the road with respect to the background of the input image, and is a determined region cut out from the input image The object candidate area is detected by combining the multiple comparison results obtained by comparing each of the reference pattern and each of the plurality of reference patterns, so the area where the object may exist is detected with high accuracy from the camera image. There is an effect that an object candidate region detection device can be obtained.

また、請求項5の発明によれば物体候補領域検出装置は、被判定領域と複数の基準パターンとの差異を数値化し、得られた複数の数値の平均値が閾値以上である場合に当該被判定領域を物体候補領域として出力するので、カメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出装置を得ることができるという効果を奏する。   According to the invention of claim 5, the object candidate area detecting device digitizes the difference between the determination target area and the plurality of reference patterns, and the target area is detected when an average value of the obtained plurality of numerical values is equal to or greater than a threshold value. Since the determination area is output as an object candidate area, there is an effect that an object candidate area detection device that detects an area where an object may exist with high accuracy can be obtained from a camera image.

また、請求項6の発明によれば物体候補領域検出方法は、入力画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを記憶し、入力画像から切り出した被判定領域と複数の基準パターンとの比較によって物体候補領域を検出するので、カメラの画像から高精度に物体が存在する可能性がある領域を検出する物体候補領域検出方法を得ることができるという効果を奏する。   According to a sixth aspect of the present invention, the object candidate region detection method stores a plurality of reference patterns that differ for each of a road region and a region outside the road with respect to the background of the input image, and is a determined region cut out from the input image Since the object candidate area is detected by comparing with a plurality of reference patterns, it is possible to obtain an object candidate area detection method for detecting an area where an object may exist with high accuracy from a camera image. .

また、請求項7の発明によれば歩行者認識装置は、被判定領域と背景ごとに異なる複数の基準パターンとの比較によって歩行者が存在する可能性のある歩行者候補領域を検出し、歩行者候補領域に対するパターンマッチングやニューロ判定によって当該歩行者候補領域が歩行者であるか否かを判別するので、車載カメラの画像から高精度に歩行者を認識する歩行者認識装置を得ることができるという効果を奏する。   According to the invention of claim 7, the pedestrian recognition device detects a pedestrian candidate area where a pedestrian may exist by comparing the determination target area and a plurality of reference patterns different for each background, and walks. Since it is determined whether or not the pedestrian candidate area is a pedestrian by pattern matching or neuro determination for the pedestrian candidate area, it is possible to obtain a pedestrian recognition device that recognizes a pedestrian with high accuracy from an on-vehicle camera image. There is an effect.

また、請求項8の発明によれば車両制御装置は、被判定領域と背景ごとに異なる複数の基準パターンとの比較によって歩行者が存在する可能性のある歩行者候補領域を検出し、当該歩行者候補領域が歩行者である場合には、その存在を運転者に報知する報知制御や車両の動作制御を実行するので、歩行者を高精度に認識してその安全を確保する車両制御装置を得ることができるという効果を奏する。   According to the invention of claim 8, the vehicle control device detects a pedestrian candidate region where a pedestrian may exist by comparing the determination target region and a plurality of reference patterns different for each background, and the walking When the candidate area is a pedestrian, the vehicle control device that recognizes the pedestrian with high accuracy and performs safety control is performed because the notification control for notifying the driver of the existence and the operation control of the vehicle are executed. There is an effect that it can be obtained.

以下に添付図面を参照して、この発明に係る物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置および車両制御装置の好適な実施例について詳細に説明する。   Exemplary embodiments of an object candidate region detection device, an object candidate region detection method, a pedestrian recognition device, and a vehicle control device according to the present invention will be described below in detail with reference to the accompanying drawings.

図1は、本発明の実施例1である車載用の画像認識装置10の概要構成を示す概要構成図である。車両は以下の構成を有している。同図に示すように、画像認識装置10は、ナビゲーション装置30、カメラ31、およびプリクラッシュECU40と接続している。   FIG. 1 is a schematic configuration diagram showing a schematic configuration of an in-vehicle image recognition apparatus 10 that is Embodiment 1 of the present invention. The vehicle has the following configuration. As shown in the figure, the image recognition device 10 is connected to a navigation device 30, a camera 31, and a pre-crash ECU 40.

ナビゲーション装置30は、GPS(Global Positioning System)人工衛星と通信して特定した自車両の位置と、予め記憶した地図データ30aとを利用して走行経路の設定および誘導を行なう車載装置である。また、ナビゲーション装置30は、画像認識装置10に対して自車両の位置情報や周辺の地図情報、道路に関する情報などを提供する。   The navigation device 30 is an in-vehicle device that sets and guides a travel route using the position of the host vehicle specified by communicating with a GPS (Global Positioning System) artificial satellite and map data 30a stored in advance. In addition, the navigation device 30 provides the image recognition device 10 with position information of the own vehicle, surrounding map information, information about roads, and the like.

カメラ31は、自車両周辺を撮影し、撮影結果を画像認識装置10に入力する。プリクラッシュECU40は、画像認識部10が自車両の衝突を予測した場合に、ディスプレイ43やスピーカ44による乗員への通知、ブレーキ41、エンジン制御装置(EFI)42による車両の動作制御を実行する電子制御装置であり、車両制御装置として機能する。   The camera 31 captures the vicinity of the host vehicle and inputs the captured result to the image recognition apparatus 10. When the image recognition unit 10 predicts a collision of the host vehicle, the pre-crash ECU 40 is an electronic device that performs notification of occupants by the display 43 and the speaker 44, and the operation control of the vehicle by the brake 41 and the engine control device (EFI) 42. It is a control device and functions as a vehicle control device.

画像認識装置10は、その内部に前処理部11、背景領域分割部12、基準パターン選択部14、基準パターンデータベース15、車両認識部16、白線認識部17、歩行者認識部18、歩行者候補領域検出部19および衝突判定部20を有する。ここで、背景領域分割部12、基準パターン選択部14、基準パターンデータベース15、車両認識部16、白線認識部17、歩行者認識部18、歩行者候補領域検出部19および衝突判定部20は、例えば単一のマイコン10a(CPU、ROM、RAMの組み合わせからなる演算処理ユニット)などによって実現することが好適である。   The image recognition device 10 includes a preprocessing unit 11, a background region dividing unit 12, a reference pattern selection unit 14, a reference pattern database 15, a vehicle recognition unit 16, a white line recognition unit 17, a pedestrian recognition unit 18, and a pedestrian candidate. An area detection unit 19 and a collision determination unit 20 are included. Here, the background region division unit 12, the reference pattern selection unit 14, the reference pattern database 15, the vehicle recognition unit 16, the white line recognition unit 17, the pedestrian recognition unit 18, the pedestrian candidate region detection unit 19, and the collision determination unit 20 For example, it is preferably realized by a single microcomputer 10a (an arithmetic processing unit composed of a combination of CPU, ROM, and RAM).

前処理部11は、カメラ31が撮影した画像に対してフィルタリングやエッジ検出、輪郭抽出などの処理を施した後、背景領域分割部12、車両認識部16、白線認識部17および歩行者候補領域検出部19に出力する。   The preprocessing unit 11 performs processing such as filtering, edge detection, and contour extraction on the image captured by the camera 31, and then the background region dividing unit 12, the vehicle recognition unit 16, the white line recognition unit 17, and the pedestrian candidate region. Output to the detection unit 19.

車両認識部16は、前処理部11が出力した画像に対してパターンマッチングなどを施して車両を認識し、認識結果を衝突判定部20に出力する。また、白線認識部18も同様に、前処理部11が出力した画像に対してパターンマッチングなどを施して白線を認識し、認識結果を衝突判定部20に出力する。   The vehicle recognition unit 16 performs pattern matching on the image output from the preprocessing unit 11 to recognize the vehicle, and outputs the recognition result to the collision determination unit 20. Similarly, the white line recognition unit 18 performs pattern matching on the image output from the preprocessing unit 11 to recognize a white line and outputs the recognition result to the collision determination unit 20.

一方、歩行者候補領域検出部19は、顕著性アルゴリズムを用いて、前処理部11が出力した画像から歩行者が存在する可能性のある領域を検出し、検出結果を歩行者認識部18に出力する。その後、歩行者認識部18が歩行者候補領域に対してパターンマッチングやニューラルネットワークによるニューロ判定処理を施して歩行者を認識し、衝突判定部20に出力する。そして、歩行者を認識した場合には歩行者までの距離を画像処理などで算出し、歩行者情報としてその距離も衝突判定部20に出力する。   On the other hand, the pedestrian candidate area detection unit 19 detects an area where a pedestrian may exist from the image output by the preprocessing unit 11 using a saliency algorithm, and the detection result is sent to the pedestrian recognition unit 18. Output. Thereafter, the pedestrian recognition unit 18 performs pattern matching or neuro-determination processing using a neural network on the pedestrian candidate region to recognize the pedestrian and outputs the pedestrian to the collision determination unit 20. And when a pedestrian is recognized, the distance to a pedestrian is calculated by image processing etc., and the distance is also output to the collision determination part 20 as pedestrian information.

衝突判定部20は、車両認識部16、白線認識部17、歩行者認識部18による認識結果およびナビゲーション装置30が出力する位置情報を用いて、歩行者や他車両と自車両との衝突を予測し、予測結果をプリクラッシュECU40に出力する。一方、プリクラッシュECU40は予測結果(歩行者が前方に存在し、距離が数mに近づいているなど)に基づき、衝突の可能性があれば運転者にディスプレイ43やスピーカ44などにより報知制御を行なうと共に、衝突の危険度によっては車両の走行制御(ブレーキ制御、アクセル制御など)を行なう。   The collision determination unit 20 predicts a collision between a pedestrian or another vehicle and the host vehicle using the recognition results obtained by the vehicle recognition unit 16, the white line recognition unit 17, the pedestrian recognition unit 18, and the position information output by the navigation device 30. Then, the prediction result is output to the pre-crash ECU 40. On the other hand, the pre-crash ECU 40 controls the driver using the display 43, the speaker 44, etc. if there is a possibility of a collision based on the prediction result (eg, a pedestrian is present ahead and the distance is close to several meters). In addition, vehicle travel control (brake control, accelerator control, etc.) is performed depending on the risk of collision.

ここで、車両や白線など形状のバリエーションの少ないものを認識する場合には、前処理部11が出力した画像に対して直接パターンマッチングを行なうが、歩行者のように形状の変化が激しい物体を認識する場合には、顕著性アルゴリズムによって予め候補領域を検出することによって検出精度の向上と処理負荷の軽減を図る。   Here, when recognizing a vehicle or a white line with little variation in shape, pattern matching is directly performed on the image output by the pre-processing unit 11. In the case of recognition, the detection accuracy is improved and the processing load is reduced by detecting candidate regions in advance by a saliency algorithm.

顕著性アルゴリズムによる候補領域の検出について図2を参照して説明する。同図に示すように、顕著性アルゴリズムは、まず学習プロセスによって基準パターンを作成し、歩行者候補領域検出プロセスでは入力画像と基準パターンとの比較によって顕著性を算出する。   Detection of candidate areas by the saliency algorithm will be described with reference to FIG. As shown in the figure, the saliency algorithm first creates a reference pattern by a learning process, and the pedestrian candidate area detection process calculates saliency by comparing the input image with the reference pattern.

学習プロセスでは、本装置を使用する前に予め複数の学習用の画像を入力し、学習用画像から学習領域を切り出す。この学習領域は、画像内における歩行者のサイズに合わせ、例えば20×20ピクセルのサイズで切り出す。学習用の画像は、歩行者などターゲットを含まない道路などの背景画像である。   In the learning process, a plurality of learning images are input in advance before using the apparatus, and a learning area is cut out from the learning image. This learning area is cut out in a size of 20 × 20 pixels, for example, in accordance with the size of the pedestrian in the image. The learning image is a background image of a road or the like that does not include a target such as a pedestrian.

この切り出した学習領域をN次元(Nは画素数であり、20×20ピクセルであれば400次元)のベクトルとして扱い、全ての学習領域についてN次元の主成分分析を行なって、特徴ベクトル(N次元ベクトルの主成分)を算出する。この特徴ベクトルの算出を全ての学習画像に対して実行し、共通するベクトル成分を基準パターンとする。   This cut-out learning area is treated as an N-dimensional (N is the number of pixels, and if it is 20 × 20 pixels, 400 dimensions) vector, N-dimensional principal component analysis is performed on all learning areas, and a feature vector (N The principal component of the dimension vector) is calculated. The calculation of the feature vector is executed for all learning images, and the common vector component is used as a reference pattern.

歩行者候補領域検出プロセスでは、カメラが撮影した入力画像から学習領域のサイズと同一サイズの判定領域を切り出す。そして、この切り出した判定領域をN次元ベクトルとし、基準パターンで展開する(内積をとる)。   In the pedestrian candidate area detection process, a determination area having the same size as the learning area is cut out from the input image captured by the camera. Then, the cut-out determination area is set as an N-dimensional vector and developed with a reference pattern (takes an inner product).

この展開によって、判定領域のうち基準パターンと類似のベクトル成分が得られるので、展開して得られたベクトルと判定領域のベクトルとの残差を顕著性(基準パターンからの乖離度を示す値)として算出し、顕著性の高い領域のみを歩行者候補領域として残した結果画像を出力する。   By this expansion, a vector component similar to the reference pattern is obtained in the judgment area, so that the residual between the vector obtained by the development and the vector of the judgment area is significant (a value indicating the degree of deviation from the reference pattern). And outputs a result image in which only a highly significant area is left as a pedestrian candidate area.

ところが、入力する学習用画像によっては適切な基準パターンが得られず、候補領域の検出精度が低下することがある。例えば、学習用画像として多様な画像を使用すると、各学習用画像が異なる主成分を有するために、そこから得られる基準パターンは多くの方向を有することとなり、歩行者との残差を得ることが困難になる。すなわち、歩行者の特徴が背景に埋もれてしまい、顕著性なしと判断される。   However, depending on the learning image to be input, an appropriate reference pattern cannot be obtained, and the detection accuracy of the candidate area may decrease. For example, when various images are used as learning images, each learning image has a different main component, so that the reference pattern obtained therefrom has many directions, and a residual with a pedestrian is obtained. Becomes difficult. That is, the pedestrian's features are buried in the background, and it is determined that there is no saliency.

また、顕著性が少ないところまで閾値を下げ、少しでも顕著性があれば歩行者候補として検出するようにすると、歩行者以外でも顕著性有りとして検出してしまい、逆に検出精度が低くなる。例えば、図3に示すように、入力画像から樹木と建物以外の物体を検知すべく、樹木と建物を学習用画像として入力すると、樹木の特徴と建物の特徴が混合した基準パターンが作成される。   Further, if the threshold is lowered to a point where the saliency is low and if any saliency is detected, it is detected as a pedestrian candidate other than the pedestrian, and conversely, the detection accuracy is lowered. For example, as shown in FIG. 3, when a tree and a building are input as learning images in order to detect objects other than trees and buildings from the input image, a reference pattern in which the characteristics of the trees and the characteristics of the buildings are mixed is created. .

その結果、樹木の画像を判定した場合も建物の画像を判定した場合も、基準パターンと異なる、すなわち「顕著性あり」と判定される可能性がある。   As a result, it may be determined that the tree pattern or the building image is different from the reference pattern, that is, “conspicuous”.

このように、学習プロセスにおいて入力する事象が大きい(学習用画像間の共通性が低く、多岐にわたる)場合には、適切な基準パターンが得られず、顕著性の検出精度が低くなり、歩行者の検出漏れが発生したり、多数の領域が「顕著性のある歩行者候補領域」として出力されることなる。その結果、歩行者認識部18での処理負荷上昇と認識精度低下が引き起こされる。   In this way, when the events to be input in the learning process are large (the commonality between the images for learning is low and wide-ranging), an appropriate reference pattern cannot be obtained, the saliency detection accuracy is low, and the pedestrian Or a large number of areas are output as “significant pedestrian candidate areas”. As a result, a processing load increase and a recognition accuracy decrease in the pedestrian recognition unit 18 are caused.

そこで、画像認識装置10は、入力画像内の背景ごとに基準パターンを使い分けることで、歩行者候補領域の検出精度を向上している。   Therefore, the image recognition apparatus 10 improves the detection accuracy of the pedestrian candidate region by using the reference pattern for each background in the input image.

具体的には図4に示すように、まず学習プロセスにおいて学習用画像を背景ごとに「空の背景画像」、「道路内の背景画像」、「道路外の背景画像」に分類する。そして、「空の背景画像」から「空用基準パターン」、「道路内の背景画像」から「道路内用基準パターン」、「道路外の背景画像」から「道路外用基準パターン」のように、背景に対応した基準パターンを作成する。   Specifically, as shown in FIG. 4, first, in the learning process, the learning image is classified into “sky background image”, “background image in the road”, and “background image outside the road” for each background. And, from “sky background image” to “empty reference pattern”, “background image in road” to “reference pattern for road”, “background image outside road” to “reference pattern for road outside”, Create a reference pattern corresponding to the background.

つぎに、歩行者候補領域検出プロセスでは、前処理部11によって処理された画像を背景領域分割部12が背景ごとに、例えば空、道路内、道路外の3つの背景領域に分割する。そして、基準パターン選択部14は、判定領域がいずれの背景領域から切り出されたかによって歩行者候補領域検出部19が使用する基準パターンを選択する。   Next, in the pedestrian candidate region detection process, the background region dividing unit 12 divides the image processed by the preprocessing unit 11 into three background regions, for example, the sky, the road, and the road outside, for each background. Then, the reference pattern selection unit 14 selects a reference pattern to be used by the pedestrian candidate region detection unit 19 depending on from which background region the determination region is cut out.

このように、背景領域ごとに異なる基準パターンを用いることで、各基準パターンについて学習プロセスで入力する事象を縮小し、候補領域の検出精度を向上することができる。すなわち、所定の背景領域(例えば道路)から切り出した被判定領域の顕著性判断には、その背景領域に対応する(例えば道路用の)基準パターンを用いることで、歩行者画像の特徴が背景に埋もれることが無くなり、「顕著性なし」と判断することを防止できる。そのため、検出の閾値を下げる必要が無く、高精度に歩行者候補領域を検出できる。   In this way, by using different reference patterns for each background region, it is possible to reduce the events input in the learning process for each reference pattern and improve the detection accuracy of candidate regions. That is, in determining the saliency of a determination target region cut out from a predetermined background region (for example, a road), by using a reference pattern (for example, for a road) corresponding to the background region, the characteristics of the pedestrian image are used as the background. It can be prevented from being buried and being judged as “no saliency”. Therefore, it is not necessary to lower the detection threshold, and the pedestrian candidate area can be detected with high accuracy.

つづいて、背景領域分割部12による背景領域の分割について、その具体例を説明する。背景領域分割部12は、その内部に消失点認識部12aおよび車線認識部12bを有する。   Next, a specific example of background area division by the background area dividing unit 12 will be described. The background area dividing unit 12 includes a vanishing point recognizing unit 12a and a lane recognizing unit 12b.

消失点認識部12aは、オプティカルフローなどを用いて、画面内における消失点を認識する処理を行なう。そして、背景領域分割部12は、図5に示すように消失点よりも上の領域を空として分割する。   The vanishing point recognizing unit 12a performs processing for recognizing the vanishing point in the screen using an optical flow or the like. Then, the background area dividing unit 12 divides the area above the vanishing point as empty as shown in FIG.

車線認識部12bは、白線認識部17の認識結果を用いて画像内における車線を認識する処理を行なう。そして、背景領域分割部12は、図5に示すように車線の内側の領域を道路内として分割し、車線の外側を道路外とする。   The lane recognition unit 12b performs processing for recognizing a lane in the image using the recognition result of the white line recognition unit 17. Then, the background area dividing unit 12 divides the area inside the lane as the inside of the road as shown in FIG. 5, and sets the outside of the lane as the outside of the road.

つぎに、マイコン10aによる歩行者認識の処理動作について図6のフローチャートを参照して説明する。なお、この処理フローは、IGオンによりマイコン10aに電源が供給されてスタートし、画像処理装置10が画像認識を実行中である場合に、画像フレームの処理ごと(例えば数msecごと)に繰り返し実行される処理である。また、マイコン10aは白線認識や車両認識も行うが、本処理フローでは説明を省略している。   Next, a processing operation for pedestrian recognition by the microcomputer 10a will be described with reference to a flowchart of FIG. This processing flow starts when power is supplied to the microcomputer 10a when the IG is turned on, and is repeatedly executed for each image frame processing (for example, every several milliseconds) when the image processing apparatus 10 is executing image recognition. Process. The microcomputer 10a also performs white line recognition and vehicle recognition, but a description thereof is omitted in this processing flow.

まず、歩行者候補領域検出部19内部の被判定領域切出部19aは前処理部11による処理が施された画像を取得し、取得した画像から判定領域を切り出す(ステップS101)。また、消失点認識部12aは前処理部11による処理が施された画像に対してオプティカルフローを用いて消失点を認識する(ステップS102)。   First, the to-be-determined area extracting unit 19a inside the pedestrian candidate area detecting unit 19 acquires an image that has been processed by the preprocessing unit 11, and extracts a determination area from the acquired image (step S101). Further, the vanishing point recognizing unit 12a recognizes the vanishing point by using the optical flow for the image subjected to the processing by the preprocessing unit 11 (step S102).

そして、判定領域が消失点より上側から切り出されているならば(ステップS103,Yes)、基準パターン選択部14は空用基準パターンを選択する(ステップS107)。   If the determination area is cut out from above the vanishing point (step S103, Yes), the reference pattern selection unit 14 selects an empty reference pattern (step S107).

一方、判定領域が消失点以下から切り出されているならば(ステップS103,No)、車線認識部12bが白線認識部17の認識結果を用いて車線を認識する(ステップS104)。   On the other hand, if the determination area is cut out from the vanishing point or less (step S103, No), the lane recognition unit 12b recognizes the lane using the recognition result of the white line recognition unit 17 (step S104).

そして、判定領域が車線の中、すなわち道路内から切り出されているならば(ステップS105,Yes)、基準パターン選択部14は道路内用基準パターンを選択し(ステップS108)、判定領域が車線の外、すなわち道路外から切り出されているならば(ステップS105,No)、基準パターン選択部14は道路外用基準パターンを選択する(ステップS106)。   If the determination area is cut out from the lane, that is, from the road (Yes in step S105), the reference pattern selection unit 14 selects the reference pattern for road (step S108), and the determination area is the lane. If it is cut out from the outside, that is, outside the road (No at Step S105), the reference pattern selection unit 14 selects the reference pattern for outside the road (Step S106).

基準パターンの選択(ステップS106,S107,S108)の後、歩行者候補領域選択部19は、選択された基準パターンと切り出された被判定領域とを比較し(ステップS109)、顕著性があるか否かを判定する(ステップS110)。   After the selection of the reference pattern (steps S106, S107, S108), the pedestrian candidate area selection unit 19 compares the selected reference pattern with the clipped area to be determined (step S109), and is there saliency? It is determined whether or not (step S110).

その結果、顕著性が無ければ(ステップS110,No)そのまま処理を終了し、顕著性があるならば(ステップS110,Yes)、歩行者認識部18がパターンマッチングやニューロ判定処理によって歩行者であるか否かを判定し(ステップS111)、歩行者であるならば(ステップS111,Yes)歩行者情報と歩行者までの距離を衝突判定部20に出力して(ステップS112)、処理を終了する。   As a result, if there is no saliency (No in step S110), the process is terminated as it is, and if there is saliency (step S110, Yes), the pedestrian recognition unit 18 is a pedestrian by pattern matching or a neuro determination process. If it is a pedestrian (step S111, Yes), the pedestrian information and the distance to the pedestrian are output to the collision determination unit 20 (step S112), and the process is terminated. .

つぎに、プリクラッシュECU40の処理動作について図7のフローチャートを参照して説明する。なお、この処理フローは、IGオンなどにより電源が供給されてスタートし、繰り返し実行される処理である。   Next, the processing operation of the pre-crash ECU 40 will be described with reference to the flowchart of FIG. This process flow is a process that starts when power is supplied when IG is turned on and the like, and is repeatedly executed.

まず、プリクラッシュECU40は、画像認識装置10から画像認識の結果を示すデータを受信する(ステップS201)。そして、歩行者などと衝突の危険性が高い場合には(ステップS202,Yes)、スピーカ44によるブザーなどの警告音出力やディスプレイ43による表示出力によって運転者に報知し(ステップS203)、ブレーキ41やEFI42による車両制御を実行して(ステップS204)、処理を終了する。   First, the pre-crash ECU 40 receives data indicating the result of image recognition from the image recognition device 10 (step S201). If the risk of collision with a pedestrian or the like is high (step S202, Yes), the driver 44 is notified by a warning sound output such as a buzzer by the speaker 44 or a display output by the display 43 (step S203). Or vehicle control by EFI 42 is executed (step S204), and the process is terminated.

上述してきたように、本実施例1にかかる画像認識装置10は、背景ごとに異なる基準パターンを作成するとともに、入力画像を背景領域に分割し、被判定領域をいずれの背景領域から切り出したかによって基準パターンを選択することで、顕著性アルゴリズムによる歩行者候補領域の検出精度を向上している。   As described above, the image recognition apparatus 10 according to the first embodiment creates a different reference pattern for each background, divides the input image into background regions, and determines from which background region the determined region is cut out. By selecting the reference pattern, the detection accuracy of the pedestrian candidate area by the saliency algorithm is improved.

上述した実施例1では、被判定領域を切り出した背景領域に対応して基準パターンを選択する構成について説明を行なったが、本実施例2では、各被判定領域に対して背景ごとに異なる複数の基準パターンとの比較を行なう構成について説明する。   In the above-described first embodiment, the configuration in which the reference pattern is selected corresponding to the background area from which the determination target area is cut out has been described. However, in this second embodiment, a plurality of different backgrounds for each determination target area. A configuration for comparing with the reference pattern will be described.

図8は、本発明の実施例2である車載用の画像認識装置50の概要構成を示す概要構成図である。同図に示すように、画像認識装置50は、ナビゲーション装置30、カメラ31、プリクラッシュECU40と接続し、その内部に前処理部11、基準パターンデータベース15、車両認識部16、白線認識部17、歩行者認識部18、歩行者候補領域検出部52および衝突判定部20を有する。   FIG. 8 is a schematic configuration diagram showing a schematic configuration of an in-vehicle image recognition apparatus 50 that is Embodiment 2 of the present invention. As shown in the figure, an image recognition device 50 is connected to a navigation device 30, a camera 31, and a pre-crash ECU 40, and includes a preprocessing unit 11, a reference pattern database 15, a vehicle recognition unit 16, a white line recognition unit 17, A pedestrian recognition unit 18, a pedestrian candidate area detection unit 52, and a collision determination unit 20 are included.

歩行者候補領域検出部52は、その内部に基準パターンの数に対応した複数の顕著性算出部と平均処理部52a、被判定領域切出部52bを有する。そして、前処理部11が出力した画像から被判定領域切出部52bが被判定領域を切り出し、切り出された被判定領域に対して全ての基準パターンで顕著性算出を行ない、各算出結果を平均して出力する。   The pedestrian candidate region detection unit 52 includes a plurality of saliency calculation units corresponding to the number of reference patterns, an average processing unit 52a, and a determination region extraction unit 52b. Then, the to-be-determined area cutout unit 52b cuts out the to-be-determined area from the image output from the preprocessing unit 11, performs saliency calculation for all the reference patterns on the extracted to-be-determined area, and averages each calculation result. And output.

すなわち、被判定領域切出部52bが一つの被判定領域を切り出すと、その被判定領域がどこから切り出されたかに関わらず、空用、道路内用、道路外用などの全ての基準パターンについてそれぞれ顕著性を算出し、算出結果の値を平均する。   That is, when the determination target region cutout unit 52b cuts out one determination target region, it is notable for all reference patterns such as empty, in-road use, and out-of-road use regardless of where the determination target region is cut out. The sex is calculated and the value of the calculation result is averaged.

そのため、空用、道路内用、道路外用の基準パターンの全てに対して顕著性の値が大きかった被判定領域は、空用、道路内用、道路外用の基準パターンのいずれかに対して顕著性の値が小さかった被判定領域に比して算出結果の値が大きくなる。この値の大きい被判定領域が歩行者候補領域として歩行者認識部に出力される。   For this reason, the judged area that has a large saliency value for all of the reference patterns for air, road, and road is prominent for any of the reference patterns for sky, road, and road. The value of the calculation result is larger than that of the determination target area where the sex value is small. The determination target area having a large value is output to the pedestrian recognition unit as a pedestrian candidate area.

そのため、各基準パターンについて学習プロセスで入力する事象を縮小しつつ、総合的な判断を行なうことができる。   Therefore, it is possible to make a comprehensive judgment while reducing the events input in the learning process for each reference pattern.

その他の構成および動作については、実施例1に示した画像認識装置10と同様であるので、同一の構成要素には同一の符号を付して説明を省略する。   Since other configurations and operations are the same as those of the image recognition apparatus 10 shown in the first embodiment, the same components are denoted by the same reference numerals and description thereof is omitted.

上述してきたように、本実施例2にかかる画像認識装置10は、背景ごとに異なる基準パターンを使用し、各基準パターンでの算出結果の平均を取ることで、簡易な構成で顕著性アルゴリズムによる歩行者候補領域の検出精度を向上している。   As described above, the image recognition apparatus 10 according to the second embodiment uses a different reference pattern for each background and takes the average of the calculation results of each reference pattern, thereby using a saliency algorithm with a simple configuration. The detection accuracy of the pedestrian candidate area is improved.

なお、本実施例2においては、複数の基準パターンでの算出結果を平均する場合について説明を行なったが、例えば重み付けをする、最大値を採用するなど複数の算出結果に対する演算方法は適宜変更して実施することができる。   In the second embodiment, the case where the calculation results of a plurality of reference patterns are averaged has been described. However, for example, the calculation method for a plurality of calculation results such as weighting or employing a maximum value is appropriately changed. Can be implemented.

また、本発明は、実施例1および実施例2に示した構成に限定されること無く、任意構成によって実施することができるものである。たとえば、実施例1に示した構成と、実施例2に示した構成とを組み合わせ、複数の背景領域にまたがって切り出された被判定領域に対してはそれぞれの背景に対応する基準パターンでの算出結果の平均を取る構成によって本発明を実施しても良い。   Further, the present invention is not limited to the configurations shown in the first embodiment and the second embodiment, and can be implemented by an arbitrary configuration. For example, the configuration shown in the first embodiment and the configuration shown in the second embodiment are combined, and for a determination target region cut out across a plurality of background regions, calculation using a reference pattern corresponding to each background is performed. You may implement this invention by the structure which takes the average of a result.

なお、実施例1および実施例2では、車載カメラが撮影した画像から特定の物体、すなわち歩行者を認識する場合を例に説明を行なったが、例えば移動(回転)可能な交通監視用のカメラが撮影した画像に対しても適用可能である。また、本実施例では顕著性算出を適用したが、これに限らず背景画像を基準パターンとして記憶し、現在画像との差分により、候補画を抽出する背景差分法を適用しても良い。   In the first embodiment and the second embodiment, the case where a specific object, that is, a pedestrian is recognized from an image taken by the in-vehicle camera is described as an example. For example, a traffic monitoring camera that can move (rotate). It is also applicable to images taken by In this embodiment, the saliency calculation is applied. However, the present invention is not limited to this, and a background difference method of storing a background image as a reference pattern and extracting a candidate image based on a difference from the current image may be applied.

以上のように、本発明にかかる物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置および車両制御装置は、車両における画像認識に有用であり、特に歩行者候補領域の検出精度向上に適している。   As described above, the object candidate region detection device, the object candidate region detection method, the pedestrian recognition device, and the vehicle control device according to the present invention are useful for image recognition in a vehicle, and particularly for improving detection accuracy of a pedestrian candidate region. Is suitable.

本発明の実施例1にかかる画像認識装置の概要構成を示す概要構成図である。1 is a schematic configuration diagram showing a schematic configuration of an image recognition apparatus according to Embodiment 1 of the present invention. 顕著性アルゴリズムによる候補領域の検出について説明する説明図である。It is explanatory drawing explaining the detection of the candidate area | region by a saliency algorithm. 候補領域の検出精度低下について説明する説明図である。It is explanatory drawing explaining the detection accuracy fall of a candidate area | region. 画像の背景に基づく歩行者候補領域検出を説明する説明図である。It is explanatory drawing explaining the pedestrian candidate area | region detection based on the background of an image. 入力画像における背景領域の分割について説明する説明図である。It is explanatory drawing explaining the division | segmentation of the background area | region in an input image. 歩行者認識の処理動作について説明するフローチャートである。It is a flowchart explaining the processing operation of pedestrian recognition. 図1に示したプリクラッシュECUの処理動作について説明するフローチャートである。It is a flowchart explaining the processing operation of the pre-crash ECU shown in FIG. 本発明の実施例2にかかる画像認識装置の概要構成を示す概要構成図である。It is a schematic block diagram which shows schematic structure of the image recognition apparatus concerning Example 2 of this invention.

符号の説明Explanation of symbols

10 画像認識装置
10a マイコン
11 前処理部
12 背景領域分割部
12a 消失点認識部
12b 車線認識部
14 基準パターン選択部
15 基準パターンデータベース
16 車両認識部
17 白線認識部
18 歩行者認識部
19,52 歩行者候補領域検出部
19a,52a 被判定領域切出部
20 衝突判定部
30 ナビゲーション装置
30a 地図データ
31 カメラ
DESCRIPTION OF SYMBOLS 10 Image recognition apparatus 10a Microcomputer 11 Pre-processing part 12 Background area division part 12a Vanishing point recognition part 12b Lane recognition part 14 Reference pattern selection part 15 Reference pattern database 16 Vehicle recognition part 17 White line recognition part 18 Pedestrian recognition part 19,52 Walking Person candidate area detection unit 19a, 52a To-be-determined area extraction unit 20 Collision determination unit 30 Navigation device 30a Map data 31 Camera

Claims (8)

カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出装置であって、
前記入力画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを記憶する基準パターン記憶手段と、
現在カメラが撮影した入力画像を背景について、道路の領域と道路外の領域ごとに分割する背景領域分割手段と、
現在カメラが撮影した入力画像から被判定領域を切り出す被判定領域切出手段と、
前記被判定領域が道路の領域、道路外の領域のいずれの背景領域から切り出されたかによって、前記複数の基準パターンのうち、当該背景領域に応じた基準パターンを選択する基準パターン選択手段と、
前記選択された基準パターンと前記被判定領域とを比較することで、前記被判定領域のうち、前記物体候補領域を検出する検出手段と、
を備えたことを特徴とする物体候補領域検出装置。
An object candidate area detection device that detects an area where a specific object may exist from an input image captured by a camera as an object candidate area,
For the background of the input image, reference pattern storage means for storing a plurality of different reference patterns for each of the road area and the outside road area;
A background area dividing means for dividing an input image currently captured by the camera into a road area and an area outside the road for the background;
To-be-determined area cutting out means for cutting out the to-be-determined area from the input image currently captured by the camera;
A reference pattern selecting means for selecting a reference pattern corresponding to the background area from the plurality of reference patterns depending on whether the determined area is cut out from a background area of a road area or an area outside the road;
Detecting means for detecting the object candidate area in the determined area by comparing the selected reference pattern and the determined area;
An object candidate area detecting apparatus comprising:
前記背景領域分割手段は、前記入力画像の消失点から上を道路外領域として分割することを特徴とする請求項1に記載の物体候補領域検出装置。   The object candidate region detection apparatus according to claim 1, wherein the background region dividing unit divides the upper side from the vanishing point of the input image as a region outside the road. 前記背景領域分割手段は、前記入力画像に対する車線認識結果を用いて道路内領域と道路外領域とを分割することを特徴とする請求項1または2に記載の物体候補領域検出装置。   The object candidate region detection apparatus according to claim 1, wherein the background region dividing unit divides an in-road region and an out-of-road region using a lane recognition result for the input image. カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出装置であって、
前記入力画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを記憶する基準パターン記憶手段と、
現在カメラが撮影した入力画像から被判定領域を切り出す被判定領域切出手段と、
前記被判定領域と前記複数の基準パターンのそれぞれとを比較し、当該複数の比較結果を総合することで、前記被判定領域のうち、前記物体候補領域を検出する検出手段と、
を備えたことを特徴とする物体候補領域検出装置。
An object candidate area detection device that detects an area where a specific object may exist from an input image captured by a camera as an object candidate area,
For the background of the input image, reference pattern storage means for storing a plurality of different reference patterns for each of the road area and the outside road area;
To-be-determined area cutting out means for cutting out the to-be-determined area from the input image currently captured by the camera;
Detecting means for detecting the object candidate region of the determination target region by comparing the determination target region and each of the plurality of reference patterns and combining the plurality of comparison results;
An object candidate area detecting apparatus comprising:
前記検出手段は、前記被判定領域と前記複数の基準パターンとの差異を数値化し、得られた複数の数値の平均値が閾値以上である場合に当該被判定領域を前記物体候補領域として出力することを特徴とする請求項4に記載の物体候補領域検出装置。   The detecting means digitizes the difference between the determination target area and the plurality of reference patterns, and outputs the determination target area as the object candidate area when an average value of the obtained plurality of numerical values is equal to or greater than a threshold value. The object candidate region detection apparatus according to claim 4, wherein カメラが撮影した入力画像から特定の物体が存在する可能性のある領域を物体候補領域として検出する物体候補領域検出方法であって、
前記入力画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを記憶する基準パターン記憶工程と、
前記入力画像から切り出した被判定領域と、前記複数の基準パターンとの比較によって前記物体候補領域を検出する検出工程と、
を含んだことを特徴とする物体候補領域検出方法。
An object candidate area detection method for detecting an area where a specific object may exist from an input image captured by a camera as an object candidate area,
For the background of the input image, a reference pattern storage step for storing a plurality of reference patterns different for each of the road area and the area outside the road;
A detection step of detecting the object candidate region by comparing the determination target region cut out from the input image and the plurality of reference patterns;
The object candidate area | region detection method characterized by including.
車載カメラが撮影した入力画像から歩行者を認識する歩行者認識装置であって、
前記入力画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを記憶する基準パターン記憶手段と、
前記入力画像から切り出した被判定領域と、前記複数の基準パターンとの比較によって歩行者が存在する可能性のある領域を歩行者候補領域として検出する検出手段と、
当該歩行者候補領域が歩行者に相当するか否かを判別する歩行者判別手段と、
を備えたことを特徴とする歩行者認識装置。
A pedestrian recognition device that recognizes a pedestrian from an input image taken by an in-vehicle camera,
For the background of the input image, reference pattern storage means for storing a plurality of different reference patterns for each of the road area and the outside road area;
Detecting means for detecting a region where a pedestrian may exist as a pedestrian candidate region by comparing the to-be-determined region cut out from the input image and the plurality of reference patterns;
Pedestrian determination means for determining whether the pedestrian candidate area corresponds to a pedestrian,
A pedestrian recognition device comprising:
画像の背景について、道路の領域と道路外の領域ごとに異なる複数の基準パターンを予め学習し、記憶する基準パターン記憶手段と、
車載カメラが撮影した入力画像から切り出した被判定領域と、前記複数の基準パターンとの比較によって歩行者が存在する可能性のある領域を歩行者候補領域として検出する検出手段と、
当該歩行者候補領域が歩行者に相当するか否かを判別する歩行者判別手段と、
前記歩行者判別手段によって歩行者が認識された場合に、歩行者の存在について報知する報知制御、および/または車両の走行状態を制御する走行制御を実行する制御手段と、
を備えたことを特徴とする車両制御装置。
Reference pattern storage means for learning in advance and storing a plurality of reference patterns that differ for each of the road area and the area outside the road for the background of the image;
A detection unit that detects a region where a pedestrian may exist as a pedestrian candidate region by comparing the determination target region cut out from the input image captured by the in-vehicle camera and the plurality of reference patterns;
Pedestrian determination means for determining whether the pedestrian candidate area corresponds to a pedestrian,
Control means for executing notification control for notifying the presence of a pedestrian and / or running control for controlling the running state of the vehicle when a pedestrian is recognized by the pedestrian discrimination means;
A vehicle control device comprising:
JP2006160148A 2006-06-08 2006-06-08 Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device Pending JP2007328630A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006160148A JP2007328630A (en) 2006-06-08 2006-06-08 Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006160148A JP2007328630A (en) 2006-06-08 2006-06-08 Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device

Publications (1)

Publication Number Publication Date
JP2007328630A true JP2007328630A (en) 2007-12-20

Family

ID=38929045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006160148A Pending JP2007328630A (en) 2006-06-08 2006-06-08 Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device

Country Status (1)

Country Link
JP (1) JP2007328630A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012066751A1 (en) * 2010-11-16 2012-05-24 本田技研工業株式会社 Peripheral monitoring device for vehicle
JP2012168098A (en) * 2011-02-16 2012-09-06 Aisin Aw Co Ltd Photographic position specification system, photographic position specification program, and method for specifying photographic position
DE102011078615A1 (en) 2011-07-04 2013-01-10 Toyota Jidosha K.K. Object detector for detecting pedestrian in surrounding area of vehicle, has pedestrian identification portion for identifying whether window image is image depicting object, and identification model selected to identify object
KR101264282B1 (en) * 2010-12-13 2013-05-22 재단법인대구경북과학기술원 detection method vehicle in road using Region of Interest
US8994823B2 (en) 2011-07-05 2015-03-31 Toyota Jidosha Kabushiki Kaisha Object detection apparatus and storage medium storing object detection program
JP2015103188A (en) * 2013-11-27 2015-06-04 株式会社リコー Image analysis device, image analysis method, and image analysis program
JP2015165376A (en) * 2014-02-28 2015-09-17 コア ロジック, インコーポレイテッド Apparatus and method for recognizing lane
US9262693B2 (en) 2013-04-26 2016-02-16 Denso Corporation Object detection apparatus
JP2016085633A (en) * 2014-10-27 2016-05-19 株式会社デンソー Object identification unit, driving assist system, and vehicle and object identification method
US9349043B2 (en) 2013-11-28 2016-05-24 Hyundai Mobis Co., Ltd. Apparatus and method for detecting pedestrians
US9367749B2 (en) 2013-02-22 2016-06-14 Denso Corporation Object detection apparatus
US9418287B2 (en) 2013-03-13 2016-08-16 Denso Corporation Object detection apparatus
JP2019008796A (en) * 2017-06-23 2019-01-17 ウーバー テクノロジーズ,インコーポレイテッド Collision avoidance system for autonomous vehicle
JP2019134266A (en) * 2018-01-30 2019-08-08 株式会社デンソーテン Image processing device, image processing method, and operation support system
JP2019149754A (en) * 2018-02-28 2019-09-05 株式会社日立国際電気 Video encoder and video encoding method
JP2019161424A (en) * 2018-03-13 2019-09-19 株式会社日立国際電気 Video encoder and video coding method
US11443526B2 (en) 2019-10-10 2022-09-13 Toyota Jidosha Kabshiki Kaisha Road obstacle detection device, road obstacle detection method, and recording medium storing a road obstacle detection program
US11704828B2 (en) 2019-10-18 2023-07-18 Toyota Jidosha Kabushiki Kaisha Road obstacle detection device, road obstacle detection method, and computer-readable storage medium
WO2023209755A1 (en) * 2022-04-25 2023-11-02 日本電気株式会社 Travel environment determination device, vehicle, travel environment determination method, and recording medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090277A (en) * 1998-09-10 2000-03-31 Hitachi Denshi Ltd Reference background image updating method, method and device for detecting intruding object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090277A (en) * 1998-09-10 2000-03-31 Hitachi Denshi Ltd Reference background image updating method, method and device for detecting intruding object

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2012066751A1 (en) * 2010-11-16 2014-05-12 本田技研工業株式会社 Vehicle periphery monitoring device
WO2012066751A1 (en) * 2010-11-16 2012-05-24 本田技研工業株式会社 Peripheral monitoring device for vehicle
US9160986B2 (en) 2010-11-16 2015-10-13 Honda Motor Co., Ltd. Device for monitoring surroundings of a vehicle
JP5530530B2 (en) * 2010-11-16 2014-06-25 本田技研工業株式会社 Vehicle periphery monitoring device
KR101264282B1 (en) * 2010-12-13 2013-05-22 재단법인대구경북과학기술원 detection method vehicle in road using Region of Interest
JP2012168098A (en) * 2011-02-16 2012-09-06 Aisin Aw Co Ltd Photographic position specification system, photographic position specification program, and method for specifying photographic position
DE102011078615B4 (en) 2011-07-04 2022-07-14 Toyota Jidosha Kabushiki Kaisha OBJECT DETECTION DEVICE AND OBJECT DETECTION PROGRAM
DE102011078615A1 (en) 2011-07-04 2013-01-10 Toyota Jidosha K.K. Object detector for detecting pedestrian in surrounding area of vehicle, has pedestrian identification portion for identifying whether window image is image depicting object, and identification model selected to identify object
US8994823B2 (en) 2011-07-05 2015-03-31 Toyota Jidosha Kabushiki Kaisha Object detection apparatus and storage medium storing object detection program
US9367749B2 (en) 2013-02-22 2016-06-14 Denso Corporation Object detection apparatus
US9418287B2 (en) 2013-03-13 2016-08-16 Denso Corporation Object detection apparatus
US9262693B2 (en) 2013-04-26 2016-02-16 Denso Corporation Object detection apparatus
JP2015103188A (en) * 2013-11-27 2015-06-04 株式会社リコー Image analysis device, image analysis method, and image analysis program
US9349043B2 (en) 2013-11-28 2016-05-24 Hyundai Mobis Co., Ltd. Apparatus and method for detecting pedestrians
JP2015165376A (en) * 2014-02-28 2015-09-17 コア ロジック, インコーポレイテッド Apparatus and method for recognizing lane
JP2016085633A (en) * 2014-10-27 2016-05-19 株式会社デンソー Object identification unit, driving assist system, and vehicle and object identification method
JP2019008796A (en) * 2017-06-23 2019-01-17 ウーバー テクノロジーズ,インコーポレイテッド Collision avoidance system for autonomous vehicle
JP2019134266A (en) * 2018-01-30 2019-08-08 株式会社デンソーテン Image processing device, image processing method, and operation support system
JP7011478B2 (en) 2018-01-30 2022-01-26 株式会社デンソーテン Image processing device, image processing method and driving support system
JP2019149754A (en) * 2018-02-28 2019-09-05 株式会社日立国際電気 Video encoder and video encoding method
JP2019161424A (en) * 2018-03-13 2019-09-19 株式会社日立国際電気 Video encoder and video coding method
US11443526B2 (en) 2019-10-10 2022-09-13 Toyota Jidosha Kabshiki Kaisha Road obstacle detection device, road obstacle detection method, and recording medium storing a road obstacle detection program
US11704828B2 (en) 2019-10-18 2023-07-18 Toyota Jidosha Kabushiki Kaisha Road obstacle detection device, road obstacle detection method, and computer-readable storage medium
WO2023209755A1 (en) * 2022-04-25 2023-11-02 日本電気株式会社 Travel environment determination device, vehicle, travel environment determination method, and recording medium

Similar Documents

Publication Publication Date Title
JP2007328630A (en) Object candidate region detector, object candidate region detection method, pedestrian recognition system, and vehicle control device
JP2007329762A (en) Apparatus and method for detecting object candidate area, walker recognition apparatus, and vehicle controller
JP4790454B2 (en) Image recognition device, vehicle control device, image recognition method, and vehicle control method
CN110001643B (en) Vehicle control device, vehicle control method, storage medium, and information acquisition device
JP4322913B2 (en) Image recognition apparatus, image recognition method, and electronic control apparatus
EP3217318B1 (en) Method of switching vehicle drive mode from automatic drive mode to manual drive mode depending on accuracy of detecting object
US20120300078A1 (en) Environment recognizing device for vehicle
US20210390353A1 (en) Object recognition device, object recognition method, and object recognition program
US20080008355A1 (en) Image recognition apparatus, image recognition method, and vehicle control apparatus
EP3557524A1 (en) Image processing device and outside recognition device
US8994823B2 (en) Object detection apparatus and storage medium storing object detection program
GB2550262A (en) Pedestrian detection and motion prediction with rear-facing camera
JP2008181423A (en) Pedestrian recognition device and pedestrian recognition method
JP2008021034A (en) Image recognition device, image recognition method, pedestrian recognition device and vehicle controller
JP2007072665A (en) Object discrimination device, object discrimination method and object discrimination program
JP2002083297A (en) Object recognition method and object recognition device
US20190369636A1 (en) Control system, control method, and non-transitory storage medium
US10351144B2 (en) Sightline estimation system and sightline estimation method
JP2009237898A (en) Image recognition device
KR101818542B1 (en) System for improving the reliability of the recognition of traffic lane and method thereof
CN111284501A (en) Apparatus and method for managing driving model based on object recognition, and vehicle driving control apparatus using the same
JP2016081362A (en) Travel compartment line recognition apparatus
JP5593217B2 (en) Vehicle external recognition device and vehicle system using the same
JP2008143387A (en) Surrounding area monitoring device and surrounding area monitoring method
JP7184951B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090316

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110719