Nothing Special   »   [go: up one dir, main page]

JP2012098983A - Object detection device, object detection method and program - Google Patents

Object detection device, object detection method and program Download PDF

Info

Publication number
JP2012098983A
JP2012098983A JP2010247172A JP2010247172A JP2012098983A JP 2012098983 A JP2012098983 A JP 2012098983A JP 2010247172 A JP2010247172 A JP 2010247172A JP 2010247172 A JP2010247172 A JP 2010247172A JP 2012098983 A JP2012098983 A JP 2012098983A
Authority
JP
Japan
Prior art keywords
histogram
data
unit
object detection
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010247172A
Other languages
Japanese (ja)
Inventor
Yasuyuki Nakada
康之 中田
Shinichi Wakana
伸一 若菜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010247172A priority Critical patent/JP2012098983A/en
Publication of JP2012098983A publication Critical patent/JP2012098983A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent errors in detecting a detection target object.SOLUTION: A luminance gradient calculation unit 3 calculates a luminance gradient indicating a change rate of luminance in pixels of image data. A histogram calculation unit 4 calculates histograms with data sections of respective predetermined angular ranges in the luminance gradient for each image area divided into predetermined sizes in the image data. A shift unit 5 changes the histogram by shifting the data section of the histogram. A similarity calculation unit 6 calculates similarity between the histogram of the image area whose data section has been shifted by the shift unit 5 and the histogram of the other image area calculated by the histogram calculation unit 4. An object detection unit 8 detects a detection target object from the image data by using a feature amount of the similarity.

Description

本発明は、物体検出装置、物体検出方法及びプログラムに関する。   The present invention relates to an object detection device, an object detection method, and a program.

カメラなどで撮影した画像から自動的に物体を検出する技術は、自動車や人の監視システムなど、多岐にわたって利用されている。
画像を所定の大きさの画像領域(以下セルと呼ぶ)ごとに格子状に区切り、セル内の各画素の輝度勾配角度をデータ区間とする輝度勾配方向ヒストグラム(HOG:Histograms of Oriented Gradients)を特徴量に用いて、物体の検出を行う技術が知られている。
A technology for automatically detecting an object from an image taken by a camera or the like is widely used such as an automobile or a human monitoring system.
Features an HOG (histograms of oriented gradients) that divides the image into grids for each image area (hereinafter referred to as a cell) of a predetermined size and uses the luminance gradient angle of each pixel in the cell as a data section A technique for detecting an object using a quantity is known.

また、複数のHOG特徴を組み合わせて物体検出を行うJoint HOGと呼ばれる手法や、異なる角度を持つ画素のペアの各セルにおける出現数を特徴量として物体検出を行うCoHOG(Co-occurrence HOG)と呼ばれる手法が知られている。   Also, a technique called Joint HOG that performs object detection by combining a plurality of HOG features, or CoHOG (Co-occurrence HOG) that performs object detection using the number of appearances of each pixel pair having different angles as a feature quantity. Techniques are known.

特開2010−044438号公報JP 2010-044438 A 特開2010−055195号公報JP 2010-055195 A

しかしながら、従来の技術では、光沢変化などの影響で輝度勾配ヒストグラム分布が変わると、検出対象の物体と他の部分とを判別する特徴量が変化し、物体を正しく検出できない場合がある、という問題があった。   However, with the conventional technology, when the luminance gradient histogram distribution changes due to the influence of gloss change, the feature quantity that distinguishes the object to be detected from other parts changes, and the object may not be detected correctly. was there.

発明の一観点によれば、画像データ中の画素における輝度の変化率を示す輝度勾配を算出する輝度勾配算出部と、所定の大きさの画像領域ごとに区切られた前記画像データの前記画像領域に対して、前記輝度勾配の所定の角度範囲ごとをデータ区間とするヒストグラムを算出するヒストグラム算出部と、前記ヒストグラムの前記データ区間をシフトさせて前記ヒストグラムを変更するシフト部と、前記シフト部で前記データ区間がシフトされた前記画像領域の前記ヒストグラムと、前記ヒストグラム算出部で算出された他の前記画像領域の前記ヒストグラムとの間の類似度を算出する類似度算出部と、前記類似度を特徴量に用いて、前記画像データから検出対象の物体を検出する物体検出部と、を有する物体検出装置が提供される。   According to an aspect of the invention, a luminance gradient calculation unit that calculates a luminance gradient indicating a rate of change in luminance at a pixel in image data, and the image area of the image data divided for each image area of a predetermined size On the other hand, a histogram calculation unit that calculates a histogram with a predetermined angular range of the luminance gradient as a data interval, a shift unit that shifts the data interval of the histogram and changes the histogram, and the shift unit A similarity calculation unit that calculates a similarity between the histogram of the image region in which the data section is shifted and the histogram of the other image region calculated by the histogram calculation unit; An object detection device is provided that includes an object detection unit that detects an object to be detected from the image data using the feature amount.

開示の物体検出装置、物体検出方法及びプログラムによれば、物体の検出ミスを低減できる。   According to the disclosed object detection apparatus, object detection method, and program, object detection errors can be reduced.

第1の実施の形態の物体検出装置の一例を示す図である。It is a figure which shows an example of the object detection apparatus of 1st Embodiment. 画像データ中の、ある2つのセルの一例を示す図である。It is a figure which shows an example of a certain two cell in image data. 輝度勾配のヒストグラムの一例を示す図である。It is a figure which shows an example of the histogram of a brightness | luminance gradient. ヒストグラムのシフトの一例を示す図である。It is a figure which shows an example of the shift of a histogram. 2つのセルのヒストグラムの重なりの度合いの一例を示す図である。It is a figure which shows an example of the overlapping degree of the histogram of two cells. 物体検出処理の一例の流れを示すフローチャートである。It is a flowchart which shows the flow of an example of an object detection process. 第2の実施の形態の物体検出装置の一例を示す図である。It is a figure which shows an example of the object detection apparatus of 2nd Embodiment. 検出窓領域の走査例を示す図である。It is a figure which shows the example of a scanning of a detection window area | region. ある画像データ中の画素座標の一例を示す図である。It is a figure which shows an example of the pixel coordinate in a certain image data. ある画像データにおけるセル内外の輝度値の一例を示す図である。It is a figure which shows an example of the luminance value inside and outside the cell in a certain image data. セルの輝度勾配の角度の一例を示す図である。It is a figure which shows an example of the angle of the luminance gradient of a cell. セルの輝度勾配の大きさの一例を示す図である。It is a figure which shows an example of the magnitude | size of the brightness | luminance gradient of a cell. ヒストグラムの一例を示す図である。It is a figure which shows an example of a histogram. 学習処理の一例の流れを示すフローチャートである。It is a flowchart which shows the flow of an example of a learning process. セルの設定例を示す図である。It is a figure which shows the example of a cell setting. 重み値の更新と弱識別器の選択処理の一例を示すフローチャートである。It is a flowchart which shows an example of the update of a weight value, and the selection process of a weak discriminator. クラス分類パラメータの格納例を示す図である。It is a figure which shows the example of a storage of a class classification parameter. 物体の有無を判別する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which discriminate | determines the presence or absence of an object. 本実施の形態に用いるコンピュータのハードウェアの一例を示す図である。It is a figure which shows an example of the hardware of the computer used for this Embodiment.

以下、本発明の実施の形態を、図面を参照しつつ説明する。
(第1の実施の形態)
図1は、第1の実施の形態の物体検出装置の一例を示す図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram illustrating an example of the object detection apparatus according to the first embodiment.

物体検出装置1は、画像取得部2、輝度勾配算出部3、ヒストグラム算出部4、シフト部5、類似度算出部6、記憶部7、物体検出部8を有している。
画像取得部2は、物体検出装置1の外部から画像データを取得する。例えば、画像データは、カメラやビデオなどの撮像装置、DVD(Digital Versatile Disc)などの記録媒体、ハードディスクドライブ(HDD:Hard Disk Drive)などから入力される。
The object detection apparatus 1 includes an image acquisition unit 2, a luminance gradient calculation unit 3, a histogram calculation unit 4, a shift unit 5, a similarity calculation unit 6, a storage unit 7, and an object detection unit 8.
The image acquisition unit 2 acquires image data from outside the object detection device 1. For example, the image data is input from an imaging device such as a camera or a video, a recording medium such as a DVD (Digital Versatile Disc), a hard disk drive (HDD).

輝度勾配算出部3は、画像データ中の画素における輝度の変化率を示す輝度勾配を算出する。輝度勾配は、例えば、輝度の勾配方向(勾配角度)と勾配の大きさで表される。
ヒストグラム算出部4は、所定の大きさのセルごとに格子状に区切られた画像データのセルにおいて、輝度勾配の所定の角度範囲ごとをデータ区間とし、画素数あるいは勾配の大きさの積算を度数とするヒストグラムを算出する。勾配方向の向きを無視する場合、勾配角度は、0度から180度の範囲となる。
The luminance gradient calculation unit 3 calculates a luminance gradient that indicates the rate of change in luminance at the pixels in the image data. The luminance gradient is represented by, for example, a luminance gradient direction (gradient angle) and a gradient magnitude.
The histogram calculation unit 4 uses a predetermined angular range of the luminance gradient as a data section in the image data cells partitioned in a grid pattern for each cell having a predetermined size, and counts the number of pixels or the integration of the gradient in frequency. A histogram is calculated. When ignoring the direction of the gradient direction, the gradient angle ranges from 0 degrees to 180 degrees.

図2は、画像データ中の、ある2つのセルの一例を示す図である。
また、図3は、輝度勾配のヒストグラムの一例を示す図である。
図2では例として、車両の画像データ10が示されている。画像データ10中の領域11におけるセル11−1,11−2(例えば、5×5画素)において、算出される輝度勾配のヒストグラムの例が図3に示されている。
FIG. 2 is a diagram illustrating an example of two cells in the image data.
FIG. 3 is a diagram illustrating an example of a histogram of luminance gradient.
In FIG. 2, vehicle image data 10 is shown as an example. FIG. 3 shows an example of a histogram of luminance gradients calculated in the cells 11-1 and 11-2 (for example, 5 × 5 pixels) in the region 11 in the image data 10.

図3(A)はセル11−1におけるヒストグラム、図3(B)はセル11−2におけるヒストグラムの一例を示している。横軸は勾配角度(度)、縦軸は度数を示している。
各ヒストグラムは、20度のデータ区間ごとの度数で示されている。例えば、セル11−1では、80度〜100度における度数が最大である。つまり、垂直方向の輝度の変化が大きいということであるので、セル11−1には水平方向のエッジが最も多く含まれていることが分かる。また、セル11−2では、160度〜180度における度数が最大であることから、セル11−2には垂直方向のエッジが最も多く含まれていることが分かる。
3A shows an example of the histogram in the cell 11-1, and FIG. 3B shows an example of the histogram in the cell 11-2. The horizontal axis indicates the gradient angle (degrees), and the vertical axis indicates the frequency.
Each histogram is represented by the frequency for each 20 degree data section. For example, in the cell 11-1, the frequency at 80 degrees to 100 degrees is the maximum. That is, since the change in luminance in the vertical direction is large, it can be seen that the cell 11-1 includes the most horizontal edges. In addition, since the frequency in the range of 160 to 180 degrees is the maximum in the cell 11-2, it can be seen that the cell 11-2 includes the most vertical edges.

なお、データ区間は、20度ごとに限定されるわけではなく、10度ごとなどと細かくしてもよいし、逆に広くとってもよい。データ区間は、計算時間などとの関係で適宜設定される。   Note that the data interval is not limited to every 20 degrees, and may be as fine as every 10 degrees or vice versa. The data interval is appropriately set in relation to the calculation time.

シフト部5は、ヒストグラム算出部4で算出されたヒストグラムのデータ区間を所定回数シフトして、ヒストグラムを変更する。
図4は、ヒストグラムのシフトの一例を示す図である。
The shift unit 5 changes the histogram by shifting the data section of the histogram calculated by the histogram calculation unit 4 a predetermined number of times.
FIG. 4 is a diagram illustrating an example of histogram shift.

図4には、図3に示したセル11−2のヒストグラムが4回シフトされた例が示されている。すなわち、勾配角度が0度〜20度のデータ区間が、160〜180度のデータ区間の右隣にシフトされ、さらに20度〜40度のデータ区間、40度〜60度のデータ区間、60度〜80度のデータ区間が続いてシフトされている。   FIG. 4 shows an example in which the histogram of the cell 11-2 shown in FIG. 3 is shifted four times. That is, the data section with the gradient angle of 0 degrees to 20 degrees is shifted to the right of the data section of 160 to 180 degrees, and further, the data section of 20 degrees to 40 degrees, the data section of 40 degrees to 60 degrees, and 60 degrees. The data interval of ˜80 degrees is subsequently shifted.

類似度算出部6は、データ区間がシフトされたセルのヒストグラムと、ヒストグラム算出部4で算出された他のセルのヒストグラムとの間の類似度を算出する。類似度算出部6は、例えば、2つのヒストグラムの重なりの度合い(以下重なり率という)を類似度として算出する。また、類似度算出部6は、2つのヒストグラムの度数の差分を類似度として用いてもよい。   The similarity calculation unit 6 calculates the similarity between the histogram of the cell whose data section has been shifted and the histograms of other cells calculated by the histogram calculation unit 4. The similarity calculation unit 6 calculates, for example, the degree of overlap between two histograms (hereinafter referred to as the overlap rate) as the similarity. Further, the similarity calculation unit 6 may use the difference between the frequencies of the two histograms as the similarity.

図5は、2つのセルのヒストグラムの重なりの度合いの一例を示す図である。横軸がデータ区間を示し、縦軸が度数を示している。
各データ区間において、左側のバーが図3(A)に示したセル11−1のヒストグラムの一例を示し、右側のバーが図4に示したデータ区間を4回シフトしたセル11−2のヒストグラムの一例を示している。
FIG. 5 is a diagram illustrating an example of the degree of overlap of histograms of two cells. The horizontal axis indicates the data section, and the vertical axis indicates the frequency.
In each data section, the left bar shows an example of the histogram of the cell 11-1 shown in FIG. 3A, and the right bar shows the histogram of the cell 11-2 obtained by shifting the data section shown in FIG. 4 four times. An example is shown.

ヒストグラムの重なり率は、同一データ区間における2つのセルの度数から、値の小さい方(図5の白抜きのバーの方)を選択し、全てのデータ区間についての和を計算することで求められる。   The overlap ratio of the histogram is obtained by selecting the smaller value (the white bar in FIG. 5) from the frequency of two cells in the same data section and calculating the sum for all the data sections. .

記憶部7は、類似度算出部6で算出された類似度を特徴量として学習が行われた結果によって得られる分類パラメータを格納する。分類パラメータは、類似度算出部6で求められた類似度(特徴量)から、画像データに、検出対象の物体があると見なすか否かを判定するために用いられる。学習に関する処理については後述する。   The storage unit 7 stores classification parameters obtained from the result of learning using the similarity calculated by the similarity calculation unit 6 as a feature amount. The classification parameter is used to determine whether or not it is considered that there is an object to be detected in the image data from the similarity (feature value) obtained by the similarity calculation unit 6. Processing related to learning will be described later.

物体検出部8は、類似度算出部6で算出された類似度を特徴量に用いて、記憶部7に格納された分類パラメータを参照して、画像データから検出対象の物体を検出する。物体検出処理の詳細は後述する。   The object detection unit 8 uses the similarity calculated by the similarity calculation unit 6 as a feature amount, and refers to the classification parameter stored in the storage unit 7 to detect the detection target object from the image data. Details of the object detection process will be described later.

以下、物体検出装置1による物体検出処理の流れをまとめる。
図6は、物体検出処理の一例の流れを示すフローチャートである。
ステップS1:画像取得部2が、物体検出装置1の外部から画像データを取得する。
Hereinafter, the flow of object detection processing by the object detection apparatus 1 will be summarized.
FIG. 6 is a flowchart illustrating an exemplary flow of object detection processing.
Step S1: The image acquisition unit 2 acquires image data from the outside of the object detection device 1.

ステップS2:輝度勾配算出部3が、画像データ中の画素における輝度の変化率を示す輝度勾配を算出する。
ステップS3:ヒストグラム算出部4が、所定の大きさのセルごとに区切られた画像データの、ある着目しているセルにおいて、輝度勾配の角度をデータ区間とし、画素数あるいは勾配の大きさの積算を度数とするヒストグラムを算出する。
Step S2: The luminance gradient calculation unit 3 calculates a luminance gradient indicating the rate of change in luminance at the pixels in the image data.
Step S3: The histogram calculation unit 4 integrates the number of pixels or the magnitude of the gradient using the luminance gradient angle as a data interval in a cell of interest in the image data divided into cells of a predetermined size. A histogram is calculated with the frequency as.

ステップS4:シフト部5が、ヒストグラム算出部4で算出されたヒストグラムのデータ区間を所定回数シフトして、ヒストグラムを変更する。
ステップS5:類似度算出部6が、シフト部5でデータ区間がシフトされたセルのヒストグラムと、ヒストグラム算出部4で算出された他のセルのヒストグラムとの間の類似度を算出する。
Step S4: The shift unit 5 changes the histogram by shifting the data section of the histogram calculated by the histogram calculation unit 4 a predetermined number of times.
Step S5: The similarity calculation unit 6 calculates a similarity between the histogram of the cell whose data section is shifted by the shift unit 5 and the histogram of another cell calculated by the histogram calculation unit 4.

ステップS6:類似度算出部6で算出された類似度を特徴量に用いて、記憶部7に格納された分類パラメータを参照して、画像データから検出対象の物体を検出する。
以上のように、物体検出装置1では、画像データ中のあるセルにおける輝度勾配のヒストグラムと、他のセルにおけるデータ区間をシフトしたヒストグラムとの類似度を特徴量として画像中の物体検出を行う。そのため、光沢変化などの影響で輝度勾配ヒストグラム分布が変わっても、検出対象の物体と他の部分とを判別する特徴量が変化しにくくなる。これにより、物体の検出ミスを低減することができる。
Step S6: Using the similarity calculated by the similarity calculation unit 6 as a feature quantity, the classification parameter stored in the storage unit 7 is referred to detect an object to be detected from the image data.
As described above, the object detection apparatus 1 detects an object in an image using the similarity between the histogram of the luminance gradient in a certain cell in the image data and the histogram obtained by shifting the data section in another cell as a feature amount. For this reason, even if the luminance gradient histogram distribution changes due to a change in gloss or the like, the feature quantity for discriminating the object to be detected from other parts is unlikely to change. As a result, object detection errors can be reduced.

また、あるセルにおける輝度勾配のヒストグラムと、他のセルにおけるデータ区間をシフトしたヒストグラムとの類似度を算出して特徴量に用いるため、エッジの連結状態や離れたエッジ間の関連性を特徴量として表現でき、これらを考慮した物体検出が可能になる。   In addition, since the similarity between the histogram of the brightness gradient in one cell and the histogram obtained by shifting the data interval in another cell is calculated and used as a feature value, the connection state of edges and the relationship between distant edges are used as feature values. It is possible to detect the object in consideration of these.

(第2の実施の形態)
図7は、第2の実施の形態の物体検出装置の一例を示す図である。
物体検出装置50は、画像取得部51、検出窓走査部52、輝度勾配算出部53、ヒストグラム算出部54、シフト部55、類似度算出部56、学習部57、記憶部58、物体検出部59を有している。
(Second Embodiment)
FIG. 7 is a diagram illustrating an example of the object detection device according to the second embodiment.
The object detection device 50 includes an image acquisition unit 51, a detection window scanning unit 52, a luminance gradient calculation unit 53, a histogram calculation unit 54, a shift unit 55, a similarity calculation unit 56, a learning unit 57, a storage unit 58, and an object detection unit 59. have.

以下、各部を詳細に説明する。
(画像取得部51)
画像取得部51は、例えば、物体検出装置50の外部の入力デバイスから画像データを取得する。入力デバイスはカメラ以外でもよく、ビデオ、DVDなどの記録媒体、HDD上に格納されている動画ファイルから切り出した画像を、画像取得部51が取得するようにしてもよい。
Hereinafter, each part will be described in detail.
(Image acquisition unit 51)
The image acquisition unit 51 acquires image data from an input device external to the object detection device 50, for example. The input device may be other than a camera, and the image acquisition unit 51 may acquire an image cut out from a video, a recording medium such as a DVD, or a moving image file stored on the HDD.

画像データは、例えば、横640画素×縦480画素の矩形で与えられ、1つの画素は、明るさの階調値(輝度)で与えられる。例えば、後述の図9に示す例のように、整数i,j で示される座標(i,j)の画素の輝度(I)の階調値は、8bitのディジタル値などで与えられる。   The image data is given by, for example, a rectangle of horizontal 640 pixels × vertical 480 pixels, and one pixel is given by a brightness gradation value (luminance). For example, as in the example shown in FIG. 9 described later, the gradation value of the luminance (I) of the pixel at the coordinates (i, j) indicated by the integers i, j is given as an 8-bit digital value.

(検出窓走査部52)
検出窓走査部52は、物体の検出処理を実施する際、入力された未知の画像データ(例えば、画像サイズ=640×480画素)内に、検出窓領域(後述する学習処理時の訓練画像と同一の画像サイズ)を設定する。そして、検出窓走査部52は、処理時間を考慮して、検出窓領域を適当な画素数刻みで走査する。
(Detection window scanning unit 52)
When performing detection processing of an object, the detection window scanning unit 52 includes a detection window region (a training image at the time of learning processing to be described later and a training image at the time of learning processing) in the input unknown image data (for example, image size = 640 × 480 pixels). Set the same image size. Then, the detection window scanning unit 52 scans the detection window region with an appropriate number of pixels in consideration of the processing time.

図8は、検出窓領域の走査例を示す図である。
画像データ60に対して、検出窓領域61を設定した例が示されている。検出窓走査部52は、検出窓領域61を未知の画像データ上で、例えば、図8の矢印方向に、適当な画素数刻みで移動させる。検出窓走査部52は、対象物体が検出されない領域(例えば、図8の領域62)が予め分っている場合には、検出窓領域61の走査対象から除外することによって処理時間を短縮可能である。
FIG. 8 is a diagram illustrating a scanning example of the detection window region.
An example in which a detection window area 61 is set for the image data 60 is shown. The detection window scanning unit 52 moves the detection window region 61 on the unknown image data, for example, in the direction of the arrow in FIG. When the area where the target object is not detected (for example, the area 62 in FIG. 8) is known in advance, the detection window scanning unit 52 can reduce the processing time by excluding it from the scanning target of the detection window area 61. is there.

(輝度勾配算出部53)
輝度勾配算出部53は、画像データ中の画像における輝度の変化率である輝度勾配を算出する。輝度勾配の算出法として様々な方法が適用可能であるが、ここでは、最も単純な以下の方法を用いるとする。
(Luminance gradient calculation unit 53)
The luminance gradient calculation unit 53 calculates a luminance gradient that is a luminance change rate in an image in the image data. Various methods can be applied as the method of calculating the luminance gradient. Here, it is assumed that the following simplest method is used.

図9は、ある画像データ中の画素座標の一例を示す図である。画像データ70における、ある領域の画素座標が整数i,jにて示されている。
図9中の座標(i,j)の画素71における輝度の勾配角度θ(i,j)は、画素71の上下左右の画素72,73,74,75の輝度I(i,j+1),I(i−1,j),I(i,j−1),I(i+1,j)を用いて次式で表される。
FIG. 9 is a diagram illustrating an example of pixel coordinates in certain image data. The pixel coordinates of a certain area in the image data 70 are indicated by integers i and j.
The luminance gradient angle θ (i, j) at the pixel 71 at the coordinate (i, j) in FIG. 9 is the luminance I (i, j + 1), I of the pixels 72, 73, 74, 75 above, below, left, and right of the pixel 71. Using (i-1, j), I (i, j-1), I (i + 1, j),

Figure 2012098983
Figure 2012098983

また、座標(i,j)における輝度勾配の大きさη(i,j)は、次式で表される。   Further, the magnitude η (i, j) of the luminance gradient at the coordinates (i, j) is expressed by the following equation.

Figure 2012098983
Figure 2012098983

図10は、ある画像データにおけるセル内外の輝度値の一例を示す図である。図10では、横5画素、縦5画素のセル80が示されている。
このようなセル80において、輝度の勾配角度は、上記の式(1)により、以下に示すような値となる。
FIG. 10 is a diagram illustrating an example of luminance values inside and outside a cell in certain image data. In FIG. 10, a cell 80 having 5 pixels in the horizontal direction and 5 pixels in the vertical direction is shown.
In such a cell 80, the gradient angle of luminance has the following value according to the above equation (1).

図11は、セルの輝度勾配の角度の一例を示す図である。図11中の数値は各画素位置における輝度の勾配角度(単位は度)を示している。
また、セル80の各画素位置における輝度勾配の大きさは、上記の式(2)により、以下に示すような値となる。
FIG. 11 is a diagram illustrating an example of the angle of the luminance gradient of the cell. The numerical values in FIG. 11 indicate the brightness gradient angle (in degrees) at each pixel position.
Further, the magnitude of the luminance gradient at each pixel position of the cell 80 is a value as shown below by the above equation (2).

図12は、セルの輝度勾配の大きさの一例を示す図である。図12中の数値は各画素位置における輝度勾配の大きさを示している。
(ヒストグラム算出部54)
ヒストグラム算出部54は、所定の大きさのセルごとに区切られた画像データの、ある着目しているセルにおいて、輝度の勾配角度をデータ区間とし、画素数あるいは勾配の大きさの積算を度数とするヒストグラムを算出する。勾配方向の向きを無視する場合、輝度の勾配角度は、0度から180度の範囲となる。データ区間数をNDとすると、1つの区間の角度の範囲は、180/ND度となる。
FIG. 12 is a diagram illustrating an example of the magnitude of the luminance gradient of a cell. The numerical values in FIG. 12 indicate the magnitude of the luminance gradient at each pixel position.
(Histogram calculation unit 54)
The histogram calculation unit 54 uses a luminance gradient angle as a data section in a cell of interest in image data divided for each cell having a predetermined size, and the integration of the number of pixels or the gradient size as a frequency. The histogram to be calculated is calculated. When the direction of the gradient direction is ignored, the gradient angle of the luminance is in the range of 0 degrees to 180 degrees. If the number of data sections is ND, the angle range of one section is 180 / ND degrees.

ヒストグラム算出部54は、各区間に該当する勾配角度について、例えば、図3に示したように、対応する勾配の大きさを度数とするヒストグラムを算出する。
図11、図12に示したようなセル80の輝度の勾配角度及び大きさからは以下のようなヒストグラムが算出される。
For example, as shown in FIG. 3, the histogram calculation unit 54 calculates a histogram with the magnitude of the corresponding gradient as the frequency for the gradient angle corresponding to each section.
The following histogram is calculated from the gradient angle and the magnitude of the brightness of the cell 80 as shown in FIGS.

図13は、ヒストグラムの一例を示す図である。横軸は勾配角度(度)、縦軸は度数を示している。
図13に示されるヒストグラムは、20度のデータ区間ごとの度数で示されている。このヒストグラムの例では、勾配角度が0〜20度のデータ区間における度数が最大であることから、セル80には垂直方向のエッジが最も多く含まれていることが分かる。
FIG. 13 is a diagram illustrating an example of a histogram. The horizontal axis indicates the gradient angle (degrees), and the vertical axis indicates the frequency.
The histogram shown in FIG. 13 is indicated by the frequency for each data interval of 20 degrees. In the example of this histogram, since the frequency in the data section having the gradient angle of 0 to 20 degrees is the maximum, it can be seen that the cell 80 includes the most vertical edges.

(シフト部55)
シフト部55は、ヒストグラム算出部54が算出したヒストグラムのデータ区間を所定回数シフトして、ヒストグラムを変更する。ヒストグラムのデータ区間数をNDとすると、シフト回数NSは、0≦NS<ND、を満たす整数値で与えられる。
(Shift section 55)
The shift unit 55 changes the histogram by shifting the data section of the histogram calculated by the histogram calculation unit 54 a predetermined number of times. When the number of data sections in the histogram is ND, the number of shifts NS is given as an integer value that satisfies 0 ≦ NS <ND.

例えば、前述のように、図3(B)に示したヒストグラムを4回シフトすると、図4の下図に示すようなヒストグラムが得られる。
(類似度算出部56)
類似度算出部56は、シフト部55でデータ区間がシフトされたセルのヒストグラムと、ヒストグラム算出部54で算出された他のセルのヒストグラムとの間の類似度を算出する。ここでは、以下に示すヒストグラムの重なり率を類似度として算出する。
For example, as described above, when the histogram shown in FIG. 3B is shifted four times, a histogram as shown in the lower diagram of FIG. 4 is obtained.
(Similarity calculation unit 56)
The similarity calculation unit 56 calculates the similarity between the histogram of the cell whose data section is shifted by the shift unit 55 and the histogram of another cell calculated by the histogram calculation unit 54. Here, the overlapping ratio of histograms shown below is calculated as the similarity.

ヒストグラムの重なり率Sは、次式で表される。   The histogram overlap rate S is expressed by the following equation.

Figure 2012098983
Figure 2012098983

ここで、Hiはi番目のセルのヒストグラム、hk (i)はi番目のセルのヒストグラムのk番目のデータ区間の度数、Hjはj番目のセルのヒストグラム、hk (j)はj番目のヒストグラムのk番目のデータ区間の度数、NDはデータ区間の総数を示している。 Here, H i is the histogram of the i th cell, h k (i) is the frequency of the k th data interval of the histogram of the i th cell, H j is the histogram of the j th cell, and h k (j) is The frequency of the kth data section of the jth histogram, ND, indicates the total number of data sections.

(学習部57)
学習部57は、ヒストグラムの重なり率を特徴量として、正例画像(検出対象の物体がある画像)と負例画像(検出対象の物体がない画像)とを判別するためのクラス分類パラメータを算出する。クラス分類学習法として、Real Adaboost、サポートベクターマシン、決定木などの学習方法が適用可能である。
(Learning part 57)
The learning unit 57 calculates a class classification parameter for discriminating between a positive example image (an image with an object to be detected) and a negative example image (an image without an object to be detected) using the histogram overlap rate as a feature amount. To do. As a class classification learning method, a learning method such as Real Adaboost, support vector machine, or decision tree is applicable.

(記憶部58)
記憶部58は、学習部57で算出されたクラス分類パラメータを格納する。記憶部58に格納されたクラス分類パラメータは、物体検出部59での物体検出時に参照される。
(Storage unit 58)
The storage unit 58 stores the class classification parameter calculated by the learning unit 57. The class classification parameters stored in the storage unit 58 are referred to when the object detection unit 59 detects an object.

(物体検出部59)
物体検出部59は、類似度算出部56で算出された類似度を特徴量に用いて、記憶部58に格納されたクラス分類パラメータを参照して、画像データから検出対象の物体を検出する。
(Object detection unit 59)
The object detection unit 59 uses the similarity calculated by the similarity calculation unit 56 as a feature amount and refers to the class classification parameter stored in the storage unit 58 to detect an object to be detected from the image data.

以下、物体検出装置50の動作を説明する。まず、学習時の処理を説明する。
(学習処理)
なお、以下では、学習部57が、クラス分類学習法として、Real Adaboostを用いて学習を行う場合を例にして説明を行う。
Hereinafter, the operation of the object detection device 50 will be described. First, processing during learning will be described.
(Learning process)
In the following description, a case where the learning unit 57 performs learning using Real Adaboost as the class classification learning method will be described as an example.

図14は、学習処理の一例の流れを示すフローチャートである。
学習部57がクラス分類パラメータを算出するために、画像取得部51には、訓練画像データとして、正例及び負例の画像データが、例えば、それぞれ数百枚から数千枚入力される。正例の画像データは、検出対象の物体のみが写っている領域を切り出した画像データである。負例の画像データは、検出対象の物体が写っていない画像領域を切り出した画像データであり、正例の画像データと同じ画像サイズを持つ。
FIG. 14 is a flowchart illustrating an exemplary flow of the learning process.
In order for the learning unit 57 to calculate the classification parameter, for example, hundreds to thousands of image data of positive examples and negative examples are input to the image acquisition unit 51 as training image data, for example. The positive image data is image data obtained by cutting out an area where only the object to be detected is shown. The negative image data is image data obtained by cutting out an image region in which the object to be detected is not shown, and has the same image size as the positive image data.

例えば、画像取得部51は、まず、訓練画像データの番号mを初期化(m=1)し(ステップS10)、m番目の訓練画像データを取得する(ステップS11)。
そして、ヒストグラム算出部54は、訓練画像データをセル単位に分割し、輝度勾配算出部53により算出される輝度勾配をもとに、全セルについて、輝度勾配のヒストグラムを算出する(ステップS12)。
For example, the image acquisition unit 51 first initializes the number m of the training image data (m = 1) (step S10), and acquires the mth training image data (step S11).
Then, the histogram calculation unit 54 divides the training image data into cell units, and calculates a luminance gradient histogram for all cells based on the luminance gradient calculated by the luminance gradient calculation unit 53 (step S12).

図15は、セルの設定例を示す図である。
例えば、訓練画像データ90の画像サイズを横45画素、縦45画素とし、セルのサイズを5×5画素とすると、セルの総数は81個となる。
FIG. 15 is a diagram illustrating a cell setting example.
For example, if the image size of the training image data 90 is 45 pixels wide and 45 pixels long and the cell size is 5 × 5 pixels, the total number of cells is 81.

ヒストグラム算出部54は、例えば、訓練画像データ90の左上のセルを先頭として、各セルにセル番号ncellを割り振る。セル番号は、0≦ncell<Ncellの関係を満たす。ここで、Ncellは、セルの総数を示し、図15の例の場合、Ncell=81である。   For example, the histogram calculation unit 54 assigns a cell number ncell to each cell, starting from the upper left cell of the training image data 90. The cell number satisfies the relationship of 0 ≦ ncell <Ncell. Here, Ncell indicates the total number of cells, and in the example of FIG. 15, Ncell = 81.

類似度算出部56は、これらのセルの中から2つのセルを選択して、ヒストグラムの類似度の算出を行うことになる。なお、2つのセルが同じセルである場合も許容するものとする。例えば、81個のセルから2つを選択する組み合わせの数(重複組み合わせ数)は、81H2=3321個である。   The similarity calculation unit 56 selects two cells from these cells and calculates the similarity of the histogram. Note that the case where two cells are the same cell is also allowed. For example, the number of combinations (number of overlapping combinations) for selecting two from 81 cells is 81H2 = 3321.

以下では、類似度算出部56が選択する2つのセルを第1のセル、第2のセルと呼ぶ。また、第1のセルのセル番号をncell1、第2のセルのセル番号をncell2とする。   Hereinafter, the two cells selected by the similarity calculation unit 56 are referred to as a first cell and a second cell. In addition, the cell number of the first cell is ncell1, and the cell number of the second cell is ncell2.

類似度算出部56は、第1のセルのセル番号ncell1と、特徴量ベクトルの要素番号kを初期化する(ステップS13)。ここでは、類似度算出部56は、ncell1=0、k=0とする。   The similarity calculation unit 56 initializes the cell number ncell1 of the first cell and the element number k of the feature vector (step S13). Here, the similarity calculation unit 56 sets ncell1 = 0 and k = 0.

また、類似度算出部56は、第2のセルのセル番号ncell2を初期化する(ステップS14)。具体的には、類似度算出部56は、ncell2=ncell1とする。すなわち、初期状態では、ncell1=ncell2=0のセルが、第1のセル及び第2のセルとして選択される。   Moreover, the similarity calculation unit 56 initializes the cell number ncell2 of the second cell (step S14). Specifically, the similarity calculation unit 56 sets ncell2 = ncell1. That is, in the initial state, the cell of ncell1 = ncell2 = 0 is selected as the first cell and the second cell.

続いてシフト部55は、シフト回数NSをNS=0と初期化し(ステップS15)、第2のセルのヒストグラムのデータ区間をNS回シフトする(ステップS16)。
その後、類似度算出部56は、式(3)より、第1のセルのヒストグラムと、NS回シフトした第2のセルのヒストグラムの重なり率S(Hncell1,Hncell2)を算出して、これを特徴量ベクトルvm(k)とする(ステップS17)。なお、Hncell1は、第1のセルのヒストグラム、Hncell2はNS回シフトした第2のセルのヒストグラムを示している。
Subsequently, the shift unit 55 initializes the number of shifts NS to NS = 0 (step S15), and shifts the data section of the histogram of the second cell NS times (step S16).
After that, the similarity calculation unit 56 calculates the overlap rate S (H ncell1 , H ncell2 ) between the histogram of the first cell and the histogram of the second cell shifted NS times from the equation (3). Is a feature vector v m (k) (step S17). H ncell1 represents a histogram of the first cell, and H ncell2 represents a histogram of the second cell shifted NS times.

その後、シフト部55は、シフト回数NSをNS=NS+1と更新する(ステップS18)。そして、シフト部55は、シフト回数NSがヒストグラムのデータ区間数NDに達したか否かを判定する(ステップS19)。NS<NDである場合には、ステップS16からの処理が繰り返され、NS=NDとなった場合には、ステップS20の処理が行われる。   Thereafter, the shift unit 55 updates the number of shifts NS to NS = NS + 1 (step S18). Then, the shift unit 55 determines whether or not the number of shifts NS has reached the number of data sections ND of the histogram (step S19). If NS <ND, the process from step S16 is repeated, and if NS = ND, the process of step S20 is performed.

例えば、図3や図13で示したようなヒストグラムの場合、データ区間数NDは9である。この場合、シフト部55は、第2のセルに対して、9個のヒストグラムを生成することになる。   For example, in the case of a histogram as shown in FIG. 3 or FIG. In this case, the shift unit 55 generates nine histograms for the second cell.

シフト回数NSがデータ区間数NDに達した場合、類似度算出部56は、ncell2=ncell2+1として、第2のセルを更新する(ステップS20)。そして、類似度算出部56は、ncell2が、セルの総数Ncellに達したか否かを判定する(ステップS21)。ncell2<Ncellである場合には、ステップS15からの処理が繰り返され、ncell2=Ncellとなった場合には、ステップS22の処理が行われる。   When the number of shifts NS reaches the number of data sections ND, the similarity calculation unit 56 updates the second cell as ncell2 = ncell2 + 1 (step S20). Then, the similarity calculation unit 56 determines whether ncell2 has reached the total number Ncell of cells (step S21). When ncell2 <Ncell, the process from step S15 is repeated, and when ncell2 = Ncell, the process of step S22 is performed.

第2のセルのセル番号ncell2がセルの総数Ncellに達した場合、類似度算出部56は、ncell1=ncell1+1として、第1のセルを更新する(ステップS22)。そして、類似度算出部56は、ncell1が、セルの総数Ncellに達したか否かを判定する(ステップS23)。ncell1<Ncellである場合には、ステップS14からの処理が繰り返され、ncell1=Ncellとなった場合には、ステップS24の処理が行われる。   When the cell number ncell2 of the second cell reaches the total number Ncell of cells, the similarity calculation unit 56 updates the first cell as ncell1 = ncell1 + 1 (step S22). Then, the similarity calculation unit 56 determines whether ncell1 has reached the total number of cells Ncell (step S23). When ncell1 <Ncell, the process from step S14 is repeated, and when ncell1 = Ncell, the process of step S24 is performed.

図15に示した例の場合、ncell1=Ncell(=81)となった時点での特徴量ベクトルの次元数Dimは、ヒストグラムのデータ区間数NDを9とした場合、3321(第1のセルと第2のセルの重複組み合わせ数)×9=29889となる。すなわち、訓練画像データの枚数1枚当たり、次元数29889の特徴量ベクトルが算出される。   In the case of the example shown in FIG. 15, the dimension number Dim of the feature vector at the time when ncell1 = Ncell (= 81) is 3321 (the first cell and the number of data sections ND of the histogram is 9). The number of overlapping combinations of the second cells) × 9 = 29889. That is, a feature quantity vector having a dimension number of 29889 is calculated for each number of pieces of training image data.

次に、画像取得部51は、訓練画像データの番号mをm+1に更新する(ステップS24)。そして、画像取得部51は、訓練画像データの番号mが訓練画像データの総数M以下であるか否かを判定する(ステップS25)。m≦Mである場合には、ステップS11からの処理が繰り返される。訓練画像データの番号mが訓練画像データの総数Mを超えた場合、ステップS26の処理が行われる。   Next, the image acquisition unit 51 updates the training image data number m to m + 1 (step S24). And the image acquisition part 51 determines whether the number m of training image data is below the total number M of training image data (step S25). If m ≦ M, the process from step S11 is repeated. When the number m of training image data exceeds the total number M of training image data, the process of step S26 is performed.

ステップS25までの処理で算出された特徴量ベクトルは、学習部57に送られ、以下の処理が行われる。
学習部57は、特徴量ベクトルvm(k)の要素番号k(1≦k≦Dim)を固定し、訓練画像データの番号mを変えたときの特徴量ベクトルvm(k)の最大値VMAX(k)を算出する(ステップS26)。
The feature vector calculated in the process up to step S25 is sent to the learning unit 57, and the following process is performed.
Learning unit 57, feature vector v m the element number k of (k) (1 ≦ k ≦ Dim) fixed, the maximum value of the feature vector v m (k) when changing the number m of the training image data V MAX (k) is calculated (step S26).

最大値VMAX(k)は、VMAX(k)=MAX(v1(k),v2(k),…,vM(k))で求められる。この式で、MAX()は、最大値を出力する関数である。
次に学習部57は、最大値VMAX(k)を用いて、特徴量ベクトルを正規化し、正規化特徴量ベクトルを求める(ステップS27)。
The maximum value V MAX (k) is obtained by V MAX (k) = MAX (v 1 (k), v 2 (k),..., V M (k)). In this equation, MAX () is a function that outputs the maximum value.
Next, the learning unit 57 uses the maximum value V MAX (k) to normalize the feature quantity vector and obtain a normalized feature quantity vector (step S27).

正規化特徴量ベクトルは、[vm(1)/vMAX(1)…vm(k)/vMAX(k)…vm(Dim)/vMAX(Dim)]と表される。
その後、学習部57は、ヒストグラムのデータ区間数Pを用いて、正規化特徴量ベクトルを量子化して学習サンプルxmを得る(ステップS28)。
Normalized feature vector is expressed as [v m (1) / v MAX (1) ... v m (k) / v MAX (k) ... v m (Dim) / v MAX (Dim)].
Thereafter, the learning unit 57 quantizes the normalized feature vector using the number of data sections P of the histogram to obtain a learning sample x m (step S28).

学習サンプルxmは、以下の式で表される。 The learning sample x m is expressed by the following formula.

Figure 2012098983
Figure 2012098983

ここで、INT()は、小数点以下を切り捨てて、整数のみを出力する関数を示す。
式(4)により、xm(k)=j、0≦j<Pのように量子化が行われる。
さらに、学習部57は、番号mの訓練画像データが正例の場合には、ym=+1、負例の場合には、ym=−1とするラベルymを決定する。そして、学習部57は、学習サンプルxmと、ラベルymを組み合わせて学習用のデータセット{(x1,y1)…(xM,yM)}を生成する(ステップS29)。
Here, INT () indicates a function that rounds off the decimal part and outputs only an integer.
According to the equation (4), quantization is performed such that x m (k) = j and 0 ≦ j <P.
Furthermore, the learning unit 57, the training image data of the number m is the case of a positive example, y m = + 1, in the case of the negative sample determines the label y m to y m = -1. Then, the learning unit 57, a learning sample x m, the data sets for learning by combining the label y m {(x 1, y 1) ... (x M, y M)} to produce a (step S29).

その後、学習部57は、各訓練画像データの重み値の更新と、正例と負例の分離性能が高い弱識別器の選択処理を行う(ステップS30)。
図16は、重み値の更新と弱識別器の選択処理の一例を示すフローチャートである。
Thereafter, the learning unit 57 performs updating of the weight values of each training image data and selection processing of weak classifiers having high separation performance between positive examples and negative examples (step S30).
FIG. 16 is a flowchart illustrating an example of weight value update and weak classifier selection processing.

t番目の学習で訓練画像データに対して適用される重み値をDt(m)、1<m≦Mとする。なお、重み値Dt(m)は、以下の関係を満たす。 The weight value applied to the training image data in the t-th learning is D t (m), 1 <m ≦ M. The weight value D t (m) satisfies the following relationship.

Figure 2012098983
Figure 2012098983

まず、学習部57は、訓練画像データの重み値D1(m)を、訓練画像データの総数Mを用いて、D1(m)=1/Mのように初期化する(ステップS31)。なお、学習部57は、訓練画像データの番号m、特徴量ベクトルの要素番号(以下弱識別器番号という場合もある)k、学習番号tについても、m=0、k=0、t=0と初期化する。 First, the learning unit 57 initializes the weight value D 1 (m) of the training image data such that D 1 (m) = 1 / M using the total number M of training image data (step S31). Note that the learning unit 57 also sets m = 0, k = 0, t = 0 for the training image data number m, the feature vector element number (hereinafter also referred to as weak classifier number) k, and the learning number t. And initialize.

その後、学習部57は、学習サンプルxm(k)を、図14のステップS28の処理で求められた整数jに置換し(ステップS32)、要素数P個(ヒストグラムのデータ区間数)の1次元配列W±[j]に重み値Dt(m)を加算する(ステップS33)。学習部57は、訓練画像データが正例(ym=+1)の場合、W+[j]=W+[j]+Dt(m)を計算し、負例(ym=−1)の場合、W-[j]=W-[j]+Dt(m)を計算する。 After that, the learning unit 57 replaces the learning sample x m (k) with the integer j obtained in the process of step S28 of FIG. 14 (step S32), and 1 element P (number of data sections of the histogram) is 1 The weight value D t (m) is added to the dimension array W ± [j] (step S33). When the training image data is a positive example (y m = + 1), the learning unit 57 calculates W + [j] = W + [j] + D t (m), and the negative example (y m = −1). In this case, W [j] = W [j] + D t (m) is calculated.

次に、学習部57は、訓練画像データの番号mをm=m+1と更新した後(ステップS34)、訓練画像データの番号mが、訓練画像データの総数Mより大きいか否かを判定する(ステップS35)。m>Mである場合には、ステップS36の処理が行われ、m≦Mの場合には、ステップS32からの処理が繰り返される。   Next, after updating the training image data number m to m = m + 1 (step S34), the learning unit 57 determines whether the training image data number m is greater than the total number M of training image data ( Step S35). If m> M, the process of step S36 is performed. If m ≦ M, the process from step S32 is repeated.

m>Mの場合、学習部57は、以下の式で、弱識別器を選択するための指標Zを算出する(ステップS36)。   When m> M, the learning unit 57 calculates an index Z for selecting a weak classifier using the following equation (step S36).

Figure 2012098983
Figure 2012098983

学習部57は、弱識別器番号kをk=k+1と更新し、訓練画像データの番号mをm=0とした後(ステップS37)、全ての弱識別器を調査したか否かを判定するために、k>Dimであるか否かを判定する(ステップS38)。k>Dimである場合には、ステップS39の処理が行われ、k≦Dimの場合には、ステップS32からの処理が繰り返される。   The learning unit 57 updates the weak classifier number k to k = k + 1, sets the training image data number m to m = 0 (step S37), and determines whether or not all weak classifiers have been investigated. Therefore, it is determined whether or not k> Dim (step S38). If k> Dim, the process of step S39 is performed. If k ≦ Dim, the process from step S32 is repeated.

k>Dimの場合、学習部57は、最も小さな指標Zを与える弱識別器を選択し、そのときの弱識別器番号k(t)及び、1次元配列W+ (t)[j],W- (t)[j]を、学習番号tのクラス分類パラメータとして、記憶部58に保存する(ステップS39)。 When k> Dim, the learning unit 57 selects the weak classifier that gives the smallest index Z, and the weak classifier number k (t) at that time and the one-dimensional array W + (t) [j], W - a (t) [j], as classification parameters of the learning number t, stored in the storage unit 58 (step S39).

その後、学習部57は、次の学習で用いる訓練画像データ用に、重み値を次式で更新する(ステップS40)。   Thereafter, the learning unit 57 updates the weight value with the following equation for the training image data used in the next learning (step S40).

Figure 2012098983
Figure 2012098983

ここで、ht(x)は学習番号tでの弱識別器の出力を示し、以下の式で表される。 Here, ht (x) indicates the output of the weak classifier at the learning number t, and is expressed by the following equation.

Figure 2012098983
Figure 2012098983

ここで、ε=10-7である。
学習部57は、その後、学習番号tをt=t+1と更新し、訓練画像データの番号mをm=0、特徴量ベクトルの要素番号kをk=0とした後(ステップS41)、学習回数が所定の回数(T回)に達したか否かを判定する(ステップS42)。t<Tであれば、ステップS32からの処理が繰り返され、t≧Tであれば、学習部57は、学習処理を終了する。
Here, ε = 10 −7 .
After that, the learning unit 57 updates the learning number t to t = t + 1, sets the training image data number m to m = 0, and sets the feature vector element number k to k = 0 (step S41), and then the number of learnings. It is determined whether or not has reached a predetermined number of times (T times) (step S42). If t <T, the process from step S32 is repeated, and if t ≧ T, the learning unit 57 ends the learning process.

以上のような学習処理によって、記憶部58には、例えば、以下のようにクラス分類パラメータが格納される。
図17は、クラス分類パラメータの格納例を示す図である。
Through the learning process as described above, for example, the classification parameter is stored in the storage unit 58 as follows.
FIG. 17 is a diagram illustrating a storage example of class classification parameters.

ここでは、学習番号tが0〜T−1までのクラス分類パラメータとして、弱識別器番号と、それぞれP個の要素数を持つ、正例の1次元配列と負例の1次元配列が格納されている例が示されている。   Here, a weak classifier number and a one-dimensional array of positive examples and a one-dimensional array of negative examples each having P number of elements are stored as class classification parameters for learning numbers t ranging from 0 to T-1. An example is shown.

物体検出部59は、図17に示されているようなクラス分類パラメータを用いて、物体検出を行う。
以下、物体検出処理の詳細を説明する。
The object detection unit 59 performs object detection using a class classification parameter as shown in FIG.
Details of the object detection process will be described below.

(物体検出処理)
物体検出処理を実施する際、検出窓走査部52は、画像取得部51から入力された未知画像データ(例えば、画像サイズ=640×480画素)に、図8に示したような検出窓領域61を設定する。検出窓領域61は、例えば、訓練画像データと同一の画像サイズであり、上述の学習処理時の例では45×45画素である。
(Object detection processing)
When performing the object detection process, the detection window scanning unit 52 adds the detection window region 61 as shown in FIG. 8 to the unknown image data (for example, image size = 640 × 480 pixels) input from the image acquisition unit 51. Set. The detection window area 61 has, for example, the same image size as the training image data, and is 45 × 45 pixels in the example at the time of the learning process described above.

その後、検出窓領域61内の画像データが、学習時と同様の処理により、輝度勾配算出部53、ヒストグラム算出部54、シフト部55、類似度算出部56で処理されて、特徴量ベクトルが算出される。   Thereafter, the image data in the detection window region 61 is processed by the luminance gradient calculation unit 53, the histogram calculation unit 54, the shift unit 55, and the similarity calculation unit 56 by the same processing as that during learning, and the feature vector is calculated. Is done.

物体検出部59は、検出窓走査部52での走査回数がm回目のとき、類似度算出部56で算出された特徴量ベクトルから、学習部57で行われた前述のステップS26〜S28と同様の処理を行い、量子化された特徴量ベクトルxm(k)を算出する。 When the number of scans by the detection window scanning unit 52 is the mth, the object detection unit 59 is the same as the above-described steps S26 to S28 performed by the learning unit 57 from the feature amount vector calculated by the similarity calculation unit 56. Then, the quantized feature vector x m (k) is calculated.

その後、物体検出部59は、以下に示すような処理を行う。
図18は、物体の有無を判別する処理の一例を示すフローチャートである。
まず、物体検出部59は、学習番号tをt=0、強識別器出力HをH=0と初期化する(ステップS50)。また、物体検出部59は、記憶部58から、学習番号tに対応する弱識別器番号k(t)を読み出す(ステップS51)。その後、物体検出部59は、量子化された特徴量ベクトルxm(k(t))を、整数jに置換する(ステップS52)。
Thereafter, the object detection unit 59 performs the following process.
FIG. 18 is a flowchart illustrating an example of processing for determining the presence or absence of an object.
First, the object detection unit 59 initializes the learning number t to t = 0 and the strong classifier output H to H = 0 (step S50). In addition, the object detection unit 59 reads the weak classifier number k (t) corresponding to the learning number t from the storage unit 58 (step S51). Thereafter, the object detection unit 59 replaces the quantized feature quantity vector x m (k (t) ) with an integer j (step S52).

さらに、物体検出部59は、記憶部58から、正例、負例の1次元配列W+ (t)[j],W- (t)[j]を読み出す(ステップS53)。その後、物体検出部59は、式(8)を用いて、弱識別器の出力htを計算する(ステップS54)。そして、物体検出部59は、H=H+htの計算を行うことで、強識別器に弱識別器の出力を加算する(ステップS55)。 Further, the object detection unit 59 reads the positive and negative one-dimensional arrays W + (t) [j] and W (t) [j] from the storage unit 58 (step S53). Then, the object detection unit 59, using equation (8), to calculate the output h t of the weak classifier (step S54). Then, the object detection unit 59, by performing the calculation of H = H + h t, adds the outputs of the weak discriminators to the strong classifier (step S55).

その後、物体検出部59は、学習番号tをt=t+1と更新し(ステップS56)、学習番号tが学習回数Tに達したか否かの判定を行う(ステップS57)。t≧Tであれば、ステップS58の判定処理が行われ、t<Tの場合には、ステップS51からの処理が繰り返される。   Thereafter, the object detection unit 59 updates the learning number t to t = t + 1 (step S56), and determines whether or not the learning number t has reached the learning count T (step S57). If t ≧ T, the determination process of step S58 is performed, and if t <T, the process from step S51 is repeated.

t≧Tの場合、物体検出部59は、強識別器出力Hが所定の閾値Hth以上であるか否かを判定する(ステップS58)。H≧Hthであれば、物体検出部59は、検出窓領域61内に対象の物体がある、という検出結果を出力し(ステップS59)、H<Hthであれば、物体検出部59は、対象の物体はない、という検出結果を出力する(ステップS60)。   When t ≧ T, the object detection unit 59 determines whether or not the strong discriminator output H is equal to or greater than a predetermined threshold value Hth (step S58). If H ≧ Hth, the object detection unit 59 outputs a detection result that there is a target object in the detection window region 61 (step S59). If H <Hth, the object detection unit 59 The detection result that there is no object is output (step S60).

以上のような物体検出処理では、画像データ中のあるセルにおける輝度勾配のヒストグラムと、他のセルにおけるデータ区間をシフトしたヒストグラムとの類似度を特徴量として画像中の物体検出を行う。そのため、光沢変化などの影響で輝度勾配ヒストグラム分布が変わっても、検出対象の物体と他の部分とを判別する特徴量が変化しにくくなる。これにより、物体の検出ミスを低減することができる。   In the object detection process as described above, the object detection in the image is performed using the similarity between the histogram of the luminance gradient in a certain cell in the image data and the histogram obtained by shifting the data section in the other cell as a feature amount. For this reason, even if the luminance gradient histogram distribution changes due to a change in gloss or the like, the feature quantity for discriminating the object to be detected from other parts is unlikely to change. As a result, object detection errors can be reduced.

また、検出窓内の、あるセルにおける輝度勾配のヒストグラムと、他のセルにおけるデータ区間をシフトしたヒストグラムとの類似度を算出して特徴量に用いるため、エッジの連結状態や離れたエッジ間の関連性を特徴量として表現でき、これらを考慮した物体検出が可能になる。   In addition, since the similarity between the histogram of the brightness gradient in a certain cell and the histogram obtained by shifting the data section in another cell is calculated and used as a feature amount in the detection window, the connected state of edges and the distance between distant edges Relevance can be expressed as a feature quantity, and object detection taking these into account becomes possible.

なお、上記の説明では、類似度算出部56は、ヒストグラムの重なり率を、式(3)を用いて求めたが、次式により求めるようにしてもよい。   In the above description, the similarity calculation unit 56 calculates the histogram overlap rate using Expression (3), but it may be calculated using the following expression.

Figure 2012098983
Figure 2012098983

ここで、Hiはi番目のセルのヒストグラム、hk (i)はi番目のセルのヒストグラムのk番目のデータ区間の度数、Hjはj番目のセルのヒストグラム、hk (j)はj番目のヒストグラムのk番目のデータ区間の度数、NDはデータ区間の総数を示している。また、σは、以下の式で表される。 Here, H i is the histogram of the i th cell, h k (i) is the frequency of the k th data interval of the histogram of the i th cell, H j is the histogram of the j th cell, and h k (j) is The frequency of the kth data section of the jth histogram, ND, indicates the total number of data sections. Σ is expressed by the following equation.

Figure 2012098983
Figure 2012098983

max()は、括弧内の値の最大のものを出力する関数である。
式(9)のように、ヒストグラムの重なり率を、σを用いて正規化することで、重なり率は0〜1に正規化される。これにより、学習部57にて前述したステップS26,S27で行われるような特徴量ベクトルの正規化処理が不要となり、計算量を削減することができる。
max () is a function that outputs the maximum value in parentheses.
As shown in Expression (9), the overlap ratio is normalized to 0 to 1 by normalizing the overlap ratio of the histogram using σ. Thereby, the normalization processing of the feature amount vector as performed in the above-described steps S26 and S27 in the learning unit 57 becomes unnecessary, and the calculation amount can be reduced.

ところで、上記のような物体検出装置1,50は、画像処理ボードなどであってもよいし、以下のようなコンピュータであってもよい。
図19は、本実施の形態に用いるコンピュータのハードウェアの一例を示す図である。コンピュータ100は、CPU(Central Processing Unit)101によって装置全体が制御されている。CPU101には、バス108を介してRAM(Random Access Memory)102と複数の周辺機器が接続されている。
Incidentally, the object detection devices 1 and 50 as described above may be image processing boards or the like, or may be the following computers.
FIG. 19 is a diagram illustrating an example of hardware of a computer used in this embodiment. The computer 100 is entirely controlled by a CPU (Central Processing Unit) 101. A RAM (Random Access Memory) 102 and a plurality of peripheral devices are connected to the CPU 101 via a bus 108.

RAM102は、コンピュータ100の主記憶装置として使用される。RAM102には、CPU101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、CPU101による処理に用いる各種データが格納される。   The RAM 102 is used as a main storage device of the computer 100. The RAM 102 temporarily stores at least part of an OS (Operating System) program and application programs to be executed by the CPU 101. The RAM 102 stores various data used for processing by the CPU 101.

バス108に接続されている周辺機器としては、HDD103、グラフィック処理装置104、入力インタフェース105、光学ドライブ装置106、及び通信インタフェース107がある。   Peripheral devices connected to the bus 108 include an HDD 103, a graphic processing device 104, an input interface 105, an optical drive device 106, and a communication interface 107.

HDD103は、内蔵したディスクに対して、磁気的にデータの書き込み及び読み出しを行う。HDD103は、コンピュータ100の二次記憶装置として使用される。HDD103には、OSのプログラム、アプリケーションプログラム、及び各種データが格納される。なお、二次記憶装置としては、フラッシュメモリなどの半導体記憶装置を使用することもできる。   The HDD 103 magnetically writes and reads data to and from the built-in disk. The HDD 103 is used as a secondary storage device of the computer 100. The HDD 103 stores an OS program, application programs, and various data. Note that a semiconductor storage device such as a flash memory can also be used as the secondary storage device.

グラフィック処理装置104には、モニタ104aが接続されている。グラフィック処理装置104は、CPU101からの命令に従って、画像をモニタ104aの画面に表示させる。モニタ104aとしては、CRT(Cathode Ray Tube)を用いた表示装置や液晶表示装置などがある。   A monitor 104 a is connected to the graphic processing device 104. The graphic processing device 104 displays an image on the screen of the monitor 104a in accordance with a command from the CPU 101. Examples of the monitor 104a include a display device using a CRT (Cathode Ray Tube) and a liquid crystal display device.

入力インタフェース105には、キーボード105aとマウス105bとが接続されている。入力インタフェース105は、キーボード105aやマウス105bから送られてくる信号をCPU101に送信する。なお、マウス105bは、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。   A keyboard 105 a and a mouse 105 b are connected to the input interface 105. The input interface 105 transmits signals sent from the keyboard 105a and the mouse 105b to the CPU 101. Note that the mouse 105b is an example of a pointing device, and other pointing devices can also be used. Examples of other pointing devices include a touch panel, a tablet, a touch pad, and a trackball.

光学ドライブ装置106は、レーザ光などを利用して、光ディスク106aに記録されたデータの読み取りを行う。光ディスク106aは、光の反射によって読み取り可能なようにデータが記録された可搬型の記録媒体である。光ディスク106aには、DVD、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。   The optical drive device 106 reads data recorded on the optical disc 106a using laser light or the like. The optical disk 106a is a portable recording medium on which data is recorded so that it can be read by reflection of light. The optical disk 106a includes a DVD, a DVD-RAM, a CD-ROM (Compact Disc Read Only Memory), a CD-R (Recordable) / RW (ReWritable), and the like.

通信インタフェース107は、ネットワーク107aに接続されている。通信インタフェース107は、ネットワーク107aを介して、他のコンピュータまたは通信機器との間でデータの送受信を行う。   The communication interface 107 is connected to the network 107a. The communication interface 107 transmits / receives data to / from other computers or communication devices via the network 107a.

以上のようなハードウェアによって、本実施の形態の処理機能を実現することができる。
上記のように、本実施の形態の処理機能は、コンピュータによって実現することができる。その場合、物体検出装置1,50が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、HDD、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD、DVD−RAM、CD−ROM/RWなどがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。
The processing functions of the present embodiment can be realized by the hardware as described above.
As described above, the processing functions of the present embodiment can be realized by a computer. In that case, a program describing the processing contents of the functions that the object detection apparatuses 1 and 50 should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic storage device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Magnetic storage devices include HDDs, flexible disks (FD), and magnetic tapes. Optical discs include DVD, DVD-RAM, CD-ROM / RW, and the like. Magneto-optical recording media include MO (Magneto-Optical disk).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When distributing the program, for example, a portable recording medium such as a DVD or a CD-ROM in which the program is recorded is sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. In addition, each time a program is transferred from a server computer connected via a network, the computer can sequentially execute processing according to the received program.

また、上記の処理機能の少なくとも一部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)などの電子回路で実現することもできる。   In addition, at least a part of the above processing functions can be realized by an electronic circuit such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic Device).

以上、実施の形態に基づき、本発明の物体検出装置、物体検出方法及びプログラムの一観点について説明してきたが、これらは一例にすぎず、上記の記載に限定されるものではない。   As described above, one aspect of the object detection device, the object detection method, and the program according to the present invention has been described based on the embodiments, but these are merely examples, and the present invention is not limited to the above description.

1 物体検出装置
2 画像取得部
3 輝度勾配算出部
4 ヒストグラム算出部
5 シフト部
6 類似度算出部
7 記憶部
8 物体検出部
DESCRIPTION OF SYMBOLS 1 Object detection apparatus 2 Image acquisition part 3 Luminance gradient calculation part 4 Histogram calculation part 5 Shift part 6 Similarity calculation part 7 Storage part 8 Object detection part

Claims (5)

画像データ中の画素における輝度の変化率を示す輝度勾配を算出する輝度勾配算出部と、
所定の大きさの画像領域ごとに区切られた前記画像データの前記画像領域に対して、前記輝度勾配の所定の角度範囲ごとをデータ区間とするヒストグラムを算出するヒストグラム算出部と、
前記ヒストグラムの前記データ区間をシフトさせて前記ヒストグラムを変更するシフト部と、
前記シフト部で前記データ区間がシフトされた前記画像領域の前記ヒストグラムと、前記ヒストグラム算出部で算出された他の前記画像領域の前記ヒストグラムとの間の類似度を算出する類似度算出部と、
前記類似度を特徴量に用いて、前記画像データから検出対象の物体を検出する物体検出部と、
を有することを特徴とする物体検出装置。
A luminance gradient calculating unit for calculating a luminance gradient indicating a rate of change in luminance at a pixel in the image data;
A histogram calculation unit that calculates a histogram having a data interval for each predetermined angle range of the luminance gradient for the image area of the image data divided for each image area of a predetermined size;
A shift unit that changes the histogram by shifting the data section of the histogram;
A similarity calculation unit that calculates a similarity between the histogram of the image region in which the data section is shifted by the shift unit and the histogram of the other image region calculated by the histogram calculation unit;
An object detection unit that detects an object to be detected from the image data using the similarity as a feature amount;
An object detection apparatus comprising:
前記類似度は、前記データ区間がシフトされた前記画像領域の前記ヒストグラムと、他の前記画像領域の前記ヒストグラムとの重なりの度合いであることを特徴とする請求項1に記載の物体検出装置。   The object detection apparatus according to claim 1, wherein the similarity is a degree of overlap between the histogram of the image area where the data section is shifted and the histogram of another image area. 前記類似度算出部は、前記重なりの度合いを、前記データ区間がシフトされた前記画像領域の前記ヒストグラムと、他の前記画像領域の前記ヒストグラムのうち、各前記データ区間で大きい方の値の総和で正規化することを特徴とする請求項2に記載の物体検出装置。   The similarity calculation unit is configured to determine the degree of overlap as a sum of a larger value in each data section of the histogram of the image area where the data section is shifted and the histogram of the other image area. The object detection device according to claim 2, wherein the object detection device is normalized by. 画像データ中の画素における輝度の変化率を示す輝度勾配を算出し、
所定の大きさの画像領域ごとに区切られた前記画像データの前記画像領域に対して、前記輝度勾配の所定の角度範囲ごとをデータ区間とするヒストグラムを算出し、
前記ヒストグラムの前記データ区間をシフトさせて前記ヒストグラムを変更し、
前記データ区間がシフトされた前記画像領域の前記ヒストグラムと、他の前記画像領域の前記ヒストグラムとの間の類似度を算出し、
前記類似度を特徴量に用いて、前記画像データから検出対象の物体を検出することを特徴とする物体検出方法。
Calculate a luminance gradient indicating the rate of change in luminance at the pixels in the image data,
For the image area of the image data divided for each image area of a predetermined size, a histogram having a data interval for each predetermined angle range of the luminance gradient is calculated,
Changing the histogram by shifting the data section of the histogram;
Calculating a similarity between the histogram of the image region in which the data section is shifted and the histogram of the other image region;
An object detection method, wherein an object to be detected is detected from the image data using the similarity as a feature amount.
コンピュータに、
画像データ中の画素における輝度の変化率を示す輝度勾配を算出し、
所定の大きさの画像領域ごとに区切られた前記画像データの前記画像領域に対して、前記輝度勾配の所定の角度範囲ごとをデータ区間とするヒストグラムを算出し、
前記ヒストグラムの前記データ区間をシフトさせて前記ヒストグラムを変更し、
前記データ区間がシフトされた前記画像領域の前記ヒストグラムと、他の前記画像領域の前記ヒストグラムとの間の類似度を算出し、
前記類似度を特徴量に用いて、前記画像データから検出対象の物体を検出する処理を実行させるプログラム。
On the computer,
Calculate a luminance gradient indicating the rate of change in luminance at the pixels in the image data,
For the image area of the image data divided for each image area of a predetermined size, a histogram having a data interval for each predetermined angle range of the luminance gradient is calculated,
Changing the histogram by shifting the data section of the histogram;
Calculating a similarity between the histogram of the image region in which the data section is shifted and the histogram of the other image region;
A program for executing processing for detecting an object to be detected from the image data, using the similarity as a feature amount.
JP2010247172A 2010-11-04 2010-11-04 Object detection device, object detection method and program Pending JP2012098983A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010247172A JP2012098983A (en) 2010-11-04 2010-11-04 Object detection device, object detection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010247172A JP2012098983A (en) 2010-11-04 2010-11-04 Object detection device, object detection method and program

Publications (1)

Publication Number Publication Date
JP2012098983A true JP2012098983A (en) 2012-05-24

Family

ID=46390805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010247172A Pending JP2012098983A (en) 2010-11-04 2010-11-04 Object detection device, object detection method and program

Country Status (1)

Country Link
JP (1) JP2012098983A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101515926B1 (en) * 2013-10-08 2015-05-04 재단법인대구경북과학기술원 Method for object detection and apparatus thereof
EP3595298A4 (en) * 2017-03-10 2020-12-30 Tadano Ltd. Human detection system for work vehicle, and work vehicle equipped with same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6228882A (en) * 1985-07-31 1987-02-06 Fujitsu Ltd Method for correcting angular deviation of image
JP2004326693A (en) * 2003-04-28 2004-11-18 Sony Corp Image recognition device and method as well as robot device
JP2009070314A (en) * 2007-09-18 2009-04-02 Sony Corp Image processor and image processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6228882A (en) * 1985-07-31 1987-02-06 Fujitsu Ltd Method for correcting angular deviation of image
JP2004326693A (en) * 2003-04-28 2004-11-18 Sony Corp Image recognition device and method as well as robot device
JP2009070314A (en) * 2007-09-18 2009-04-02 Sony Corp Image processor and image processing method, and program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CSNG200401294004; 平湯 秀和: 'グローバル特徴を用いた多視点パノラマレンジデータの統合手法の評価' 電子情報通信学会技術研究報告 Vol.102 No.555, 20030110, ページ31〜36, 社団法人電子情報通信学会 *
JPN6015005932; 平湯 秀和: 'グローバル特徴を用いた多視点パノラマレンジデータの統合手法の評価' 電子情報通信学会技術研究報告 Vol.102 No.555, 20030110, ページ31〜36, 社団法人電子情報通信学会 *
JPN7014001688; 池村翔: '距離情報に基づく局所特徴量によるリアルタイム人検出' 中部大学工学部情報工学科平成20年度卒業研究論文 , 200903 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101515926B1 (en) * 2013-10-08 2015-05-04 재단법인대구경북과학기술원 Method for object detection and apparatus thereof
EP3595298A4 (en) * 2017-03-10 2020-12-30 Tadano Ltd. Human detection system for work vehicle, and work vehicle equipped with same

Similar Documents

Publication Publication Date Title
US9697416B2 (en) Object detection using cascaded convolutional neural networks
JP6798619B2 (en) Information processing equipment, information processing programs and information processing methods
US9646389B2 (en) Systems and methods for image scanning
US11908183B2 (en) Image analysis and processing pipeline with real-time feedback and autocapture capabilities, and visualization and configuration system
US20090141949A1 (en) Method and apparatus for recognizing a plural number of faces, and method and apparatus for registering face, and an image capturing method and system
CN104424482A (en) Image processing apparatus and image processing method
US9058655B2 (en) Region of interest based image registration
WO2017114168A1 (en) Method and device for target detection
CN111626349A (en) Target detection method and system based on deep learning
WO2014074959A1 (en) Real-time face detection using pixel pairs
CN108369649A (en) Focus detection
US9734434B2 (en) Feature interpolation
US20150058579A1 (en) Systems and methods for memory utilization for object detection
US20220311910A1 (en) Corner detection method and corner detection device
KR101982258B1 (en) Method for detecting object and object detecting apparatus
JP2012098983A (en) Object detection device, object detection method and program
CN113807407B (en) Target detection model training method, model performance detection method and device
EP3985619A1 (en) Automatic generation system of training image and method thereof
CN111382643A (en) Gesture detection method, device, equipment and storage medium
JP2009204434A (en) Target detection device, target detection method, and target detection program
US20190251703A1 (en) Method of angle detection
CN111967403A (en) Video moving area determining method and device and electronic equipment
Kuang et al. Object tracking with collaborative extreme learning machines
JP6635149B2 (en) Image processing device and imaging device
JP5396960B2 (en) Image processing program, image processing method, and image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140610

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140811

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150217