JP2012098983A - Object detection device, object detection method and program - Google Patents
Object detection device, object detection method and program Download PDFInfo
- Publication number
- JP2012098983A JP2012098983A JP2010247172A JP2010247172A JP2012098983A JP 2012098983 A JP2012098983 A JP 2012098983A JP 2010247172 A JP2010247172 A JP 2010247172A JP 2010247172 A JP2010247172 A JP 2010247172A JP 2012098983 A JP2012098983 A JP 2012098983A
- Authority
- JP
- Japan
- Prior art keywords
- histogram
- data
- unit
- object detection
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、物体検出装置、物体検出方法及びプログラムに関する。 The present invention relates to an object detection device, an object detection method, and a program.
カメラなどで撮影した画像から自動的に物体を検出する技術は、自動車や人の監視システムなど、多岐にわたって利用されている。
画像を所定の大きさの画像領域(以下セルと呼ぶ)ごとに格子状に区切り、セル内の各画素の輝度勾配角度をデータ区間とする輝度勾配方向ヒストグラム(HOG:Histograms of Oriented Gradients)を特徴量に用いて、物体の検出を行う技術が知られている。
A technology for automatically detecting an object from an image taken by a camera or the like is widely used such as an automobile or a human monitoring system.
Features an HOG (histograms of oriented gradients) that divides the image into grids for each image area (hereinafter referred to as a cell) of a predetermined size and uses the luminance gradient angle of each pixel in the cell as a data section A technique for detecting an object using a quantity is known.
また、複数のHOG特徴を組み合わせて物体検出を行うJoint HOGと呼ばれる手法や、異なる角度を持つ画素のペアの各セルにおける出現数を特徴量として物体検出を行うCoHOG(Co-occurrence HOG)と呼ばれる手法が知られている。 Also, a technique called Joint HOG that performs object detection by combining a plurality of HOG features, or CoHOG (Co-occurrence HOG) that performs object detection using the number of appearances of each pixel pair having different angles as a feature quantity. Techniques are known.
しかしながら、従来の技術では、光沢変化などの影響で輝度勾配ヒストグラム分布が変わると、検出対象の物体と他の部分とを判別する特徴量が変化し、物体を正しく検出できない場合がある、という問題があった。 However, with the conventional technology, when the luminance gradient histogram distribution changes due to the influence of gloss change, the feature quantity that distinguishes the object to be detected from other parts changes, and the object may not be detected correctly. was there.
発明の一観点によれば、画像データ中の画素における輝度の変化率を示す輝度勾配を算出する輝度勾配算出部と、所定の大きさの画像領域ごとに区切られた前記画像データの前記画像領域に対して、前記輝度勾配の所定の角度範囲ごとをデータ区間とするヒストグラムを算出するヒストグラム算出部と、前記ヒストグラムの前記データ区間をシフトさせて前記ヒストグラムを変更するシフト部と、前記シフト部で前記データ区間がシフトされた前記画像領域の前記ヒストグラムと、前記ヒストグラム算出部で算出された他の前記画像領域の前記ヒストグラムとの間の類似度を算出する類似度算出部と、前記類似度を特徴量に用いて、前記画像データから検出対象の物体を検出する物体検出部と、を有する物体検出装置が提供される。 According to an aspect of the invention, a luminance gradient calculation unit that calculates a luminance gradient indicating a rate of change in luminance at a pixel in image data, and the image area of the image data divided for each image area of a predetermined size On the other hand, a histogram calculation unit that calculates a histogram with a predetermined angular range of the luminance gradient as a data interval, a shift unit that shifts the data interval of the histogram and changes the histogram, and the shift unit A similarity calculation unit that calculates a similarity between the histogram of the image region in which the data section is shifted and the histogram of the other image region calculated by the histogram calculation unit; An object detection device is provided that includes an object detection unit that detects an object to be detected from the image data using the feature amount.
開示の物体検出装置、物体検出方法及びプログラムによれば、物体の検出ミスを低減できる。 According to the disclosed object detection apparatus, object detection method, and program, object detection errors can be reduced.
以下、本発明の実施の形態を、図面を参照しつつ説明する。
(第1の実施の形態)
図1は、第1の実施の形態の物体検出装置の一例を示す図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram illustrating an example of the object detection apparatus according to the first embodiment.
物体検出装置1は、画像取得部2、輝度勾配算出部3、ヒストグラム算出部4、シフト部5、類似度算出部6、記憶部7、物体検出部8を有している。
画像取得部2は、物体検出装置1の外部から画像データを取得する。例えば、画像データは、カメラやビデオなどの撮像装置、DVD(Digital Versatile Disc)などの記録媒体、ハードディスクドライブ(HDD:Hard Disk Drive)などから入力される。
The
The
輝度勾配算出部3は、画像データ中の画素における輝度の変化率を示す輝度勾配を算出する。輝度勾配は、例えば、輝度の勾配方向(勾配角度)と勾配の大きさで表される。
ヒストグラム算出部4は、所定の大きさのセルごとに格子状に区切られた画像データのセルにおいて、輝度勾配の所定の角度範囲ごとをデータ区間とし、画素数あるいは勾配の大きさの積算を度数とするヒストグラムを算出する。勾配方向の向きを無視する場合、勾配角度は、0度から180度の範囲となる。
The luminance gradient calculation unit 3 calculates a luminance gradient that indicates the rate of change in luminance at the pixels in the image data. The luminance gradient is represented by, for example, a luminance gradient direction (gradient angle) and a gradient magnitude.
The histogram calculation unit 4 uses a predetermined angular range of the luminance gradient as a data section in the image data cells partitioned in a grid pattern for each cell having a predetermined size, and counts the number of pixels or the integration of the gradient in frequency. A histogram is calculated. When ignoring the direction of the gradient direction, the gradient angle ranges from 0 degrees to 180 degrees.
図2は、画像データ中の、ある2つのセルの一例を示す図である。
また、図3は、輝度勾配のヒストグラムの一例を示す図である。
図2では例として、車両の画像データ10が示されている。画像データ10中の領域11におけるセル11−1,11−2(例えば、5×5画素)において、算出される輝度勾配のヒストグラムの例が図3に示されている。
FIG. 2 is a diagram illustrating an example of two cells in the image data.
FIG. 3 is a diagram illustrating an example of a histogram of luminance gradient.
In FIG. 2,
図3(A)はセル11−1におけるヒストグラム、図3(B)はセル11−2におけるヒストグラムの一例を示している。横軸は勾配角度(度)、縦軸は度数を示している。
各ヒストグラムは、20度のデータ区間ごとの度数で示されている。例えば、セル11−1では、80度〜100度における度数が最大である。つまり、垂直方向の輝度の変化が大きいということであるので、セル11−1には水平方向のエッジが最も多く含まれていることが分かる。また、セル11−2では、160度〜180度における度数が最大であることから、セル11−2には垂直方向のエッジが最も多く含まれていることが分かる。
3A shows an example of the histogram in the cell 11-1, and FIG. 3B shows an example of the histogram in the cell 11-2. The horizontal axis indicates the gradient angle (degrees), and the vertical axis indicates the frequency.
Each histogram is represented by the frequency for each 20 degree data section. For example, in the cell 11-1, the frequency at 80 degrees to 100 degrees is the maximum. That is, since the change in luminance in the vertical direction is large, it can be seen that the cell 11-1 includes the most horizontal edges. In addition, since the frequency in the range of 160 to 180 degrees is the maximum in the cell 11-2, it can be seen that the cell 11-2 includes the most vertical edges.
なお、データ区間は、20度ごとに限定されるわけではなく、10度ごとなどと細かくしてもよいし、逆に広くとってもよい。データ区間は、計算時間などとの関係で適宜設定される。 Note that the data interval is not limited to every 20 degrees, and may be as fine as every 10 degrees or vice versa. The data interval is appropriately set in relation to the calculation time.
シフト部5は、ヒストグラム算出部4で算出されたヒストグラムのデータ区間を所定回数シフトして、ヒストグラムを変更する。
図4は、ヒストグラムのシフトの一例を示す図である。
The
FIG. 4 is a diagram illustrating an example of histogram shift.
図4には、図3に示したセル11−2のヒストグラムが4回シフトされた例が示されている。すなわち、勾配角度が0度〜20度のデータ区間が、160〜180度のデータ区間の右隣にシフトされ、さらに20度〜40度のデータ区間、40度〜60度のデータ区間、60度〜80度のデータ区間が続いてシフトされている。 FIG. 4 shows an example in which the histogram of the cell 11-2 shown in FIG. 3 is shifted four times. That is, the data section with the gradient angle of 0 degrees to 20 degrees is shifted to the right of the data section of 160 to 180 degrees, and further, the data section of 20 degrees to 40 degrees, the data section of 40 degrees to 60 degrees, and 60 degrees. The data interval of ˜80 degrees is subsequently shifted.
類似度算出部6は、データ区間がシフトされたセルのヒストグラムと、ヒストグラム算出部4で算出された他のセルのヒストグラムとの間の類似度を算出する。類似度算出部6は、例えば、2つのヒストグラムの重なりの度合い(以下重なり率という)を類似度として算出する。また、類似度算出部6は、2つのヒストグラムの度数の差分を類似度として用いてもよい。 The similarity calculation unit 6 calculates the similarity between the histogram of the cell whose data section has been shifted and the histograms of other cells calculated by the histogram calculation unit 4. The similarity calculation unit 6 calculates, for example, the degree of overlap between two histograms (hereinafter referred to as the overlap rate) as the similarity. Further, the similarity calculation unit 6 may use the difference between the frequencies of the two histograms as the similarity.
図5は、2つのセルのヒストグラムの重なりの度合いの一例を示す図である。横軸がデータ区間を示し、縦軸が度数を示している。
各データ区間において、左側のバーが図3(A)に示したセル11−1のヒストグラムの一例を示し、右側のバーが図4に示したデータ区間を4回シフトしたセル11−2のヒストグラムの一例を示している。
FIG. 5 is a diagram illustrating an example of the degree of overlap of histograms of two cells. The horizontal axis indicates the data section, and the vertical axis indicates the frequency.
In each data section, the left bar shows an example of the histogram of the cell 11-1 shown in FIG. 3A, and the right bar shows the histogram of the cell 11-2 obtained by shifting the data section shown in FIG. 4 four times. An example is shown.
ヒストグラムの重なり率は、同一データ区間における2つのセルの度数から、値の小さい方(図5の白抜きのバーの方)を選択し、全てのデータ区間についての和を計算することで求められる。 The overlap ratio of the histogram is obtained by selecting the smaller value (the white bar in FIG. 5) from the frequency of two cells in the same data section and calculating the sum for all the data sections. .
記憶部7は、類似度算出部6で算出された類似度を特徴量として学習が行われた結果によって得られる分類パラメータを格納する。分類パラメータは、類似度算出部6で求められた類似度(特徴量)から、画像データに、検出対象の物体があると見なすか否かを判定するために用いられる。学習に関する処理については後述する。 The storage unit 7 stores classification parameters obtained from the result of learning using the similarity calculated by the similarity calculation unit 6 as a feature amount. The classification parameter is used to determine whether or not it is considered that there is an object to be detected in the image data from the similarity (feature value) obtained by the similarity calculation unit 6. Processing related to learning will be described later.
物体検出部8は、類似度算出部6で算出された類似度を特徴量に用いて、記憶部7に格納された分類パラメータを参照して、画像データから検出対象の物体を検出する。物体検出処理の詳細は後述する。 The object detection unit 8 uses the similarity calculated by the similarity calculation unit 6 as a feature amount, and refers to the classification parameter stored in the storage unit 7 to detect the detection target object from the image data. Details of the object detection process will be described later.
以下、物体検出装置1による物体検出処理の流れをまとめる。
図6は、物体検出処理の一例の流れを示すフローチャートである。
ステップS1:画像取得部2が、物体検出装置1の外部から画像データを取得する。
Hereinafter, the flow of object detection processing by the
FIG. 6 is a flowchart illustrating an exemplary flow of object detection processing.
Step S1: The
ステップS2:輝度勾配算出部3が、画像データ中の画素における輝度の変化率を示す輝度勾配を算出する。
ステップS3:ヒストグラム算出部4が、所定の大きさのセルごとに区切られた画像データの、ある着目しているセルにおいて、輝度勾配の角度をデータ区間とし、画素数あるいは勾配の大きさの積算を度数とするヒストグラムを算出する。
Step S2: The luminance gradient calculation unit 3 calculates a luminance gradient indicating the rate of change in luminance at the pixels in the image data.
Step S3: The histogram calculation unit 4 integrates the number of pixels or the magnitude of the gradient using the luminance gradient angle as a data interval in a cell of interest in the image data divided into cells of a predetermined size. A histogram is calculated with the frequency as.
ステップS4:シフト部5が、ヒストグラム算出部4で算出されたヒストグラムのデータ区間を所定回数シフトして、ヒストグラムを変更する。
ステップS5:類似度算出部6が、シフト部5でデータ区間がシフトされたセルのヒストグラムと、ヒストグラム算出部4で算出された他のセルのヒストグラムとの間の類似度を算出する。
Step S4: The
Step S5: The similarity calculation unit 6 calculates a similarity between the histogram of the cell whose data section is shifted by the
ステップS6:類似度算出部6で算出された類似度を特徴量に用いて、記憶部7に格納された分類パラメータを参照して、画像データから検出対象の物体を検出する。
以上のように、物体検出装置1では、画像データ中のあるセルにおける輝度勾配のヒストグラムと、他のセルにおけるデータ区間をシフトしたヒストグラムとの類似度を特徴量として画像中の物体検出を行う。そのため、光沢変化などの影響で輝度勾配ヒストグラム分布が変わっても、検出対象の物体と他の部分とを判別する特徴量が変化しにくくなる。これにより、物体の検出ミスを低減することができる。
Step S6: Using the similarity calculated by the similarity calculation unit 6 as a feature quantity, the classification parameter stored in the storage unit 7 is referred to detect an object to be detected from the image data.
As described above, the
また、あるセルにおける輝度勾配のヒストグラムと、他のセルにおけるデータ区間をシフトしたヒストグラムとの類似度を算出して特徴量に用いるため、エッジの連結状態や離れたエッジ間の関連性を特徴量として表現でき、これらを考慮した物体検出が可能になる。 In addition, since the similarity between the histogram of the brightness gradient in one cell and the histogram obtained by shifting the data interval in another cell is calculated and used as a feature value, the connection state of edges and the relationship between distant edges are used as feature values. It is possible to detect the object in consideration of these.
(第2の実施の形態)
図7は、第2の実施の形態の物体検出装置の一例を示す図である。
物体検出装置50は、画像取得部51、検出窓走査部52、輝度勾配算出部53、ヒストグラム算出部54、シフト部55、類似度算出部56、学習部57、記憶部58、物体検出部59を有している。
(Second Embodiment)
FIG. 7 is a diagram illustrating an example of the object detection device according to the second embodiment.
The
以下、各部を詳細に説明する。
(画像取得部51)
画像取得部51は、例えば、物体検出装置50の外部の入力デバイスから画像データを取得する。入力デバイスはカメラ以外でもよく、ビデオ、DVDなどの記録媒体、HDD上に格納されている動画ファイルから切り出した画像を、画像取得部51が取得するようにしてもよい。
Hereinafter, each part will be described in detail.
(Image acquisition unit 51)
The
画像データは、例えば、横640画素×縦480画素の矩形で与えられ、1つの画素は、明るさの階調値(輝度)で与えられる。例えば、後述の図9に示す例のように、整数i,j で示される座標(i,j)の画素の輝度(I)の階調値は、8bitのディジタル値などで与えられる。 The image data is given by, for example, a rectangle of horizontal 640 pixels × vertical 480 pixels, and one pixel is given by a brightness gradation value (luminance). For example, as in the example shown in FIG. 9 described later, the gradation value of the luminance (I) of the pixel at the coordinates (i, j) indicated by the integers i, j is given as an 8-bit digital value.
(検出窓走査部52)
検出窓走査部52は、物体の検出処理を実施する際、入力された未知の画像データ(例えば、画像サイズ=640×480画素)内に、検出窓領域(後述する学習処理時の訓練画像と同一の画像サイズ)を設定する。そして、検出窓走査部52は、処理時間を考慮して、検出窓領域を適当な画素数刻みで走査する。
(Detection window scanning unit 52)
When performing detection processing of an object, the detection
図8は、検出窓領域の走査例を示す図である。
画像データ60に対して、検出窓領域61を設定した例が示されている。検出窓走査部52は、検出窓領域61を未知の画像データ上で、例えば、図8の矢印方向に、適当な画素数刻みで移動させる。検出窓走査部52は、対象物体が検出されない領域(例えば、図8の領域62)が予め分っている場合には、検出窓領域61の走査対象から除外することによって処理時間を短縮可能である。
FIG. 8 is a diagram illustrating a scanning example of the detection window region.
An example in which a
(輝度勾配算出部53)
輝度勾配算出部53は、画像データ中の画像における輝度の変化率である輝度勾配を算出する。輝度勾配の算出法として様々な方法が適用可能であるが、ここでは、最も単純な以下の方法を用いるとする。
(Luminance gradient calculation unit 53)
The luminance
図9は、ある画像データ中の画素座標の一例を示す図である。画像データ70における、ある領域の画素座標が整数i,jにて示されている。
図9中の座標(i,j)の画素71における輝度の勾配角度θ(i,j)は、画素71の上下左右の画素72,73,74,75の輝度I(i,j+1),I(i−1,j),I(i,j−1),I(i+1,j)を用いて次式で表される。
FIG. 9 is a diagram illustrating an example of pixel coordinates in certain image data. The pixel coordinates of a certain area in the
The luminance gradient angle θ (i, j) at the
また、座標(i,j)における輝度勾配の大きさη(i,j)は、次式で表される。 Further, the magnitude η (i, j) of the luminance gradient at the coordinates (i, j) is expressed by the following equation.
図10は、ある画像データにおけるセル内外の輝度値の一例を示す図である。図10では、横5画素、縦5画素のセル80が示されている。
このようなセル80において、輝度の勾配角度は、上記の式(1)により、以下に示すような値となる。
FIG. 10 is a diagram illustrating an example of luminance values inside and outside a cell in certain image data. In FIG. 10, a
In such a
図11は、セルの輝度勾配の角度の一例を示す図である。図11中の数値は各画素位置における輝度の勾配角度(単位は度)を示している。
また、セル80の各画素位置における輝度勾配の大きさは、上記の式(2)により、以下に示すような値となる。
FIG. 11 is a diagram illustrating an example of the angle of the luminance gradient of the cell. The numerical values in FIG. 11 indicate the brightness gradient angle (in degrees) at each pixel position.
Further, the magnitude of the luminance gradient at each pixel position of the
図12は、セルの輝度勾配の大きさの一例を示す図である。図12中の数値は各画素位置における輝度勾配の大きさを示している。
(ヒストグラム算出部54)
ヒストグラム算出部54は、所定の大きさのセルごとに区切られた画像データの、ある着目しているセルにおいて、輝度の勾配角度をデータ区間とし、画素数あるいは勾配の大きさの積算を度数とするヒストグラムを算出する。勾配方向の向きを無視する場合、輝度の勾配角度は、0度から180度の範囲となる。データ区間数をNDとすると、1つの区間の角度の範囲は、180/ND度となる。
FIG. 12 is a diagram illustrating an example of the magnitude of the luminance gradient of a cell. The numerical values in FIG. 12 indicate the magnitude of the luminance gradient at each pixel position.
(Histogram calculation unit 54)
The
ヒストグラム算出部54は、各区間に該当する勾配角度について、例えば、図3に示したように、対応する勾配の大きさを度数とするヒストグラムを算出する。
図11、図12に示したようなセル80の輝度の勾配角度及び大きさからは以下のようなヒストグラムが算出される。
For example, as shown in FIG. 3, the
The following histogram is calculated from the gradient angle and the magnitude of the brightness of the
図13は、ヒストグラムの一例を示す図である。横軸は勾配角度(度)、縦軸は度数を示している。
図13に示されるヒストグラムは、20度のデータ区間ごとの度数で示されている。このヒストグラムの例では、勾配角度が0〜20度のデータ区間における度数が最大であることから、セル80には垂直方向のエッジが最も多く含まれていることが分かる。
FIG. 13 is a diagram illustrating an example of a histogram. The horizontal axis indicates the gradient angle (degrees), and the vertical axis indicates the frequency.
The histogram shown in FIG. 13 is indicated by the frequency for each data interval of 20 degrees. In the example of this histogram, since the frequency in the data section having the gradient angle of 0 to 20 degrees is the maximum, it can be seen that the
(シフト部55)
シフト部55は、ヒストグラム算出部54が算出したヒストグラムのデータ区間を所定回数シフトして、ヒストグラムを変更する。ヒストグラムのデータ区間数をNDとすると、シフト回数NSは、0≦NS<ND、を満たす整数値で与えられる。
(Shift section 55)
The
例えば、前述のように、図3(B)に示したヒストグラムを4回シフトすると、図4の下図に示すようなヒストグラムが得られる。
(類似度算出部56)
類似度算出部56は、シフト部55でデータ区間がシフトされたセルのヒストグラムと、ヒストグラム算出部54で算出された他のセルのヒストグラムとの間の類似度を算出する。ここでは、以下に示すヒストグラムの重なり率を類似度として算出する。
For example, as described above, when the histogram shown in FIG. 3B is shifted four times, a histogram as shown in the lower diagram of FIG. 4 is obtained.
(Similarity calculation unit 56)
The
ヒストグラムの重なり率Sは、次式で表される。 The histogram overlap rate S is expressed by the following equation.
ここで、Hiはi番目のセルのヒストグラム、hk (i)はi番目のセルのヒストグラムのk番目のデータ区間の度数、Hjはj番目のセルのヒストグラム、hk (j)はj番目のヒストグラムのk番目のデータ区間の度数、NDはデータ区間の総数を示している。 Here, H i is the histogram of the i th cell, h k (i) is the frequency of the k th data interval of the histogram of the i th cell, H j is the histogram of the j th cell, and h k (j) is The frequency of the kth data section of the jth histogram, ND, indicates the total number of data sections.
(学習部57)
学習部57は、ヒストグラムの重なり率を特徴量として、正例画像(検出対象の物体がある画像)と負例画像(検出対象の物体がない画像)とを判別するためのクラス分類パラメータを算出する。クラス分類学習法として、Real Adaboost、サポートベクターマシン、決定木などの学習方法が適用可能である。
(Learning part 57)
The
(記憶部58)
記憶部58は、学習部57で算出されたクラス分類パラメータを格納する。記憶部58に格納されたクラス分類パラメータは、物体検出部59での物体検出時に参照される。
(Storage unit 58)
The
(物体検出部59)
物体検出部59は、類似度算出部56で算出された類似度を特徴量に用いて、記憶部58に格納されたクラス分類パラメータを参照して、画像データから検出対象の物体を検出する。
(Object detection unit 59)
The
以下、物体検出装置50の動作を説明する。まず、学習時の処理を説明する。
(学習処理)
なお、以下では、学習部57が、クラス分類学習法として、Real Adaboostを用いて学習を行う場合を例にして説明を行う。
Hereinafter, the operation of the
(Learning process)
In the following description, a case where the
図14は、学習処理の一例の流れを示すフローチャートである。
学習部57がクラス分類パラメータを算出するために、画像取得部51には、訓練画像データとして、正例及び負例の画像データが、例えば、それぞれ数百枚から数千枚入力される。正例の画像データは、検出対象の物体のみが写っている領域を切り出した画像データである。負例の画像データは、検出対象の物体が写っていない画像領域を切り出した画像データであり、正例の画像データと同じ画像サイズを持つ。
FIG. 14 is a flowchart illustrating an exemplary flow of the learning process.
In order for the
例えば、画像取得部51は、まず、訓練画像データの番号mを初期化(m=1)し(ステップS10)、m番目の訓練画像データを取得する(ステップS11)。
そして、ヒストグラム算出部54は、訓練画像データをセル単位に分割し、輝度勾配算出部53により算出される輝度勾配をもとに、全セルについて、輝度勾配のヒストグラムを算出する(ステップS12)。
For example, the
Then, the
図15は、セルの設定例を示す図である。
例えば、訓練画像データ90の画像サイズを横45画素、縦45画素とし、セルのサイズを5×5画素とすると、セルの総数は81個となる。
FIG. 15 is a diagram illustrating a cell setting example.
For example, if the image size of the
ヒストグラム算出部54は、例えば、訓練画像データ90の左上のセルを先頭として、各セルにセル番号ncellを割り振る。セル番号は、0≦ncell<Ncellの関係を満たす。ここで、Ncellは、セルの総数を示し、図15の例の場合、Ncell=81である。
For example, the
類似度算出部56は、これらのセルの中から2つのセルを選択して、ヒストグラムの類似度の算出を行うことになる。なお、2つのセルが同じセルである場合も許容するものとする。例えば、81個のセルから2つを選択する組み合わせの数(重複組み合わせ数)は、81H2=3321個である。
The
以下では、類似度算出部56が選択する2つのセルを第1のセル、第2のセルと呼ぶ。また、第1のセルのセル番号をncell1、第2のセルのセル番号をncell2とする。
Hereinafter, the two cells selected by the
類似度算出部56は、第1のセルのセル番号ncell1と、特徴量ベクトルの要素番号kを初期化する(ステップS13)。ここでは、類似度算出部56は、ncell1=0、k=0とする。
The
また、類似度算出部56は、第2のセルのセル番号ncell2を初期化する(ステップS14)。具体的には、類似度算出部56は、ncell2=ncell1とする。すなわち、初期状態では、ncell1=ncell2=0のセルが、第1のセル及び第2のセルとして選択される。
Moreover, the
続いてシフト部55は、シフト回数NSをNS=0と初期化し(ステップS15)、第2のセルのヒストグラムのデータ区間をNS回シフトする(ステップS16)。
その後、類似度算出部56は、式(3)より、第1のセルのヒストグラムと、NS回シフトした第2のセルのヒストグラムの重なり率S(Hncell1,Hncell2)を算出して、これを特徴量ベクトルvm(k)とする(ステップS17)。なお、Hncell1は、第1のセルのヒストグラム、Hncell2はNS回シフトした第2のセルのヒストグラムを示している。
Subsequently, the
After that, the
その後、シフト部55は、シフト回数NSをNS=NS+1と更新する(ステップS18)。そして、シフト部55は、シフト回数NSがヒストグラムのデータ区間数NDに達したか否かを判定する(ステップS19)。NS<NDである場合には、ステップS16からの処理が繰り返され、NS=NDとなった場合には、ステップS20の処理が行われる。
Thereafter, the
例えば、図3や図13で示したようなヒストグラムの場合、データ区間数NDは9である。この場合、シフト部55は、第2のセルに対して、9個のヒストグラムを生成することになる。
For example, in the case of a histogram as shown in FIG. 3 or FIG. In this case, the
シフト回数NSがデータ区間数NDに達した場合、類似度算出部56は、ncell2=ncell2+1として、第2のセルを更新する(ステップS20)。そして、類似度算出部56は、ncell2が、セルの総数Ncellに達したか否かを判定する(ステップS21)。ncell2<Ncellである場合には、ステップS15からの処理が繰り返され、ncell2=Ncellとなった場合には、ステップS22の処理が行われる。
When the number of shifts NS reaches the number of data sections ND, the
第2のセルのセル番号ncell2がセルの総数Ncellに達した場合、類似度算出部56は、ncell1=ncell1+1として、第1のセルを更新する(ステップS22)。そして、類似度算出部56は、ncell1が、セルの総数Ncellに達したか否かを判定する(ステップS23)。ncell1<Ncellである場合には、ステップS14からの処理が繰り返され、ncell1=Ncellとなった場合には、ステップS24の処理が行われる。
When the cell number ncell2 of the second cell reaches the total number Ncell of cells, the
図15に示した例の場合、ncell1=Ncell(=81)となった時点での特徴量ベクトルの次元数Dimは、ヒストグラムのデータ区間数NDを9とした場合、3321(第1のセルと第2のセルの重複組み合わせ数)×9=29889となる。すなわち、訓練画像データの枚数1枚当たり、次元数29889の特徴量ベクトルが算出される。 In the case of the example shown in FIG. 15, the dimension number Dim of the feature vector at the time when ncell1 = Ncell (= 81) is 3321 (the first cell and the number of data sections ND of the histogram is 9). The number of overlapping combinations of the second cells) × 9 = 29889. That is, a feature quantity vector having a dimension number of 29889 is calculated for each number of pieces of training image data.
次に、画像取得部51は、訓練画像データの番号mをm+1に更新する(ステップS24)。そして、画像取得部51は、訓練画像データの番号mが訓練画像データの総数M以下であるか否かを判定する(ステップS25)。m≦Mである場合には、ステップS11からの処理が繰り返される。訓練画像データの番号mが訓練画像データの総数Mを超えた場合、ステップS26の処理が行われる。
Next, the
ステップS25までの処理で算出された特徴量ベクトルは、学習部57に送られ、以下の処理が行われる。
学習部57は、特徴量ベクトルvm(k)の要素番号k(1≦k≦Dim)を固定し、訓練画像データの番号mを変えたときの特徴量ベクトルvm(k)の最大値VMAX(k)を算出する(ステップS26)。
The feature vector calculated in the process up to step S25 is sent to the
最大値VMAX(k)は、VMAX(k)=MAX(v1(k),v2(k),…,vM(k))で求められる。この式で、MAX()は、最大値を出力する関数である。
次に学習部57は、最大値VMAX(k)を用いて、特徴量ベクトルを正規化し、正規化特徴量ベクトルを求める(ステップS27)。
The maximum value V MAX (k) is obtained by V MAX (k) = MAX (v 1 (k), v 2 (k),..., V M (k)). In this equation, MAX () is a function that outputs the maximum value.
Next, the
正規化特徴量ベクトルは、[vm(1)/vMAX(1)…vm(k)/vMAX(k)…vm(Dim)/vMAX(Dim)]と表される。
その後、学習部57は、ヒストグラムのデータ区間数Pを用いて、正規化特徴量ベクトルを量子化して学習サンプルxmを得る(ステップS28)。
Normalized feature vector is expressed as [v m (1) / v MAX (1) ... v m (k) / v MAX (k) ... v m (Dim) / v MAX (Dim)].
Thereafter, the
学習サンプルxmは、以下の式で表される。 The learning sample x m is expressed by the following formula.
ここで、INT()は、小数点以下を切り捨てて、整数のみを出力する関数を示す。
式(4)により、xm(k)=j、0≦j<Pのように量子化が行われる。
さらに、学習部57は、番号mの訓練画像データが正例の場合には、ym=+1、負例の場合には、ym=−1とするラベルymを決定する。そして、学習部57は、学習サンプルxmと、ラベルymを組み合わせて学習用のデータセット{(x1,y1)…(xM,yM)}を生成する(ステップS29)。
Here, INT () indicates a function that rounds off the decimal part and outputs only an integer.
According to the equation (4), quantization is performed such that x m (k) = j and 0 ≦ j <P.
Furthermore, the
その後、学習部57は、各訓練画像データの重み値の更新と、正例と負例の分離性能が高い弱識別器の選択処理を行う(ステップS30)。
図16は、重み値の更新と弱識別器の選択処理の一例を示すフローチャートである。
Thereafter, the
FIG. 16 is a flowchart illustrating an example of weight value update and weak classifier selection processing.
t番目の学習で訓練画像データに対して適用される重み値をDt(m)、1<m≦Mとする。なお、重み値Dt(m)は、以下の関係を満たす。 The weight value applied to the training image data in the t-th learning is D t (m), 1 <m ≦ M. The weight value D t (m) satisfies the following relationship.
まず、学習部57は、訓練画像データの重み値D1(m)を、訓練画像データの総数Mを用いて、D1(m)=1/Mのように初期化する(ステップS31)。なお、学習部57は、訓練画像データの番号m、特徴量ベクトルの要素番号(以下弱識別器番号という場合もある)k、学習番号tについても、m=0、k=0、t=0と初期化する。
First, the
その後、学習部57は、学習サンプルxm(k)を、図14のステップS28の処理で求められた整数jに置換し(ステップS32)、要素数P個(ヒストグラムのデータ区間数)の1次元配列W±[j]に重み値Dt(m)を加算する(ステップS33)。学習部57は、訓練画像データが正例(ym=+1)の場合、W+[j]=W+[j]+Dt(m)を計算し、負例(ym=−1)の場合、W-[j]=W-[j]+Dt(m)を計算する。
After that, the
次に、学習部57は、訓練画像データの番号mをm=m+1と更新した後(ステップS34)、訓練画像データの番号mが、訓練画像データの総数Mより大きいか否かを判定する(ステップS35)。m>Mである場合には、ステップS36の処理が行われ、m≦Mの場合には、ステップS32からの処理が繰り返される。
Next, after updating the training image data number m to m = m + 1 (step S34), the
m>Mの場合、学習部57は、以下の式で、弱識別器を選択するための指標Zを算出する(ステップS36)。
When m> M, the
学習部57は、弱識別器番号kをk=k+1と更新し、訓練画像データの番号mをm=0とした後(ステップS37)、全ての弱識別器を調査したか否かを判定するために、k>Dimであるか否かを判定する(ステップS38)。k>Dimである場合には、ステップS39の処理が行われ、k≦Dimの場合には、ステップS32からの処理が繰り返される。
The
k>Dimの場合、学習部57は、最も小さな指標Zを与える弱識別器を選択し、そのときの弱識別器番号k(t)及び、1次元配列W+ (t)[j],W- (t)[j]を、学習番号tのクラス分類パラメータとして、記憶部58に保存する(ステップS39)。
When k> Dim, the
その後、学習部57は、次の学習で用いる訓練画像データ用に、重み値を次式で更新する(ステップS40)。
Thereafter, the
ここで、ht(x)は学習番号tでの弱識別器の出力を示し、以下の式で表される。 Here, ht (x) indicates the output of the weak classifier at the learning number t, and is expressed by the following equation.
ここで、ε=10-7である。
学習部57は、その後、学習番号tをt=t+1と更新し、訓練画像データの番号mをm=0、特徴量ベクトルの要素番号kをk=0とした後(ステップS41)、学習回数が所定の回数(T回)に達したか否かを判定する(ステップS42)。t<Tであれば、ステップS32からの処理が繰り返され、t≧Tであれば、学習部57は、学習処理を終了する。
Here, ε = 10 −7 .
After that, the
以上のような学習処理によって、記憶部58には、例えば、以下のようにクラス分類パラメータが格納される。
図17は、クラス分類パラメータの格納例を示す図である。
Through the learning process as described above, for example, the classification parameter is stored in the
FIG. 17 is a diagram illustrating a storage example of class classification parameters.
ここでは、学習番号tが0〜T−1までのクラス分類パラメータとして、弱識別器番号と、それぞれP個の要素数を持つ、正例の1次元配列と負例の1次元配列が格納されている例が示されている。 Here, a weak classifier number and a one-dimensional array of positive examples and a one-dimensional array of negative examples each having P number of elements are stored as class classification parameters for learning numbers t ranging from 0 to T-1. An example is shown.
物体検出部59は、図17に示されているようなクラス分類パラメータを用いて、物体検出を行う。
以下、物体検出処理の詳細を説明する。
The
Details of the object detection process will be described below.
(物体検出処理)
物体検出処理を実施する際、検出窓走査部52は、画像取得部51から入力された未知画像データ(例えば、画像サイズ=640×480画素)に、図8に示したような検出窓領域61を設定する。検出窓領域61は、例えば、訓練画像データと同一の画像サイズであり、上述の学習処理時の例では45×45画素である。
(Object detection processing)
When performing the object detection process, the detection
その後、検出窓領域61内の画像データが、学習時と同様の処理により、輝度勾配算出部53、ヒストグラム算出部54、シフト部55、類似度算出部56で処理されて、特徴量ベクトルが算出される。
Thereafter, the image data in the
物体検出部59は、検出窓走査部52での走査回数がm回目のとき、類似度算出部56で算出された特徴量ベクトルから、学習部57で行われた前述のステップS26〜S28と同様の処理を行い、量子化された特徴量ベクトルxm(k)を算出する。
When the number of scans by the detection
その後、物体検出部59は、以下に示すような処理を行う。
図18は、物体の有無を判別する処理の一例を示すフローチャートである。
まず、物体検出部59は、学習番号tをt=0、強識別器出力HをH=0と初期化する(ステップS50)。また、物体検出部59は、記憶部58から、学習番号tに対応する弱識別器番号k(t)を読み出す(ステップS51)。その後、物体検出部59は、量子化された特徴量ベクトルxm(k(t))を、整数jに置換する(ステップS52)。
Thereafter, the
FIG. 18 is a flowchart illustrating an example of processing for determining the presence or absence of an object.
First, the
さらに、物体検出部59は、記憶部58から、正例、負例の1次元配列W+ (t)[j],W- (t)[j]を読み出す(ステップS53)。その後、物体検出部59は、式(8)を用いて、弱識別器の出力htを計算する(ステップS54)。そして、物体検出部59は、H=H+htの計算を行うことで、強識別器に弱識別器の出力を加算する(ステップS55)。
Further, the
その後、物体検出部59は、学習番号tをt=t+1と更新し(ステップS56)、学習番号tが学習回数Tに達したか否かの判定を行う(ステップS57)。t≧Tであれば、ステップS58の判定処理が行われ、t<Tの場合には、ステップS51からの処理が繰り返される。
Thereafter, the
t≧Tの場合、物体検出部59は、強識別器出力Hが所定の閾値Hth以上であるか否かを判定する(ステップS58)。H≧Hthであれば、物体検出部59は、検出窓領域61内に対象の物体がある、という検出結果を出力し(ステップS59)、H<Hthであれば、物体検出部59は、対象の物体はない、という検出結果を出力する(ステップS60)。
When t ≧ T, the
以上のような物体検出処理では、画像データ中のあるセルにおける輝度勾配のヒストグラムと、他のセルにおけるデータ区間をシフトしたヒストグラムとの類似度を特徴量として画像中の物体検出を行う。そのため、光沢変化などの影響で輝度勾配ヒストグラム分布が変わっても、検出対象の物体と他の部分とを判別する特徴量が変化しにくくなる。これにより、物体の検出ミスを低減することができる。 In the object detection process as described above, the object detection in the image is performed using the similarity between the histogram of the luminance gradient in a certain cell in the image data and the histogram obtained by shifting the data section in the other cell as a feature amount. For this reason, even if the luminance gradient histogram distribution changes due to a change in gloss or the like, the feature quantity for discriminating the object to be detected from other parts is unlikely to change. As a result, object detection errors can be reduced.
また、検出窓内の、あるセルにおける輝度勾配のヒストグラムと、他のセルにおけるデータ区間をシフトしたヒストグラムとの類似度を算出して特徴量に用いるため、エッジの連結状態や離れたエッジ間の関連性を特徴量として表現でき、これらを考慮した物体検出が可能になる。 In addition, since the similarity between the histogram of the brightness gradient in a certain cell and the histogram obtained by shifting the data section in another cell is calculated and used as a feature amount in the detection window, the connected state of edges and the distance between distant edges Relevance can be expressed as a feature quantity, and object detection taking these into account becomes possible.
なお、上記の説明では、類似度算出部56は、ヒストグラムの重なり率を、式(3)を用いて求めたが、次式により求めるようにしてもよい。
In the above description, the
ここで、Hiはi番目のセルのヒストグラム、hk (i)はi番目のセルのヒストグラムのk番目のデータ区間の度数、Hjはj番目のセルのヒストグラム、hk (j)はj番目のヒストグラムのk番目のデータ区間の度数、NDはデータ区間の総数を示している。また、σは、以下の式で表される。 Here, H i is the histogram of the i th cell, h k (i) is the frequency of the k th data interval of the histogram of the i th cell, H j is the histogram of the j th cell, and h k (j) is The frequency of the kth data section of the jth histogram, ND, indicates the total number of data sections. Σ is expressed by the following equation.
max()は、括弧内の値の最大のものを出力する関数である。
式(9)のように、ヒストグラムの重なり率を、σを用いて正規化することで、重なり率は0〜1に正規化される。これにより、学習部57にて前述したステップS26,S27で行われるような特徴量ベクトルの正規化処理が不要となり、計算量を削減することができる。
max () is a function that outputs the maximum value in parentheses.
As shown in Expression (9), the overlap ratio is normalized to 0 to 1 by normalizing the overlap ratio of the histogram using σ. Thereby, the normalization processing of the feature amount vector as performed in the above-described steps S26 and S27 in the
ところで、上記のような物体検出装置1,50は、画像処理ボードなどであってもよいし、以下のようなコンピュータであってもよい。
図19は、本実施の形態に用いるコンピュータのハードウェアの一例を示す図である。コンピュータ100は、CPU(Central Processing Unit)101によって装置全体が制御されている。CPU101には、バス108を介してRAM(Random Access Memory)102と複数の周辺機器が接続されている。
Incidentally, the
FIG. 19 is a diagram illustrating an example of hardware of a computer used in this embodiment. The
RAM102は、コンピュータ100の主記憶装置として使用される。RAM102には、CPU101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、CPU101による処理に用いる各種データが格納される。
The
バス108に接続されている周辺機器としては、HDD103、グラフィック処理装置104、入力インタフェース105、光学ドライブ装置106、及び通信インタフェース107がある。
Peripheral devices connected to the
HDD103は、内蔵したディスクに対して、磁気的にデータの書き込み及び読み出しを行う。HDD103は、コンピュータ100の二次記憶装置として使用される。HDD103には、OSのプログラム、アプリケーションプログラム、及び各種データが格納される。なお、二次記憶装置としては、フラッシュメモリなどの半導体記憶装置を使用することもできる。
The
グラフィック処理装置104には、モニタ104aが接続されている。グラフィック処理装置104は、CPU101からの命令に従って、画像をモニタ104aの画面に表示させる。モニタ104aとしては、CRT(Cathode Ray Tube)を用いた表示装置や液晶表示装置などがある。
A
入力インタフェース105には、キーボード105aとマウス105bとが接続されている。入力インタフェース105は、キーボード105aやマウス105bから送られてくる信号をCPU101に送信する。なお、マウス105bは、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。
A
光学ドライブ装置106は、レーザ光などを利用して、光ディスク106aに記録されたデータの読み取りを行う。光ディスク106aは、光の反射によって読み取り可能なようにデータが記録された可搬型の記録媒体である。光ディスク106aには、DVD、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。
The
通信インタフェース107は、ネットワーク107aに接続されている。通信インタフェース107は、ネットワーク107aを介して、他のコンピュータまたは通信機器との間でデータの送受信を行う。
The
以上のようなハードウェアによって、本実施の形態の処理機能を実現することができる。
上記のように、本実施の形態の処理機能は、コンピュータによって実現することができる。その場合、物体検出装置1,50が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、HDD、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD、DVD−RAM、CD−ROM/RWなどがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。
The processing functions of the present embodiment can be realized by the hardware as described above.
As described above, the processing functions of the present embodiment can be realized by a computer. In that case, a program describing the processing contents of the functions that the
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When distributing the program, for example, a portable recording medium such as a DVD or a CD-ROM in which the program is recorded is sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. In addition, each time a program is transferred from a server computer connected via a network, the computer can sequentially execute processing according to the received program.
また、上記の処理機能の少なくとも一部を、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)などの電子回路で実現することもできる。 In addition, at least a part of the above processing functions can be realized by an electronic circuit such as a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic Device).
以上、実施の形態に基づき、本発明の物体検出装置、物体検出方法及びプログラムの一観点について説明してきたが、これらは一例にすぎず、上記の記載に限定されるものではない。 As described above, one aspect of the object detection device, the object detection method, and the program according to the present invention has been described based on the embodiments, but these are merely examples, and the present invention is not limited to the above description.
1 物体検出装置
2 画像取得部
3 輝度勾配算出部
4 ヒストグラム算出部
5 シフト部
6 類似度算出部
7 記憶部
8 物体検出部
DESCRIPTION OF
Claims (5)
所定の大きさの画像領域ごとに区切られた前記画像データの前記画像領域に対して、前記輝度勾配の所定の角度範囲ごとをデータ区間とするヒストグラムを算出するヒストグラム算出部と、
前記ヒストグラムの前記データ区間をシフトさせて前記ヒストグラムを変更するシフト部と、
前記シフト部で前記データ区間がシフトされた前記画像領域の前記ヒストグラムと、前記ヒストグラム算出部で算出された他の前記画像領域の前記ヒストグラムとの間の類似度を算出する類似度算出部と、
前記類似度を特徴量に用いて、前記画像データから検出対象の物体を検出する物体検出部と、
を有することを特徴とする物体検出装置。 A luminance gradient calculating unit for calculating a luminance gradient indicating a rate of change in luminance at a pixel in the image data;
A histogram calculation unit that calculates a histogram having a data interval for each predetermined angle range of the luminance gradient for the image area of the image data divided for each image area of a predetermined size;
A shift unit that changes the histogram by shifting the data section of the histogram;
A similarity calculation unit that calculates a similarity between the histogram of the image region in which the data section is shifted by the shift unit and the histogram of the other image region calculated by the histogram calculation unit;
An object detection unit that detects an object to be detected from the image data using the similarity as a feature amount;
An object detection apparatus comprising:
所定の大きさの画像領域ごとに区切られた前記画像データの前記画像領域に対して、前記輝度勾配の所定の角度範囲ごとをデータ区間とするヒストグラムを算出し、
前記ヒストグラムの前記データ区間をシフトさせて前記ヒストグラムを変更し、
前記データ区間がシフトされた前記画像領域の前記ヒストグラムと、他の前記画像領域の前記ヒストグラムとの間の類似度を算出し、
前記類似度を特徴量に用いて、前記画像データから検出対象の物体を検出することを特徴とする物体検出方法。 Calculate a luminance gradient indicating the rate of change in luminance at the pixels in the image data,
For the image area of the image data divided for each image area of a predetermined size, a histogram having a data interval for each predetermined angle range of the luminance gradient is calculated,
Changing the histogram by shifting the data section of the histogram;
Calculating a similarity between the histogram of the image region in which the data section is shifted and the histogram of the other image region;
An object detection method, wherein an object to be detected is detected from the image data using the similarity as a feature amount.
画像データ中の画素における輝度の変化率を示す輝度勾配を算出し、
所定の大きさの画像領域ごとに区切られた前記画像データの前記画像領域に対して、前記輝度勾配の所定の角度範囲ごとをデータ区間とするヒストグラムを算出し、
前記ヒストグラムの前記データ区間をシフトさせて前記ヒストグラムを変更し、
前記データ区間がシフトされた前記画像領域の前記ヒストグラムと、他の前記画像領域の前記ヒストグラムとの間の類似度を算出し、
前記類似度を特徴量に用いて、前記画像データから検出対象の物体を検出する処理を実行させるプログラム。 On the computer,
Calculate a luminance gradient indicating the rate of change in luminance at the pixels in the image data,
For the image area of the image data divided for each image area of a predetermined size, a histogram having a data interval for each predetermined angle range of the luminance gradient is calculated,
Changing the histogram by shifting the data section of the histogram;
Calculating a similarity between the histogram of the image region in which the data section is shifted and the histogram of the other image region;
A program for executing processing for detecting an object to be detected from the image data, using the similarity as a feature amount.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010247172A JP2012098983A (en) | 2010-11-04 | 2010-11-04 | Object detection device, object detection method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010247172A JP2012098983A (en) | 2010-11-04 | 2010-11-04 | Object detection device, object detection method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012098983A true JP2012098983A (en) | 2012-05-24 |
Family
ID=46390805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010247172A Pending JP2012098983A (en) | 2010-11-04 | 2010-11-04 | Object detection device, object detection method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012098983A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101515926B1 (en) * | 2013-10-08 | 2015-05-04 | 재단법인대구경북과학기술원 | Method for object detection and apparatus thereof |
EP3595298A4 (en) * | 2017-03-10 | 2020-12-30 | Tadano Ltd. | Human detection system for work vehicle, and work vehicle equipped with same |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6228882A (en) * | 1985-07-31 | 1987-02-06 | Fujitsu Ltd | Method for correcting angular deviation of image |
JP2004326693A (en) * | 2003-04-28 | 2004-11-18 | Sony Corp | Image recognition device and method as well as robot device |
JP2009070314A (en) * | 2007-09-18 | 2009-04-02 | Sony Corp | Image processor and image processing method, and program |
-
2010
- 2010-11-04 JP JP2010247172A patent/JP2012098983A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6228882A (en) * | 1985-07-31 | 1987-02-06 | Fujitsu Ltd | Method for correcting angular deviation of image |
JP2004326693A (en) * | 2003-04-28 | 2004-11-18 | Sony Corp | Image recognition device and method as well as robot device |
JP2009070314A (en) * | 2007-09-18 | 2009-04-02 | Sony Corp | Image processor and image processing method, and program |
Non-Patent Citations (3)
Title |
---|
CSNG200401294004; 平湯 秀和: 'グローバル特徴を用いた多視点パノラマレンジデータの統合手法の評価' 電子情報通信学会技術研究報告 Vol.102 No.555, 20030110, ページ31〜36, 社団法人電子情報通信学会 * |
JPN6015005932; 平湯 秀和: 'グローバル特徴を用いた多視点パノラマレンジデータの統合手法の評価' 電子情報通信学会技術研究報告 Vol.102 No.555, 20030110, ページ31〜36, 社団法人電子情報通信学会 * |
JPN7014001688; 池村翔: '距離情報に基づく局所特徴量によるリアルタイム人検出' 中部大学工学部情報工学科平成20年度卒業研究論文 , 200903 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101515926B1 (en) * | 2013-10-08 | 2015-05-04 | 재단법인대구경북과학기술원 | Method for object detection and apparatus thereof |
EP3595298A4 (en) * | 2017-03-10 | 2020-12-30 | Tadano Ltd. | Human detection system for work vehicle, and work vehicle equipped with same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9697416B2 (en) | Object detection using cascaded convolutional neural networks | |
JP6798619B2 (en) | Information processing equipment, information processing programs and information processing methods | |
US9646389B2 (en) | Systems and methods for image scanning | |
US11908183B2 (en) | Image analysis and processing pipeline with real-time feedback and autocapture capabilities, and visualization and configuration system | |
US20090141949A1 (en) | Method and apparatus for recognizing a plural number of faces, and method and apparatus for registering face, and an image capturing method and system | |
CN104424482A (en) | Image processing apparatus and image processing method | |
US9058655B2 (en) | Region of interest based image registration | |
WO2017114168A1 (en) | Method and device for target detection | |
CN111626349A (en) | Target detection method and system based on deep learning | |
WO2014074959A1 (en) | Real-time face detection using pixel pairs | |
CN108369649A (en) | Focus detection | |
US9734434B2 (en) | Feature interpolation | |
US20150058579A1 (en) | Systems and methods for memory utilization for object detection | |
US20220311910A1 (en) | Corner detection method and corner detection device | |
KR101982258B1 (en) | Method for detecting object and object detecting apparatus | |
JP2012098983A (en) | Object detection device, object detection method and program | |
CN113807407B (en) | Target detection model training method, model performance detection method and device | |
EP3985619A1 (en) | Automatic generation system of training image and method thereof | |
CN111382643A (en) | Gesture detection method, device, equipment and storage medium | |
JP2009204434A (en) | Target detection device, target detection method, and target detection program | |
US20190251703A1 (en) | Method of angle detection | |
CN111967403A (en) | Video moving area determining method and device and electronic equipment | |
Kuang et al. | Object tracking with collaborative extreme learning machines | |
JP6635149B2 (en) | Image processing device and imaging device | |
JP5396960B2 (en) | Image processing program, image processing method, and image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140610 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140811 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150217 |