Nothing Special   »   [go: up one dir, main page]

JP6289027B2 - Person detection device and program - Google Patents

Person detection device and program Download PDF

Info

Publication number
JP6289027B2
JP6289027B2 JP2013221348A JP2013221348A JP6289027B2 JP 6289027 B2 JP6289027 B2 JP 6289027B2 JP 2013221348 A JP2013221348 A JP 2013221348A JP 2013221348 A JP2013221348 A JP 2013221348A JP 6289027 B2 JP6289027 B2 JP 6289027B2
Authority
JP
Japan
Prior art keywords
feature
person
trajectory
unit
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013221348A
Other languages
Japanese (ja)
Other versions
JP2015082295A (en
Inventor
高橋 正樹
正樹 高橋
苗村 昌秀
昌秀 苗村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2013221348A priority Critical patent/JP6289027B2/en
Publication of JP2015082295A publication Critical patent/JP2015082295A/en
Application granted granted Critical
Publication of JP6289027B2 publication Critical patent/JP6289027B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、人物の存在を検出する人物検出装置、及び、その人物検出装置で実行されるプログラムに関する。   The present invention relates to a person detection device that detects the presence of a person and a program executed by the person detection device.

従来から、カメラ画像から人物を検出する技術がある。特許文献1には、カメラ映像に含まれる顔領域の情報を基に、人物を検出する装置が開示されている。特許文献2には、入力画像から人物の存在する領域を抽出し、抽出の結果に基づいて人物の存在を推定する装置が開示されている。特許文献3には、赤外線カメラを利用して、人物を検出する方法が記載されている。   Conventionally, there is a technique for detecting a person from a camera image. Patent Document 1 discloses an apparatus for detecting a person based on information on a face area included in a camera video. Patent Document 2 discloses an apparatus that extracts a region where a person exists from an input image and estimates the presence of the person based on the extraction result. Patent Document 3 describes a method for detecting a person using an infrared camera.

特開2005−234947号公報JP 2005-234947 A 特開2012−108785号公報JP 2012-108785 A 特開2002−202197号公報Japanese Patent Laid-Open No. 2002-202197

従来から存在する技術では、日常生活空間における人物の多種多様な姿勢及び振る舞いに対し、人物を検出することができない。   With existing technologies, it is not possible to detect a person for various postures and behaviors of the person in the daily life space.

本発明は、人物の姿勢等にかかわらず、人物を検出することができる人物検出装置を提供することを目的とする。
また、本発明は、人物検出装置において実行されるプログラムを提供することを目的とする。
An object of this invention is to provide the person detection apparatus which can detect a person irrespective of a person's attitude | position etc.
Another object of the present invention is to provide a program executed in a person detection device.

本発明は、動画に基づいて人物の存在を検出する人物検出装置であって、動画を取得する撮像部と、前記撮像部によって取得された動画の各フレームから特徴点を検出する特徴点検出部と、前記特徴点検出部によって検出された特徴点の軌跡に関する特徴量を取得し、特徴量を固定次元で記述する記述部と、前記記述部によって固定次元で記述された特徴量と、予め人物の有無が学習された特徴量とに基づいて、人物の存在を検出する人物検出部と、を備える人物検出装置に関する。   The present invention is a person detection device that detects the presence of a person based on a moving image, an imaging unit that acquires the moving image, and a feature point detection unit that detects a feature point from each frame of the moving image acquired by the imaging unit Acquiring a feature quantity related to the trajectory of the feature point detected by the feature point detection section, describing the feature quantity in a fixed dimension, a feature quantity described in the fixed dimension by the description section, and a person in advance The present invention relates to a person detection device including a person detection unit that detects the presence of a person based on a feature amount learned about the presence or absence of a person.

前記記述部は、特徴点の軌跡から、軌跡の動きベクトルの方向と長さとに基づく動き特徴と、軌跡を構成する各特徴点の周辺の輝度又は色ヒストグラムに基づく見え特徴と、軌跡の総移動量、軌跡の発生点から消滅点までの距離、全ての特徴点を包含する矩形の面積及びアスペクト、並びに、軌跡の発生から消滅までの時間のいずれかに基づく形状特徴と、を抽出することに基づいて、前記動き特徴と、前記見え特徴と、前記形状特徴とのそれぞれの特徴量を取得することが好ましい。   The description unit includes, from the trajectory of the feature point, a motion feature based on the direction and length of the motion vector of the trajectory, an appearance feature based on a luminance or color histogram around each feature point constituting the trajectory, and a total trajectory movement. To extract a shape feature based on any of the following: the amount, the distance from the origin of the trajectory to the disappearance point, the area and aspect of the rectangle encompassing all the feature points, and the time from the occurrence of the trajectory to the disappearance It is preferable that the feature amounts of the motion feature, the appearance feature, and the shape feature are acquired based on the feature feature.

前記特徴点検出部は、1つのフレームから複数の特徴点を検出することが好ましい。この場合、前記人物検出部は、機械学習の枠組みに基づいて人物の存在を検出する。   The feature point detector preferably detects a plurality of feature points from one frame. In this case, the person detection unit detects the presence of a person based on a machine learning framework.

人物検出装置は、前記人物検出部によって人物の存在が検出された場合、所定の表示を行う表示部を備えることが好ましい。   The person detection device preferably includes a display unit that performs a predetermined display when the presence of a person is detected by the person detection unit.

また、本発明は、動画に基づいて人物の存在を検出する人物検出装置おいて実行されるプログラムであって、動画の各フレームから特徴点を検出する第1ステップと、前記第1ステップにおいて検出された特徴点の軌跡に関する特徴量を取得し、特徴量を固定次元で記述する第2ステップと、前記第2ステップにおいて固定次元で記述された特徴量と、予め人物の有無が学習された特徴量とに基づいて、人物の存在を検出する第3ステップと、を実行するプログラムに関する。   In addition, the present invention is a program executed in a person detection device that detects the presence of a person based on a moving image, the first step detecting a feature point from each frame of the moving image, and the detection in the first step A second step of acquiring a feature amount related to the trajectory of the feature point and describing the feature amount in a fixed dimension; a feature amount described in a fixed dimension in the second step; And a third step of detecting the presence of a person based on the amount.

本発明によれば、人物の姿勢等にかかわらず、人物を検出することができる人物検出装置を提供することができる。本発明によれば、上記の人物検出装置において実行されるプログラムを提供することができる。   According to the present invention, it is possible to provide a person detection device that can detect a person regardless of the posture of the person. According to the present invention, it is possible to provide a program that is executed in the person detection device.

一実施形態に係る人物検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the person detection apparatus which concerns on one Embodiment. 特徴点の軌跡の一例を示す図である。It is a figure which shows an example of the locus | trajectory of a feature point. 動き特徴を得る場合の例について説明するための図である。It is a figure for demonstrating the example in the case of obtaining a motion characteristic. 変形例に係るラベル付けについて説明するための図である。It is a figure for demonstrating the labeling which concerns on a modification. 見え特徴を得る場合の例について説明するための図である。It is a figure for demonstrating the example in the case of obtaining an appearance feature. 固定次元を得る方法について説明するための図である。It is a figure for demonstrating the method of obtaining a fixed dimension. 人物の存在を検出することについて説明するための図である。It is a figure for demonstrating detecting the presence of a person.

以下、本発明の一実施形態について説明する。図1は、一実施形態に係る人物検出装置1の構成を示すブロック図である。図2は、特徴点の軌跡の一例を示す図である。   Hereinafter, an embodiment of the present invention will be described. FIG. 1 is a block diagram illustrating a configuration of a person detection device 1 according to an embodiment. FIG. 2 is a diagram illustrating an example of a trajectory of feature points.

人物検出装置1は、動画に基づいて人物の存在を検出する。すなわち、人物検出装置1は、映像から人物を検出する。図1に示すように、人物検出装置1は、撮像部11と、制御部12と、記憶部13と、表示部14と、を備える。
撮像部11は、動画を取得する。撮像部11は、動画を取得することが可能なカメラである。
The person detection device 1 detects the presence of a person based on a moving image. That is, the person detection device 1 detects a person from the video. As shown in FIG. 1, the person detection device 1 includes an imaging unit 11, a control unit 12, a storage unit 13, and a display unit 14.
The imaging unit 11 acquires a moving image. The imaging unit 11 is a camera that can acquire a moving image.

制御部12は、人物検出装置1を制御する。制御部12は、CPU(Central Processing Unit)であってよい。制御部12は、特徴点検出部121と、記述部122と、人物検出部123と、を備える。   The control unit 12 controls the person detection device 1. The control unit 12 may be a CPU (Central Processing Unit). The control unit 12 includes a feature point detection unit 121, a description unit 122, and a person detection unit 123.

特徴点検出部121は、撮像部11によって取得された動画の各フレームから特徴点を検出する。特徴点検出部121は、1つのフレームから複数の特徴点を検出する。特徴点は、例えば、フレームに記録された被写体のエッジ等である。特徴点検出部121は、既存の画像解析手法により特徴点を検出する。特徴点検出部121は、一例として、Harrisオペレータ等を用いて、フレーム内の特徴点を高速に検出する。一例として、特徴点検出部121は、1フレームあたり約200点の特徴点を検出することが可能である。なお、特徴点の検出方法は、上記の方法に限定されることはない。   The feature point detection unit 121 detects a feature point from each frame of the moving image acquired by the imaging unit 11. The feature point detection unit 121 detects a plurality of feature points from one frame. The feature point is, for example, the edge of the subject recorded in the frame. The feature point detection unit 121 detects feature points using an existing image analysis method. As an example, the feature point detection unit 121 detects feature points in a frame at high speed using a Harris operator or the like. As an example, the feature point detection unit 121 can detect about 200 feature points per frame. Note that the method of detecting feature points is not limited to the above method.

記述部122は、特徴点検出部121によって検出された特徴点の軌跡に関する特徴量を取得し、特徴量を固定次元で記述する。すなわち、記述部122は、特徴点検出部121によって検出された特徴点それぞれを、複数のフレームにわたって追跡する。記述部122は、一例として、Lucas−Kanade法に代表されるオプティカルフロー算出法を用いて、隣接フレームでの特徴点のマッチングを行い、特徴点の発生から消滅まで特徴点を追跡する。この方法はKanade−Lucas−Tomasi(KLT)トラッカとして一般的に用いられている。これにより、複数のフレームにわたって特徴点21が移動する場合には、記述部122は、特徴点の軌跡22を得る(図2参照)。特徴点検出部121において特徴点を検出するためのパラメータ変化に応じて、記述部122が得る特徴点の軌跡の数も変化する。なお、特徴点の軌跡の取得方法は、上記の方法に限定されることはない。   The description unit 122 acquires a feature amount related to the trajectory of the feature point detected by the feature point detection unit 121, and describes the feature amount in a fixed dimension. That is, the description unit 122 tracks each feature point detected by the feature point detection unit 121 over a plurality of frames. As an example, the description unit 122 performs matching of feature points in adjacent frames using an optical flow calculation method typified by the Lucas-Kanade method, and tracks feature points from generation to disappearance of feature points. This method is commonly used as a Kanade-Lucas-Tomasi (KLT) tracker. Thereby, when the feature point 21 moves over a plurality of frames, the description unit 122 obtains a trajectory 22 of the feature point (see FIG. 2). The number of feature point trajectories obtained by the description unit 122 also changes in accordance with a parameter change for detecting the feature point in the feature point detection unit 121. Note that the method of acquiring the trajectory of the feature point is not limited to the above method.

記述部122は、特徴点の軌跡から、動き特徴と、見え特徴と、形状特徴と、を抽出する。記述部122は、動き特徴と、見え特徴と、形状特徴と、を抽出することに基づいて、動き特徴と、見え特徴と、形状特徴とのそれぞれの特徴量を取得する。   The description unit 122 extracts motion features, appearance features, and shape features from the trajectory of feature points. The description unit 122 acquires the feature amounts of the motion feature, the appearance feature, and the shape feature based on the extraction of the motion feature, the appearance feature, and the shape feature.

動き特徴は、軌跡の動きベクトルの方向と長さとに基づく特徴である。図3は、動き特徴を得る場合の例について説明するための図である。記述部122は、図3(A)に示す特徴点の軌跡を、フレーム単位の動きベクトルに分割する(図3(B)参照)。そして、記述部122は、分割した動きベクトルそれぞれについて、方向及び長さに応じたラベル付けを行う(図3(C)参照)。図3(C)に例示する場合では、方向は8通りであり、長さは4通り(長さ0を含む)である。図3(C)に例示する場合では、動きベクトルは、25通り(「方向8通り」×「長さ3通り」+「長さ0の1通り」)のラベル付けがなされる。記述部122は、ラベル付けに基づいて、頻度ヒストグラムを作成する(図3(D)参照)。図3に示す場合、ヒストグラムは、25次元となっている。記述部122は、各ラベルのヒストグラムを、特徴点の軌跡の動きに関する特徴量とする。動き特徴に関しては、bin数固定のヒストグラムへと変換される。   The motion feature is a feature based on the direction and length of the motion vector of the trajectory. FIG. 3 is a diagram for explaining an example of obtaining a motion feature. The description unit 122 divides the trajectory of feature points shown in FIG. 3A into motion vectors in units of frames (see FIG. 3B). The description unit 122 then labels each of the divided motion vectors according to the direction and length (see FIG. 3C). In the case illustrated in FIG. 3C, there are 8 directions and 4 lengths (including 0 length). In the case illustrated in FIG. 3C, 25 motion vectors are labeled (“8 ways” × “3 ways in length” + “1 way in length 0”). The description unit 122 creates a frequency histogram based on the labeling (see FIG. 3D). In the case shown in FIG. 3, the histogram has 25 dimensions. The description unit 122 uses the histogram of each label as a feature amount related to the movement of the trajectory of the feature point. The motion feature is converted into a histogram with a fixed number of bins.

記述部122は、1フレームのサイズ(撮像部11の撮像サイズ)によって動きベクトルの長さが変化するのを避けるために、各軌跡内の動きベクトルの平均長及び分散を指標として分割数を設定することが可能である。記述部122は、動きベクトルの方向及び長さの分割数に応じて、次元数を任意に設定することができる。図4は、変形例に係るラベル付けについて説明するための図である。例えば、動きベクトルの方向(D)を4通り、動きベクトルの長さ(L)を3通り(長さ0を含む)としてラベル付けを行うことが可能である(図4(A)参照)。図4(A)に示す場合、9次元のヒストグラムが得られる。また、例えば、動きベクトルの方向(D)を16通り、動きベクトルの長さ(L)を5通り(長さ0を含む)としてラベル付けを行うことが可能である(図4(B)参照)。図4(B)に示す場合、65次元のヒストグラムが得られる。さらに、記述部122は、異なる分割領域から作成したヒストグラムを複数まとめて特徴量化することで、特徴点の大局的な動きと微小動作の双方を考慮した特徴量とすることが可能である。   The description unit 122 sets the number of divisions using the average length and variance of the motion vectors in each trajectory as indices, in order to avoid changing the length of the motion vector depending on the size of one frame (imaging size of the imaging unit 11). Is possible. The description unit 122 can arbitrarily set the number of dimensions according to the direction and length division number of the motion vector. FIG. 4 is a diagram for explaining labeling according to the modification. For example, it is possible to perform labeling with four motion vector directions (D) and three motion vector lengths (L) (including length 0) (see FIG. 4A). In the case shown in FIG. 4A, a nine-dimensional histogram is obtained. Further, for example, it is possible to perform labeling with 16 motion vector directions (D) and 5 motion vector lengths (L) (including length 0) (see FIG. 4B). ). In the case shown in FIG. 4B, a 65-dimensional histogram is obtained. Further, the description unit 122 can collect a plurality of histograms created from different divided areas and convert them into feature quantities, thereby making it possible to obtain a feature quantity that takes into account both a global movement of feature points and a minute movement.

見え特徴は、軌跡を構成する各特徴点の周辺の輝度又は色ヒストグラムに基づく特徴である。記述部122は、各特長点の周辺、例えば、16×16画素領域に対し、各画素の輝度又は色に関するヒストグラムを作成する。輝度又は色空間の分割方法は任意である。図5は、見え特徴を得る場合の例について説明するための図である。図5に例示すように、記述部122は、特徴点の周囲(正方形の領域)の色を、RGB色空間で27分割したいずれかの領域に当てはめる。27分割は、Rが3通り、Gが3通り、Bが3通りである。記述部122は、当てはめた結果に基づいて、頻度ヒストグラムを作成する。図5に例示する場合、ヒストグラムは27次元となっている。記述部122は、ヒストグラムを、特徴点の軌跡の見えに関する特徴量とする。見え特徴に関しては、bin数固定のヒストグラムへと変換される。   The appearance feature is a feature based on a luminance or color histogram around each feature point constituting the trajectory. The description unit 122 creates a histogram related to the luminance or color of each pixel in the vicinity of each feature point, for example, a 16 × 16 pixel region. The method of dividing the luminance or color space is arbitrary. FIG. 5 is a diagram for describing an example of obtaining appearance features. As illustrated in FIG. 5, the description unit 122 applies the color around the feature point (square area) to any area divided into 27 in the RGB color space. In 27 divisions, there are 3 ways for R, 3 ways for G, and 3 ways for B. The description unit 122 creates a frequency histogram based on the fitted result. In the case illustrated in FIG. 5, the histogram has 27 dimensions. The description unit 122 uses the histogram as a feature amount regarding the appearance of the trajectory of the feature point. The appearance feature is converted into a histogram with a fixed number of bins.

また、記述部122は、色情報のヒストグラムの代わりに、輝度の勾配情報に着目し、例えばLocal Binary Pattern等の輝度勾配特徴ヒストグラムを作成してもよい。見えに関するヒストグラムは、特徴点の軌跡フレーム数分作成されるが、ヒストグラムを軌跡単位で平均化することにより、特定フレームでのノイズの影響を抑えた特徴量となる。また、記述部122は、軌跡上の数点のみのヒストグラムで平均化し、計算量を節約してもよい。   Further, the description unit 122 may create a luminance gradient feature histogram such as a Local Binary Pattern by paying attention to luminance gradient information instead of the color information histogram. Histograms relating to appearance are created for the number of trajectory frames of feature points. By averaging the histograms in units of trajectories, the amount of feature is reduced while suppressing the influence of noise in a specific frame. Moreover, the description part 122 may average by the histogram of only several points on a locus | trajectory, and may save calculation amount.

形状特徴は、軌跡の総移動量、軌跡の発生点から消滅点までの距離、全ての特徴点を包含する矩形の面積及びアスペクト、並びに、軌跡の発生から消滅までの時間のいずれかに基づく特徴である。軌跡の総移動量は、各軌跡の動きベクトル長の総和に基づいて得られる。発生点から消滅点までの距離は、特徴点についての初回検出位置から特徴点についての最終検出位置までの距離に基づいて得られる。   A shape feature is a feature based on any of the total amount of movement of the trajectory, the distance from the origination point of the trajectory to the disappearance point, the area and aspect of the rectangle encompassing all the feature points, and the time from the occurrence of the trajectory to the disappearance. It is. The total movement amount of the trajectory is obtained based on the sum of the motion vector lengths of the trajectories. The distance from the generation point to the disappearance point is obtained based on the distance from the initial detection position for the feature point to the final detection position for the feature point.

上記の総移動量及び距離は、1フレームのサイズ(撮像部11の撮像サイズ)の影響を受ける。このため、下記の式(1)に示すように、フレームのサイズ(カメラ映像の画像幅)で正規化する。
Li=li/W …(1)
ここで、liはLi正規化前・後の移動量であり、Wはカメラ映像の画像幅である。記述部122は、正規化することにより、撮像部11を利用する上においては、撮像サイズの影響を受けずに形状特徴を算出することができる。
The total movement amount and distance are affected by the size of one frame (the imaging size of the imaging unit 11). For this reason, normalization is performed by the size of the frame (image width of the camera video) as shown in the following equation (1).
Li = li / W (1)
Here, li is the movement amount before and after Li normalization, and W is the image width of the camera video. The description unit 122 can calculate the shape feature without being influenced by the imaging size when using the imaging unit 11 by normalization.

図6は、固定次元を得る方法について説明するための図である。記述部122は、上述したように各特長量(軌跡特徴)を取得すると、一定時間内の各特長量を特徴空間に投射する。特徴空間では、分布作成に有効なコードワード中心が任意数定められている。記述部122は、特徴空間に投射された特徴量を最も近いコードワードに帰属させ、コードワード毎の特徴量の数をカウントして、頻度ヒストグラムを作成する。その頻度ヒストグラムは、特徴表現となり、固定次元の特徴量となる。なお、各特徴点の軌跡の時間長は不定である。後述する人物検出部123で用いられるBag−of−featuresの枠組みでは、各特徴量を固定次元に揃える必要がある。   FIG. 6 is a diagram for explaining a method of obtaining a fixed dimension. When the description unit 122 acquires each feature amount (trajectory feature) as described above, the description unit 122 projects each feature amount within a predetermined time onto the feature space. In the feature space, an arbitrary number of codeword centers effective for creating a distribution are determined. The description unit 122 assigns the feature amount projected to the feature space to the nearest code word, counts the number of feature amounts for each code word, and creates a frequency histogram. The frequency histogram becomes a feature expression and a fixed dimension feature amount. Note that the time length of the trajectory of each feature point is indefinite. In the Bag-of-features framework used by the person detection unit 123 described later, it is necessary to align each feature amount in a fixed dimension.

図7は、人物の存在を検出することについて説明するための図である。人物検出部123は、記述部122によって固定次元で記述された特徴量と、予め人物の有無が学習された特徴量とに基づいて、人物の存在を検出する。人物検出部123は、機械学習の枠組みに基づいて人物の存在を検出する。人物検出部123では、例えば、Support vector machine(SVM)又はAdaBoost等の教師付き機械学習の枠組みで識別器が作成されている。学習フェーズにおいては、特徴表現に「存在」又は「不存在」の正解データを与えて学習させている。人物検出部123において検出の判断基準となる特徴量は、記憶部13に記憶されている。運用フェーズでは、人物検出部123は、入力された固定次元の特徴量と、学習フェーズにおける学習とに基づいて、人物の存在又は人物の不存在を判断する。   FIG. 7 is a diagram for explaining the detection of the presence of a person. The person detection unit 123 detects the presence of a person based on the feature amount described in a fixed dimension by the description unit 122 and the feature amount for which the presence / absence of a person has been learned in advance. The person detection unit 123 detects the presence of a person based on a machine learning framework. In the person detection unit 123, for example, a discriminator is created in a supervised machine learning framework such as Support vector machine (SVM) or AdaBoost. In the learning phase, learning is performed by giving correct data of “existence” or “absence” to the feature expression. A feature amount that is a determination criterion for detection in the person detection unit 123 is stored in the storage unit 13. In the operation phase, the person detection unit 123 determines the presence or absence of a person based on the input fixed-dimension feature value and the learning in the learning phase.

表示部14は、人物検出部123によって人物の存在が検出された場合、所定の表示を行うことが好ましい。一例として、表示部14は、人物が存在していることを示す文字又は画像を表示する。   The display unit 14 preferably performs a predetermined display when the presence of a person is detected by the person detection unit 123. As an example, the display unit 14 displays a character or an image indicating that a person exists.

[比較例]
次に、比較例について説明する。第1比較例は、カメラ及び深度センサを用いた検出装置(第1検出装置)である。第1検出装置は、被写体及び深度センサにより被写体の顔を検出することに基づいて、人物を検出する。第2比較例は、カメラを用いた検出装置である(第2検出装置)。第2検出装置は、カメラにより被写体の顔を検出することに基づいて、人物を検出する。第2検出装置は、一般的な顔検出方法を利用する。表1は、第1比較例、第2比較例、及び本実施形態の人物検出装置1で人物を検出した場合についての比較である。
[Comparative example]
Next, a comparative example will be described. The first comparative example is a detection device (first detection device) using a camera and a depth sensor. The first detection device detects a person based on detecting the face of the subject by the subject and the depth sensor. The second comparative example is a detection device using a camera (second detection device). The second detection device detects a person based on detecting the face of the subject by the camera. The second detection device uses a general face detection method. Table 1 is a comparison for the case where a person is detected by the first comparative example, the second comparative example, and the person detection device 1 of the present embodiment.

Figure 0006289027
Figure 0006289027

第1比較例及び第2比較例では、適合率が100%である。このため、第1比較例及び第2比較例では、顔を検出した場合には、正確に人物が存在していると判定している。しかしながら、第1比較例及び第2比較例の再現性は、本実施形態の再現性よりも低く、検出漏れが多く生じている。第1比較例及び第2比較例では、顔検出に基づいて人物を検出しているため、人物が横や後ろを向いた場合には見逃すことが多く、様々な角度で人物が行動する環境においては、高い再現性が得られなかった。一方、本実施形態では、再現性及び適合率ともに高い値が得られている。さらに、本実施形態では、適合率と再現性の調和平均であるF値が、第1比較例及び第2比較例よりも高い値となった。本実施形態は、第1比較例及び第2比較例と異なり顔検出が不要なため、被写体のどのような向きでも人物を検出することができる。また、本実施形態は、特徴点が移動する軌跡の単位で学習しているため、様々な見え方に対応することができる。また、本実施形態は、特徴点の微細な動きが人物の検出に寄与しているため、高い精度で人物を検出することができる。   In the first comparative example and the second comparative example, the matching rate is 100%. For this reason, in the first comparative example and the second comparative example, when a face is detected, it is determined that a person is present accurately. However, the reproducibility of the first comparative example and the second comparative example is lower than the reproducibility of the present embodiment, and many detection omissions occur. In the first comparative example and the second comparative example, since the person is detected based on the face detection, it is often overlooked when the person turns sideways or backward, and in an environment where the person acts at various angles. The high reproducibility was not obtained. On the other hand, in this embodiment, high values are obtained for both reproducibility and precision. Furthermore, in the present embodiment, the F value, which is a harmonic average of the precision and reproducibility, is higher than those in the first comparative example and the second comparative example. In the present embodiment, unlike the first comparative example and the second comparative example, face detection is not required, and therefore a person can be detected in any orientation of the subject. In addition, since the present embodiment learns in units of trajectories along which the feature points move, it can deal with various appearances. In the present embodiment, since the minute movement of the feature points contributes to the detection of the person, it is possible to detect the person with high accuracy.

上述した人物検出装置1は、動画を取得する撮像部11と、撮像部11によって取得された動画の各フレームから特徴点を検出する特徴点検出部121と、特徴点検出部121によって検出された特徴点の軌跡に関する特徴量を取得し、特徴量を固定次元で記述する記述部122と、記述部122によって固定次元で記述された特徴量と、予め人物の有無が学習された特徴量とに基づいて、人物の存在を検出する人物検出部123と、を備える。このように、人物検出装置1は、特徴点の軌跡に基づいて人物の存在又は人物の不存在を判断するので、人物の姿勢等にかかわらず、人物を検出することができる。すなわち、人物検出装置1は、人物が撮像部11に対して任意の角度に位置しても、人物を検出することができる。また、人物検出装置1は、特徴点を利用するので、人物が僅かに動く場合であっても、高い精度で人物を検出することができる。また、人物検出装置1は、一般に広く利用可能な安価なカメラデバイスを用いて、人物を検出することができる。   The person detection device 1 described above is detected by the imaging unit 11 that acquires a moving image, the feature point detection unit 121 that detects a feature point from each frame of the moving image acquired by the imaging unit 11, and the feature point detection unit 121. The feature amount related to the trajectory of the feature point is acquired, and the description portion 122 describing the feature amount in a fixed dimension, the feature amount described in the fixed dimension by the description portion 122, and the feature amount in which the presence / absence of a person is learned in advance And a person detection unit 123 that detects the presence of a person. Thus, since the person detection apparatus 1 determines the presence of a person or the absence of a person based on the trajectory of feature points, the person detection apparatus 1 can detect a person regardless of the posture of the person. That is, the person detection device 1 can detect a person even if the person is located at an arbitrary angle with respect to the imaging unit 11. Moreover, since the person detection device 1 uses feature points, even if the person moves slightly, the person detection apparatus 1 can detect the person with high accuracy. In addition, the person detection apparatus 1 can detect a person using an inexpensive camera device that is generally widely available.

このような人物検出装置1は、例えば、次のような用途で利用できる。すなわち、人物検出装置1は、監視カメラで撮影された画像からの人物検出、職場でのVisual Display Terminals(VDT)作業、家庭におけるテレビジョンの視聴状況を解析する際の人物検出等に利用できる。
また、人物検出装置1は、人物を検出するばかりでなく、学習を行うことにより、人物の動作を検出することもできる。例えば、人物検出装置1は、人物が食事をしている又は新聞を読んでいる等を検出することもできる。また、人物検出装置1は、例えば、人物が野球をしている(投球をしている)又はバスケットボールをしている(シュートをしている)等を検出することもできる。
また、人物検出装置1は、人物を検出するばかりでなく、学習を行うことにより、動物を検出することもできる。
Such a person detection device 1 can be used for the following purposes, for example. That is, the person detection device 1 can be used for detecting a person from an image taken by a surveillance camera, visual display terminals (VDT) work at work, detecting a person when analyzing a television viewing situation at home, and the like.
In addition, the person detection device 1 can detect not only a person but also a person's motion by learning. For example, the person detection device 1 can also detect that a person is eating or reading a newspaper. The person detection device 1 can also detect, for example, whether a person is playing baseball (throwing) or playing basketball (shooting).
Moreover, the person detection apparatus 1 can detect not only a person but also an animal by learning.

なお、本発明は、プログラムとして構成されてもよい。プログラムは、上述した人物検出装置1、すなわち、コンピュータにおいて実行される。プログラムは、第1ステップと、第2ステップと、第3ステップと、を順に実行する。第1ステップは、動画の各フレームから特徴点を検出する。第2ステップは、第1ステップにおいて検出された特徴点の軌跡に関する特徴量を取得し、特徴量を固定次元で記述する。第3ステップは、第2ステップにおいて固定次元で記述された特徴量と、予め人物の有無が学習された特徴量とに基づいて、人物の存在を検出する。プログラムは、人物検出装置1、すなわち、コンピュータで読み取り可能な記録媒体に記録されていてもよい。記録媒体とは、例えば、フレキシブルディスク、光ディスク、メモリ、又はハードディスク等のことである。   The present invention may be configured as a program. The program is executed in the above-described person detection device 1, that is, a computer. The program sequentially executes a first step, a second step, and a third step. The first step detects feature points from each frame of the moving image. In the second step, a feature amount related to the trajectory of the feature point detected in the first step is acquired, and the feature amount is described in a fixed dimension. In the third step, the presence of a person is detected based on the feature amount described in the fixed dimension in the second step and the feature amount learned in advance. The program may be recorded on the person detection device 1, that is, a computer-readable recording medium. The recording medium is, for example, a flexible disk, an optical disk, a memory, a hard disk, or the like.

1 人物検出装置
11 撮像部
14 表示部
121 特徴点検出部
122 記述部
123 人物検出部
DESCRIPTION OF SYMBOLS 1 Person detection apparatus 11 Imaging part 14 Display part 121 Feature point detection part 122 Description part 123 Person detection part

Claims (5)

任意の動画に基づいて人物の存在の有無を検出する人物検出装置であって、
動画を取得する撮像部と、
前記撮像部によって取得された動画の各フレームから特徴点を検出する特徴点検出部と、
前記特徴点検出部によって検出された特徴点の軌跡を取得し、前記特徴点の軌跡に基づいて、前記軌跡の時間軸上の特徴である動き特徴、前記軌跡の周辺の画像特徴である見え特徴、及び前記軌跡の概形特徴である形状特徴の特徴量それぞれ固定次元で記述する記述部と、
前記記述部によって固定次元で記述された動き特徴、見え特徴、及び形状特徴の特徴量を入力して、人物の存在の有無を検出する人物検出部と、
を備え、
前記人物検出部は、
予め、人物の存在する動画又は人物の存在しない動画により作成された前記動き特徴、見え特徴、及び形状特徴の特徴量を入力データとし、当該動画における人物の存在の有無を正解データとする教師付き機械学習をさせて作成された識別器を含む、
人物検出装置。
A person detection device that detects the presence or absence of a person based on an arbitrary video,
An imaging unit for acquiring a video;
A feature point detection unit that detects a feature point from each frame of the moving image acquired by the imaging unit;
Get the trajectories of the feature points detected by the feature point detecting unit, based on the trajectory of the feature point, which is characteristic motion characteristic on the time axis of the trajectory, an image characteristic of the periphery of the track visible features and described description unit in the fixed dimension of the feature quantity of shape features is and envelope characteristics of the track,
A human detection unit for detecting presence / absence of a person by inputting feature amounts of motion features, appearance features, and shape features described in a fixed dimension by the description unit;
With
The person detection unit
Supervised by using the motion feature, appearance feature, and shape feature feature values created in advance as a moving image in which a person is present or a moving image in which a person is not present as input data, and the presence or absence of a person in the moving image as correct data Including a classifier created by machine learning,
Human detection device.
前記記述部は、特徴点の軌跡から、
軌跡の動きベクトルの方向と長さとに基づく動き特徴と、
軌跡を構成する各特徴点の周辺の輝度又は色ヒストグラムに基づく見え特徴と、
軌跡の総移動量、軌跡の発生点から消滅点までの距離、全ての特徴点を包含する矩形の面積及びアスペクト、並びに、軌跡の発生から消滅までの時間のいずれかに基づく形状特徴と、
を抽出することに基づいて、前記動き特徴と、前記見え特徴と、前記形状特徴とのそれぞれの特徴量を取得する、請求項1に記載の人物検出装置。
From the trajectory of feature points, the description section
Motion features based on the direction and length of the motion vector of the trajectory;
Appearance features based on luminance or color histograms around each feature point constituting the trajectory;
A shape feature based on any of the total amount of movement of the trajectory, the distance from the occurrence point of the trajectory to the disappearance point, the area and aspect of the rectangle encompassing all the feature points, and the time from the occurrence of the trajectory to the disappearance,
The person detection apparatus according to claim 1, wherein the feature amount of each of the motion feature, the appearance feature, and the shape feature is acquired based on extracting the motion feature.
前記特徴点検出部は、1つのフレームから複数の特徴点を検出し、
前記人物検出部は、機械学習の枠組みに基づいて人物の存在を検出する、請求項1又は2に記載の人物検出装置。
The feature point detection unit detects a plurality of feature points from one frame,
The person detection device according to claim 1, wherein the person detection unit detects the presence of a person based on a machine learning framework.
前記人物検出部によって人物の存在が検出された場合、所定の表示を行う表示部を備える、請求項1から3のいずれか1項に記載の人物検出装置。   The person detection apparatus according to claim 1, further comprising a display unit configured to perform a predetermined display when the presence of a person is detected by the person detection unit. コンピュータを、請求項1乃至請求項4のいずれか1項に記載の人物検出装置の各機能部として機能させるためのプログラム。The program for functioning a computer as each function part of the person detection apparatus of any one of Claim 1 thru | or 4.
JP2013221348A 2013-10-24 2013-10-24 Person detection device and program Active JP6289027B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013221348A JP6289027B2 (en) 2013-10-24 2013-10-24 Person detection device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013221348A JP6289027B2 (en) 2013-10-24 2013-10-24 Person detection device and program

Publications (2)

Publication Number Publication Date
JP2015082295A JP2015082295A (en) 2015-04-27
JP6289027B2 true JP6289027B2 (en) 2018-03-07

Family

ID=53012834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013221348A Active JP6289027B2 (en) 2013-10-24 2013-10-24 Person detection device and program

Country Status (1)

Country Link
JP (1) JP6289027B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102159326B1 (en) * 2018-12-06 2020-09-23 주식회사 마이더스터치 System and Device for learning creator's style
US11443652B2 (en) 2020-12-02 2022-09-13 Pabloarts Company Inc. Terminal and system for learning artist's style
JP7135133B2 (en) 2021-02-16 2022-09-12 レノボ・シンガポール・プライベート・リミテッド Information processing device and control method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4787424B2 (en) * 2001-06-01 2011-10-05 財団法人エヌエイチケイエンジニアリングサービス Video object detection and tracking device
JP4040651B2 (en) * 2005-12-02 2008-01-30 株式会社日立製作所 Camera shake correction method and image system
JP4728795B2 (en) * 2005-12-15 2011-07-20 日本放送協会 Person object determination apparatus and person object determination program
JP5709367B2 (en) * 2009-10-23 2015-04-30 キヤノン株式会社 Image processing apparatus and image processing method
JP5604256B2 (en) * 2010-10-19 2014-10-08 日本放送協会 Human motion detection device and program thereof

Also Published As

Publication number Publication date
JP2015082295A (en) 2015-04-27

Similar Documents

Publication Publication Date Title
CN105631399B (en) Fast object tracking framework for sports video recognition
JP6525453B2 (en) Object position estimation system and program thereof
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
US10893207B2 (en) Object tracking apparatus, object tracking method, and non-transitory computer-readable storage medium for storing program
US10212324B2 (en) Position detection device, position detection method, and storage medium
US9390506B1 (en) Selective object filtering and tracking
US11037325B2 (en) Information processing apparatus and method of controlling the same
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
US20160260226A1 (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
US9672634B2 (en) System and a method for tracking objects
JP5703194B2 (en) Gesture recognition apparatus, method thereof, and program thereof
KR20180054808A (en) Motion detection within images
US10181075B2 (en) Image analyzing apparatus,image analyzing, and storage medium
JP4764172B2 (en) Method for detecting moving object candidate by image processing, moving object detecting method for detecting moving object from moving object candidate, moving object detecting apparatus, and moving object detecting program
CN109977824B (en) Article taking and placing identification method, device and equipment
JP5656768B2 (en) Image feature extraction device and program thereof
Saif et al. Moment feature based fast feature extraction algorithm for moving object detection using aerial images
JP6289027B2 (en) Person detection device and program
US20180260960A1 (en) Method and apparatus for assisted object selection in video sequences
US20200005471A1 (en) Image detection device, image detection method and storage medium storing program
KR101438451B1 (en) Method of providing fast detection of moving objects from non-stationary camera video by dual-mode SGM, and computer-readable recording medium for the same
Tsoi et al. Real-time object tracking based on colour feature and perspective projection
JP5838112B2 (en) Method, program and apparatus for separating a plurality of subject areas
Hiltunen et al. Comparison of general object trackers for hand tracking in high-speed videos
JP5865687B2 (en) Image feature extraction device and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180206

R150 Certificate of patent or registration of utility model

Ref document number: 6289027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250