JP6451418B2 - Gaze target determination device, gaze target determination method, and gaze target determination program - Google Patents
Gaze target determination device, gaze target determination method, and gaze target determination program Download PDFInfo
- Publication number
- JP6451418B2 JP6451418B2 JP2015048514A JP2015048514A JP6451418B2 JP 6451418 B2 JP6451418 B2 JP 6451418B2 JP 2015048514 A JP2015048514 A JP 2015048514A JP 2015048514 A JP2015048514 A JP 2015048514A JP 6451418 B2 JP6451418 B2 JP 6451418B2
- Authority
- JP
- Japan
- Prior art keywords
- gaze target
- target determination
- trajectory
- speed parameter
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 38
- 230000008859 change Effects 0.000 claims description 44
- 238000012545 processing Methods 0.000 claims description 42
- 238000001514 detection method Methods 0.000 claims description 37
- 238000011156 evaluation Methods 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 18
- 239000000284 extract Substances 0.000 claims description 7
- 238000003384 imaging method Methods 0.000 claims description 7
- 230000006399 behavior Effects 0.000 description 39
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
この発明は、ビデオカメラ等の撮像装置が撮像したフレーム画像を処理し、撮像されている人物等の挙動から、注視対象を設定する技術に関する。 The present invention relates to a technique for processing a frame image captured by an imaging device such as a video camera and setting a gaze target from the behavior of a person being captured.
従来、駅、ショッピングセンタ、繁華街等の不特定多数の人が集まる場所では、設置したビデオカメラ等(以下、単にカメラと言う。)の撮像画像を処理し、撮像されている人物等(以下、単に対象者と言う。)が特異な挙動をとった場合の検知を行っている。具体的には、カメラで撮像しているフレーム画像を処理し、対象者の挙動を解析し、その挙動が特異であるかどうかを判断している。例えば、特許文献1には、フレーム画像に含まれる対象者の方向転換回数に基づいて、ふらつきながら移動するような挙動を検知する技術を開示している。 Conventionally, in places where a large number of unspecified people gather, such as stations, shopping centers, and downtowns, captured images of installed video cameras and the like (hereinafter simply referred to as cameras) are processed, and humans and the like that are captured (hereinafter referred to as cameras) , Simply referred to as the subject). Specifically, the frame image captured by the camera is processed, the behavior of the subject is analyzed, and it is determined whether or not the behavior is unique. For example, Patent Document 1 discloses a technique for detecting a behavior that moves while wobbling based on the number of times of turn of a subject included in a frame image.
ふらつきながら移動するような挙動を検知することは、体調不良者の発見や酔客の事故防止等のために有効である。しかしながら、上述の特許文献1に開示された技術のように、方向転換回数が多い挙動を検知しても、例えば、雑踏やラッシュ時の駅構内のような混雑度が高いエリアで、他人を避けながら移動する対象者まで、特異な挙動をとった対象者として扱われてしまう恐れがあった。 Detecting a behavior that moves while wobbling is effective for finding a poor physical condition and preventing accidents of drunks. However, even if a behavior with a large number of direction changes is detected as in the technique disclosed in Patent Document 1 described above, for example, avoiding others in an area with high congestion such as a crowded or rush hour station. However, there is a risk that even a moving subject may be treated as a subject having a unique behavior.
そこで、この発明の目的は、ふらつきながら移動するような特異な挙動をとる対象者を注視対象として判定する精度を高められる技術を提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide a technique capable of improving the accuracy of determining a target person who takes a peculiar behavior such as moving while wobbling as a gaze target.
この発明の注視対象判定装置は、上述の課題を解決し、その目的を達するために、以下のように構成している。 The gaze target determination apparatus of the present invention is configured as follows in order to solve the above-described problems and achieve the object.
注視対象判定装置は、撮像装置が撮像したフレーム画像を処理し、撮像されたオブジェクトを抽出する。そして注視対象判定装置は、抽出したオブジェクトが撮像された位置と時間とに対応するオブジェクトの軌跡を取得する。また、注視対象判定装置は、取得したオブジェクトの軌跡に基づいて、抽出したオブジェクトの移動方向の変化が特異であった回数を検出する。また、取得したオブジェクトの軌跡に基づいて、抽出したオブジェクトの速度パラメータを検出する。そして注視対象判定装置は、特異であった回数(以下、ふらつき回数と言う。)と検出した速度パラメータとに基づいて、抽出したオブジェクトを注視対象に設定するか否かを判定する。 The gaze target determination device processes the frame image captured by the imaging device and extracts the captured object. Then, the gaze target determination device acquires a trajectory of the object corresponding to the position and time at which the extracted object was imaged. In addition, the gaze target determination device detects the number of times that the change in the movement direction of the extracted object is unique based on the acquired trajectory of the object. Further, the speed parameter of the extracted object is detected based on the acquired trajectory of the object. Then, the gaze target determination device determines whether or not to set the extracted object as a gaze target based on the number of times of peculiarity (hereinafter referred to as the number of wobbles) and the detected speed parameter.
すなわち、注視対象判定装置は、オブジェクトとして抽出された対象者のふらつき回数に、対象者の速度を加味して対象者の挙動を解析することができる。酔客や体調不良者がふらつきながら移動するような挙動では、時として、速度が極端に速くなることや、逆に極端に遅くなること、速度のばらつきが大きくなること、などが知られている。これに対して、標準的な対象者が他人を避けながら移動するような挙動では、移動の速度がおおむね安定していて、所定の範囲に収まりやすいことが知られている。上述した注視対象判定装置では、対象者のふらつきながら移動するような特異な挙動を対象者の速度に注目して検知するので、ふらつきながら移動するような特異な挙動をとった対象者を注視対象としてより正確に検知することが可能になる。 In other words, the gaze target determination device can analyze the behavior of the subject by adding the speed of the subject to the number of times the subject's wobbling extracted as the object. It is known that, when a drunk person or a person with poor physical condition moves while wandering, the speed becomes extremely fast, conversely extremely slow, and the speed variation becomes large. On the other hand, it is known that in a behavior in which a standard subject moves while avoiding others, the movement speed is generally stable and easily falls within a predetermined range. In the gaze target determination device described above, a unique behavior that moves while the subject is wobbling is detected by paying attention to the speed of the subject. As a result, it can be detected more accurately.
また、注視対象判定部は、ふらつき回数と係数との積を評価スコアとして、速度パラメータに基づいて係数を検出し、評価スコアが閾値よりも大きい場合に、オブジェクトを注視対象に設定する。したがって、ふらつき回数を主体とした挙動の解析を行いながら、速度パラメータに関する係数により評価スコアを補正して、適切に速度を加味した解析を行うことができる。 Further, gaze target determining unit, as the evaluation score the product of the variability number the coefficients Fu, detects the coefficient based on the speed parameter, when the evaluation score is greater than the threshold value, sets an object to gaze target. Therefore , it is possible to perform an analysis that appropriately considers the speed by correcting the evaluation score with the coefficient related to the speed parameter while analyzing the behavior mainly based on the number of times of wobbling.
また、注視対象判定装置は、速度パラメータが閾値より大きいか否かを判定し、速度パラメータが閾値より大きい場合に、係数を大きくしてもよい。これにより、酔客や体調不良者の、時として速度が極端に速くなる挙動を加味して、注視対象とすべき対象者をより正確に検知できる。 The gaze target determination device may determine whether or not the speed parameter is greater than a threshold value, and may increase the coefficient when the speed parameter is greater than the threshold value. This makes it possible to more accurately detect a target person to be a gaze target, taking into account the behavior of drunk customers and those with poor physical condition, sometimes with extremely high speed.
また、注視対象判定装置は、速度パラメータが閾値より小さいか否かを判定し、速度パラメータが閾値より小さい場合に、係数を大きくしてもよい。これにより、酔客や体調不良者の、時として速度が極端に遅くなる挙動を加味して、注視対象とすべき対象者をより正確に検知できる。 The gaze target determination device may determine whether or not the speed parameter is smaller than the threshold value, and may increase the coefficient when the speed parameter is smaller than the threshold value. Accordingly, it is possible to more accurately detect a target person to be a gaze target in consideration of a behavior of a drunk customer or a person with poor physical condition whose speed is sometimes extremely slow.
また、係数は、速度パラメータに応じる関数であってもよい。例えば、上記したように速度が極端に速くなる挙動に対する重みを強くするためには、この関数は速度パラメータに応じて大きくなることが好ましい。逆に、上記したように速度が極端に遅くなる挙動に対する重みを強くするためには、この関数は速度パラメータに応じて小さくなることが好ましい。 The coefficient may be a function depending on the speed parameter. For example, in order to increase the weight for the behavior of extremely high speed as described above, this function is preferably increased in accordance with the speed parameter. On the other hand, in order to increase the weight for the behavior in which the speed becomes extremely slow as described above, it is preferable that this function is reduced in accordance with the speed parameter.
また、係数は、速度パラメータの分散に応じる関数であってもよい。この場合には、上記したように速度のばらつきが大きい挙動に対する重みを強くして、注視対象とすべき対象者を検知することができる。 Further, the coefficient may be a function corresponding to the variance of the speed parameter. In this case, as described above, it is possible to increase the weight for the behavior having a large variation in speed, and to detect the target person to be a gaze target.
また、ふらつきを判定する条件に、オブジェクトの時間当たりの移動方向の変化量が閾値を超えたことを含んでもよい。また、ふらつきを判定する条件に、オブジェクトの移動方向の変化が反転したことを含めてもよい。また、注視対象判定装置は、注視対象に設定したオブジェクトを報知する報知部を更に備えてもよい。 Further, the condition for determining the wobbling may include that the amount of change in the moving direction of the object per time exceeds a threshold value. Further, the condition for determining the wobbling may include that the change in the moving direction of the object is reversed. The gaze target determination device may further include a notification unit that notifies the object set as the gaze target.
また、この発明の注視対象判定方法は、上記した注視対象判定装置が備える各部の処理と同様のステップを実行するものである。 Moreover, the gaze target determination method of this invention performs the same step as the process of each part with which the above-mentioned gaze target determination apparatus is provided.
また、この発明の注視対象判定プログラムは、コンピュータにインストールされて、コンピュータに上記した注視対象判定装置が備える各部の処理と同様のステップを実行させるものである。 In addition, the gaze target determination program of the present invention is installed in a computer, and causes the computer to execute the same steps as the processing of each unit included in the gaze target determination device described above.
この発明によれば、フレーム画像から抽出した、ふらつきながら移動するような挙動の対象者を、注視対象として判定する精度を高めることができる。 According to the present invention, it is possible to improve the accuracy of determining a target person, who is extracted from a frame image and moves while wobbling, as a gaze target.
以下、この発明の実施形態である注視対象判定装置の実施形態について説明する。 Hereinafter, an embodiment of a gaze target judging device which is an embodiment of the present invention will be described.
図1は、この発明の実施形態にかかる注視対象判定装置の主要部の構成を示すブロック図である。この実施形態にかかる注視対象判定装置1は、監視カメラとして設置したビデオカメラ2が撮像しているフレーム画像を処理する。ビデオカメラ2は、1秒間に数十フレーム(例えば、30フレーム)程度のフレーム画像を撮像し、注視対象判定装置1に出力する。ビデオカメラ2は、例えば、駅の改札口や駅ホーム等の監視対象エリアを撮像する。注視対象判定装置1は、フレーム画像から人や物を対象者として抽出し、抽出した対象者が人であれば、その人の挙動を判断する機能を有している。 FIG. 1 is a block diagram showing a configuration of a main part of a gaze target determining apparatus according to an embodiment of the present invention. The gaze target determination apparatus 1 according to this embodiment processes a frame image captured by a video camera 2 installed as a surveillance camera. The video camera 2 captures a frame image of about several tens of frames (for example, 30 frames) per second and outputs the frame image to the gaze target determination device 1. For example, the video camera 2 images a monitoring target area such as a ticket gate of a station or a station platform. The gaze target determination device 1 has a function of extracting a person or an object from the frame image as a target person and, if the extracted target person is a person, determining the behavior of the person.
注視対象判定装置1は、制御部11と、表示部15と、画像処理部13と、記憶部14と、通信部12と、を備えている。制御部11は、CPUなどで構成される機能ブロックであり、画像処理を除くその他の処理を制御する。記憶部14は、メモリやハードディスクなどで構成される機能ブロックであり、各種の情報を記憶する。通信部12は、接続コネクタや通信インターフェースなどで構成される機能ブロックであり、ビデオカメラを除くその他の外部装置と通信する。 The gaze target determination device 1 includes a control unit 11, a display unit 15, an image processing unit 13, a storage unit 14, and a communication unit 12. The control unit 11 is a functional block composed of a CPU or the like, and controls other processes other than image processing. The storage unit 14 is a functional block including a memory, a hard disk, and the like, and stores various types of information. The communication unit 12 is a functional block including a connection connector and a communication interface, and communicates with other external devices other than the video camera.
画像処理部13は、ビデオカメラ2が撮像したフレーム画像が入力され、フレーム画像を処理する。画像処理部13は、抽出部13A、変化検出部13B、速度検出部13C、および、注視対象判定部13Dを有している。 The image processing unit 13 receives a frame image captured by the video camera 2 and processes the frame image. The image processing unit 13 includes an extraction unit 13A, a change detection unit 13B, a speed detection unit 13C, and a gaze target determination unit 13D.
抽出部13Aは、ビデオカメラ2から入力されたフレーム画像を処理し、撮像されている人や物等の対象者を抽出する。具体的には、抽出部13Aは、入力されたフレーム画像に対して、人や物を特定することが可能なピクセルブロック(対象者)を抽出し、対象者にIDを付与する。IDは、対象者を識別できるユニークな値である。そして、抽出部13Aは、その対象者の頭部などの座標データ14Bを抽出する。抽出部13Aは、抽出した座標データ14Bを、その対象者のIDにひも付けして記憶部14に記憶させる。 The extraction unit 13A processes the frame image input from the video camera 2 and extracts a target person such as a person or an object being captured. Specifically, the extraction unit 13A extracts a pixel block (target person) that can specify a person or an object from the input frame image, and gives an ID to the target person. The ID is a unique value that can identify the target person. Then, the extraction unit 13A extracts coordinate data 14B such as the head of the subject. The extraction unit 13A links the extracted coordinate data 14B to the ID of the target person and causes the storage unit 14 to store it.
記憶部14は、登録されたIDごとに、複数の座標データ14Bを記憶する。記憶部14に記憶されたIDごとの複数の座標データ14Bそれぞれは、一定の時間間隔で撮像されたフレーム画像に基づくものである。すなわち、IDごとに記憶された一連の座標データ14Bは、抽出部13Aが抽出した対象者が撮像された位置と時間とに対応した対象者の軌跡を示す軌跡データ14Aに相当するものである。したがって、この記憶部14が、この発明で言う軌跡取得部に相当する。 The storage unit 14 stores a plurality of coordinate data 14B for each registered ID. Each of the plurality of coordinate data 14B for each ID stored in the storage unit 14 is based on a frame image captured at a constant time interval. That is, the series of coordinate data 14B stored for each ID corresponds to trajectory data 14A indicating the trajectory of the subject corresponding to the position and time at which the subject was extracted by the extraction unit 13A. Therefore, the storage unit 14 corresponds to a trajectory acquisition unit referred to in the present invention.
なお、軌跡データ14Aは、対象者のフレーム画像上、または、実平面上での対象者の軌跡を把握することが可能なデータである。図2(A)は、IDごとの軌跡データ14Aを、フレーム画像の座標系で描画した例を示す図であり、図2(B)は、IDごとの軌跡データ14Aを実平面の座標系に座標変換し、実平面の座標系で描画した例を示す図である。抽出部13Aが記憶部14に記憶させる軌跡データ14Aは、フレーム画像の座標系に基づくものであってもよく、また、実平面上での座標系に基づくものであってもよい。ただし、後述する対象者の移動方向の変化の検出精度を高めるためには、実平面の座標の座標データ14Bを用いることが望ましい。このため、以下の説明では、特に言及しない場合には、座標データ14Bは、実平面の座標系に座標変換されたものである。なお、以下に説明する座標データ14Bに基づく各種の処理は、実平面の座標系に基づいてもよく、フレーム画像の座標系に基づいてもよい。 The trajectory data 14A is data capable of grasping the trajectory of the subject on the subject's frame image or on the actual plane. FIG. 2A is a diagram showing an example in which the trajectory data 14A for each ID is drawn in the coordinate system of the frame image, and FIG. 2B is the trajectory data 14A for each ID in the coordinate system of the real plane. It is a figure which shows the example which coordinate-transformed and drawn with the coordinate system of the real plane. The trajectory data 14A stored in the storage unit 14 by the extraction unit 13A may be based on the coordinate system of the frame image, or may be based on the coordinate system on the real plane. However, in order to improve the detection accuracy of the change in the movement direction of the subject described later, it is desirable to use the coordinate data 14B of the coordinates on the real plane. For this reason, in the following description, unless otherwise specified, the coordinate data 14B is coordinate-transformed into a coordinate system on a real plane. Various processes based on the coordinate data 14B described below may be based on the coordinate system of the real plane or the coordinate system of the frame image.
変化検出部13Bは、IDごとの軌跡データ14Aに基づいて、対象者の移動方向の変化を検出する。図3(A)は、軌跡データ14Aに含まれる複数の座標データ14Bから対象者の移動方向の変化を検出する方法の一例を示す図である。図中の左側に、ある軌跡データ14Aに対応する対象者の軌跡を示している。 The change detection unit 13B detects a change in the movement direction of the subject based on the trajectory data 14A for each ID. FIG. 3A is a diagram illustrating an example of a method for detecting a change in the moving direction of the subject from a plurality of coordinate data 14B included in the trajectory data 14A. On the left side of the figure , the trajectory of the subject corresponding to certain trajectory data 14A is shown.
ここで説明する方法では、まず、対象者の移動方向の時間変化した角度Δθを検出する。対象者の移動方向は、任意の2つの座標データ14Bの点を結ぶベクトルである。したがって角度Δθは、2つの移動方向のベクトルがなす角度に相当する。図示する例では、各座標データ14Bの移動方向を、3フレーム離れた以前の座標データ14Bからのベクトルとし、互いの間が5フレーム離れた2つの移動方向のベクトルがなす角度を、対象者の移動方向の時間変化の角度Δθとしている。 In the method described here, first, the time-change angle Δθ in the moving direction of the subject is detected. The moving direction of the subject is a vector that connects any two points of the coordinate data 14B. Therefore, the angle Δθ corresponds to the angle formed by the vectors of the two movement directions. In the example shown in the drawing, the moving direction of each coordinate data 14B is a vector from the previous coordinate data 14B separated by 3 frames, and the angle formed by the two moving direction vectors separated by 5 frames between each other is set as the angle of the subject. The time change angle Δθ in the moving direction is used.
変化検出部13Bは、軌跡データ14Aを処理して上記に相当する演算等を行うことで、対象者の移動方向の変化を検出することができる。なお、上記したような対象者の移動方向の変化の検出方法は、実平面の座標系の軌跡データ14Aから対象者の移動方向の変化を検出する例示の一つである。対象者の移動方向の変化は、どのような検出方法で検出してもよい。 The change detection unit 13B can detect a change in the movement direction of the subject by processing the trajectory data 14A and performing a calculation corresponding to the above. The method for detecting the change in the movement direction of the subject as described above is one example of detecting the change in the movement direction of the subject from the trajectory data 14A in the coordinate system on the real plane. The change in the moving direction of the subject may be detected by any detection method.
また、変化検出部13Bは、検出した対象者の移動方向の変化の特異点を検出し、特異点が生じた回数をふらつき回数Cとして検出する。図3(B)は、角度Δθに基づく特異点の検出方法の一例を示す図である。図3(B)中には、ある対象者の移動軌跡に含まれる座標データ14Bから検出した角度Δθの推移を例示するグラフである。また、図3(B)中には、いくつかの条件を用いて特異点として検出した箇所を円形の表示で囲んで示している。 Further, the change detection unit 13B detects a singular point of the detected change in the moving direction of the target person, and detects the number of times the singular point is generated as the number of times of fluctuation C. FIG. 3B is a diagram illustrating an example of a method for detecting a singular point based on the angle Δθ. FIG. 3B is a graph illustrating the transition of the angle Δθ detected from the coordinate data 14B included in the movement trajectory of a certain subject. Further, in FIG. 3B, a part detected as a singular point using several conditions is surrounded by a circular display.
ここで説明する方法では、以下に示す3つの条件を満足する角度Δθを特異点として検出する。 In the method described here, an angle Δθ that satisfies the following three conditions is detected as a singular point.
条件1.現在のフレームでの角度Δθの絶対値が閾値Ds2よりも大きい、
条件2.前回に特異点として検出されたフレームから現在のフレームまでが所定のフレーム数よりも離れている、
条件3.前回に特異点として検出されたタイミングから現在のフレームまでの間に、絶対値が閾値Ds1を超えるレベルで、現在のフレームとは逆方向(極性が反対)への角度Δθの変化が発生した(ただし、初回の特異点においてはこの条件は加味しない。)。
Condition 1. The absolute value of the angle Δθ in the current frame is greater than the threshold value Ds2,
Condition 2. From the previous frame detected as a singular point to the current frame is more than the predetermined number of frames,
Condition 3. Between the timing when the singular point was detected last time and the current frame, a change in the angle Δθ in the direction opposite to the current frame (opposite polarity) occurred at a level where the absolute value exceeds the threshold value Ds1 ( However, this condition is not considered in the first singularity.)
このような条件を用いることで、対象者の移動方向の時間変化の角度Δθに基づいて、対象者の移動方向の変化の特異点を検出することができる。 By using such conditions, it is possible to detect a singular point of change in the moving direction of the subject based on the angle Δθ of the time change in the moving direction of the subject.
変化検出部13Bは、軌跡データ14Aを処理して上記に相当する演算等を行うことで、対象者の移動方向の変化から特異点を検出し、特異点を検出したふらつき回数Cを検出することができる。なお、上記したような特異点の検出方法(ふらつき回数のカウント方法)は、あくまで例示であり、フレーム画像の撮像エリアの状況や、対象者、挙動などの実情にあわせて、適宜に特異点の検出方法や検出条件を決定するとよい。 Change detecting section 13B, by processing the trajectory data 14A performs arithmetic operations corresponding to the above, detecting the singular point from the change in the moving direction of the subject, that detect the number of times C wobble has been detected singularities be able to. The detection method of the singular point as described above (wobble number counting method) is merely illustrative, conditions and the imaging area of the frame image, the subject, in accordance with the circumstances such behavior, the appropriate singularity The detection method and detection conditions may be determined.
また、図1に示す速度検出部13Cは、IDごとの軌跡データ14Aに基づいて、対象者の速度パラメータVを検出し、記憶部14に記憶させる。 Further, the speed detection unit 13C illustrated in FIG. 1 detects the speed parameter V of the subject based on the trajectory data 14A for each ID, and stores the detected speed parameter V in the storage unit 14.
図3(C)は、軌跡データ14Aに含まれる複数の座標データ14Bから対象者の速度パラメータVを検出する方法の一例を示す図である。図中の左側には、ある軌跡データ14Aに対応する対象者の軌跡を示している。 FIG. 3C is a diagram illustrating an example of a method for detecting the speed parameter V of the subject from a plurality of coordinate data 14B included in the trajectory data 14A. On the left side of the figure, the trajectory of the subject corresponding to certain trajectory data 14A is shown.
対象者の速度パラメータVは、基準とするフレームの座標データ14Bよりも単位時間だけ前のフレームの座標データ14Bから、基準とするフレームの座標データ14Bまでの距離に相当する。図示する例は、実平面の座標系に対応するものであり、速度パラメータの単位時間を3フレームとして、nフレームでの座標データ14Bとn−3フレームでの座標データ14Bとの距離を対象者の速度パラメータとしている。したがって、図1に示した速度検出部13Cでは、軌跡データ14Aを処理して、上記に相当する演算を行うことで、対象者の速度パラメータVを検出することができる。 The speed parameter V of the subject corresponds to the distance from the coordinate data 14B of the frame preceding the coordinate data 14B of the reference frame by a unit time to the coordinate data 14B of the reference frame. The example shown corresponds to the coordinate system of the real plane, and the distance between the coordinate data 14B in the n frame and the coordinate data 14B in the n-3 frame is set as the target person, assuming that the unit time of the speed parameter is 3 frames. The speed parameter. Therefore, the speed detection unit 13C illustrated in FIG. 1 can detect the speed parameter V of the subject by processing the trajectory data 14A and performing a calculation corresponding to the above.
なお、上記したような対象者の速度パラメータの検出方法は、実平面の座標系の軌跡データ14Aから対象者の速度パラメータを検出する例示の一つであり、対象者の速度パラメータVは、どのような検出方法で検出してもよい。また、検出する対象者の速度パラメータVの指標も、対象者の実際の速度に相関する指標であれば、どのような指標を検出してもよい。例えば、フレーム画像の座標系での座標データ14Bから速度パラメータを求める場合には、フレーム画像の座標系では縦方向の距離と横方向の距離が相違するため、例えば、2つの座標データ14Bの縦方向における座標の差と、横方向における座標の差とのそれぞれから対象者の縦方向の速度パラメータと横方向の速度パラメータとを検出し、いずれか大きい方を対象者の速度パラメータとして用いてもよい。 Note that the method for detecting the speed parameter of the subject as described above is one example of detecting the speed parameter of the subject from the locus data 14A of the coordinate system on the real plane. You may detect with such a detection method. Further, any index of the speed parameter V of the subject to be detected may be detected as long as the index correlates with the actual speed of the subject. For example, when the velocity parameter is obtained from the coordinate data 14B in the frame image coordinate system, the vertical distance and the horizontal distance are different in the frame image coordinate system. It is possible to detect the longitudinal velocity parameter and the lateral velocity parameter of the subject from the coordinate difference in the direction and the coordinate difference in the lateral direction, and use the larger one as the velocity parameter of the subject. Good.
また、図1に示す注視対象判定部13Dは、速度検出部13Cが検出した対象者の速度パラメータVに基づいて係数Kを検出する。そして、注視対象判定部13Dは、この係数Kと、変化検出部13Bが検出したふらつき回数Cとに基づいて、評価スコアSを検出する。そして、注視対象判定部13Dは、評価スコアSが閾値よりも大きくなるか否かを判定し、評価スコアSが閾値よりも大きくなった場合に、対象者の挙動がふらつき挙動に相当すると判断して、その対象者を注視対象に設定する。そして、注視対象判定部13Dは、注視対象を設定した場合に、通信部12を介して外部の報知装置に注視対象の対象者を通知したり、表示部15から注視対象の対象者についての報知をしたりする。したがって、これらの通信部12と表示部15とは、それぞれこの発明で言う報知部に相当する。 Further, the gaze target determination unit 13D illustrated in FIG. 1 detects the coefficient K based on the speed parameter V of the subject detected by the speed detection unit 13C. Then, the gaze target determination unit 13D detects the evaluation score S based on the coefficient K and the number of fluctuations C detected by the change detection unit 13B. Then, the gaze target determination unit 13D determines whether or not the evaluation score S is greater than the threshold value, and determines that the behavior of the subject corresponds to the wandering behavior when the evaluation score S is greater than the threshold value. The target person is set as a gaze target. When the gaze target is set, the gaze target determination unit 13 </ b> D notifies the external notification device of the gaze target person via the communication unit 12, or notifies the gaze target person from the display unit 15. Or do. Therefore, these communication part 12 and the display part 15 are corresponded to the alerting | reporting part said by this invention, respectively.
上記のように注視対象判定装置1は構成されているので、注視対象判定装置1は、対象者の速度パラメータVと対象者のふらつき回数Cとの双方に特徴を有するふらつき挙動を良好な精度で検出することができ、ふらつきながら移動するような特異な挙動をとった対象者を、注視対象としてより正確に検出することが可能になる。 Since the gaze target determination device 1 is configured as described above, the gaze target determination device 1 has a good accuracy in the wobbling behavior that is characterized by both the speed parameter V of the subject and the number of times C the subject wanders. It is possible to detect a target person who has taken a peculiar behavior that moves while wobbling and can be detected more accurately as a gaze target.
以下、注視対象判定装置1での評価スコアSを用いた注視対象の判定処理についてより詳細に説明する。 Hereinafter, the gaze target determination process using the evaluation score S in the gaze target determination device 1 will be described in more detail.
図4は、注視対象判定装置1における画像処理部13の制御フローを示す図である。 FIG. 4 is a diagram illustrating a control flow of the image processing unit 13 in the gaze target determination device 1.
画像処理部13は、ビデオカメラ2に撮像された対象エリアのフレーム画像を取得するたびに、取得したフレーム画像に基づいて、軌跡データ14Aを更新する(S10)。 Each time the image processing unit 13 acquires a frame image of the target area captured by the video camera 2, the image processing unit 13 updates the trajectory data 14A based on the acquired frame image (S10).
次に、画像処理部13は、対象者ごとに、更新された軌跡データ14Aに基づいて、ふらつき回数Cを検出する(S20)。 Next, the image processing unit 13 detects the number of fluctuations C for each subject based on the updated trajectory data 14A (S20).
また、画像処理部13は、対象者ごとに、更新された軌跡データ14Aに基づいて、係数Kを検出する(S30)。 Further, the image processing unit 13 detects the coefficient K for each subject based on the updated trajectory data 14A (S30).
次に、画像処理部13は、対象者ごとに、ふらつき回数Cと係数Kとの積として評価スコアSを検出し(S41)、閾値を用いて、評価スコアSが閾値よりも大きいか否かを判定し、評価スコアSが閾値よりも大きければ、その対象者を注視対象に設定する。具体的には、閾値Ss2を用い、評価スコアSが、比較的小さい閾値Ss2よりも大きければ、その対象者を注視対象に設定する。これらのステップが、この発明で言う注視対象判定ステップに相当する。 Next, the image processing unit 13 detects the evaluation score S as the product of the number of times of fluctuation C and the coefficient K for each target person (S41), and uses the threshold value to determine whether the evaluation score S is greater than the threshold value. If the evaluation score S is larger than the threshold value, the target person is set as a gaze target. Specifically, the threshold Ss2 is used, and if the evaluation score S is larger than the relatively small threshold Ss2, the target person is set as a gaze target. These steps correspond to the gaze target determination step referred to in the present invention.
ここでは更に、画像処理部13は、閾値Ss2よりも大きい閾値Ss1を用い、注視対象に設定した対象者の評価スコアSが、閾値Ss1より大きいか否かを判定する。評価スコアSが閾値Ss1より大きい場合には、画像処理部13は、該当する対象者が緊急の対処を要すると判断し、警報装置等の外部装置に対象者のふらつき挙動を警告する信号を出力する(S42)。また、注視対象に設定した対象者の評価スコアSが閾値Ss1より小さい場合には、画像処理部13は、警報装置等の外部装置に対象者のふらつき挙動を注意する信号を出力する(S43)。 Here, the image processing unit 13 further uses a threshold value Ss1 larger than the threshold value Ss2, and determines whether or not the evaluation score S of the subject set as the gaze target is larger than the threshold value Ss1. When the evaluation score S is larger than the threshold value Ss1, the image processing unit 13 determines that the corresponding target person needs urgent action, and outputs a signal that warns the target person's stagger behavior to an external device such as an alarm device. (S42). When the evaluation score S of the subject set as the gaze target is smaller than the threshold value Ss1, the image processing unit 13 outputs a signal to watch out for the wandering behavior of the subject to an external device such as an alarm device (S43). .
画像処理部13が、以上のような制御フローで注視対象の判定処理を行うために、ふらつき回数の少ない対象者に対しては、速度が特異な場合に、評価スコアSに重みづけをして注視対象と判定されやすくすることができる。また、ふらつき回数が多い対象者に対しては、速度が特異か否かに応じて評価スコアSの重みづけを変えて、ふらつき挙動を警告すべきか否かの判定を容易化することができる。 Since the image processing unit 13 performs the gaze target determination process with the control flow as described above, the evaluation score S is weighted when the speed is unique for the target person with a small number of wobbles. It can be easily determined that the subject is gaze. In addition, for a subject who has a large number of wobbles, it is possible to change the weighting of the evaluation score S according to whether or not the speed is singular, thereby facilitating the determination as to whether or not the wandering behavior should be warned.
図5は、軌跡データ14Aの更新処理(S10)についてのより詳細な制御フローを示す図である。 FIG. 5 is a diagram showing a more detailed control flow for the update process (S10) of the trajectory data 14A.
画像処理部13は、まず、取得したフレーム画像に対して、人や物を特定することが可能なピクセルブロック(対象者)を抽出する(S11)。このステップが、この発明で言う抽出ステップに相当する。画像処理部13は、次に、抽出した対象者にIDを付与する(S12)。IDは、対象者を識別できるユニークな値である。このとき、前回のフレーム画像で同一と推定される対象者が抽出されていたか否かを、公知の人体検出技術等を用いて検出する。同一IDが検出された場合には、その対象者には前回と同じIDを付与し、前回抽出されていなかった場合には新規のIDを付与する。また、画像処理部13は、前回のフレーム画像で同一と推定される対象者が抽出されていなかった場合には新規のIDを軌跡データ14Aに登録する(S13)。次に、画像処理部13は、IDが付与されたピクセルブロック(対象者)のそれぞれから代表点の座標データ14Bを抽出する(S14)。次に、画像処理部13は、フレーム画像上での座標データ14Bに対して、実平面上での座標系への座標変換を行う(S15)。次に、画像処理部13は、対象者の過去の座標データ14Bの位置を軌跡データ14Aから読み取り、対象者の今回の座標データ14Bの位置とともに、対象者の移動軌跡の平準化処理を行う(S16)。 First, the image processing unit 13 extracts a pixel block (target person) that can specify a person or an object from the acquired frame image (S11). This step corresponds to the extraction step in the present invention. Next, the image processing unit 13 assigns an ID to the extracted target person (S12). The ID is a unique value that can identify the target person. At this time, it is detected using a known human body detection technique or the like whether or not the subject person estimated to be the same in the previous frame image has been extracted. When the same ID is detected, the same ID as the previous time is given to the target person, and when the same ID has not been extracted last time, a new ID is given. Further, the image processing unit 13 registers a new ID in the trajectory data 14A when the target person estimated to be the same in the previous frame image has not been extracted (S13). Next, the image processing unit 13 extracts the coordinate data 14B of the representative point from each pixel block (target person) to which the ID is assigned (S14). Next, the image processing unit 13 performs coordinate conversion to the coordinate system on the real plane with respect to the coordinate data 14B on the frame image (S15). Next, the image processing unit 13 reads the position of the subject's past coordinate data 14B from the trajectory data 14A, and performs leveling processing of the subject's movement trajectory together with the position of the subject's current coordinate data 14B ( S16).
そして、画像処理部13は、これらの処理で検出した対象者の座標データ14BにIDをひも付けして、記憶部14に記憶させることで、軌跡データ14Aを更新する(S17)。このような処理により、画像処理部13は、軌跡データ14Aを更新することができる。このステップが、この発明で言う軌跡取得ステップに相当する。 Then, the image processing unit 13 links the ID to the coordinate data 14B of the subject detected by these processes and stores it in the storage unit 14, thereby updating the trajectory data 14A (S17). By such processing, the image processing unit 13 can update the trajectory data 14A. This step corresponds to the trajectory acquisition step referred to in the present invention.
図6は、ふらつき回数Cの検出処理(S20)についてのより詳細な制御フローを示す図である。 FIG. 6 is a diagram showing a more detailed control flow for the detection process (S20) of the number of times of fluctuation C.
ここでは、更新された軌跡データ14Aに新たな特異点が含まれるか否かを判定して、ふらつき回数Cのカウントを行う。具体的には、画像処理部13は、まず、先に図3(A)を用いて説明した方法などで、更新された対象者の軌跡における最近の移動方向の変化(変化量Δθ)を検出する(S21)。次に、画像処理部13は、先に図3(B)を用いて説明した方法などで、更新された対象者の軌跡における最近の移動方向の変化が、新たに生じた特異点に相当するものか否かを判定する(S22)。次に、画像処理部13は、特異点に相当すると判断した場合に、ふらつき回数Cのカウントを増やす(S23)。このような処理により、画像処理部13は、軌跡データ14Aに基づいて、ふらつき回数Cを検出することができる。これらのステップが、この発明で言う変化検出ステップに相当する。 Here, it is determined whether or not a new singular point is included in the updated trajectory data 14A, and the number of fluctuations C is counted. Specifically, the image processing unit 13 first detects a recent change in movement direction (change amount Δθ) in the updated trajectory of the target person by the method described above with reference to FIG. (S21). Next, the image processing unit 13 uses the method described above with reference to FIG. 3B or the like, and the recent change in the moving direction in the updated trajectory of the subject corresponds to a newly generated singular point. It is determined whether it is a thing (S22). Next, when determining that the image processing unit 13 corresponds to a singular point, the image processing unit 13 increases the count of the number of times of wander C (S23). By such processing, the image processing unit 13 can detect the number of times of wander C based on the trajectory data 14A. These steps correspond to the change detection step in the present invention.
図7は、係数Kの検出処理(S30)についてのより詳細な制御フローを示す図である。 FIG. 7 is a diagram showing a more detailed control flow for the coefficient K detection process (S30).
ここでは、更新された軌跡データ14Aから最新の速度パラメータVを検出し、検出した速度パラメータVが、対象者のふらつくような挙動に伴って生じる速度パラメータであるか否かを判断し、そのような速度パラメータであると判定した場合に係数Kを増加させる。 Here, the latest speed parameter V is detected from the updated trajectory data 14A, and it is determined whether or not the detected speed parameter V is a speed parameter generated in accordance with the behavior of the subject that fluctuates. The coefficient K is increased when it is determined that the speed parameter is correct.
画像処理部13は、まず、先に図3(C)を用いて説明した方法などで、対象とする対象者の軌跡における最新の速度パラメータVを検出する(S31)。このステップが、この発明で言う速度検出ステップに相当する。 First, the image processing unit 13 detects the latest speed parameter V in the trajectory of the target subject using the method described above with reference to FIG. 3C (S31). This step corresponds to the speed detection step in the present invention.
次に、画像処理部13は、検出した速度パラメータVが、対象者のふらつく挙動に伴って生じるような速度にあたるか否かを判断するために、検出した速度パラメータVが閾値Vsに対して所定の条件を満足するか否かを判定する(S32)。 Next, the image processing unit 13 determines whether or not the detected speed parameter V is a predetermined speed with respect to the threshold value Vs in order to determine whether or not the detected speed parameter V corresponds to a speed that occurs in accordance with the subject's staggering behavior. It is determined whether or not the above condition is satisfied (S32).
次に、画像処理部13は、検出した速度パラメータVが閾値Vsに対して所定の条件を満足したと判定した場合に係数Kを増加させ(S33)、条件を満足しなかった場合には、係数Kを1 とする(S34)。 Next, the image processing unit 13 increases the coefficient K when it is determined that the detected speed parameter V satisfies a predetermined condition with respect to the threshold value Vs (S33), and when the condition is not satisfied, The coefficient K is set to 1 (S34).
このようにして、画像処理部13は、速度パラメータVが所定の条件を満足するか否かに基づいて係数Kを増加させるので、前述した評価スコアSは、速度パラメータVが所定の条件を満足する場合に高くなり、対象者が注視対象と判断されやすくなる。前述したように酔客や体調不良者の場合には速度が極端に速くなることや遅くなることがあるので、速度パラメータVが閾値よりも大きくなることや、速度パラメータVが閾値よりも小さくなることを条件に、係数Kを増加させることで、速度が極端に速くなったり遅くなったりする挙動を加味して、対象者がふらつきながら移動するよう挙動を検知し、注視対象を設定する精度を高められる。 In this way, the image processing unit 13 increases the coefficient K based on whether or not the speed parameter V satisfies a predetermined condition. Therefore, the evaluation score S described above has the speed parameter V that satisfies the predetermined condition. When it does, it becomes high and it becomes easy for a subject to be judged as a gaze target. As described above, in the case of a drunk customer or a person with poor physical condition, the speed may become extremely fast or slow, so that the speed parameter V becomes larger than the threshold or the speed parameter V becomes smaller than the threshold. By increasing the coefficient K on the condition of the above, taking into account the behavior that the speed becomes extremely fast or slow, the behavior is detected so that the subject moves while wobbling, and the accuracy of setting the gaze target is increased. It is done.
また、上記のように係数Kを増加させる際に、係数Kを増加させる量を、速度パラメータVの関数f(V)としてもよい。この場合、関数f(V)が速度パラメータVの増加に伴い増加するような関数であれば、酔客や体調不良者の速度が極端に速くなるような挙動に対する重みづけを強めることができ、そのような挙動をとる対象者を、注視対象として設定され易くすることができる。または、関数f(V)が速度パラメータVの増加に伴い減少するような関数であれば、酔客や体調不良者の速度が極端に遅くなるような挙動に対する重みづけを強めることができ、そのような挙動をとる対象者を、注視対象として設定され易くすることができる。 Further, when the coefficient K is increased as described above, the amount by which the coefficient K is increased may be the function f (V) of the speed parameter V. In this case, if the function f (V) is a function that increases as the speed parameter V increases, it is possible to increase the weighting of the behavior that drastically increases the speed of the drunk or poor physical condition. It is possible to easily set a target person who takes such behavior as a gaze target. Alternatively, if the function f (V) is a function that decreases with an increase in the speed parameter V, it is possible to increase the weighting of the behavior that drastically reduces the speed of the drunk or the poor physical condition. It is possible to make it easy to set a subject who takes a behav- ior as a gaze target.
上記の条件(S32)や関数(S33)は、速度を加味する対象とする挙動の種類や、対象エリアの環境などによって適宜のものを採用するとよく、いずれか一方のみを用いるようにしてもよい。また、上記した各種の演算式はあくまで一例であり、同等の結果が得られる別の演算式に替えたり、同等の結果が得られる演算以外の処理に替えたりしてもよい。上記した条件や演算式の内容は、対象とする挙動や、対象エリアの環境などの実情に応じて適宜の変更や調整を加えるとよい。 As the above condition (S32) and function (S33), an appropriate one may be adopted depending on the type of behavior to be considered for speed, the environment of the target area, and the like, or only one of them may be used. . The above-described various arithmetic expressions are merely examples, and may be replaced with another arithmetic expression that obtains an equivalent result, or may be replaced with a process other than the arithmetic that obtains an equivalent result. The contents of the above-described conditions and arithmetic expressions may be appropriately changed or adjusted according to the actual situation such as the target behavior and the environment of the target area.
図8は、係数Kの検出処理(S30)についての変更例を示す制御フローの図である。 FIG. 8 is a control flow diagram illustrating a modification example of the coefficient K detection process (S30).
図8に示す変更例では、速度パラメータVとともに分散Aを検出し(S31’)、検出した分散Aの関数f(A)を、係数Kを増加させる際の増加量としている(S33’)この場合には、例えば、酔客や体調不良者の速度のばらつきが大きくなるような挙動に対する重みづけを強めることができ、そのような挙動をとる対象者を、注視対象として設定され易くすることができる。 In the modified example shown in FIG. 8, the variance A is detected together with the velocity parameter V (S31 ′), and the function f (A) of the detected variance A is set as an increase amount when the coefficient K is increased (S33 ′). In this case, for example, it is possible to increase the weighting of behavior that causes a large variation in the speed of a drunk customer or a person with poor physical condition, and it is possible to easily set a target person who takes such behavior as a gaze target. .
以上に説明したような制御フローを採用することにより、画像処理部13では、ふらつき回数Cを主体とした挙動の解析を行いながら、速度パラメータVに関する係数Kにより評価スコアSを補正して、適切に速度を加味した解析を行うことができる。 By adopting the control flow as described above, the image processing unit 13 corrects the evaluation score S by the coefficient K related to the speed parameter V while analyzing the behavior mainly based on the number of times of fluctuation C, and appropriately It is possible to perform an analysis taking into account the speed.
1…注視対象判定装置
2…ビデオカメラ(撮像装置)
11…制御部
12…通信部
13…画像処理部
13A…抽出部
13B…変化検出部
13C…速度検出部
13D…注視対象判定部
14…記憶部
14A…軌跡データ
14B…座標データ
15…表示部
DESCRIPTION OF SYMBOLS 1 ... Gaze target determination apparatus 2 ... Video camera (imaging apparatus)
DESCRIPTION OF SYMBOLS 11 ... Control part 12 ... Communication part 13 ... Image processing part 13A ... Extraction part 13B ... Change detection part 13C ... Speed detection part 13D ... Gaze target determination part 14 ... Storage part 14A ... Trajectory data 14B ... Coordinate data 15 ... Display part
Claims (10)
前記抽出部が抽出したオブジェクトが撮像された位置と時間とに対応する前記オブジェクトの軌跡を取得する軌跡取得部と、
前記軌跡取得部が取得した前記オブジェクトの軌跡に基づいて、前記抽出部が抽出したオブジェクトの移動方向の変化が特異であった回数を検出する変化検出部と、
前記軌跡取得部が取得した前記オブジェクトの軌跡に基づいて、前記抽出部が抽出したオブジェクトの速度パラメータを検出する速度検出部と、
前記変化検出部が検出した前記回数と前記速度検出部が検出した前記速度パラメータとに基づいて、前記抽出部が抽出したオブジェクトを注視対象に設定するか否かを判定する注視対象判定部と、を備え、
前記注視対象判定部は、前記回数と係数との積を評価スコアとして、前記速度パラメータに基づいて前記係数を検出し、前記評価スコアが閾値よりも大きい場合に、前記オブジェクトを注視対象に設定する、
注視対象判定装置。 An extraction unit that processes the frame image captured by the imaging device and extracts the captured object;
A trajectory acquisition unit that acquires a trajectory of the object corresponding to the position and time at which the object extracted by the extraction unit was imaged;
Based on the trajectory of the object acquired by the trajectory acquisition unit, a change detection unit that detects the number of times the change in the movement direction of the object extracted by the extraction unit is unique;
Based on the trajectory of the object acquired by the trajectory acquisition unit, a speed detection unit that detects a speed parameter of the object extracted by the extraction unit;
A gaze target determination unit that determines whether to set the object extracted by the extraction unit as a gaze target based on the number of times detected by the change detection unit and the speed parameter detected by the speed detection unit; Bei to give a,
The gaze target determination unit uses the product of the number of times and the coefficient as an evaluation score, detects the coefficient based on the speed parameter, and sets the object as a gaze target when the evaluation score is greater than a threshold value. ,
Gaze target determination device.
請求項1に記載の注視対象判定装置。 The gaze target determination unit determines whether or not the speed parameter is greater than a threshold, and increases the coefficient when the speed parameter is greater than the threshold.
The gaze target determination device according to claim 1 .
請求項1に記載の注視対象判定装置。 The gaze target determination unit determines whether the speed parameter is smaller than a threshold, and increases the coefficient when the speed parameter is smaller than the threshold.
The gaze target determination device according to claim 1 .
請求項1乃至請求項3のいずれかに記載の注視対象判定装置。 The coefficient is a function depending on the speed parameter.
The gaze target determination device according to any one of claims 1 to 3 .
請求項1乃至請求項4のいずれかに記載の注視対象判定装置。 The coefficient is a function depending on the variance of the speed parameter.
Gaze target determining apparatus according to any one of claims 1 to 4.
請求項1乃至請求項5のいずれかに記載の注視対象判定装置。 The change detection unit includes, as a condition for determining whether or not the change in the movement direction is singular, that the amount of change in the movement direction per time of the object exceeds a threshold value,
The gaze target determination device according to any one of claims 1 to 5 .
請求項1乃至請求項6のいずれかに記載の注視対象判定装置。 The change detection unit includes that the change in the movement direction of the object is reversed as a condition for determining whether or not the change in the movement direction is singular.
The gaze target determination device according to any one of claims 1 to 6 .
請求項1乃至請求項7のいずれかに記載の注視対象判定装置。 A notification unit that notifies the object set by the gaze target determination unit as a gaze target;
The gaze target determination device according to any one of claims 1 to 7 .
前記抽出ステップで抽出したオブジェクトが撮像された位置と時間とに対応する前記オブジェクトの軌跡を取得する軌跡取得ステップと、
前記軌跡取得ステップで取得した前記オブジェクトの軌跡に基づいて、前記抽出ステップで抽出したオブジェクトの移動方向の変化が特異であった回数を検出する変化検出ステップと、
前記軌跡取得ステップで取得した前記オブジェクトの軌跡に基づいて、前記抽出ステップで抽出したオブジェクトの速度パラメータを検出する速度検出ステップと、
前記変化検出ステップで検出した前記回数と前記速度検出ステップで検出した前記速度パラメータとに基づいて、前記抽出ステップで抽出したオブジェクトを注視対象に設定するか否かを判定する注視対象判定ステップと、
を実行する、注視対象判定方法であって、
前記注視対象判定ステップは、前記回数と係数との積を評価スコアとして、前記速度パラメータに基づいて前記係数を検出し、前記評価スコアが閾値よりも大きい場合に、前記オブジェクトを注視対象に設定するステップである、
注視対象判定方法。 An extraction step of processing the frame image captured by the imaging device and extracting the captured object;
A trajectory acquisition step for acquiring a trajectory of the object corresponding to the position and time at which the object extracted in the extraction step was imaged;
Based on the trajectory of the object acquired in the trajectory acquisition step, a change detection step of detecting the number of times the change in the moving direction of the object extracted in the extraction step is unique;
Based on the trajectory of the object acquired in the trajectory acquisition step, a speed detection step of detecting a speed parameter of the object extracted in the extraction step;
Based on the number of times detected in the change detection step and the speed parameter detected in the speed detection step, a gaze target determination step for determining whether to set the object extracted in the extraction step as a gaze target;
A method for determining a gaze target,
The gaze target determination step uses the product of the number of times and the coefficient as an evaluation score, detects the coefficient based on the speed parameter, and sets the object as a gaze target when the evaluation score is greater than a threshold value. Is a step,
Gaze target determination method.
前記抽出ステップで抽出したオブジェクトが撮像された位置と時間とに対応する前記オブジェクトの軌跡を取得する軌跡取得ステップと、
前記軌跡取得ステップで取得した前記オブジェクトの軌跡に基づいて、前記抽出ステップで抽出したオブジェクトの移動方向の変化が特異であった回数を検出する変化検出ステップと、
前記軌跡取得ステップで取得した前記オブジェクトの軌跡に基づいて、前記抽出ステップで抽出したオブジェクトの速度パラメータを検出する速度検出ステップと、
前記変化検出ステップで検出した前記回数と前記速度検出ステップで検出した前記速度パラメータとに基づいて、前記抽出ステップで抽出したオブジェクトを注視対象に設定するか否かを判定する注視対象判定ステップと、
をコンピュータに実行させる、注視対象判定プログラムであって、
前記注視対象判定ステップは、前記回数と係数との積を評価スコアとして、前記速度パラメータに基づいて前記係数を検出し、前記評価スコアが閾値よりも大きい場合に、前記オブジェクトを注視対象に設定するステップである、
注視対象判定プログラム。 An extraction step of imaging device processes the frame image captured, to extract the imaged object,
A trajectory acquisition step for acquiring a trajectory of the object corresponding to the position and time at which the object extracted in the extraction step was imaged;
Based on the trajectory of the object acquired in the trajectory acquisition step, a change detection step of detecting the number of times the change in the moving direction of the object extracted in the extraction step is unique;
Based on the trajectory of the object acquired in the trajectory acquisition step, a speed detection step of detecting a speed parameter of the object extracted in the extraction step;
Based on the number of times detected in the change detection step and the speed parameter detected in the speed detection step, a gaze target determination step for determining whether to set the object extracted in the extraction step as a gaze target;
The to be executed by the computer, a gaze object determination program,
The gaze target determination step uses the product of the number of times and the coefficient as an evaluation score, detects the coefficient based on the speed parameter, and sets the object as a gaze target when the evaluation score is greater than a threshold value. Is a step,
Gaze target determination program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015048514A JP6451418B2 (en) | 2015-03-11 | 2015-03-11 | Gaze target determination device, gaze target determination method, and gaze target determination program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015048514A JP6451418B2 (en) | 2015-03-11 | 2015-03-11 | Gaze target determination device, gaze target determination method, and gaze target determination program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016170516A JP2016170516A (en) | 2016-09-23 |
JP6451418B2 true JP6451418B2 (en) | 2019-01-16 |
Family
ID=56983813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015048514A Expired - Fee Related JP6451418B2 (en) | 2015-03-11 | 2015-03-11 | Gaze target determination device, gaze target determination method, and gaze target determination program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6451418B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6604821B2 (en) * | 2015-11-02 | 2019-11-13 | 株式会社Jr西日本テクシア | Station surveillance camera system |
JP6906577B2 (en) * | 2019-09-12 | 2021-07-21 | 三菱電機インフォメーションシステムズ株式会社 | Notification judgment device, notification judgment method and notification judgment program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07134767A (en) * | 1993-11-10 | 1995-05-23 | Toshiba Corp | Monitoring device for intrusion of suspicious person |
JP2006221379A (en) * | 2005-02-09 | 2006-08-24 | Mitsubishi Heavy Ind Ltd | Action recognition system |
JP2007089105A (en) * | 2005-09-20 | 2007-04-05 | Ara Software:Kk | Walk monitoring system |
JP5121258B2 (en) * | 2007-03-06 | 2013-01-16 | 株式会社東芝 | Suspicious behavior detection system and method |
JP2012243128A (en) * | 2011-05-20 | 2012-12-10 | Jvc Kenwood Corp | Monitoring device, monitoring method and monitoring program |
JP2013045344A (en) * | 2011-08-25 | 2013-03-04 | Jvc Kenwood Corp | Monitoring device, monitoring method, and monitoring program |
-
2015
- 2015-03-11 JP JP2015048514A patent/JP6451418B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016170516A (en) | 2016-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10810438B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
US10121068B2 (en) | Information processing apparatus, information processing method and program | |
US10445887B2 (en) | Tracking processing device and tracking processing system provided with same, and tracking processing method | |
US20200034633A1 (en) | People flow estimation device, people flow estimation method, and recording medium | |
JP2022166067A (en) | Information processing system, information processing method and program | |
US9639759B2 (en) | Video processing apparatus and video processing method | |
US10841501B2 (en) | Photographing control apparatus and photographing control method | |
JP6806188B2 (en) | Information processing system, information processing method and program | |
US20150146006A1 (en) | Display control apparatus and display control method | |
KR102474837B1 (en) | Foreground area extracting method and apparatus | |
JP6280020B2 (en) | Moving object tracking device | |
CN111767888A (en) | Object state detection method, computer device, storage medium, and electronic device | |
US20180307896A1 (en) | Facial detection device, facial detection system provided with same, and facial detection method | |
US11036974B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US11521392B2 (en) | Image processing apparatus and image processing method for image analysis process | |
JP2010041526A (en) | Automatic tracking device | |
US20180205877A1 (en) | Information processing apparatus, information processing method, system, and non-transitory computer-readable storage medium | |
JP6451418B2 (en) | Gaze target determination device, gaze target determination method, and gaze target determination program | |
JP2009182624A (en) | Target tracking device | |
JP2016170603A (en) | Moving body tracking device | |
JP7243372B2 (en) | Object tracking device and object tracking method | |
JP6289027B2 (en) | Person detection device and program | |
JP6939065B2 (en) | Image recognition computer program, image recognition device and image recognition method | |
KR101945487B1 (en) | Apparatus and method for recognizing object included in video data | |
CN106355137B (en) | Method for detecting repetitive walk around and repetitive walk around detecting device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170804 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180731 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6451418 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |